DeepSeek连夜改版,闪电和钻石同时上线,V4终于要来了?
发布时间:2026-04-09 04:03 浏览量:1
今天凌晨,很多打开DeepSeek网页端的人发现,输入框上方突然多了两个图标——一个闪电,一个钻石。
没有发布会,没有官方推文,甚至连一条博客都没发。DeepSeek就这么悄无声息地把自己的界面给改了。
闪电对应“快速模式”,钻石对应“专家模式”。这也是DeepSeek首次在产品端引入分层模式设计。
外界普遍认为,这是为即将发布的新一代V4模型做的功能和体验预热。但比发新模型更值得关注的,或许是这次的分级制度本身——作为一种“按需调用算力”的调度机制,它的出现意味着DeepSeek正在告别“一刀切”。
今天咱们就来聊聊:闪电和钻石到底有啥区别?V4真的要来了吗?
两种模式的定位差异,在DeepSeek自己的提示语里已经说得很清楚了:
快速模式
(闪电):适合日常对话,即时响应,支持图片和文件上传与文字识别。
专家模式
(钻石):擅长复杂问题,但高峰时段可能需要等待,目前不支持文件上传和多模态功能。
背后跑的东西也不一样。快速模式大概率跑的是一个更轻量的V4 Lite模型,针对速度做了优化。而专家模式疑似路由到了更大、更强的模型——很可能就是DeepSeek V4正式版的某个形态。
更有意思的是两个模式在回答逻辑上的差别。
快速模式
被强行加了一段“隐藏提示词”,强制要求“用最通俗的大白话回答”“尽量分点”“先总结再展开”,结构固定、出字飞快,但会稍微限制它深挖的欲望。内部温度参数被固定在较低水平(约0.3左右),答案确定性高,适合查资料、写标准邮件。
专家模式
则完全相反,会自由决定用表格、代码块还是长段落来回应。思考时间更长,但对复杂逻辑的嵌套和跨领域概念的缝合能力更强。温度参数随任务动态调整(通常在0.5-0.9浮动),虽然有一定概率跑偏,但上限更高。
上下文窗口方面,专家模式支持1M Token(约100万),相当于能一次性处理三部《三体》三部曲的体量;快速模式则通常是128K或256K。
通俗地说:
快速模式是“规规矩矩的打工人”,效率高但没什么创造力;专家模式是“天马行空的天才”,上限高但有时候会跑偏。
经过网友和媒体的多轮测试,专家模式在不同任务上的表现差异还挺大的。
数学与物理推理:专家模式明显更强
TechWeb设计了一道经典的数理问题:“一根10米长的竹竿,能否通过高2米、宽1米的门框?”快速模式判断为不可通过;专家模式不仅准确得出“可以”的结论,还同步给出了几何推导过程与直观的空间示意。
另一组测试也让两个模式各自编写p5.js程序,模拟球在旋转六边形内弹跳,要求受重力和摩擦力影响。结果显示专家模式给出的结果更符合物理直觉,落点更准,弹跳轨迹更真实,快速模式的结果肉眼可见差了一个档次。
创意写作:专家模式逻辑链更完整
一道辩论写作题——“替无聊辩护,论证无聊是现代人的奢侈品”,专家模式的输出更长,逻辑链更完整;快速模式的文风则相对自然朴实。有意思的是,在这个任务上两个模式的速度差距并不明显,甚至专家模式的思考时间更短。
编程任务:有点尴尬
也有网友让专家模式制作太空侵略者游戏,结果输出和快速模式差距不大。做宝可梦图鉴网站时,专家模式无法一次性输出完整代码,每次生成一部分就停下来,需要手动点击“继续生成”才能推进。最终生成的页面效果和同类任务下的GPT或Gemini相比,仍有明显差距。
也有网友实测发现“翻车”
澎湃新闻报道,有网友测试后推测,快速模式可能使用的是V4灰度测试,专家模式用的是V3.2tk。特别是在物理题测试中,快速模式反而比专家模式更“聪明”。还有网友让专家模式判断“城门高4m,宽3m,现有5.5m的长竹竿能否通过城门”,专家模式回答“不能通过”。同样的物理问题问千问,后者给出了“平着拿和斜着拿”两种可行方案。
总结下来:越是需要深度推理的场景,专家模式的优势越明显;但对于简单任务或某些特定领域,两者差距可能并不显著,甚至快速模式的表现反而更好。
这次更新的意义,可能不止于多了一个按钮。
在AI行业,“算力短缺”已经是房间里的大象。国金证券在研报中指出,算力供需正在发出关键信号——需求端以指数级膨胀,供给端却受限于芯片出口管制与成本约束,难以同步扩张。
这种分层模式,本质是一种“按需调用算力”的调度机制。简单任务交由低成本路径处理,仅在必要时启用高算力推理,从而减少无效Token消耗,实现整体成本的结构性下降。
这种设计背后的逻辑,和Anthropic最近的调整如出一辙。
大概一周前,Anthropic宣布自4月5日起,Claude的订阅服务将不再覆盖包括龙虾在内的第三方集成工具。背后的原因是:有重度用户每月仅支付200美元订阅费,却消耗了价值5000美元的算力资源。
小米AI负责人、前DeepSeek核心成员罗福莉在X平台分析称,全球算力供给已经跟不上Agent创造的Token需求增速。真正的出路不是更便宜的Token,而是“更高Token效率的Agent框架”叠加“更强大高效的模型”之间的协同进化。
从“一刀切”到“按需分配”,是AI行业正在经历的一次集体觉醒。
除了快速模式和专家模式,部分灰度测试用户的界面还出现了第三个选项——“视觉模式”。
不过被灰度到视觉模式的人非常之少。关注DeepSeek技术路线的博主Teortaxes认为,把Vision单独列为一个类是很不寻常的设计。他猜测,如果视觉模式真的上线,背后支撑它的可能已经不是常规的VLM(视觉语言模型),而是一种“深度统一世界模型”。
也有网友逆向前端代码发现,所谓“视觉理解”可能只是在快速模式下悄悄加了一个参数——filefeature.vision = true。
DeepSeek上线“专家模式”赶上了国产AI大模型热闹的一周。4月8日,智谱正式发布GLM-5.1,并在年内涨价超八成后再度提价10%,首次在核心场景实现与海外头部厂商的价格对齐。一周前,MiniMax也发布了新一代Agent旗舰大模型M2.7。
但“热闹”背后也有一些冷静的判断。晚点LatePost报道,V4正式版预计今年4月亮相,届时大概率仍是开源最强,但“很难是碾压级的强”。业内人士普遍认为,DeepSeek要复刻去年春节期间炸场的轰动性颇有技术挑战,因为国产大模型已经卷入深水战场,竞争极度激烈。
PConline的评测结论更有意思:“专家模式不是一次模型的迭代,更像是一次功能性的资源分层。DeepSeek在告诉你‘我有更强的思考模式可以调用’,但并没有说‘我已经是一个更聪明的新模型了’。把它理解成一次产品策略的调整,比理解成技术突破更准确。”
从闪电到钻石,从快速模式到专家模式,DeepSeek这次更新看似只是界面上多了两个图标,实则是产品理念的一次转向。
在算力短缺已成行业共识的今天,“按需分配”不再是选择题,而是必答题。分级不是限制用户体验,而是让每一分算力都花在刀刃上。
对于普通用户来说,这意味着什么?
意味着日常问天气、查资料,用快速模式就够了,省时省力。遇到复杂的编程调试、深度的数学推理,切换到专家模式,让它慢慢思考。