DeepSeek 再度迎来版本更新,只是此次登场的并非业界翘首以盼的 R2 模型 —— 其线上模型已迭代至 V3.1。《BUG》栏目实测发现,升级后的模型在上下文长度与交互友好度上有显著提升,编程能力尤其受开发者推崇。有技术人员分析,“DeepSeek 或已将 V3 与 R1 模型合并,这一调整有望降低部署成本”。对此,DeepSeek 方面仅回应称 “一切以官方公布为准”。
巧合的是,今日恰逢 R1 模型正式发布满 7 个月。在此期间,OpenAI、Google、阿里巴巴、月之暗面、智谱等国内外厂商密集发布新模型,而 R1 始终是它们对标测试的重要参照物。作为 R1 的续作,R2 的动态一直牵动着行业神经 —— 大厂需要新的技术锚点,市场也在期待创始人梁文锋带来新的突破。
实测:上下文扩容至 128K,性价比再升级
目前,DeepSeek 网页端及最新版 App 已支持 128K 长度的上下文输入。深度体验后的开发者反馈,此次更新后模型处理长文本的稳定性更强,推理能力也有明显进步。对比来看,V3.1(参数量 685B)与此前的 V3(671B)在模型尺寸上差异不大,但交互体验优化显著:回答信息收集环节更多采用表格汇总,表述更贴近人类自然语气,友好度大幅提升。

值得注意的是,DeepSeek App 与官网的输入框中,原 “深度思考(R1)” 按钮已简化为 “深度思考”。这意味着开启该模式后,调用的可能不再局限于 R1,或为 V3 与 R1 合并后的新模型。有开发者测试后指出,这种合并部署显著提升了算力效率:“此前 V3 与 R1 需各用 60 张卡分开部署,现在单模型即可覆盖,成本直降 50%;若仍用 120 张卡部署 V3.1,因缓存扩容,性能预估可提升 3-4 倍。”
目前,Hugging Face 开源社区已上线 DeepSeek-V3.1-Base 版本,官方仅标注其尺寸为 685B,支持 BF16、F8_E4M3、F32 数据类型,未披露更多细节。
国内厂商盼新 “参照物”,R2 仍需等待
尽管 V3.1 在体验与经济性上带来惊喜,但业界更关注的 R2 模型并未现身。今年 1 月 R1 发布后,DeepSeek 迅速引爆市场:当月网页及 App 用户增量达 1.25 亿(含网站与应用累加),80% 以上集中在 1 月最后一周;1 月 28 日其日活用户(DAU)首次超越豆包,成为全球增速最快的 AI 应用之一。而其开源策略更推动行业快速跟进,腾讯元宝、百度、360 等多款产品均借鉴或集成了 DeepSeek 满血版能力。此后,各大厂商的模型发布几乎都以 R1 为对标基准:阿里巴巴 Qwen 保持 “每月一大更、两周一小更” 节奏,上月发布的 Qwen3-235B-A22B 声称比肩 Gemini-2.5 pro 等顶尖模型,且超越 R1;月之暗面 7 月发布的 Kimi K2、智谱最新旗舰 GLM-4.5 也先后宣布性能超 R1,API 调用价低至 0.8 元 / 百万 tokens,经济性优势显著。

梁文锋的 “极客逻辑”:不追商业化,专注 AGI 上限
联想创投集团高级合伙人宋春雨与梁文锋私交甚笃,他近期向《BUG》栏目感慨:“他(梁文锋)对商业化、用户留存似乎兴趣不大。” 在宋春雨看来,这位技术极客的核心使命是探索 AGI 的边界 ——“他想搞清楚硅基智能的上限在哪里,专注打磨基础模型,确保每一代都保持领先。”这种专注反而让市场期待持续升温。业内人士认为,当前 AI 大模型的能力上限已足够强劲,“关键是稳定输出,别让下限太低”。反观 OpenAI 的 GPT-5,因数据、算力限制延迟发布后口碑不及预期,也印证了 “上限难突破,下限需夯实” 的行业现状。因此,在经济性、可用性上的创新,正成为衡量大模型实力的新标尺。
有分析指出,V3.1 的合并部署或为多模态模型铺路:“多模态场景下,推理与非推理任务分开部署负担太重,合并架构可降低后续发布门槛。” 这意味着 DeepSeek 多模态模型的发布可能已近在眼前。
国内 AI 大模型市场虽热闹依旧,但 DeepSeek 与梁文锋的 “爆炸性新闻” 已沉寂许久。不过市场的期待正在持续积蓄,下一次突破或许已在酝酿之中。