近一年来,“Scaling Law撞墙”的论调在AI圈不绝于耳。从Gary Marcus对模型收益递减的尖锐批评,到OpenAI下一代模型“Orion”进展不顺的传闻,再到GPT-5发布后市场“不够惊艳”的普遍反馈,似乎都在印证:曾经“大力出奇迹”的大模型迭代配方,已然走到尽头。就连OpenAI联合创始人Ilya Sutskever都公开表态,行业正从“扩展时代”回归“研究时代”,更让这一论调多了几分权威性。
然而,Gemini 3的横空出世,直接给“撞墙论”泼了一盆冷水。这款模型的突破绝非简单的性能提升,而是全方位补齐了过去两年Google被诟病的所有短板——从核心能力、逻辑推理,到响应速度、成本控制,再到生态适配,首次实现了对OpenAI的全面追平乃至超越。更关键的是,这份突破并非源于颠覆性的全新架构,而是来自预训练与后训练阶段的配方升级。Google敢公开宣称“预训练仍有改进空间”,这一信号本身就极具分量:Scaling的核心主线从未中断,只是需要更精细的玩法。

大模型训练变成了“重资产游戏”
行业对Scaling Law的争议,本质上是对“Scaling内涵”的理解偏差。传统Scaling Law的逻辑极其直白:更大的模型、更多的数据、更强的算力,必然对应更优的性能。这一由OpenAI 2020年论文确立的范式,支撑了过去数年的大模型竞赛,但如今确实显现疲态——高质量数据濒临耗尽,单纯堆参数的边际收益持续下滑,这是无法否认的事实。但这并不等同于Scaling的终结,而是意味着行业进入了“多维Scaling”的新阶段。
英伟达CEO黄仁勋提出的三阶段Scaling框架,精准概括了这一进化趋势:预训练Scaling、后训练Scaling与推理时Scaling(test-time compute)。三者如同大模型的“成长三部曲”:预训练是“打基础”,通过广泛数据输入构建通用知识体系;后训练是“精深造”,借助RLHF、DPO等技术实现特定领域能力优化;推理时Scaling则是“练思维”,让模型在作答前预留足够时间深度思考,OpenAI的o1系列正是这一方向的典型代表。Sam Altman在2025年初的博客中更直接点破核心:模型智能水平与训练运行资源的对数成正比,这意味着只要持续投入,能力就会稳步提升,曲线从未弯曲,只是需要用更精准的坐标去解读。
更有突破性的视角来自IBM播客《Mixture of Experts》的嘉宾观点:或许我们该将其重新定义为“Scaling Experimentation Law”(实验扩展定律)。在他们看来,算力增长的核心价值并非直接转化为智能,而是大幅提升研究效率——更多算力意味着更快的实验迭代、更高效的试错筛选,最终催生出更优的算法,进而转化为更强的模型。这也解释了为何即便单维度Scaling收益下滑,头部企业仍不惜血本加码:算力不仅是技术变量,更是实验效率的核心支撑,在竞争白热化的赛道上,“慢一步就可能被淘汰”的博弈压力,让企业无法停下投入的脚步。
从这个角度看,Ilya的“回归研究时代”与行业主流的“Scaling未死”并不矛盾。Ilya反对的是“简单粗暴堆资源”的旧配方,而非否定算力的价值——他强调的是“带着大型计算机回到研究时代”,算力是基础前提,但不再是唯一变量。当然,这一表态也暗含商业叙事考量:其新创办的Safe Superintelligence(SSI)走的是轻商业化、重基础研究的路线,“扩展时代结束”的论调,恰好为其构建了差异化的竞争定位。
这场争议的背后,是各方基于自身立场的利益博弈,每个人的表态都自带“立场滤镜”。英伟达无疑是最大的受益者,无论Scaling朝着哪个维度演进,预训练、后训练还是推理优化,最终都离不开GPU的支撑。对“卖铲子”的英伟达而言,Scaling曲线的数量无关紧要,只要行业仍在追求Scaling,它就稳赚不赔,这也是其力证“Scaling仍有三条曲线”的核心原因。
OpenAI、Google、Anthropic等模型厂商的立场同样清晰。它们已启动或规划的数据中心项目,投资规模动辄百亿、千亿美元级别,这些资金要么已落地,要么已作出承诺。此时若承认“Scaling Law失效”,无异于否定自身投资的合理性,因此它们必须坚信并向投资人传递“Scaling仍有效”的信号。马斯克的xAI也遵循这一逻辑:即便他多次警告AI未来将面临电力与电网的硬约束,却仍在疯狂扩充Colossus超算集群,目标直指100万块GPU——若不相信算力投入能转化为能力突破,这般大规模布局便毫无意义。
站在对立面的阵营也各有考量。Ilya的SSI融资规模远不及硅谷巨头,无法在算力竞赛中正面抗衡,因此“研究突破比规模扩张更重要”的论调,既是技术判断,也是差异化竞争的策略。而以Yann LeCun、李飞行为代表的“世界模型派”,则从根本上质疑当前LLM路线的上限——他们认为LLM再怎么Scaling,也只是“高级自动补全工具”,真正的AGI需要世界模型、自监督学习、规划能力、持久记忆与具身交互的全新架构。Yann LeCun创办的AMI、李飞飞的World Labs,均选择押注3D世界重建等世界模型相关方向,走出了与“单纯做大语言模型”截然不同的Scaling路径。
中国AI企业在这场争议中处于特殊位置,DeepSeek的发展轨迹极具代表性。过去一年,DeepSeek凭借极致的算力利用效率,以远低于硅谷同行的成本打造出竞争力不俗的模型,这一度被解读为“Scaling Law失效”的反例。但事实并非如此——DeepSeek真正证明的,是架构优化与工程能力能让Scaling曲线向“省算力”方向平移,而非消除曲线本身。其在DeepSeek-V3.2技术报告中明确承认,模型世界知识广度的不足,根源在于总训练算力低于前沿闭源模型,而补齐短板的唯一途径,就是扩大预训练算力投入。这也道出了中国AI企业的现实困境:现阶段,算法优化与工程效率是核心护城河,但长期来看,若Scaling Law持续有效,算力就是绕不开的坎;在芯片受限的背景下,要么探索全新技术路线,要么在有限资源内将效率做到极致。
回到最初的问题:Scaling Law到底死没死?答案已然清晰——未死,只是换了赛道。传统“大、多、强”的简单配方确实遭遇瓶颈,但Scaling的内涵已拓展至预训练、后训练、推理时计算多个维度,算力的价值也从直接转化为智能,升级为支撑实验迭代的基础设施。对头部企业而言,Scaling早已超越技术范畴,成为资产负债表层面的必然选择:已落地的千亿级基建投入,要求模型能力持续提升以消化成本。
当然,这并不意味着前景一片乐观——模型能力提升的速度,能否匹配当前的估值与投资规模,仍是悬而未决的问题。华尔街有句名言:“趋势是你的朋友,直到它不是。”Scaling Law的趋势尚未终结,但未来何时会迎来真正的天花板,仍需行业用技术突破来作答。
本文来自微信公众号:硅星人Pro,作者:周一笑
