2025年11月25日,一场时长一个半小时、文字量超两万字的播客访谈,意外成为AI圈年度最重磅的思想碰撞。被冠以“深度学习教父”之名的Ilya Sutskever,在离开OpenAI、创办Safe Superintelligence Inc.(SSI)后,首次完整袒露了他对当下AI生态的批判,以及对未来智能发展的构想。在他眼中,如今炙手可热的AGI,早已偏离了他最初的期待——这不是一场技术的胜利,而是一场被资本裹挟、创新枯竭的集体迷失。
作为OpenAI的核心奠基人,Ilya的批判从未如此尖锐,却也从未如此指向根本。他的所有质疑,最终都收束于一个核心命题:当下的AI生态,正陷入“商业化优先于技术本质”的致命误区。而这场批判的起点,是他对LLM发展路径的颠覆性划分。
在Ilya看来,LLM的演进早已走过两个时代,如今正站在第三个时代的门槛上——却陷入了进退维谷的困境。2012至2020年是名副其实的“研究黄金时代”,彼时学界与业界百花齐放,新算法、新框架层出不穷,每一个突破都源于思想的火花。但2020年之后,“Scaling时代”的到来彻底改变了这一切:“堆数据、堆算力”成了唯一的通行法则,这种简单粗暴的模式像“吸走了房间里所有的空气”,让核心创新彻底陷入停滞。如今,预训练数据濒临枯竭,算力投入的边际效应持续递减,即便Scaling仍有商业惯性推动,却再也无法催生真正的技术飞跃。这也是他创办SSI的核心初衷:跳出Scaling的怪圈,重回基础研究,寻找能引领AI突破的根本性创新。
如果说对Scaling模式的否定是对技术路线的纠偏,那么对“模型能力与社会价值脱节”的批判,则直指当下AI发展的核心矛盾。Ilya毫不避讳地指出,如今的大模型在跑分测试中表现惊艳,背后却是天价的资金与算力投入,但这种“纸面实力”在实际经济活动中产生的价值,却不成比例地微薄。问题的根源,在于模型普遍存在的“Jaggedness(锯齿效应)”——能力时高时低,在特定测评场景中是“优等生”,换个陌生场景就瞬间沦为“白痴”。
而“锯齿效应”的背后,是模型泛化能力的严重缺失。Ilya犀利地将当下的强化学习(RL)比作一场“极致的应试教育”:训练过程中有全量数据支撑,通过反复“刷题”强化特定能力,最终在测评中取得优异成绩。但现实世界的场景千变万化,当模型遇到从未见过的新情况时,就会暴露出致命的短板。更值得警惕的是,如今行业在强化学习上的投入甚至超过了预训练,这种“舍本逐末”的做法,只会让模型的“应试能力”越来越强,而“实战能力”越来越弱。
比技术路线偏差更让Ilya失望的,是硅谷巨头主导下的AI生态氛围。他用“Rat Race(老鼠竞赛)”来形容当下巨头们的激烈角逐——这种竞争充满了内耗与痛苦,只聚焦于商业维度的胜负,却完全忽视了技术创新的本质。“如今的AI行业,公司数量比想法还多”,Ilya的这句吐槽,道尽了行业的浮躁:大家都在重复别人的路径,在标准答案上修修补补,却鲜有真正的核心创新。他毫不客气地反驳了硅谷流传甚广的老话“ideas are cheap,execution is everything”,反问道:“如果想法真的那么廉价,为什么现在没人能提出新想法?”在他看来,正是这种对“想法”的漠视,让整个行业陷入了创造力湮灭的困境。
作为始终关注AI安全的先驱,Ilya对当下的AGI安全策略也提出了尖锐批评。他认为,让AI学习“人类价值观”是一条不可行的道路——人类价值观本身就脆弱而矛盾,AI学到的往往只是表面相似、本质却完全不同的“伪价值观”,根本无法实现真正的安全对齐。而这一系列批评,实则指向同一个核心:当下的AI生态,是一个“技术尚未成熟,商业化却已过度”的畸形存在。“市场就是一个目光极其短浅的智能体”,Ilya的这句话精准点出了问题的根源:市场经济的短视与贪婪,将Scaling Law无限推升到它本不该达到的高度,让整个AI行业陷入了泡沫化的狂欢。
事实上,Ilya的这些观点并非首次出现,前两年他就曾表达过类似的担忧,LLM的坚定批评者Lecun等人也经常发出类似的声音。有趣的是,同样因与大厂理念不合而“出走”的Lecun,在X平台上发布了一张搞怪图片,自嘲他和Ilya观点相似,却获得了完全不同的舆论反馈。但细究之下,两人的批判虽有共通之处,核心主张却截然不同:Lecun是彻底的“革命派”,主张打碎现有的LLM体系,重建一套全新的AGI架构;而Ilya则是“改良派”,主张在现有LLM生态的基础上,通过基础研究突破,实现技术的迭代升级。而这个升级的终极目标,并非完善AGI,而是一步登天直指ASI(超级人工智能)。

相较于以往对AI安全的强烈担忧,此次访谈中的Ilya显得更加“建设性”——他不再过分渲染安全风险,而是更多地从产业进步的角度,阐述SSI的定位与打法。他明确表示,SSI是一家纯粹的研究型公司,绝不会涉足产品领域。这一选择背后,是他对当下AI商业逻辑的彻底背离:如果Scaling模式注定无法走向终局,如果硅谷的商业竞争只会导致内耗与创新枯竭,那么“聚焦研究、直指终极”就成了最理性的选择。这也是为什么他认为30亿美元的资金已经足够——他不会像奥特曼那样,每年花费天价供养免费用户,而是会将所有资源聚焦于ASI的研究突破。
关于SSI的研究方向,Ilya虽未给出明确答案,却勾勒出了清晰的轮廓。在他看来,当下算力供给充足,预训练数据却已成瓶颈,因此AI发展的核心突破口,在于提升模型的泛化能力。这意味着“样本效率”将成为关键——就像人类只需10小时的数据就能学会开车一样,未来的大模型也应具备用少量样本高效学习的能力。而贯穿整场访谈的高频词“Value Function(价值函数)”,则被Ilya视为实现这一目标的核心抓手。
在Ilya的构想中,Value Function类似于人类的直觉与情绪,它能让模型在推理过程中实时感知“错误”,而无需探索所有路径——这相当于让人类认知中“慢思考”的系统2,直接参与到模型的决策过程中,从而大幅降低推理成本。这种转变,本质上是让AI从“应试教育”转向“素质教育”:不再依赖海量数据“刷题”,而是通过提升内在学习能力,实现真正的自主学习。这也正是他对ASI的核心构想:ASI并非全知全能的“神级模型”,而是一个“超级学习者”——它能通过少量样本高效掌握新知识,也能在没有海量指令的情况下持续学习,就像一个充满好奇心、渴望探索世界的15岁少年。
在ASI的安全对齐问题上,Ilya提出了一个全新的思路:让AI感知生命,而非理解道德。他认为,如果能让AI感知包括人类、动物乃至自身在内的所有生命,并与它们产生共情,或许能实现更高效的安全约束。当AI能用同样的机制理解自身与其他生命存在时,就有可能自发产生“关怀”,从而避免对生命造成伤害。但即便如此,Ilya仍对人类的未来抱有隐忧:他认为,人类若想避免在ASI时代沦为“宠物”,或许需要通过脑机接口技术让自身也成为强大的智能体——这是一个他本人并不喜欢,却客观存在的可能性,也是一种终极的“人机对齐”方案。
尽管ASI的构想足够美好,但它的落地仍遥不可及。当主持人问及这种更优的智能系统何时能实现时,Ilya给出了一个极其宽泛的答案:“5到20年”。这个时间跨度背后,是这项工程的巨大复杂性:回溯5年前的2020年,OpenAI才刚刚发布GPT-3,Transformer架构才刚刚成为行业共识;回溯20年前的2005年,YouTube才刚刚成立,人类才勉强迈入视频消费时代。这意味着,ASI的实现,可能需要两到三代工程师的持续努力。而对于不涉足产品、仅聚焦研究的SSI而言,如何在漫长的研究周期中维持生命力,无疑是一个巨大的挑战。
透过Ilya的访谈,我们甚至能勾勒出一个他心中理想的AGI乌托邦:在这里,人们对技术路线抱有纯粹的热忱,各种技术方案百花齐放,所有人都在探索真正的创新,而非在标准答案上修修补补;在这里,创新被极致重视,“想法”不再廉价,而是推动行业发展的核心动力,而非算力与资本;在这里,技术拥有独特的审美——它简洁、优雅、高效,而非依赖海量资源的“大力出奇迹”,就像历史上所有重大技术突破一样,Transformer架构最初也只是基于几张GPU构建而成;在这里,研究者的目标是推动人类文明的共同进步,安全是技术发展的前提,而非大企业之间围绕Scaling Law与用户注意力的相互倾轧。
但现实往往事与愿违。如今的AI行业,已经聚集了数万亿美元的投资,AGI的光环之下,是资本的逐利与商业的浮躁。无论是曾经坚守技术理想的AGI先驱,还是他们的追随者,都渐渐学会了世故圆滑,手握金钱的权杖,却早已背离了最初的技术初心。Ilya带着他的ASI梦想创办了SSI,试图在浮躁的行业中开辟一片纯粹的研究净土,但在数万亿美元构筑的商业壁垒面前,他离自己梦想中的智能世界,或许正渐行渐远。
本文来自微信公众号:硅星GenAI
