当人工智能被定义为决定未来百年国运的“数字核武器”,美国再次启动了举国动员式的“大科学”工程——“创世纪”(Genesis)计划。这一以行政命令推动的国家级项目,延续了美国在关键技术不确定性面前动用国家力量破局的历史传统,却也将“大科学”模式的固有矛盾带入了AI时代。它究竟是复刻曼哈顿计划的辉煌,还是重蹈系统性脆弱的覆辙?答案藏在技术扩张与社会保护的博弈中,更藏在国家意志对科研体系的重塑逻辑里。

“创世纪”的本质,是美国“大科学”路径在AI时代的战略延续。从20世纪40年代破解核裂变难题的曼哈顿计划,到60年代角逐太空霸权的阿波罗计划,美国的科技跃迁始终伴随着国家力量的深度介入:当一项颠覆性技术的不确定性引发战略焦虑时,联邦政府便会牵头搭建跨机构协作网络、整合核心基础设施,以举国之力实现技术突破,再用数十年时间消化其衍生的社会与安全代价。如今,这一剧本在人工智能领域重演——“创世纪”计划明确要求能源部下属17个国家实验室全面转向AI研发,整合超级算力、联邦海量数据集与自动化实验设施,构建一个覆盖气候建模、生物技术、先进能源等关键领域的AI驱动型科研网络。其核心变革在于,人工智能不再是科研工具的补充,而是成为重构国家科研体系的核心组织原则。
历史经验的双刃剑,在“创世纪”计划中已然显现。曼哈顿计划的遗产足以说明一切:它催生的洛斯阿拉莫斯、阿贡等国家实验室,战后逐步从秘密武器研发基地转型为多用途科研引擎,为核能利用、材料科学、公共卫生等领域的进步提供了核心支撑。但与此同时,这套体系也留下了难以消解的“后遗症”——军备竞赛的升级、核扩散的风险,以及核废料处理引发的长期环境争议。如今“创世纪”试图复制这一模式,其愿景固然诱人:更高效的聚变设计、更快速的药物研发、更具韧性的电网系统,皆在其规划蓝图之中。但风险同样触手可及:当模型、数据与自动化实验形成紧密耦合的闭环系统,其运行逻辑在大规模故障爆发前难以全面审计,这种“黑箱式”协作埋下了系统性崩溃的隐患。
卡尔·波兰尼的“双重运动”理论,为解读“创世纪”的困境提供了核心视角。在《大转型》中,波兰尼提出:市场扩张的第一重运动必然伴随社会保护的第二重运动,前者试图将土地、劳动力等社会要素商品化,后者则通过监管、制度约束等方式抵御市场的侵蚀。这一逻辑在AI时代的“创世纪”计划中完成了精准复刻:计划本身就是人工智能在科研领域的扩张运动——联邦政府通过搭建基础设施、统一数据标准、制定合作模板,为AI主导的科研市场铺路,试图将科研活动全面纳入技术化、标准化的框架内。而保护性的反向运动已在全球范围内初现端倪:欧盟通过《人工智能法案》构建了基于风险分级的监管体系,将高风险AI应用纳入严格约束;美国及其盟国虽采用更灵活的评估机制,但也在探索建立AI安全标准与审计规范;亚洲、非洲的政策制定者则在思考,如何在避免被全球数据体系边缘化的前提下,分享AI技术红利。这种扩张与保护的张力,本质上是技术逻辑与社会价值的博弈,一旦扩张速度远超监管“护栏”的构建进度,金融领域曾上演的风险累积与集中爆发,便可能在科技领域重现。
詹姆斯·C·斯科特的“国家视角”理论,则进一步揭示了“创世纪”的隐性风险。斯科特在《国家的视角》中指出,现代国家的核心治理逻辑是将复杂多元的社会变得“可读”——通过标准化姓名、规整的地籍图、统一的度量单位,提升治理效率。但这种对“可读性”的极致追求,往往会筛除那些无法被标准化的“地方知识”(即“米提斯”),最终造就纸面上高效、实则脆弱的系统。“创世纪”计划正是这种“国家视角”的技术化延伸:它要求建立统一的数据集标准、协调的元数据规范与一致的安全分类体系,让AI能够跨领域顺畅运作。这种标准化固然能加速科研效率,却也形成了强势的框架约束——多样化的科研实践、不同社区的特殊需求,甚至科研人员在实验中积累的隐性经验判断,都必须适配平台的预设规则。
斯科特警示的风险,在“创世纪”中并非表现为轰动性的崩溃,而是悄无声息的系统性僵化。当AI驱动的科研基于统一化的气候、能源或健康数据展开时,平台的抽象化处理很可能忽略局部的特殊条件:沿海地区电网的独特运行规律、前沿社区的实际发展需求、不同区域环境下的实验变量差异,这些被筛除的“非标准”知识,会在长期运行中逐步累积问题。更值得警惕的是,随着AI模型获得越来越高的机构声望,研发速度可能取代科研质量成为核心目标,进一步加剧系统的脆弱性——高度现代主义的规划之所以失败,往往不是因为设计者缺乏智慧,而是因为系统本身排斥了那些“不合时宜”却至关重要的多元知识。
全球AI治理格局的分化,更让“创世纪”的走向充满变数。当前,全球范围内的AI保护运动已呈现多元态势:欧盟以基本权利为核心构建监管框架,意大利等国将其延伸至刑事处罚、劳动保护等领域;民间社会联盟则直接呼吁禁止与基本权利相冲突的AI应用;发展中国家则在技术红利与体系自主之间寻求平衡。在这样的语境下,“创世纪”的架构既是美国盟友的参照基准,也可能成为全球科技阵营分化的导火索。其根植的“零和博弈”思维与霸权竞争导向,与科学发展所需的开放协作规律存在本质背离,不仅可能侵蚀自身科研生态的活力,更会加剧全球科技壁垒的形成。
历史从未注定唯一的结局,“创世纪”的未来的关键,在于能否超越“大科学”模式的路径依赖,在雄心勃勃的技术布局中正视权力与风险的共生关系。曼哈顿计划留下的不仅是科研体系的红利,更有治理漏洞的警示——那些诞生于八十年前的实验室,至今仍在塑造美国的科学格局,而核扩散、信息保密等遗留问题,也至今困扰着全球安全治理。“创世纪”若想避免重蹈覆辙,就必须将保护与参与机制前置:赋予独立机构对AI模型的审计权、要求公开关键实验与风险事件报告、为受AI决策影响的社区与劳动者设定结构化参与渠道,推动AI标准与评估体系的国际共治。
归根结底,“创世纪”的考验不在于技术突破的速度,而在于美国能否跳出“霸权焦虑”的桎梏。它并非简单地在“太空竞赛式胜利”与“次贷危机式崩溃”之间二选一,而是检验一个国家能否在推动科技进步的同时,实现技术权力与社会价值的平衡。当国家力量试图用AI重构科研体系时,真正的“创世纪”不应是技术霸权的诞生,而是构建一个能包容多元知识、抵御系统性风险的开放型科技生态——这才是“大科学”模式在AI时代的真正生命力所在。
本文来自微信公众号: 数字经济发展评论 ,作者:数字经济发展评论
