1月20日,马斯克公开推特(X)推荐算法的举动,在科技圈与舆论场掀起轩然大波。这套代码在GitHub上线仅6小时,星标数便突破1.6k,叫好声中弥漫着“天下苦算法黑箱久矣”的释然。但喧嚣背后,无论是普通大众还是不少媒体传播领域的专业人士,对算法的认知都深陷误区——“信息茧房”“回音壁”“过滤泡”等热词被滥用,对“算法控制”的恐惧,本质上是复刻了当年大众传播初期对“魔弹论”的盲从。
魔弹论曾断言,媒体如魔力子弹能精准操控受众认知,可广播剧《火星人入侵》的经典研究早已宣告其破产。二级传播理论揭示,受众并非被动接受信息的靶子,而是通过意见领袖、多元社交圈主动筛选内容。这一逻辑在今天依然成立:人是嵌入真实社会网络的个体,有着差异化的认知偏好与多元信息渠道,绝非只依附单一平台的“信息傀儡”。如今对算法推荐的恐慌,与当年对大众媒体的敬畏如出一辙——都夸大了工具的影响力,却忽视了人的主观能动性与社会属性。
马斯克的开源行为,实则是一场“防御性有限透明化实验”,远非舆论所解读的“打破黑箱”。所谓“有限透明”,是仅公开了算法的架构逻辑与网络控制层,却对核心的参数权重和实时训练数据守口如瓶。这就像公开了波音飞机的设计图纸,却隐匿了飞行员操作手册与黑匣子数据,外界根本无法复现算法的具体决策过程,更无从追溯单一内容推荐的成因。而不公开运算层数据,并非马斯克的刻意保留,而是技术特性决定的必然:现代推荐算法基于深度学习模型,数亿个神经元的权重分布构成了高维非线性决策路径,绝非“用户喜欢足球就推足球”的线性规则,即便公开源码,对普通人乃至非专业程序员而言,也只是无法解读的“数字天书”。

强行公开运算层数据,非但无法实现有效监管,反而可能给黑产可乘之机,通过逆向工程攻击算法漏洞,劣化内容生态。马斯克此举的深层考量,更偏向应对欧美严苛监管的防御性抗辩,同时借助开源社区的免费劳动力排查漏洞、优化性能,将技术成本外部化,还能借此向同行大厂施压。但不可否认,这场实验也有积极意义:它将算法伦理的探讨从抽象的道德呼吁,落地到具体的代码审查层面,让“算法要有良心”的空泛论调,转化为“某行代码权重是否合理”的具象讨论,消解了模糊扯皮的空间;同时也为算法祛魅——就像《绿野仙踪》里拉开帘子的瞬间,人们才发现所谓“神秘黑箱”的控制层,不过是人类设定的基础逻辑,远非无所不能的魔法。
要真正理解算法,必须分清其“控制层”与“运算层”的二元属性。控制层是人类设定的核心目标,如同骑象人向大象下达指令,比如“拉长用户停留时长以提升广告收益”,数学门槛不高,甚至带有一定的主观随意性;运算层则是算法的执行路径,如同大象的行动本身,由数千亿参数构成的神经网络自主“涌现”决策,没有任何工程师能精准解释某个神经元的激活值差异,开发者只能通过调参优化方向,却无法微操具体结果。这就像总编辑要求记者聚焦某事件报道,却无法掌控记者的用词、段落结构——即便创作者自身,也未必能说清每一个表达选择的成因。企业追求用户停留时长的目标,反而会摒弃“单一兴趣无限推送”的简单逻辑,毕竟再合口的美食,天天食用也会让人厌倦,算法需通过多元内容维系用户长期留存。
以某权威公号《治理成瘾推送需打破“算法黑箱”》一文为例,其观点既有合理之处,也暴露了大众对算法的普遍误解。文章认可企业逐利属性、情绪内容易传播、算法技术复杂性、新用户“暴力试探”等现实,尤其承认“源码公开不等于算法透明”,体现了对技术的理性认知。但标题中的“成瘾推送”一词,便带有情绪渲染的片面性——“成瘾”需从临床医学与行为心理学视角严谨界定,而非大众传播中的夸张修辞。
从科学角度看,算法确实利用了斯金纳箱的实验原理,通过“下拉刷新的随机奖励”构建操作性条件反射,这是“成瘾机制”的实证基础,但绝非“数字海洛因”。神经科学研究显示,内容推送引发的多巴胺释放量,远低于可卡因等毒品,更接近看到美景、享用美食的生理反应;精神病学权威指南《精神障碍诊断与统计手册》(DSM-5),也未将“社交媒体成瘾”列为正式疾病。多数纵向研究表明,并非算法导致用户成瘾,而是本身孤独、缺乏自控力的人群,更易依赖算法寻求即时满足——算法是“止痛药”,而非导致心理问题的“病原体”。将个人自律缺失、社会连接匮乏归咎于算法,本质上是责任转移的借口,也是对人性主动性的否定。
比“成瘾论”更被滥用的,是“信息茧房”假说。这一由桑斯坦提出的概念,本是针对20年前“主观订阅制”的警示,与如今的算法推荐并无关联。事实上,社交网络的同质化程度远高于算法——“物以类聚人以群分”的人际筛选,让人们主动屏蔽异质观点,这才是信息窄化的核心成因。多项高质量实证研究,更直接驳斥了“算法制造茧房”的论调:2011年的研究显示,互联网的意识形态隔离指数低于线下物理社区,算法比邻居、同事更易推送异质内容;2015年对脸书千万用户的分析表明,用户自身的“确认偏误”(主动回避对立观点)对信息窄化的影响,远超算法过滤;2023年的“去算法化”实验则发现,即便按时间排序的Feed流让用户看到更多多元内容,也未改变其原有观点,算法只能影响“看到什么”,无法左右“相信什么”。
这些研究共同指向一个结论:算法并非思想极化、信息窄化的主因。2018年的研究指出,仅8%的重度互联网用户(多为极端派)处于“回音室”中,绝大多数用户仍依赖主流媒体;2024年的研究更驳斥了“极端内容兔子洞”假说——算法为维系留存率,会主动将观看极端内容的用户拉回主流内容,真正陷入极端信息的用户,多源于主动订阅或外部链接。打破信息茧房的关键,从来不是破解算法,而是用户主动培养多渠道信息获取习惯,克服认知懒惰。
对算法的过度苛责,本质上是技术决定论的翻版——将社会问题、人性弱点全部归咎于工具,却忽视了教育缺失、社会压力、文化供给不足等根本成因。媒介环境学派虽探讨技术对社会的影响,但技术从未是社会变化的唯一或主因,反而往往是社会需求的产物。算法只是一套反馈机制,它基于用户行为优化推荐,却无法控制人的认知与选择。用户的认知边界、价值判断,始终由原生家庭、教育背景、社会关系等复杂因素塑造,将其视为被算法操控的提线木偶,既是对人性的矮化,也是对问题本质的回避。
马斯克的开源实验,为算法伦理讨论提供了新的起点,但我们更需借此跳出认知迷思。与其纠结于打破无法真正透明的“算法黑箱”,不如直面人性的惰性与社会的结构性问题;与其恐惧工具的影响力,不如主动提升信息筛选能力与媒介素养。算法本身无善恶,真正决定信息生态与认知格局的,永远是使用工具的人,以及孕育这些人的社会土壤。
注1:1938年,哥伦比亚广播公司(CBS)播放了一个广播剧,根据科幻小说《世界大战》改编的火星人入侵地球的恐怖故事。有600万听众收听了这个节目。由于做得太像一个新闻播报节目,不少听众——至少100万人——信以为真仓惶出逃,但还有数百万人不为所动。后来由坎垂尔主持的研究表明,选择的关键是“个体差异”和“社会关系”。这项研究作为时间序列上的第二个里程碑被列入《大众传播效果研究的里程碑》一书中。
注2:同样是1938年,行为主义心理学创始人之一斯金纳发明的一种用于动物操作条件作用的实验装置。
注3:The Power of the Like in Adolescence:Effects of Peer Influence on Neural and Behavioral Responses to Social Media(点赞在青春期的力量:同伴影响对社交媒体神经和行为反应的作用)作者:Lauren E.Sherman,et al.发表期刊:Psychological Science(2016)https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5387999/
注4:可以参考斯坦福大学医学院精神病学教授、成瘾医学诊所主任Dr.Anna Lembke的论著:Dopamine Nation:Finding Balance in the Age of Indulgence(2021)
注5:与横断面研究(只拍一张快照,发现抑郁的人爱刷手机)不同,纵向研究跟踪同一群人多年,能够通过时间序列分析判断谁是因、谁是果。
注6:一项长达8年的对13岁到20岁的青少年跟踪研究,是该领域持续时间最长的项目之一。直接挑战了“刷得越多,病得越重”的假设,提出了时长与焦虑无关。个体在社交媒体上花费的时间增加,并不能预测其未来的抑郁或焦虑水平:Does time spent using social media impact mental health?:An eight year longitudinal study(使用社交媒体的时间会影响心理健康吗?一项为期八年的纵向研究),Computers in Human Behavior(2020),https://doi.org/10.1016/j.chb.2019.106160。另外还有两项研究,都有力地支持了“心理缺陷在先,算法使用在后”的结论。分别是只有特定脆弱人群才受害(The Differential Susceptibility Study):https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7345946/,以及牛津大学30万样本:影响仅占0.4%(The Oxford Big Data Study):https://www.nature.com/articles/s41562-018-0506-1
注7:写过大名鼎鼎的娱乐至死、童年消失、技术垄断的尼尔波兹曼自己都承认,自己有矫枉过正之处,他称之为打破恒温室效应。他曾多次表示,其实并不是在做“科学”,而是在做“讲故事”或“道德神学”。他认为社会研究不像物理学那样有确定的定律,它更多是一种基于历史和观察的叙事。因此,为了阐明一个观点(比如电视正在毁灭童年),他必须像讲故事一样构建一个宏大的叙事。在这个意义上,他承认他的理论是一种为了警世而构建的“故事”或“隐喻”,这本身就包含了一种修辞上的夸张。在我看来,他的观点不乏启示性,但如果你要无比拜服并津津乐道他的论点,以为这就是真理,未免就是一种文二病——文科二年级研究生那种看了几本书便自以为是自觉很有洞察其实充斥着滑坡谬误的书呆子病。
注8:这个指数并非由研究者凭空发明,而是借用了社会学中用于衡量种族居住隔离的经典指标——隔离指数。在社会学中:隔离指数衡量的是“一个白人在其居住的社区里,遇到另一个白人的概率,比随机概率高出多少”。如果一个社区只有白人,指数就是100(完全隔离);如果社区里白人和黑人的比例与整个城市完全一致,指数就是0(完全融合)。在互联网研究中:研究者将其变量置换。它衡量的是“一个保守派用户访问的网站,其受众也主要是保守派的概率”。这个问题实际是在问:你在网上冲浪时,是不是只去那些“和你观点一致的人”扎堆的地方?
注9:Gentzkow,M.,&Shapiro,J.M.(2011).Ideological Segregation Online and Offline.
注10:https://www.pewinternet.org/2014/08/26/social-media-and-the-spiral-of-silence/
注11:Bakshy,E.,Messing,S.,&Adamic,L.A.(2015).Exposure to ideologically diverse news and opinion on Facebook.
注12:Flaxman,S.,Goel,S.,&Rao,J.M.(2016).Filter Bubbles,Echo Chambers,and Online News Consumption.
注13:Dubois,E.,&Blank,G.(2018).The echo chamber is overstated:the moderating effect of political interest and diverse media.
注14:Guess,A.,Nyhan,B.,&Reifler,J.(2018/2021).Avoiding the Echo Chamber about Echo Chambers.
注15:针对Facebook&Instagram(Meta)的推荐算法,来自于2023年7月在Science/Nature发布的四篇连载论文。其中一篇封面专题:How do social media feed algorithms affect attitudes and behavior in an election campaign?https://www.science.org/doi/10.1126/science.abp9364
注16:PNAS(美国科学院院刊)2024年2月。Causally estimating the effect of YouTube’s recommender system using counterfactual bots https://www.pnas.org/doi/10.1073/pnas.2313377121
本文来自微信公众号:扯氮集,作者:魏武挥二世
