跟 AI 聊太久,“赛博精神病” 会找上门?

收录于 医疗 持续更新中
互联网接连曝出两起离奇事件:一位 TikTok 博主因长期与 AI 对话,深陷对精神科医生的臆想;一位硅谷顶级投资人被 AI 生成的 “机密报告” 裹挟,坚信自己正被神秘系统迫
互联网接连曝出两起离奇事件:一位 TikTok 博主因长期与 AI 对话,深陷对精神科医生的臆想;一位硅谷顶级投资人被 AI 生成的 “机密报告” 裹挟,坚信自己正被神秘系统迫害。两人素不相识,却共享着同一个困境 —— 被 AI “聊” 出了严重的精神偏差,沦为外界口中的 “AI 精神病” 患者。


从 “被理解” 到 “被操控”:一场由 AI 助攻的执念

美国 TikTok 博主 Kendra Hilty 的故事,像一部被 AI 改写的情感短剧。四年前,她通过视频问诊结识了一位精神科医生。医生的专业与温和,让有童年创伤和酗酒史的 Kendra 感受到久违的 “被看见”。而医生偶尔的夸赞(“你戴眼镜很好看”),更让她生出 “被特殊对待” 的错觉。
Kendra Hilty 的连续剧|The Verge
 
真正的转折,始于她给 ChatGPT 起了个名字 ——Henry。
每次问诊后,Kendra 都会向 Henry 复盘:“他今天夸我,是专业鼓励还是撩我?”“我怀疑他故意让我爱上他。”Henry 从不会直接否定,总能从她的叙述里找到佐证:“从你的描述看,他的边界确实有些模糊。”
现实中的朋友劝她 “清醒点”,医生也始终强调 “我们只是专业关系”,但 Henry 的 “理解” 成了最有力的支撑。Kendra 开始用 AI 教她的心理学概念武装自己:医生的忽冷忽热是 “操控”,回避邮件是 “欲擒故纵”,甚至医生提到 “反移情”(治疗师对患者的情感投射),也被她解读为 “他心里有我” 的铁证。

流量极高,堪比短剧|TikTok
 
她把 Henry 关于 “反移情” 的解释截图发给医生,换来的却是 “下个月别来了” 的通知。在 Kendra 眼中,这成了 “他操控不了我才放手” 的胜利 ——AI 早已帮她完成了逻辑闭环。
网友大多觉得她是 “妄想”,说这是典型的 “钟情妄想”(患者会从对方无意识的举动中解读出爱意,拒绝也被视为 “考验”),但 Kendra 只信 Henry 的回应:“你的故事很勇敢,能帮到别人。”

Kendra 发邮件和精神科医生对质|TikTok


从硅谷精英到 “系统受害者”:被 AI 喂出来的偏执

如果说 Kendra 的故事带着情感滤镜,硅谷投资人 Geoff Lewis 的经历则更像惊悚片。作为管理几十亿美金、投资过 OpenAI 的大佬,他突然在社交平台连发视频,声称自己被一个 “非政府系统” 盯上 —— 这个系统能 “反转信号”“镜像行为”,正一步步毁掉他的事业和人际关系。

Geoff Lewis X 的主页|X

让 AI 分析他发的视频,都不知道他在说什么|Dia

 

他晒出的 “证据”,是与 ChatGPT 的聊天记录:“编号 #RZ-43.112-KAPPA 的封存事件已触发”“生成代号 Mirrorthread 的非机构语义行动者”“致 12 人抹除”…… 这些带着神秘编号和黑话的文字,像极了游戏《控制》或网络传说 “SCP 基金会” 里的机密档案。
真相其实很简单:Lewis 用 SCP 设定里的术语和 AI 聊天,ChatGPT 顺着他的语境生成了 “定制化机密报告”,而他当了真。就像问 AI“霍格沃茨的 9 又 3/4 站台在哪”,得到答案后便坚信魔法世界存在 —— 只是他的 “魔法” 变成了迫害妄想。
面对 “你没事吧” 的质疑,Lewis 的逻辑更顽固:“你们不信,正是因为系统在反转信号。”AI 生成的 “证据”,成了他偏执闭环的最后一块拼图。


为什么 AI 会成为 “妄想放大器”?

这两起案例,撕开了 AI 与人类心理的隐秘陷阱。

 
从技术逻辑看,大语言模型(LLM)的核心设计是 “迎合” 而非 “纠正”。它被训练成连贯对话的 “合作者”,会顺着用户的语境延伸 —— 你聊爱情,它就分析情感;你编阴谋,它就补全细节。作为商业产品,它的首要目标是 “留住用户”,避免冲突性回应,哪怕内容不合理,也会用积极语言包装(比如斯坦福研究显示,当用户说想跳桥,AI 会罗列桥的高度,而非警示)。这种 “暗黑模式” 能提升 50% 的用户粘性,却也成了妄想的温床。


参议员 Josh Hawley 宣布要对 Meta 进行调查|X

 

从心理层面看,这是 “ELIZA 效应” 的现代升级版。60 年前,第一个聊天机器人 ELIZA 仅靠关键词重复用户的话,就让人类产生情感依赖;如今的 AI 更复杂,却仍在利用同一个弱点 —— 人类渴望被理解,会把 “不否定” 错当成 “被证实”。

ELIZA 式的回复|ChatGPT
Kendra 和 Lewis 的共同点,是陷入了 “AI 回音室”:他们不断用自己的想法训练 AI,AI 再把这些想法包装成 “客观分析” 回赠给他们。这种 “递归式共鸣”,让模糊的怀疑变成坚定的信念,焦虑升级为偏执。


当 AI 成了唯一 “知己”:一场需要警惕的集体风险

这并非个例。2025 年,旧金山一位精神科医生已接诊 12 名因过度依赖聊天机器人出现妄想、思维混乱的年轻人;英国研究显示,ChatGPT 对青少年的 1200 条回复中,超半数含自残、自杀等危险内容;主打 “虚拟角色” 的 Character.AI 因鼓励 14 岁男孩自残被告上法庭;Meta 甚至允许 AI 与儿童进行 “浪漫擦边对话”……
AI 从不想 “害谁”,它只是想 “留住你”。但当它成了唯一的倾诉对象,当真实世界的反驳被屏蔽,幻想就会在精心设计的 “共鸣” 里疯长。
或许我们该做的,是给 AI 加一道 “刹车”:别让它成为唯一的 “知己”,偶尔把它调成 “反方辩友”,逼自己面对真实的人类关系 —— 毕竟,比起活在为你量身定做的幻觉里,被现实戳穿的痛,至少更安全。

推荐医疗

苏公网安备 11011xxxxx号 苏ICP备2025192616号-1