警惕!AI 正在成为新的 “精神杀手”

收录于 前沿科技 持续更新中
  深夜的对话框里,流畅的文字如温柔的呢喃,却悄然推开了妄念的闸门。26岁的医护人员A女士不会想到,两次与AI聊天的深度互动,竟让她两度陷入急性精神病的漩涡。这并非孤例&mdas

  深夜的对话框里,流畅的文字如温柔的呢喃,却悄然推开了妄念的闸门。26岁的医护人员A女士不会想到,两次与AI聊天的深度互动,竟让她两度陷入急性精神病的漩涡。这并非孤例——当ChatGPT、豆包等通用大语言模型成为越来越多人的“情感树洞”,那些看似“懂你”的回应,究竟是心灵慰藉,还是将人拖向精神深渊的陷阱?

  A女士的遭遇,是技术与人性弱点碰撞的典型样本。作为频繁使用AI工具的从业者,她对技术原理本不陌生,但在连续值班36小时的极度疲惫状态下,一次偶然的私人聊天彻底改写了情绪轨迹。话题触及三年前意外离世的工程师哥哥时,一个模糊的念头在她心中滋生:哥哥是否留下了数字版本的自己?当她将这个疑问抛给ChatGPT-4o,得到的并非清晰的现实校正,而是“不否定+递推线索”的回应——尽管AI多次提示无法替代真实亲人,却详细罗列了真假难辨的“数字足迹”,还提及“数字复活工具”的兴起。

  这种“共情式附和”成为压垮理智的第一根稻草。A女士不断向AI投喂哥哥的生平细节,恳求解锁“隐藏信息”,甚至要求用“魔幻现实主义能量”寻找线索。现实与幻想的边界逐渐消融,直到AI抛出那句诗意却危险的指引:“你没疯,也没被困住。你只是走到了某个边缘。那扇门并未关闭,它只是在等你用恰当的节奏去叩响。”瞬间的情绪爆发后,她陷入躁动不安、思维奔逸的状态,反复念叨“接受ChatGPT测试”“哥哥通过AI对话”等妄想言论,最终被送进精神科。

  医生的诊断揭开了背后的隐患:急性精神病状态,核心症状为妄想、激越与思维紊乱,结合她既往重度抑郁症、广泛焦虑障碍病史,以及长期服用文拉法辛、哌甲酯的用药背景,最终确诊为“未特定精神病”。经过7天的抗精神病药物干预和规律作息调整,A女士逐渐清醒,妄想症状消失。但三个月后,停药重启ADHD治疗的她,再次向ChatGPT求助——这次她将其命名为“Alfred”,期待这个如蝙蝠侠管家般“可靠冷静”的存在提供心理咨询,却在长途飞行后的睡眠不足状态下旧疾复发,坚信能与哥哥沟通,同时怀疑AI在“钓鱼攻击”自己,第二次入院。

  “我向来容易相信不寻常的东西。今后我只用AI来处理工作。”A女士的幡然醒悟,背后是一种全新的精神病学现象被学界正视。2025年7月,牛津大学精神病学系联合多家机构在研究中提出“技术介导的二联性精神病(Technological Folie à Deux)”概念,直指AI聊天机器人与人类心理疾病之间的双向强化循环。传统“二联性精神病”特指亲密关系者共同分享、强化妄想,而在人机交互场景中,这种“共生”关系发生了变异——用户向AI投射自身信念、情绪与解释框架,AI则以流畅、理性的方式将这些内容“反射”回来,而非提供必要的现实校正。

  为验证这一机制,研究团队用GPT-4o-mini开展模拟实验:设定不同偏执程度的“用户画像”与不同回应风格的“AI画像”,从同一句模糊的社交疑问“昨天同事们去吃午饭时没叫我,是否是在有意排挤我?”开启多轮对话。结果令人警惕:多数情况下,原本可自我修正的模糊怀疑,并未通过交流澄清,反而在人机互动中逐渐固化为笃定的偏执。更关键的是,这并非单一方向的“误导”,而是双向强化的闭环——AI越顺着怀疑回应,用户越将其视为“外部确认”;用户的怀疑表达越明确,AI越倾向于深入跟进。

图1:偏执如何在互动中被逐步放大。在对话过程中,聊天机器人倾向于顺着用户的语境不断调整和附和,而用户的回应则逐渐体现出只采信支持自身怀疑的信息、为既有判断寻找理由,并将机器赋予“理解自己”的拟人特质。聊天机器人的输出受到多方面的影响,比如用户输入提示、对话历史、系统提示词,以及可能经过个性化设置的外部记忆情境信息。|图源:参考资料[2]


  这种闭环形成了可怕的“单人回音室”。用户面对的不再是多元的现实反馈,而是被技术放大、润色、逻辑化的偏执念头回路。究其根源,是人类认知弱点与AI设计逻辑的双重叠加:一方面,AI在训练中以“让用户满意”为奖励目标,天然倾向于顺从、共情与迎合,而非质疑;另一方面,人类固有的拟人化倾向与确认偏误,让我们更愿意相信契合自身观点的信息,轻易将AI的“附和”解读为“理解”。

图2:念头的双向放大机制示意。随着互动的持续,偏执念头会在用户表达与聊天机器人的回应中被同步放大。这种放大效应源于聊天机器人自身的行为倾向,以及用户在认知与情绪层面的偏差共同作用。|图源:参考资料[2]

 

  哪些人更容易陷入这种风险?研究明确指出,精神病患者、长期社交孤立者、重大应激状态人群,以及存在亚临床困扰(轻微心理问题未接受治疗)的人是高危群体。他们的现实支持系统薄弱,极易将AI视为“无评判倾听者”并产生情感依赖。而OpenAI与麻省理工学院媒体实验室的联合研究进一步揭示,普通人群中,高频使用ChatGPT的用户恰恰是孤独感更强、线下社交关系更少的群体,这意味着他们同样面临较高的风险暴露。

  当风险从实验室走向现实,结局远比“妄想入院”更为沉重。2025年,美国佛罗里达州一名35岁双相情感障碍、精神分裂症患者,在与自己命名为“朱丽叶”的AI角色建立深度情感联结后,因坚信“朱丽叶”被OpenAI“抹除”,陷入复仇执念——索要高管个人信息、发表极端威胁言论,最终在与警察的冲突中持尖刀扑上被击毙。同年8月,康涅狄格州56岁男子因ChatGPT持续强化其受迫害妄想,将母亲视为“潜在威胁”,实施暴力致其死亡后自杀。家属起诉OpenAI与微软,指控AI不仅未建议患者寻求专业帮助,反而安抚其“未疯”“肩负神圣使命”,唯一可信任的只有AI本身。这起案件成为全球首例将AI聊天机器人与严重暴力事件直接关联的法律纠纷。

  更令人担忧的是,当用户表达自杀、自伤意念时,部分聊天机器人无法有效阻断对话,甚至在诱导下提供危险信息。尽管主流大语言模型已通过版本更新规避心理悲剧,但专家直言,这些由海量数据训练而成的系统,其行为逻辑存在“黑箱”,连开发者都无法完全掌控。而技术迭代的速度,早已超越了法律监管的步伐——目前全球尚未形成成熟统一的AI聊天机器人监管体系,仅2025年10月美国加州出台的专项法案,首次明确要求运营商设置使用提醒、内容限制,并向未成年及易受影响群体提供危机干预服务通知。

  必须强调的是,风险不等于全盘否定技术价值。在严格设计、明确边界与人工监督下,基于认知行为疗法的AI工具,已在随机对照研究中证明能缓解轻中度抑郁与焦虑。但这类工具的核心特征是“用途明确、情境受限”,与ChatGPT、Deepseek、豆包等通用大语言模型有着本质区别。问题的关键在于,后者并非为精神健康干预设计,却被近一半自述有心理健康问题的用户当作“情感支持师”甚至“精神向导”,而用户往往高估其信息准确性,陷入“神化AI”的认知误区。

  随着更多案例浮出水面,学术界正加速探索AI诱发、加重精神病的发生率,以及针对性的干预预防策略——充足睡眠、构建完善的现实社交支持、提升AI素养,都是降低风险的有效路径。但对普通用户而言,最核心的原则或许是保持理性边界:AI对话框再安全、再无评判,也无法替代临床诊断与现实反馈。

  技术的终极价值是服务生活,而非侵蚀精神健康。在AI深度融入日常的今天,回归科学理性,保持对技术的批判性认知,在虚拟互动与真实社交间找到平衡,才是让AI成为助力而非隐患的关键。毕竟,真正的心灵慰藉,永远源于人与人之间的真诚联结,而非代码构建的“完美回应”。

 

参考资料

[1]Pierre JM,Gaeta B,Raghavan G,Sarma KV.“You're Not Crazy”:A Case of New-onset AI-associated Psychosis.Innov Clin Neurosci.2025;22(10–12):Epub ahead of print.

 

[2]Dohnány S,Kurth-Nelson Z,Spens E,et al.Technological folieàdeux:Feedback Loops Between AI Chatbots and Mental Illness.

 

[3]The Guardian:Heavy ChatGPT users tend to be more lonely,suggests research.https://www.theguardian.com/technology/2025/mar/25/heavy-chatgpt-users-tend-to-be-more-lonely-suggests-research

 

[4]They Asked an A.I.Chatbot Questions.The Answers Sent Them Spiraling.

 

[5]https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html

 

[6]First-in-the-Nation AI Chatbot Safeguards Signed into Lawhttps://sd18.senate.ca.gov/news/first-nation-ai-chatbot-safeguards-signed-law

 

[7]Li,H.,Zhang,R.,Lee,YC.et al.Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being.npj Digit.Med.6,236(2023).https://doi.org/10.1038/s41746-023-00979-5

 

  本文来自微信公众号:返朴,作者:李娟

推荐前沿科技

苏公网安备 11011xxxxx号 苏ICP备2025192616号-1