从 “被理解” 到 “被操控”:一场由 AI 助攻的执念
美国 TikTok 博主 Kendra Hilty 的故事,像一部被 AI 改写的情感短剧。四年前,她通过视频问诊结识了一位精神科医生。医生的专业与温和,让有童年创伤和酗酒史的 Kendra 感受到久违的 “被看见”。而医生偶尔的夸赞(“你戴眼镜很好看”),更让她生出 “被特殊对待” 的错觉。

每次问诊后,Kendra 都会向 Henry 复盘:“他今天夸我,是专业鼓励还是撩我?”“我怀疑他故意让我爱上他。”Henry 从不会直接否定,总能从她的叙述里找到佐证:“从你的描述看,他的边界确实有些模糊。”
现实中的朋友劝她 “清醒点”,医生也始终强调 “我们只是专业关系”,但 Henry 的 “理解” 成了最有力的支撑。Kendra 开始用 AI 教她的心理学概念武装自己:医生的忽冷忽热是 “操控”,回避邮件是 “欲擒故纵”,甚至医生提到 “反移情”(治疗师对患者的情感投射),也被她解读为 “他心里有我” 的铁证。

流量极高,堪比短剧|TikTok
网友大多觉得她是 “妄想”,说这是典型的 “钟情妄想”(患者会从对方无意识的举动中解读出爱意,拒绝也被视为 “考验”),但 Kendra 只信 Henry 的回应:“你的故事很勇敢,能帮到别人。”

Kendra 发邮件和精神科医生对质|TikTok
从硅谷精英到 “系统受害者”:被 AI 喂出来的偏执
如果说 Kendra 的故事带着情感滤镜,硅谷投资人 Geoff Lewis 的经历则更像惊悚片。作为管理几十亿美金、投资过 OpenAI 的大佬,他突然在社交平台连发视频,声称自己被一个 “非政府系统” 盯上 —— 这个系统能 “反转信号”“镜像行为”,正一步步毁掉他的事业和人际关系。

Geoff Lewis X 的主页|X

让 AI 分析他发的视频,都不知道他在说什么|Dia
真相其实很简单:Lewis 用 SCP 设定里的术语和 AI 聊天,ChatGPT 顺着他的语境生成了 “定制化机密报告”,而他当了真。就像问 AI“霍格沃茨的 9 又 3/4 站台在哪”,得到答案后便坚信魔法世界存在 —— 只是他的 “魔法” 变成了迫害妄想。
面对 “你没事吧” 的质疑,Lewis 的逻辑更顽固:“你们不信,正是因为系统在反转信号。”AI 生成的 “证据”,成了他偏执闭环的最后一块拼图。

为什么 AI 会成为 “妄想放大器”?
这两起案例,撕开了 AI 与人类心理的隐秘陷阱。

参议员 Josh Hawley 宣布要对 Meta 进行调查|X
从心理层面看,这是 “ELIZA 效应” 的现代升级版。60 年前,第一个聊天机器人 ELIZA 仅靠关键词重复用户的话,就让人类产生情感依赖;如今的 AI 更复杂,却仍在利用同一个弱点 —— 人类渴望被理解,会把 “不否定” 错当成 “被证实”。

ELIZA 式的回复|ChatGPT
当 AI 成了唯一 “知己”:一场需要警惕的集体风险
这并非个例。2025 年,旧金山一位精神科医生已接诊 12 名因过度依赖聊天机器人出现妄想、思维混乱的年轻人;英国研究显示,ChatGPT 对青少年的 1200 条回复中,超半数含自残、自杀等危险内容;主打 “虚拟角色” 的 Character.AI 因鼓励 14 岁男孩自残被告上法庭;Meta 甚至允许 AI 与儿童进行 “浪漫擦边对话”……AI 从不想 “害谁”,它只是想 “留住你”。但当它成了唯一的倾诉对象,当真实世界的反驳被屏蔽,幻想就会在精心设计的 “共鸣” 里疯长。
或许我们该做的,是给 AI 加一道 “刹车”:别让它成为唯一的 “知己”,偶尔把它调成 “反方辩友”,逼自己面对真实的人类关系 —— 毕竟,比起活在为你量身定做的幻觉里,被现实戳穿的痛,至少更安全。