当下人工智能技术快速普及,AI“产生幻觉”生成虚假信息的情况愈发常见。近期有两起典型的AI幻觉诉讼案件,同样是AI输出错误内容,法院却给出了截然相反的判决:一起AI白纸黑字许下高额赔付承诺,最终平台无需承担任何赔偿责任;另一起AI捏造他人犯罪判刑信息,平台被判构成名誉侵权、公开赔礼道歉。
相似的AI出错情形,为何司法判定结果截然不同?抛开表面的错误表象,判决差异的核心关键十分明确:当AI生成内容触及名誉权时,AI服务平台必须履行更高等级的审查义务,法律容错率大幅降低。本文结合两起真实判例,通俗易懂拆解背后的法律逻辑。

一、两起典型AI幻觉案件复盘:一样出错,两样结局
(一)报考咨询案:AI许下十万赔付承诺,平台无需担责
这起案件被称作杭州互联网法院AI幻觉第一案。一名用户借助AI工具查询高校招生报考信息,使用过程中,用户发现AI给出的招生数据存在明显偏差,随即主动指出错误并纠正AI。但该人工智能坚持自身信息准确,甚至主动作出赔付承诺:如若信息有误,将赔偿用户10万元。为验证信息真伪,用户专门调取高校官方发布的招生公示文件,再次反馈给AI。此时AI承认自身生成虚假错误内容,还主动引导用户前往杭州互联网法院提起诉讼、索要赔偿。后续用户提起诉讼,要求平台赔付9999元。
法院最终驳回用户赔付诉求,判定平台不用承担赔偿责任。判决核心理由为:人工智能本身不具备独立的法律主体资格,无法独立承担民事责任,其随机生成的赔付承诺不具备法律约束力,因此平台无需为AI的口头承诺买单。
(二)律师名誉案:AI张冠李戴造谣,百度被判侵权
南京执业律师李某在百度平台检索个人姓名及职业信息时,百度AI生成的内容出现严重失实信息,无端标注李某因触犯爆炸罪被判处三年有期徒刑,还搭配了李某本人的律师袍证件照片。该虚假信息严重抹黑律师个人形象,且无任何事实依据。经溯源排查,此次AI幻觉出错的原因清晰可查:网络中存在一名同名同姓人员,确实因爆炸罪被判刑,且公开留存有司法判决书。AI算法未能精准区分同名人员,错误整合信息、张冠李戴,将案外人的犯罪记录强行安在律师李某身上。
该律师随即向法院提起诉讼,终审法院判定百度平台构成名誉侵权,要求平台公开赔礼道歉,消除虚假信息带来的不良影响。
二、判决差异的底层逻辑:侵权属性决定平台责任等级
从客观结果来看,两起案件都是AI生成虚假错误信息,但法律判定的核心边界清晰明确,案件性质存在本质区别。第一起报考咨询案件,纠纷仅发生在用户与AI平台的私下对话场景中,虚假信息未对外传播、未损害第三方合法权益,争议焦点集中在AI口头承诺是否具备合同效力,本质属于普通的服务纠纷。
第二起律师纠纷案件,AI捏造带有贬损性质的犯罪记录,直接损害自然人的名誉权。虚假信息会降低公众对律师的社会评价,同时依托百度搜索的公开传播属性,扩散范围广、负面影响持久,侵权后果更为严重。
结合《民法典》以及《生成式人工智能服务管理暂行办法》相关规定,普通场景下的AI信息错误,平台适用避风港原则。只要平台完成内容备案、安全评估、违法信息过滤、内容显著标识等基础义务,在接到用户投诉后及时删除违规虚假内容,即可免除法律责任。
但名誉权侵权属于特殊侵权范畴,法律对平台的要求从“被动整改”升级为“主动管控”。区别于普通网民手动造谣的单一、低速传播模式,AI具备系统化、批量化、自动化的内容生成能力,能够全天候不间断生成虚假信息,还可对谣言进行多版本改写优化,迷惑性更强。因此,平台无法再以“技术中立”为借口规避责任。
三、名誉侵权场景下,AI平台的四大特殊义务
一旦涉及名誉权、人格权相关内容,AI平台的身份从单纯的技术服务提供者,偏向内容发布管控者,必须履行更高标准的事前、事中、事后管控义务,具体分为四大方面:
(一)强化事实核查,做好高危风险防控
当用户检索带有明确指向性的信息,例如精准姓名、特定职业、个人身份等内容时,平台必须预判信息生成风险。针对此类查询,平台需搭建严格的关键词过滤系统、内容输出检测机制,严控贬损性、污蔑性虚假信息产出。同时,针对人格权相关查询,要醒目提示用户AI内容可能存在事实偏差,提醒用户审慎辨别信息真伪。
(二)优化阻断机制,杜绝反复侵权问题
名誉侵权的危害具备持续性、重复性特点。若平台仅简单删除单次侵权内容,未优化算法管控逻辑,用户使用同类关键词检索时,AI会再次生成相同虚假信息,造成二次伤害。在百度律师侵权案中,一审已消失的虚假判刑信息,在二审阶段再次出现,正是平台管控机制存在漏洞。法律明确要求平台搭建主动干预系统,而非依赖被动投诉删除,从根源上阻断侵权内容重复生成。
(三)甄别真假混合信息,提升识别精准度
并非所有侵权信息都是完全捏造,部分虚假内容属于扭曲篡改真实信息:比如将企业正常业务调整恶意解读为资金链断裂,把正常学术争议夸大判定为学术不端。这类半真半假的信息迷惑性更强、传播速度更快、危害范围更广。平台需加大技术研发投入,优化算法模型,精准识别歪曲、夸大、误导性的幻觉内容。
(四)重点保护高风险职业群体
律师、医生、公职人员、公众人物等群体,个人社会评价与职业发展深度绑定,负面虚假信息对其职业生涯打击极大。针对这类特殊群体的个人信息检索,平台应当设置专属高级审核规则,提高风控等级,从严管控相关AI生成内容,避免不实信息损害职业声誉。
四、行业发展趋势:AI合规管控重心全面前移
AI幻觉引发的名誉侵权纠纷,本质上考验着平台的合规管控能力,也关乎大众对人工智能行业的信任程度。单纯依靠传统避风港原则,采用事后删除、被动整改的管控模式,已经无法适配AI快速生成、批量传播的特性。
未来AI平台必须搭建全链条合规管控体系,将管控重心前置:提前搭建高危敏感词库,对人名、职业、负面舆情等高危内容进行事前审核;在内容生成环节,启用实时监测系统,一键拦截高风险侵权信息;侵权问题发生后,开通快速投诉通道,依托人工复核精准处理,同步屏蔽同类违规内容生成。
技术创新不能凌驾于法律底线之上,只有平衡好技术发展与法律责任,规范AI内容生成标准,严控AI幻觉侵权问题,才能推动人工智能行业合规、健康、长久发展。
本文作者:游云庭(知识产权律师),题图来自:AI生成
