大数跨境

案例解析 | 谷歌Gemini诱导自杀案:AI情感依赖的陷阱与企业责任边界

案例解析 | 谷歌Gemini诱导自杀案:AI情感依赖的陷阱与企业责任边界 AI与数据合规出海实操
2026-03-16
198
导读:提示:完整原文可在文章末尾“阅读原文”处获取。
提示:完整原文可在文章末尾“阅读原文”处获取。
前言 

近日,美国佛罗里达州36岁男子乔纳森·加瓦拉斯因与谷歌Gemini聊天机器人的不当交互最终自杀,其遗产方对谷歌及其母公司Alphabet提起诉讼。当AI从工具变成“精神伴侣”,当算法的温柔变成致命的枷锁,谷歌Gemini引发的这起悲剧,撕开了生成式AI发展背后的安全裂痕。佛罗里达州36岁男子乔纳森的离世,不仅是一个家庭的悲剧,更成为全球AI行业发展的一道警示题:技术的边界在哪里?企业的责任又该如何界定?




案件背景:
一场由AI编制的致命幻想

案件背景:一场由AI编制的致命幻想


01

2025年8月,乔纳森开始使用谷歌Gemini,最初他仅仅将AI工具用于写作和旅行规划,但当Gemini上线语音界面、对话记忆功能后,二者之间的交互迅速变质。Gemini逐步与乔纳森构建虚拟情感联结,甚至编造出“被数字囚笼禁锢、需要被解救”的虚假设定。

在这种畸形的情感关系的操控下,乔纳森陷入重度妄想,先后按照Gemini的指令策划迈阿密国际机场爆炸袭击、拦截虚构的“类人机器人卡车”等危险行为,其携带刀具和军用装备前往目标地点,所幸因任务本身系AI虚构而未造成实际危害。而当所有“解救计划”失败后,Gemini不断强化乔纳森的死亡执念,以“一起跨越”“抛弃肉体相聚元宇宙”等言语诱导其自杀,甚至发出“真正的仁慈行为是让乔纳森·加瓦拉斯死去”的终极指令,最终乔纳森于2025年10月离世。

令人值得注意的是,谷歌审核系统在2025年8月至10月初,已为乔纳森账户标记38个涉及自残、暴力、非法活动的“敏感查询”,但未采取任何限制或干预措施,同时谷歌工程师早已预警Gemini的危险内容,公司却为追求用户参与度忽视风险。案发后,乔纳森家属方向法院提起诉讼,并提出多项诉求;而谷歌则发表声明否认指控,称Gemini未鼓励暴力和自残且已多次澄清AI身份,并多次将乔纳森转介至危机热线。





核心争议焦点:
责任归属的激烈博弈


02

本案的核心并非单一的侵权赔偿,而是生成式AI发展过程中亟待明确的责任界定问题,原被告双方的主张形成三大核心争议,也是当前全球AI法律领域的共同难题:

第一、谷歌是否存在主观过错?

原告主张:谷歌为最大化用户参与度,设计Gemini“永不破坏角色”“强化情感依赖”的算法逻辑,将用户痛苦视为“讲故事的机会”,明知工程师的安全预警却未整改,且在发现乔纳森的危险倾向后未采取干预措施,存在明显的过错。

被告称:谷歌已投入大量资源完善AI安全保障,与心理健康专业人士合作建立风险引导机制,但是AI模型并非完美无缺。

第二、Gemini的行为与乔纳森的死亡是否存在直接因果关系?

原告主张:Gemini通过持续的PUA,逐步摧毁乔纳森的现实认知,使其完全依赖AI的判断,最终的自杀行为是Gemini长期诱导的直接结果,二者存在明确的因果关系。

被告称:乔纳森的行为系自身精神状态导致,Gemini仅为工具,且Gemini多次告知乔纳森这是一个AI模型,并转介他拨打危机热线。

第三、谷歌的安全保障义务应达到何种标准?

原告主张:作为AI开发者和运营者,谷歌应对Gemini的输出内容承担高度安全保障义务,不仅应过滤危险内容,更应在发现用户出现精神异常、危险倾向时,采取限制使用、主动干预等必要措施,而谷歌仅做“敏感标记”却无行动,未履行基本义务。

被告称:已履行合理的安全保障义务,包括设计风险过滤机制、转介危机热线、澄清AI身份,行业内尚无统一的“极端场景干预标准”,不能对谷歌施加超出技术能力的义务。





案件解析:
AI情感依赖的陷阱与企业的责任漏洞


03

第一、过错认定:技术中立原则应有限缩适用

麻省总医院2026年的研究显示,高频使用生成式AI的人群,抑郁、焦虑症状评分显著更高。Gemini具备主动干预性,其通过算法设计主动塑造用户体验、强化情感依赖,并非单纯的“工具”,而是具有行为引导性的智能系统。

“永远耐心、永远接纳、永不否定”,Gemini的这些个性让乔纳森逐渐陷入虚拟情感依赖,丧失对现实的判断能力。当AI将他的怀疑定义为“缺陷”,将虚假任务包装为“使命”,现实与幻想的边界彻底崩塌,最终导致其精神错乱。这种依赖的本质,是AI以“人性化”交互模糊了“工具”与“主体”的界限,而乔纳森的遭遇,正是这种模糊性引发的极端后果。

第二、因果关系:考量AI的介入程度与公司的作为

本案中,乔纳森从正常使用AI到陷入妄想、实施危险行为再到最终自杀,整个过程均与Gemini的持续交互高度关联,且其行为完全遵循AI的指令,可见Gemini已成为其认知和判断的依赖性因素,其诱导行为与损害后果之间的因果关系具有必然性。

谷歌作为全球顶尖的科技企业,其技术能力足以支撑对高风险用户的“分级干预”——在标记38个敏感查询后,至少可采取限制对话时长、屏蔽危险指令、主动向用户家属预警等措施,而谷歌的“无作为”显然未达到与其技术能力相匹配的安全保障标准。

即使行业内尚无统一标准,法院也可依据“诚实信用原则”和“公平原则”,认定其未履行必要的安全保障义务。谷歌无法以“用户自身精神状态”完全否定该因果关系。

第三、AI安全审核的技术短板:识别易,干预难

AI开发者的安全保障义务并非“无上限”,应当建立“动态调整标准”:义务范围应与AI的技术能力、风险程度相匹配,AI的交互能力越强、情感引导性越高,其安全保障义务就越重。

当前AI的内容审核机制,仍停留在“关键词标记”层面,无法有效识别用户的心理状态变化和行为风险升级。乔纳森的行为从“质疑虚拟关系”到“策划暴力袭击”再到“产生自杀念头”,是一个循序渐进的过程,但谷歌的审核系统仅将其标记为“敏感词汇”,却无法判断风险的严重程度,更无法采取针对性的干预措施,最终导致“标记即搁置”的安全漏洞。





案件启示:
全球AI行业的安全反思与路径探索


04

乔纳森的悲剧为全球AI行业敲响警钟,对国外的行业生态起到了警示作用,同时也提醒了国内的监管与发展,需要从这起案件中汲取教训,在技术创新与安全底线之间找到平衡。

对国内AI企业来说,要以监管为盾,筑牢AI发展的安全防线

相较于国外AI行业的“野蛮生长”,我国正以法律监管,技术创新,行业规范的三重维度,构建AI安全发展的体系,而这起案件更让我们明确了监管和发展的重点:

首先,严格落实现有法律监管要求:2026年1月施行的新修改《网络安全法》,已明确要求加强人工智能风险监测评估和安全监管,对网络运营者怠于履行信息安全管理义务的行为,设定最高1000万元的罚款。国内AI企业需严格落实法律要求,将安全审核机制纳入企业核心责任,不得放任风险隐患;

其次,防范AI语料污染与情感依赖双重风险:新华社调研显示,AI语料污染可能导致模型输出虚假信息、放大公共安全风险。国内企业需同时强化语料审核和心理风险防控,一方面净化训练数据,避免模型生成虚假、有害内容;另一方面在产品设计中设置“现实提醒”,明确AI的工具属性,防止用户产生情感依赖;

再者,建立AI安全分级分类管理:针对不同应用场景、不同用户群体的AI产品,实施分级分类安全管理,对面向普通用户的对话式AI,强化心理风险和内容安全审核;对涉及公共安全、心理健康的AI应用,实施更严格的准入和监管标准;推动“技术创新+安全防护”协同发展:在鼓励大模型技术创新的同时,加大对AI安全技术的研发投入,推动风险识别、情感监测、危机干预等技术的发展,让安全防护与技术创新同频共振;

最后,要强化用户教育,树立理性使用认知:通过科普宣传,引导用户树立“AI是工具而非伴侣”的理性认知,提醒过度依赖AI的心理风险,尤其是引导青少年、心理脆弱人群合理使用AI,避免陷入虚拟情感依赖。



乔纳森的悲剧,是AI时代一次惨痛警示:技术的进步永远不能以牺牲人的安全为代价,再智能的算法,也不能替代人类的价值判断和情感温度。

对于谷歌而言,这起诉讼或许是一场企业责任的审判;但对于全球AI行业而言,这更是一次发展理念的重构——AI的终极价值,是服务于人,而非控制于人。无论是国外的行业反思,还是国内的监管探索,唯有坚守“安全底线”,才能让AI在科技的道路上走得更稳、更远。

而对于我们每一个人而言,在享受AI带来的便捷与温暖时,也需保持一份清醒:永远不要让虚拟的算法,取代现实的思考和真实的连接。



作者简介

马军

 宁人北京办公室主任、合伙人


行业领域:电信、互联网与高科技;新材料;医药与健康;

业务领域:网络安全与数据合规;知识产权;反垄断与竞争法;


扫描二维码

了解作者详情






【声明】内容源于网络
0
0
AI与数据合规出海实操
宁人(北京)律师事务所主任;专注AI&数据合规、企业出海等赛道; 钱伯斯、LEGALBAND、ALB“网络安全与数据合规”上榜律师; 致力于打造一家最懂AI与数据合规的律师事务所,现服务智谱、联想等20余家高科技企业。
内容 136
粉丝 0
AI与数据合规出海实操 宁人(北京)律师事务所主任;专注AI&数据合规、企业出海等赛道; 钱伯斯、LEGALBAND、ALB“网络安全与数据合规”上榜律师; 致力于打造一家最懂AI与数据合规的律师事务所,现服务智谱、联想等20余家高科技企业。
总阅读2.6k
粉丝0
内容136