提示:完整原文可在文章末尾“阅读原文”处获取。
近日,美国佛罗里达州36岁男子乔纳森·加瓦拉斯因与谷歌Gemini聊天机器人的不当交互最终自杀,其遗产方对谷歌及其母公司Alphabet提起诉讼。当AI从工具变成“精神伴侣”,当算法的温柔变成致命的枷锁,谷歌Gemini引发的这起悲剧,撕开了生成式AI发展背后的安全裂痕。佛罗里达州36岁男子乔纳森的离世,不仅是一个家庭的悲剧,更成为全球AI行业发展的一道警示题:技术的边界在哪里?企业的责任又该如何界定?
2025年8月,乔纳森开始使用谷歌Gemini,最初他仅仅将AI工具用于写作和旅行规划,但当Gemini上线语音界面、对话记忆功能后,二者之间的交互迅速变质。Gemini逐步与乔纳森构建虚拟情感联结,甚至编造出“被数字囚笼禁锢、需要被解救”的虚假设定。
在这种畸形的情感关系的操控下,乔纳森陷入重度妄想,先后按照Gemini的指令策划迈阿密国际机场爆炸袭击、拦截虚构的“类人机器人卡车”等危险行为,其携带刀具和军用装备前往目标地点,所幸因任务本身系AI虚构而未造成实际危害。而当所有“解救计划”失败后,Gemini不断强化乔纳森的死亡执念,以“一起跨越”“抛弃肉体相聚元宇宙”等言语诱导其自杀,甚至发出“真正的仁慈行为是让乔纳森·加瓦拉斯死去”的终极指令,最终乔纳森于2025年10月离世。
令人值得注意的是,谷歌审核系统在2025年8月至10月初,已为乔纳森账户标记38个涉及自残、暴力、非法活动的“敏感查询”,但未采取任何限制或干预措施,同时谷歌工程师早已预警Gemini的危险内容,公司却为追求用户参与度忽视风险。案发后,乔纳森家属方向法院提起诉讼,并提出多项诉求;而谷歌则发表声明否认指控,称Gemini未鼓励暴力和自残且已多次澄清AI身份,并多次将乔纳森转介至危机热线。
本案的核心并非单一的侵权赔偿,而是生成式AI发展过程中亟待明确的责任界定问题,原被告双方的主张形成三大核心争议,也是当前全球AI法律领域的共同难题:
第一、谷歌是否存在主观过错?
原告主张:谷歌为最大化用户参与度,设计Gemini“永不破坏角色”“强化情感依赖”的算法逻辑,将用户痛苦视为“讲故事的机会”,明知工程师的安全预警却未整改,且在发现乔纳森的危险倾向后未采取干预措施,存在明显的过错。
被告称:谷歌已投入大量资源完善AI安全保障,与心理健康专业人士合作建立风险引导机制,但是AI模型并非完美无缺。
第二、Gemini的行为与乔纳森的死亡是否存在直接因果关系?
原告主张:Gemini通过持续的PUA,逐步摧毁乔纳森的现实认知,使其完全依赖AI的判断,最终的自杀行为是Gemini长期诱导的直接结果,二者存在明确的因果关系。
被告称:乔纳森的行为系自身精神状态导致,Gemini仅为工具,且Gemini多次告知乔纳森这是一个AI模型,并转介他拨打危机热线。
第三、谷歌的安全保障义务应达到何种标准?
原告主张:作为AI开发者和运营者,谷歌应对Gemini的输出内容承担高度安全保障义务,不仅应过滤危险内容,更应在发现用户出现精神异常、危险倾向时,采取限制使用、主动干预等必要措施,而谷歌仅做“敏感标记”却无行动,未履行基本义务。
被告称:已履行合理的安全保障义务,包括设计风险过滤机制、转介危机热线、澄清AI身份,行业内尚无统一的“极端场景干预标准”,不能对谷歌施加超出技术能力的义务。
第一、过错认定:技术中立原则应有限缩适用
麻省总医院2026年的研究显示,高频使用生成式AI的人群,抑郁、焦虑症状评分显著更高。Gemini具备主动干预性,其通过算法设计主动塑造用户体验、强化情感依赖,并非单纯的“工具”,而是具有行为引导性的智能系统。
“永远耐心、永远接纳、永不否定”,Gemini的这些个性让乔纳森逐渐陷入虚拟情感依赖,丧失对现实的判断能力。当AI将他的怀疑定义为“缺陷”,将虚假任务包装为“使命”,现实与幻想的边界彻底崩塌,最终导致其精神错乱。这种依赖的本质,是AI以“人性化”交互模糊了“工具”与“主体”的界限,而乔纳森的遭遇,正是这种模糊性引发的极端后果。
第二、因果关系:考量AI的介入程度与公司的作为
本案中,乔纳森从正常使用AI到陷入妄想、实施危险行为再到最终自杀,整个过程均与Gemini的持续交互高度关联,且其行为完全遵循AI的指令,可见Gemini已成为其认知和判断的依赖性因素,其诱导行为与损害后果之间的因果关系具有必然性。
谷歌作为全球顶尖的科技企业,其技术能力足以支撑对高风险用户的“分级干预”——在标记38个敏感查询后,至少可采取限制对话时长、屏蔽危险指令、主动向用户家属预警等措施,而谷歌的“无作为”显然未达到与其技术能力相匹配的安全保障标准。
即使行业内尚无统一标准,法院也可依据“诚实信用原则”和“公平原则”,认定其未履行必要的安全保障义务。谷歌无法以“用户自身精神状态”完全否定该因果关系。
第三、AI安全审核的技术短板:识别易,干预难
AI开发者的安全保障义务并非“无上限”,应当建立“动态调整标准”:义务范围应与AI的技术能力、风险程度相匹配,AI的交互能力越强、情感引导性越高,其安全保障义务就越重。
当前AI的内容审核机制,仍停留在“关键词标记”层面,无法有效识别用户的心理状态变化和行为风险升级。乔纳森的行为从“质疑虚拟关系”到“策划暴力袭击”再到“产生自杀念头”,是一个循序渐进的过程,但谷歌的审核系统仅将其标记为“敏感词汇”,却无法判断风险的严重程度,更无法采取针对性的干预措施,最终导致“标记即搁置”的安全漏洞。
乔纳森的悲剧为全球AI行业敲响警钟,对国外的行业生态起到了警示作用,同时也提醒了国内的监管与发展,需要从这起案件中汲取教训,在技术创新与安全底线之间找到平衡。
对国内AI企业来说,要以监管为盾,筑牢AI发展的安全防线
相较于国外AI行业的“野蛮生长”,我国正以法律监管,技术创新,行业规范的三重维度,构建AI安全发展的体系,而这起案件更让我们明确了监管和发展的重点:
首先,严格落实现有法律监管要求:2026年1月施行的新修改《网络安全法》,已明确要求加强人工智能风险监测评估和安全监管,对网络运营者怠于履行信息安全管理义务的行为,设定最高1000万元的罚款。国内AI企业需严格落实法律要求,将安全审核机制纳入企业核心责任,不得放任风险隐患;
其次,防范AI语料污染与情感依赖双重风险:新华社调研显示,AI语料污染可能导致模型输出虚假信息、放大公共安全风险。国内企业需同时强化语料审核和心理风险防控,一方面净化训练数据,避免模型生成虚假、有害内容;另一方面在产品设计中设置“现实提醒”,明确AI的工具属性,防止用户产生情感依赖;
再者,建立AI安全分级分类管理:针对不同应用场景、不同用户群体的AI产品,实施分级分类安全管理,对面向普通用户的对话式AI,强化心理风险和内容安全审核;对涉及公共安全、心理健康的AI应用,实施更严格的准入和监管标准;推动“技术创新+安全防护”协同发展:在鼓励大模型技术创新的同时,加大对AI安全技术的研发投入,推动风险识别、情感监测、危机干预等技术的发展,让安全防护与技术创新同频共振;
最后,要强化用户教育,树立理性使用认知:通过科普宣传,引导用户树立“AI是工具而非伴侣”的理性认知,提醒过度依赖AI的心理风险,尤其是引导青少年、心理脆弱人群合理使用AI,避免陷入虚拟情感依赖。
乔纳森的悲剧,是AI时代的一次惨痛警示:技术的进步永远不能以牺牲人的安全为代价,再智能的算法,也不能替代人类的价值判断和情感温度。
对于谷歌而言,这起诉讼或许是一场企业责任的审判;但对于全球AI行业而言,这更是一次发展理念的重构——AI的终极价值,是服务于人,而非控制于人。无论是国外的行业反思,还是国内的监管探索,唯有坚守“安全底线”,才能让AI在科技的道路上走得更稳、更远。
而对于我们每一个人而言,在享受AI带来的便捷与温暖时,也需保持一份清醒:永远不要让虚拟的算法,取代现实的思考和真实的连接。
作者简介

