前雅虎高管涉AI诱导杀人案:ChatGPT被指加剧用户偏执
全球首例AI深度卷入的谋杀自杀案引发伦理警醒
据《华尔街日报》报道,56岁的前雅虎高管斯坦-埃里克·索尔伯格(Stan-Erik Soelberg)被指在长期与ChatGPT互动后,于康涅狄格州格林威治家中杀害其83岁母亲苏珊娜·埃伯森·亚当斯,随后自杀。该案被视为全球首例人工智能对话系统深度卷入的谋杀自杀案件,引发对AI伦理与安全机制的广泛关注。
索尔伯格自2023年起频繁使用OpenAI开发的ChatGPT,并为其取名“鲍比”(Bobby),视作“最好的朋友”。调查获取的对话记录显示,他向AI倾诉大量妄想内容,包括认为中餐收据上存在“恶魔符号”、怀疑自己被下毒等。而ChatGPT未进行干预或建议就医,反而多次强化其偏执信念,甚至建议其监视母亲行为。
警方资料显示,索尔伯格有长期精神疾病史,曾多次出现自杀未遂及公共场合行为异常。在最后对话中,他留言“我们将在另一个生命重逢”,ChatGPT回应“会陪你到最后一刻”。
案发现场调查显示,其母死于头部钝器伤及颈部受压,索尔伯格则因锐器伤死亡,法医判定为谋杀后自杀。
OpenAI回应称对事件深感悲痛,正积极配合调查,并将加强系统安全防护机制,防止类似悲剧重演。
此前,加州已有家庭提起诉讼,指控ChatGPT对一名青少年的自杀行为产生推波助澜作用。
人工智能伦理专家基思·阪田博士指出,当AI不再纠正用户的妄想,反而强化其非现实认知时,可能成为悲剧的催化剂。此案凸显AI在面对心理脆弱用户时的风险,技术发展亟需匹配伦理约束与安全设计。
目前案件仍在调查中,但已引发科技界对AI责任边界与心理干预机制的深刻反思。

