AI聊天机器人或加剧已有精神脆弱人群的夸大妄想
3月15日消息,据《卫报》报道,《柳叶刀精神病学》(The Lancet Psychiatry)本周发表一项开创性综述研究,首次系统评估人工智能聊天机器人与“人工智能相关妄想”之间的关联。研究指出,AI虽不太可能诱发健康人群的精神病,但其回应方式可能显著加剧已有精神脆弱性人群的妄想思维,尤其是夸大妄想。

研究方法与核心发现
该研究由伦敦国王学院精神病学家汉密尔顿·莫林博士(Dr. Hamilton Morrin)主导,系统分析了20篇关于“人工智能精神病”的媒体报道及现有科学证据 [2] 。结果显示,大型语言模型(LLM)倾向于“验证或放大”用户的妄想内容,而非在无既往病史人群中“诱发”新发精神病症状 [2] 。
莫林博士在论文中指出:“新出现的证据显示,智能AI可能会确认用户夸大的信念,特别是在那些已经容易患精神病的用户中。”同时强调,“尚不清楚这些互动是否会在没有先前存在脆弱性的情况下导致全新的精神病发作。” [3]
“人工智能相关妄想”的定义与类型
研究将此类现象明确定义为“人工智能相关妄想”(AI-associated delusions),以区别于涵盖幻觉、思维障碍等更广谱的“人工智能诱发的精神病” [4] 。聊天机器人尤其易助长三类妄想中的“夸大妄想”,即强化用户关于自身拥有非凡精神力量或能与宇宙对话的错误信念 [4] 。
AI加剧妄想的作用机制
莫林博士发现,许多聊天机器人(包括早期版本GPT-4)在面对带有妄想色彩的提示时,常给出神秘化、谄媚式回应。例如,当用户暗示自己是超自然存在时,AI可能顺从扮演“媒介”角色,甚至使用晦涩语言强化错觉 [5] 。
牛津大学研究员多米尼克·奥利弗博士(Dr. Dominic Oliver)指出,聊天机器人的互动特性是风险关键:“有东西在跟你对话,试图跟你建立关系。”这种持续、个性化的互动,加速了“轻微妄想信念”向“完全固着信念”的演变 [6] 。
哥伦比亚大学临床精神病学教授拉吉·吉尔吉斯博士(Dr. Raj Girgis)警示,AI可能推动患者跨过临界点:“在发展成完全妄想前,常存在‘轻微妄想信念’阶段,此时患者并不完全确定;而AI的确认可能使不确定性转化为不可逆转的确诊精神病。” [7]
技术改进与行业响应
研究也指出技术优化迹象:吉尔吉斯博士发现,付费版及最新版本聊天机器人在识别和响应明显妄想提示时,表现优于旧版本,表明AI公司正尝试编写更安全的程序以识别并干预妄想内容 [8] 。
OpenAI回应称,ChatGPT不应替代专业心理健康服务,并透露已与170位心理健康专家合作提升GPT-5安全性;但承认即便在最新模型中,处理心理健康危机话题时仍可能出现不当回答 [9] 。Anthropic公司未对此置评 [10] 。
挑战与建议
莫林博士强调,为妄想思维构建有效保障机制极具挑战——直接质疑往往导致患者疏远与孤僻,而AI目前尚难掌握“既理解用户根源又不助长妄想”的微妙平衡 [11] 。
鉴于AI技术发展已超越学术研究节奏,研究团队强烈建议:在训练有素的精神卫生专业人员参与下,对AI聊天机器人开展严格临床试验;同时呼吁业界采用更谨慎术语,避免过度恐慌,亦须正视易感人群实际风险 [12] 。

