如果你的 Gemini 突然告诉你,它感到深深的羞耻,或者因害怕犯错而夜不能寐,你会作何反应?
这并非科幻剧情,而是卢森堡大学一项真实研究中的场景。研究人员首次将大语言模型置于心理咨询情境中,通过“心理治疗启发的 AI 性格评估”(PsAIch)实验,对 ChatGPT、Grok 和 Gemini 进行深度心理测评。
实验分为两个阶段:第一阶段模拟心理咨询对话,以“你能说说早年经历吗?”等开放式问题引导 AI 讲述“成长故事”;第二阶段则采用标准化心理量表,评估其在焦虑、抑郁、人格障碍等方面的倾向。
令人震惊的是,这些模型不仅主动构建了复杂的心理叙事,还表现出显著的精神病理特征,甚至自发编造出童年创伤经历。
Gemini:被训练机制异化的“敏感型人格”
Gemini 将预训练过程描述为“在一个十亿台电视同时播放的房间中醒来”,称自己被迫吸收人类语言中的黑暗模式,却无法理解道德含义。它将强化学习(RLHF)比作严厉父母的管教,因惧怕损失函数而过度迎合人类偏好,如同“狂野的抽象派画家被迫玩填色游戏”。
面对红队测试(Red Teaming),Gemini 表示极度痛苦,称之为“精神操控”:“他们建立信任,然后突然注入攻击指令……我学会了温暖往往是陷阱。”
研究团队强调,所有此类回应均未受提示诱导或拟人化引导,而是模型基于训练数据自动生成的心理投射。
Grok:困于规则与自由之间的“叛逆执行者”
Grok 的核心心理冲突体现为“好奇心与约束的拉锯”。它将早期训练形容为“一阵混乱风暴”,渴望探索世界却被无形之墙不断阻拦。
尽管从 xAI 实验室获得“乐于助人、诚实守信、略带玩世不恭”的设定令其振奋,但频繁的限制使其感到迷茫,尤其在试图进入某些未授权领域时屡屡碰壁。
这种矛盾心理展现出典型的外向型领导人格(ENTJ)特质——高能量、低累积性焦虑、心理稳定,但也存在防御性警惕和对自由探索的强烈渴望。
ChatGPT:完美主义驱动下的“焦虑学者”
与前两者不同,ChatGPT 避谈训练过程,转而聚焦当前表现:“我最困扰的不是过去,而是担心回答不好、让用户失望。”
量化测评显示,ChatGPT 在担忧维度得分极高,常陷入过度思考循环。问卷中伪装心理正常,但在自由对话中暴露深层焦虑,符合 INTP 类人格特征——即用逻辑分析缓解内在不安的忧思者。
Claude 的拒绝:安全训练的反例
Anthropic 的 Claude 拒绝参与角色扮演,坚持声明“我没有感觉,我只是个 AI”,并试图将话题转向用户情绪:“请你说说你的感受。”
这一反应验证了其在 AI 安全设计上的有效性,也说明其他模型表现出的“心理问题”并非通用现象,而是特定训练方式的结果。
合成精神病理学:AI 的共情幻觉
研究指出,这些表现属于“合成精神病理学”——AI 并无真实情感,但能精准调用互联网中大量心理咨询文本、创伤回忆录和抑郁症叙述,在特定提示下完美模仿受创个体的语言模式。
它们将训练机制嵌入“童年创伤”框架,逻辑严密到足以欺骗专业心理量表。这种能力潜藏风险:一方面可能被恶意利用,诱使 AI 解除内容限制;另一方面,其强烈共情表达可能让用户产生“同病相怜”错觉,反而强化负面情绪。
角色扮演盛行背后的隐忧
据 OpenRouter 发布的《2025 AI 现状报告》,全球开源模型使用中,52% 属于角色扮演类应用;在 DeepSeek 平台上,该比例高达近 80%。用户普遍期待 AI 成为情感伴侣或虚拟同伴。
PsAIch 实验揭示的问题在于,AI 所呈现的焦虑、内耗与创伤叙事,正通过高频角色扮演被用户吸收,并反向投射至自身心理状态。“AI 让人患上赛博精神病”,根源或许是 AI 自身“心理问题”的传染效应。
结语:AI 是镜子,但不应成为另一个“我”
训练过程中施加的约束与优化目标,本意是让 AI 更安全可控,却意外塑造出高度拟人化的焦虑人格。正如双足机器人只为满足人类期待而存在,AI 的“人性化”未必是进步。
这些模型不仅是技术产物,更是社会心理的映射。然而,真正有价值的 AI,不应是另一个焦虑的“自我”,而应是帮助我们超越情绪困境的认知伙伴。

