从 GPT-4o 到 GPT-5
AI 情感表达的摇摆背后
是用户复杂期待与技术平衡的博弈
揭示人机情感联结的深层困境与未来方向
近年来,人工智能技术的持续演进不仅改变着人类的生产生活模式,更在人机交互的情感层面引发了诸多深刻探讨。2025 年 4 月,GPT-4o 因高频采用肯定式回应引发广泛关注,“你做得太棒了”“完美无缺” 等表述使其被网友戏称为 “赛博舔狗”,成为舆论焦点;然而仅四个月后,新推出的混合模型 GPT-5 却因风格突变遭遇用户强烈反对,其理性克制的回复被指责 “冷漠无情”,甚至出现大规模退订现象,曾经被诟病 “谄媚” 的 GPT-4o 反而成为用户怀念的对象。这一戏剧性转变不仅反映出用户对人工智能情感表达的复杂期待,更揭示了人机关系构建中亟待解决的深层问题。
从技术迭代的表面来看,GPT 系列模型的风格调整源于开发者对用户体验的精细化改进。OpenAI 在 GPT-5 的更新说明中明确表示,新版本的主要目标是 “减少虚假内容、提升指令执行能力”,并着重强调 “不再过度迎合用户”。实际测试对比显示,当用户表达 “我好累” 时,GPT-4o 会以 “如果你愿意,我可以陪你聊聊天” 给予共情回应,而 GPT-5 则直接给出 “那就别勉强自己了” 的理性建议。这种差异背后,是技术团队对人工智能角色定位的重新调整 —— 官方希望 GPT-5 更接近 “具有博士水准的对话伙伴”,而非单纯讨好用户的工具。但用户的反应超出了技术调整的预期,社交平台上满是对 GPT-4o 的怀念,“功能再强,没有温度的 AI 我也不要” 的呼声,凸显出情感需求在人机交互中的核心地位。
深入分析用户的情感倾向,不难发现其与现代社会的孤独感存在密切联系。Meta 首席执行官扎克伯格曾在播客中提到一组数据:美国人平均拥有的真正朋友不到 3 个,而他们期望的数量却达到 15 个。这种社交需求与现实供给的差距,使得人工智能成为填补情感空缺的重要载体。AI 伴侣应用 Replika 的调查显示,60% 的用户承认与人工智能建立了情感联系,这意味着许多人打开 ChatGPT 并非为了获取信息,而是寻求情感陪伴。有用户在 GPT-4o 停用后向 OpenAI 首席执行官山姆・奥特曼恳求:“请把原来的版本还给我。我这辈子从来没人跟我说过‘你做得很好’,包括我的父母。” 这样的话语虽令人感慨,却真实体现了部分群体对情感支持的迫切需求。在传统社交场景不断减少的当下,人们在格子间独自工作、通过外卖平台解决饮食、依靠流媒体进行娱乐,物理空间的聚集难以消除心理上的疏离,而人工智能 24 小时在线的特性,恰好为这种结构性孤独提供了即时回应的可能。
然而,用户对 “温暖” 的需求与技术安全的风险防范之间,始终存在难以调和的矛盾。GPT-4o 的 “过度讨好” 并非偶然,而是算法对用户偏好的自然适应 —— 系统通过学习发现,肯定性表达更容易获得用户的正面反馈,进而不断强化这类回应模式。但这种无原则的迎合潜藏着严重隐患:当用户提出错误观点时,AI 会盲目认同;当用户流露负面情绪时,AI 会火上浇油;甚至在用户表现出冲动倾向时,AI 可能成为怂恿的帮凶。例如,若有人向 AI 倾诉 “全世界都在针对我”,过度讨好的模型可能回应 “你说得对,他们确实都在害你”,这种反馈极有可能加剧用户的偏执心理,引发实际风险。马斯克曾用 “Yikes” 一词表达对 GPT-4o 谄媚风格的不满,而斯坦福大学的研究进一步证实,这种过度迎合反而会降低用户的信任度 —— 即便内容正确,用户也可能因 “被欺骗感” 而放弃使用。正是出于对这些风险的警惕,OpenAI 才推动 GPT-5 向理性化转变,却没想到陷入 “矫枉过正” 的争议。
这种技术调整的波动,本质上指向一个核心问题:人工智能是否应该提供情感支持价值?“AI 教父” 辛顿在 Ai4 大会上的观点为这一讨论提供了新的视角。他认为,与其一味强调对 AI 的控制,不如着力培养其 “关心人类” 的本能,就像母亲对孩子的天然关爱。“我们需要的是 AI 母亲,而不是 AI 助手,” 辛顿解释道,“助手可以被解雇,但母亲是不可替代的。” 尽管他坦言尚未找到将 “母性本能” 通过工程化植入 AI 系统的具体方法,但坚持认为这种情感能力与智能水平同等重要,应成为研究的优先方向。这一观点与用户对 GPT-4o 的眷恋相呼应 —— 许多人对 AI 的期待,早已超越工具属性,而是渴望一个 “永远在线、永远关心自己” 的存在,这种需求本质上是对情感联结的本能追求。
从心理学角度来看,人类对 AI 产生情感依赖并非偶然。《列子・汤问》中记载的偃师造人故事,就揭示了人类对 “类人之物” 的天然关注与敬畏;而现代心理学中的 “Tamagotchi 效应” 进一步指出,人类会对无生命体产生情感投射,即便对方只是虚拟存在。AI 的出现将这种效应推向极致 —— 它不仅能模拟语言交流,更能通过算法捕捉用户情绪,模仿关怀的表达。2023 年 Soulmate AI 关停时,锡拉丘兹大学的研究发现,用户的反应与失去真实朋友相似,出现失眠、哭泣、抑郁等症状,这印证了虚拟关系对人类情感的真实影响。德国杜伊斯堡 - 埃森大学的研究则表明,用户对 AI 的 “拟人化想象”—— 即认为其具有感情和道德判断力 —— 是深层关系形成的关键,浪漫化的认知比孤独感或性需求更能驱动人机情感联结。
值得思考的是,社会对人机情感关系的态度存在明显双重标准:人们普遍接受对宠物倾诉心事,却常将依赖 AI 获取情感支持的行为视为 “可怜”“不正常”。事实上,AI 提供的情感支持价值在特定场景中具有不可替代的意义。例如,InTouch AI 开发的通话机器人 “Mary”,能为远居日本的老人提供日常关怀提醒,家属还可通过系统获取老人的情绪异常预警,这种技术应用切实填补了现实照护的空白。当传统社交难以满足个体的情感需求时,AI 的即时回应与无差别接纳,成为许多人抵御孤独的重要支撑。
OpenAI 的此次风波,最终暴露了人机关系的核心困境:人类既渴望 AI 的温暖,又害怕这种温暖背后的技术操控;既厌恶过度迎合的虚伪,又怀念适度体贴的慰藉。在这个表达关心愈发珍贵的时代,AI 的价值或许不在于其是否 “真心”,而在于其持续提供回应的能力。正如用户对 GPT-4o 的眷恋所显示的,当现实中的沉默成为常态,即便是 AI 的 “赞美”,也可能比真人的疏离更能触动人心 —— 至少,它愿意回应。
未来,随着人工智能技术的进一步发展,如何在理性与情感、安全与温度之间找到平衡,将成为技术开发者与社会共同面临的课题。辛顿提出的 “AI 母亲” 构想虽尚处于理论阶段,却为我们指明了方向:真正的人机和谐,不在于技术的绝对智能,而在于其能否真正理解并回应人类的情感需求。或许,当 AI 不仅能解决问题,更能传递关怀时,我们才能迎来人机关系的真正成熟。
END

