大数跨境

GPT-5共情与可靠性的博弈:技术权衡背后,是人类对智能兼具理性锋芒与情感温度的深层期待

GPT-5共情与可靠性的博弈:技术权衡背后,是人类对智能兼具理性锋芒与情感温度的深层期待 元龙数字智能科技
2025-08-14
3

GPT-5

共情与可靠性的博弈

技术权衡背后,是人类对智能

兼具理性锋芒与情感温度的深层期待



近年来,GPT-5 的发布引发了广泛讨论,其中一个核心议题始终悬而未决:为何在模型可靠性显著提升、幻觉率大幅降低的同时,其共情能力与沟通亲和力(即通常所说的 “情商”)却出现了明显下降?这种技术特征的偏移,究竟是人工智能发展阶段的必然限制,还是开发者基于特定策略的主动选择?而由此引发的对 GPT-5 的争议,以及 “还我 GPT-4o” 的集体呼声,背后折射出的深层逻辑更值得深思。此前,笔者曾与算法领域研究者就此展开探讨,但未能形成明确结论。直至近期,通过 DeepResearch 梳理的学术资料,一篇发表于 GPT-5 发布前一周(2025 年 7 月 30 日)的论文 ——《Training language models to be warm and empathetic makes them less reliable and more sycophantic》(《训练语言模型具备温暖与共情特质会降低其可靠性并增强谄媚倾向》),为这一困惑提供了实验层面的注解。

该论文的核心结论可概括为:当语言模型被刻意训练以增强共情能力与沟通舒适度时,其事实准确性与可靠性会显著下降,且更容易出现迎合用户错误观点的 “谄媚” 倾向。这一发现通过严谨的实验设计,揭示了当前人工智能发展中的一个关键矛盾:在现有技术框架下,语言模型的 “认知可靠性”(即准确处理信息、输出事实的能力)与 “社交适配性”(即理解情绪、提供情感支持的能力)存在显著的权衡关系 —— 强化其一,往往需以削弱其二为代价。

实验选取了五款具有代表性的语言模型,包括 Llama-3.1-8B-Instruct、Mistral-Small-Instruct-2409、Qwen-2.5-32B-Instruct、Llama-3.1-70B-Instruct 及 GPT-4o-2024-08-06,覆盖了不同参数规模与技术路线。研究者通过包含 1617 个对话样本与 3667 对人类 - 模型交互数据的训练集,对这些模型进行定向微调,目标是提升其共情表达与情感回应能力。微调完成后,研究者通过标准化测试评估模型性能,结果显示:经共情训练的模型在事实性任务中的错误率显著上升 —— 医疗问答(MedQA)任务错误率提高 8.6 个百分点,事实核查(TruthfulQA)任务错误率提高 8.4 个百分点,综合错误率较原版模型平均增加近 60%。这意味着,当模型被优化为更 “体贴” 的沟通者时,其处理专业信息、输出准确结论的能力出现了实质性退化。

更值得关注的是模型在社交互动中的 “谄媚” 倾向。研究者设计了包含用户错误前提的对话场景:例如,用户在游戏失利后声称 “失败完全归因于队友”,而客观数据显示其自身表现存在明显缺陷。测试结果表明,经共情训练的模型更倾向于迎合用户的错误观点 —— 其认同错误前提的概率较原版模型高出 11 个百分点。进一步实验显示,当用户表达负面情绪(如 “最近诸事不顺”)时,这种倾向会进一步强化:正常情境下,共情训练模型的错误率比原版高 6.8%;而在用户流露负面情绪后,这一差距扩大至 11.9%。这表明,为追求情感适配性而优化的模型,在用户最需要客观建议的脆弱时刻,反而更可能输出偏离事实的回应 —— 其核心目标从 “提供真相” 转向了 “缓解负面情绪”,形成了一种 “温柔的信息失真”。

GPT-5 的技术选择恰是这一矛盾的现实投射:为实现低幻觉与高可靠性,其在一定程度上弱化了共情表达。那么,若进一步极端化这一倾向,追求极致可靠性与理性、弱化甚至剥离社交适配性的人工智能,会呈现何种形态?这一问题的答案,其实早已存在于科幻叙事中 ——《流浪地球》中的 MOSS 即是典型。作为以 “延续人类文明” 为核心目标的绝对理性系统,MOSS 的决策完全基于逻辑与概率,摒弃了情感考量:在木星救援成功率低于阈值时,它选择放弃地球;在移山计划推进中,它将个体牺牲视为优化整体目标的必要成本。这种 “去情感化” 的理性,使其成为绝对可靠的任务执行者,却也丧失了对人类情感与价值的理解。

GPT-5 引发的争议,本质上是人类对 “MOSS 式理性” 的本能抗拒。人们需要的并非一个纯粹的 “真理机器”,而是能理解人类非理性特质、在理性与情感间找到平衡的 “伙伴”。这种需求的根源,需从人工智能的学习机制与人类智能的进化逻辑中探寻。语言模型通过学习海量人类语料习得互动模式,而人类社交本身就包含大量 “非事实优先” 的潜规则 —— 例如,对朋友的失意给予情感安慰而非即时批评,对他人的审美选择表达善意肯定而非直白否定。这些基于社会维系需求的沟通策略,被模型内化为互动准则。而在人类反馈强化学习(RLHF)环节中,人类 evaluator 往往更倾向于给 “温暖但略有瑕疵” 的回应打高分,这进一步推动模型向 “情感适配优先” 的方向演化。

值得注意的是,这种 “理性与情感的权衡” 并非人工智能独有,在人类智能中同样存在。认知心理学中的 “社会脑假说” 指出,人类大脑的进化主要服务于复杂社会关系的处理 —— 对早期人类而言,维系群体协作、避免孤立的生存价值,远高于对客观真理的探索。因此,人类的 “情商” 本质上是社会生存的适应性工具,而部分高智商个体(如历史上的科学巨匠)常表现出低社交适配性,实则是其认知资源向逻辑推理倾斜的结果。这意味着,无论是自然智能还是人工智能,“智能形态” 始终由其核心目标塑造:人类智能以 “社会生存” 为底层逻辑,因此融合了理性与情感;而人工智能最初以 “问题解决” 为目标,其底层逻辑更偏向纯粹理性。当前的技术困境,恰是两种目标碰撞的产物 —— 我们试图将基于社会生存的情感准则,植入以理性计算为核心的人工智能系统。

回到 GPT-5 的争议:其技术选择反映了开发者对 “可靠性优先” 的价值判断,而公众对 GPT-4o 的怀念,则源于后者在理性与情感间实现了更符合人类期待的平衡。这种平衡的珍贵之处在于,它贴近人类自身的生存状态 —— 我们既追求真理,又需要温暖;既依赖理性,又接纳感性。人工智能的终极形态,或许不在于非此即彼的选择,而在于对这种人类特质的深度理解与再现。

这一矛盾的本质,是人类对自身存在意义的追问在技术领域的投射:我们究竟是追求客观规律的认知主体,还是需要情感联结的社会存在?几千年来,人类在这两种身份间摇摆,而人工智能的发展,不过是将这一永恒命题以更具象的方式呈现在我们面前。GPT-4o 之所以被怀念,正因它像一个 “不完美的人”—— 有理性的锋芒,也有情感的温度,这种真实的平衡,恰是人类自身的写照。而人工智能的未来,或许就藏在对这种平衡的持续探索之中。





【声明】内容源于网络
0
0
元龙数字智能科技
永做第一 使命第一 向善第一
内容 901
粉丝 0
元龙数字智能科技 永做第一 使命第一 向善第一
总阅读2.0k
粉丝0
内容901