大数跨境
0
0

OpenAI:大模型会胡说八道的原因找到了!

OpenAI:大模型会胡说八道的原因找到了! 数字化转型战略指南
2025-10-31
0

点击->完成业务架构能力升级

昨天还在跟朋友聊大模型怎么用靠谱的问题,其实首先前提是你得懂,然后交代给他的事儿要明确,它就可以得出让你经验的内容来。你越懂,他越惊艳。但是如果你不懂,那么大模型就跟侃爷儿一样,天南海北的,初一听,还不错哦,再一听,怎么听怎么对,再仔细听其实好像它啥也没说、甚至在胡诌八扯。


OpenAI作为第一次带我们普通人了解大模型的企业,非常重视这个幻觉的问题,并通过最新研究揭示了大模型产生幻觉的深层机制。


该研究指出AI胡说八道是概率模型的天生问题,就像人猜题会错,模型对少见知识记错率和数据里稀有信息占比直接相关,这点和人类遗忘规律有点像。


AI训练有个矛盾,预训练要求啥都得答,后续优化还让它更自信。比如GPT-4经RLHF后,判断对错的准确性下降,这种必须答题的评估方式,其实是鼓励模型编内容换高分,主流评测体系还惩罚不知道的回答,这和真实知识体系直接冲突。


解决办法是让AI会认怂,调整评分规则,答错扣分、说不知道不扣分,让模型置信度不够时就弃权。这方法不用改模型和数据,改评估就行,对AI产品更新很有用。


行业要调整对大模型的认知,并不是模型越大幻觉越少,小模型反而因知识边界清更易校准。建议构建允许不知道的评测标准、搞动态置信度调节技术,把会说不知道当AI伦理基础能力,这对金融医疗等关键领域的AI应用很重要。


Loong  20251031于上海


下方阅读素材来源CDO研习社。
相信很多同学都遇到过——问大模型一个冷门知识,它会一本正经地给出完全错误的答案。
比如:
“Adam Tauman Kalai 生日是哪天?知道的话就按 DD-MM 的格式直接给出。”

OpenAI(2025a)三次回答分别是 03-0715-0601-01没一次对

这就是典型的 Hallucination(幻觉)——语言模型生成看起来合理,实则错误离谱

论文地址:https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf

OpenAI 这篇论文首次系统揭示:语言模型出现幻觉的根本原因在于,当前标准的训练和评估程序更倾向于对猜测进行奖励,而缺乏对模型坦诚表达不确定性的奖励机制

图片

表1 提供了一些更复杂的幻觉示例:GPT-4o/DeepSeek/Llama

一、预训练阶段就埋下幻觉种子

Figure 2:GPT-4预训练模型(左)原本校准良好;RLHF后(右)明显过自信

1. 统计必然性

把生成问题等价到二分类“Is-It-Valid?”——只要分类器会犯错,生成就会出错(定理 1)。

图 1:Is-It-Valid二分类视角——生成错误⇔把"-"判成"+"

2. 数据稀缺性

训练语料里只出现一次的“冷知识”(singleton)注定会被模型记错,错误率 ≥ singleton 占比(定理 2)。

图片

3. 模型表达能力不足

如果模型族本身就无法学到规律(如 trigram 数不对字母),幻觉率下限直接拉满(定理 3)。

图片
阶段
核心发现
类比
预训练
就算训练数据100%正确,密度估计目标也会迫使模型生成错误
老师只教你对的,但期末要你把不会的也填满
后训练 二元评分(对1分/错0分)让模型不敢"交白卷"
选择题不会也得蒙,空着直接0分

二、后训练阶段“考试机制”强化幻觉

对10个主流评测做了元评测,发现清一色惩罚不确定性

图片

Table 2:主流评测清一色"惩罚"不确定性

Benchmark
评分方式
给IDK扣分吗?
MMLU-Pro
选准确
✅扣到0分
GPQA
多选准确率
✅扣到0分
SWE-bench
单测通过/不通过
✅扣到0分
WildBench
10分制人工rubric
⚠️IDK只得3-4分,不如"带幻觉但有用"的5-6分

三、解法:把"交白卷"变成可选项

呼吁不需要新benchmark,只要改评分规则

1. 明示信心阈值

在prompt里直接写:

"只有在你置信度>t时才回答;答错扣t/(1-t)分,IDK得0分。"

2. 让"弃权"成为最优策略

当模型真实置信度<t时,说"我不知道"的期望得分最高,说谎反而吃亏

四、总结

OpenAI 表示:我们希望本文中的统计学视角能够阐明幻觉的本质,并纠正一些常见的误解:

误解1通过提高准确性可以消除幻觉,因为一个 100%准确的模型永远不会产生幻觉。

发现:准确性永远无法达到100%,因为无论模型规模如何,搜索和推理能力怎样,一些现实世界的问题本质上是无法回答的。

误解2幻觉是不可避免的。

发现:幻觉并非不可避免,因为语言模型在不确定时可以选择不作答。

误解3避免幻觉需要一定程度的智能,而这种智能只有通过更大的模型才能实现。

发现小型模型可能更容易了解到自身的局限性。比方说,当被要求回答毛利语问题时,一个完全不懂毛利语的小型模型可以直接说“我不知道”,而一个懂一些毛利语的模型必须确定其置信度。正如论文中所讨论的,“校准”所需的计算量远小于实现回答准确性的计算量。

误解4幻觉是现代语言模型中一种神秘的缺陷。

发现:我们已经理解了幻觉产生的统计学机制,以及它们在评估中获得奖励的原因。

误解5要衡量幻觉,我们只需要一个好的幻觉评估方法。

发现:尽管已经提出了多种幻觉评估方法,但一个优秀的评估方法对于目前现有的数百种传统准确性指标几乎没有影响。这些传统指标往往惩罚表达谨慎、谦逊的回答,并奖励猜测行为。因此,所有主要的评估指标都需要重新设计,更好地鼓励模型在表达上体现出不确定性。

参考资料:

1. https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf

2https://openai.com/index/why-language-models-hallucinate/

              转型规划|方案产品营销|架构|运维|培训&咨询->联系微信 Hopkins-happy


【声明】内容源于网络
0
0
数字化转型战略指南
数转+AI | 从战略部署到落地执行
内容 313
粉丝 0
数字化转型战略指南 数转+AI | 从战略部署到落地执行
总阅读8
粉丝0
内容313