欢迎学友分享已发表的学术成果,或日常学习感悟、思考心得,请将稿件投至jishiyubianjibu@126.com,编辑部将择优发布至公众号,为您推广!让思想碰撞、经验互鉴,期待您的来稿!
人工智能幻觉(AI Hallucination)是大型语言模型(LLMs)和生成式AI系统中最引人关注,也最具挑战性的现象之一。简单来说,它指的是模型生成了貌似合理、流畅且自信,但实际上与训练数据或客观事实相悖的错误信息。这种现象被形象地称为“幻觉”,借鉴了人类认知科学中对精神病理学症状的描述,意指模型产生了与外部输入刺激无关的感知。然而,与人类幻觉不同,AI的幻觉并非意识障碍的结果,而是统计和概率计算的副产品。
在技术机制上,当前主流的大语言模型通过在海量语料中学习词语共现的统计关系,目标是生成在给定语境下“最可能出现的下一个词”(Next Token Prediction)。模型优化的是形式上的概率合理性,而不是严格意义上的真伪判断。只要某种说法在训练语料中以类似表达反复出现,模型就可能在缺乏事实检验的情况下复制或重组这一表达,从而产生幻觉。这种幻觉往往具有高流畅、高置信度、难以肉眼快速识别等特点,因而具有特殊的风险。
AI幻觉是大型语言模型底层架构和训练范式共同作用的结果。理解其根源,需要深入到Transformer架构和自回归生成机制的工作原理。LLMs本质上是概率预测机器,它们的核心任务是预测给定序列的下一个最可能出现的词语。模型通过在数万亿词元(Tokens)的庞大语料库上训练,学习了复杂的语言统计模式和词汇共现规律,但并未真正习得“事实”。
如果从广义上理解“机器说错话”,早期的规则系统与专家系统也会出现输出错误结论的情况。不过在那一阶段,系统的知识来源是有限的人工规则和逻辑推理链,错误往往可以追溯到某条规则或某个前提。人们通常不会用幻觉这一概念,而是把问题视为技术规则不完备。
真正让幻觉问题走入公共视野,是在大语言模型面向大众开放之后。模型可以用自然语言回答各种问题,与用户以对话方式互动,输出的文本往往具有极高的语言自然度和论证完整度。在许多场景中,用户不再把模型当成可有可无的辅助工具,而是当作具有知识和判断力的智能助手。在这一期待转变下,只要模型在事实层面稍有虚构,便会被感知为严重的失真甚至欺骗,幻觉因此成为生成式人工智能讨论中的核心议题。
第一,目标函数与真实性目标之间存在结构性偏差。训练语言模型的直接目标,是在给定上下文时最大化训练集中下一个词的出现概率。这一目标偏向于“像人一样说话”,而不是“说真话”。只要语料中存在大量看似可信却并不真实的文本,模型就有可能学到并复制类似的表达方式。真实世界知识在训练目标中仅以间接方式存在,并未被明确约束。
第二,训练数据本身存在噪音、偏见和不完整性。互联网数据虽然规模庞大,却包含大量未经验证的信息、谣言、错误新闻以及各种偏见。模型在预训练阶段无法区分可靠与不可靠来源,只能以统计方式“平均吸收”。即使后续通过人工标注、对齐和指令微调对模型进行修正,也难以彻底清除底层参数中的错误关联。当用户提出冷门问题、非常具体的问题或训练数据中相对稀缺的问题时,模型就可能在局部空白地带进行创造性填补。
第三,推理阶段缺乏稳定的外部事实校验机制。大部分基础模型在回答问题时,并不会实时检索权威数据库,而是依赖自身参数中内化的“世界模型”。这类似于一个记忆力极强但并不善于核实信息的人,一旦被问及陌生细节,往往会在模糊记忆与语言模式的引导下编出一个看似合理的答案。如果系统没有显式设计“我不知道”这一出口,模型更倾向于输出有内容的回复,而不是承认无知,这在形式上提升了用户体验,却在事实层面放大了幻觉风险。
在一般性娱乐或创意写作场景中,幻觉并不一定是负面现象。虚构故事、文学改写、头脑风暴本身就欢迎想象力溢出,模型在此时生成不存在的情节、人物和世界观,可以被视为一种叙事实验。从这个角度看,幻觉有时被主动利用,用来激发创作灵感,甚至形成独特的文体。
然而在知识密集和高风险场景里,幻觉问题就会放大为伦理与治理难题。例如当用户咨询医学信息、法律条款、金融建议或公共政策时,模型给出看似权威却不真实的回答,可能直接影响当事人的决策,甚至危及健康与财产安全。在学术场景中,模型捏造参考文献、伪造文献内容,会破坏知识生产的基本信任机制,使得学术引用的可核查性大幅下降。
幻觉还会对信息生态与舆论秩序产生连锁影响。如果大量用户在社交媒体上转发由模型生成的伪信息,这些内容又反过来被抓取并进入下一轮训练,虚构信息就可能在技术系统与社会系统之间循环放大,形成一种“反馈式幻觉”。时间一长,真实与虚构的边界会变得模糊,人们在判断信息可信度时面临更高的成本。这种结构性后果,使得幻觉已经不仅是技术缺陷,而是需要从媒介伦理、知识社会学与治理理论多重视角进行反思的问题。
治理人工智能幻觉可以从技术、制度与社会文化三个层面协同推进。技术层面上,一方面可以让模型在回答问题时实时访问数据库和权威文献,对候选回答进行交叉验证;另一方面可以发展更精细的不确定性表达,让模型在置信度不足时主动承认信息有限、仅供参考,而不是给出看似确定的结论。同时,训练数据的筛选、标注与多源对比也尤为关键,需要在语料层面增强可靠来源的权重。
制度层面上,可以考虑制定针对生成式人工智能的透明度与责任规范。例如要求系统在输出内容时标明其生成性质,避免与官方信息、学术出版物在形式上完全混同;在涉及重大风险领域时,明确界定开发者、部署者与使用者的责任边界,建立审计与追责机制。对于教育、科研、司法等关键部门,则需要制定更为严格的使用规范,限制未经核实的模型输出直接进入正式决策流程。
社会文化层面,用户的媒介素养与技术素养同样重要。面对高度自然的语言界面,公众需要学会把模型视作“强大的文本生成器”,而不是绝对可靠的“知识权威”。教育体系和媒体机构可以通过案例分析与科普传播,揭示幻觉的形成机制,培养人们对自动生成内容的基本怀疑精神与核查能力。对于研究者而言,幻觉也是观察人机关系变迁的一面镜子,通过分析模型如何编造,可以更好地理解知识权威在数字时代的重构过程,从而为未来更负责任的人工智能设计提供理论支撑与实践路径。
整体来看,人工智能幻觉既是当前生成式技术的结构性局限,也是一个促使人类重新审视知识、信任与智能本质的契机。如何在充分利用其创造性潜力的同时,控制由幻觉带来的风险,将成为未来一段时间内人文与技术领域共同面对的重要议题。
如有侵权,请联系后台删除。
推荐阅读
《学术出版中AIGC使用边界指南3.0》正式发布(附指南全文)!
理论介绍 | 数字融入(Digital Integration)
推文基于更好更多传递信息之目的,限于视野和能力,可能会有疏漏及不足之处,请随时指正。若有来源标注错误或侵犯了您的合法权益,请后台联系我们,我们将及时更正、删除!
如需转载,请保持图文完整,并标注版权及本公众号ID、二维码、作者,谢谢!