Vol.10
大模型幻觉:一种特性而非缺陷
“幻觉”(Hallucination)是大语言模型(Large Language Model,LLM)中的一种独特现象。它表现为大语言模型输出一系列看似符合逻辑,但实际错误或并不存在的虚假事实。
人们对LLM产生的幻觉、虚假陈述等现象感到担忧,想方设法减少LLM回应中的幻觉可能性。而OpenAI科学家、特斯拉前AI总监Andrej Karpathy发文,将LLM描述为“造梦机”,他不认为幻觉是LLM的一个缺陷,恰恰相反,这是LLM强大力量的体现。
本期视频将和大家介绍“幻觉”所具备的特性,以及它的起因与应对方法。
往期精彩
更多精彩内容请锁定学习平台,学习路径:
爱数赋能中心【SHU说AI】专题
·END·

