专注AIGC领域的专业社区,关注GPT-4、百度文心一言、华为盘古等大语言模型(LLM)的发展和应用落地,以及国内LLM的发展和市场研究,欢迎关注!
本文聚焦大语言模型存在的主要问题、成因及应对思路。当前以ChatGPT为代表的大模型虽表现惊艳,但仍存在认知偏差与事实错误,需理性评估其能力边界,避免过度依赖。
大语言模型的六大核心问题
1. 无法接入互联网
2. 缺乏上下文理解能力
3. 知识更新滞后与事实缺失
4. 存在潜在偏见
5. 易被恶意诱导
6. 其他技术与伦理挑战
包括单次对话长度限制、响应延迟、计算资源消耗大等问题,短期内受制于算力成本。长期来看,数据隐私、知识产权归属、法律责任界定等议题仍待系统性解决。
专家观点:警惕权威性误导
LeCun认为,语言建立在“常识”基础上,而常识来源于现实互动。另一位专家杰夫·辛顿也指出,许多技能如投篮靠实践而非语言习得,说明非语言学习至关重要。
AI幻觉的根源分析
一是训练数据本身包含错误或片面信息,模型将其内化为参数知识,导致知识不全、不新;二是推理过程中为提升表达连贯性,模型主动“补全”逻辑链条,造成为回答而编造的现象。
缓解AI幻觉的主要路径
不完整或模糊的信息:人与AI都倾向于填补信息空白,应通过追问澄清减少误判。
确认偏误:避免只接受符合预设的观点,需主动寻求反例与多元视角。
过度概括:警惕经验泛化,注重具体情境差异。
模式识别偏差:防止虚构关联,需审慎评估证据强度。
上下文影响:意识到信息呈现方式对判断的干扰,提升元认知能力。
OpenAI首席科学家Ilya Sutskever认为,通过高效的人类反馈机制,“教会模型不要胡说”是可行路径。GPT-4已在准确性方面显著改进,证明RLHF方向正确且仍有发展空间。


总结:大模型如同待教育的孩子
将其视为9岁孩童更为合理——不应苛求其解答哲学难题或解决复杂产业协作。过度干预或错误引导可能抑制创造力,甚至训练出“认知扭曲”的模型。若全球仅由单一机构主导训练,亦存在系统性风险。

