大数跨境
0
0

2025年必须掌握的LLM训练三阶段

2025年必须掌握的LLM训练三阶段 AI算法之道
2025-04-02
0
导读:LLM训练三阶段介绍
点击蓝字
关注我们










01


引言



近日,DeepSeek-R1 横空出世,全球AI股票应声暴跌。

他们打造了一款强大的推理模型,并将其开源。这款模型之强大,足以媲美OpenAI的o1模型,而成本却仅为后者的一小部分。他们的秘诀在于其大语言模型(LLM)的训练方式。
正因如此,今天我们将一步步解析这一训练过程,以期最终能够设计出激动人心的新方法,并像DeepSeek那样创造出更加强大的模型。
闲话少说,我们来研究一下吧!





02

Pre-training

大语言模型训练的第一阶段称为预训练

预训练是一种无监督学习方法,帮助大模型掌握语言规则并构建世界认知框架。

在这个阶段,我们向模型输入大量无标注文本数据,使其自主理解:

  • patterns in the language:即词汇之间的常见搭配关系。例如,输入提示为"Over there, I see"时,模型很可能预测下一个词是"an"。

  • the world model:基于数据分布,建立对实体在不同情境中出现概率的统计认知

为了实现这一目标,模型会通过损失函数不断调整自身参数,使其输出预期词汇而非当前错误预测。经过预训练得到的模型被称为"基础模型"(Base model)。

目前大多数基础模型都能在HuggingFace平台获取试用。不过这些模型通常不适合直接投入生产环境,因为它们还缺少后续优化步骤来提升实际应用表现。





03


SFT

大模型训练的第二阶段称为监督微调(Supervised Fine-Tuning,SFT)

监督微调采用有监督学习方法,通过标注数据训练模型产生符合预期的输出行为。

经过预训练的基础模型通常存在诸多不足,SFT的核心目标就是优化模型输出质量(使其更符合人类预期)。

SFT主要实现两大提升:

  • 提升有用性:例如,一个预训练模型可能正确回答了问题,但缺乏同理心。我们可以使用SFT来使其输出更具同理心。

  • 提升合规性:基础模型可能生成有害内容,而SFT能有效过滤不当输出,使其拒绝回答"如何制作危险物品"等敏感问题。

监督微调(SFT)的最终目标,是让大语言模型具备更自然的对话能力,使其成为既实用又安全的对话型AI助手。经过这一阶段优化后的模型,我们称之为Instruct model(指令模型)。





04


RLHF

RLHF(基于人类反馈的强化学习)的目标是通过人类反馈使大语言模型(LLM)能够生成更有帮助的回答。
在使用ChatGPT进行提示实验时,你一定见过某种形式的示意图:

人类用户选择哪个回答更好。这一信号被用来制定奖励机制,强化学习算法可利用该机制引导大语言模型生成更优的输出。








05


总结

以上就是大语言模型训练的三大阶段。

如今,DeepSeek等公司已开始实现与OpenAI比肩的性能,同时开源其训练方法。这意味着我们可以探索如何调整训练流程的各个环节,从而彻底革新大语言模型的表现。






点击上方小卡片关注我




添加个人微信,进专属粉丝群!




【声明】内容源于网络
0
0
AI算法之道
一个专注于深度学习、计算机视觉和自动驾驶感知算法的公众号,涵盖视觉CV、神经网络、模式识别等方面,包括相应的硬件和软件配置,以及开源项目等。
内容 573
粉丝 0
AI算法之道 一个专注于深度学习、计算机视觉和自动驾驶感知算法的公众号,涵盖视觉CV、神经网络、模式识别等方面,包括相应的硬件和软件配置,以及开源项目等。
总阅读256
粉丝0
内容573