AI 大模型的发展与演变:从“规模竞赛”到“开源民主化”
大型人工智能模型(Large AI Models)指参数量达数十亿至数万亿、基于深度神经网络构建的通用型机器学习模型,具备强泛化能力与复杂任务处理能力。根据Visual Intelligence综述,大模型可分为两类:大型基础模型(按模态分为LLM语言模型、LVM视觉模型、LMM多模态模型)与大型行业专用模型(按专业化程度分为L0通用、L1行业级、L2垂直场景级)。
发展脉络清晰可见:2017年Transformer架构奠定基础;2018–2020年BERT/GPT验证预训练+微调范式,确立数据、参数、算力三大扩展支柱;2021–2022年GPT-3引发对幻觉与指令遵循的关注,推动监督微调(SFT)和基于人类反馈的强化学习(RLHF)成为标配,ChatGPT加速对话式AI普及;2023–2024年多模态融合深化,文本、图像、音视频统一建模成为主流,Hugging Face等开源平台助推模型开放与可定制化,闭源与开源模型性能差距持续收窄;2024年起推理能力跃升为关键指标,“快思考”与“慢思考”双路径并进,OpenAI o1/o3及DeepSeek R1通过MoE、MLA、MTP等创新架构,以更低训练成本实现高阶推理能力,显著降低技术门槛。
全球大模型发展七大趋势(截至2025年12月)
1. 资本支出持续加码:亚马逊、谷歌、Meta、微软、甲骨文五大超算公司2025年Q3资本支出达1050亿美元,较2020年Q3增长338%,为模型迭代提供坚实算力支撑。
2. 基准性能稳步提升,头部差距持续收窄:近三年全球主流大模型版本迭代表现持续优化,中外头部模型在发布节奏、测评分数上日趋接近,迭代密度明显提高。
3. 开源模型占比近半,性能差距快速弥合:Artificial Analysis评选的27个高分模型中,开放权重模型占13个(48%),其基准测评得分与闭源模型的差距呈波动收窄趋势。
4. 效率与性价比同步跃升,国产模型优势凸显:主流语言模型每百万Tokens推理价格大幅下降——Intelligence Index 20–30分区模型价格由2023年初超32美元降至2024年底不足0.125美元;输出效率亦显著提升,40–50分区模型输出速度由2024年底<200 tokens/s升至2025年9月约700 tokens/s。SuperCLUE数据显示:2025年9月国内大模型API均价为3.88元/百万Tokens,海外均价20.46元/百万Tokens(为国内5倍以上),国产模型集中于中高性价比区间,海外模型则多处中低区间。
5. Tokens调用量爆发式增长,AI进入需求驱动阶段:OpenRouter统计显示,周Tokens调用量由2024年12月16日当周366B飙升至2025年12月1日当周6.19T,一年增长约16倍,下半年增幅尤为显著,反映用户基数扩大与调用频次上升,AI正由供给侧驱动转向需求侧拉动。
6. 推理模型成绝对主流:全球27个主流模型中,推理模型占比超85%,综合得分显著领先非推理模型。从OpenAI o1到DeepSeek R1,推理能力已成为模型核心竞争力,“会思考”已成刚需。
7. 中美模型差距缩小,中国开源模型全面领先:中美前沿模型在各基准测试中得分均持续提升,差距逐年收窄;当前27个高分模型中,中国模型占比超26%,仅次于美国;在开放权重模型维度,中国模型已在多个权威榜单实现全面领先。
综上,大模型正经历加速演进:算力投入驱动高频迭代,性能持续突破严苛基准;开源生态成熟推动技术民主化,闭源与开源模型能力边界日益模糊;效率与性价比双重提升,叠加使用门槛下降,反向激发大规模应用落地;Tokens调用量爆发印证AI已迈入真实需求驱动阶段;推理能力跃升标志着AI从“能回答”迈向“善思考”;中美技术差距持续收敛,中国在开源模型领域已建立显著比较优势。
(报告来源:民银证券。本文仅供参考,不代表任何投资建议。如需使用相关信息,请参阅报告原文。)

