新智元报道
【新智元导读】CES巨幕上,老黄的PPT已成中国AI的「封神榜」。DeepSeek与Kimi位列C位之时,算力新时代已至。
2026年CES科技展上,英伟达CEO黄仁勋的主旨演讲中一张PPT引发广泛关注:中国大模型Kimi K2、DeepSeek V3.2和通义千问Qwen赫然出现在全球开源大模型性能榜单前列,性能逼近闭源模型,标志着中国AI在全球舞台的强势崛起。
其中,DeepSeek-R1、Qwen3和Kimi K2均采用MoE(混合专家)架构,在保持高参数规模的同时仅激活少量参数,显著降低计算量与HBM显存带宽压力。
在介绍下一代Rubin架构时,黄仁勋特别选用DeepSeek和Kimi K2 Thinking作为性能演示案例。数据显示,在Rubin架构加持下,Kimi K2 Thinking推理吞吐量提升10倍,token成本降至原来的1/10,预示AI推理正迈入“平价时代”。
PPT中还指出,480B参数的Qwen3与1TB参数的Kimi K2成为算力需求暴涨的代表性模型,验证了大模型参数规模正以每年十倍速度持续扩展。
整场发布会中,中国AI模型频繁亮相,展现出极高的技术参与度。
推理性能飙升十倍
中国模型成英伟达性能标杆?
早在2025年12月,英伟达官方博客便将DeepSeek R1与Kimi K2 Thinking作为性能测试标杆。实测显示,Kimi K2 Thinking在GB200 NVL72平台上推理性能提升达10倍。
SemiAnalysis InferenceMax测试表明,DeepSeek-R1每百万token成本下降超90%,Mistral Large 3等模型同样实现十倍级加速。这意味着复杂“思考型”MoE模型已具备大规模商用可行性。
当前主流前沿模型普遍采用MoE架构。统计显示,自2025年起超过60%的开源大模型选择MoE结构,该架构推动LLM智能水平相比2023年初提升近70倍。
在Artificial Analysis(AA)发布的TOP 10最智能开源模型榜单中,全部采用MoE结构。面对如此庞大的模型规模,单GPU难以部署,而英伟达GB200 NVL72成功解决了这一难题。
DeepSeek R1与Kimi K2 Thinking的实际表现,充分验证了Blackwell超算平台的强大算力支撑能力。中国大模型的优异表现,正在开启高效AI推理的新纪元。
开源AI领跑全球,赢得国际认可
权威评测中的中国力量
2025年底,Anthropic发布针对全球16个前沿模型的行为基准测试。DeepSeek与Kimi作为唯二入选的中国模型,表现突出——Kimi K2 Thinking凭借最低被误导率,获评“最佳非美国模型”。
注:得分越低,抗误导能力越强
这一技术实力迅速转化为国际影响力。从硅谷风投教父Marc Andreessen的公开赞誉,到OpenAI前CTO推出的新产品Thinker宣布接入Kimi K2 Thinking,中国AI正被全球核心科技圈层广泛接纳。
在Nathan Lambert与Florian Brand联合发布的《2025年度开源模型回顾》中,DeepSeek、Qwen和Kimi包揽前三名,进一步印证中国开源AI的领先地位。
Lambert随后撰文分析指出,中国开源AI展现出五大核心优势:
1. 快速迭代,缩小代差
尽管最强闭源模型仍具优势,但中国实验室通过高频发布快速追赶,大幅缩短技术差距。“更早发布”已成为关键先发优势。
2. 从冲榜到实用的跃迁
中国模型不仅在基准测试中表现强劲,更实现了从“分数高”到“体验好”的转变。例如Qwen从早期冲榜工具进化为优质实用模型;Kimi K2 Thinking原生支持4bit精度训练,优化长序列RL扩展,更适合实际服务场景。
3. 品牌影响力持续上升
过去外国用户难识中国AI品牌,如今DeepSeek、Qwen、Kimi已成为东方技术实力象征。三者各具特色,且更多中国模型正不断加入这一行列。
4. 实现工具调用与交错思考突破
Kimi K2 Thinking支持“数百步稳定工具调用”,是首批通过开源方式实现该能力的模型之一,对服务商支持能力要求极高。同时,“交错思考”(Interleaved thinking)能力的引入,使模型可在工具调用间隙进行逻辑推理,标志着agent能力的成熟化趋势。
5. 倒逼美国闭源巨头变革
开源模型的迅猛发展使美国闭源厂商面临压力——单靠基准分数已无法证明付费价值。虽然中国模型商业化尚处初期,但在全球“心智份额”上的影响力正持续扩大。
回顾CES 2026,黄仁勋将“开源”作为演讲主线,凸显其战略地位。中国开源AI的卓越表现令人瞩目,随着开发者与企业广泛采用,AI应用全面爆发的时代即将到来。

