时代定调:两大“平台转移”与AI的重塑之力
英伟达公司作为全球人工智能产业的基石,其创始人黄仁勋的演讲值得全行业聆听。
小小 | 作者
网易科技 | 来源
双重平台转移驱动全栈重构
计算机行业约每10–15年经历一次根本性重置:从大型机到PC,再到互联网、云计算、移动设备——每次都是“平台转移”。当前,**两大平台转移正同步发生**:
- 应用构建于AI之上,而非仅将AI作为终端产品;
- 软件开发范式彻底变革:从“编程”转向“训练”,运行载体从CPU迁移至GPU;
- 计算逻辑重塑:模型不再预先编译执行,而是基于上下文实时生成每一个token、每一帧图像、每一个决策。
整个技术栈——即“五层蛋糕”(基础设施、芯片、系统、模型、应用)——正在被全面重写。过去十年积累的约10万亿美元传统算力设施,正加速向AI原生架构现代化升级;每年数千亿至万亿美元级风投持续涌入,支撑这场万亿级产业重构。
AI演进关键节点
2025年是AI爆发元年,标志性进展包括:
- 扩展定律持续生效:BERT(2015)、Transformer(2017)、ChatGPT(2022)开启大模型时代;
- 推理范式升级:o1模型引入“测试时缩放”(test-time scaling),赋予AI实时“思考”能力;
- 后训练技术跃进:强化学习使模型在部署后仍能持续进化技能,大幅拉升计算需求。
开源革命:前沿模型与智能体普及
智能体成为新一代AI应用核心
2024年起,具备推理、工具调用、信息检索与自主规划能力的AI智能体快速普及。代表案例Cursor已深度重构英伟达内部软件开发流程。智能体的本质是将复杂任务分解为可执行子步骤,并动态调度多模型协同解决——这标志着AI从“被动响应”迈向“主动求解”。
物理AI:理解世界规律的下一代范式
物理AI致力于让AI掌握物体恒存、因果关系、摩擦力、重力等物理常识。难点在于真实交互数据稀缺,因此英伟达采用“合成数据+高保真模拟”双路径突破:
- Omniverse:构建基于物理定律的数字孪生世界;
- Cosmos:世界基础模型,理解并预测现实动态(如“球正在街上滚动”);
- Groot & Alpamayo:分别聚焦人形机器人控制与自动驾驶系统。
开源模型全面跻身前沿
2025年,开源模型实现质的飞跃:
- DeepSeek R1成为首个开源推理系统,带动全球涌现多种高性能开源模型;
- 性能已达闭源前沿水平,领先周期缩短至约6个月;
- 下载量爆发式增长,覆盖初创企业、科研机构、高校及各国开发者。
英伟达同步开源全部模型、训练数据及NeMo系列工具库(BioNeMo、Clara NeMo、Physics NeMo),覆盖数据处理、模型训练、评估防护、部署全生命周期,赋能各行业构建专属AI能力。
AI架构新范式:多模型+多云+混合部署
未来AI应用将具备三大特征:
- 多模型:按需调用最适配的模型(语音、文本、视频、蛋白质等);
- 多云:模型分布式部署于公有云、私有云及边缘节点;
- 混合部署:支持云端训练、边缘推理、端侧轻量化运行,满足医院、工厂、车载等低延迟强实时场景。
“AI Route Blueprint”框架已集成至Palantir、ServiceNow、Snowflake、CrowdStrike、NetApp等头部平台,将智能体直接升级为企业服务UI,替代传统表格与命令行交互。
物理AI突围:教会机器理解与交互真实世界
Alpamayo:全球首个端到端推理型自动驾驶AI
今日正式开源的Alpamayo,是英伟达八年深耕物理AI的集大成者:
- 端到端训练:摄像头输入→驾驶动作输出,融合真实路测、人类示范与Cosmos生成的海量合成里程;
- 可解释推理:不仅执行操作,更实时输出行动原因、预期轨迹与风险评估;
- 长尾问题破解:通过分解陌生场景为已知子场景,实现零样本泛化能力。
搭载双Thor处理器,通过“双技术栈”安全冗余设计——主栈(Alpamayo)负责策略决策,备用栈(经典自动驾驶系统)作为安全兜底,确保L4级可靠性。
计算跃进:Rubin平台与全栈芯片的终极重构
Rubin全栈架构:六项核心创新
为应对AI算力指数级增长(token生成量年增5倍、模型参数年增10倍),英伟达推出Rubin平台,全面进入协同设计新纪元:
- Vera CPU:单线程性能与能效翻倍,88核+空间多线程技术,提供176线程级吞吐;
- Rubin GPU:浮点性能达Blackwell 5倍,晶体管仅增1.6倍;
- NVFP4 Tensor Core:首颗自适应精度Transformer引擎,动态调节计算精度与结构;
- 全新HGX机箱:0线缆、0水管、100%液冷,装配时间由2小时压缩至5分钟;
- Spectrum-X网卡:全球最强AI以太网,支持可编程RDMA与数据路径加速;
- BlueField-4 + NVLink-6:构建机架内高速KV缓存网络,每GPU额外获得16TB上下文内存。
性能与能效双突破
Rubin平台实现三大核心指标跃升:
- 训练速度:10万亿参数模型训练效率提升4倍,同等周期可训练更大更先进模型;
- 数据中心能效:单位功耗算力较Blackwell再提升近10倍,千兆瓦级数据中心年省电约6%;
- 推理成本:单token生成成本降至前代约1/10。
整机架支持机密计算:所有总线(PCIe/NVLink/HBM/CPU-GPU)全程加密,保障模型与数据全生命周期安全。
生态闭环:从基础设施到行业渗透的全栈布局
全栈AI体系已成型
英伟达已超越芯片厂商定位,构建覆盖以下层级的完整AI技术栈:
- 硬件层:Vera CPU、Rubin GPU、Spectrum-X、BlueField-4、NVLink-6;
- 系统层:DGX SuperPOD(1152 GPU)、HGX液冷机架、Omniverse模拟平台;
- 模型层:Alpamayo(自动驾驶)、Cosmos(世界模型)、Groot(人形机器人)、Nemotron(混合推理)、NeMo(全生命周期工具链);
- 应用层:已深度集成至Palantir、ServiceNow、Snowflake、Cadence、Synopsys、西门子等工业级平台。
当前AI模型格局呈现“三足鼎立”:OpenAI主导token生成规模;开源模型正加速成为覆盖最广、模态最全的群体;英伟达则以全栈能力驱动物理世界智能化落地——从芯片设计、工厂产线、自动驾驶到人形机器人,全面重构生产力底层。


