在 CES 2026 拉斯维加斯主舞台,英伟达 CEO 黄仁勋宣布 AI 发展进入新纪元:从理解语言迈向改造物理世界。此次主题演讲未聚焦芯片参数,而是系统性发布面向“物理 AI(Physical AI)”的全栈技术路线图——覆盖云端训练、仿真验证到现实部署,推动 AI 从“感知世界”跃升为“理解、推理并行动”。
双重平台迁移:计算与应用范式的根本变革
黄仁勋指出,当前正经历两大同步演进的平台迁移:一是计算核心从 CPU 转向 GPU 加速架构;二是软件开发范式从编写静态代码转向训练动态智能体。“你不再只是写程序,而是在训练它;应用也不再是预编译的产物,而是能理解语境、实时生成内容的智能实体。”二者交织,正在重塑整个计算体系。
开源模型加速演进,已逼近前沿水平
2025 年成为开源模型关键突破年。黄仁勋强调,首个开源推理系统模型的诞生点燃全球创新浪潮。当前主流开源模型已触及技术前沿,虽仍较顶尖闭源模型平均滞后约六个月,但迭代速度极快——每半年即有更强大模型涌现。模型下载量爆发式增长,初创企业、大公司、高校及各国研究者全面参与,AI 正借由开源走向真正普及。
物理 AI 三大支柱:Cosmos、GROOT 与 AlpaMayo
英伟达将物理 AI 模型划分为三大系列:
- Cosmos:面向世界建模与物理推理的世界基础模型,已在物理 AI 基准测试中超越 GPT-40、Gemini 等竞品,下载量超 400 万次。日立、Lem Surgical、Salesforce、Telet、Uber 等已将其应用于基础设施检测、手术机器人、工业自动化及自动驾驶行为分析等场景。
- GROOT 1.6:最新一代开源人形机器人推理模型。升级亮点包括:集成 Cosmos Reason 作为长效思考中枢,显著提升情境理解与多步推理能力;解锁全身协调控制,支持移动与操作同步执行。现为 Hugging Face 下载量最高的机器人基础模型之一。
- AlpaMayo:全球首个具备“思考能力”的开源自动驾驶模型。采用推理-视觉-行动架构,可应对复杂边缘场景(如故障交通灯下的十字路口通行),通过分步推理与路径评估实现类人决策。模型参数量 100 亿,轻量高效,支持工作站部署;输入涵盖文本指令、环视图像、车辆历史数据与导航信息,输出含轨迹及完整推理路径。
配套开源工具与数据集
英伟达同步开源:
- AlpaSim:专为评估 AlpaMayo 等推理模型设计的仿真框架;
- 17 小时驾驶记录数据集:当前业内规模最大的公开自动驾驶真实数据集;
- 训练脚本与设计蓝图:降低开发者使用门槛,支持微调与合成数据融合训练。
开发者可结合 Cosmos 生成合成数据,构建真实+合成混合训练集,形成完整自动驾驶开发闭环。
机器人开发基础设施全面升级
为支撑“通专融合型机器人”发展,英伟达推出三大关键开源工具:
- NVIDIA OSMO:开源控制中心,统一整合数据生成、仿真、训练全流程,简化跨桌面与云端协同开发;
- Isaac Lab Arena:全球首个开源机器人技能安全评测框架,集成 RoboCasa、Libero、RobotIn 等主流基准,提供大规模策略评估与标准化测试能力;
- Jetson T4000:Thor 家族新成员,基于 Blackwell 架构,40–70W 功耗下提供 1200 TOPS AI 算力与 64GB 内存,AI 性能与能效较 AGX Orin 提升 4 倍,接口兼容 T5000,适用于机械臂、AMR 及人形机器人量产部署。
Vera Rubin:全栈协同设计的 AI 超算平台
黄仁勋正式发布英伟达新一代 AI 超算平台 Vera Rubin,并宣布其已全面投产,首批产品将于 2026 年下半年上市。
Vera Rubin 核心架构
该平台由六款协同设计芯片组成:
- Vera CPU:性能为上代两倍,能效比全球领先 CPU 高出两倍,专为超级计算优化;
- Rubin GPU:搭载革命性 NVFP4 TensorCore,支持 Transformer 层级动态精度自适应,在 FP4/FP8 精度间无缝切换,兼顾吞吐与精度;
- ConnectX9 DPU:单 GPU 横向带宽达 1.6TB/s;
- BlueField4 DPU:卸载存储与安全任务,释放计算资源;
- 第六代 NVLink 交换机:支持 18 节点互联,扩展至 72 颗 Rubin GPU;
- SpectrumX 光子以太网交换机:全球首款 512 通道、200G 共封装光学交换机,支撑千柜级 AI 工厂。
整套系统集成 220 万亿晶体管,总重近 2 吨,采用 100% 全液冷设计,冷却液温控稳定在 45°C。
Vera Rubin 关键性能指标
- 能效跃升:功耗翻倍前提下,整体能效提升约两倍,预计为全球数据中心节省 6% 电力;
- 全栈机密计算:PCIe、NVLink、CPU-GPU、GPU-GPU 所有总线全程加密,保障模型与数据在第三方环境安全;
- 功率平滑技术:针对 AllReduce 等瞬时高负载场景,消除 25% 过度预留功耗,提升能源利用率;
- 训练加速:以 10 万亿参数模型训练为例,Rubin 仅需 Blackwell 1/4 的系统数量即可于一个月内完成同等任务。
结语:构建可计算、可迭代的物理世界
英伟达正以“全栈 AI 计算架构”为核心,贯通 DGX 超算、Omniverse 数字孪生、DRIVE 自动驾驶、Isaac 机器人平台,将物理世界的复杂问题转化为可计算、可验证、可部署的 AI 工程系统。通过软硬件深度协同、开源生态共建与跨领域融合,英伟达持续拓展 AI 的边界——不仅是算力的突破,更是对“AI 重塑现实”这一命题的系统性实践。

