
作者|徐珊
「我确信我们这是一场科技盛宴。今天在座的每一位,都代表着英伟达的生态。」在 2026 年 GTC 开幕现场,黄仁勋身着标志性黑色皮夹克登台,自信开场。

值 CUDA 生态诞生 20 周年之际,黄仁勋回顾了英伟达从 GeForce 图形显卡、光线追踪技术到 AI 智能体的发展路径:「如今 CUDA 生态已形成数据飞轮,支撑起一个庞大的商业帝国。」
发布会上,英伟达正式推出专为智能体 AI(Agentic AI)设计的全新计算平台——Vera Rubin,整机算力达 3.6 EFLOPS(每秒 3.6 艾次浮点运算),配合新一代机架系统,每兆瓦算力吞吐量提升 35 倍。同时亮相的还有面向高单线程性能场景的自研 CPU——Vera CPU。
此外,英伟达发布企业级 OpenClaw 参考方案 NemoClaw,支持直接下载、使用与二次开发,并可对接全球主流 SaaS 平台。相较往年,本届 GTC 对机器人、自动驾驶及量子计算的展示比重有所下调,重心全面转向 Agentic AI 基础设施构建。
这场演讲释放出明确信号:我们正站在全新计算范式的起点。正如上一轮变革催生谷歌与亚马逊,本轮 AI 大爆发将孕育一批定义时代的「AI 巨头」。
黄仁勋手中那份不断滚动的合作伙伴长名单,印证其已不止于定义计算架构,更在以 AI 为支点,推动金融、医疗、制造、零售等关键行业加速迈入 GPU 驱动的「AI 时代」。
再一次地,英伟达看到了 AI 的未来;现在,它正拽着全世界一起跳进去。
01 Vera Rubin:七芯五架,重构智能体计算底座
「短短十年间,算力实现 4000 万倍跃升。」英伟达指出,在预训练、微调与推理全面加速后,通用智能系统对算力的需求仍呈指数级增长。
Vera Rubin 是英伟达为智能体 AI 全生命周期打造的全新平台,从芯片层重新定义 CPU、存储、网络与安全架构。其搭载 NVLink 6,全液冷设计,传统线缆全面取消。
核心配置包括:
- Vera CPU 机架:专为编排与通用工作负载优化;
- STX 机架:基于 BlueField‑4 构建的 AI 原生存储系统;
- Groq 3 LPX 机架:与 Vera Rubin 深度互联,集成 230MB 片上 SRAM,大幅提升运算效率;
- Spectrum‑6 共封装光学技术:实现横向扩展,显著提升能效与可靠性。

整套系统由 7 款芯片、5 类机架级系统组成,最终整合为一台面向通用智能的 AI 超级计算机。每兆瓦算力吞吐量提升 35 倍,标志着智能体基础设施进入新纪元。
黄仁勋强调,大语言模型持续增大、token 生成速度加快、上下文长度不断延伸,将导致内存访问压力剧增(如 KV 缓存、QDF/QVS 结构化与非结构化数据)。因此,AI 时代的存储系统必须被彻底重写。
与此同时,智能体需高频调用浏览器、虚拟 PC 等工具,对单节点响应速度提出更高要求。为此,Vera CPU 应运而生——全球首款采用 LPDDR5X 的数据中心级 CPU,兼顾极致单线程性能、高带宽数据输出与卓越能效比。

Vera Rubin 全家桶系列|来源:英伟达
「我们打造这款 CPU,就是为了与整套机架协同,支撑智能体高效执行任务。」黄仁勋透露,Vera CPU 已投入量产,独立销售表现远超预期,有望成长为数十亿美元级业务。
发布会还展示了垂直插入式 Groq 机架的 Rubin Ultra 方案。该方案通过背面中板集成新一代 NVLink,连接 144 颗 GPU,前端为计算单元,后端为交换矩阵,整体构成一台巨型计算机。
Groq 机架|来源:英伟达
黄仁勋进一步指出,芯片性能最终将决定 token 的市场分层与定价体系:
- 基础层:高吞吐、低延迟,适配免费套餐;
- 中端层:更大模型、更快速度、更长上下文,面向主流商用场景;
- 旗舰层:超高生成速率,服务关键任务或超长研究流程,百万 token 定价 150 美元亦属合理。
他预判:模型越大、上下文越长、推理越快,AI 就越智能,价格溢价空间也越可观。若按每日消耗 5000 万 tokens 计算,单研究员成本约 7500 美元/天,对企业级团队完全可接受。
营收模型显示:相比 Hopper 架构,Blackwell 可带来 5 倍营收增长;而 Vera Rubin 相较 Blackwell,再提升 5 倍营收潜力。

Vera Rubin|来源:英伟达
Groq LPU 采用确定性数据流架构,依赖静态编译器调度,无动态运行时开销,专为推理优化。其配备大容量 HBM,单颗芯片仅 500MB 存储;而 Vera Rubin GPU 单颗显存高达 288GB HBM4。
目前 Groq 3 LPU 已量产,预计第三季度开始出货;Vera Rubin 样品已完成测试,首套机架已在微软 Azure 上线运行。英伟达正满负荷推进 Vera Rubin 与 GB300 机架生产,供应链已实现每周数千套产能。
下一代芯片架构代号为Feynman 架构。
Groq 与 Vera Rubin 同为英伟达 AI 工厂核心组件。
二者分工明确:Attention 解码等重计算环节交由 Vera Rubin 承担;Token 生成等高吞吐任务则由 Groq LPU 执行。通过专用以太网耦合 + Dynamo 软件调度,Alpamayo 推理时延降低近 50%,高层推理性能提升 35 倍。
02 NemoClaw:OpenClaw 的企业级落地参考
「OpenClaw 是人类历史上发展最快的开源项目,数周即超越 Linux 当年增速。」黄仁勋表示,OpenClaw 支持多模态交互,具备完整 IO 能力,可发消息、短信、邮件,甚至自主调用外部工具。
「OpenClaw 开源了智能体计算机的操作系统。正如 Windows 定义了个人电脑时代,OpenClaw 正在定义个人智能体时代。」
他呼吁所有企业 CEO 思考同一问题:你的 OpenClaw 战略是什么?如同过去需要 Linux、HTTP/HTML、Kubernetes 战略一样,OpenClaw 战略已成为企业进入智能体时代的核心基础设施能力。
传统 IT 模式以「数据中心」为中心,软件公司提供工具、IT 部门负责集成;而在 OpenClaw 时代,每家 SaaS 与软件公司将转型为「智能体即服务(AAS)公司」。

未来的企业结构|来源:英伟达
但智能体接入企业网络后,存在访问敏感数据、执行代码、对外通信等安全风险。为此,英伟达推出企业级参考方案——NemoClaw。

NemoClaw 内置全套智能体工具链,核心模块 OpenShell 已深度集成至 OpenClaw,支持用户直接下载、部署、二次开发,并无缝对接全球主流 SaaS 平台策略引擎。
该方案提供多重安全机制:可配置网络护栏、运行隐私路由、设定策略引擎,确保智能体在受控环境中运行;同时支持客户构建专属智能体、加载自有模型。

NemoClaw 搭载英伟达模型后在类 OpenClaw 产品的排行榜|来源:英伟达
黄仁勋预测,未来企业招聘或将新增一条标准:「这份工作附带多少 token 额度?」员工薪酬结构可能调整为:基础年薪 + 等值 50% 的 token 补贴,从而放大 10 倍生产力。
每一家软件公司都将演进为 tokens 的生产者、使用者与提供商。
03 物理 AI:比亚迪、吉利加入 Robotaxi 朋友圈,雪宝压轴登场
黄仁勋将视线转向物理 AI,宣布英伟达三大类硬件布局:用于训练的 AI 超算、用于合成数据生成与仿真的仿真平台、以及嵌入机器人本体的车载计算单元。

英伟达物理 AI 布局「全家福」|来源:英伟达
英伟达宣布 NVIDIA Robotaxi 平台新增四家车企伙伴:比亚迪、现代、日产、吉利,四家年产量合计达 1800 万辆。叠加此前加入的奔驰、丰田、通用等,Robotaxi 车辆规模化落地进程显著提速。
未来,传统无线电塔将升级为 NVIDIA Aerial AI RIM 智能基站,成为「Robotaxi 无线电塔」,实时感知交通状况并动态优化波束赋形,在保障通信保真度的同时大幅节能。
借助 Alpamayo 芯片,车辆具备本地推理能力,可解释决策逻辑,并响应自然语音指令。例如,用户对车说「hey Mercedes,我们能开快一点吗?」,车辆即可即时回应并执行。
本次发布会同步开源多项关键工具:
- Isaac Lab:面向机器人仿真训练与评估;
- Newton:GPU 加速、可扩展微分物理仿真引擎;
- Cosmos:世界模型,支撑神经仿真;
- GR00T:开源机器人基础模型,赋能推理与动作生成。
主题演讲压轴环节,迪士尼《冰雪奇缘》角色雪宝机器人登台亮相。该机器人正在使用英伟达仿真平台进行训练。「我个人最期待的机器人之一就是来自迪士尼的机器人。」黄仁勋说道。

黄仁勋和雪宝挥手告别 GTC|来源:英伟达
2026 年 GTC 不再停留于方向宣导,而是交付一套可立即投入使用的 AI 基础设施框架:覆盖芯片(Vera Rubin)、智能体操作系统(OpenClaw/NemoClaw)、物理 AI(Robotaxi、机器人、仿真工具链)三大维度。
英伟达直面 AI 产业当前最紧迫的瓶颈——企业级落地难、安全可控弱、物理世界集成浅,并逐一给出工程化答案。每个开发者、每家企业,都能从中找到自身定位。
AI 正从参数竞赛、算力堆叠与概念叙事,转向真实场景、组织变革与产业渗透。这或许不是某家公司的胜利,而是 AI 飞轮真正开始高速旋转的起点。

