大数跨境
0
0

英伟达黄仁勋在CES发布Vera Rubin平台,GPU AI推理性能提升5倍

英伟达黄仁勋在CES发布Vera Rubin平台,GPU AI推理性能提升5倍 DeepTech深科技
2026-01-06
22
导读:黄仁勋的演讲表明了AI 仍然正在引发一场覆盖所有层级的计算革命,也说明黄仁勋意图带领英伟达用物理 AI 来开辟新的天地。

英伟达CES 2026发布Vera Rubin全栈AI超级计算平台

北京时间1月6日凌晨5时许,英伟达创始人兼CEO黄仁勋在CES 2026发表主题演讲,提出“物理AI”核心理念。现场两台小型机器人与其互动成为亮点之一。

Vera Rubin:面向物理AI的全栈重构

黄仁勋以美国天文学家维拉·鲁宾(Vera Rubin)命名下一代AI超级计算平台——Vera Rubin,标志英伟达从芯片供应商全面升级为AI时代全栈计算基础设施定义者。

面对模型规模年增十倍、推理转向多步思考、算力需求指数级攀升等根本挑战,英伟达放弃局部优化,转而对计算基础设施的每一层级进行系统性、协同式重构。

六大核心芯片深度协同

Vera Rubin平台并非单芯片升级,而是涵盖六款自研芯片的全栈协同设计:

Vera CPU

定制服务器级CPU,采用空间多线程架构,在88个物理核心上实现176线程全性能执行;I/O带宽与能效比相较前代翻倍,专为AI超算负载优化。

Rubin GPU

平台计算核心,AI浮点性能达上一代Blackwell GPU的5倍,晶体管数量仅增60%。核心突破在于MVFP4张量核心——具备自主调度能力,可实时分析Transformer各层计算特性,动态调节精度与路径,兼顾关键精度与整体吞吐效率。黄仁勋称其有望成为未来AI芯片架构新标准。

BlueField-4 DPU

数据处理单元里程碑之作,不仅卸载网络、存储与安全任务,更首次承担AI上下文记忆管理职能。

ConnectX-9智能网卡

与Vera CPU协同设计,提供1.6TB/s超高带宽,支持可编程RDMA与数据路径加速,赋能云厂商与AI实验室自定义数据流。

Spectrum-X以太网交换机

全球首款集成硅光子学(共封装光学)的AI原生以太网交换机,配备512个200Gb/s端口,专为AI数据中心东西向流量模式设计,解决突发性、多对多通信带来的延迟与拥塞难题。

第六代NVLink交换机芯片

单芯片提供400Gb/s交换能力;通过背板创新设计,在单个Vera Rubin机架内构建高达240TB/s的GPU间互联带宽(超全球互联网总截面带宽2倍),支撑144颗GPU如巨型处理器般无缝协作。

高度集成的液冷计算托盘

Vera Rubin平台硬件集成度达新高度:全新液冷计算托盘摒弃传统电缆与软管,所有芯片通过定制基板紧密互联,系统组装时间由数小时缩短至几分钟。

每个托盘集成2颗Vera CPU、4颗Rubin GPU、1颗BlueField-4 DPU、8颗ConnectX-9网卡,构成100 PetaFLOPS AI计算单元;多个托盘通过NVLink组成Rubin Pod,再经Spectrum-X交换机实现数据中心级横向扩展。

突破长上下文瓶颈:150TB共享上下文内存池

针对AI推理中日益增长的上下文记忆需求,Vera Rubin在每个机架内部署四颗BlueField-4 DPU,统一管理高达150TB的共享、持久、高速上下文内存池。

该内存池通过超低延迟机架内网络(与GPU直连同技术)与所有GPU直连,可为单颗GPU动态分配高达16TB专用上下文空间,相当于为其配备容量扩大16倍、速度远超传统网络存储的“外部大脑”,彻底解决长上下文AI应用核心瓶颈。

绿色与安全:温水冷却+全路径硬件加密

Vera Rubin平台采用45℃温水冷却,无需高能耗冷水机组,预计为全球数据中心节省约6%总电力消耗。

平台首次实现全路径硬件加密的机密计算:从GPU到GPU、CPU到DPU,所有内部总线数据均加密,提供芯片级多租户AI云服务安全隔离。

系统级动态功率平滑技术有效吸纳AI计算瞬时功率尖峰,使数据中心可按接近平均功耗配置供电,避免基础设施过度投资。

三大商业价值:研发提速、效能跃升、成本骤降

  • 研发速度:训练10万亿参数前沿大模型所需集群规模仅为Blackwell系统的1/4,大幅缩短研究到产品周期;
  • 基础设施效率:同等功耗与空间下,AI计算吞吐量达Hopper架构数据中心的约100倍;
  • 推理成本:大规模AI服务token生成成本预计降至当前水平的约1/10,扫清商业化关键障碍。

双重平台转移:AI正重塑整个计算产业

黄仁勋指出,计算机产业正经历前所未有的“双重平台转移”:一是软件范式从编程转向训练;二是硬件范式从CPU转向GPU。AI应用不再预编译回放,而是理解上下文、按意图实时生成像素与token,数十万亿美元传统计算堆栈正在被加速计算与AI现代化改造。

他将未来AI应用的核心框架定义为“智能体”——具备推理、研究、工具调用与规划能力的多模态、多模型协同系统,并以Cursor、Perplexity为例,说明开源模型组合如何解决复杂问题。

他强调,开放模型(如DeepSeek R1)是2025年AI最重要进展之一:虽较前沿专有模型滞后约六个月,但显著降低参与门槛,推动初创公司、大型企业、研究机构乃至各国构建自主AI解决方案。

物理AI落地:Cosmos世界模型与Alpha Maye自动驾驶系统

“物理AI”即让AI理解并安全互动于真实物理世界。其三大支柱为:AI超级计算机(训练)、边缘推理计算机(部署)、数字孪生计算机(仿真与合成数据生成)。

英伟达发布开放世界基础模型Cosmos:基于海量视频、真实驾驶数据与3D仿真预训练,可理解物理定律、生成符合物理规律的视频、进行轨迹预测与推理,用于解决自动驾驶长尾问题。

基于Cosmos,英伟达推出端到端训练的自动驾驶AI系统Alpha Maye:直接从传感器输入控制车辆,并可解释决策依据与行动轨迹,融合人类示范数据与Cosmos生成的合成数据。

首款搭载Alpha Maye系统的梅赛德斯-奔驰CLA车型(刚获NCAP最高安全评级)将于2026年一季度在美国上路,并逐步推向全球。该方案覆盖芯片(下一代DRIVE Thor)、软件栈到安全系统,由英伟达与奔驰深度共建,并向全行业开放。

黄仁勋判断:未来十年,自动驾驶将成为首个大规模主流物理AI市场;三大计算架构与仿真技术,正驱动从物流机器人到人形机器人的广阔新产业成型。

CUDA-X深度融入工业软件生态

英伟达CUDA-X加速库、物理AI及智能体模型已深度集成至Cadence、Synopsys、西门子等巨头的EDA(电子设计自动化)、CAE(计算机辅助工程)与数字孪生平台。

这意味着:芯片与工厂将在虚拟世界中由AI辅助设计、优化,并由机器人自动生产。黄仁勋在现场对机器人表示:“你们将在这些平台内被设计、被制造、被测试。”AI完成从芯片产业孕育,到反哺芯片设计与高端制造的完整闭环。

【声明】内容源于网络
0
0
DeepTech深科技
DeepTech 是一家专注新兴科技的资源赋能与服务机构,以科学、技术、人才为核心,通过科技数据与咨询、出版与影响力、科创资本实验室三大业务板块,推动科学与技术的创新进程。DeepTech 同时是《麻省理工科技评论》中国区独家运营方。
内容 4876
粉丝 0
DeepTech深科技 DeepTech 是一家专注新兴科技的资源赋能与服务机构,以科学、技术、人才为核心,通过科技数据与咨询、出版与影响力、科创资本实验室三大业务板块,推动科学与技术的创新进程。DeepTech 同时是《麻省理工科技评论》中国区独家运营方。
总阅读29.8k
粉丝0
内容4.9k