大数跨境
0
0

英伟达罕见不发显卡,刚刚黄仁勋带着2.5吨新「核弹」炸场,DeepSeek又被点名

英伟达罕见不发显卡,刚刚黄仁勋带着2.5吨新「核弹」炸场,DeepSeek又被点名 APPSO
2026-01-06
9
导读:AI 时代,英伟达不再是一家芯片公司

英伟达CES 2026:首度缺席消费级显卡发布,聚焦物理AI与Vera Rubin超算平台

这是英伟达五年来首次在CES未发布消费级显卡。CEO黄仁勋身着标志性亮面鳄鱼皮衣亮相NVIDIA Live舞台,48小时内密集出席NVIDIA Live、西门子工业AI对话及联想TechWorld三场活动
与去年单独主旨演讲不同,2026年CES的主角是物理AI与机器人技术——RTX 50系列让位于更底层的计算范式变革。

Vera Rubin计算平台:6款自研芯片协同重构AI基础设施

发布会现场,黄仁勋将一台2.5吨重的AI服务器机架搬上舞台,正式发布以天文学家Vera Rubin命名的全新计算平台。其核心目标:加速AI训练,推动下一代大模型提前落地。
该平台打破英伟达“每代仅更新1–2颗芯片”的惯例,首次同步量产6款全栈自研芯片,实现从CPU、GPU到网络与存储的深度协同设计,应对摩尔定律放缓与AI模型年均10倍增长的矛盾。

1. Vera CPU

- 88个NVIDIA定制Olympus核心,支持176线程(空间多线程技术)
- NVLink C2C带宽1.8 TB/s
- 系统内存1.5 TB(为Grace架构3倍)
- LPDDR5X带宽1.2 TB/s
- 晶体管数量2270亿

2. Rubin GPU

- NVFP4推理算力50 PFLOPS,为Blackwell的5倍
- 晶体管达3360亿,较Blackwell增加1.6倍
- 集成第三代Transformer引擎,支持动态精度调整

3. ConnectX-9网卡

- 基于200G PAM4 SerDes的800 Gb/s以太网
- 可编程RDMA与数据通路加速器
- 通过CNSA与FIPS安全认证
- 晶体管230亿

4. BlueField-4 DPU

- 专为AI存储平台构建的端到端引擎
- 支持800 Gb/s SmartNIC与存储处理
- 搭载64核Grace CPU
- 晶体管1260亿

5. NVLink-6交换芯片

- 连接18个计算节点,支持最多72块Rubin GPU协同运行
- 单GPU all-to-all通信带宽3.6 TB/s
- 支持In-Network SHARP Collectives,在交换网络内完成集合通信

6. Spectrum-6光以太网交换芯片

- 512通道×200 Gbps,总带宽达102.4 TB/s
- 首次集成台积电COOP工艺硅光子技术
- 配备共封装光学接口(CPO)
- 晶体管3520亿
依托6款芯片深度融合,Vera Rubin NVL72系统全面超越Blackwell:
- NVFP4推理算力达3.6 EFLOPS,提升5倍;NVFP4训练达2.5 EFLOPS,提升3.5倍
- LPDDR5X内存54 TB(3倍)、HBM内存20.7 TB(1.5倍)、HBM4带宽1.6 PB/s(2.8倍)、Scale-Up带宽260 TB/s(2倍)
- 总晶体管数220万亿(+1.7倍),能效比显著优化
工程层面突破明显:单节点告别43根线缆,仅需6根液冷管,组装时间由2小时缩短至5分钟;机架内NVLink主干网络采用5000根铜缆,全长近3.2公里,传输速率达400 Gbps。
实测显示:训练10万亿参数模型所需Rubin系统数量仅为Blackwell的1/4;单Token生成成本降至Blackwell的1/10。尽管功耗为Grace Blackwell的2倍,推理与训练性能分别提升5倍与3.5倍,吞吐量(每瓦-每美元Token数)提升10倍——对500亿美元千兆瓦数据中心而言,等效营收能力直接翻倍。

破解KV Cache瓶颈:BlueField-4 + Spectrum-X构建端到端AI内存网络

针对大模型长上下文场景下KV Cache(键值缓存)导致HBM内存捉襟见肘的问题,Vera Rubin引入两级内存扩展方案:
- 每节点部署4颗BlueField-4 DPU,背后连接150 TB上下文内存,为每块GPU额外分配16 TB高速缓存(带宽保持200 Gbps)
- 全局调度依赖Spectrum-X以太网平台:全球首款专为生成式AI设计的端到端网络,采用硅光子与CPO技术,512通道×200 Gbps,可带来25%吞吐提升,相当于节省50亿美元基建投入。

安全与可信:全栈保密计算支持企业级部署

Vera Rubin支持全程保密计算(Confidential Computing),覆盖PCIe通道、NVLink、CPU-GPU通信等所有数据通路,确保模型与数据在传输、存储、计算全周期加密,满足企业对外部云环境部署敏感AI模型的安全诉求。

开源与智能体:从“卖铲子”到共建AI生态

黄仁勋指出,过去十年投入的约10万亿美元计算资源正经历全面现代化,软件范式已转向Agentic智能体模型。Cursor等工具已深度融入英伟达内部开发流程。
他高度评价开源力量,特别提及DeepSeek V1作为首个高性能开源推理系统引发行业浪潮,并确认Kimi k2与DeepSeek V3.2为当前全球开源模型Top 2。尽管开源模型平均落后顶尖闭源模型约6个月,但高频迭代节奏正吸引巨头、初创与研究者共同参与。
英伟达不再仅提供硬件“铲子”,而是推出DGX Cloud超级计算机服务,并开源La Proteina(蛋白质合成)、OpenFold 3等前沿模型,覆盖生物医药、物理AI、智能体、机器人及自动驾驶等领域。
Nemotron模型家族成为本次重点:涵盖语音、多模态、RAG增强、安全等方向的多个开源模型,在多项基准测试中表现优异,已被大量企业集成应用。

进军物理世界:三台计算机架构驱动物理AI落地

若大语言模型解决的是“数字世界”问题,英伟达的下一阶段战略是征服“物理世界”。黄仁勋提出构建物理AI的“三台计算机”架构:

训练计算机

以GB300等架构为代表的云端大规模训练设施

推理计算机

部署于机器人、车辆边缘端的实时执行单元(“小脑”)

模拟计算机

基于Omniverse与Cosmos平台构建的虚拟物理世界,为AI提供可无限生成、带真实物理反馈的训练环境
基于此架构,英伟达发布全球首个具备思考与推理能力的端到端自动驾驶模型Alpamayo。
它直面自动驾驶“长尾问题”,面对未见过的复杂路况可进行类人推理与决策解释,演示中展现出极自然的驾驶行为。搭载Alpamayo技术栈的奔驰CLA将于2026年第一季度在美国上市,随后拓展至欧亚市场。
该车获NCAP全球最安全汽车评级,依托英伟达独创“双重安全栈”:当AI模型置信度不足时,系统瞬时切换至传统确定性防护机制,保障绝对安全。

机器人即工厂:Jetson + Omniverse加速实体智能化

英伟达宣布所有机器人产品线将统一搭载Jetson小型计算机,并在Omniverse Isaac模拟器中完成训练。技术正深度整合进Synopsys、Cadence、西门子等工业设计与制造体系。
波士顿动力、Agility等九大顶级机器人厂商已加入生态。黄仁勋强调:“最大的机器人其实是工厂本身。”迪士尼机器人登台演示印证了这一愿景——“你们将在计算机中被设计、制造,并在真正面对重力前,就在计算机中被测试与验证。”
整场CES主题演讲已远超传统芯片厂商定位。在AI泡沫质疑声中,英伟达以Vera Rubin超算平台回应算力饥渴,更以前所未有的力度展示AI在自动驾驶、人形机器人、工业仿真等物理世界的实际落地路径——从虚拟世界造芯,迈向真实世界赋能。
【声明】内容源于网络
0
0
APPSO
AI第一新媒体,「超级个体」的灵感指南。 #AIGC #智能设备 #独特应用 #Generative Al
内容 14461
粉丝 0
APPSO AI第一新媒体,「超级个体」的灵感指南。 #AIGC #智能设备 #独特应用 #Generative Al
总阅读136.5k
粉丝0
内容14.5k