大数跨境
0
0

刚刚,黄仁勋一口气解密6颗芯片,召唤出最强AI超算!

刚刚,黄仁勋一口气解密6颗芯片,召唤出最强AI超算! 智东西
2026-01-06
6
导读:英伟达加固AI推理护城河。

英伟达加固AI推理护城河

芯东西拉斯维加斯1月5日报道,英伟达创始人兼CEO黄仁勋在CES 2026主题演讲中,发布8项重磅技术,全面升级AI基础设施。从芯片、机架到网络与软件栈,英伟达推出全新代际平台——NVIDIA Vera Rubin,聚焦训练与推理协同优化,进一步强化其在AI计算领域的系统级领导力。

全新AI超级计算机:6款自研芯片,单机架算力达3.6EFLOPS

英伟达发布NVIDIA Vera Rubin POD AI超级计算机,采用全栈自研设计,集成6款关键芯片:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9智能网卡、BlueField-4 DPU、Spectrum-X 102.4T CPO,实现软硬协同优化,面向大规模MoE模型与长上下文推理场景。

Vera CPU

基于定制Olympus核心架构,含88核、176线程,支持CPU-GPU统一内存(1.5TB),SOCAMM LPDDR5X带宽达1.2TB/s;首创机架级机密计算(TEE),保障跨域可信执行。

Rubin GPU

引入Transformer引擎,NVFP4推理性能达50PFLOPS(Blackwell的5倍),FP4训练性能35PFLOPS(Blackwell的3.5倍);首支持HBM4,带宽22TB/s(提升2.8倍);NVLink互连带宽达3.6TB/s(GPU间),支持第三代通用机密计算。

NVLink 6 Switch

单lane速率400Gbps,GPU全互连带宽28.8TB/s(提升2倍),FP8 in-network计算性能14.4TFLOPS;支持100%液冷,适配高密度部署需求。

ConnectX-9 SuperNIC

单GPU提供1.6Tb/s带宽,完全软件定义、可编程、加速的数据路径,专为大规模AI集群通信优化。

BlueField-4 DPU

800Gbps智能DPU,集成64核Grace CPU;相较上代,计算性能提升6倍、内存带宽提升3倍、GPU访问存储速度提升2倍,强化网络安全与任务卸载能力。

Vera Rubin NVL72系统

单机架整合全部6款芯片,晶体管总数达2万亿;NVFP4推理性能3.6EFLOPS,训练性能2.5EFLOPS;LPDDR5X内存54TB(2.5倍)、HBM4内存20.7TB(1.5倍)、HBM4总带宽1.6PB/s(2.8倍)、纵向扩展带宽260TB/s(超全球互联网总带宽)。

基于第三代MGX机架设计,采用模块化、无主机、无缆化、无风扇架构,组装时间由2小时缩短至5分钟;100%液冷,整机重2.5吨(含冷却液)。NVLink Switch托盘支持零停机维护与容错,第二代RAS引擎实现运行状态实时诊断。

目前已有超80家MGX合作伙伴完成Rubin NVL72部署准备,该平台已启动量产,预计2026年下半年通过云服务提供商(CSP)与系统集成商向市场交付,微软等将成为首批客户。

三大新品爆改AI推理效率:新CPO器件、新上下文存储层、新DGX SuperPOD

英伟达同步发布三款面向AI推理优化的关键基础设施产品:

NVIDIA Spectrum-X以太网共封装光学器件(CPO)

基于Spectrum-X架构,采用双芯片设计,单ASIC带宽达102.4Tb/s,端口速率800Gb/s;提供512端口高密度及128端口紧凑型系统。相比传统方案,能效提升5倍、可靠性提升10倍、应用正常运行时间提升5倍,显著降低数据中心TCO。

NVIDIA推理上下文内存存储平台

全球首个POD级AI原生存储基础设施,专为KV Cache设计,依托BlueField-4与Spectrum-X加速,与Dynamo、NVLink深度协同,将上下文作为一等数据类型管理。

实现推理性能与能效均提升5倍,有效缓解Agentic AI、RAG、多轮对话等长上下文场景下的GPU重复计算瓶颈。该平台独立于主机系统,通过DPU外接扩展,支持海量上下文复用与共享,避免KV Cache重建延迟。

NVIDIA DGX SuperPOD(基于Vera Rubin)

采用8套DGX Vera Rubin NVL72系统构建,集成NVLink 6纵向扩展、Spectrum-X横向扩展及推理上下文内存存储平台,由Mission Control统一调度。相较Blackwell平台,相同规模MoE模型训练所需GPU减少至1/4;大型MoE模型token成本降至1/10。

同时发布DGX Rubin NVL8版本,进一步适配多样化部署需求。该系统已通过工程化验证,支持交钥匙式部署。

开放模型宇宙再扩展:新模型、数据集与开源生态的重要贡献者

英伟达持续加码开源投入,2025年成为Hugging Face最大开源模型与数据集贡献者,发布650个开源模型、250个开源数据集,覆盖Agentic RAG、安全、语音及通用机器人等方向。

其Nemotron系列新增Agentic RAG模型、多模态安全模型、语音理解模型;并推出面向所有类型机器人的全新开放模型,支撑开发者快速构建私有化、可定制的AI系统。

英伟达已将主流开源框架整合为标准化“蓝图”,嵌入SaaS平台,支持一键部署。演示显示:系统可按需调用本地私有模型或云端前沿模型,自主调用邮件API、日历服务、机器人控制接口,并统一处理文本、语音、图像与传感信号,已在ServiceNow、Snowflake等企业平台落地应用。

开源Alpha-Mayo模型:让自动驾驶汽车“思考”

英伟达正式发布Alpha-Mayo——业内首个开源的推理型物理AI基础模型,专为L4级自动驾驶打造。该模型具备100亿参数,在保持轻量级的同时,支持在研究人员工作站上运行。

Alpha-Mayo融合文本指令、环视摄像头、车辆历史状态与导航输入,输出行驶轨迹及完整推理链,实现可解释、可验证的安全决策。宣传片演示其在无接管前提下完成行人避让、预判左转车辆并主动变道等复杂边缘场景。

配套发布Alpha-Sim开源评估仿真框架及部分训练数据集;开发者可结合Cosmos世界基础模型生成合成数据,开展真实+合成联合训练。NVIDIA DRIVE平台已投入量产,搭载Alpha-Mayo的梅赛德斯-奔驰全新CLA车型已获NCAP“全球最安全汽车”认证,即将登陆美国市场,并将于年内推送高速公路脱手驾驶及城市端到端自动驾驶能力。

波士顿动力、Franka Robotics、LG电子、智元机器人等全球头部机器人厂商均已基于NVIDIA Isaac与GR00T平台开发;西门子亦宣布将CUDA-X、AI模型与Omniverse深度集成至其EDA、CAE与数字孪生工具链中。

结语:左手拥抱开源,右手将硬件系统做到不可替代

AI正从训练密集型迈向推理规模化,“工厂化运行”成为新范式。平台竞争已超越单点芯片,转向覆盖芯片、机架、网络、存储与软件的全栈系统工程,核心目标是以最低TCO交付最高推理吞吐。

Vera Rubin兼顾训练与推理双重优化,支持Blackwell即插即用平滑升级;通过强化纵向与横向互连能力、重构上下文存储层级、深化软硬协同设计,英伟达持续扩大AI token消耗需求,推动推理基础设施普及。

一边大举开源模型与工具,一边将硬件互连、系统架构与平台生态构筑为高壁垒技术护城河——这种“开放牵引生态、封闭强化价值”的双轨策略,正使英伟达在AI基础设施时代建立愈发难以撼动的领先地位。

【声明】内容源于网络
0
0
智东西
各类跨境出海行业相关资讯
内容 10888
粉丝 0
智东西 各类跨境出海行业相关资讯
总阅读64.8k
粉丝0
内容10.9k