全球消费电子展CES 2026上,英伟达、英特尔、AMD集中发布新一代AI芯片与平台,标志着AI算力竞争已从单点芯片升级为覆盖芯片、互连、系统、软件的全栈架构之战。
英伟达:Rubin平台重构AI计算范式
黄仁勋在CES 2026正式发布Rubin计算平台,以“极端协同”取代传统硬件堆叠思维——整机架被视作一台超级计算机进行一体化设计。
Rubin GPU作为Blackwell架构继任者,集成3360亿晶体管,配备288GB HBM4显存,带宽达22TB/s;支持NVFP4精度推理,算力50 PFLOPS;搭载224个SM单元、第六代Tensor Core及第三代Transformer Engine,实现硬件级FP4自适应压缩。
与之协同的是专为AI工厂定制的Vera CPU:基于Arm v9.2架构,含88个Olympus核心(176线程),搭配1.5TB LPDDR5X内存(带宽1.2TB/s);相比上代Grace,内存带宽提升2.4倍、容量提升3倍、NVLink-C2C带宽翻倍至1.8TB/s。
NVLink 6 Switch作为机架内互联中枢,单GPU带宽达3.6TB/s(Blackwell时代1.8TB/s),支持全互联拓扑与SHARP网络计算(14.4 TFLOPS FP8算力),显著提升MoE模型all-to-all通信效率,并支持热插拔、部分填充与动态流量重路由。
ConnectX-9 SuperNIC网卡提供单端口800Gb/s带宽,采用200G PAM4 SerDes,集成可编程拥塞控制与硬件加密引擎;BlueField-4 DPU内置64核Grace CPU,内存带宽达250 GB/s,搭载ASTRA架构实现裸金属/多租户硬件级隔离,并通过专用推理上下文内存平台,将长上下文推理吞吐量提升5倍。
Spectrum-6以太网交换机单芯片带宽102.4Tb/s,首次采用共封装光学技术,将光模块直接集成于芯片封装内,功耗效率提升5倍,信号损耗由22dB降至4dB,信号完整性提升64倍,可靠性提升10倍。
上述六款芯片整合为Vera Rubin NVL72机架系统:集成72张Rubin GPU与36颗Vera CPU,NVFP4推理算力达3.6 EFLOPS;配备20.7TB HBM4显存与54TB系统内存;机架内互联带宽260TB/s;全液冷设计,采用45℃温水直冷,装配速度较上代快18倍。
性能实测显示:相较Blackwell,Rubin平台将推理token成本降至1/10;训练同规模MoE模型所需GPU数量减少至1/4;网络功耗效率提升5倍;Kimi-K2-Thinking模型测试中,同等交互性下每瓦吞吐量提升10倍,同等延迟下每百万token成本降低90%。
英特尔:Intel 18A工艺驱动边缘智能突围
面对数据中心主导权之争,英特尔将战略重心转向客户端与边缘侧,发布基于Intel 18A制程的第三代酷睿Ultra处理器(代号Panther Lake),开启埃米级芯片制造新纪元。
Intel 18A是首个在美国开发与量产的2nm级节点,融合RibbonFET全环绕栅极晶体管与PowerVia背面供电技术,每瓦性能提升超15%,晶体管密度提升30%。
Panther Lake采用Foveros-S异构封装:计算模块用Intel 18A工艺,图形模块兼容Intel 3或台积电N3E,平台控制器模块采用台积电N6,通过基础模块与填充模块保障结构完整性,兼顾性能与成本。
该平台端侧AI算力达180 TOPS;旗舰型号含16核CPU、12个Xe核心与50 TOPS NPU;NPU 5面积更小、后端功能简化,MAC阵列规模翻倍,单位面积性能提升40%以上,并原生支持E4M3/E5M2两种FP8格式。
CPU架构全新优化:引入带独立缓存的低功耗能效核(LP-E核),构建“低功耗岛”,网页浏览、视频会议等轻负载任务可在其中高效运行,避免唤醒高性能核心,大幅延长续航。联想IdeaPad参考设计在Netflix流媒体播放测试中实现最长27小时续航,被称“x86续航之王”。
集成Arc B390 GPU:图形单元数量+50%,缓存容量翻倍,搭载96个XMX AI加速单元,图形AI算力达120 TOPS;全球首款首发即支持AI多帧生成的集成显卡,每渲染1帧即AI生成3帧,实现4倍帧率。《战地6》实测中开启多帧生成后帧率突破120FPS,约为竞品AMD处理器的3倍。
第三代酷睿Ultra首次实现PC版与边缘处理器同步发布,已通过嵌入式与工业边缘场景认证,广泛应用于人形机器人、机械臂及自主移动机器人(AMR)。CES现场展出的人形机器人即搭载该芯片,验证其在具身智能与物理AI场景中的关键任务能力。英特尔同步提供参考板与开发套件,加速技术落地。
AMD:开放标准下的全栈生态与显存优势
AMD在CES 2026全面展示数据中心与消费级产品线,以Helios平台为核心,打出“开放+暴力堆料”组合拳。
Helios是基于OCP开放式机架标准的双宽系统,重量近7000磅,单机架最多容纳72块GPU,采用2nm与3nm混合工艺构建。
其核心为MI455X GPU:集成3200亿晶体管(较MI355+70%),配备432GB HBM4显存,显存容量超越英伟达Rubin(288GB),可支撑更大KV Cache,显著提升长上下文推理能力。
配套CPU为2nm EPYC Venice Zen6:搭载256个Zen 6核心,确保机架规模下持续高速供数。单台Helios服务器集成超18000个CDNA 5 GPU单元与4600个Zen 6 CPU核心,提供2.9 ExaFLOPS算力,总HBM4容量达31TB。
软件层面,AMD强调ROCm平台已成业界性能最高的AI开放软件堆栈。OpenAI联合创始人Greg Brockman现场站台,宣布将依据多年协议部署60亿瓦AMD GPU,并于2026年下半年起启动MI450系列交付;Luma AI等厂商亦确认其主流工作负载已在AMD平台实现开箱即用,CUDA生态壁垒正被实质性打破。
消费级方面,Ryzen AI 400系列延续Zen 5 + RDNA 3.5架构,NPU算力达60 TOPS,内存支持速率进一步提升;Ryzen AI Max+系列则搭载40核RDNA 3.5集成GPU,瞄准移动工作站市场,提供媲美DGX Spark的AI算力价值。
三强交锋:定义AI算力新格局
CES 2026三家巨头新品呈现三条鲜明技术路径:
英伟达以Rubin平台树立垂直整合标杆——从GPU、CPU、Switch、DPU到交换机全栈自研,将数据中心打造成高封闭、高效率的计算单元;3360亿晶体管与22TB/s显存带宽构筑当前AI算力天花板。
英特尔押注制程回归与边缘普及:Intel 18A量产印证制造能力复苏;Panther Lake在能效、图形与AI推理的平衡,叠加向机器人等物理AI场景的快速延展,体现“让AI走出数据中心”的战略雄心。
AMD坚持开放标准与极致显存策略:Helios基于OCP生态共建理念,MI455X以432GB HBM4精准满足大模型对内存带宽与容量的双重渴求;与OpenAI深度合作,补齐软件生态短板,构建更具包容性的AI算力联邦。
英伟达建起巍峨城堡,英特尔铺设毛细血管,AMD开拓开放荒原——AI计算的黄金时代,正由这些硅基创新全面开启。

