新智元报道
【新智元导读】CES现场,苏姿丰投下震撼弹:四年内AI算力将提升1000倍! 面对英伟达的封锁,AMD不再隐忍,直接祭出Helios「太阳神」机架与MI455X芯片,以单代性能暴涨10倍的「暴力美学」正面硬刚。从Yotta级计算宏图到128GB统一内存的PC怪兽,AMD正用一场史无前例的算力狂飙,试图彻底重写AI世界的权力版图。
美国拉斯维加斯消费电子展(CES)主旨演讲日,全球科技格局迎来关键转折点。
黄仁勋刚刚结束英伟达发布会,推出Vera Rubin平台与Agentic AI愿景,构建起封闭而强大的“围墙花园”。紧接着,AMD掌门人苏姿丰登台,宣布全面反击,意图打破英伟达在AI算力领域的垄断地位。
这场对决不仅是技术之争,更是两种生态路线的根本对立:一边是垂直整合、软硬件闭环的“帝国模式”;另一边是开放联盟、多厂商协作的“联邦体系”。
英伟达的封锁:Vera Rubin平台的三大支柱
在AMD发布前,黄仁勋展示了下一代AI基础设施——Vera Rubin平台,由三大核心构成:
Rubin GPU:搭载下一代HBM4高带宽内存,解决大模型训练中的“内存墙”问题,显著提升数据吞吐能力。
Vera CPU:基于Arm架构自研,拥有88核176线程,旨在将CPU与GPU深度绑定,逐步替代x86架构,削弱AMD和Intel在服务器市场的根基。
NVL144机架:集成144颗GPU,通过NVLink 6互联,带宽高达260TB/s,实现“数据中心即计算机”的极致整合。
该平台传递明确信号:未来AI基础设施将以英伟达定义的“算力单元”为核心,高度封闭且排斥异构兼容。
AMD的反击:Helios机架与MI455X芯片
面对英伟达的技术压制,苏姿丰提出“Yotta Scale Compute”(尧字节级计算)愿景,目标在五年内实现相当于10万台El Capitan超级计算机的算力规模。
AMD数据显示,过去两年推理Token数量增长100倍,训练算力年增4倍,AI需求呈指数级爆发。
Helios AI机架:开放架构的战略图腾
以希腊太阳神命名的Helios机架,象征AMD打破垄断的决心。其核心参数包括:
- 4,600个Zen 6 CPU核心:首次确认Zen 6架构落地,坚守x86生态,保障企业现有代码资产无缝迁移。
- 31TB HBM4内存:采用“大显存”策略,减少跨卡通信频率,缓解互联瓶颈。
MI455X:单代性能跃迁10倍的参数怪兽
作为Helios的核心,Instinct MI455X实现相较前代MI355X的10倍性能提升,主要得益于全新CDNA架构与先进制程。
延续OAM模组化设计,支持即插即用升级,避免客户因GPU迭代而更换整机柜,降低总拥有成本(TCO),形成对英伟达“焊死方案”的差异化优势。
未来路线图:四年千倍AI性能提升
AMD公布至2027年的清晰发展路径:
- 2026年:MI400系列(即MI455X)。
- 2027年:MI500系列,基于CDNA 6架构,采用2nm工艺,配备HBM4E内存。
公司承诺在未来四年内实现1000倍AI性能提升,向市场传递长期技术储备信心。
互联战争:UALink与Ultra Ethernet的破局
互联技术是决定大规模AI集群效率的关键。英伟达凭借NVLink构建了深层护城河,而AMD选择联合行业共建开放标准。
UALink:挑战NVLink的开放互联协议
由AMD、英特尔、微软、Meta、谷歌、博通等共同发起的UALink Consortium,推出对标NVLink的开放互联方案。
- 支持最多1024个加速器在同一POD内互联,规模超越当前NVSwitch能力。
- 关键特性为显存池化与内存一致性,允许多GPU共享内存资源,满足万亿参数模型训练需求。
此举实质是“反英伟达联盟”的集体行动,旨在打破供应商锁定风险。
Ultra Ethernet(UEC):以太网逆袭InfiniBand
针对节点间互联,AMD推动Ultra Ethernet(UEC)发展,对抗英伟达主导的InfiniBand网络。
- InfiniBand虽性能优异但成本高昂且封闭。
- UEC基于通用以太网优化,解决丢包与拥塞问题,研究显示其每GFLOP成本比InfiniBand低27%。
若UEC普及,客户可使用博通、思科等通用交换机构建高性能AI集群,大幅降低部署成本。
端侧布局:Ryzen AI Max与Halo平台
AMD同步推进AI算力向终端延伸,发布面向PC的Ryzen AI Max系列处理器。
Ryzen AI Max:128GB统一内存突破
最大亮点为128GB统一内存,成为首款可在Windows笔记本运行2350亿参数大模型的x86平台。
该设计对标苹果M系列芯片,使开发者无需依赖云端即可本地运行Llama 3 70B等大型模型,兼顾隐私与效率。
性能对比:全面挑战竞品
- 相比Intel Core Ultra 9:内容创作快1.7倍,多任务处理快1.3倍。
- 相比Apple M5:AI Token生成速度快1.4倍。
- 相比Nvidia DGX Spark:每美元Token生成效率高1.7倍。
Halo平台:打造开发者“军火库”
推出专为AI开发者设计的Ryzen AI Halo平台,预装ROCm软件栈,优化PyTorch、Hugging Face等主流框架,并支持Llama、GPT-OSS、Flux等模型Day-0运行。
标志着AMD从“硬件优先”转向“软硬协同”,增强对CUDA生态的替代能力。
盟友支持:OpenAI站台背后的深层逻辑
发布会展示OpenAI、Hugging Face、PyTorch、Databricks等合作伙伴Logo墙,其中OpenAI位列首位。
OpenAI总裁Greg Brockman透露,公司算力需求几乎每年翻倍甚至三倍增长,面临严重资源争夺。
引入AMD作为“第二供应商”,有助于提升议价权、分散供应链风险,避免完全受制于英伟达。
ROCm生态突破:PyTorch助力破局
长期以来,AMD被诟病“硬件强、软件弱”。此次展示ROCm广泛适配PyTorch、Triton等高层框架,表明底层依赖正被弱化。
随着PyTorch 2.0普及,开发者只需编写一次代码即可跨平台运行,极大降低迁移门槛,形成“农村包围城市”之势。
AI算力的分岔路口
苏姿丰预测:五年内全球将有50亿人每天使用AI,算力需求将持续爆发。
她强调:AI正在从云端走向个人电脑。李飞飞团队演示仅凭少量照片即可生成完整3D世界,预示创作门槛将被彻底打破。
AMD同步布局物理AI等新兴场景,真正实现“All in AI”。
通过LUMI超算在气候模拟中的应用,AMD进一步输出“技术造福人类”的价值观。
两种路线的本质博弈
- 英伟达路线:类似苹果,追求封闭、极致体验与高利润,代表“帝国式控制”。
- AMD路线:类似安卓,倡导开放、协作与性价比,构建“商业联邦”生态。
- 客户选择:短期内高端训练仍依赖英伟达,但在推理及中等规模场景,Helios与MI455X提供高性价比替代方案。
发布会结尾,大屏幕浮现“Together we advance_”标语,象征联盟力量的集结。
当英伟达试图将AI封装进私有黑箱时,AMD在墙上凿出一扇窗。这扇窗属于OpenAI、微软,也属于每一个渴望普惠算力的开发者。
AI算力战争远未结束,Yotta Scale只是新起点。多元竞争的存在,才是技术创新持续的根本保障。

