大数跨境
0
0

存储猛拉,AI存力超级周期到底有多神?

存储猛拉,AI存力超级周期到底有多神? 海豚投研
2026-01-06
55
导读:当前AI存储面临怎么样的问题?

AI驱动存储行业全面上行,HBM成核心增长极

在AI需求拉动下,存储行业正经历一轮由HBM向DRAM、NAND、HDD全品类辐射的强周期。美光最新指引将下季度毛利率提升至66–68%,创历史新高,印证本轮涨价强度远超以往。

本轮上行本质是供需关系重构:AI服务器(尤其是推理端)对“低延迟、大容量、高带宽”存储的差异化需求激增;而厂商资本开支持续向HBM与高端DRAM倾斜,导致结构性紧缺,推动价格大幅上扬。

当前AI数据中心的核心瓶颈是“内存墙”——算力增速远超数据传输速度,GPU空置率高达99%。短期解法聚焦HBM带宽升级与3D堆叠SRAM降低延迟;中长期则依赖存算一体架构实现根本性突破。

HBM4将于2026年量产,三大原厂(三星、SK海力士、美光)加速扩产。预计2026年HBM供应量达41.9亿GB,需求量约42.1亿GB,市场呈现“紧平衡”状态。

一、AI服务器中的存储角色与演进逻辑

1.1 四类存储的定位与协同路径

AI服务器存储体系按性能维度分为四类:

  • HBM:GPU专用显存,通过CoWoS封装与GPU 3D堆叠,具备超高带宽(HBM4达16–32TB/s)、极低延迟,决定单GPU模型规模与响应速度,是“性能天花板”;
  • DRAM(DDR5):CPU/GPU共用数据交换枢纽,连接HBM与NAND,容量大、成本适中,是“内存基石”,决定单服务器并发处理能力;
  • NAND(SSD):高频热数据的“快速持久层”,连接DRAM与HDD,平衡性能与容量,承担训练数据“快速补给”与推理服务“即时响应”双重角色;
  • HDD:海量冷数据的低成本容器,带宽最低但容量最大、单位存储成本最优,是“容量基石”,支撑整体数据规模。

典型数据流路径为:HDD(冷数据)→ SSD(预热)→ DRAM(中转)→ HBM(配合计算),训练与推理场景均需全栈协同。

1.2 AI服务器趋势下的存储需求变化

① 训练向推理迁移:推理成为商业化落地刚需,更强调批量处理与成本效率。相较训练端侧重HBM性能,推理服务器更依赖DDR容量、SSD响应速度与HDD大容量支撑。

② 算力转向存力:“内存墙”问题凸显——以H100为例,单Token计算仅需10微秒,但加载10GB模型权重+20GB KV缓存需约9毫秒,计算单元闲置率近99%。

1.3 应对“内存墙”的三大技术路径

  • HBM迭代:从12-Hi向16-Hi升级,带宽跃升至16–32TB/s,缓解数据排队等待;
  • 3D堆叠SRAM:将KV缓存与轻量权重部署于计算单元“随身口袋”,延迟压缩至2ns级,形成“SRAM(快)+ HBM(多)”互补架构;英伟达收购Groq即意在整合其3D SRAM技术,预计2026年下半年Rubin芯片将首次应用;
  • 存算一体:将部分算力嵌入存储内部,消除数据搬运瓶颈,预计2027年起逐步进入数据中心商用阶段。

二、HBM市场:HBM4量产在即,供需紧平衡

2.1 供给端:产能快速爬坡,集中度高

HBM由SK海力士、三星、美光三家主导。2025年Q4月产能约39万片,2026年Q4有望达51万片,全年总产能约543万片。

按单片300mm晶圆可产出514颗等效3GB颗粒、综合良率50%测算,2026年HBM供应量约为41.9亿GB。

产能分布上,SK海力士与三星领先,美光规模相对较小;但三星HBM3E良率曾制约出货,2025年Q4获英伟达认证后,份额有望回升并反超美光。

2.2 需求端:绑定AI芯片与CoWoS封装产能

HBM需求高度依赖AI芯片出货,而AI芯片又受限于台积电CoWoS封装产能。2026年全球CoWoS需求预计约128万片,其中英伟达占比超50%,谷歌、AMD、亚马逊为重要客户。

以英伟达B300为例:单片CoWoS封装对应约14颗芯片,每颗配备8颗36GB HBM3E(合计288GB),490万颗B300芯片即带动14亿GB HBM需求。综合主流AI芯片厂商测算,2026年HBM总需求量约42.1亿GB。

结论:HBM供需基本匹配,呈现“紧平衡”。这源于原厂持续高强度资本开支投入,也是本轮AI存储周期结构性特征的集中体现。

【声明】内容源于网络
0
0
海豚投研
各类跨境出海行业相关资讯
内容 2214
粉丝 0
海豚投研 各类跨境出海行业相关资讯
总阅读14.4k
粉丝0
内容2.2k