AI 对 HBM、DRAM、NAND 及 SRAM 需求的提振
AI 的快速发展正推动存储芯片从系统配套组件升级为决定算力性能与经济性的核心战略资产。高带宽内存(HBM)、动态随机存取存储器(DRAM)、闪存(NAND Flash)和静态随机存取存储器(SRAM)的需求结构被深度重塑。
HBM:面向 AI 的高性能内存架构
HBM 采用 3D 封装技术,通过硅通孔(TSV)将多层 DRAM 芯片垂直堆叠,显著缩短数据传输路径,在更小面积内实现超高带宽与低功耗,专为 GPU 和 AI 加速器设计。其单位容量带宽远超传统 DDR,已成为大模型训练与推理的关键瓶颈突破点。
DRAM 与 SRAM:分层协同的主存体系
DRAM 是主流系统主存,依靠电容存储数据,需周期性刷新;SRAM 基于触发器结构,无需刷新、读写极快,但成本高、密度低。二者常协同工作:SRAM 用于 CPU/GPU 缓存,DRAM 承担主内存角色,构成“近计算”存储层级。
NAND Flash:高密度、低成本的非易失存储基石
NAND Flash 具备断电不丢失特性,依托 3D 堆叠(已突破 200 层)与 TLC/QLC 多值存储技术,持续提升单芯片容量并降低单位存储成本,是 SSD、eSSD 及数据中心冷数据存储的核心载体。
存储层级与数据温度映射
按访问频率与延迟敏感度,数据可分为热、温、冷三级,对应不同存储介质:
• 热数据(如模型权重、活跃 KVCache)→ SRAM/HBM
• 温数据(挂起对话、低频参数)→ DRAM/eSSD
• 冷数据(历史日志、原始语料)→ NAND/HDD
该分层逻辑本质是带宽、延迟、容量与成本的系统权衡:顶层提供高吞吐与低延迟,但单位比特成本高昂;向下延伸则以延迟上升换取容量扩展,同时推高每比特访问能耗——既源于存储介质本身,也来自数据搬运开销。
AI 训练阶段:带宽驱动型需求爆发
海量数据并行读写要求极高内存带宽,避免计算单元空转。HBM 凭借 2.5D/3D 共封装与 TSV 技术,带宽达 DDR 数十倍,成为训练集群首选;同时,模型 Checkpoint 保存与预训练数据处理大幅拉动企业级 NAND SSD 需求。
AI 推理阶段:KVCache 与长上下文催生新需求
推理分为 Prefill(计算密集)与 Decode(内存带宽受限)两阶段。后者依赖高频读取 KVCache,对 HBM/SRAM 提出严苛要求。RAG 与超长上下文(Long-context)技术普及,进一步推动高并发、小文件随机读取能力,加速 QLC SSD 等高密度 NAND 产品落地。
随着大模型参数量、训练数据量与算力需求指数增长,产业重心由单芯片性能转向系统级协同优化。“内存墙”问题日益突出——无论训练还是低延迟推理,数据带宽、容量与访问延迟已成为释放 GPU 算力的最大制约,HBM 与 DRAM 战略地位空前提升。
HBM 需求弹性最大,一季度合约价环比上涨 50%~55%
(报告来源:东北证券。本文仅供参考,不代表投资建议。如需使用相关信息,请参阅报告原文。)

