随着全球计算架构加速向AI、大数据与高性能应用演进,存储芯片正从系统边缘走向架构核心。传统由摩尔定律主导的技术路径趋于放缓,而数据规模、处理复杂性与能效之间的矛盾日益突出,推动产业重新审视存储在系统设计中的战略地位。Micron在本报告中系统回顾了DRAM、NAND及新兴存储技术的发展瓶颈,提出以“全栈协同创新”“异构集成”和“记忆体为中心的系统架构”为核心的未来路径。报告强调,唯有打破材料、器件、封装、架构与软件之间的壁垒,才能构建面向下一代智能计算的高效、可扩展存储基础设施。
一、全球存储芯片发展趋势总览
1.1 存储芯片在全球半导体中的地位演进
2010年至2019年,存储类芯片的晶体管数量增长速度显著高于非存储芯片,反映出其在数据驱动时代作为关键计算基础设施的战略地位持续提升。
1.2 Moore定律放缓与存储技术的独立演进路径
CPU性能提升周期已延长至6年以上,通用计算向域专用架构(DSA)转变加速,对内存带宽提出更高要求。存储技术因此走出独立发展路径,成为引领系统架构变革的关键力量,“More than Moore”趋势凸显。
1.3 存储市场成本趋势:DRAM与NAND的长期演化
过去几十年,DRAM单位成本年均下降约40%,NAND下降约30%。但当前制造工艺面临高深宽比刻蚀、应力控制等物理极限,微缩带来的成本优势减弱,传统规模经济效应趋缓。
1.4 AI、大数据等应用对存储需求的驱动
每日新增数据量已达2.5 quintillion bytes。移动设备内存容量从2010年的1GB增至2020年的16GB,存储空间从16GB升至1TB。AI模型复杂度增速远超摩尔定律,成为推动存储性能与能效升级的核心动力。
1.5 芯片类型结构变迁:存储类芯片份额快速上升
2010–2019年,存储类芯片在总晶体管数量中占比持续扩大。这一结构性变化源于数据中心、AI训练、边缘计算等场景对高密度、高带宽、低功耗存储的迫切需求,存储已从配角转变为现代计算架构的核心资源。
二、技术挑战与性能瓶颈剖析
2.1 成本、功耗与带宽的多重约束
AI与高性能计算要求在单位能耗下实现更高带宽与吞吐能力,传统架构难以兼顾性能、功耗与成本。数据搬移能耗成为系统瓶颈,推动存储系统在物理设计与架构层面重构。
2.2 DRAM与NAND面临的共性技术瓶颈
尽管应用不同,DRAM与NAND在材料与工艺上面临相似挑战:
- 高深宽比刻蚀(HAR Etch)与无应力间隙填充;
- 单元一致性控制与RC延迟管理;
- 接触电阻优化与材料建模;
- 多层堆叠中的均匀性与互连可靠性。
这些因素制约了容量扩展、可靠性和成本控制能力。
2.3 图形化与设备能力的极限逼近
下一代图形化工艺是决定存储演进速度的关键。当前光刻、刻蚀与沉积设备在分辨率、一致性与大面积处理能力方面接近极限,尤其在极窄线宽、多层对准等方面面临严峻挑战。
2.4 存储微缩的物理边界接近
DRAM微缩临近“3D转折点”,路径高度专有;NAND虽进入3D堆叠阶段,但层数增加带来性能、能效与成本的平衡难题,投资回报率(ROI)成为制约因素。未来需权衡技术可行性与经济性。
2.5 存储系统级性能瓶颈与“内存墙”
Von Neumann架构下的“内存墙”问题严重限制性能提升。Micron强调应向近内存计算(Near-Memory Compute)、内存中计算(In-Memory Compute)迁移,降低数据搬移延迟与能耗,实现材料、器件到软件栈的全栈协同创新。
三、AI时代的存储架构重构
3.1 领先AI模型的计算复杂性加速超越Moore定律
AI模型复杂度增长速率约为摩尔定律的8倍,推动存储系统必须支持更高带宽、更低延迟与更优能效比,传统架构在带宽与能耗间的矛盾愈发突出。
3.2 高性能AI系统对内存提出极致要求
AI训练与推理依赖大规模参数读写,亟需大容量、低延迟、高带宽内存子系统。内存性能已成为影响AI加速器效率的关键变量,其功耗甚至主导系统总能耗。
3.3 域专用架构(DSA)引发存储角色的范式转变
DSA架构通过提升并行性、减少冗余逻辑、匹配特定数据流,显著提高AI负载效率。此类架构高度依赖存储系统,需更高带宽支持。例如Google TPU v4即通过优化存储带宽实现高效运算。
3.4 深度学习加速器中的存储设计革新
为提升AI效率,加速器采用多种创新:
- 集成HBM、IMC/NMC、计算型存储等形态,优化单位带宽能耗;
- 引入高带宽、低延迟存储层,提升近存访问效率;
- 推动In-/Near-Memory Compute机制,实现PB/s级数据吞吐。
这些创新正在重塑AI芯片的基础架构。
3.5 从计算驱动转向数据驱动的系统范式迁移
AI时代系统瓶颈更多来自数据搬移而非计算本身。Micron提出应重构:
- 系统数据流路径;
- 存储与计算的空间耦合方式;
- 内存分层与调度策略;
- 支持数据感知的软硬件协同框架。
内存应从“资源”升级为“架构核心”,构建真正的Memory-Centric系统。
四、新型存储技术展望与比较
4.1 主流新型存储技术分类与物理机制演化
当前研究主要分为两类:
- 移动原子类:相变存储(PCM)、电化学存储(CBRAM)、阻变存储(RRAM)、铁电存储(FeRAM);
- 移动自旋类:磁阻式存储(MRAM、STTRAM)、自旋轨道存储(Racetrack)。
碳纳米管、分子级器件等前沿材料也逐步进入探索阶段。
4.2 不同存储技术在关键指标上的性能对比
| 指标 | DRAM | STTRAM | PCM / 1T1R RRAM | Cross-point RRAM | NAND |
|---|---|---|---|---|---|
| 读延迟 | 20ns | 50ns | 100–200ns | 100–200ns | ~10μs |
| 写延迟 | 20ns | 50ns | 1μs | 1μs | ~10μs |
| 写耐久 | >1e15 | >1e11 | >1e6 | >1e6 | 2K–100K |
| 能耗/bit | <10pJ | ~25pJ | ~75pJ | ~75pJ | >100pJ |
| 数据保持 | 毫秒级 | 月 | 年 | 年 | 年 |
| 面积密度 | 1x | ~30x | 中等 | 中等 | 高 |
结果显示,新型存储在非易失性与能耗方面具优势,但在写延迟、耐久性与密度上仍难全面替代DRAM与NAND。
4.3 新型存储的层级定位:增强而非替代
现阶段新兴存储尚无法取代DRAM或NAND。DRAM仍是唯一在性能、密度与能耗间取得平衡的近SOC解决方案;NAND则是唯一满足大规模应用成本与能效标准的介质。新兴存储更适合作为缓存、层级补充或近存计算支撑。
4.4 面向特定应用场景的结构化部署可能性
在静态数据主导场景中,计算型存储(Computational Storage)展现高能效潜力。In-/Near-Memory Compute与模拟加速器成为低延迟任务的重点方向,通过与特定架构深度绑定实现性能/能耗优化。
4.5 材料维度的研究成为核心突破口
Micron指出,未来突破将不再依赖元素筛选,而是聚焦于新型物理机制与非平衡态量子现象,包括:
- 亚纳米结构控制;
- 强量子效应激发;
- 新型态变量驱动的器件物理;
- 可集成二维材料沉积技术。
这预示存储技术将更加依赖跨学科融合创新。
五、先进封装与异构集成的关键作用
5.1 存储与计算的异构集成:打破传统芯片边界
异构集成已成为AI与HPC系统的核心路径。通过逻辑芯片与存储阵列协同集成,可实现更高带宽、更小面积与更优能效,突破传统封装瓶颈。
5.2 晶圆对晶圆(W2W)键合技术突破
Micron推进亚50nm精度的W2W键合工艺,具备以下特征:
- 实现存储与逻辑单元高精度对位键合;
- 支持垂直互连堆叠,提升密度与通道数;
- 通过CMOS与存储共设计实现功能紧耦合;
- 已纳入产品路线图,具备量产基础。
该技术对设备精度、晶圆平整度要求极高,每10nm形貌误差可能导致1nm对准偏差。
5.3 高密度互连:支撑高带宽与能效提升
实现晶圆级堆叠需依赖细间距互连(Fine Pitch Interconnect),结合:
- 晶片对晶圆(C2W)与晶片对基板混合键合;
- 微通孔(TSV)与背面金属互连(Backside Metals);
- 多相互连路径的精确设计与优化。
可在最小面积与最低功耗下实现最大数据吞吐,满足极端带宽需求。
5.4 封装路径演进:从实验验证走向量产
Micron封装路径涵盖:
- 晶片级封装(Chip-on-Wafer)实现单元集成;
- 晶圆级封装(Wafer-to-Wafer)实现结构复合;
- 封装-测试一体化路径加速技术落地。
通过芯粒、逻辑与热管理结构协同集成,构建完整的存储-计算基础模块。
5.5 AI/HPC应用对封装架构提出极致挑战
未来封装不仅是连接介质,更是系统架构的关键组织结构。Micron正围绕以下方向构建集成创新体系:
- 存储堆栈与逻辑芯片垂直整合;
- 热管理与互连路径协同设计;
- 支撑模拟/近存/计算型存储的新范式平台。
六、面向未来的系统级协同与开发框架
6.1 构建记忆体为中心的计算范式(Memory-Centric Compute)
面对Von Neumann架构瓶颈,产业正迈向以内存为中心的计算。核心是将计算靠近数据源,降低搬移开销。未来系统需满足:
- 100倍以上带宽提升的架构支撑;
- 支持“memory-first”编程模型;
- 新型开发者工具链与调度机制;
- 在功耗约束下实现PB/s级带宽。
6.2 全栈协同设计:从材料物理到系统软件
Micron建立“全栈协同创新”体系,覆盖:
- 新材料 → 物理属性 → 器件行为 → 存储阵列 → 系统架构的贯通逻辑;
- 原型阶段实现逻辑与内存协同设计;
- 搭建数据中心级存储验证平台;
- 推动集成电路从计算主导向存储核心转型。
6.3 存储工作负载建模与软件优化协同
需对真实场景内存访问行为建模,并进行软件栈优化,引入:
- 支持内存分级调度的分层架构;
- 池化存储与池化内存的灵活调度方案;
- 面向AI与计算存储的异构资源调度框架;
- 存储/计算一体化测试平台与协同调优机制。
6.4 自适应与安全导向的EDA基础设施革新
未来EDA需构建:
- 支持逻辑-内存-软件联合建模的仿真平台;
- 自动化验证机制,具备自调优、自适应、自愈能力;
- 高可扩展框架,适配大规模AI环境;
- 全生命周期安全导向设计。
6.5 推动异构计算体系结构演进
异构计算成主流趋势,Micron展望通过直接耦合存储、计算与加速器资源,实现:
- 支持近存、内存中计算架构;
- 集成计算型存储处理静态大数据;
- 利用TSV与芯片互连实现资源池化;
- 构建统一编程与调度平台;
- 推进可扩展、高弹性内存层次架构。
典型形态包括Memory-Centric Accelerator与Pooled Memory/Storage架构,实现资源动态联合。
七、结语:迈向下一代存储范式的战略思考
7.1 存储的角色正在发生根本性重构
计算系统正由“计算驱动”转向“数据驱动”,存储不再只是配角,而是系统架构的起点与核心资源。这意味着:
- 存储架构决定系统带宽、能效与可扩展性;
- 资源调度成为AI性能突破的关键;
- 设计影响贯穿从材料到算法的全技术栈。
7.2 全栈创新是突破“后摩尔时代”限制的核心策略
摩尔定律红利消退,系统能效提升依赖材料、器件、架构与软件的全栈协同创新。Micron指出:“只有研究、试产、结构与算法深度融合,才能跨越‘死亡谷’。”
7.3 面向应用的异构融合是演进的必由之路
未来系统将呈现高度异构特征,需构建:
- 支持“存储+计算”紧耦合的封装体系;
- 基于数据流优化的架构与执行引擎;
- 面向应用的动态调度统一资源池机制。
此类系统更适配AI、自动驾驶等高带宽场景,推动产业向高能效、高灵活性进化。
7.4 材料、器件与架构三位一体的长期研发战略
真正突破来自对新物理机制、新态变量与新材料体系的探索:
- 材料层面:开发低泄漏、极限尺寸、长稳定性的器件材料;
- 器件层面:构建多状态、确定性编程、CMOS兼容的存储单元;
- 架构层面:设计支持Memory-Centric、In-Memory或神经形态的可扩展平台。
三位一体投入将带来范式级变革。
7.5 拥抱“以数据为中心”的计算未来
随着AI与数据经济兴起,存储系统应转向“以数据为中心”理念:
- 围绕数据流动性、局部性与访问路径优化系统设计;
- 存储成为性能、安全、功耗与灵活性的决定性变量;
- 新存储范式将成为计算系统突破的战略支点。

