回顾2025年半导体市场,最核心主线可浓缩为一句话:
AI需求驱动,正在重构半导体基建的估值体系,也在重写整个IT产业链的价值分配。
从2024年起,半导体基建正快速吞噬IT行业整体利润池。在标普500 IT板块中,半导体公司净利润EPS占比两年内由不足20%升至近40%,且仍在加速上升。

半导体整体前瞻净利率从2023年的约25%,升至2025年11月的40%+,已明显高于多数互联网巨头平均利润率。

更关键的是:即便对比2020–2022年“缺芯潮”时期——供给极度短缺、价格飙升——当时也未出现如此剧烈的利润再分配。这表明当前变化并非普通周期性涨价,而是商业模式底层逻辑的根本性转变。
这就是故事的上半篇:AI需求将半导体从“互联网时代的基建配角”,推升为“利润分配的中心”。
从“流量 × 转化率”,到“每token毛利”
要理解这场利润重分配,需回归商业模式演变。
互联网时代具备四大特征:
- 单次请求的网络与算力边际成本极低;
- 内容/服务分发的边际成本几乎为零;
- 最大成本为OPEX,尤其是程序员、运营等人力支出;
- CapEx虽存在,但多为一次性投入,折旧压力远低于传统制造业。
因此,“轻资产收租业”成为主流——流量型+订阅型互联网公司、云服务商及SaaS平台最能盈利。
AI时代则彻底打破该范式:
- 训练成本从“一次性投入”转为“长期持续投入”:模型越大、迭代越快,训练流水线几无停歇;
- 推理成本不随硬件降价线性下降:inference scaling已成为共识,各垂直场景倾向采用更大模型与更长context以保持竞争力,单请求算力消耗未必降低;
- 互联网公司首次在资产负债表上背负类似晶圆厂(foundry)的巨额折旧:大规模AI数据中心、GPU/ASIC、高速网络及配套电力基础设施。
换言之,企业从“人力OPEX主导”,叠加了沉重的算力/硬件CAPEX。商业模型正从“流量 × 转化率”,转向“每token毛利”。
利润分配随之位移:
- 上一代赢家是互联网公司、CSP与SaaS平台,靠用户数与订阅“收租”;
- 这一代真正的“房东”变为算力载体——GPU、HBM、先进封装与AI专用芯片,构成AI时代的新型收租业。
这也解释了为何:在未发生全球经济爆发的前提下,IT行业总利润大致平稳,而半导体EPS占比却从20%持续攀升至40%——利润正从上层应用被抽回至底层基建。
军备竞赛与2030:NV、ASIC和AMD的“标准答案”
当前半导体超高利润率,很大程度源于前期“不计成本的军备竞赛”:超大规模云厂商(hyperscaler)宁可提前锁满GPU、HBM与互联产能,也不愿在轮次中掉队。
各方都在寻求折衷路径:一边继续采购Nvidia“黄金标准”算力,一边加速发展自研ASIC与AMD生态,以对冲Nvidia议价权。
以OpenAI已公开路线为参考——10GW Nvidia、10GW自研ASIC、6GW AMD——这基本代表了业界“标准答案”雏形:
- 推理端,目标ASIC占比>50%,GPU承担高端、长尾与复杂负载;
- GPU内部,AMD与Nvidia legacy大致五五开;
- 训练端,受制于灵活性、生态约束与软件栈,Nvidia仍将占据60%以上份额,其余由ASIC与AMD瓜分。
按“2030年60%推理 / 40%训练”的典型结构加权估算,远期算力份额大致为:
- Nvidia:约38%;
- 各家自研ASIC:约39%;
- AMD:约23%。
该数字非精确预测,但划出关键边界:
- 长期看,推理端GPU份额被ASIC替代是大概率事件;
- Nvidia护城河将愈发集中于高端训练、复杂混合负载及软件生态;
- AMD中长期结构性风险在于:当CSP自研ASIC日趋成熟、新增推理算力更多流向ASIC时,其必须依靠极具吸引力的价格与性能,方可持续获取增量GPU订单。
TPU、Meta与Nvidia:是真脱钩,还是砍价筹码?
近期TPU重回聚光灯:Google大力推广TPU,Anthropic大量采购,Meta被曝未来数年将下约100亿美元TPU订单,市场一度惊呼“Nvidia将被TPU取代”。
拆解数据可见冷静现实:
- Meta今年CapEx约700亿美元,明年或达1100亿,未来六年年均或接近1600亿美元;
- 六年100亿美元TPU订单,年均仅约16亿,占其长期CapEx约1%;
- 该比例仍属“推高假设”,实际更低。
更关键的是:
- Meta采购的是TPU云服务,而非大规模自建TPU机房;
- 其招聘启事中缺乏类似Anthropic成建制招募TPU kernel engineer、compiler工程师的迹象;
- 这笔预算大概率兼具供应商多元化保险与对Nvidia议价筹码双重目的。
因此,与其说Meta转向TPU阵营,不如说:
在训练端无法脱离Nvidia的前提下,Meta希望在推理端多备几张底牌,提升自身议价能力。
叠加TPU v8在HBM等关键配置上明显保守,而Rubin + Kyber rack在TCO上更具潜力,Meta对Nvidia的高度依赖不会因100亿美元订单改变。
HBM / 内存:从“周期股”到“收租股”
如果说GPU是AI军备竞赛的“门票”,HBM/DRAM则是本轮最扎实的结构性红利。“推理即内存”这一判断极具穿透力。

- AI工作负载正由训练向推理延伸,推理占比持续扩大;
- 推理对带宽极度敏感,带宽几乎直接等价于token/s;
- 模型参数量膨胀、context length拉长,对内存容量与带宽形成双重挤压。
从H100的80GB回看,新一代GPU/ASIC内存配置已呈现“暴力美学”:
- Nvidia Ultra Rubin:单节点配备1TB级HBM;
- Qualcomm AI200:768GB LPDDR;
- AMD MI400x:400GB+ HBM。
短短三年,数据中心高端内存规格实现十倍跃升。
端侧亦同步升级:手机/PC/汽车/机器人旗舰机型主流内存已由6GB升至8/12/16GB,本质是为端侧LLM预留空间。一旦端侧GenAI/LLM生态跑通,billion级终端出货将使“内存翻倍”水到渠成。
2023–2024年曾预期2027年为端侧GenAI拐点,但当前软件生态明显滞后:云端ROI更清晰、商业模式更成熟,厂商资源普遍优先倾斜云端;端侧或需7–10年长周期培育。
这意味着:
- 中期(当前至2030年左右),HBM是最确定的“半导体长期高毛利”主线之一;
- 长期(2030年后),若端侧真正起飞,内存厂商有望迎来第二轮量价齐升。
NAND / SSD:KV cache与向量数据库背后的隐形受益者
“内存红利”溢出的第二站是NAND/SSD。
两大驱动力明确:
- KV cache分层/tiering:
- 大模型推理时,若显存与内存无法容纳全部KV cache,将溢出至高速SSD;
- SSD成为“二级内存”,对带宽与IO要求显著提升。
- 向量数据库检索/indexing:
- RAG、embedding检索等场景依赖高性能SSD支撑索引与查询;
- 多模态与长时序数据普及,进一步放大该需求。
这也解释了为何:
- 企业级eSSD合约价格2025年Q4才开始明显抬头,而NAND现货价格单月上涨超50%;
- 存储厂商财报中越来越多单独强调“AI inference use cases:KV cache tiering + vector database search/indexing”。
从投资角度看,该赛道特点鲜明:
- β值高:AI训练/推理持续增长,数据与索引必然落于存储;
- 渗透面广:不仅覆盖AI,还延伸至云存储、数据湖、备份与冷数据归档。
但区别于HBM,NAND行业扩产纪律与价格自律性始终存疑,将决定2028年后能否维持高景气。
Agentic AI:CPU的“十年级回潮”
2025年另一被低估趋势是agentic AI带动的CPU回潮。
从CPU视角看agentic workload:
- routing、工具调用、网络请求、外部系统交互等主要落在CPU上;
- 对SWE-Agent/LangChain/Toolformer等主流框架做profiling显示:
- CPU在端到端延迟中占比可达70–90%;
- CPU能耗可能超过总能耗40%。
这也解释了为何:
- Lisa Su在财报中明确指出,agentic AI令客户意识到“GPU每生成一个token,会触发多个CPU密集型任务”,因而正规划更大规模CPU部署;
- Nvidia在GB200/GB300架构中提升CPU占比,AMD以多颗高核数EPYC服务一大群GPU——新硬件形态本质上是对agent workload的优化。
此事蕴含两层重要含义:
- AI性能比拼正从“单GPU token/s”,转向“系统级agent throughput”。CPU/GPU/NIC/存储的协同调度与micro-batching将愈发关键。
- CPU需求或将迎来“十年级别”温和回暖:
- 驱动因素不再是PC升级周期,而是AI工作负载结构演化;
- 对同时受益GPU+CPU的AMD EPYC,边际收益尤为突出;
- 若Intel执行力提升,亦有望从中获取beta。
云端AI挤压消费电子:PC抑郁,苹果躺着赢
当AI云端疯狂抢占HBM/DRAM/NAND产能时,消费电子正默默承受成本压力:
- 内存/存储价格上涨,PC厂商已讨论将标配从16GB/512GB回调至8GB/256GB;
- 安卓阵营在美等市场陆续提价,或同价位明显降配。
若DRAM与NAND价格持续攀升,可能出现极端情形:内存与存储现货价格高于终端设备中的CPU甚至中低端GPU。
这带来两个结果:
- 消费电子厂商利润空间受挤压,AI PC、AI手机普及节奏推迟;
- 苹果成为本轮次生效应的最大受益者之一。
原因在于:
- 苹果拥有DRAM/NAND多年长期锁价与专属产能;
- 自研SoC+强供应链控制力,BOM压缩至极致;
- 当安卓与PC厂商为成本焦头烂额、讨论“回到8GB时代”时,苹果仍可维持高配、高售价、高毛利,在高端市场持续抢夺份额。
由此看,“云端AI吞噬内存与存储”,反而成为苹果扩大市场份额的助推器。
投资视角:从产业叙事到标的篮子
整合上述逻辑,已隐含一套清晰投资框架:
- “利润池迁移”的中枢
- GPU + 互联:Nvidia(NVDA)、AMD(AMD)、Broadcom(AVGO)、Marvell(MRVL);
- AI军备竞赛主战场,估值最“拥挤”,逻辑最强、泡沫亦最厚。
- “memory-bound”带来的超额回报
- HBM / DRAM:Micron(MU)、SK hynix、Samsung;
- 逻辑最纯、周期感最弱,但需密切关注2028年后扩产节奏。
- AI推理溢出的存储链
- NAND / eSSD / HDD:Western Digital、Seagate等;
- 非最显眼主角,但在KV cache与向量数据库场景中将长期受益。
- 光互联与CPO
- Coherent、Lumentum、Ciena及A股光模块供应商;
- 对应“百万英里级光纤”,构成AI超级集群间的血管与神经。
- Agentic AI下的CPU回暖
- AMD(EPYC)、Intel;
- 偏中长期“结构性修复”,非短期交易主题,而是5–10年workload重构驱动。
- 消费电子中的相对赢家
- Apple(AAPL);
- 在“云端AI挤压消费电子”叙事下,凭供应链与品牌优势攫取份额红利。
该框架的核心价值,不在于“预测下一只十倍股”,而在于将2025年AI–半导体主线绘制成一张动态地图:谁在吞并他人利润,谁在承接溢出红利,谁被挤压,谁逆势受益。
尾声:2025只是合纵连横的第一回合
2025年半导体叙事多元交织:Nvidia/AMD/TPU与hyperscaler明争暗斗;HBM厂商由“周期股”跃升为“超高毛利收租股”;NAND厂商借KV cache与向量数据库悄然获益;CPU则在agentic AI浪潮下低调回潮。
更具戏剧性的是:云端AI繁荣正挤压PC与安卓手机生存空间,而苹果凭借供应链优势与定价权,悄然坐收渔利。这场算力军备竞赛的次生效应,极可能在2026年以意料之外的方式重塑消费电子格局。
半导体的故事早已不是单一线性演进,而是一张持续自我重构的网。从训练到推理、文本到多模态、单轮对话到复杂agentic flow,每一次AI工作负载演进,都是一次新的利润再分配。
而2025,大概只是“合纵连横”的第一回合——真正的长剧才刚开场。

