大数跨境
0
0

2025半导体行业回顾与2026投资框架

2025半导体行业回顾与2026投资框架 花街量子猫
2025-12-02
99
导读:回顾 2025 年的半导体市场,最核心的一条主线其实可以浓缩成一句话:AI 需求驱动,正在重构半导体基建的估值

回顾2025年半导体市场,最核心主线可浓缩为一句话:

AI需求驱动,正在重构半导体基建的估值体系,也在重写整个IT产业链的价值分配。

从2024年起,半导体基建正快速吞噬IT行业整体利润池。在标普500 IT板块中,半导体公司净利润EPS占比两年内由不足20%升至近40%,且仍在加速上升。

半导体整体前瞻净利率从2023年的约25%,升至2025年11月的40%+,已明显高于多数互联网巨头平均利润率。

更关键的是:即便对比2020–2022年“缺芯潮”时期——供给极度短缺、价格飙升——当时也未出现如此剧烈的利润再分配。这表明当前变化并非普通周期性涨价,而是商业模式底层逻辑的根本性转变。

这就是故事的上半篇:AI需求将半导体从“互联网时代的基建配角”,推升为“利润分配的中心”。

从“流量 × 转化率”,到“每token毛利”

要理解这场利润重分配,需回归商业模式演变。

互联网时代具备四大特征:

  • 单次请求的网络与算力边际成本极低;
  • 内容/服务分发的边际成本几乎为零;
  • 最大成本为OPEX,尤其是程序员、运营等人力支出;
  • CapEx虽存在,但多为一次性投入,折旧压力远低于传统制造业。

因此,“轻资产收租业”成为主流——流量型+订阅型互联网公司、云服务商及SaaS平台最能盈利。

AI时代则彻底打破该范式:

  • 训练成本从“一次性投入”转为“长期持续投入”:模型越大、迭代越快,训练流水线几无停歇;
  • 推理成本不随硬件降价线性下降:inference scaling已成为共识,各垂直场景倾向采用更大模型与更长context以保持竞争力,单请求算力消耗未必降低;
  • 互联网公司首次在资产负债表上背负类似晶圆厂(foundry)的巨额折旧:大规模AI数据中心、GPU/ASIC、高速网络及配套电力基础设施。

换言之,企业从“人力OPEX主导”,叠加了沉重的算力/硬件CAPEX。商业模型正从“流量 × 转化率”,转向“每token毛利”。

利润分配随之位移:

  • 上一代赢家是互联网公司、CSP与SaaS平台,靠用户数与订阅“收租”;
  • 这一代真正的“房东”变为算力载体——GPU、HBM、先进封装与AI专用芯片,构成AI时代的新型收租业。

这也解释了为何:在未发生全球经济爆发的前提下,IT行业总利润大致平稳,而半导体EPS占比却从20%持续攀升至40%——利润正从上层应用被抽回至底层基建。

军备竞赛与2030:NV、ASIC和AMD的“标准答案”

当前半导体超高利润率,很大程度源于前期“不计成本的军备竞赛”:超大规模云厂商(hyperscaler)宁可提前锁满GPU、HBM与互联产能,也不愿在轮次中掉队。

各方都在寻求折衷路径:一边继续采购Nvidia“黄金标准”算力,一边加速发展自研ASIC与AMD生态,以对冲Nvidia议价权。

以OpenAI已公开路线为参考——10GW Nvidia、10GW自研ASIC、6GW AMD——这基本代表了业界“标准答案”雏形:

  • 推理端,目标ASIC占比>50%,GPU承担高端、长尾与复杂负载;
  • GPU内部,AMD与Nvidia legacy大致五五开;
  • 训练端,受制于灵活性、生态约束与软件栈,Nvidia仍将占据60%以上份额,其余由ASIC与AMD瓜分。

按“2030年60%推理 / 40%训练”的典型结构加权估算,远期算力份额大致为:

  • Nvidia:约38%;
  • 各家自研ASIC:约39%;
  • AMD:约23%。

该数字非精确预测,但划出关键边界:

  • 长期看,推理端GPU份额被ASIC替代是大概率事件;
  • Nvidia护城河将愈发集中于高端训练、复杂混合负载及软件生态;
  • AMD中长期结构性风险在于:当CSP自研ASIC日趋成熟、新增推理算力更多流向ASIC时,其必须依靠极具吸引力的价格与性能,方可持续获取增量GPU订单。

TPU、Meta与Nvidia:是真脱钩,还是砍价筹码?

近期TPU重回聚光灯:Google大力推广TPU,Anthropic大量采购,Meta被曝未来数年将下约100亿美元TPU订单,市场一度惊呼“Nvidia将被TPU取代”。

拆解数据可见冷静现实:

  • Meta今年CapEx约700亿美元,明年或达1100亿,未来六年年均或接近1600亿美元;
  • 六年100亿美元TPU订单,年均仅约16亿,占其长期CapEx约1%;
  • 该比例仍属“推高假设”,实际更低。

更关键的是:

  • Meta采购的是TPU云服务,而非大规模自建TPU机房;
  • 其招聘启事中缺乏类似Anthropic成建制招募TPU kernel engineer、compiler工程师的迹象;
  • 这笔预算大概率兼具供应商多元化保险与对Nvidia议价筹码双重目的。

因此,与其说Meta转向TPU阵营,不如说:

在训练端无法脱离Nvidia的前提下,Meta希望在推理端多备几张底牌,提升自身议价能力。

叠加TPU v8在HBM等关键配置上明显保守,而Rubin + Kyber rack在TCO上更具潜力,Meta对Nvidia的高度依赖不会因100亿美元订单改变。

HBM / 内存:从“周期股”到“收租股”

如果说GPU是AI军备竞赛的“门票”,HBM/DRAM则是本轮最扎实的结构性红利。“推理即内存”这一判断极具穿透力。

  • AI工作负载正由训练向推理延伸,推理占比持续扩大;
  • 推理对带宽极度敏感,带宽几乎直接等价于token/s;
  • 模型参数量膨胀、context length拉长,对内存容量与带宽形成双重挤压。

从H100的80GB回看,新一代GPU/ASIC内存配置已呈现“暴力美学”:

  • Nvidia Ultra Rubin:单节点配备1TB级HBM;
  • Qualcomm AI200:768GB LPDDR;
  • AMD MI400x:400GB+ HBM。

短短三年,数据中心高端内存规格实现十倍跃升。

端侧亦同步升级:手机/PC/汽车/机器人旗舰机型主流内存已由6GB升至8/12/16GB,本质是为端侧LLM预留空间。一旦端侧GenAI/LLM生态跑通,billion级终端出货将使“内存翻倍”水到渠成。

2023–2024年曾预期2027年为端侧GenAI拐点,但当前软件生态明显滞后:云端ROI更清晰、商业模式更成熟,厂商资源普遍优先倾斜云端;端侧或需7–10年长周期培育。

这意味着:

  • 中期(当前至2030年左右),HBM是最确定的“半导体长期高毛利”主线之一;
  • 长期(2030年后),若端侧真正起飞,内存厂商有望迎来第二轮量价齐升。

NAND / SSD:KV cache与向量数据库背后的隐形受益者

“内存红利”溢出的第二站是NAND/SSD。

两大驱动力明确:

  1. KV cache分层/tiering:
    • 大模型推理时,若显存与内存无法容纳全部KV cache,将溢出至高速SSD;
    • SSD成为“二级内存”,对带宽与IO要求显著提升。
  2. 向量数据库检索/indexing:
    • RAG、embedding检索等场景依赖高性能SSD支撑索引与查询;
    • 多模态与长时序数据普及,进一步放大该需求。

这也解释了为何:

  • 企业级eSSD合约价格2025年Q4才开始明显抬头,而NAND现货价格单月上涨超50%;
  • 存储厂商财报中越来越多单独强调“AI inference use cases:KV cache tiering + vector database search/indexing”。

从投资角度看,该赛道特点鲜明:

  • β值高:AI训练/推理持续增长,数据与索引必然落于存储;
  • 渗透面广:不仅覆盖AI,还延伸至云存储、数据湖、备份与冷数据归档。

但区别于HBM,NAND行业扩产纪律与价格自律性始终存疑,将决定2028年后能否维持高景气。

Agentic AI:CPU的“十年级回潮”

2025年另一被低估趋势是agentic AI带动的CPU回潮。

从CPU视角看agentic workload:

  • routing、工具调用、网络请求、外部系统交互等主要落在CPU上;
  • 对SWE-Agent/LangChain/Toolformer等主流框架做profiling显示:
    • CPU在端到端延迟中占比可达70–90%;
    • CPU能耗可能超过总能耗40%。

这也解释了为何:

  • Lisa Su在财报中明确指出,agentic AI令客户意识到“GPU每生成一个token,会触发多个CPU密集型任务”,因而正规划更大规模CPU部署;
  • Nvidia在GB200/GB300架构中提升CPU占比,AMD以多颗高核数EPYC服务一大群GPU——新硬件形态本质上是对agent workload的优化。

此事蕴含两层重要含义:

  1. AI性能比拼正从“单GPU token/s”,转向“系统级agent throughput”。CPU/GPU/NIC/存储的协同调度与micro-batching将愈发关键。
  2. CPU需求或将迎来“十年级别”温和回暖:
    • 驱动因素不再是PC升级周期,而是AI工作负载结构演化;
    • 对同时受益GPU+CPU的AMD EPYC,边际收益尤为突出;
    • 若Intel执行力提升,亦有望从中获取beta。

云端AI挤压消费电子:PC抑郁,苹果躺着赢

当AI云端疯狂抢占HBM/DRAM/NAND产能时,消费电子正默默承受成本压力:

  • 内存/存储价格上涨,PC厂商已讨论将标配从16GB/512GB回调至8GB/256GB;
  • 安卓阵营在美等市场陆续提价,或同价位明显降配。

若DRAM与NAND价格持续攀升,可能出现极端情形:内存与存储现货价格高于终端设备中的CPU甚至中低端GPU。

这带来两个结果:

  1. 消费电子厂商利润空间受挤压,AI PC、AI手机普及节奏推迟;
  2. 苹果成为本轮次生效应的最大受益者之一。

原因在于:

  • 苹果拥有DRAM/NAND多年长期锁价与专属产能;
  • 自研SoC+强供应链控制力,BOM压缩至极致;
  • 当安卓与PC厂商为成本焦头烂额、讨论“回到8GB时代”时,苹果仍可维持高配、高售价、高毛利,在高端市场持续抢夺份额。

由此看,“云端AI吞噬内存与存储”,反而成为苹果扩大市场份额的助推器。

投资视角:从产业叙事到标的篮子

整合上述逻辑,已隐含一套清晰投资框架:

  1. “利润池迁移”的中枢
    • GPU + 互联:Nvidia(NVDA)、AMD(AMD)、Broadcom(AVGO)、Marvell(MRVL);
    • AI军备竞赛主战场,估值最“拥挤”,逻辑最强、泡沫亦最厚。
  2. “memory-bound”带来的超额回报
    • HBM / DRAM:Micron(MU)、SK hynix、Samsung;
    • 逻辑最纯、周期感最弱,但需密切关注2028年后扩产节奏。
  3. AI推理溢出的存储链
    • NAND / eSSD / HDD:Western Digital、Seagate等;
    • 非最显眼主角,但在KV cache与向量数据库场景中将长期受益。
  4. 光互联与CPO
    • Coherent、Lumentum、Ciena及A股光模块供应商;
    • 对应“百万英里级光纤”,构成AI超级集群间的血管与神经。
  5. Agentic AI下的CPU回暖
    • AMD(EPYC)、Intel;
    • 偏中长期“结构性修复”,非短期交易主题,而是5–10年workload重构驱动。
  6. 消费电子中的相对赢家
    • Apple(AAPL);
    • 在“云端AI挤压消费电子”叙事下,凭供应链与品牌优势攫取份额红利。

该框架的核心价值,不在于“预测下一只十倍股”,而在于将2025年AI–半导体主线绘制成一张动态地图:谁在吞并他人利润,谁在承接溢出红利,谁被挤压,谁逆势受益。

尾声:2025只是合纵连横的第一回合

2025年半导体叙事多元交织:Nvidia/AMD/TPU与hyperscaler明争暗斗;HBM厂商由“周期股”跃升为“超高毛利收租股”;NAND厂商借KV cache与向量数据库悄然获益;CPU则在agentic AI浪潮下低调回潮。

更具戏剧性的是:云端AI繁荣正挤压PC与安卓手机生存空间,而苹果凭借供应链优势与定价权,悄然坐收渔利。这场算力军备竞赛的次生效应,极可能在2026年以意料之外的方式重塑消费电子格局。

半导体的故事早已不是单一线性演进,而是一张持续自我重构的网。从训练到推理、文本到多模态、单轮对话到复杂agentic flow,每一次AI工作负载演进,都是一次新的利润再分配。

而2025,大概只是“合纵连横”的第一回合——真正的长剧才刚开场。

【声明】内容源于网络
0
0
花街量子猫
各类跨境出海行业相关资讯
内容 632
粉丝 0
花街量子猫 各类跨境出海行业相关资讯
总阅读7.8k
粉丝0
内容632