大数跨境
0
0

AI高分红报告,AI服务器产业链跟踪:联想集团、浪潮信息、工业富联……(2025年4月)

AI高分红报告,AI服务器产业链跟踪:联想集团、浪潮信息、工业富联……(2025年4月) 并购优塾产业链研究
2025-04-21
0
导读:无人问津处,坐看云起时
【公告】近期将举办线下并购研讨会,招募授课讲师,需有丰富的上市公司并购案例实操经验,能分享深度案例,能剖析并购架构及架构演变过程。如果您周围有符合相关条件的人士,欢迎推荐给我们,联系微信:youshudsj

 

AI服务器,是专为人工智能应用设计的高性能计算机设备,AI服务器通过异构设计满足高性能并行计算需求,以GPU为核心;


相对应的,通用服务器,以多核CPU支撑广泛业务场景,两者在硬件、算力、应用和价值量上差异显著。

图:AI服务器

来源:戴尔

 

李飞飞领衔的斯坦福大学人工智能研究所近日发布了2025年人工智能指数报告》,报告指出中美顶级AI大模型性能差距已经由2023年的17.5%大幅缩至0.3%,接近抹平。


报告显示,2024年重要大模型(Notable Models)中,美国入选40个,中国15个。其中,谷歌、OpenAI入选7个并列居首,阿里入选6个,按照模型贡献度位列全球第三。


在业内顶级专家评选出的32项“2024年AI领域重要发布”中,中国的阿里Qwen2、Qwen2.5及DeepSeek-V3三大发布上榜。  


 图:中美 AI差距

来源:李飞飞团队

 

JP摩根预计台积电2025Q2营收环比增长5 - 8%,这得益于N4/N5和N3强劲的需求、部分旧制程节点的紧急补货订单(在90天关税暂停到期前),以及先进封装业务的持续增长。台积电可能会重申其数据中心人工智能业务长期增长预期(到2029年复合年增长率为40%左右)

 

 图:台积电月度收入情况

来源:雅虎

 

从服务器行业龙头企业的情况看,收入和利润增速均较快,其中联想集团的利润增速更为显著。

 

联想集团——FY2025前三季度公司实现营收520.93亿美元,同比+21.1%;实现净利润12.95亿美元,同比+69.7%。


(本报告全文详见https://mvzxk.xetsl.com/s/2iNIZ6,加微bgys2015获取阅读权限)

 

浪潮信息——2024年实现营收1147.67亿元,同比增长74.24%;实现归母净利润22.92亿元,同比增长28.55%。

 

工业富联——2025Q1预计实现营收1590 亿元-1610 亿元(YOY +34.0%-35.6%);预计实现归母净利润52亿元-53亿元(YOY  +24.4%-26.8%)。

 

AI服务器行业的进化,围绕更高运行效率且更低成本而发展:

 

一、基础架构探索阶段(1940s-1980s)——1960年代传统服务器采用单一CPU架构,算力密度不足1GFLOPS,仅能处理简单逻辑推理任务,内存带宽<10GB/s,数据吞吐效率低下。

 

二、专用化起步阶段(1990s-2000s)——关键突破来自于1999年NVIDIA推出首款GPU(GeForce 256),浮点算力突破1TFLOPS,并行计算效率较CPU提升百倍,支持OpenGL等图形接口复用为AI计算。

 

2006年谷歌MapReduce框架实现千节点集群训练,单机显存容量从MB级跃升至GB级(如NVIDIA Tesla系列显存达4GB),数据并行处理效率提升50倍。

 

三、异构计算崛起阶段(2010-2018年)这一阶段通过CPU+GPU架构快速提升服务器性能。2012年NVIDIA DGX-1集成8颗Tesla V100 GPU,单机算力达960TFLOPS;2016年谷歌TPUv1实现矩阵运算专用加速,训练ResNet-50模型时间从1周缩短至1天。

 

同时内部通信互联也得到跃迁2016年NVLink技术将GPU间带宽提升至300GB/s(较PCIe 3.0快5倍),2017年HBM2显存使带宽达1TB/s,LSTM模型训练吞吐量提升3倍。

 

四、深度学习爆发阶段(2018-至今——2020年冷板式液冷商用化,单机柜功耗突破198kW(风冷极限为30kW),PUE从1.6降至1.1,H100集群训练GPT-3能耗降低40%。

 

同时显存大幅扩容A100/H100 GPU显存从32GB(V100)跃升至80GB HBM3,支持千亿参数模型单卡推理,DeepSeek-R1推理延迟从900ms压缩至300ms。

 

2024年后实现全栈国产化昇腾910芯片实现300PFLOPS算力密度,华为CloudMatrix 384超节点国产化率超95%,NVLink替代技术CXL 3.0带宽达64GT/s。

 

AI服务器产业链包括:

 

图:AI服务器产业链

来源:东北证券

 

上游——核心组件包括:CPU、GPU、存储芯片、固态硬盘(SSD)、内存等。基础硬件:PCB、电源模块、散热模组(液冷技术)、光模块其他部件:被动元器件(如电容、电阻)、机箱结构件等。

 

其中,关键零部件是GPU,占到总服务器成本的50%~83%,具体视AI服务器的用途而定。随着AI需求从训练端转向推理端,ASIC的需求增速相对更快,代表企业为:北美CSPs业者(如AWS、Meta等)、国内的阿里巴巴、百度、华为等。

   

图:ASIC芯片服务器增速预测

来源:Trendforce

 

中游——服务器制造商,分为ODM厂商和品牌商。其中ODM厂商主要包括工业富联、广达、英业达、纬创等;品牌商主要包括戴尔(Dell)、HPE、浪潮信息、联想等

 

其中,中游ODM与品牌厂竞争与共存。上游芯片厂商(如英伟达)通过生态合作绑定ODM厂商,使得ODM在定制化需求中份额提升。根据 Omdia 数据,2016-2022 年,白牌服务器占全球服务器市场出货量比重从 21.7%提升至 37.6%

 

 图:全球服务器市场 ODM占比

来源:Omdia

 

下游——互联网及云计算企业、电信运营商、政府部门、金融医疗制造业等。其中,互联网及云计算企业是主要采购商,代表公司如微软、谷歌、亚马逊Meta、字节跳动、阿里、腾讯等。

 

25年开始存在采购需求从CSP厂商往其他客户发展的趋势。根据英伟达披露数据,FY24Q2-FY24Q3,英伟达的数据中心收入中云服务提供商(CSP)和其他客户的占比大致 1:1;而从 FY25Q1 开始,CSP 的收入占比下降至约 45%。

 

图:AI服务器主要采购商

来源:英伟达

 

从产业链上的参与者近期的增长预期来看:

   

图:一致性预测(联想集团的货币单位为亿美元)

来源:Choice,并购优塾

 



—— 研讨会 ——



2025年5月17-18日在上海举办《 降本增效系统化实务-顶层设计·价值链重构·标杆案例深度解析》研讨会。本次研讨会深度融合多行业标杆企业实战经验,拥有完善系统架构,从战略规划层、战术执行层到具体操作层实现三级贯通,并配备实用工具

注:报名咨询,可添加客服:bgys2015

2025年6月20-22日在上海举办《 并购全流程实战、交易架构搭建、资本交易税收案例分享 》主题研讨会将聚焦并购全流程实战,深度解析交易架构搭建、定价与估值逻辑、税务优化方案及风险识别技巧,通过大量案例剖析揭示并购失败教训与成功经验,为企业提供兼具理论深度与实操价值的解决方案。
图片
注:报名咨询,可添加客服:bgys2015

【引用资料】本报告写作中参考了以下材料,特此鸣谢。[1]





(一)




AI服务器的基本原理是采用CPU+GPUCPU+FPGA/ASIC/NPU等异构计算架构,通过高性能硬件加速器的并行处理能力(如多块GPU),满足大规模数据计算和复杂AI模型训练与推理的高算力需求。

 

AI服务器按照用途可分为训练用服务器、推理用服务器,两者的核心功能不同。训练用服务器的核心功能为模型参数优化与迭代,推理用服务器则要求实时响应用户请求。因此导致配置、存储和网络、供电和散热等性能指标均有所不同。

 

图:AI训练及推理要求对比

来源:国金证券

 

1)算力

 

训练服务器——FP32算力达134TFLOPS/GPU(B200),整机算力超1ExaFLOPS。

推理服务器——侧重INT8算力,典型配置提供200TOPS算力(如NVIDIA L4)。

 

2)内存配置:

 

训练服务器——配备HBM3内存(如H200的141GB HBM3e),带宽4.8TB/s。

推理服务器——使用GDDR6显存+大容量DRAM(如2TB DDR5)。

 

3)能效比

 

训练服务器——能效比约30GFLOPS/W(H100)。

推理服务器——能效比可达200GFLOPS/W(定制ASIC芯片)。

 

从技术上要求上来看,训练用服务器>>推理要求。


训练端AI服务器芯片被英伟达牢牢掌握,对于国内厂商来说,推理需求的提升利于国产GPU/ASIC等芯片的发展,其中代表为华为昇腾910、寒武纪思元370、壁仞科技BR100、燧原科技云燧T20/T21、海光信息深算DCU系列等。

 

图:国内主要GPU厂商性能和英伟达对比

来源:广发证券

 

当下AI服务器内部处于训练需求向推理需求发展阶段,推理需求增长来自于推理价格下降+应用需求快速提升。

 

达到GPT-3.5水平的推理成本在两年间下降280倍,硬件成本以每年30%的速度递减,能效年提升率达40%。同时,开源模型性能快速增长,部分基准测试中与闭源模型的差距从8%缩至1.7%。


特别是小模型性能显著提升(利于端侧产品应用),参数AI下降142倍。2022年,在大规模多任务语言理解(MMLU)基准测试中,得分超60%的小模型是 PaLM,参数量为5400亿。到了2024年,微软Phi-3-mini仅用38亿参数,就取得了同样的实力,两年多的时间里模型参数减少了142倍。

 

图:推理价格持续下降

来源:新智元

 

从应用层面来看,AI AGENT大幅提升了算力需求。Manus(一个热门AI工具)为例,它可以将一个复杂任务(如计划一次旅行)拆分成“感知”(了解需求)、“思考”(做计划)和“行动”(执行步骤)三个部分。


它可能用Claude模型来规划,用通义千问来执行。这会导致服务器需要更多并行算力(同时处理多个任务),一次调用成本约2美元,远高于简单聊天机器人的成本(约0.01美元/次)。

 

图:推理算力需求逻辑

来源:中金公司

 

成本方面,AI服务器的硬件成本显著高于通用服务器,以较为常用的配置为例通用服务器(2块Intel至强Gold 6434H)成本约2万美元,AI服务器(2块Intel至强Platinum 8468V + 8块英伟达H系列GPU)成本约15万美元

 

AI服务器之所以价格较高,体现在CPU+GPU芯片成本占总成本的50%-83%,远超通用服务器的32%


AI服务器内部成本构成差异同样较大,同样是受到GPU的影响,若推理服务器采用4卡GPU配置,GPU成本占比可能降至50%左右(约7万美元)

 

 图:各类型服务器成本结构

来源:IDC

 

服务器的制造流程,按照集成度从低到高,可以分为 Level 1-Level 12 共 12 个等级,更高的集成度通常意味着更高的价值量。


其中,低等级的 Level 1 指零部件制——包括未涂漆的零部件和一体成型的零部件;而高等级的 Level 12 指多机架等级的集成,包括完整的软件和网络功能测试、验证和优化。目前主流的服务器 ODM 企业一般提供从 Level 1-Level 10(完整服务器)的制造能力

   

图:不同服务器等级产品要求

来源:财通证券

 

柜级解决方案(Level 11 及以上)有望成为未来 AI 服务器出货主流形式之一。相比传统的 8-GPU/Node 方案,机柜级 AI 服务器的优势包括:1)基于 NVLink 的Scale-Up,单个计算节点算力更强、存储空间更大,可以承担的计算任务更多;2)系统级优化,降低 TCO 和能耗水平;3)提供服务器、存储、网络和软件的一站式解决方案,降低客户采购成本和建设周期。

 

参考IDC数据,AI对性能和定制化要求更高AI服务器厂商的利润率15%-20%,通用服务器仅5%-8%(本报告全文详见https://mvzxk.xetsl.com/s/2iNIZ6,加微bgys2015获取阅读权限)

 

中游服务器厂商议价能力有限,上下游均较为强势,核心竞争力体现在成本控制能力上。从服务器产业链来看:1)上游:服务器的上游为处理器和零部件厂商,由 Intel 或 Nvidia等具有极强技术壁垒的厂商主导,技术壁垒决定了其具有较高议价能力。2)下游:服务器下游主要是互联网、运营商、政府、金融等,互联网厂商占据主要份额,具有头部客户(以 BBAT 为主)集中度高、采购份额较大、自主研发实力强、定制化需求大的特点,同样具有较高的议价权。





(二)




首先,从收入体量和业务结构方面来看:

 

2024年收入体量来看,工业富联(6091亿元)>联想集团(3744亿元)>浪潮信息(1147亿元);

 

联想集团——1984年创立以来,经历从PC制造龙头(通过收购IBM PC业务成为全球领导者)到多元化转型(拓展服务器及移动业务),再到智能化变革(2019年提出3S战略)及AI驱动发展(2023年聚焦AI PC和全栈智能生态)当下形成“端(PC/手机)-边(边缘计算)-云(服务器)-网(5G)-智(AI)”全栈能力

 

24年收入构成来看,智能设备业务集团(IDG)占比73%、基础设施方案业务集团(ISG)21%、方案服务业务集团(SSG)12%。

 

其中,智能设备业务集团主要包含个人电脑、平板、智能手机及其他智能设备;基础设施方案业务集团主要包括服务器、存储、网络等IT基础设施解决方案;方案服务业务集团主要包括IT支持、智能运维、行业智能解决方案及设备即服务


整体来看,PC收入占比逐年下降(2024年非PC业务占46%),智能化转型成效明显。(本报告全文详见https://mvzxk.xetsl.com/s/2iNIZ6,加微bgys2015获取阅读权限)

 

图:联想集团收入构成

来源:长江证券

 

浪潮信息——传统主业为普通服务器,2013~2022年国内市占率居首。2017年布局AI服务器,2023年AI服务器出货量全球第二、中国居首2024年收入构成来看99%以上为服务器,民生证券预测2024收入中约52%来自于AI服务器。

 

图:收入构成(单位:亿元)

来源:Choice,并购优塾

 

工业富联——通过绑定英伟达成为全球服务器ODM龙头(市场份额41.8%),北美四大云服务商(CSP)核心供应商

 

2023年收入构成来看,通信及移动网络设备占比58.74%,云计算占比40.91%、工业互联网占比0.35%。


其中,通信及移动网络设备包括:网络设备(如交换机、路由器)、终端精密结构件(如智能手机部件)、5G设备等;云计算主要包括传统服务器和AI服务器,AI服务器占比约50%;工业互联网主要为智能制造解决方案。

 

图:收入构成(单位:亿元)

来源:Choice,并购优塾





(三)




图:单季度利润同比增速

来源:Choice,并购优塾

 

联想集团(北京市)——FY2025前三季度公司实现营收520.93亿美元,同比+21.1%;实现净利润12.95亿美元,同比+69.7%

 

单季度利润同环比增长较快,主要由于单季度获得2.82亿美金的一次性所得税抵免

 

按业务看,FY25Q3智能设备业务集团、基础设施方案业务集团、方案服务业务集团分别实现收入137.84、39.38、22.57亿美元,分别同比+11.5%、+59.2%、+11.7%,其中基础设施方案业务集团(ISG)实现经营溢利100.2万美元,首次单季度扭亏为盈,主要受益于:1)云厂商和中小企业客户需求强劲,AI服务器业务快速增长;2)服务器相关研发费用摊销逐季度下降。

 

图:单季度利润及同环比增速

来源:Choice,并购优塾

 

浪潮信息(山东省,济南市)——2024年实现营收1147.67亿元,同比增长74.24%;实现归母净利润22.92亿元,同比增长28.55%

 

24Q4单季度毛利率恢复至7.3%,较24Q3提升1.6pcts,24年全年整体毛利率为6.8%,较23年下滑明显主要系互联网客户占比提升所致。24Q4开始国产AI芯片预计进入快速成长阶段,后续随着芯片供应多元化,浪潮毛利率有望实现稳中有升

 

此外,2024年末存货达到406亿元,较2023年末增加约215亿元,存货主要为高端芯片等元件,以及部分待发货服务器,为后续季度增长奠定基础

   

图:单季度利润及同环比增速

来源:Choice,并购优塾

 

工业富联(广东省,深圳市)——2025Q1预计实现营收1590 亿元-1610 亿元(YOY +34.0%-35.6%);预计实现归母净利润52亿元-53亿元(YOY +24.4%-26.8%)

 

2025Q1以产品类别来看,AI 服务器、通用服务器营收同比皆超过50%。以客户类别来看,云服务商服务器营业收入同比增长超过60%,品牌客户服务器营业收入同比增长超过30%。

 

图:单季度利润及同环比增速

来源:Choice,并购优塾





(四)


 

图:现金流、固定资产投资(联想集团货币单位为:亿美元)

来源:Choice,并购优塾

 

浪潮信息现金流较差,主要因为:1)2021、2023和2024年为应对供应链不确定性,大幅增加原材料备货;2)22年则是由于传统服务器行业下行期,导致应收账款增加较快影响。

 

三家可比公司中联想集团现金流较好,主要因为:1)优化业务结构(提升SSG服务收入占比至12%)、2)强化供应链管理(全球30+生产基地协同)3)AI驱动的产品升级(AIPC占比预计2025年达60%)(本报告全文详见https://mvzxk.xetsl.com/s/2iNIZ6,加微bgys2015获取阅读权限)

 

工业富联资本开支远大于折旧摊销,主要用于产能扩建产能(如AI服务器扩产)和研发(如800G交换机、液冷技术)。参考4月14日新闻,NVIDIA与富士康在休斯顿建厂,未来预计资本开支维持较大。





(五)



 

图:近十个季度ROE趋势(%)

来源:Choice,并购优塾

   

图:杜邦分析

来源:Choice,并购优塾

   

图:综合毛利率(%)

来源:Choice,并购优塾

   

图:净利率(%)

来源:Choice,并购优塾

 

从净资产收益率来看,联想集团>工业富联>浪潮信息。

 

联想集团毛利率较高,主要受到SSG(方案服务)业务影响,经营利润率长期稳定在20%-23%,贡献公司近四成经营利润。

 

联想集团净利率相对不高,主要因为ISG业务(基础设施方案,包含服务器)的亏损以及费用率影响。预计随着AI产品的持续放量,净利率会有所提升,长江证券预计有望从当前1.9%逐步提升至2.3%-2.6%。

 

浪潮信息24年毛利率下滑明显,主要受客户结构影响,互联网客户占比提升(2024年算力需求集中于互联网行业),此类客户毛利率较低

   

图:产业链对比

来源:Choice,并购优塾

 

从盈利能力来看,下游的互联网龙头/运营商相对较好,主要因为具有规模效应带来的龙头优势。

 

从成长性来看,上游零部件企业普遍较好,其次表现较好的是中游环节,均主要受到AI基建的带动。

 

从生意质地来看,AI服务器制造商处于价值链微笑曲线的底部,毛利率和净利率普遍不高。但由于规模较大,同时能够更好地导入自家的其他产品,如液冷模块等,具有产业链协同、强运营能力的企业具有不可替代性,存在强者恒强的趋势。

 




(六)





AI服务器的核心竞争要素在于:

 

1)需要参考的指标为:内存容量与速度、储存扩展性、网络带宽、理论算效(FLOPS/W)、实测负载性能、GPU互联能力、能效比、兼容性等指标。

 

2)选择以上指标产品之前,先要区分应用场景,到底是侧重训练还是推理

 

3)得“产品+大客户”得增长;

 

4)得“大客户+低成本”得利润


这个行业的关键竞争要素,以及各大玩家之间的经营差异,包括以下几点……………………………

以上,仅为本报告部分内容,可联系工作人员咨询开通报告库权限,获取本报告全文,微信:bgys2015

行业增长逻辑看哪些要素?行业里有哪些玩家参与竞争?大家竞争的关键点该看什么?哪些玩家的业务布局更可圈可点、值得我们学习?

关于以上这几个核心内容,后文还有大约6000字,以及十多张图表,详见《产业链报告库》。

也可按照下图,点击阅读原文,查看报告库

【声明】内容源于网络
0
0
并购优塾产业链研究
并购优塾,产业链研究者,服务于补链强链、科技创新,主要面向产业园区、产投机构、银行、地方政府等机构人群。创始于2016年。
内容 1831
粉丝 0
并购优塾产业链研究 并购优塾,产业链研究者,服务于补链强链、科技创新,主要面向产业园区、产投机构、银行、地方政府等机构人群。创始于2016年。
总阅读155
粉丝0
内容1.8k