大数跨境
0
0

2023年AI服务器出货量将增长15.4%

2023年AI服务器出货量将增长15.4% 199IT互联网数据中心
2023-05-18
1
导读:AI 服务器出货量的强劲增长推动了对高带宽内存(HBM)的需求。 2022 年 HBM 前三大供应商分别是 SK 海力士、三星和美光,市场份额分别为 50%、40% 和 10%。

AI 服务器出货量的强劲增长推动了对高带宽内存(HBM)的需求。2022 年 HBM 前三大供应商分别是 SK 海力士、三星和美光,市场份额分别为 50%、40% 和 10%。此外,专为深度学习设计的高端AI GPU的规格也导致了HBM产品迭代。为准备2023下半年推出NVIDIA H100和AMD MI300,三大供应商都在计划量产HBM3产品。目前,SK 海力士是唯一量产 HBM3的供应商。随着更多客户采用 HBM3,其市场份额预计将增长至 53%。三星和美光预计将在今年年底或 2024 年初的某个时候开始量产,市场份额分别为 38% 和 9%。

2023年AI服务器出货量预计增长15.4%

NVIDIA的DM/ML AI服务器平均配备4块或8块高端显卡和2颗主流x86服务器CPU。这些服务器主要由美国顶级云服务提供商使用。分析显示,2022年高端GPGPU服务器出货量有望增长9%左右,其中约80%集中在中美8大云服务商。展望2023年,微软、Meta、百度、字节跳动将陆续推出生成式AI产品和服务,进一步拉动AI服务器出货量。预计今年人工智能服务器出货量将增长15.4%,预计2023年至2027年人工智能服务器出货量复合年增长率为12.2%。

AI 服务器刺激对DRAM、SSD 和 HBM 的需求同步增长

TrendForce 指出,AI 服务器的兴起很可能会增加对内存使用的需求。虽然一般服务器有 500-600 GB 的服务器 DRAM,但 AI 服务器需要更多,平均 1.2-1.7 TB,每个模块 64-128 GB。对于企业级SSD,由于AI服务器的高速需求,优先考虑DRAM或HBM,但SSD容量扩容的推动力尚未明显。不过在接口方面,PCIe 5.0在解决高速运算需求上更受青睐。此外,AI 服务器倾向于使用 GPGPU,而 NVIDIA A100 80 GB 配置为4个或8个时,HBM 使用量约为 320–640 GB。随着 AI 模型变得越来越复杂,对服务器 DRAM、SSD 和 HBM 的需求将同步增长。

支持199IT发展,可加入付费高端知识交流群,感谢!


199IT热门报告重点推荐,可直接点击查阅

 媒体商务合作

商务合作请联系微信号:dingli 公众号投稿邮箱:T@199it.com



获取更多数据,点击 “ 阅读原文 ”

【声明】内容源于网络
0
0
199IT互联网数据中心
199IT-互联网数据中心:发掘、分享数据价值,为您提供一个丰富的大数据内容平台!网站(199it.com)、微博(weibo.com/199it)、大数据导航(hao.199it.com),感谢您的关注。
内容 3758
粉丝 0
199IT互联网数据中心 199IT-互联网数据中心:发掘、分享数据价值,为您提供一个丰富的大数据内容平台!网站(199it.com)、微博(weibo.com/199it)、大数据导航(hao.199it.com),感谢您的关注。
总阅读2.2k
粉丝0
内容3.8k