大数跨境

英伟达:十年百倍收益,是如何炼成的?

英伟达:十年百倍收益,是如何炼成的? 汇垠澳丰资本
2024-05-11
0
本文章共2942字,预计阅读时间5-6分钟。

导读
2022年半导体进入了周期低迷阶段,个股普遍深跌50%+,而英伟达率先触底反弹,于2023年股价录得239.02%正收益,俨然成为科技圈“新贵”,比苹果公司更受资本追捧。然而,再往前追溯十年,英伟达股价已累计上涨约168倍,让众多未入局的投资人惊愕、惋惜!英伟达的百倍收益是如何炼成的?股价是否有望继续新高?考虑篇幅限制,本篇以公司分析为主线,并穿插行业故事、科普等,讲述英伟达的成就与危机。


基本面:数据中心“主宰”

2024年2月22日,英伟达披露FY2024Q4及全年财报,公司业绩超出市场预期。FY24Q4,公司收入221亿美元(同比+265%,环比+22%),高于公司此前200(±2%)亿美元的预测,且GAAP净利润122.9亿美元(同比+769%,环比+33%),Non-GAAP净利润128.4亿美元(同比+491%,环比+28%),业绩惊艳市场;进一步分业务来看,公司数据中心营收184亿美元(同比+409%,环比+27%),游戏营收29亿美元(同比+56%,环比持平),专业可视化业务营收4.63亿美元(同比+105%,环比+11%),汽车营收2.81亿美元(同比-4%,环比+8%)。FY24,公司全年收入609亿美元,同比+126%,Non-GAAP净利润323亿美元,同比+286%。

图表:英伟达总营收变化情况
资料来源:公司年报

图表:英伟达各业务营收变化情况
资料来源:公司年报

根据数据、图表分析,数据中心已俨然成为英伟达的核心业务及主要增长驱动力。以下本篇将重点叙述英伟达的数据中心业务。

核心驱动力:GPU+CUDA

2022年10月,ChatGPT横空出世,在短短两个月的时间内,掀起了全球AI大模型(AIGC)浪潮,科技圈、资本圈蜂拥而至。科技圈,科技巨头微软、谷歌、BAT等加快、加大AI领域的部署,AI大模型初创公司如雨后春笋,OPenAI、Anthropic、Midjourney、Lifescore等不断涌现,此外,国内AI初创公司也达上百家,全球正在进行一场“百模大战”;资本圈,一边是紧盯科技巨头的资本开支,另一边则是“烧钱”为自家投资的AI初创公司续命。在此背景下,AI领域进入了高度发展赛道,而挣钱的几乎仅有英伟达——“垄断”是挣钱的必杀技,全球AI公司似乎都需要缴纳“英伟达税”。

英伟达成为本轮AI浪潮最挣钱的公司,主要得益于其在算力领域的“垄断”地位。AI的发展是围绕算力、算法和数据集三大要素的,缺一不可,打造AI大模型,既需要参数极为复杂的算法,也需要海量数据进行模型训练,但这均离不开算力支持,英伟达开发的A100、H100(核心产品)和HGX平台目前是做大模型训练的最佳选择。

不考虑谷歌(已自研TPU)等自研AI算力芯片,AI算力芯片的玩家其实很少,主要包括英伟达和AMD,而AMD的核心产品MI300市场反馈并不及预期,从出货量及市占率(见下图)可见一斑,英伟达的AI芯片大约垄断了90%+的AI芯片市场。

图表:英伟达和AMD数据中心收入对比

资料来源:各公司的季报

图表:英伟达和AMD的AI芯片出货量估算(单位:个)
资料来源:各公司的季报、Tom’s Hardware,Trendforce

AMD作为全球稀有的同时具备“CPU+GPU”设计能力的公司,推出的AI算力芯片MI300如此不堪?其实,MI300在理论上可以运行比H100更大的AI模型,MI300将CPU、GPU和内存封装在一起,晶体管数量达1460亿个,是英伟达H100的两倍,搭载的内存HBM密度也是H100的2.4倍。但是,英伟达拥有难以逾越的CUDA。

英伟达的“GPU+CUDA”宛如苹果的“手机+IOS”。CUDA是一个软件,让开发者可以对GPU进行编程和开发,并形成了一个庞大稳定的生态。CUDA于2006年推出,在推出之前,可以编程GPU的全球不足100人,现在可以编程GPU的达400万人以上。而且,英伟达的CUDA可以支持Windows、Linux和Mac OS版本。对比来看,AMD虽然于2016年推出了ROCm软件系统,但已迟于英伟达CUDA达10年之久,且ROCm仅支持Linux版本。从英伟达的H100更换到AMD的MI300,可能面临更大的时间、试错成本,这便铸就了英伟达的“垄断”属性。

英伟达凭借“GPU+CUDA”打造了自身在AI算力芯片领域的护城河,在主要竞争对手AMD尚且不太能打的背景下,英伟达股价还会继续新高吗?


发展瓶颈:产能限制
2024年开年以来,英伟达股价继续创新高,截至5月3日收盘,累计涨幅达84%+,期间最高涨幅更是达102%,这源于下游大量未被满足的需求——H100二手市场价格暴涨达4-5万美元(首发价格约3.3万美元)。供给端的紧缺,成为英伟达的发展瓶颈。英伟达是一家Fabless模式的芯片设计公司,产能主要受限于海力士和台积电。

图表:H100内部结构

资料来源:网络公开资料


英伟达H100芯片需要使用SK海力士的HBM内存,以及台积电的CosWoS封装——因为两者都属于各领域的先进工艺,价格昂贵,预备产能并不多。由于产能爬坡尚需时间,有分析师预测H100的缺货现象至少会持续到2024Q1,也有分析师认为缺货问题会延续到2024年底。正是基于此,旺盛的需求未被满足,科技巨头的云计算中心及AI大模型创业公司对H100如饥似渴,英伟达的H100直接成本价基础上“+0”出售,攫取暴利,虽然英伟达市值已经高达2万亿美元以上,但股价仍在继续创新高——未入局的投资者已从惊愕、惋惜开始迈向纠结、痛苦!

产能约束着这家Fabless模式的英伟达,若产能被满足,英伟达的盈利数据将进一步登上高峰。虽然“SK海力士HBM+台积电CosWoS封装”是当下英伟达最好的选择,但是英伟达也并不是没有Plan B。在HBM领域,英伟达还可以备选合作三星、美光;在先进封装领域,也可以备选合作英特尔的EMIB封装,这就决定了英伟达在这场AI浪潮的“C位”。

增长危机:客户自研芯片
当竞争对手(AMD)、供应商(SK海力士、台积电)等尚不能成为英伟达的危机,英伟达就可以“躺赢”吗?英伟达真正的危机其实来自其大客户。

AI算力芯片主要应用在科技巨头的云计算数据中心及旗下或AI大模型初创公司(如OPenAI)的大模型训练、推理,AI算力成本高昂的背景下,决定了能为AI算力芯片买单的客户相当集中,主要集中在微软、谷歌、亚马逊AWS和BAT等巨头。

图表:全球科技巨头资本开支统计及估算(单位:百万美元)

资料来源:各公司季报,Bloomberg

以现在英伟达H100的出货价格计算,各大客户们要缴纳的“英伟达税”过于高昂,缺乏性价比。此外,英伟达的GPU最初是为图像处理设计的,并非AI算力专用芯片,适用在大模型训练、推理上,存在效能利用率较低的问题,对于具备强大技术、人才储备的科技巨头来说,自研AI算力芯片可能成为一个更好的选择。谷歌早已开始自研TPU,其自研的TPU在执行模型推理任务方面比英伟达的H100表现更优,但是在大模型训练方面H100的性能仍更突出;AI大模型初创公司OPenAI,因其强大的ChatGTP对算力的高需求,为降本也拟自研算力芯片······英伟达的核心客户们其实均有实力自研算力芯片,这便是英伟达的致命增长危机。未来英伟达可能真的只能通过降价,让合作英伟达比自研芯片更具性价比才能稳住大客户。当然,以H100现在的价格来说,英伟达可操作的降价空间非常大!

尾声

每一场科技浪潮似乎都将经历“萌芽期-泡沫期-泡沫破灭期-稳定发展期”,本轮的AI浪潮也躲不过该规律。目前,本轮的AI浪潮正在“萌芽期-泡沫期”阶段,而AI能掀起多大的浪潮,搅起多少泡沫还是未知数。英伟达在芯片领域的市值,已傲视竞对(AMD、英特尔),可比的似乎仅有“辉煌”的苹果,目前苹果约3万亿美元的市值,30倍的动态市盈率;英伟达现约2万亿美元的市值,约75倍的动态市盈率,AI会推动英伟达超越苹果吗?2023Q4,在S23大会上,英伟达宣布拟于2024年推出H100升级版H200,H200容量翻倍,内存带宽提高1.4倍,可进一步为大模型训练降本增效,而降本增效是大模型竞争的关键,那H200的推出会成为英伟达业绩及股价的新“引擎”吗?

本文不构成投资建议,股市有风险,入市需谨慎。



【声明】内容源于网络
0
0
汇垠澳丰资本
内容 0
粉丝 0
汇垠澳丰资本
总阅读0
粉丝0
内容0