基本面:数据中心“主宰”
2024年2月22日,英伟达披露FY2024Q4及全年财报,公司业绩超出市场预期。FY24Q4,公司收入221亿美元(同比+265%,环比+22%),高于公司此前200(±2%)亿美元的预测,且GAAP净利润122.9亿美元(同比+769%,环比+33%),Non-GAAP净利润128.4亿美元(同比+491%,环比+28%),业绩惊艳市场;进一步分业务来看,公司数据中心营收184亿美元(同比+409%,环比+27%),游戏营收29亿美元(同比+56%,环比持平),专业可视化业务营收4.63亿美元(同比+105%,环比+11%),汽车营收2.81亿美元(同比-4%,环比+8%)。FY24,公司全年收入609亿美元,同比+126%,Non-GAAP净利润323亿美元,同比+286%。
2022年10月,ChatGPT横空出世,在短短两个月的时间内,掀起了全球AI大模型(AIGC)浪潮,科技圈、资本圈蜂拥而至。科技圈,科技巨头微软、谷歌、BAT等加快、加大AI领域的部署,AI大模型初创公司如雨后春笋,OPenAI、Anthropic、Midjourney、Lifescore等不断涌现,此外,国内AI初创公司也达上百家,全球正在进行一场“百模大战”;资本圈,一边是紧盯科技巨头的资本开支,另一边则是“烧钱”为自家投资的AI初创公司续命。在此背景下,AI领域进入了高度发展赛道,而挣钱的几乎仅有英伟达——“垄断”是挣钱的必杀技,全球AI公司似乎都需要缴纳“英伟达税”。
英伟达成为本轮AI浪潮最挣钱的公司,主要得益于其在算力领域的“垄断”地位。AI的发展是围绕算力、算法和数据集三大要素的,缺一不可,打造AI大模型,既需要参数极为复杂的算法,也需要海量数据进行模型训练,但这均离不开算力支持,英伟达开发的A100、H100(核心产品)和HGX平台目前是做大模型训练的最佳选择。

资料来源:各公司的季报
AMD作为全球稀有的同时具备“CPU+GPU”设计能力的公司,推出的AI算力芯片MI300如此不堪?其实,MI300在理论上可以运行比H100更大的AI模型,MI300将CPU、GPU和内存封装在一起,晶体管数量达1460亿个,是英伟达H100的两倍,搭载的内存HBM密度也是H100的2.4倍。但是,英伟达拥有难以逾越的CUDA。
英伟达的“GPU+CUDA”宛如苹果的“手机+IOS”。CUDA是一个软件,让开发者可以对GPU进行编程和开发,并形成了一个庞大稳定的生态。CUDA于2006年推出,在推出之前,可以编程GPU的全球不足100人,现在可以编程GPU的达400万人以上。而且,英伟达的CUDA可以支持Windows、Linux和Mac OS版本。对比来看,AMD虽然于2016年推出了ROCm软件系统,但已迟于英伟达CUDA达10年之久,且ROCm仅支持Linux版本。从英伟达的H100更换到AMD的MI300,可能面临更大的时间、试错成本,这便铸就了英伟达的“垄断”属性。
英伟达凭借“GPU+CUDA”打造了自身在AI算力芯片领域的护城河,在主要竞争对手AMD尚且不太能打的背景下,英伟达股价还会继续新高吗?
资料来源:网络公开资料
英伟达H100芯片需要使用SK海力士的HBM内存,以及台积电的CosWoS封装——因为两者都属于各领域的先进工艺,价格昂贵,预备产能并不多。由于产能爬坡尚需时间,有分析师预测H100的缺货现象至少会持续到2024Q1,也有分析师认为缺货问题会延续到2024年底。正是基于此,旺盛的需求未被满足,科技巨头的云计算中心及AI大模型创业公司对H100如饥似渴,英伟达的H100直接成本价基础上“+0”出售,攫取暴利,虽然英伟达市值已经高达2万亿美元以上,但股价仍在继续创新高——未入局的投资者已从惊愕、惋惜开始迈向纠结、痛苦!
图表:全球科技巨头资本开支统计及估算(单位:百万美元)
尾声
每一场科技浪潮似乎都将经历“萌芽期-泡沫期-泡沫破灭期-稳定发展期”,本轮的AI浪潮也躲不过该规律。目前,本轮的AI浪潮正在“萌芽期-泡沫期”阶段,而AI能掀起多大的浪潮,搅起多少泡沫还是未知数。英伟达在芯片领域的市值,已傲视竞对(AMD、英特尔),可比的似乎仅有“辉煌”的苹果,目前苹果约3万亿美元的市值,30倍的动态市盈率;英伟达现约2万亿美元的市值,约75倍的动态市盈率,AI会推动英伟达超越苹果吗?2023Q4,在S23大会上,英伟达宣布拟于2024年推出H100升级版H200,H200容量翻倍,内存带宽提高1.4倍,可进一步为大模型训练降本增效,而降本增效是大模型竞争的关键,那H200的推出会成为英伟达业绩及股价的新“引擎”吗?
本文不构成投资建议,股市有风险,入市需谨慎。


