大数跨境
0
0

英伟达业绩电话会完整内容

英伟达业绩电话会完整内容 环球科技研究
2025-11-20
2


开场发言

Operator (接线员) 下午好。我是 Sarah,今天的会议由我主持。此时此刻,我欢迎大家参加 NVIDIA 第三季度财报电话会议。所有线路均已静音,以防止背景噪音。在演讲者的发言之后,我们将进行问答环节。(操作说明)谢谢。Toshiya Hari,会议现在交给你。


Toshiya Hari (投资者关系副总裁) 谢谢。大家下午好,欢迎参加 NVIDIA 2026 财年第三季度电话会议。今天与我一同出席的有 NVIDIA 总裁兼首席执行官 Jensen Huang,以及执行副总裁兼首席财务官 Colette Kress。我想提醒大家,本次电话会议正在 NVIDIA 投资者关系网站上进行网络直播。网络直播的回放将保留至讨论 2026 财年第四季度财务业绩的电话会议为止。


今天电话会议的内容属于 NVIDIA 的财产。未经我们需要事先书面同意,不得复制或转录。在本次电话会议中,我们可能会基于当前的预期做出前瞻性声明。这些声明受到许多重大风险和不确定性的影响,我们的实际结果可能与之有重大差异。


关于可能影响我们未来财务业绩和业务的因素的讨论,请参阅今天的财报披露、我们要提交给证券交易委员会的最新 10-K 和 10-Q 表格以及 8-K 表格报告。我们的所有声明均基于截至今天(2025 年 11 月 19 日)我们目前可获得的信息。除法律要求外,我们不承担更新任何此类声明的义务。在本次电话会议中,我们将讨论非 GAAP 财务指标。


您可以在我们需要发布在网站上的 CFO 评论中找到这些非 GAAP 财务指标与 GAAP 财务指标的调节表。现在,我将把电话转给 Colette。


Colette Kress (首席财务官) 谢谢 Toshiya。我们又交付了一个出色的季度,营收达到 570 亿美元,同比增长 62%,环比增长达到创纪录的 100 亿美元,增幅为 22%。


我们的客户继续向三大平台转变倾斜,推动了加速计算、强大的 AI 模型和代理应用(Agentic Applications)的指数级增长。然而,我们就这些将影响各行各业工作的转型仍处于早期阶段。从今年年初到 2026 年底,我们目前对 Blackwell 和 Rubin 的营收可见度已达 5000 亿美元(0.5 trillion)。通过执行我们的年度产品节奏并通过全栈设计扩大我们的性能领先优势,我们相信 NVIDIA 将是这十年末我们预估的每年 3 万亿至 4 万亿美元 AI 基础设施建设的首选。


AI 基础设施的需求继续超出我们的预期。云端已售罄,我们的 GPU 安装基数(包括新一代和上一代,涵盖 Blackwell、Hopper 和 Ampere)都在满负荷运行。第三季度数据中心营收达到创纪录的 510 亿美元,同比增长 66%,以我们的体量来看这是一个重大成就。计算业务同比增长 56%,主要由 GB300 的爬坡驱动,而网络业务增长超过一倍,这得益于 NVLink 扩展(Scale-up)的开始以及 Spectrum X 以太网和 Quantum X InfiniBand 的强劲双位数增长。


全球超大规模企业(Hyperscalers),作为一个万亿美元级的产业,正在将搜索、推荐和内容理解从经典的机器学习转变为生成式 AI。NVIDIA CUDA 在这两方面都表现出色,是这一转型的理想平台,推动了数千亿美元的基础设施投资。在 Meta,AI 推荐系统正在提供更高质量和更相关的内容,导致用户在 Facebook 和 Threads 等应用上的花费时间增加。分析师对 2026 年顶级云服务提供商(CSP)和超大规模企业的总资本支出(CapEx)预期持续增加,目前约为 6000 亿美元,比年初高出 2000 多亿美元。


我们看到当前超大规模工作负载向加速计算和生成式 AI 的转型贡献了我们大约一半的长期机会。另一个增长支柱是由基础模型构建者驱动的计算跨度持续增加,如 Anthropic、Mistral、OpenAI、Reflection、Safe Superintelligence、Thinking Machines Lab 和 XAI。所有这些公司都在积极扩展计算规模以扩展智能。预训练、后训练和推理这三大扩展定律依然有效。事实上,我们看到一个积极的良性循环正在出现,即三大扩展定律和计算能力的获取正在产生更好的智能,进而增加采用率和利润。


OpenAI 最近分享称,其周用户群已增长至 8 亿。企业客户已增加到 100 万。且他们的毛利率是健康的。而 Anthropic 最近报告称,截至上个月,其年化营收运行率已达到 70 亿美元,而年初仅为 10 亿美元。


我们还见证了代理 AI(Agentic AI)在各行各业和任务中的激增。Cursor、Anthropic、OpenEvidence、Epic 和 Abridge 等公司的用户增长激增,因为它们为现有的劳动力提供了强大的助力,为程序员和医疗保健专业人员提供了无可置疑的投资回报率(ROI)。世界上最重要的企业软件平台,如 ServiceNow、CrowdStrike 和 SAP,正在集成 NVIDIA 的加速计算和 AI 堆栈。我们的新合作伙伴 Palantir 首次利用 NVIDIA CUDA-X 库和 AI 模型为其广受欢迎的 Ontology 平台提供超强动力。


此前,像大多数企业软件平台一样,Ontology 仅在 CPU 上运行。Lowe's 正在利用该平台建立供应链敏捷性,降低成本并提高客户满意度。企业广泛利用 AI 来提高生产力、提高效率并降低成本。RBC 正在利用代理 AI 显著提高分析师的生产力,将报告生成时间从数小时缩短到数分钟。


AI 和数字孪生正在帮助联合利华(Unilever)将内容创作速度提高 2 倍,并将成本降低 50%。Salesforce 的工程团队在采用 Cursor 后,新代码开发的生产力至少提高了 30%。在过去的这个季度,我们宣布了总计 500 万个 GPU 的 AI 工厂和基础设施项目。这种需求涵盖了所有市场:CSP、主权国家、现代构建者、企业和超级计算中心,并包括多个具有里程碑意义的建设项目。


XAI 的 Colossus II 是世界上第一个吉瓦级(Gigawatt)数据中心;礼来(Lilly)用于药物发现的 AI 工厂是制药行业最强大的数据中心。就在今天,AWS 和 Humane 扩大了合作伙伴关系,包括部署多达 15 万个 AI 加速器,其中包含我们的 GB300。XAI 和 Humane 也宣布了一项合作伙伴关系,双方将联合开发一个世界级的 GPU 数据中心网络,以旗舰的 500 兆瓦设施为核心。Blackwell 在第三季度获得了进一步的动力,GB300 超过了 GB200,贡献了大约三分之二的 Blackwell 总收入。


向 GB300 的过渡是无缝的,已向主要云服务提供商、超大规模企业和 GPU 云进行了生产出货,并已在推动它们的增长。Hopper 平台在其推出后的第 13 个季度,在 Q3 录得约 20 亿美元的收入。H20 的销售额约为 5000 万美元。由于地缘政治问题和中国市场日益激烈的竞争,本季度并未出现大规模采购订单。


虽然我们对目前无法向中国运送更具竞争力的数据中心计算产品感到失望,但我们致力于继续与美国和中国政府接触,并将继续倡导美国在世界各地的竞争能力。为了建立 AI 计算的可持续领导地位,美国必须赢得每一位开发者的支持,并成为包括中国在内的每个商业企业的首选平台。Rubin 平台有望在 2026 年下半年开始爬坡。由七颗芯片驱动的 Vera Rubin 平台将再次相对于 Blackwell 提供 X 倍的性能提升。


我们已经从供应链合作伙伴那里收到了硅片,并且很高兴地报告,世界各地的 NVIDIA 团队正在完美地执行启动工作。Rubin 是我们的第三代机架级系统,在保持与 Grace Blackwell 兼容的同时,大幅重新定义了可制造性。我们的供应链数据中心生态系统和云合作伙伴现已掌握了 NVIDIA 机架架构的构建到安装流程。我们的生态系统将为 Rubin 的快速爬坡做好准备。


我们年度 X 倍的性能飞跃提高了每美元的性能,同时降低了我们客户的计算成本。NVIDIA CUDA GPU 的长使用寿命相对于其他加速器具有显著的 TCO 优势。CUDA 的兼容性和我们庞大的安装基数将 NVIDIA 系统的寿命延长到了远超其原始预计使用寿命的时间。二十多年来,我们一直在优化 CUDA 生态系统,改进现有工作负载,加速新工作负载,并在每次软件发布时提高吞吐量。


大多数没有 CUDA 和 NVIDIA 经过时间考验且通用的架构的加速器,随着模型技术的发展,在几年内就会过时。多亏了 CUDA,我们六年前出货的 A100 GPU 今天仍在全负荷运行,并由大幅改进的软件堆栈提供支持。在过去的 25 年里,我们已经从一家游戏 GPU 公司发展成为现在的 AI 数据中心基础设施公司。我们在 CPU、GPU、网络和软件方面的创新能力,以及最终降低每个 Token 成本的能力,在整个行业中是无与伦比的。


我们的网络业务专为 AI 打造,现已成为世界上最大的网络业务,创造了 82 亿美元的收入,同比增长 162%,NVLink、InfiniBand 和 Spectrum X 以太网均对增长做出了贡献。我们在数据中心网络方面正在取胜,因为大多数 AI 部署现在都包括我们的交换机,以太网 GPU 的配售率(attach rates)大致与 InfiniBand 持平。Meta、Microsoft、Oracle 和 XAI 正在使用 Spectrum X 以太网交换机建设吉瓦级 AI 工厂,每个工厂都将运行其选择的操作系统,突显了我们平台的灵活性和开放性。我们最近推出了 Spectrum-XGS,这是一种能够实现吉瓦级规模 AI 工厂的横向扩展技术。


NVIDIA 是唯一一家拥有 AI 向上扩展(Scale-up)、向外扩展(Scale-out)和横向跨越扩展(Scale-across)平台的公司,巩固了我们在市场上作为 AI 基础设施提供商的独特地位。客户对 NVLink Fusion 的兴趣持续增长。我们于 10 月宣布了与富士通的战略合作,我们将通过 NVLink Fusion 集成富士通的 CPU 和 NVIDIA GPU,连接我们庞大的生态系统。我们还宣布了与英特尔的合作,利用 NVLink 开发多代定制数据中心和 PC 产品,连接 NVIDIA 和英特尔的生态系统。


本周在 Supercomputing25 上,ARM 宣布它将集成 NVLink IP,以便客户构建可与 NVIDIA 连接的 CPU SoC。NVLink 目前处于第五代,是当今市场上唯一经过验证的向上扩展技术。在最新的 MLPerf 训练结果中,Blackwell Ultra 的训练时间比 Hopper 快 5 倍。NVIDIA 横扫了所有基准测试。值得注意的是,NVIDIA 是唯一一个在满足 MLPerf 严格精度标准的同时利用 FP4 的训练平台。


在 Semi-analysis 推理最大基准测试中,Blackwell 在每个模型和用例中都实现了最高性能和最低的总拥有成本。特别重要的是 Blackwell 的 NVLink 在混合专家模型(MoE)上的性能,这是世界上最流行的推理模型的架构。在 DeepSeek R1 上,Blackwell 提供了比 H200 高 10 倍的每瓦性能和低 10 倍的每 Token 成本,这是由我们极端的协同设计方法推动的巨大代际飞跃。NVIDIA Dynamo 是一个开源的低延迟模块化推理框架,现已被每一家主要的云服务提供商采用。


利用 Dynamo 的赋能和解耦推理,以此提高复杂 AI 模型(如 MoE 模型)的性能,AWS、Google Cloud、Microsoft Azure 和 OCI 已经为企业云客户提升了 AI 推理性能。我们正在与 OpenAI 建立战略合作伙伴关系,重点是帮助他们建设和部署至少 10 吉瓦的 AI 数据中心。此外,我们还有机会投资该公司。我们通过他们的云合作伙伴 Microsoft Azure、OCI 和 CoreWeave 为 OpenAI 提供服务。


我们将在可预见的未来继续这样做。随着他们继续扩大规模,我们要很高兴地支持该公司增加自建基础设施,我们正在努力达成最终协议,并很高兴能支持 OpenAI 的增长。昨天,我们要庆祝了与 Anthropic 的公告。Anthropic 首次采用 NVIDIA,我们正在建立深厚的技术合作伙伴关系以支持 Anthropic 的快速增长。


我们将合作针对 CUDA 优化 Anthropic 模型,并提供最佳的性能、效率和 TCO。我们还将针对 Anthropic 工作负载优化未来的 NVIDIA 架构。Anthropic 的计算承诺最初包括高达 1 吉瓦的 Grace Blackwell 和 Vera Rubin 系统计算容量。我们对 Anthropic、Mistral、OpenAI、Reflection、Thinking Machines 等公司的战略投资代表了发展 NVIDIA CUDA AI 生态系统的伙伴关系,并使每个模型都能在世界各地的 NVIDIA 上以最佳状态运行。我们将继续进行战略投资,同时保持我们严格的现金流管理方法。


物理 AI 已经是一个数十亿美元的业务,面对的是数万亿美元的机会,也是 NVIDIA 的下一个增长点。领先的美国制造商和机器人创新者正在利用 NVIDIA 的三计算机架构:在 NVIDIA 上训练,在 Omniverse 计算机上测试,并在 Jetson 机器人计算机上部署现实世界的 AI。PTC 和西门子推出了新服务,将其庞大的客户群带入 Omniverse 驱动的数字孪生工作流程。包括 Belden、Caterpillar、富士康、Lucid Motors、丰田、台积电和纬创在内的公司正在建设 Omniverse 数字孪生工厂,以加速 AI 驱动的制造和自动化。Agility Robotics、Amazon Robotics、Figure 和 Skilled at AI 正在基于我们的平台进行构建,利用 NVIDIA Cosmos、用于开发的世界基础模型、用于模拟和验证的 Omniverse 以及用于驱动下一代智能机器人的 Jetson 等产品。


我们仍然专注于在全球供应链中建立弹性和冗余。上个月,我们要与台积电合作,庆祝了在美国本土生产的第一块 Blackwell 晶圆。我们将继续与富士康、纬创、Amcor、Spill 等公司合作,在未来四年内扩大我们在美国的业务。游戏收入为 43 亿美元,同比增长 30%,这得益于 Blackwell 势头的持续强劲需求。


终端市场的销售依然强劲,随着假期临近,渠道库存处于正常水平。Steam 最近打破了其并发用户记录,达到 4200 万玩家,而成千上万的粉丝涌入韩国的 GeForce Gamer Festival 庆祝 GeForce 25 周年。NVIDIA 专业视觉化已经演变为工程师和开发者的计算机,无论是用于图形还是 AI。专业视觉化收入为 7.6 亿美元,同比增长 56%,再创纪录。增长由 DGX Spark 推动,这是世界上最小的 AI 超级计算机,基于 Grace Blackwell 的小型配置构建。


汽车业务收入为 5.92 亿美元,同比增长 32%,主要由自动驾驶解决方案驱动。我们正在与 Uber 合作,基于新的 NVIDIA Hyperion L4 Robotaxi 参考架构,扩展世界上最大的 L4 级自动驾驶车队。转向损益表的其余部分,GAAP 毛利率为 73.4%,非 GAAP 毛利率为 73.6%,超出了我们的预期。毛利率环比增长归因于我们的数据中心组合、改进的周期时间和成本结构。


GAAP 运营费用环比增长 8%,非 GAAP 增长 11%。增长主要由基础设施计算以及更高的薪酬福利和工程开发成本驱动。第三季度非 GAAP 有效税率略高于 17%,高于我们需要指引的 16.5%,原因是美国收入强劲。在我们的资产负债表上,库存环比增长 32%,而供应承诺环比增长 63%。


我们正在为未来的显著增长做准备,并对我们执行机会集的能力感觉良好。好的,让我谈谈第四季度的展望。预计总收入为 650 亿美元,上下浮动 2%。按中值计算,我们的展望意味着 14% 的环比增长,这得益于 Blackwell 架构的持续势头。


与上一季度一致,我们不假设来自中国的任何数据中心计算收入。GAAP 和非 GAAP 毛利率预计分别为 74.8% 和 75%,上下浮动 50 个基点。展望 2027 财年,投入成本正在上升,但我们正在努力将毛利率保持在 70% 中段(mid 70s)。GAAP 和非 GAAP 运营费用预计分别约为 67 亿美元和 50 亿美元。


GAAP 和非 GAAP 其他收入和支出预计约为 5 亿美元的收入,不包括非有价证券和公开持有的股票证券的收益和损失。GAAP 和非 GAAP 税率预计为 17%,上下浮动 1%,不包括任何离散项目。现在,让我把电话转给 Jensen,让他说几句。


Jensen Huang (首席执行官) 谢谢,Colette。


关于 AI 泡沫有很多讨论。从我们的角度来看,我们看到的截然不同。提醒一下,NVIDIA 与其他任何加速器都不一样。我们在 AI 的每个阶段都表现出色,从预训练、后训练到推理。


凭借我们在 CUDA-X 加速库方面二十年的投资,我们在科学和工程模拟、计算机图形学、结构化数据处理以及经典机器学习方面同样表现出色。世界正在同时经历三个巨大的平台转变。这是自摩尔定律诞生以来的第一次。NVIDIA 独特地应对这三个转型。


第一个转变是随着摩尔定律放缓,从 CPU 通用计算向 GPU 加速计算的转变。世界在非 AI 软件方面有着巨大的投资,从数据处理到科学和工程模拟,每年代表着数千亿美元的云计算支出。许多这些曾经专门在 CPU 上运行的应用程序,现在正在迅速转移到 CUDA GPU 上,加速计算已经到了一个引爆点。其次,AI 也已达到引爆点,正在改变现有的应用程序,同时启用全新的应用程序。


对于现有应用,生成式 AI 正在取代搜索排名、推荐系统、广告定位、点击率预测到内容审核中的经典机器学习,这些正是超大规模基础设施的基础。Meta 的 GEM,一种在大型 GPU 集群上训练的用于广告推荐的基础模型,就是这种转变的例证。在第二季度,Meta 报告称,由基于生成式 AI 的 GEM 驱动,Instagram 上的广告转化率增加了 5% 以上,Facebook Feed 增加了 3%。向生成式 AI 的转型代表了超大规模企业巨大的收入收益。现在,新一波浪潮正在兴起,即能够推理、规划和使用工具的代理 AI(Agentic AI)系统。


从 Cursor 和 QuadCode 等代码助手到 iDoc 等放射学工具、Harvey 等法律助手,以及 Tesla FSD 和 Waymo 等 AI 司机,这些系统标志着计算的下一个前沿。当今世界上增长最快的公司,OpenAI、Anthropic、xAI、Google、Cursor、Lovable、Replit、Cognition AI、Open Evidence、Abridge、Tesla 都在开创代理 AI。所以有三个巨大的平台转变。向加速计算的转变是基础性的和必要的,在后摩尔定律时代至关重要。向生成式 AI 的转变是变革性的和必要的,它极大地增强了现有的应用程序和商业模式。


而向代理 AI 和物理 AI 的转变将是革命性的,催生新的应用、公司、产品和服务。当你们考虑基础设施投资时,请考虑这三个基本动态。每一个都将有助于未来几年的基础设施增长。NVIDIA 之所以被选中,是因为我们单一的架构能够实现所有这三种转变,并且适用于任何形式和模态的 AI,跨越所有行业,跨越 AI 的每个阶段,跨越云中所有多样化的计算需求,以及从云到企业再到机器人。


Toshiya Hari 我们要现在开始提问环节。接线员,请开始提问好吗?


问答环节

Operator 谢谢。第一个问题来自摩根士丹利的 Joseph Moore。请讲。


Joseph Moore (摩根士丹利) 太好了。谢谢。我想请您更新一下。您在 GTC 上谈到了 2025 年和 2026 年 Blackwell 加上 Rubin 的 5000 亿美元收入。当时,您提到其中 1500 亿美元已经出货。随着季度的结束,这是否仍然是大致的参数,即在接下来的 14 个月左右还有 3500 亿美元?我假设在这段时间里,您还没有看到所有的需求。随着我们的推进,这些数字是否有上升的可能性?


Colette Kress 是的。谢谢,Joe。我先回答这个问题。是的,没错。


我们正在努力实现我们 5000 亿美元的预测。随着我们完成了一些季度,我们正处于正轨上。现在,我们面前有几个季度要带我们走完 2026 日历年年底。这个数字会增长。


我确信我们将获得额外的计算需求,这些需求将在 2026 财年发货。本季度我们出货了 500 亿美元,但如果不说我们可能会接受更多订单,那就是没说完。例如,就在今天,我们要与 KSA(沙特)的公告,仅该协议本身就是三年内增加 40 万到 60 万个 GPU。Anthropic 也是净新增的。


因此,在我们宣布的 5000 亿美元之上,肯定有机会获得更多。


Operator 下一个问题来自 Cantor Fitzgerald 的 CJ Muse。请讲。


CJ Muse (Cantor Fitzgerald) 是的,下午好。谢谢接受提问。对于 AI 基础设施建设的规模以及为此类计划提供资金的能力和投资回报率(ROI),显然存在极大的恐慌。然而,与此同时,你们谈论的是售罄,每一个部署的 GPU 都被占用了。AI 世界还没有看到 B300 带来的巨大好处,更不用说 Rubin 了,Gemini 3 刚刚宣布 GROK5 即将到来。所以,问题是这样的,当你以此为背景时。


你是否看到未来 12 到 18 个月内供应能够赶上需求的现实路径?还是你认为这可能会延续到那个时间框架之外?


Jensen Huang 嗯,如你所知,我们在规划供应链方面做得非常好。NVIDIA 的供应链基本上包括了世界上所有的科技公司。台积电及其封装、我们的内存供应商和内存合作伙伴,以及我们所有的系统 ODM 都与我们一起做了很好的规划。我们为重要的一年做了规划。


我们已经看到我刚才提到的三个转型有一段时间了,即从通用计算到加速计算。重要的是要认识到,AI 不仅仅是代理 AI,生成式 AI 正在改变超大规模企业在 CPU 上所做的工作方式。生成式 AI 使他们能够迁移搜索、推荐系统、广告推荐和定位。所有这些都已转移到生成式 AI。而且这种转型仍在进行中。


因此,无论你是为了数据处理安装 NVIDIA GPU,还是为了推荐系统的生成式 AI,或者是为了代理聊天机器人以及大多数人想到 AI 时看到的那种 AI 而构建,所有这些应用程序都是由 NVIDIA 加速的。所以当你看到支出的总量时,重要的是要考虑每一个层面。它们都在增长。它们相关,但不相同。但美妙的是它们都在 NVIDIA GPU 上运行。


同时,由于 AI 模型的质量提高得如此惊人,它在不同用例中的采用,无论是在代码辅助中(NVIDIA 使用得相当广泛,而且我们不是唯一的)。我的意思是,历史上增长最快的应用程序,Cursor、Cloud Code、OpenAI 的 Codex 和 GitHub Copilot 的组合。这些应用程序是历史上增长最快的。而且它不仅仅用于软件工程师。


由于“Vibe Coding”,它被全公司的工程师、营销人员、供应链规划人员使用。所以我认为这只是一个例子,名单还在继续,无论是 Open Evidence 及其在医疗保健方面的工作,还是在数字视频编辑 Runway 方面的工作。我是说,许多非常非常令人兴奋的初创公司正在利用生成式 AI,而代理 AI 正在迅速增长。更不用说,我们都在更多地使用它。


因此,我们看到所有这些指数级增长同时发生。更不用说就在今天,我读了 Demis(DeepMind CEO)的一条短信,他说预训练和后训练完全有效,Gemini 3 利用了扩展定律,在质量性能、模型性能方面取得了巨大的飞跃。所以我们看到所有这些指数级增长似乎都在同时运行。只要总是回到第一性原理,思考我之前提到的每一个动态正在发生什么:从通用计算到加速计算,生成式 AI 取代经典机器学习,当然还有代理 AI,这是一个全新的类别。


Operator 下一个问题来自美银证券的 Vivek Arya。请讲。


Vivek Arya (美银证券) 谢谢接受我的提问。我很好奇,在那个 5000 亿美元的数字中,你们对每吉瓦(Gigawatt)的 NVIDIA 内容(价值量)做了什么假设?因为我们听到的数字低至每吉瓦 250 亿美元,高至每吉瓦 300 亿或 400 亿美元。所以我很好奇你们作为 5000 亿美元数字的一部分,做了什么功率和每吉瓦美元的假设。


然后从长远来看,Jensen,提到了到 2030 年数据中心将达到 3 万亿到 4 万亿美元。您认为其中有多少需要供应商融资,又有多少可以由您的大客户、政府或企业的现金流支持?谢谢。


Jensen Huang 从 Ampere 到 Hopper,从 Hopper 到 Blackwell,从 Blackwell 到 Rubin 的每一代,我们都是数据中心增长的一部分。Hopper 一代可能大约是 20 几,20 到 25(亿美元/吉瓦?此处单位未明确,可能指占比或价值量)。


Blackwell 一代,特别是 Grace Blackwell,可能是 30 到——比如 30 左右。然后 Rubin 可能会比那个更高。在每一代中,速度提升都是 X 倍的,因此客户的 TCO(总拥有成本)改善了 X 倍。最重要的是,最终你仍然只有 1 吉瓦的电力,1 吉瓦的数据中心,1 吉瓦的电力,因此每瓦性能,你架构的效率极其重要。


而且你架构的效率不能靠蛮力。没有任何蛮力可言。那 1 吉瓦直接转化,你的每瓦性能直接,绝对直接地转化为你的收入。这就是为什么选择正确的架构如此重要的原因,世界没有任何多余的东西可以挥霍。


因此,我们必须非常非常——我们使用这种称为协同设计(co-design)的概念,跨越我们的整个堆栈,跨越框架和模型,跨越整个数据中心,甚至是在我们的生态系统中跨越整个供应链优化的电力和冷却。所以每一代,我们的经济贡献都会更大。我们要交付的价值会更大,但最重要的是我们的每瓦能源效率在每一代都将是非凡的。关于增长——继续增长,我们客户的融资取决于他们。


我们——我们看到了在相当长一段时间内增长的机会。记住,今天,大部分焦点都集中在超大规模企业上。关于超大规模企业的一个真正被误解的领域是,对 NVIDIA GPU 的投资不仅提高了他们从通用计算转型的规模、速度和成本,这是第一点,因为摩尔定律,摩尔定律的扩展确实已经放缓。摩尔定律是关于降低成本的。


它是关于随着时间的推移计算成本惊人的通缩,但这已经放缓,因此他们需要一种新方法来继续降低成本,转向 NVIDIA GPU 计算确实是最好的方法。第二是提高他们当前商业模式的收入,推荐系统驱动着世界上的超大规模企业,无论是观看短视频、推荐书籍、推荐购物车中的下一件商品、推荐广告、推荐新闻。这都是关于推荐系统。世界,互联网拥有数万亿条内容。


除非他们拥有非常复杂的推荐系统,否则他们怎么可能弄清楚要在你那小小的屏幕上放什么呢。好吧,那已经变成了生成式 AI。所以我刚才说的前两件事,将不得不投入数千亿美元的资本支出。这是完全由现金流资助的。在此之上的就是代理 AI。这部分收入是净新增的,净新增的消费,也是净新增的应用,以及我之前提到的一些应用,但这些——这些新应用也是历史上增长最快的应用。


好的。所以我认为一旦人们开始欣赏水面下实际发生的事情,你就会看到这一点,如果愿意的话,但从资本支出投资发生什么的简单观点来看,要认识到有这三个动态。最后,记住,我们刚才谈论的是美国的 CSP(云服务商)。每个国家都将资助自己的基础设施。


你有多个国家,你有多个行业。世界上大多数行业还没有真正接触代理 AI,而他们即将——我们合作的所有公司名字,无论是自动驾驶汽车公司,还是用于工厂和世界各地正在建设的仓库的物理 AI 数字孪生,仅仅是那些获得资助以加速药物发现的数字生物学初创公司的数量。所有这些不同的行业现在都参与进来了,他们将进行自己的融资。所以不要只把超大规模企业看作是构建未来的途径。


你得看世界,你得看所有不同的行业,企业计算将资助他们自己的行业。


Operator 下一个问题来自 Melius 的 Ben Reitzes。请讲。


Ben Reitzes (Melius) 嗨,非常感谢。


Jensen,我想问你关于现金的问题。说到 5000 亿美元,你们在未来几年可能会产生大约 5000 亿美元的自由现金流。你们对这笔现金有什么计划?有多少用于回购,多少用于投资生态系统?你们如何看待对生态系统的投资?我认为外界对于这些交易如何运作以及你们做这些交易的标准有很多困惑,比如 Anthropic、OpenAI 等等。多谢。


Jensen Huang 是的,谢谢你的提问。当然,利用现金来资助我们的增长。没有哪家公司能以我们所说的规模增长,并拥有 NVIDIA 这样的供应链连接、深度和广度。我们要我们的整个客户群之所以能够依赖我们,是因为我们确保了一个非常有弹性的供应链,并且我们有资产负债表来支持他们。


当我们进行采购时,我们的供应商可以确信无疑。当我们做出预测并与他们一起计划时,由于我们的资产负债表,他们会认真对待我们。我们不是在编造承购量(offtake)。我们知道我们的承购量是多少。


因为他们已经与我们一起计划了很多年,我们的采购能力以及我们的声誉和信誉是令人难以置信的。所以这需要非常强大的资产负债表来做到这一点,以支持增长水平、增长率和增长幅度以及与之相关的规模。这是第一点。第二件事,当然,我们将继续进行股票回购。


我们将继续这样做。但关于投资,这是我们所做的非常非常重要的工作。到目前为止我们所做的所有投资,乃至一直以来,都是与扩大 CUDA 的覆盖范围、扩大生态系统相关的。如果你看我们对 OpenAI 的投资工作,这当然是我们自 2016 年以来就有的关系。


我向 OpenAI 交付了有史以来第一台 AI 超级计算机。从那时起,我们就与 OpenAI 建立了密切而美好的关系。OpenAI 所做的一切今天都在 NVIDIA 上运行。所以他们部署的所有云,无论是训练还是推理,都在 NVIDIA 上运行。我们喜欢与他们合作。我们要与他们的合作伙伴关系是为了让我们能够从技术角度进行更深入的合作,以支持他们的加速增长。


这是一家增长极快的公司。不要只看媒体上说了什么。看看所有的生态系统合作伙伴和所有与 OpenAI 连接的开发者。他们都在推动其消费。AI 产出的质量,比一年前有了巨大的提升。


因此,响应的质量是非凡的。所以我们投资 OpenAI 以建立深度的合作伙伴关系和共同开发,以扩大我们的生态系统并支持他们的增长。当然,我们不是放弃我们公司的股份,而是获得了他们公司的股份。我们投资了他们,我们拥有其中一家最重要的一代人一次的公司股份。


所以我完全期待这项投资能转化为非凡的回报。现在,就 Anthropic 而言,这是 Anthropic 第一次使用 NVIDIA 的架构。Anthropic 第一次使用 NVIDIA 的架构,就总用户数而言,它是世界上第二成功的 AI。但在企业领域,他们做得非常好。


Cloud Code 做得非常好。Cloud 做得非常好,全球所有的企业。现在我们有机会与他们建立深度的合作伙伴关系,并将 Cloud 带到 NVIDIA 平台上。所以我们现在有什么?NVIDIA 的架构,退一步说,NVIDIA 的架构,NVIDIA 的平台是世界上唯一运行每个 AI 模型的平台。


我们运行 OpenAI。我们运行 Anthropic。我们运行 xAI。由于我们与 Elon 和 xAI 的深厚合作关系,我们得以将这一机会带到沙特阿拉伯,带到 KSA,以便 Humane 也能成为 XAI 的托管机会。我们运行 XAI,我们运行 Gemini,我们运行 Thinking Machines。让我们看看,我们还运行什么?我们运行它们全部。更不用说,我们运行科学模型、生物学模型、DNA 模型、基因模型、化学模型以及世界各地的所有不同领域。


不仅仅是认知 AI 被世界使用,AI 正在影响每一个行业。我们有能力通过我们进行的生态系统投资,在技术基础上与世界上一些最好的公司、最聪明的公司进行深度合作。我们正在扩大我们生态系统的覆盖范围,我们获得了一家将非常成功的公司的股份和投资。通常是一代人一次的公司。


这就是我们的投资理念。


Operator 下一个问题来自高盛的 Jim Schneider。请讲。


Jim Schneider (高盛) 下午好。


谢谢接受我的提问。过去,你们曾谈到你们的出货量中大约有 40% 与 AI 推理有关。我想知道,展望明年,您预计这一比例在一年后会达到什么水平?我们能否讨论一下你们预计明年推出的 Rubin CPX 产品并将其具体化?您预计它能占据多大的总潜在市场(TAM),或许谈谈该特定产品的目标客户应用?谢谢。


Jensen Huang CPX 专为长上下文(long context)类型的工作负载生成而设计。


长上下文,基本上,在开始生成答案之前,你必须阅读大量内容,基本上就是长上下文。它可以是一堆 PDF,可以是观看一堆视频,研究 3D 图像,等等。你必须吸收上下文。CPX 是为长上下文类型的工作负载设计的。


它的性价比极高。它的每瓦性能极高。这让我忘记了问题的第一部分。


Unidentified Speaker 推理。


Jensen Huang 推理。是的,有三个扩展定律正在同时扩展。第一个称为预训练的扩展定律继续非常有效。第二个是后训练。


后训练基本上发现了令人难以置信的算法,可以提高 AI 分解问题并逐步解决问题的能力。后训练正在呈指数级扩展。基本上,你应用在模型上的计算越多,它就越聪明,越智能。第三个是推理。


推理,由于思维链(chain of thought),由于推理能力,AI 基本上是在回答之前阅读、思考。这三件事导致的必要计算量已经完全呈指数级增长。我认为很难确切知道任何特定时间点的百分比是多少以及是谁。但当然,我们希望推理能成为市场中非常大的一部分。


因为如果推理规模很大,那就表明人们正在更多的应用中使用它,并且更频繁地使用它。我们都应该希望推理变得非常大。这就是 Grace Blackwell 比世界上任何东西都好一个数量级、更先进的地方。第二好的平台是 H200。


现在非常清楚,GB300,GB200 和 GB300 由于 NVLink 72,我们拥有的扩展网络,实现了——正如 Colette 在 Semi-analysis 基准测试中谈到的,这是有史以来最大的单一推理基准测试。GB200,NVLink 72 的性能高出 10 倍,10 倍到 15 倍。这是一个巨大的提升。别人要赶上这一点需要很长时间。


我们在那里的领导地位肯定是多年的。我希望推理能成为一件非常大的事情。我们在推理方面的领导地位是非凡的。


Operator 下一个问题来自瑞银(UBS)的 Timothy Arcuri。请讲。


Timothy Arcuri (瑞银) 非常感谢。Jensen,你们的许多客户都在追求表后(behind-the-meter,指自建发电或直连电厂)电力,但什么是你担心的可能限制你们增长的最大单一瓶颈?是电力,还是融资,或者是其他东西,比如内存甚至是代工?非常感谢。


Jensen Huang 嗯,这些都是问题,它们都是制约因素。原因在于,当你以我们的速度和规模增长时,怎么可能有什么事情是容易的?NVIDIA 正在做的事情显然是以前从未做过的,我们创造了一个全新的行业。


一方面,我们要将计算从通用和经典或传统计算转变为加速计算和 AI。这是一方面。另一方面,我们创造了一个名为 AI 工厂的全新行业。这个理念是,为了让软件运行,你需要这些工厂来生成每一个 Token,而不是检索预先创建的信息。所以我认为这整个转型需要非凡的规模。


一直到供应链,当然,供应链方面,我们要有更好的可见性和控制力,显然是因为我们非常擅长管理我们的供应链。我们要有合作了 33 年的出色合作伙伴。所以供应链部分,我们很有信心。现在看看我们的供应链下游,我们要与土地、电力、外壳当然还有融资方面的众多参与者建立了合作伙伴关系。


这些事情,没有一件是容易的,但它们都是可处理的,都是可解决的事情。我们要做的最重要的事情是做好规划。我们在供应链上游和下游进行规划。我们已经建立了大量的合作伙伴。


因此,我们有很多进入市场的途径。非常重要的是,我们的架构必须为我们拥有的客户提供最佳价值。所以在这一点上,我非常有信心 NVIDIA 的架构是每 TCO 性能最好的。它是每瓦性能最好的。因此,对于任何交付的能量,我们的架构将驱动最多的收入。


我认为我们成功的速度在加快,我认为我们在今年的这个时候比去年这个时候更成功。来找我们的客户数量,以及在探索了其他平台后来找我们的平台数量正在增加,而不是减少。所以我认为,我认为所有这一切正是,我这些年来告诉你们的所有事情真的都在——都在成真,我们正变得显而易见。


Operator 下一个问题来自 Bernstein Research 的 Stacy Rasgon。请讲。


Stacy Rasgon (Bernstein Research) 问题。Colette,我有关于利润率的问题。你说对于明年,你们正在努力将其保持在 70% 中段。


所以我想问,首先,最大的成本增加是什么?仅仅是内存还是别的什么?你们正在做什么来朝着这个目标努力?有多少是成本优化与预先采购与定价的关系?另外,鉴于收入似乎可能从我们目前的运行水平大幅增长,我们应该如何看待明年的 OpEx(运营费用)增长?


Unidentified Speaker (应为 Colette Kress) 谢谢,Stacey。让我试着从回顾我们当前财年的状况开始回答。记得今年早些时候,我们表示通过成本改善和组合,我们将在这一年结束时毛利率达到 70% 中段。我们要实现了这一点,并准备在第四季度也执行这一点。


所以现在是时候让我们沟通我们目前在明年的工作进展了。明年,行业内众所周知有一些投入价格(input prices)我们需要应对。我们的系统绝非易事。当我们考虑这一点时,有大量的组件,许多不同的部分。


所以我们正在考虑所有这些因素。但我们确实相信,如果我们再次致力于成本改善、周期时间和组合,我们将努力尝试将毛利率保持在 70% 中段。这就是我们毛利率的总体计划。你的第二个问题是关于 OpEx。


目前,我们在 OpEx 方面的目标是真正确保我们与工程团队、所有业务团队一起创新,为这个市场创造越来越多的系统。如你所知,现在我们有一个新架构即将推出。这意味着为了实现这一目标,他们非常忙碌。因此,我们将继续看到我们在创新上的投资,包括我们的软件、系统和硬件。


如果 Jensen 想补充几句,我就交给他。


Jensen Huang 是的,我认为这很准确。我想我要补充的唯一一点是,记住我们提前很久就与我们的供应链进行规划、预测和谈判。我们的供应链很早就知道我们的需求。


他们很早就知道我们的需求量。我们要与他们合作和谈判了很长时间。所以我认为最近的激增显然非常显著。但记住,我们的供应链已经与我们合作了很长时间。


所以在很多情况下,我们为自己确保了大量的供应,因为显然他们正在与世界上最大的公司合作。我们还在财务方面与他们密切合作,确保预测和计划等等。所以我认为所有这些对我们来说都很顺利。


Operator 最后一个问题来自 Wells Fargo 的 Aaron Rakers。请讲。


Aaron Rakers (Wells Fargo) 是的,谢谢接受提问。Jensen,这个问题是给你的。当你思考宣布的 Anthropic 交易以及你客户的整体广度时。


我很好奇你对于 AI ASIC 或 ASIC 或专用 XPU 在这些架构建设中扮演角色的看法?它有什么改变吗?我想你在过去一直相当坚定地认为,其中一些项目从未真正看到部署,但我很好奇我们是否到了一个点,可能会更多地转向 GPU 架构。谢谢。


Unidentified Speaker (应为 Jensen Huang) 是的,非常感谢,我也很欣赏这个问题。


首先,你不是在与团队竞争。作为一家公司,你在与团队竞争,世界上并没有那么多团队擅长构建这些极其复杂的东西。回到 Hopper 时代和 Ampere 时代,我们会构建一个 GPU。这就是加速 AI 系统的定义。但今天,我们必须构建整个机架——三种不同类型的交换机,一个向上扩展、一个向外扩展和一个横向跨越扩展交换机。


构建一个计算节点也不再只需要一颗芯片。关于那个计算系统的一切,因为 AI 需要内存,AI 以前根本不需要内存,现在它必须记住事情。内存和上下文的数量是巨大的。内存架构的影响是不可思议的。


从混合专家到密集模型,到扩散模型,到自回归,更不用说服从物理定律的生物模型,模型的多样性令人难以置信。在过去的几年里,不同类型模型的列表呈爆炸式增长。所以挑战在于问题的复杂性要高得多。AI 模型的多样性令人难以置信地大。


这就是,如果要我说,让我们与众不同的五件事。我要说的第一件事让我们特别的是,我们加速了转型的每个阶段。那是第一阶段。CUDA 让我们拥有 CUDA-X 来从通用计算过渡到加速计算。


我们在生成式 AI 方面非常出色。我们在代理 AI 方面非常出色。所以在这个转型的每一个阶段、每一个层面,我们都很出色。你可以投资一个架构,全面使用它。你可以使用一个架构,而不必担心这三个阶段的工作负载变化。那是第一点。


第二,我们在 AI 的每个阶段都表现出色。每个人都知道我们在预训练方面非常出色。我们在后训练方面显然也非常好。事实证明,我们在推理方面也非常好,因为推理真的非常非常难。思考怎么可能容易呢?人们认为推理是一次性的,因此很容易。


任何人都可以用这种方式进入市场。但事实证明这是最难的,因为事实证明思考是相当困难的。我们在 AI 的每个阶段都很棒,这是第二点。第三点是,我们现在是世界上唯一运行每个 AI 模型、每个前沿 AI 模型的架构。


我们运行开源 AI 模型非常好。我们运行科学模型、生物学模型、机器人模型。我们运行每一个模型。我们是世界上唯一能声称这一点的架构。


不管你是自回归还是基于扩散的,我们运行一切。正如我刚才提到的,我们在每个主要平台上运行。所以我们运行每个模型。然后我要说的第四件事是我们在每个云中。


开发者喜欢我们的原因是我们在任何地方。我们在每个云中,我们在每个地方,我们甚至可以为你做一个叫 DGX Spark 的小云。我们在每台计算机中,我们无处不在,从云到本地,到机器人系统,边缘设备,PC,凡是你能想到的。一个架构,即插即用。


这令人难以置信。最后一点,这可能是最重要的一点,第五点是,如果你是一个云服务提供商,如果你是一家像 Humane 这样的新公司,如果你是一家像 CoreWeave、Nscale、Niveus 或 OCI 这样的新公司,NVIDIA 之所以是你最好的平台,是因为我们的承购量(offtake,指客户需求/销量)如此多样化。我们可以帮助你解决承购问题。这不仅仅是在数据中心放一个随机的 ASIC。


承购量从哪里来?多样性从哪里来?弹性从哪里来?架构的通用性从哪里来,能力的多样性从哪里来?NVIDIA 拥有如此令人难以置信的良好承购量,因为我们的生态系统如此庞大。所以这五件事,加速和转型的每个阶段,AI 的每个阶段,每个模型,每个云到本地,当然,最后,这一切都导致了承购量。


Operator 谢谢。现在我将把电话转给 Toshiya Hari 进行结束语。


Toshiya Hari 最后,请注意,我们将于 12 月 2 日参加 UBS 全球技术和 AI 会议,我们讨论 2026 财年第四季度业绩的财报电话会议定于 2 月 25 日举行。感谢大家今天的参与。接线员,请挂断电话。


Operator 谢谢。今天的电话会议到此结束。您现在可以断开连接。活动已结束。



点分享
点收藏
点在看
点点赞

【声明】内容源于网络
0
0
环球科技研究
每日分享花街TMT新鲜热辣信息及研报解读
内容 51
粉丝 0
环球科技研究 每日分享花街TMT新鲜热辣信息及研报解读
总阅读380
粉丝0
内容51