大数跨境

黄仁勋GTC演讲全文:推理时代到来,2027营收至少万亿美元,龙虾就是新操作系统

黄仁勋GTC演讲全文:推理时代到来,2027营收至少万亿美元,龙虾就是新操作系统 科越云通关
2026-03-18
16

2026年3月16日,英伟达GTC 2026大会开幕,创始人兼CEO黄仁勋发表主题演讲,系统阐述公司从“芯片厂商”向“AI基础设施与工厂公司”的战略跃迁,并首次提出“Token工厂经济学”这一核心增长范式。

业绩指引:2027年AI基础设施需求超1万亿美元

全球AI算力需求持续爆发。随着大模型从感知、生成迈向推理与行动阶段,计算消耗呈指数级攀升。黄仁勋在演讲中明确表示:

去年此时,我们看到Blackwell与Rubin架构至2026年的高确信度需求约5000亿美元;如今,面向2027年,这一数字至少达1万亿美元(at least $1 trillion)。

该预期推动英伟达股价单日上涨超4.3%。黄仁勋进一步强调:“这合理吗?答案是——我们甚至将供不应求。实际计算需求会远高于此。”

他指出,英伟达系统已成为全球“成本最低的AI基础设施”,其通用性可支撑全领域模型运行,保障客户1万亿美元投入的长期价值。目前,60%业务来自全球前五大云服务商,其余40%覆盖主权云、企业、工业、机器人及边缘计算等多元场景。

Token工厂经济学:每瓦性能决定商业命脉

黄仁勋将未来数据中心定义为“生产Token(AI基本输出单元)的工厂”。其核心逻辑在于:数据中心受电力物理极限约束(如1GW无法变为2GW),因此“单位功耗下的Token吞吐量”直接决定生产成本与商业竞争力。

他将AI服务划分为五层商业化模型:

免费层(高吞吐、低速度
中级层(约3美元/百万Token)
高级层(约6美元/百万Token)
高速层(约45美元/百万Token)
超高速层(约150美元/百万Token)

黄仁勋强调:“在Token工厂中,你的吞吐量与生成速率,将直接转化为明年的精确收入。”英伟达架构可在免费层实现极高吞吐,并在最高价值推理层将性能提升35倍。

Vera Rubin与Groq整合:350倍加速与分离式推理

英伟达发布史上最复杂AI计算系统Vera Rubin——100%液冷、无传统线缆,机架部署时间由两天缩短至两小时。通过软硬件协同优化,其在两年内将Token生成速率从2200万/秒提升至7亿/秒,实现350倍增长,远超摩尔定律同期约1.5倍的理论上限。

为突破极速推理(如1000 Token/秒)带宽瓶颈,英伟达整合Groq技术,推出“非对称分离推理”方案:

Groq芯片:500MB SRAM,超低延迟,专精解码阶段;
Vera Rubin芯片:288GB显存,承担预填充(Pre-fill)与KV Cache等高显存需求任务。

依托Dynamo调度系统,二者通过以太网高效耦合,延迟降低约50%。黄仁勋建议企业配置策略:“高吞吐工作负载100%使用Vera Rubin;高价值编程级Token生成需求,可分配25%算力给Groq。”

由三星代工的Groq LP30芯片已量产,预计第三季度出货;首个Vera Rubin机架已在微软Azure上线运行。

针对光互联争议,黄仁勋明确表态:“我们需要更多铜缆产能、更多光芯片产能、更多共封装光学(CPO)产能。”并现场展示全球首款量产CPO交换机Spectrum X。

Agent革命:OpenClaw重塑企业IT与职场范式

黄仁勋将开源项目OpenClaw称为“人类历史上最受欢迎的开源项目”,称其数周成就已超越Linux三十年发展。他定义其为“智能体计算机的操作系统”,具备资源调度、工具调用、多模态I/O与子智能体协同能力。

他断言:“所有SaaS公司都将转型为AaaS(Agent-as-a-Service)公司。”为保障企业级落地,英伟达推出NeMo Claw参考设计,集成策略引擎与隐私路由,并开放Open Shield安全层及NeMo Cloud平台,支持与现有SaaS策略无缝对接。

职场层面,黄仁勋描绘新范式:“每位工程师将拥有年度Token预算——基础年薪几十万美元,外加约一半额度的Token配额,实现10倍效率提升。‘Offer含多少Token’已成为硅谷新招聘标准。”

演讲最后,他预告下一代架构Feynman(支持铜缆与CPO双路径扩展),并透露正联合合作伙伴研发太空数据中心“Vera Rubin Space-1”,拓展AI算力边界。

CUDA二十年:飞轮效应驱动全栈加速

今年是CUDA诞生二十周年。作为全球首个SIMT(单指令多线程)通用并行计算平台,CUDA已构建起包含数千种工具、编译器、框架与库的完整生态,支撑数十万个开源项目,在云、端、边全面集成。

其核心驱动力是“装机量飞轮”:庞大GPU基数吸引开发者→催生算法突破→开辟新市场→壮大生态→反哺装机量增长。当前,六年前发布的Ampere架构GPU云端价格仍在上涨,印证了其长生命周期与高实用价值。

英伟达持续投入垂直整合,推出cuDF(结构化数据加速)、cuVS(向量与非结构化数据处理)等底层库,与IBM、Dell、Google Cloud、Snapchat等深度合作,实现Vertex AI、BigQuery、EMR等关键平台加速,部分场景计算成本下降近80%。

云生态与垂直整合:打造全球AI基础设施底座

英伟达与主流云服务商建立深度协同关系:

  • Google Cloud:加速Vertex AI与BigQuery,深度集成JAX/XLA及PyTorch;
  • AWS:加速EMR、SageMaker与Bedrock,正将OpenAI引入AWS生态;
  • Microsoft Azure:首台100 PFLOPS超算部署于Azure,支持OpenAI与Anthropic模型保密计算;
  • Oracle:首家AI客户,已引入Cohere、Fireworks、OpenAI等伙伴;
  • CoreWeave:全球首家AI原生云,专注GPU托管服务;
  • Palantir + Dell:共建可气隙部署的全栈本地化AI平台。

黄仁勋强调:“英伟达是全球第一家垂直整合、横向开放的公司——深入理解每个行业应用,同时将技术无缝嵌入所有合作伙伴平台。”

AI原生时代:三大拐点与万亿美元产业变革

过去两年,AI完成三重跃迁:

  • ChatGPT:开启生成式AI,计算范式从检索转向生成;
  • o1类推理AI:实现自我反思与问题分解,Token消耗量激增;
  • Claude Code:首个Agent模型,可读取文件、写代码、编译、测试、迭代,真正“执行任务”。

推理计算需求两年内增长约10,000倍,使用量增长约100倍。黄仁勋指出:“这是史上首次,每家AI公司都依赖大量算力与Token——行业已进入全新计算平台革命。”

Grace Blackwell与NVLink 72:极致协同设计的性能飞跃

英伟达在Hopper鼎盛期即启动系统重构,将NVLink从8路扩展至72路,推出Grace Blackwell NVLink 72架构,并首发NVFP4张量核心——在无精度损失前提下显著提升推理与训练能效。

配合Dynamo与TensorRT-LLM等新算法,英伟达推理性能实现质变。第三方评测显示,其每瓦Token数与每Token成本全球领先:相较H200理论1.5倍摩尔提升,实际达成35倍,权威机构Semi Analysis认为“保守估计为50倍”。Fireworks实测Token速度由700/s跃升至5000/s,提升7倍。

AI工厂:从数据中心到Token生产力中心

数据中心定位已从“数据仓库”升级为“Token工厂”。衡量标准聚焦两大维度:

  • 吞吐量(Throughput):固定功耗下每秒Token数;
  • 交互速度(Token Speed):单次推理响应时延,决定模型规模与上下文长度

Token分层定价模型明确后,Grace Blackwell在最高价值层级较Hopper提升35倍吞吐,并新增细分层级。粗略估算,25%功率分配至各层级时,其综合收入可达Hopper的5倍。

Vera Rubin系统详解

Vera Rubin是专为Agent工作负载设计的端到端AI计算系统,包含:

  • NVLink 72 GPU集群:处理Prefill与KV Cache;
  • Vera CPU:全球首款采用LPDDR5的数据中心CPU,高单线程性能,适配Agent工具调用;
  • BlueField 4 + CX 9存储平台:面向AI时代的全新存储架构;
  • Spectrum X CPO交换机:全球首款量产共封装光学以太网交换机;
  • Kyber机架:支持144块GPU组成单一NVLink域;
  • Rubin Ultra节点:竖插式设计,拓展NVLink互联规模。

系统100%液冷,45°C热水冷却,大幅降低散热压力;首台已上线微软Azure。

技术路线图:铜缆、光学、CPO三轨并进

英伟达明确推进三条扩展路径:

  • Blackwell:当前主力,Oberon机架支持NVLink 72铜缆+光学扩展至576;
  • Vera Rubin:Kyber机架NVLink 144(铜缆),Oberon机架+光学扩展至576;
  • Vera Rubin Ultra:集成NVFP4的LP35芯片;
  • Feynman:LP40芯片+Rosa CPU+BlueField 5+CX 10,支持铜缆/CPO双模扩展。

路线图强调:“我们需要铜缆、光纤与CPO产能同步扩张。”

NVIDIA DSX:AI工厂数字孪生平台

为应对吉瓦级AI工厂日益复杂的协同设计挑战,英伟达推出基于Omniverse的DSX平台,提供:

  • 机架级机械、热学、电气与网络仿真;
  • 与电网协同的节能调度;
  • 基于Max-Q的动态功耗与冷却优化。

预计可提升能源利用效率约2倍。该平台正联合全球伙伴共建“人类历史上最大的计算机”,并已延伸至太空——Thor芯片通过辐射认证,Vera Rubin Space-1太空数据中心正在研发中。

OpenClaw:智能体时代的操作系统

OpenClaw被定义为“智能体计算机OS”,功能覆盖资源管理、工具调用、多模态I/O、子智能体协同与任务分解。黄仁勋指出:“Windows让PC普及,OpenClaw将让个人智能体成为现实。”

企业需制定OpenClaw战略,如同曾制定Linux或Kubernetes策略。英伟达已推出NeMo Claw企业参考框架、Open Shield安全层与NeMo Cloud服务,全面支撑企业级智能体安全落地。

物理AI与机器人:具身智能规模化落地

GTC 2026现场亮相110款机器人,覆盖自动驾驶、工业制造与人形机器人三大方向:

  • 自动驾驶:比亚迪、现代、日产、吉利加入RoboTaxi Ready平台,年产能达1800万辆;新增Uber城市级部署合作;
  • 工业机器人:ABB、KUKA、Universal Robotics等接入NVIDIA仿真与物理AI模型;
  • 电信AI:基站升级为NVIDIA Aerial AI RAN,实时感知流量、动态调整波束成形。

特别环节中,搭载Jetson的Disney Olaf机器人现场演示行走与交互,其底层Newton物理求解器由英伟达、Disney与DeepMind联合开发,标志具身智能已具备真实世界适应能力。

主题演讲核心总结

黄仁勋归纳本次演讲四大支柱:

  • 推理拐点确立:推理成为AI最核心负载,Token是新型大宗商品,推理性能直接决定企业收入;
  • AI工厂时代开启:数据中心进化为Token生产力中心,“AI工厂效率”将成为企业核心竞争力指标;
  • OpenClaw智能体革命:企业IT从工具时代迈入智能体时代,OpenClaw战略是必选项;
  • 物理AI规模化落地:自动驾驶、工业机器人、人形机器人共同构成具身智能主航道。

感谢所有参会者,GTC 2026圆满落幕。

【声明】内容源于网络
0
0
科越云通关
各类跨境出海行业相关资讯
内容 8574
粉丝 0
科越云通关 各类跨境出海行业相关资讯
总阅读30.9k
粉丝0
内容8.6k