大数跨境
0
0

微软CEO纳德拉最新访谈,信息量很大!

微软CEO纳德拉最新访谈,信息量很大! 大迈说电商
2025-12-02
0
导读:最近AI圈最火的话题,莫过于微软CEO纳德拉的一次深度访谈。

最近AI圈最火的话题,莫过于微软CEO纳德拉的一次深度访谈。信息量极大,完全颠覆了很多人对AI商业模式的看法

他关于AI未来最重要的3个判断,每一个都可能影响未来十年的科技格局。
第一,AI的高成本不是危机,而是市场扩容的催化剂。
第二,未来AI的战争,赢家不一定是模型公司,而是'脚手架'公司。
第三,告别技术霸权,'主权AI'才是全球新战场。
总结一下,纳德拉的这三个判断,其实揭示了AI浪潮下正在发生的三大转变:从'成本思维'到'市场扩容思维'的转变,从'模型为王'到'平台为王'的转变,以及从'全球化'到'本地化'的转变。这已经超越了单纯的技术讨论,进入了产业基础设施和全球信任体系的深度思考。


访谈全文

Fairwater 2

萨提亚·纳德拉: 这或许是工业革命以来最重大的变革。但同时,我也清醒地认识到,我们仍处于这一切的开端。

如果你是一家模型公司,就可能陷入“赢家的诅咒”:倾尽全力做出惊人创新,结果却可能在一夜之间被商品化。我们不想只做某家公司的托管商,或者只依赖一个大客户。那样的生意是做不长久的。

为单一模型优化基础设施,这条路走不通。一旦你这么做,就离淘汰仅一步之遥。只要出现一次类似MoE(专家混合模型)的架构突破,你的整个网络拓扑都可能瞬间作废——那将是毁灭性的。

我们今天的业务是面向终端用户的工具,而未来的本质,是支持AI代理(Agents)完成工作的基础设施。你的眼光不能只看五年,而要思考未来五十年的布局。

主持人德瓦克什: 今天,我们有幸采访萨提亚·纳德拉。与我一同主持的还有SemiAnalysis的创始人迪伦·帕特尔(Dylan Patel)。萨提亚,欢迎。

萨提亚·纳德拉: 谢谢,很高兴来到这里。也感谢你们来到亚特兰大。

主持人德瓦克什: 感谢你带我们参观新数据中心,亲眼看到这一切实在太酷了。萨提亚和微软云与AI执行副总裁斯科特·格思里(Scott Guthrie)带我们参观了他们全新的Fairwater 2数据中心——目前世界上最强大的数据中心。

斯科特: 我们的目标是每18到24个月,就将训练能力提升10倍。这意味着届时的训练容量将是现在的10倍,也远超训练GPT-5所需的规模。打个比方,仅这一座建筑里的光网络设备数量,就几乎相当于两年前整个Azure所有数据中心的总和,大约涉及五百万个网络连接。

主持人德瓦克什: 你们在同一区域内的不同站点间,乃至跨区域之间都部署了极高的带宽。这是否意味着你们在为未来的超大规模模型豪赌?你们是否预见到,未来可能会有某个巨型模型,需要调用两个完全不同区域的算力来进行训练?

萨提亚·纳德拉: 我们的目标,就是能将这些算力(flops)聚合起来,用于大规模训练任务,并实现跨站点的整合。实际上,这套系统不仅能用于训练,还能用于数据生成、推理等多种任务。它绝不会只服务于单一类型的工作负载。

斯科特: 没错。你可以在附近看到正在建设中的Fairwater 4,它也将采用同样的万亿比特网络。这样一来,我们就能以极高的速率连接这两处设施,并最终构建一个AI广域网(AI WAN),再连接到密尔沃基——我们在那里同样有多个Fairwater数据中心正在兴建。

萨提亚·纳德拉: 你可以看到模型并行和数据并行。这个架构基本上就是为训练任务而生的:园区内的Pods和Superpods。然后,通过广域网,你可以连接到威斯康星的数据中心,真正运行一个整合了所有这些资源的庞大训练任务。

斯科特: 所有这些资源都被聚合在一起。我们现在看到的是一个单元(cell),里面还没有服务器和机架。一个单元能容纳多少机架?你可以想象一下。具体数字我们不便透露,但你上楼后就能看到。当然,那部分我也同样不能告诉你。

主持人德瓦克什: 一旦确定了采用GB200和NV-Link这样的核心硬件,剩下的设计空间还有多大?还需要做出哪些关键决策?

萨提亚·纳德拉: 模型架构与物理设计的优化之间存在紧密的耦合关系。这其实也令人担忧,因为新的芯片总会不断涌现。比如Vera Rubin Ultra,它的功率密度和冷却需求都将完全不同。所以,你绝不能只按一种规格来建设。这又回到了我们讨论的重点:你必须确保系统能够随时间演进,而不是一次性建成一个庞然大物,然后被技术迭代困死。

AGI的商业模式

迪伦·帕特尔: 回顾过去所有的技术转型,无论是铁路、互联网、可替换零件、工业化还是云计算,每一次革命,从技术发现到大规模普及的周期都在不断缩短。

图片

许多上过Dwarkesh播客的嘉宾都认为,这或许是最后一次技术革命。这次的变革似乎与众不同。至少从市场来看,短短三年内,超级计算公司的资本支出明年就将飙升至5000亿美元,这种增长速度在以往的任何技术革命中都前所未见,而且其最终形态也似乎完全不同。

您如何看待这个问题?您的观点似乎和那些坚信“AGI近在眼前”的“AI信徒”们截然不同,我很想听听您的深入看法。

萨提亚·纳德拉: 首先,我能感受到并且同样怀有那种兴奋感。这或许是工业革命以来最重大的变革。我完全认同这个前提。但同时,我也清醒地认识到,我们仍处于这一切的开端。我们确实构建出了一些非常有用的东西,也看到了一些令人惊叹的新特性,规模定律(scaling laws)似乎仍在奏效。我对此很乐观,相信它会继续有效。

当然,其中一些进步需要真正的科学突破,但更多的还是大量的工程技术工作。话虽如此,我更倾向于认为,即便是过去70年的计算历史,也一直在推动我们进步。

我个人很喜欢图灵奖得主拉吉·雷迪(Raj Reddy)对AI的一个比喻。早在AGI这个概念流行之前,他就一直说,AI应该是“守护天使”或“认知放大器”。我非常喜欢这个比喻,它简单地阐明了AI的本质。归根结底,AI对人类的效用是什么?就是成为我们的认知放大器和守护天使。

所以,如果从这个角度出发,我把它看作一种工具。当然,你也可以把它说得非常玄乎,觉得它不仅仅是工具,能做很多过去只有人类才能做的事。但回顾历史,许多技术都曾如此。曾经有无数事情只有人类能做,直到我们发明了能代劳的工具。

主持人德瓦克什: 我们或许不必纠结于AGI的具体定义。但可以设想一下,无论需要五年、十年还是二十年,总有一天,机器也能生成“萨提亚代币”(Satya tokens),对吗?届时,微软董事会或许会认为这些“萨提亚代币”极具价值。

我们来谈谈萨提亚的经济价值。我可能付不起“萨提亚代币”的API费用,但无论你称之为工具还是代理,这个比喻很有趣。当前,当模型的定价是每百万Token几美元甚至几美分时,这里面就存在巨大的规模化和利润空间,让“百万萨提亚代币”变得极具价值。我的问题是:这部分利润最终流向了哪里?微软在其中占据了多大份额?

图片

萨提亚·纳德拉: 这其实又回到了经济增长的根本问题:未来的公司和生产力会是什么样貌?

我想强调一点,工业革命也花了大约70年时间才真正体现到经济增长上。所以,即使当前这波技术浪潮传播得再快,要实现真正的经济增长,也必须等到技术普及到一定程度,并彻底改变我们的工作产品和流程。因此,我们绝不能低估企业实现这种变革所需要的管理转型。

那么,未来人类及其创造的“代币”——无论是“德瓦克什代币”还是“迪伦代币”——是否会获得更高的杠杆效应?答案是肯定的。想想你对技术的使用吧,如果没有技术,你能做半导体分析或制作这档播客吗?不可能。你所达到的规模,在过去是无法想象的。

所以问题是,这个规模能变得多大?它会以某种方式增长10倍吗?绝对会。无论你追求的是收入数字,还是受众规模,这都是大势所趋。关键在于,工业革命耗时70年甚至150年才完成的进程,现在或许能在20到25年内实现。换句话说,我们的目标,是把工业革命两百年的进程,浓缩在未来二十年。

图片

迪伦·帕特尔: 微软可以说是历史上最伟大的软件公司,也是最大的SaaS(软件即服务)公司。你们已经成功经历了一次转型,从销售Windows光盘和许可证,转变为销售Microsoft 365订阅。

现在,我们正面临又一次转型。SaaS模式的特点是研发和获客成本高,但用户增量成本极低。然而,AI高昂的销货成本(COGS)彻底颠覆了这种商业模式,这也是许多SaaS公司在市场上表现不佳的原因。作为SaaS领域的翘楚,微软计划如何引领公司进入这个销货成本举足轻重、单位用户成本不再固定的新时代?毕竟,你们现在为Copilot向每位用户收取20美元。

萨提亚·纳德拉: 这是一个很好的问题。我认为商业模式的基本框架不会变。无非是广告、交易、硬件毛利、订阅制(面向消费者和企业),以及按量付费这几种。

你的观点很敏锐,什么是订阅?至今为止,用户喜欢订阅是因为预算可控。但订阅的本质,就是将一定额度的使用权打包。所以,这最终会变成一个定价和套餐设计的问题。你拥有多少使用量,就对应不同的层级,就像我们为各种编码工具提供的订阅服务一样,区分标准版、专业版等等。

好消息是,在微软,我们几乎涉足了所有这些商业模式。从投资组合的角度看,我们既有订阅制,也有其他各种消费模式。时间会证明哪种模式在哪个领域最行之有效。

关于你提到的SaaS,我经常思考的一点是,以Office 365为例。在从本地服务器转向云的变革中,我们曾一度担心,把原有用户迁移上云并承担起销货成本后,利润会被严重侵蚀,公司甚至可能无利可图。但事实恰恰相反,云极大地扩展了市场。比如在印度,我们过去卖出的服务器寥寥无几,但云服务让印度的每个企业都能按需购买。过去人们为SharePoint存储花费巨资,这些成本在云时代都大幅下降,因为不再需要前期资本支出,现金流得到了极大改善。

AI也会带来同样的效果。以编程领域为例,我们通过GitHub和VS Code几十年建立起来的生态,突然之间,编码助手在一年内就变得如此重要。我认为接下来会发生同样的事:市场将被极大地扩展。

Copilot

主持人德瓦克什: 我同意。但与微软相关的收入部分会扩张吗?Copilot就是一个很好的例子。根据迪伦的数据,今年年初,GitHub Copilot的年化收入大约在5亿美元,当时几乎没有竞争对手。现在,虽然Copilot的收入增长到了约10亿美元,但市场上出现了Codeium、Cursor等竞争者,Codex也迎头赶上,达到了7到8亿美元。我的问题是,在微软可以触及的所有服务中,微软自家的Copilot产品有什么独特优势?

图片

萨提亚·纳德拉: 我很喜欢你展示的这张竞争格局图。原因有二:第一,我们依然领先;第二,图上列出的所有对手,都是近四五年才成立的新公司。这对我来说是最好的信号。当你新的生存威胁是Cursor和Claude,而不是Borland时,谢天谢地,这恰恰说明我们走在正确的方向上。

但这也点明了关键:我们从零发展到今天的规模,本身就是市场扩张的证明。这就像云的崛起一样。从根本上说,编程与AI结合的这个领域,可能会成为最大的软件类别之一,甚至可能超过知识工作。

所以,我对此保持开放心态。我们必将面临激烈竞争,这很好。但我很高兴我们能将已有的业务发展到今天的地步,现在我们必须去竞争。上个季度,我们的订阅用户从2000万增长到了2600万,我对这个增长势头感到满意。

更有趣的是,所有那些生成代码的新公司,他们的代码库最终都流向了哪里?GitHub。如今,GitHub在代码库创建、PR(拉取请求)等方面都创下了历史新高。我们希望保持这种开放性,而不是为了自身增长而封闭生态。

我们的数据显示,差不多每秒钟就有一个开发者加入GitHub,其中80%的人会自然而然地进入某种GitHub Copilot的工作流。他们中的许多人甚至会使用我们默认启用的代码审查代理。所以我们拥有很多结构性优势。我们正在扩展GitHub的核心能力,从Git到Issues,再到Actions,这些都围绕着你的代码库构建,非常强大。上周在GitHub Universe大会上,我们发布了Agent HQ。 这是我们设想并计划构建的理念。在其中,你会看到一个叫“任务中心”的功能。我有时把这比作一个“AI代理的有线电视套餐”,用户只需一个订阅,就能打包获得来自Codeium、Claude、Cognition,甚至Grok等任何公司的代理服务。

用户可以发布一个任务,然后指挥这些代理在独立的进程中协同工作,并监控它们的进展。我认为这将是未来最大的创新领域,因为用户需要使用多个代理、整合它们的输出,并最终掌控自己的代码仓库。我们需要构建一个“抬头显示器”,让用户能够快速指挥和筛选AI代理生成的内容。

在我看来,VS Code、GitHub以及我们正在构建的任务中心等新功能,将提供一个统一的控制平面和可观测性平台。所有部署这些工具的人,都需要全面了解哪个代理在何时对哪个代码库做了什么。这正是我们的机会所在。

说到底,你的观点很对:我们最好保持竞争力并持续创新。否则,我们就会被超越。但只要我们还在这张图表的顶端,即使面临竞争,也是个不错的位置。

迪伦·帕特尔: 这里的关键在于,无论哪个编码代理最终胜出,GitHub都会持续增长。但那个市场的增速可能只是每年10%到20%,虽然远高于GDP,是一种不错的复合增长。

然而,AI编码代理这个市场,已经从去年年底约5亿美元的年收入(当时基本只有GitHub Copilot),增长到今年第四季度,包括所有竞争者在内,年收入高达56亿美元。这是10倍的增长。

当我们思考软件代理的总潜在市场(TAM)时,它究竟是目前付给开发者的2万亿美元薪酬,还是一个远比这更大的市场?因为世界上每家公司都将能更高效地开发软件。

毫无疑问微软会分一杯羹,但在短短一年内,你们的市场份额从接近垄断(肯定高于50%)骤降至不足25%。这让人们如何对微软保持信心?

萨提亚·纳德拉: 迪伦,这又回到了那个观点:我们没有任何与生俱来的权利,我们不该有任何盲目的信心,而是要认识到,我们必须靠创新去赢得市场。幸运的是,我们正进入一个比以往任何一个我们曾占据高份额的市场都大得多的新领域。

打个比方,我们在客户端-服务器时代拥有极高的市场份额,而在超大规模计算(云计算)时代,我们的份额要低得多。但云计算业务的体量,难道不是比前者大出几个数量级吗?这就是现成的证据,证明即便市场份额不如从前,只要我们所在的市场正在创造巨大的增量价值,并且允许多个赢家共存,微软依然可以发展得很好。所以,这才是问题的核心。但我也明白你的意思,归根结底,这一切都意味着你必须保持竞争力。

因此,我每个季度都在关注这一点。这也是为什么我对我们在Agent HQ上的规划如此乐观,我们致力于将GitHub打造成所有AI代理的汇聚地。正如我所说,在那里,我们将有多次赢得市场的机会,因为成功不必只属于我们一家,也不必只有一个赢家和一种订阅模式。

谁的利润率将增长最多?

主持人德瓦克什:我之所以想深入探讨这个问题,是因为它不仅关乎 GitHub,更关乎 Office 以及微软生态下的所有软件。对于 AI 的发展路径,一种设想是,模型的能力将持续受限,因此我们始终需要对它的运行过程进行直接、清晰地观察和控制。

图片

另一种设想则认为,模型的能力会不断进化。现在它们能处理两分钟的任务,未来或许能胜任数十分钟、甚至长达数天的工作。

到那时,模型公司可能会收取数千美元,让我们接入一个堪比人类同事的“AI 员工”。这个“员工”能通过任何用户界面与人协作,并且能在不同平台间自由迁移。那么,如果我们正朝着这个方向发展,为什么最终不是模型公司——那些盈利能力越来越强的公司——攫取所有利润呢?

为什么所谓的“脚手架”(应用层)反而变得如此重要?难道随着 AI 能力的增强,它不应该变得越来越无足轻重吗?这就好比现在的 Office 软件和那些从事知识工作的“AI 同事”之间的关系。

萨提亚·纳德拉: 这是个很好的观点。这正是价值分配的关键所在:价值究竟是会完全转移到模型,还是在“脚手架”和模型之间重新分配?时间会给出答案,但我的基本看法是,最终的激励结构会决定一切。

以 GitHub Copilot 的“自动”模式为例,它就是一个很好的范例。我订阅这项服务,它能根据我的请求自主选择并优化执行路径,甚至可以跨多个模型进行“套利”,用最低的成本(tokens)来完成任务。


如果这个逻辑成立,那么模型本身,特别是在开源模型的冲击下,将会趋于商品化。你可以选择一个模型检查点(checkpoint),结合你的数据进行微调,许多公司已经在开发内部模型来分担任务。

有一种观点认为,如果你赢得了‘脚手架’——也就是处理复杂性和不确定性的应用层——你最终将能够垂直整合到模型层。因为你掌握了数据的流向,并且有大量可用的模型检查点供你选择。从行业结构来看,总会有一个强大的开源模型可供使用。

因此,模型公司可能会面临“赢家诅咒”:在取得重大突破后,其技术迅速被商品化,真正的优势反而留给了那些掌握应用基础、上下文工程和数据流的公司,它们可以轻易地获取一个模型检查点并加以训练。所以,这个问题的确可以从两方面来看。

迪伦·帕特尔:所以,总结一下您的观点,看待这个问题有两种视角。一种是模型层,虽然模型众多、开源并存,但模型间的差异化将决定胜负。然而,“脚手架”才是制胜的关键

另一种观点则认为,模型本身才是核心的知识产权。我们正处于一个竞争异常激烈的时期,客户可以说“我既可以用 Anthropic,也可以用 OpenAI”。这一点从收入图表就能看出来。例如,当 OpenAI 推出了功能上可与 Anthropic 匹敌的代码模型后,尽管实现方式不同,其收入也开始飙升。

所以有一种观点认为,模型公司才是最终攫取所有利润的赢家。看看今年 Anthropic 的数据,他们在推理业务上的毛利率从不到 40% 飙升到了年底的 60% 以上。

图片

而这是在面临大量中国开源模型、OpenAI、Google 甚至 X-Grok 等众多强大竞争对手的情况下实现的。即便竞争如此激烈,模型层的利润率依然在显著增长。您怎么看这个问题?

萨提亚·纳德拉: 这是一个很棒的问题。几年前,人们普遍认为“只要给模型套个壳,就能做成一家公司”。现在看来,这个想法基本被证伪了,主要原因在于模型的能力,尤其是它与工具结合后所释放的潜力。

有趣的是我们内部构建的一个叫 Excel Agent 的项目。它并非一个简单的 UI 层封装,而是一个深度嵌入在中间层的模型。我们利用自身拥有的 GPT 系列知识产权,将它置于 Office 系统的核心中间层,教会它“原生”地理解 Excel 的一切。


所以它不是停留在“识别屏幕像素”的层面,而是能够完全理解 Excel 的所有原生组件和逻辑。当我审视这个项目时,我意识到,如果要让它执行推理任务,甚至纠正我犯的错误,它就不能只看像素,它必须能理解“哦,这个公式写错了”。所以,这一切并非通过提示词在 UI 层完成,而是在中间层通过教会它使用 Excel 的所有工具来实现的。我甚至可以给它一份 Markdown 文档,把它训练成一个 Excel 高手。

这引出了一个有趣的概念,有点像构建一个“AI 大脑”。你不再只是构建一个 Excel,而是在构建业务逻辑。你正在为传统的业务逻辑套上一个认知层,这个认知层由一个懂得如何使用工具的模型驱动。从某种意义上说,未来的 Excel 将内置一个“分析师”,这个分析师掌握了所有必要的工具。我认为这会是未来软件的构建方式。

所以,模型公司之间也必须竞争。如果它们的定价过高,那我作为应用开发者,自然会寻找替代方案。当然,如果某个模型在所有方面都遥遥领先,那就会出现赢家通吃的局面。但只要竞争存在,只要有多个模型可选,就像云计算领域的竞争一样,再加上开源力量的制衡,那么在模型之上构建价值的空间就依然广阔。

而在微软,我们的战略是:我们既会投身于支持多模型的超大规模计算业务,也会在与 OpenAI 的七年合作基础上不断创新,这让我们能以最大的灵活性使用并发展前沿模型。同时,我们也会通过 MAI 团队构建自己的模型。这样,我们始终掌握着模型层。然后,无论是在安全、知识工作、编码还是科研领域,我们都将构建自己的应用“脚手架”。这些应用将是模型优先的,但关键在于,它们不是模型的简单包装,而是将模型无缝地融入应用之中。

主持人德瓦克什:关于您提到的其他事情,我还有很多问题,但在那之前,我仍然想确认,您对 AI 的设想是否有些保守了?您所描述的模型似乎还停留在今天的水平——它能截屏,但无法真正深入查看 Excel 单元格里的公式。

我认为一个更前瞻的思路是:未来的模型将能像人类一样操作电脑。一个人类知识工作者在使用 Excel 时,不仅能看公式,还能切换到其他替代软件,甚至在 Office 365 和其他应用间迁移数据。如果模型真能做到这一点,那与 Excel 的深度集成似乎就不那么重要了,不是吗?

萨提亚·纳德拉: 不,Excel 的集成依然重要。毕竟,Excel 本身就是为分析师打造的工具。那么,任何扮演分析师角色的 AI,都理应掌握这些工具。

主持人德瓦克什:还有计算机,对吧?就像人类可以使用计算机一样,那是他们的工具。

萨提亚·纳德拉: 而计算机就是它的终极工具。对。所以,我说的其实是,我们正在构建一个“AI 分析师”,一个天生就懂得如何使用所有分析工具的 AI 代理。

主持人德瓦克什:这个代理使用 Excel 的方式,和我一样吗?

萨提亚·纳德拉: 它可以是完全自主的。我们可以设想一下公司未来的运作模式。第一种模式是,我作为员工,使用电脑和 Excel,还有一个 Copilot 及其代理从旁协助,但我仍然是主导者。

第二种模式是,公司直接为 AI 代理配置计算资源,让它完全自主地工作。这个自主代理同样需要一套具象化的工具来完成任务。这个 AI 代理也需要一台“原生”计算机,因为它通过调用工具来完成工作,这比单纯依赖大模型推理要高效得多,也更节省 token。

我倾向于这样看:我们今天面向终端用户的工具业务,未来将演变为支撑 AI 代理工作的基础设施业务。这是一种新的思考方式。所以,我们为 M365 构建的一切都依然至关重要。即使是 AI 代理,也需要地方来存储数据、归档文件、进行信息发现和管理活动。这本质上是一种新型的基础设施。

主持人德瓦克什: 所以,为了确保我理解,您的意思是,未来一个强大的 AI,即使不是微软开发的,理论上也能使用微软的软件。但如果它选择使用微软的基础设施,就能获得更底层的访问权限,从而更高效地完成工作。

萨提亚·纳德拉: 是的,100%可以做到。这就像我们从物理服务器到虚拟化,再到更多的服务器一样。所以,换个角度想,不要把应用工具看作是终点。人类工作所依赖的底层基础,同样也是 AI 代理工作所需的基础,因为 AI 代理也需要一台“电脑”来运行。

一个有趣的增长点是,我们看到许多开发自主代理的公司,正在为他们的代理配置 Windows 365。他们确实想为这些代理配备一台真正的“电脑”。

所以,这引出了人们问我的另一个问题:每用户付费的业务模式会怎样?至少早期的迹象表明,未来,我们思考的单位将不再是‘每用户’,而是‘每代理’。

那么,无论是“每用户”还是“每代理”,关键问题是:需要为每个代理配置什么?答案是一台电脑、一套安全体系、一个身份标识,以及相应的管理和监控层。所有这些都将是未来业务的核心。

迪伦·帕特尔: 在我看来,模型公司目前正在构建各种环境,训练模型去使用 Excel、在亚马逊上购物、预订机票等。

图片

但同时,它们也在训练模型执行“迁移”任务,这或许才是最有价值的应用。比如,将基于大型机的旧系统迁移到现代云平台,将 Excel 表格升级为真正的 SQL 数据库,或者将 Word 和 Excel 中的手动操作转化为更高效的程序化流程。这些工作人类也能做,但对于软件开发者来说,成本太高,不划算。在未来几年,利用AI大规模创造价值,将成为大势所趋。如果AI模型本身就能调用工具完成工作,微软将如何应对这种转变?尽管微软在数据库、存储等领域遥遥领先,但Office这类生态系统的使用量可能会因此大幅萎缩,就像曾经的大型机生态系统一样。

实际上,大型机在过去二十年里一直在增长,尽管已经淡出了公众视野。它们一直在增长。我完全同意这一点。

萨提亚·纳德拉: 归根结底,我们将在很长一段时间内处于一个“混合世界”。因为人们会使用这些AI工具,会与需要调用工具的AI代理(Agent)协同,并且人与人之间也需要沟通。我用AI生成的内容,终究需要由人来审阅和使用。因此,无论是输入还是输出,这些交互都是现实中必须考虑的环节。所以,这并非简单地“迁移完成,一劳永逸”,根本在于我们必须适应这个混合世界。但这并未完全回答你的问题。因为未来可能会出现一个全新的、高效的前沿领域——一个完全由AI代理协同并被极致优化的工作模式。

萨提亚·纳德拉: 即使是代理与代理之间的协同,又需要哪些基本要素呢?它们是否需要存储系统?这个系统是否需要支持电子发现(e-discovery)?电子发现功能是否需要具备可观测性(observability)?它们是否需要一个统一的身份系统,来贯穿所有正在使用的模型?这些恰恰是我们今天Office等系统所依赖的基础设施,我相信未来依然如此。

图片

你提到了数据库。天啊,我多么希望所有Excel文件都有一个强大的数据库作为后端!我希望这一切能立刻实现,而且那个数据库要足够优秀。数据库将是一个巨大的增长点。可以想象,如果所有Office文档都能被更好地结构化,AI代理能更强地连接结构化与非结构化数据,这将极大地推动底层基础设施业务的增长。

最终,所有的计算资源消耗都将由AI代理驱动。你也可以说,这一切都是模型公司即时生成的软件。这很可能成为现实。而微软,也将是这样的模型公司之一。我们正在为此努力。未来的竞争格局可能是,我们既构建模型,也提供所有配套的基础设施和服务。届时,市场上将是多家有能力做到这一点的公司之间的较量。

微软AI(MAI)

主持人德瓦克什:   谈到模型公司,您提到微软不仅要掌握基础设施,还要拥有自己的模型。但目前,微软AI(MAI)最新发布的模型,在Chatbot Arena上排名第36位。考虑到微软显然拥有OpenAI的IP授权,问题是,这种情况为什么会发生?尤其是理论上你们有权直接复制OpenAI的代码库(monorepo)或蒸馏其模型。如果成为顶尖模型公司是你们战略的核心,这一点就更令人好奇了。

图片

萨提亚·纳德拉: 首先,我们会将OpenAI的模型深度整合到我们所有产品中。这是我们未来七年都会坚持的核心策略——不仅是使用,更是基于它增加价值。比如我们正在做的分析师和Excel代理,就是利用微软独特的数据资产,通过RL微调和中期训练,在GPT系列模型之上构建的新能力。

对于MAI模型,我的看法是:好消息是,根据新协议,我们能非常明确地——我们将组建一个世界级的团队,满怀雄心去追求超级智能。但同时,我们也会明智地利用好现有资源。这意味着我们将一手抓产品,一手抓研究。换言之,既然我们已经能够使用GPT系列,我最不希望看到的,就是把我们宝贵的计算资源(flops)浪费在低价值的重复性工作上。

所以,我想最大化利用那些用于训练GPT系列的算力,同时,将我们MAI的算力投入到其他地方。例如,我们刚发布的图像模型,在图像领域排名第九,我们正将它用于Copilot和Bing的成本优化。我们在Copilot中有一个具有独特个性和特点的音频模型,也是为我们的产品专门优化的。这些我们都会继续做。

图片

即使在语言模型(LM)领域,我们也从文本模型开始。它首次亮相时排名第13,而训练它只用了大约15,000个H100,是一个非常小的模型。我们这样做,是为了验证我们在核心能力、指令遵循等方面的水平,确保我们能达到业界顶尖。这让我们看清了,根据规模法则(scaling laws),如果投入更多算力,我们能达到什么样的高度。

下一步,我们将开发一个全能模型(Omni model),整合我们在音频、图像和文本方面的工作,这将是MAI的下一个重要里程碑。因此,我构想的MAI路线图是这样的:我们将打造一个顶级的超级智能团队;我们会持续发布和开源一些模型,它们要么因为在延迟、成本上的优势,要么因为具备某些特殊能力,而被应用到我们的产品中;我们还会进行真正前沿的研究,为实现超级智能所需的未来五到八项重大突破做好准备。这一切,都是在充分利用我们现有GPT系列优势的基础上进行的。

主持人德瓦克什: 假设七年后,你们无法再使用OpenAI的模型。届时,外界如何建立信心,或者说,微软如何确保自己仍然拥有一个顶尖的AI实验室呢?

如今,我们看到OpenAI取得了一系列突破,Google也贡献了像Transformer这样的基石创新。这背后是一场激烈的人才争夺战。

你看到Meta在人才上投入超过200亿美元;Anthropic去年从Google挖走了整个BlueShift推理团队;最近Meta又从Google挖走了大型推理和后训练团队。这类人才战争的资本投入极其巨大。

可以说,如果你在基础设施上投入千亿美金,理应投入相应的人力资本,来支持那些使用这些设施的人才,让他们能更高效地实现创新突破。我们如何能相信,微软将拥有一支能实现这些突破的世界级团队?而且,一旦你们决定“打开钱的阀门”——从目前这种明智的、避免重复浪费的资本节约状态切换过来——你们又如何能保证,自己能迅速跻身顶尖模型之列?

萨提亚·纳德拉: 归根结底,我们一定会建立起一支世界级的团队。事实上,这支团队已初具规模,并且在不断壮大。随着Mustafa Suleyman的加入,我们有了Karen Simonyan,我们还有负责了Gemini大量后训练工作的Amar Subramanian,他现在也在微软。曾在DeepMind负责多媒体工作的Nando de Freitas,也在这里。我们将建立一支世界级的团队。稍后,Mustafa会对我们实验室未来的工作方向有更清晰的阐述。

我想强调的是,我们正在构建的是能支持“多模型”的基础设施。因为从超大规模(hyperscale)的角度来看,我们希望构建最庞大的基础设施集群,能够支持世界上所有模型的需求,无论是开源的,还是来自OpenAI及其他公司的。这是一项工作。

第二,在我们自身的模型能力方面,我们将在产品中继续使用OpenAI模型,同时开始构建我们自己的模型。我们甚至会像在GitHub Copilot中那样,使用Anthropic的模型。我们会将其他前沿模型也集成到产品中。

因此,我认为,最终的评判标准是产品在完成特定任务或工作时的表现。我们将以此为基准来决定需要多大程度的垂直整合。只要你的产品能很好地服务市场,你总有办法优化成本。

主持人德瓦克什: 关于未来,我有一个问题。目前,模型的训练和推理是分开的。有人认为,不同模型之间的差距正日益缩小。

图片

展望未来,如果我们期望AI达到类人智能,那么它就必须像人一样,在工作中学习。回想您过去30年的经历,是什么让您今天的见解如此宝贵?是您在微软这30年积累的智慧和经验。

未来,当模型达到人类水平时,它们也将具备在工作中持续学习的能力。这会为顶尖模型公司创造巨大的护城河。因为你将拥有一个部署在经济体每个角落的模型副本,它在学习如何完成每一项工作。

与人类不同,AI可以将所有个体的学习成果瞬间整合到核心模型中,形成一个持续学习、指数级增长的反馈循环——这几乎就是一场‘智能爆炸’。

如果这一天真的到来,而微软并非那家顶尖的模型公司,那么您之前提到的“用一个模型替换另一个模型”的策略是否还成立?因为届时,局面将是一个模型通晓万物,而其他所有模型都望尘莫及。

萨提亚·纳德拉: 我理解你的观点:如果一个模型被最广泛地部署,能看到所有数据并持续学习,那么它将“赢家通吃”,对吗?我的看法是,现实并非如此,即使在今天,也没有哪个模型能主导一切。

以编程为例,市面上有多个模型,单一模型被广泛部署的情况反而越来越少。这有点像数据库,从来没有一个数据库能通吃所有场景,而是多种数据库服务于不同用例。


所以,尽管持续学习和数据流动性确实会带来网络效应,但我不认为这种效应会同时覆盖所有领域、所有地区和所有细分类别。因此,我认为设计的可能性空间(design space)极其广阔,充满了机会。

但你的根本观点是,在基础设施层、模型层和产品层都具备能力。然后能够将这些能力组合起来,不仅仅是作为垂直堆栈,而是能够为特定目的灵活组合。你不能构建只为单一模型优化的基础设施。如果你那样做了,万一你落后了呢?你投入的所有资本,都将打了水漂。一旦像Moe(Mixture of Experts)这样的架构突破出现,你设计的整个网络拓扑都将过时。这才是最可怕的风险。你必须构建能支持“任何”可能出现的新模型的基础设施,包括你自己的和其他公司的。你必须保持开放。如果你想认真做超大规模业务,这是唯一的选择。

同样,如果你想成为一家模型公司,你就得思考:“开发者能基于我的模型做什么?”这样才能建立起ISV(独立软件开发商)生态系统。你不可能通吃所有应用类别。如果你没有API业务,本质上就无法成为一个成功的平台公司。因此,行业结构本身会驱使参与者走向专业化。在专业化的分工中,像微软这样的公司,应该在每一层都凭实力去竞争,但绝不能幻想通过简单的垂直整合就能‘赢家通吃’。那样的局面,根本不会出现。

超大规模业务

迪伦·帕特尔:去年,微软曾一度有望成为史上最大的基础设施提供商。那还是在 2023 年初。你们当时正在全力布局,租赁数据中心、启动建设、保障电力,几乎囊括了所有可用资源。原本预计你们将在 26 或 27 年超越亚马逊,到 28 年几乎是板上钉钉的事。

然而,从去年下半年开始,微软却突然踩下了刹车,放弃了许多原本计划租赁的数据中心场地。

而这些空出来的场地,很快就被谷歌、Meta、亚马逊,甚至 Oracle 抢占了。我们现在就身处全球最大的数据中心之一,所以很明显,你们并没有完全停下脚步,仍在疯狂扩张,但确实放弃了部分项目。你们为什么会做出这样的调整?

萨提亚·纳德拉: 这要回归到超大规模业务的本质来看。我们做出的一个关键决策是:要打造一个能支持 AI 全流程——从训练、微调到推理——的 Azure 平台,关键在于整个基础设施机队的灵活性。 因此,我们不能把宝押在为某一特定技术代际构建的大量专用容量上。


你要知道,我们已经实现了为 OpenAI 模型每 18 个月提供 10 倍训练容量的增长速度,我们深知保持这一发展势头至关重要。但更重要的是,我们需要在“训练”和“服务”之间找到平衡。毕竟,只有将模型服务于全球用户,实现商业变现,我们才能获得持续投入的资金。此外,未来的基础设施必须能够支持多样化的模型。

想清楚了这一点,我们就果断调整了方向,回到了我们认为正确的道路上。如果你看我们现在的布局,就会发现我们启动了更多新项目,并在竭尽所能地获取算力——无论是自建、租赁,还是以 GPU 即服务的形式。但我们所做的一切,都是为了满足真实可见的市场需求、服务需求和训练需求。我们不想仅仅成为某一家大客户的“托管服务商”。那不叫业务,那更像是你应该与这家公司进行垂直整合。 OpenAI 是一家卓越的独立公司,我们乐见其成,这完全合理。即使像 Meta 这样的公司会使用第三方算力,但最终他们都会走向自建。任何一个拥有超大规模业务的公司,最终都会成为自己的超大规模云服务商。 因此,在我看来,建立我们自己的、灵活的超大规模机队和强大的研究计算能力,才是重中之重。这就是我们调整的方向,而我对这个方向充满信心。

还有一点,我不想被单一技术代际的大规模部署所束缚。我们刚刚见证了 GB200 的发布,下一代产品也已在路上。等到我们开始部署像 Vera Rubin 这样的新平台时,数据中心的形态将发生天翻地覆的变化,机架功耗、散热需求都将完全不同。这意味着我不想投入海量资金,去建设只能服务于某一代、某一系列芯片的吉瓦级电力容量。所以,我认为建设的节奏、机队的灵活性、数据中心的地理分布、工作负载的多样性以及客户群体的多样性,这些都至关重要。这才是我们努力构建的生态。

我们还深刻认识到,每一个 AI 应用,需要的远不止是 AI 加速器本身。事实上,我们真正的利润增长点,恰恰来自于这些配套服务。因此,我们致力于将 Azure 打造成服务于“长尾”应用的最佳平台,因为这才是超大规模业务的精髓所在。同时,我们也必须在提供顶尖的裸金属训练服务方面保持极强的竞争力。但这项业务不能“挤出”我们的核心业务。微软的业务,不是只签五份合同,为五家客户提供裸金属服务。那或许是其他公司的商业模式,我们表示尊重。但我们要做的,是真正的超大规模云业务,这才是服务 AI 工作负载的长期之道。为了实现这个目标,我们会保有领先的裸金属即服务能力,用以支持包括我们自研模型在内的多种模型。我想,这就是你们看到的我们在寻求的平衡点。

迪伦·帕特尔:关于灵活性,我想追问一点:有些地理位置,比如我们现在所在的亚特兰大,是你们青睐的优质节点。但如果 AI 任务的执行时间不断拉长——比如说,一个推理任务可能需要 30 秒,一个深度研究任务需要 30 分钟,而未来的 AI 代理甚至可能需要数小时乃至数天才能完成任务。在人机交互时间线被无限拉长的未来,数据中心的地理位置还那么重要吗?

萨提亚·纳德拉: 你问到点子上了。这正是我们重新思考“Azure 区域应该如何定义?”以及“区域间的网络连接应该如何构建?”的核心驱动力之一。

随着模型能力的演进,以及 token 使用方式(无论是同步还是异步)的演变,我们必须确保自己不会因为基础设施布局而处于被动地位。

此外,数据主权也是一个硬性约束。比如欧盟的法规,我们必须在欧盟境内建立数据边界,这意味着即使是异步调用,数据也不能随意跨境传输。这就要求我们在特定区域建设高密度的计算设施,并综合考量当地的电力成本等因素。

但你提出的“基础设施拓扑结构需要随着业务演进”的观点,完全正确。我们需要综合考量多重因素:首先是经济效益,即每瓦特电力、每美元投入能产生多少 token;其次是使用模式,同步和异步调用的混合;再者是计算与存储的协同,对于低延迟应用,存储必须就近部署。

例如,如果我需要用附近的 Cosmos DB 来处理会话数据或执行自主事务,那么数据库和计算单元就必须在物理上彼此靠近。所有这些因素,共同塑造了未来超大规模业务的形态。


迪伦·帕特尔:在你们“踩刹车”之前,我们预测到 2028 年你们的电力容量将达到 12 到 13 吉瓦,但现在这个数字可能被下调到了 9.5 吉瓦左右。

但更关键的是,我想让你更具体地解释一下,这究竟是怎样一种“你们不想做的业务”。

因为像 Oracle 这样的公司,正从只有你们五分之一的体量,快速增长到预计在 2027 年底超越你们。虽然他们的资本回报率不如微软,但毛利率依然能达到 35%。

所以我的问题是:这真的是“微软不该做的业务”吗?你们通过拒绝这块业务,等于亲手为自己创造了一个新的超大规模竞争对手。

萨提亚·纳德拉: 首先,我无意贬低 Oracle 在业务发展上取得的成就,并祝他们一切顺利。关于你的问题,我想我的回答是,我们没有必要只为一家模型公司、一份有特定周期的合同,去做纯粹的托管服务。

你要思考的,不是未来五年做什么,而是未来五十年做什么。这才是我们决策的出发点。 我对我们与 OpenAI 的合作现状非常满意,我们的合作业务进展顺利,也真心祝愿他们取得巨大成功。事实上,我们自己也在向 Oracle 购买算力,我们同样希望他们成功。

但就目前而言,我们所做决策背后的商业逻辑非常清晰:我们不是为了追赶而追赶。我当然会密切关注你们的分析以及 AWS 和 Google 的动态,这非常有价值。但这不代表我必须盲目地追随他们的脚步。我不能只为了某个阶段可能的高毛利率而去追逐。我们真正要做的,是打造微软能做到最好的、最具差异化优势的业务。

主持人德瓦克什:我想我有个问题。我接受你的观点,即从商业模式上说,服务好“长尾”客户、打造一个高利润的生态,确实优于只为少数几家 AI 实验室提供裸金属服务。

但问题在于,这个行业未来的格局会是怎样?如果我们相信 AI 正变得越来越智能,那未来的行业格局难道不应该是 OpenAI、Anthropic 和 DeepMind 成为新的“平台”吗?“长尾”客户会直接与这些 AI 平台打交道。这些 AI 平台需要裸金属算力,但它们才是真正的价值核心。

那时,还有哪些长尾客户会直接使用 Azure 呢?

萨提亚·纳德拉: 但关键是,所有这些模型都可以在 Azure 上被调用。如果你今天登录 Azure AI 服务,你就能找到所有这些模型,你可以购买算力(PTU),调用 Cosmos DB、SQL DB,使用各种存储和计算资源。这,才是一个完整的真实业务场景(workload)。

一个真正的应用,绝不仅仅是调用一次模型 API 那么简单。它需要所有这些周边服务的支撑,才能被真正构建和运行起来。 事实上,即使是模型公司自己,也需要这些配套服务。他们不能只有一个“token 工厂”,他们同样需要一个完整的生态来构建自己的产品。

这,才是超大规模云的真正含义——它不是关于某一个模型,而是关于所有模型和它们所需的一切。 所以,如果你想同时使用 Grok、OpenAI 的模型,再加上某个开源模型,你可以来 Azure,把它们组合起来,连接上数据库,构建你的应用。这才是我们业务的核心。

当然,向模型公司出售裸金属算力是另一块独立的业务。这是一个非常特殊的细分市场,我们身处其中,但我们会控制它对我们核心业务的“挤出效应”。

迪伦·帕特尔:所以我有两个问题。第一,为什么你们不能两者兼得?第二,根据我们的估算,你们到 2028 年会比原计划少建 3.5 吉瓦的容量。这 3.5 吉瓦的容量,你们当然可以不给 OpenAI,完全可以用来支持 Azure 自己的业务,比如 Microsoft 365 和 GitHub Copilot。你们完全可以为自己而建。

萨提亚·纳德拉: 或者,我可能想把这些容量建在不同的地方——建在阿联酋、建在印度、建在欧洲。

所以,我们目前面临的真正瓶颈,恰恰是监管和数据主权的要求,这迫使我们必须进行全球化布局。美国本土的容量固然重要,我们也会全力建设。

但当我展望 2030 年时,我对微软的第一方业务(自家产品)和第三方业务(客户)的全球版图,有我自己的规划。在第三方业务中,我们需要平衡前沿模型公司的合作需求,以及我们为支持多样化模型和自研模型而建设的推理能力。

所以,所有这些因素都在我的考量之中。你指出我们有过“停顿”,这没错。但这次停顿,并非“不建了”,而是要“换个建法”。 我们意识到,需要从工作负载类型、地理分布和技术迭代节奏上,重新规划我们的建设蓝图。

我们当然会继续增加电力容量。但问题是:以什么样的节奏、在什么地方、用什么样的方式去建?我称之为“叠加在基础设施建设上的摩尔定律”。我真的要在 2027 年就一次性建完 3.5 吉瓦的单一技术代际容量吗?还是应该把投资分散到 27 年、28 年,从而拥抱技术迭代?我们从英伟达身上学到的最大一课就是,他们的创新步伐在不断加快。

这是一个关键的考量因素。我不想花四五年时间去摊销一代即将过时的技术。黄仁勋给了我两条建议。第一条是“以光速执行”。就像我们在亚特兰大数据中心的案例,从拿到地到交付给客户运行实际负载,只用了 90 天,这绝对是光速般的执行力。


所以我希望在这方面做到极致,这样我才能稳步构建和扩展每一代产品。如此一来,每五年,我们就能达到一个更加均衡的状态,这正符合大型工业化运营的实际节奏。你不会因为在某个时间点过度投资而突然失衡,然后又因为被困在某个技术节点而陷入大规模的停滞。这种情况可能对训练有利,但对推理却很不利,因为我无法提供服务——即便服务是异步的,欧洲也不会允许我把数据跑到德克萨斯州去处理。

迪伦·帕特尔:这个说法该如何与你们过去几周的行动对应起来呢?你们宣布了与 Iris Energy、Nebius 和 Lambda Labs 的交易,而且还有更多交易即将公布。你们正在向外租用算力,而不是自己建设。这该如何解释?

萨提亚·纳德拉: 因为我们现在就有这个能力。当你看到市场需求旺盛,而且正好有人在建设相应的算力,这当然是好事。事实上,我们会签订租赁协议,接受定制建造,甚至在自己容量不足而别人有富余时,直接采用 GPU 即服务。

而且,我甚至欢迎每一个“新云”(NeoCloud)成为我们市场的一部分。因为你想想,如果他们把算力接入我们的市场,通过 Azure 来的客户就可以使用“新云”的算力,这对他们来说是巨大的胜利,同时这些客户也会使用 Azure 的计算、存储、数据库等所有其他服务。所以,我完全不认为我们应该“单打独斗,独吞整个市场”。

自研芯片与 OpenAI 的合作关系

主持人德瓦克什:您提到了资产折旧周期是五到六年,这是数据中心总拥有成本 (TCO) 的主要部分。而英伟达在这块业务上的利润率高达 75%。因此,所有的超大规模云服务商都在努力开发自己的加速器,以降低这部分高昂的设备成本,并提高利润。

迪伦·帕特尔:是的。看看他们目前的状况:谷歌无疑遥遥领先,他们布局得最早,预计将生产大约五到七百万颗自家的 TPU 芯片。亚马逊也在努力,目标是三到五百万颗。但我们看到微软订购的自研芯片数量远低于这个水平。你们的自研芯片计划同样历史悠久,目前的进展如何?

萨提亚·纳德拉: 这是个好问题,原因有几个方面。首先,任何新款加速器的最大对手,其实就是上一代的英伟达。 在一个拥有海量设备的集群里,我关注的是整体的 TCO。所以,即使是我们自己的产品,我也设定了很高的标准。顺便说一下,我刚看了 Maia 200 的数据,表现非常出色。但我们也从中吸取了一个教训,尤其是在计算领域。我们曾经大量使用英特尔的设备,后来引入了 AMD,接着又推出了我们自研的 Cobalt。我们就是这样一步步扩展过来的。因此,在核心计算方面,我们已经充分证明了如何通过自研芯片,来管理一个包含三家供应商并维持平衡的庞大集群。

而且,即使是谷歌和亚马逊,也同样在采购英伟达的产品。这是完全合理的,因为英伟达在不断创新,并且它的产品是通用的,所有模型都能在上面运行,客户需求也非常旺盛。如果你要构建一个垂直整合的产品,你最好也有自己的模型——无论是用于训练还是推理,你都必须自己创造需求,或者补贴需求。因此,你需要确保以一种恰当的方式来扩大规模。

所以,我们打算采取的方式是,在我们自己的 MAI 模型和自研芯片之间建立一个闭环生态,我认为这才是自主造芯真正的先决条件。 这意味着你的芯片微架构是根据自身模型的实际需求来设计的,并与模型的迭代步伐保持一致。对我们而言,好消息是 OpenAI 有一个我们能够接触到的发展路线图。

迪伦·帕特尔:你们的访问权限很高,可以获得所有这些的知识产权。你们唯一没有的,就是消费级硬件。

主持人德瓦克什:就这样。哦,哇,好的。

萨提亚·纳德拉: 是的,很有趣吧?而且,我们当初也提供了一些知识产权来帮助他们起步。这也是他们能获得巨大优势的原因之一。我们一起建造了所有这些超级计算机,或者说我们为他们建造了这些,他们从中受益是理所应当的。

现在,即使他们在系统层面进行创新,我们也能接触到所有成果。我们会首先将他们构建的系统落地实现,然后再进行扩展。

所以,我对这个问题的看法是,微软希望成为英伟达一个极其出色的、堪称“光速响应”的合作伙伴,因为坦白说,那个集群就是我们的生命线。

我并不担心——虽然 Jensen 的利润确实非常可观——但 TCO 涉及很多维度。而我希望将总拥有成本控制到极致。在此基础上,我希望能够真正实现与 OpenAI 和 MAI 的模型传承以及系统设计的协同,我们在这两方面都拥有知识产权。

主持人德瓦克什:谈到知识产权,您几天前在一次采访中说,根据你们与 OpenAI 的新协议,微软拥有 OpenAI 无状态 API 调用的专有权。我们对此有些困惑,API 调用本身有状态可言吗?您刚才提到,所有这些复杂的计算工作负载都需要内存、数据库和存储。那么,这不就意味着有状态了吗?如果 ChatGPT 会存储运行的上下文……


萨提亚·纳德拉: 这正是关键所在。我们做出的这个商业和战略决策,同时也考虑到了 OpenAI 在获取计算资源方面的灵活性。你可以这样理解:OpenAI 同时拥有 PaaS(平台即服务)和 SaaS(软件即服务)两块业务。SaaS 业务就是 ChatGPT,而 PaaS 业务是他们的 API。这个 API 由 Azure 独家提供。至于 SaaS 业务,他们可以在任何地方运行,可以与任何他们想合作的伙伴共同构建 SaaS 产品。所以,如果他们想找一个合作伙伴,而这个合作伙伴需要使用无状态 API,那么 Azure 就是他们获取这个 API 的唯一渠道。

迪伦·帕特尔:这似乎为他们共同构建产品提供了一种稳定的合作模式。

萨提亚·纳德拉: 即便是那样,他们也必须来 Azure。所以,任何合作伙伴,从根本上说,都必须通过 Azure。这再次体现了我们作为合作伙伴所珍视的原则:我们既确保了 OpenAI 拥有所需的一切灵活性,同时也巩固了我们之间的良好合作关系。

迪伦·帕特尔:举个例子,如果 Salesforce 想要集成 OpenAI,不是通过 API,而是通过合作共同训练一个模型,然后部署在亚马逊上。这被允许吗?还是他们必须……?

萨提亚·纳德拉: 对于这种定制化协议,他们必须来 Azure 上运行。我们只为极少数情况破例,比如针对美国政府等,但除此之外,所有合作都必须在 Azure 上进行。

主持人德瓦克什:正如萨提亚所解释的,随着 AI 代理的能力越来越强,你需要对它们的行为有更强的洞察力。当它们犯错时,你需要捕捉到错误。你需要对它们正在做的事情有高层次的总结,并了解它们的所有行为是如何协同工作的。

这正是 Code Rabbit 提供的功能。你只需提交一个普通的拉取请求 (pull request),Code Rabbit 就会自动审查该 PR。它会生成变更摘要,让你准确理解 PR 作者的意图。它利用整个代码库的上下文,提供逐行反馈,告诉你如何改进。无论你是审查同事的 PR 还是 AI 代理的 PR,这都非常有帮助。在这两种情况下,Code Rabbit 都会写下它的想法,并标记出任何问题,以便你的同事或 AI 代理能够解决它们。

我注意到,当我和 AI 代理一起编程时,Code Rabbit 能捕捉到模型默认会犯的许多错误。例如,模型有个坏习惯,就是使用旧版本的库。在一次会话中,我看到 Code Rabbit 捕获了一个对旧模型的调用,找到了新版本,然后提出了改进建议。请访问 coderabbit.ai/floorcache 了解更多信息。

资本支出爆炸式增长

总而言之,我有一个问题。我们刚才反复谈到,微软过去被看作是一家软件公司,但现在正迅速转变为一家工业巨头。资本支出如此庞大,建设项目如此之多。过去两年,你们的资本支出增长了近三倍。如果将这个趋势外推,这简直是一场工业规模的爆炸式增长。

迪伦·帕特尔:其他超大规模云服务商也在举债,对吧?Meta 在路易斯安那州贷款 200 亿美元,他们做了企业贷款。看起来大家的自由现金流都快要耗尽了。我敢肯定,即使您想这么做,CFO Amy 也会对您提出严厉批评的。这背后到底发生了什么?

萨提亚·纳德拉: 你提到的结构性变化是巨大的。我的理解是,我们如今已是一个资本与知识双密集型企业。我们的核心任务,就是利用知识来提升资本的投资回报率(ROIC)。

你看,硬件公司在宣传摩尔定律上向来不遗余力,这很了不起。但即使如此,我记得在财报电话会议上提到过一些数据:对于某个 GPT 系列模型,我们在软件层面实现的“每美元每瓦特处理的 token 数量”的提升,无论是季度环比还是年度同比,都十分惊人,有时能达到 5 倍、10 倍,甚至 40 倍。这完全归功于我们的优化能力。这就是知识密集为资本效率带来的提升。

所以在某种程度上,这是我们必须掌握的核心能力。这意味着什么?有人问我,传统托管服务与超大规模云服务商的根本区别是什么?答案是软件。 所以,是的,这是一个资本密集型业务,但只要我们拥有系统知识和软件能力,能够针对不同的工作负载和集群进行优化,我们就拥有护城河。这就是为什么我认为,当我们谈论可替代性时,背后蕴含着大量的软件技术。这不仅仅关乎集群本身,更是一种能够抢占一个工作负载,并调度运行另一个的能力。我能否管理好这种调度算法?这些都是我们必须做到世界一流的事情。

所以,我认为我们仍然是一家软件公司。但这确实是一种不同的业务,我们会去驾驭它。归根结底,微软的现金流让我们有能力同时驾驭好这两条战线。

主持人德瓦克什:看来短期内,您更倾向于认为前路会比较坎坷。但从长远来看,您或许也认同那些谈论 AGI(通用人工智能)和 ASI(超级人工智能)的人是正确的,Sam Altman 最终会被证明是对的。我有一个更宏观的问题:考虑到你们需要在这方面投入巨资,而这些资产的折旧期是五年。如果 Sam 预言的未来在三年内就会到来,而你们的规划是着眼于未来几十年的,那么在这样的世界里,超大规模云服务商的合理决策应该是什么?

萨提亚·纳德拉: 我们必须将一部分资源投入到“研究性计算”中,这和你们做研发是同一个道理。坦率地说,这是最合理的归类方式。我们应该把它看作研发成本,然后问自己:“我们在研究性去计算上投入了多少?未来希望如何扩大规模?”

即便我们假设其规模在某个时期内会增长一个数量级——无论这个周期是两年还是十六个月。这部分投入,就是基础的研发费用。

剩下的部分则完全由需求驱动。当然,你可以为了满足未来的需求而提前布局,但前提是你必须有可靠的需求预测,并且这个计划不能偏离轨道。

主持人德瓦克什: 您怎么看?现在有些AI实验室预测,到2027、2028年,他们的收入将达到千亿美元级别,并且会以每年两倍、三倍的速度持续增长。

萨提亚·纳德拉: 这是市场行为,很正常,不是吗?我对此并不意外。一个独立的实验室想要融资,就必须描绘出一个宏伟的蓝图,才能筹集到资金来支付算力和其他开销。这是件好事,意味着总有人愿意承担风险去投资未来。而且他们也确实展示了巨大的潜力,取得了实实在在的成果——无论是OpenAI还是Anthropic,都证明了这一点。所以我很欣赏他们的努力,我们和这些公司也有着密切的业务合作。一切都进展顺利。

但归根结底,只有两件简单的事情至关重要。第一,必须持续投入研发。这既包括你提到的人才——顶尖的AI人才是稀缺资源——也包括算力。从某种意义上说,要成为顶尖的AI研发公司,你的人均GPU拥有量必须非常高。而且这种投入需要不断扩大。你必须拥有雄厚的财力,才能在AI成为市场共识之前,就提前完成规模化布局。这是第一点。

而另一点,则关乎如何进行市场预测。

世界会信任美国公司引领AI吗?

迪伦·帕特尔: 放眼全球,美国在许多技术领域都曾占据主导地位。比如微软的Windows,即便在中国也是主流操作系统,在个人电脑上无处不在;还有Word这样的办公软件,也被广泛使用。

微软和其他美国公司在欧洲、印度、东南亚、拉美和非洲等地建设基础设施,不断发展壮大。


但现在的情况似乎完全不同了。在互联网泡沫时期,美国政府或许并不太关心技术政治,但今天,无论是美国政府还是世界其他国家政府,都对人工智能高度关注。我们正处在一个“两极”世界,不仅是中美之间,欧洲、印度等许多国家也纷纷提出要发展自己的“主权AI”。

在这种背景下,微软该如何应对?过去,在90年代那个以美国为中心的世界里,微软的产品销往全球,并因此受益匪浅。但如今,在一个两极化的世界里,微软不能再想当然地认为可以轻松赢得欧洲、印度或新加坡的市场,因为这些地方都在努力构建自己的主权AI。您对此有何看法?

萨提亚·纳德拉: 我认为这至关重要。美国科技界和政府的首要任务,不仅是要在创新上保持领先,更要围绕我们的技术栈在全球建立信任。我常说,美国是一个不可思议的国家,在历史上独一无二:它以世界4%的人口,创造了25%的GDP,并占据了全球一半的上市公司市值。


这50%的市值之所以存在,正是因为世界对美国的信任——无论是对其资本市场、技术实力,还是其在各个时代引领产业发展的能力。一旦这种信任崩塌,对美国将是毁灭性的。 从这个角度出发,我认为无论是特朗普总统、白宫,还是大卫·萨克斯(David Sacks)这样的人,都深刻理解这一点。因此,我非常赞赏美国政府与科技界联手采取的任何行动,比如我们整个行业在全球范围内共同承担风险。

我甚至希望美国政府能够正视并宣传美国公司在全球的直接投资。这一点很少被提及。美国最有效的“营销”,不应仅仅是宣传有多少外资流入美国,而更应该强调那些最前沿的产业——比如今天的人工智能工厂——是由谁在建设?是美国和美国的公司。

以此为基础,我们再去构建其他协议,以解决各国在业务连续性、数据本地化、隐私保护等方面的合法主权关切。例如,我们对欧洲的承诺就是一个很好的范例。我们做出了一系列承诺,阐明了如何管理在欧洲的超大规模投资,从而保障欧盟及各成员国的主权。

我们正在法国和德国建设主权云,并在Azure上推出了“主权服务”,为客户提供密钥管理、机密计算,甚至包括与英伟达(NVIDIA)合作实现的GPU机密计算等功能。因此,我对于我们能通过技术和政策相结合的方式,来建立世界对美国技术栈的信任,充满信心。

主持人德瓦克什: 那么,考虑到模型的持续学习能力和网络效应,您认为未来趋势会是怎样?

各国是会说“既然某个模型最好,我们就用它,但模型权重必须托管在我国境内”,还是会更进一步,要求“模型必须在我国本土训练”?


这有点像半导体产业:芯片对经济至关重要,每个国家都想拥有“主权半导体”,但现实是台积电(TSMC)的技术遥遥领先。所以,即便事关经济命脉,各国最终还是得去台湾采购芯片。您认为AI会重演这一幕吗?还是会有所不同?

萨提亚·纳德拉: 归根结底,最重要的是如何应用AI来创造经济价值。技术扩散的最终目的,不是为了拥有领先技术本身,而是利用它来建立自己的比较优势。这才是根本的驱动力。

但话虽如此,各国也确实需要业务的连续性和安全性。因此,我相信市场总会存在制衡力量,防止出现“一个模型垄断一切”的局面。开源就是这样一种至关重要的制衡力量。

开源的存在,天然保证了世界不会只有一个模型。它为各国提供了一种选择,一种避免将所有鸡蛋放在一个篮子里的方式,从而规避了集中化风险。只要有多样化的模型,特别是开源模型的存在,每个国家都会更有信心地去部署和推广最先进的模型,因为他们知道,自己总有后路——可以随时将数据和应用迁移到另一个模型上,无论是开源模型,还是来自其他供应商的模型。

所以,对集中化风险的担忧和对主权的追求,这两股力量将共同塑造未来的市场格局。

迪伦·帕特尔: 但这和半导体的情况不一样。过去,冰箱、汽车里都有芯片,但没人关心它们是哪儿制造的,直到现在大家才开始关注。

萨提亚·纳德拉: 哦,现在每个人都在关注了。

迪伦·帕特尔: 即便如此,如果台湾的供应被切断,美国就没有汽车或冰箱可造了,台积电在亚利桑那州的工厂也无法替代其产能的任何一个有效部分。所以,所谓的“主权”在某种程度上讲,更像是一个口号。拥有本土产能固然重要,但这并非真正的主权。我们毕竟生活在一个全球化的经济体中……

萨提亚·纳德拉: 迪伦的意思是,难道我们还没从过去几年的经历中学到“韧性”(resilience)的意义吗?我认为任何国家,包括美国在内,现在都会不惜一切代价,在关键供应链上实现更高程度的自给自足。

作为一家跨国公司,我们必须将此视为开展业务的重要前提。如果不这样做,就是不尊重所在国的长期政策利益。当然,我不是说各国短期内不会做出务实的选择,全球化也不可能一夜之间倒退。

但与此同时,我们必须尊重这种趋势。试想一下,如果今天有人去华盛顿说“我们不打算在美国建任何芯片工厂”,他肯定会被轰出去。在任何其他国家都是如此。因此,作为企业,我们必须尊重这些来之不易的教训。

无论是疫情的警醒还是其他原因,人们已经认识到:全球化带来了极致的效率,但‘韧性’同样不可或缺。至于这种韧性需要多长时间才能建成——我认为这正是你问题的核心。

这不可能一蹴而就,你不能指望打个响指,台积电的所有产能就都搬到亚利桑那州了。但相关的计划正在制定中,而且我们必须尊重这些计划。这就是当今世界的现实。我的态度是,主动适应世界的现状以及未来的发展方向,而不是固执己见,强加于人。

主持人德瓦克什: 所以,总结一下我的理解:现在每个国家都愈发重视数据驻留、隐私保护等主权诉求。而微软凭借与各国政府的长期合作关系,以及在建设主权数据中心方面的丰富经验,在这个日益强调主权的世界中,是否拥有独特的优势?


萨提亚·纳德拉: 我不想用“独特的优势”来形容自己。我更愿意说,满足这些主权需求是一项基本的业务要求,我们为此已经努力了数十年,并将继续坚持下去。

这正是我之前回答迪伦问题时的核心观点:我们严肃对待每一个主权关切。无论是在美国,当白宫要求我们将更多芯片产能布局在本土时;还是在欧洲,当我们承诺在欧盟境内建设数据中心时,我们都认真履行。

对我而言,尊重各国对主权的合理关切,并为此打造相应的软件和实体基础设施,就是我们正在做、并且将一直做下去的事情。

迪伦·帕特尔: 那么当我们走向一个两极化的世界,即美国和中国的世界时,有很多关于美国科技不行的讨论。这不仅仅是您与亚马逊、Anthropic或谷歌的竞争,而是各种各样的竞争。美国如何重建信任?您将如何重建信任,并表明“不,实际上美国公司将成为你们的主要供应商”?您又如何看待与字节跳动、阿里巴巴,或者像深求(DeepSeek)和月之暗面(Moonshot)这样的新兴中国公司竞争?

主持人德瓦克什: 针对这个问题,一个担忧是:人工智能正在演变成一场资本投入的工业竞赛,必须在整个供应链上进行快速布局。一听到这种模式,人们首先想到的就是中国,这正是他们的比较优势。特别是,如果通用人工智能(ASI)并非一个明年就能实现的“登月项目”,而是需要数十年基础设施建设的漫漫征途,那么在这样的竞争格局下,中国是否更具优势?你们将如何应对?

萨提亚·纳德拉: 这是一个很好的问题。你刚才的观点也点明了一点:我认为,对美国科技的信任,或许才是我们最核心的资产。它的重要性,甚至可能超越了模型能力本身。关键在于,客户能否信任你的公司?能否信任你的国家及其背后的体系,并视你为长期可靠的供应商?这,或许才是决胜全球的关键。

主持人德瓦克什: 这句话为我们的对话画上了完美的句号。Satya,非常感谢你。谢谢。


邀请函

亚洲金融论坛重磅来袭!

2026年1月26-27日——香港!

全球三千政商精英齐聚香江!

汇聚全球智慧,引领资本潮流

我们诚邀您参加由香港特别行政区政府及香港贸易发展局联合举办的“第十九届亚洲金融论坛”(AFF),汇聚全球极具影响力的政策制定者、监管机构及政商界及金融业领袖,共同探讨驱动环球发展的新动力和创新意念,以新质生产力推动全球经济发展。

无论您是资深投资人、政策制定者、学术界人士、投资金融专业人士,还是企业家以及高净值人士,2026亚洲金融论坛都将为您提供一个不可多得的交流平台

在这里,您将获得最新的市场资讯,结识行业精英,拓展商业网络,打通国际资本市场道路,实现全球资产配置资源,对接跨国资本。

上海陆家嘴并购联盟有八次组团参加亚洲金融论坛经验,2026 年联盟游学代表团再一次扬帆起航,带你走进最顶尖的圈子!



关于我们:

上海陆家嘴并购联盟
一个覆盖全国的产业金融合作组织
我们与多家上市公司大型金融机构、投资银行、投资机构密切合作,致力于为全国优秀的企业与全球投资机构高质量的合作交流网络并为企业提供专业的兼并收购、投融资顾问、直接股权投资与产业投资的综合性金融服务。
若企业有融资、并购的需求,也敬请通过以上的联系方式与我们联系,本联盟将会提供项目推介或是全程财务顾问服务。
我们的优势:
1.平台依托庞大的上市公司资源网络,广阔的国际视野、敏锐的市场嗅觉以及良好的业内关系,与国内三十多家上市公司、境内外一流金融机构深度合作,保障项目资金来源。
2.联盟依托于相龙投资管理公司,及其旗下的会计师事务所与律师事务所,能够为企业融资并购项目提供全程专业的咨询、财务与法律服务。
3.联盟多年与专业的财务咨询机构的深度合作,拥有丰富的项目经验。
上海陆家嘴并购联盟是您值得托付信赖的合作伙伴!


感谢对上海陆家嘴并购联盟的支持,我们联合国内多家上市公司、大型投行、并购基金、投资机构、银行、信托、律师、会计师等专业人士成立本联盟。
如果您需要免费发布项目信息或联系我们请发邮件到LJZ8868XM@126.com审核。
微信群请先扫描下方二维码进入群友通讯录,向群主发送验证信息后等待拉群(验证信息:城市、公司、职务)。
版权声明:本公众号致力于好文精选、精读。部分文章推送时未能与原作者取得联系。若涉及版权问题,烦请原作者联系我们。版权及广告合作联系方式:微信:xjyq8868,联系电话:021-61079612,邮箱:LJZ8868XM@126.com。欢迎原创作者主动投稿或认领稿费。




【声明】内容源于网络
0
0
大迈说电商
跨境分享台 | 每日分享行业动态
内容 45766
粉丝 1
大迈说电商 跨境分享台 | 每日分享行业动态
总阅读182.1k
粉丝1
内容45.8k