如果AMD最新的高端芯片在明年初开始发货时足以满足科技公司和云服务提供商构建和服务人工智能模型的需求,那么它可能会降低开发人工智能模型的成本,并对英伟达飙升的人工智能芯片销售增长带来竞争压力。
AMD 首席执行官苏姿丰 (Lisa Su) 周三表示:“所有的兴趣都集中在用于云的大型钢铁和大型 GPU 上。”AMD表示MI300X基于新的架构,这通常会带来显着的性能提升。其最显着的特点是拥有 192GB 的 HBM3 尖端高性能内存,数据传输速度更快,可以适应更大的 AI 模型。
Su 直接将 MI300X 以及用它构建的系统与 Nvidia 的主要 AI GPU H100 进行了比较。“这种性能的作用是直接转化为更好的用户体验,”苏说。“当你向模型提问时,你希望它能更快地返回,尤其是当答案变得更加复杂时。”AMD 面临的主要问题是,一直在 Nvidia 基础上发展的公司是否会投入时间和金钱来增加另一家 GPU 供应商。“采用 AMD 需要付出努力,”Su 说。
AMD 周三告诉投资者和合作伙伴,它已经改进了名为 ROCm 的软件套件,以与 Nvidia 的行业标准 CUDA 软件竞争,解决了一个关键缺陷,而这正是 AI 开发人员目前更喜欢 Nvidia 的主要原因之一。
价格也很重要。AMD 周三没有透露 MI300X 的定价,但 Nvidia 的一款芯片售价约为 40,000 美元,Su 告诉记者,AMD 芯片的购买和运行成本必须低于 Nvidia 的芯片,才能说服客户购买它。周三,AMD 表示,它已经与一些最渴望 GPU 的公司签约使用该芯片。根据研究公司 Omidia 最近的一份报告,Meta 和微软是 2023 年 Nvidia H100 GPU 的两个最大购买者。Meta表示,它将使用MI300X GPU来处理AI推理工作负载,例如处理AI贴纸、图像编辑和操作其助手。微软首席技术官 Kevin Scott 表示,该公司将通过其 Azure 网络服务提供对 MI300X 芯片的访问。
甲骨文的云也将使用这些芯片。OpenAI 表示,它将在其一款名为 Triton 的软件产品中支持 AMD GPU,Triton 并不是像 GPT 那样的大型语言模型,但用于人工智能研究以访问芯片功能。AMD 尚未预测该芯片的大规模销售,仅预计 2024 年数据中心 GPU 总收入约为 20 亿美元。英伟达报告仅最近一个季度的数据中心销售额就超过 140 亿美元,尽管该指标包括除GPU。然而,AMD 表示,AI GPU 的总市场可能在未来四年内攀升至 4000 亿美元,是该公司之前预测的两倍。这表明人们对高端人工智能芯片的期望有多么高,以及多么令人垂涎——以及为什么该公司现在将投资者的注意力集中在该产品线上。
苏还向记者表示,AMD并不认为自己需要击败Nvidia才能在市场上取得好成绩。“我认为很明显,英伟达现在必须占据其中的绝大多数,”苏告诉记者,他指的是人工智能芯片市场。“我们相信到 2027 年,这个数字可能会超过 4000 亿美元。我们可以从中分得一杯羹。”
原文链接:https://www.cnbc.com/2023/12/06/meta-and-microsoft-to-buy-amds-new-ai-chip-as-alternative-to-nvidia.html

