01
算力红利未尽,争议再起
当人工智能产业跨入万亿级投资与技术转型的新阶段,“规模化路径”是否已达尽头,正成为业内热议焦点。OpenAI联合创始人伊利亚·苏茨克维尔(Ilya Sutskever)不久前提出,“AI发展已从算力驱动的规模化时代回归研究驱动阶段”,一石激起千层浪。然而,来自Google DeepMind的高级科学家、曾在Anthropic任职的华人研究员姚顺宇则持不同看法——他明确指出,“规模化路径尚未枯竭,计算资源仍能带来更好的AI模型”。在这场围绕人工智能未来“规模与突破”路线之争中,姚的观点为行业注入了另一种理性声音。
02
规模化并未“失效”:还有一年红利窗口期
在接受《华盛顿邮报》专访时,姚顺宇表示:“通过加大计算资源和训练数据,人工智能模型至少还能再获得一年的可观提升。”这一判断直接回应了部分行业人士认为“规模化已触顶”的观点。他强调,目前依然存在“唾手可得的果实”——这些成果尚未被开采,只需借助更强的算力基础设施与更大规模的数据喂养即可达成。
这一观点与DeepMind近期的产品实践不谋而合。该公司最新发布的旗舰大模型 Gemini 3 Pro,其参数量高达5万亿至10万亿,是目前行业中规模最大的模型之一。DeepMind在新闻稿中指出,这一模型性能提升“源于训练规模的大幅跃升”,用实际成果回应了行业内对“算力投入回报递减”的质疑。
03
“研究”与“算力”并行:AI突围不止一条路
面对“扩算力”与“创新算法”孰优孰劣的讨论,姚顺宇持更为融合的态度。他指出,顶尖AI实验室早已并行开展规模化与技术创新的双轨研究,而非非此即彼。
“我们当然明白,规模可以持续改进模型表现,但我们也持续在做基础算法研究。”姚强调,无论是技术效率的提升,还是训练数据的质量优化,都必须放置在“大规模验证”的背景下才能体现价值。他以当前业内的共识补充道:“计算能力已经成为模型之间性能差异化的核心要素。”
04
计算仍是核心瓶颈:谁能支撑模型膨胀
姚指出,人工智能未来两大瓶颈始终是计算能力与数据。在他看来,即便行业转向更“高效”的算法探索,这些算法也必须接受大规模训练场景的检验,否则无法有效落地。
这一观点也呼应了马斯克、黄仁勋等业内领军者近期的公开发言——从OpenAI到xAI,从英伟达到华硕,全球科技巨头无不将“算力基础设施”建设视为下一轮AI突破的关键。DeepMind、谷歌、微软在全球范围内部署绿色数据中心、液冷集群、分布式推理平台,也正在为AI大模型的持续升级铺路。
05
全栈优势正在构建技术护城河
作为曾在Anthropic任职、又跳槽至DeepMind的研究者,姚顺宇将谷歌描述为“完美的AI工作场所”,理由是它拥有涵盖从芯片到机器人、从基础模型到AI生成的全栈研发生态。
他强调,Gemini 3 Pro的跨模态能力——融合图像、视频、文本的生成与理解——正开启人工智能的新边界。“我们绝对不是没有创意了,”姚说,“恰恰相反,是我们有太多创意想尝试。”这句回应既是对“AI创新遇冷”的反驳,也表达出对产业未来的乐观判断。
06
下一步:中国AI的突围逻辑要回归算力底座
姚的观点提醒人们:无论算法多么“轻量化”,算力和数据始终是AI模型进化不可绕开的物理基础。而对于中国AI生态而言,除了坚持算法优化、商业落地,更重要的是构建可持续、自主可控的计算平台体系。
这意味着,不仅要在算力芯片(GPU、ASIC、FPGA)、存储架构、通信协议等底层硬件上加大投入,也要推动“普惠算力”——让更多中小型AI企业、科研机构、行业用户都能便捷、安全地调用所需资源,实现“AI计算能力不再成为技术鸿沟”的真正跨越。
服务热线:010-8622 9776
品牌合作:pr@fitodata.com
商业合作:marketing@fitodata.com
官方网站:www.fitodata.com
#GPU #AIGC #LLM #智算服务 #算力租赁 #智算中心 #算力规模 #算力平台 #IB组网 #大模型 #算法优化服务 #算力组网服务 #算力平台规划服务 #训练平台 #NVIDIA #英伟达 #CUDA

