据彭博社报道,中国半导体行业协会副会长、IEEE Fellow、清华大学教授魏少军在新加坡召开的一个行业论坛上警告称,依赖美国硬件将对中国及其亚洲伙伴构成长期风险。呼吁中国与其他亚洲国家摒弃使用英伟达 GPU 进行 AI 训练与推理。
魏少军批评当前亚洲 AI 发展模式过度效仿美国路径 —— 即采用英伟达或 AMD 的计算 GPU 训练大型语言模型。他指出,这种模仿会削弱地区自主性,若不加以改变可能产生 “致命” 影响。在他看来,亚洲必须突破美国技术范式,尤其要在算法设计与计算基础设施等基础领域另辟蹊径。
总结:
| 模仿陷阱
从中国头部科技企业到韩国、日本的 AI 研发机构,在训练 ChatGPT 类大语言模型(LLM)、DeepSeek 等多模态模型时,几乎清一色采用英伟达 GPU 作为核心算力支撑 ——A100、H100 系列产品凭借其强大的张量核心、高效的 CUDA 生态,成为亚洲 AI 实验室的 “标配”。
上游空心化
英伟达 GPU 的核心技术,包括架构设计、制程工艺、软件生态,均掌握在美国企业手中。以 H100 为例,其采用台积电 4nm 工艺制造,但芯片设计的核心 IP、指令集架构由英伟达主导,配套的 CUDA 工具链更是形成了难以替代的技术壁垒。亚洲企业虽然在 AI 算法研发、应用场景落地方面具备优势,但在算力基础设施的核心环节,始终处于 “被动跟随” 状态。
算力成本陷阱
随着大语言模型参数规模从百亿级向万亿级突破,对算力的需求呈指数级增长。一组数据显示,训练一个千亿参数的 LLM,需要投入数千块英伟达 A100 GPU,单台服务器成本超过百万元,整个训练周期的硬件、电力、运维成本高达数亿元。而英伟达凭借市场垄断地位,不断提高 GPU 产品定价,H100 的售价相比 A100 上涨超过 50%,进一步加剧了亚洲 AI 企业的成本压力。
产业安全风险
当前亚洲在 AI 算力领域对英伟达的依赖,本质上是将半导体产业链的核心环节交由外部控制。回顾 2022 年美国出台的半导体出口管制措施,明确限制英伟达 A100、H100 等高端 GPU 对华出口,虽然后续英伟达推出了 “阉割版” 的 H20、L20 GPU,但性能大幅下降,无法满足高端 AI 训练需求。
数据安全风险
AI 训练与推理过程中,涉及大量敏感数据,包括企业商业数据、个人信息数据,甚至国家关键领域数据。而英伟达 GPU 的硬件架构、软件系统均由美国企业设计,其内部是否存在数据采集、传输的 “后门”,始终存在不确定性。虽然英伟达官方承诺保障数据安全,但在全球数据安全战略竞争加剧的背景下,依赖外部硬件进行敏感数据的 AI 处理,无疑增加了数据泄露的风险。
技术创新停滞风险
魏少军教授指出,模仿美国模式限制了区域自主权,这一观点的核心在于 “生态锁定” 对创新的抑制。英伟达凭借 CUDA 生态,构建了从硬件到软件、从开发者到企业用户的完整生态体系 —— 全球超过 90% 的 AI 开发者使用 CUDA 工具链,大量 AI 框架(如 TensorFlow、PyTorch)优先适配英伟达 GPU。
魏少军教授的呼吁,为亚洲 AI 与半导体产业发展拨开迷雾,明确方向。在全球科技竞争白热化的当下,亚洲唯有坚定走自主创新、自主可控之路,摆脱对英伟达 GPU 的过度依赖,构建起自主可控的 AI 算力体系,才能在全球 AI 产业竞争中占据一席之地,实现从跟跑者向领跑者的角色转变,为亚洲乃至全球科技进步贡献源源不断的创新力量。
是说芯语原创,欢迎关注分享

