大数跨境
0
0

华为突破GPU利用率70%大关!

华为突破GPU利用率70%大关! 甘肃伯骊江3D打印科技有限公司
2025-11-21
12

围绕AI算力大爆发,华为从硬件到软件、集群等方面推出了一系列重大更新。


华为今日发布Flex:ai AI容器软件,通过算力切分技术,将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,实现了单卡同时承载多个AI工作负载,并可聚合集群内各节点的空闲XPU算力聚合形成“共享算力池”。

这一创新使得单张算力卡能够同时承载多个AI工作负载,显著提升硬件资源利用率。


同时,Flex:ai能够将集群内各计算节点的空闲XPU算力进行高效聚合,形成统一的 " 共享算力池 ",实现算力资源的全局调度与灵活分配。


其核心技术原理是一套深度融合软硬件的系统工程,覆盖从底层芯片到顶层调度。通过创新性的软件技术深度挖掘硬件潜力,Flex:ai 成功将GPU/NPU的典型利用率从30%-40%提升至70%,有效践行了 " 以软件补硬件 " 的理念。


在硬件协同方面,Flex:ai深度整合华为自研的昇腾AI处理器,通过软硬件协同设计优化,实现了最佳的性能功耗比。


特别在大模型训练场景中,Flex:ai通过软件层面的创新,实现了对包括英伟达GPU、昇腾 NPU在内的多种异构算力资源的统一管理与调度,有效解决了当前大模型训练面临的算力效率瓶颈问题。


据悉,Flex:ai将在发布后同步开源在魔擎社区中,以促进技术共享与生态发展。


华为已经推出了CloudMatrix 384,一种大规模计算架构,将Ascend芯片集群化,并于9月公布了Ascend产品线的开发计划,涵盖即将推出的950PR/DT、960和970芯片


如果Flex:ai AI容器软件技术如预期般成功,将填补华为AI路线图中的另一个关键空白,并强化其利用软件弥补硬件的战略。


需要指出的是,今年8月华为推出了UCM(统一计算内存),该技术结合多种缓存优化算法,在AI工作负载中智能管理KV缓存数据。据《证券时报》报道,UCM能够根据实时内存热模式自动路由HBM、DRAM和SSD缓存数据,可进一步减少中国对外存储芯片的依赖。


华为通过“以软件补硬件”策略,在先进制程受限背景下持续突破,如Scale-up超大规模算力平台已实现数百至数千处理器的协同工作。未来,随着AI与网络、算力的深度融合,华为有望进一步引领行业智能化转型。‌‌

入群请扫码

【声明】内容源于网络
0
0
甘肃伯骊江3D打印科技有限公司
1234
内容 479
粉丝 0
甘肃伯骊江3D打印科技有限公司 1234
总阅读1.4k
粉丝0
内容479