作者简介
赵远
中国移动通信集团设计院有限公司高级工程师,主要研究方向为5G/6G核心网、NFV云计算、车联网V2X、边缘计算、绿色低碳、卫星通信等。
张帅
中国移动通信集团设计院有限公司助理工程师,主要研究方向为云计算、云化核心网等。
于青
中国移动通信集团有限公司高级工程师,主要研究方向为NFV云计算等。
张奕
中国移动通信集团广东有限公司高级工程师,主要研究方向为云计算、IMS等。
徐彬
中国移动通信集团设计院有限公司高级工程师,主要研究方向为NFV云计算等。
杨旭
中国移动通信集团设计院有限公司高级工程师,主要研究方向为NFV云计算等。
论文引用格式:
赵远, 张帅, 于青, 等. NFV云计算绿色发展趋势及关键技术研究[J]. 信息通信技术与政策, 2025, 51(5): 12-21.
NFV云计算绿色发展趋势及关键技术研究
赵远1 张帅1 于青2 张奕3 徐彬1 杨旭1
(1.中国移动通信集团设计院有限公司,北京 100080;
2.中国移动通信集团有限公司,北京 100032;
3.中国移动通信集团广东有限公司,广州 510510)
摘要:探讨了网络功能虚拟化云计算的绿色发展趋势及关键技术,分析了当前网络功能虚拟化云计算在节能降碳方面面临的挑战,如国产服务器功耗较高、节能技术应用受限、机房基础设施落后等问题。针对挑战,提出了绿色低碳设备、高效散热设计、智能化能耗管理、液冷技术等解决方案,以提升网络功能虚拟化云计算的能源效率,减少碳排放。网络功能虚拟化云计算需进一步优化能耗管理,推动绿色低碳技术的深度应用,以支撑6G及人工智能等新兴技术的发展,并助力国家“双碳”目标的实现。
关键词:网络功能虚拟化;云计算;绿色低碳
0 引言
网络功能虚拟化(Network Functions Virtualization, NFV)技术通过软硬件解耦重塑了传统的“烟囱式”网络架构,并将网络功能以软件应用的形式部署于通用硬件,最终将业务迁移至分布式云化基础设施。随着NFV技术的不断发展,在推动电信网络云化转型和5G网络建设中发挥了巨大作用,如中国移动以ETSI NFV标准“三层一域”架构为基础进行电信级增强,建成了规模大、功能完善、技术先进的NFV/SDN电信级云计算网络(简称“NFV云”) [1]。未来,NFV云的演进还需要匹配更多新场景、新技术发展诉求,其中包括以能效提升为代表的NFV云绿色低碳发展[2]。
1 NFV云绿色发展面临的挑战及趋势
NFV云及其智算发展作为一种重要的数据中心高耗能用能场景,实现能耗的管控节约将对我国“双碳”目标的达成有积极重要作用。2025年,我国新建大型、超大型数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上[3]。《数据中心绿色低碳发展专项行动计划》提出,到2030年底,我国数据中心平均电能利用效率、单位算力能效和碳效均达到国际先进水平。
1.1 数据中心与NFV云能耗分析
数据中心能耗可分为IT设施能耗和非IT类基础设施能耗,其中IT设施能耗占比最大。IT设施通常是指服务器系统(含计算和存储)、组网及安全系统、传输等信息技术设施。据笔者调研,2025年2月某省级数据中心能耗数据(电能利用效率约为1.355),IT设备总能耗占数据中心总能耗达74%,基础设施空调用电量占比达18%,其他用电量为8%。NFV云一般被运营商部署在省级或区域级数据中心,NFV云能耗构成包括服务器类、交换机、路由器、防火墙等设备,该数据中心数据显示,NFV云通算场景中服务器功耗占比最高已达80 %以上。
1.2 NFV云绿色发展面临的问题及挑战
1.2.1 国产服务器功耗高
根据绿色低碳需要,目前运营商算力建设已摒弃额定功率的使用。据笔者调研,NFV云以服务器Performance模式下物理中央处理器(Central Processing Unit,CPU)负荷达到60%的运行功率为装机设计功率(本文未特殊说明的均为此类功率);NFV云国产服务器厂家单机计算服务器功率,预测至2027年,通算服务器单台功率将逼近1 kW,智算图形处理器(Graphics Processing Unit,GPU)/神经网络处理器(Neural Network Processing Unit,NPU)单台功率可达5 kW以上。目前,国内运营商NFV云使用的国产服务器越来越多,但组件低功耗、适配性不如Intel成熟产品。
1.2.2 多场景节能技术需求迫切
NFV云涉及服务器级别、资源池级别、NFV网元级别等多种节能场景,在NFV云生命周期内存在设计、集成交付、运行维护、退网报废等不同阶段。NFV云平台技术复杂,有独立的NFV管理与编排(Management and Orchestration,MANO),系统级、跨层级的节能技术需要MANO的配合支持。另外,当前的节能手段在国产服务器上存在不足,如鲲鹏ARM服务器不支持智能核休眠等节能新技术、海光服务器开启深度核休眠存在加电后有自动重启的故障风险从而影响业务。因此,迫切需要针对如此复杂情景的相适应节能技术。
1.2.3 机房基础设施日趋落后
随着芯片集成度及性能的提升,芯片和单机柜功率密度不断增大,传统散热方式难以满足高密度数据中心需求。未来,单台国产服务器功耗越来越高,特别是NFV云从通算向智算演进,现有存量机房配套普遍单机柜不高,在不对现有机柜进行改造的情况下,封装高功耗智算服务器时难以充分利用机柜空间。另外,随着设备形态的多样性发展,需满足更绿色化设计实施(如定制整机柜、液冷服务器等新型设备高效节能装机),现有机房配套明显无法满足。
1.3 NFV云绿色体系构建
为了促进NFV云节能降碳和高质量发展,需要以技术为抓手实现多维度、智能化的NFV云绿色体系,包括构建阶段绿色低碳设备(包括关键装备、关键材料等)、绿色设计技术和绿色设施技术;运行阶段通过MANO算法策略管理的绿色节能新技术;资源循环阶段废弃老旧设备再利用技术等。图1为NFV云绿色体系全景。
图1 NFV云绿色体系全景
2 绿色低碳设备技术
随着NFV云服务器集成度和单机性能越来越高,单服务器功耗也将越来越高,NFV云自身设备的绿色节能是根本,包括可采用先进的芯片、低功耗的部件及更加高效的导热散热方式,在提供同等算力基础上可实现单位算力能耗的降低。
2.1 高效的芯片技术
2.1.1 定制化专用芯片技术
随着NFV云异构算力的发展,需对服务器芯片硬件电路和指令集进行针对NFV云应用或场景的定制化、简化或删除不必要的电路或指令集,如RISC-V新架构[4-5];通用芯片和专用芯片融合,如数据处理器(Data Processing Unit,DPU)、GPU、NPU等[6],使其在完成特定任务时处理能力不会降低或有提升,但能耗降低。此外,参考大小核芯片架构[7-9]技术创新思维,在芯片中集成不同性能和功耗的核心,恰当的大小核心比例和CPU调度机制可以使不同核心更好地发挥各自优势,提高NFV云资源利用效率,降低单位功耗。先进封装(Chiplet)技术是一种创新的半导体设计方法,其核心思想是将小型、具有特定功能的集成电路IP模块组合成更大、更复杂的芯片[10],Chiplet架构主要应用于服务器处理器、人工智能加速器、数据通信芯片等。
2.1.2 更先进制程技术
芯片采用更小的制程,漏电流会更小,从而减少了静态功耗;制程工艺的进步使晶体管之间的间距缩小,导电路径更短,信号传输速度加快,在信号传输过程中的能量损失减少,从而有效控制了动态功耗。通常情况下,随着芯片的升级换代,处理能力和单芯片能耗都在上升,但更小制程下单位处理能力的能耗在下降,也就是说从整体上看完成同样的任务所需的能耗降低了。预测显示[11],全球半导体行业将于2028 年量产1 nm,2030年引入CFET晶体管结构后量产0.7 nm,2036 年引入2DFET晶体管结构后量产0.2 nm。我国中芯国际集成电路制造有限公司虽开发了等效7 nm的N+1工艺,以及更先进的N+2工艺,但成熟度和量产率仍需提升。非极紫外(Extreme Ultraviolet,EUV)光刻技术也在不断研发中,如纳米压印技术可提供潜在的光刻解决方案[12],在不同程度上可满足服务器芯片先进制程需求。
2.1.3 高效封装技术
高效封装技术可将更多数量的晶体管集成在同等单位面积硅片上,或将不同功能、采用不同制程工艺制造的小芯片,通过先进的封装技术集成一个具有完整功能的系统级芯片,既确保芯片内部高速传输又尽量降低接口的功耗,可在一定程度上弥补由于制程工艺受限的高性能、低功耗芯片制造。更小的封装尺寸和集成度,有助于提高服务器芯片的计算能力、稳定性和数据处理速度,同时降低成本和功耗。当前,Chiplet技术中如扇出型晶圆级封装(Fan-out Wafer Level Packaging,FOWLP)、倒装芯片封装、3D堆叠封装技术等都较为成熟[13-14],可用于国产服务器芯片制造。
2.2 低功耗的部件技术
2.2.1 内存和硬盘
内存颗粒也可通过减小制程提升工艺和优化设计等带来能耗上的降低,如一些高端内存颗粒在设计中采用了动态电压频率调整(Dynamic Voltage and Frequency Scaling,DVFS)技术[15],根据内存的实际工作负载动态调整电压和频率,从而实现节能。
可通过固态硬盘(Solid State Disk,SSD)全面取代机械硬盘(Hard Disk Drive,HDD)来实现低功耗部件替代。SSD在闲置状态下的功耗非常低,这是因为SSD没有机械部件,仅需要维持闪存芯片和控制芯片的基本工作状态,不需要额外的能量来驱动旋转的盘片和移动的磁头,因此功耗极小。HDD在闲置时也需要消耗一定的电力来维持盘片的旋转和磁头的待命状态。
2.2.2 电源模块
服务器电源模块的转换效率提升带来的是减少设备能耗的损失,服务器电源模块冗余方式包括负荷分担、热备、休眠(见表1)。在1+1冗余下,可根据服务器日常运行负载选择相应的节能工作模式。据笔者调研,在80 Plus 标准认证下,钛金电源比铂金电源有2%的效率提升,因此从节能角度推荐新一代的服务器采用钛金电源;另外,采用80 Plus白金级效率指标的电源,50%负载情况下电源转换效率≥94%,当服务器工作在230 W的业务负载时,800 W电源转换效率为91.7%,550 W电源转换效率为94%,因此选配服务器电源时采用550 W电源比800 W电源可以节省230 /(94%-91.7%)=6.2 W。
表1 电源模块工作冗余方式与节能场景
2.2.3 智能风扇
服务器在运行过程中会产生大量热量,需要风扇进行散热以保证其稳定运行。传统风扇通常以固定转速或根据简单的温度阈值进行调节,这往往会导致在服务器负载较低时,风扇仍以较高转速运转,造成能源的浪费。借助先进的温度、功耗、转速传感器实时监测服务器的相应方面数据,并运用智能控制算法(如神经网络算法、模型预测控制算法等)对风扇转速进行动态、精准调节,在保证散热需求下尽可能降低风扇转速,从而减少能耗。
2.3 高效的散热导热技术
2.3.1 高效散热设计
优化设备机箱内气流组织,进出风方式与机架气流方向一致,尽快将热量带出机箱,提升散热效率,带来设备能耗的降低。优化机箱布局,提升器件散热效率,如采用一体化导风罩、器件排布与机箱内气流方向适配,产热量高的器件部署在风扇之后等。开孔率的提升也会提升器件及设备的散热效率,如在机箱两侧及上盖增加蜂窝型通风孔、增加硬盘盒面板开孔、取消硬盘钣金隔板等。
2.3.2 高效导热技术
采用更高效的界面材料,将芯片产生的热量尽快传导给散热器,导热效率的提升,带来的是散热效率的提升,最终带来设备能耗的下降。设计优良的散热器可以更高效地将芯片传导来的热量交换给机箱内的气流,从而提升散热效率。将高产热量器件或全部器件产生的热量以液冷方式带出,实现完全没有风扇的功耗,从而带来设备整体能耗的降低。
3 绿色设计技术
3.1 绿色架构设计技术
云计算服务器系统整体性能的提升主要依赖于组成系统单元的性能提升,但组成单元个体无法最终决定系统的综合效能。如何系统性利用架构提升去弥补个别基础部件的先进性不足,也是一种绿色架构设计的重要理念。邬江兴[16]等提出“站在‘材料、器件、工艺、结构、算法、应用’的全流程,基于系统工程思想,将晶上系统的软件定义软件系统和硬件系统协同在一起”。还可以借鉴专用硬件时代的高效架构——下一代NFV云可探索全融合硬件架构,技术上融合实现计算/网络/存储/人工智能架构,按需资源灵活组合,同步内部极简组网,内置以太和统一总线交换,免外联交换机。
云存储系统也面临架构优化绿色发展:一是“多合一”技术,主要是分布式存储通过多协议(S3/NFS/CIFS/HDFS)无损互通把多种应用的存储整合到一个存储里面增加共享性的技术;二是“大变小”技术,通过高密度硬件+高效容灾系统,实现同等容量下设备数量更少的单位存储节能;三是“多变少”技术,主要是非结构化数据压缩技术,让真正需要保存的数据类变得少一些,达到节能效果(如近存或存算一体技术,大幅降低数据在存储和计算之间的搬移);四是数据分层分级存储,根据数据访问频率进行分类存储的技术,对于很少被访问的数据,定义为冷数据,可以采用蓝光光盘存储技术和磁带存储技术,大大降低能耗。
3.2 绿色工程化设计技术
3.2.1 最优模块化装机技术
模块化装机方式是一种集约化设计技术,即N个服务器装机时通过3~M 个机柜共用一组或多组架顶式交换机(Top of Rack,TOR),每组包括2台业务+TOR/2台管理+TOR/2台存储TOR、1~2台硬件管理TOR,将每个机柜的机架空间、运行功率、TOR设备端口最大化使用,以此达到节约成本和提升上架率的绿色效果。
此外,针对不同服务器功率(300~850 W)与不同机房配套(单机架运行功耗4~14 kW)时,如何匹配模块化装机方案,本文提出一种最优模块化装机模型算法。各服务器功率使用不同模块化装机方案评估时,通过公式(1)进行计算,使得模块内机架运行功率利用率、机架空间装机率、TOR端口利用率综合最优,可得到最优装机方案及对应最优单机架功率上限。根据公式(1)的测算,截至2027年,5机架组成的大模块(L值为95.86)装机优于3/6/7机架模块化装机(L值分别为93.74、91.54、95.74),该最优模块装机下单机架运行功率上限需达14.2 kW。
3.2.2 插花弹性装机技术
数据中心机房在建设完成后会提供一个单机架运行功耗散热限额值,一般情况下,IT设施装机一般不允许超过该限制值,即使采用集约化的最优化模块装机技术,也一定会存在无法用尽单机架运行功耗值的情况(实际统计每机架浪费50~200 W不等)。这些零碎功耗按整列、整机房看是一种巨大的能耗及空间资源的浪费,迫切需要一种最优装箱算法来优化提升功耗使用,即封闭通道内插花弹性装机算法。具体为按封闭通道内两列设备的单机架运行功耗均值进行计算,只要两列均值在不超过单机架运行功耗的前提下,个别机架略大于单机架运行功耗(不影响通道内气流组织),通过“插花法”高低功耗错开的弹性装机部署,可有效利用这些零碎功耗。
采用单机架功率上限装机和封闭通道内插花弹性装机方案功率使用率计算方法如下:
进而评估可以得到功率使用率提升率为:
EI=(EE插花弹性-EE功率上限)(4)
以功耗上限分别为5 kW和7 kW的单机架为例,在一个封闭通道内配置20 个机架,按模块化装机每个机架配备2 台TOR设备(功率合计389 W),以及多台海光x86计算服务器,单台计算服务器功率为478 W。通过公式(2)(3)(4)计算验证结果(见表2),5 kW和7 kW机架在使用弹性装架功耗利用率比非弹性装机功率使用率分别提升5.74%和5.46%。
表2 使用插花法封闭通道装机法效果测算
3.3 数智化节能集成设计技术
现有NFV云硬件集成工序是按资源池为单位,设备到货全部上电后,再完成集成工作,该方式最大问题是从设备加电到承载业务的空载运行时间较长,存在较大的能耗浪费。因此,需优化集成方案采取分批加电数智化节能方案。
通过提供人机交互的数智化节能平台工具实现上述方案,该工具具备纳管硬件集成阶段设备关键节能资源信息(如整机功耗、BMC IP、BMC用户名/密码等)的能力。提供连通的物理及数据链路打通节能工具与NFV云网络,实现节能策略经服务器BMC指令的成功下发。
节能技术方案核心在于:按需开启服务器,空载超过24 小时自动化批量设置关机/开机,针对服务器中的存储设备、网络接口等组件,白天服务器开启如D态限能(D态一般分为 D0 正常工作状态至D3 深度低功耗状态,低功耗状态逐步加深,实现节能),晚上智能化关机;模块化加电验收工序,分为存储、计算、其他组网设备三大类,各类设备按需加电与调测,完成验收后以模块为单位下电;优化调测流程,对于存储和计算,结合硬件分区方案进一步优化调测流程。通过数智化节能平台,以一个NFV云资源池各类设备按需加电、调测、验收及下电,该数智化节能方案较传统方式节电约30%[18]。
4 绿色节能技术
4.1 物理核级节能技术
Intel x86架构CPU电源管理状态存在C态,从C0正常运行态至C6处于深度休眠状态,休眠深度逐步加深,不同状态下耗电不同,而相对的海光x86仅有C0、C1、C6共3档。NFV云虚拟机目前采用CPU绑核部署,服务器上CPU资源存在部分空闲状态(如永久闲置的碎片CPU核以及长久未分配的CPU核或已关机的CPU核),通过对空闲的CPU核启用自动休眠技术,可降低CPU功耗实现深层次节能。
NFV云可通过云平台层识别未分配的CPU核,并对这些闲置核启用C6状态自动休眠,节能效果上,每CPU核 C6休眠可降低功耗约2.5~4 W。当CPU核即将被分配至虚拟机(Virtual Machine,VM)时,则在创建VM前通过CPU idleset命令禁止CPU进入C0以外状态,实现物理核唤醒(见图2)。
图2 空闲核休眠技术
在适用场景上,仅限于x86架构下未分配物理核,对于已分配虚拟机,涉及网元业务,暂时无法使用。鲲鹏ARM不支持x86下的C6深度休眠态,海光x86目前仅支持CPU进入C1态且永久关闭C6态,否则系统运行1 044 天后,CPU Core无法退出C6态,导致操作系统内核崩溃,并会引发操作系统挂起或重启。NFV云资源池内基于安全可靠需求,建议对占比较少的管理节点服务器(部署NFV-VIM系统和SDN组网控制器系统)、开启超分配的主机组(服务器的物理资源按照一定的比例超额分配给多个虚拟机或应用程序,以提高资源的利用率和灵活性)以及物理机状态的服务器均不启用C态节能。
4.2 服务器级节能技术
4.2.1 智能开关机技术
NFV云服务器规模较大,大量服务器在交付和运维过程中(时间跨度较长、以月/年计算)存在大量无效能耗场景,通过“NFVO+”控制的服务器批量智能下电/上电可以大量节约能耗(见图3)。节能效果测算,NFV云某型服务器CPU负荷约20%测试运行功率为231 W,使用智能开关机单服务器深度休眠功率降低至15 W,实现单台服务器节电216 W,节能比例=216/231=93.5%。关键技术原理如下。
图3 智能开关机技术
一是智能下电/上电。“NFVO+”提供统一策略执行引擎,基于灵活的运营策略(CPU冗余/服务器冗余、配额、保活策略)和智能算法,自动计算按资源池为单位的需下电/上电的服务器数量(占空比),进行远程服务器智能下电。在网元部署或扩容时,现有占空比下电/上电服务器资源不足,根据NFV配额修改操作触发自动上电,占空比自动提升。
二是服务器自动化保活。在服务器长期下电满足一定时长时(可配置,如30天),自动上电1小时(可配置)后下电。
4.2.2 关闭Halt-Polling
Halt-Polling即CPU资源释放的延迟机制,CPU处理完任务后,不立即把计算资源释放,先Polling一段时间,若该CPU在Polling期间被唤醒, 那么可以直接执行任务,而不用从idle状态唤醒。通过虚层KVM中配置Halt-Polling=0,可关闭Halt-Polling。
NFV云资源池服务器存在默认开启Halt-Polling机制,可减少系统调度流程开销,提高虚拟机系统性能,对于频繁调度切换业务比较高效,但增加CPU负载和服务器功耗。根据测试Halt-Polling机制关闭后,x86_Intel和海光服务器单台功耗分别降低7~15 W和8~11 W,鲲鹏ARM服务器在较高业务负载场景下功耗可降低约30 W,并且NFV业务无感知。目前,受限条件是现网x86资源池需要重启服务器才能关闭Halt-Polling机制,对业务有影响。
4.3 应用级节能技术
NFV云化网元虚拟机大部分属于有状态类型,虚拟机数量扩缩涉及虚拟机创建/删除过程,不宜频繁自动扩缩容,需更细致粒度弹缩保证其可靠性,因此提出基于核休眠的虚拟机“垂直弹缩”技术,该技术是一个跨层联动业务应用的系统级技术,需要NFV云“NFVO”和“T+”版本虚拟层支持。节能效果上,以5G核心网接入和移动性管理功能(Access and Mobility Management function,AMF)网元的业务流量模拟测试可实现单服务器15%的功耗降低。
网元垂直弹缩是对网元已经创建的虚拟机动态调整,本质是核休眠的一种应用,网元设定“垂直弹缩”门限,网元内部执行Scale Up/Down完成内部业务迁移,触发vCPU扩缩,NFVO下发指令给VIM,由VIM执行核休眠/去休眠。即CPU占用率低时,将拟缩容的vCPU进行业务迁移,进程集中于部分CPU,缩容的vCPU无业务运行,进入核休眠状态(C-State),业务忙时将被唤醒恢复原有规格;vCPU扩容时核唤醒,网元通过VNFM上报vCPU去休眠信息到NFVO,NFVO再下发指令给VIM,由VIM执行去休眠,虚拟机规格恢复(见图4)。
图4 基于核休眠的网元虚机“垂直弹缩”技术
5 绿色设施技术
5.1 高效电源供电
目前,NFV云涉及的数据中心机房有高压直流240 V/336 V、UPS交流等供电类型,电源系统容灾上有2N系统、3N系统、单系统双回路、一路市电+一路高压直流等不同等级冗余方式。安全性上:2N《3N《一路市电+一路高压《单系统双回路;产业链成熟度上:高压240 V《高压336 V(336 V供货差);转换效率上:高压直流《交流,高压直流比交流供电提高供电系统可靠性,减少占地面积,降低机房建设及维护成本,供电方案上减少机房供电转换层级,提高系统供电效率15%~25%。从绿色低碳角度,技术上优先推荐数据中心NFV云机房供电选择“一路市电+一路高压”这种高效类2N供电方式,若追求较高的电信级高可靠,亦可选高压2N(240 V)。
5.2 高密节能风冷
空调系统的发展趋势是制冷末端无限接近热源,实现精确制冷,提高制冷效率,降低制冷设备功耗。短期来看,NFV云通算服务器装机对单机架功率密度需求一般不超过15 kW/机柜,鉴于风冷技术具有投资低、技术成熟、维护简单,根据空调制冷技术性价比测算,小于10 kW/机柜时,风冷技术最具性价比;10~15 kW/机柜时,风冷技术仍具有较高性价比;大于20 kW/机柜时则传统风冷散热达到一个上限[17],而液冷技术性价比更高。若单机柜升高到20 kW高密区域,现有风冷散热技术存在瓶颈,如继续使用风冷散热需引入高密节能风冷技术(如高密近端冷却空调技术等)。随着冷却技术的演进,行级冷却和机柜级冷却技术相继出现,可应对更高密的服务器和数据中心冷却需求,同时能够通过减小传热环节来提高冷却效率和降低冷却能耗。
5.3 新型液冷散热
液体相较于空气具有更大的比热容和更高的热传导系数,液冷技术可以实现对发热源的精准冷却,液冷系统则可以大幅减少甚至完全摒弃风扇的使用,从而显著降低风扇带来的能耗。先进的液冷系统可以与其他低碳能源系统相结合,形成能源循环利用的模式。当前,主流液冷技术[19]包括冷板式液冷和浸没式液冷,其中冷板式液冷技术散热效率较高、兼容性高、维护简单、技术较成熟、对大基建配套改造较小。NFV云智能化发展引入人工智能服务器后,机架装机按每液冷机柜配置8 台人工智能服务器及组网设备,每个机柜需不低于40 kW,可优先采用冷板式液冷配套设施。冷板式液冷绿色节能需要关注关键装备(如高换热能力冷板技术、高换热量分布式CDU应用技术)、关键工艺(如液冷机柜与服务器解耦应用技术)、关键材料冷板式液冷冷却液的选择。
6 结束语
随着5G-A的规模商用和6G的到来,NFV云仍将继续演进,如设备高度集成化、智能化带来的服务器高功耗,必然带来数据中心电能利用效率的更大挑战,NFV云作为一种部署在数据中心的云计算基础设施,必须将全体系绿色低碳贯彻到全生命周期中。未来,需持续推进和研究NFV云新的节能减排新技术,推动服务器单核能耗相比目前进一步下降,落实好节能技术的应用和实践,实现与“双碳”目标同频绿色发展。
Research on the green development trends and key technologies of NFV cloud computing
ZHAO Yuan1, ZHANG Shuai1, YU Qing2, ZHANG Yi3, XU Bin1, YANG Xu1
(1. China Mobile Group Design Institute Co., Ltd., Beijing 100080, China;
2. China Mobile Group Co., Ltd., Beijing 100032, China;
3. China Mobile Group Guangdong Co., Ltd., Guangzhou 510510, China)
Abstract: This paper explores the green development trends and key technologies of Network Functions Virtualization (NFV) cloud computing, analyzing challenges such as high power consumption of domestic servers, limited energy-saving technologies, and outdated data center infrastructure. To address these problems, solutions including green low-carbon equipment, efficient cooling design, intelligent energy consumption management, and liquid cooling technology are proposed to enhance energy efficiency and reduce carbon emissions. NFV cloud computing must further optimize energy management and drive deep adoption of green technologies to support emerging technologies such as 6G and AI while contributing to national dual carbon goals.
Keywords: NFV; cloud computing; green and low-carbon
本文刊于《信息通信技术与政策》2025年 第5期
主办:中国信息通信研究院
《信息通信技术与政策》是工业和信息化部主管、中国信息通信研究院主办的专业学术期刊。本刊定位于“ 信息通信技术前沿的风向标,信息社会政策探究的思想库 ”,聚焦信息通信领域技术趋势、公共政策、 国家/产业/企业战略,发布前沿研究成果、焦点问题分析、热点政策解读等,推动5G、工业互联网、数字经济、人工智能、大数据、云计算等技术产业的创新与发展,引导国家技术战略选择与产业政策制定,搭建产、学、研、用的高端学术交流平台。
期刊荣誉与收录情况
AMI(2022版)A刊扩展期刊
RCCSE中国核心学术期刊
入选中国科协信息通信领域高质量科技期刊分级目录
为进一步提高期刊信息化建设水平,为广大学者提供更优质的服务,我刊官方网站(http://ictp.caict.ac.cn)已正式投入运行,欢迎投稿!
推荐阅读

