最高补贴3000元!碳排放管理员技能等级认定
电力交易员培训(线上)
虚拟电厂落地实践研讨会(3月 武汉)
金老师 189 3256 4938
国家绿色算力设施先进经验与典型案例之一:工业、能源领域
2025年度工业领域与能源领域国家绿色算力设施共有3家,分别为弘盛铜业数据中心、国家电投集团贵安数据中心和南方电网绿色智慧数据中心。其绿色化建设的先进经验做法如下:
一、结合工业微电网规模化利用工业余热
弘盛铜业数据中心与弘盛铜业智能工厂协同建设,用于支撑工业互联网及智能云平台运行。弘盛铜业已利用铜冶炼工艺中闪速熔炼炉、吹炼炉产生的高温烟气(400℃~450℃)建有余热发电系统,总装机功率约25MW。弘盛铜业数据中心在供电专线支持下,与厂区余热发电装置等建立工业微电网,并配置10kV中压开关柜组,实现余热发电与市电的智能切换,采用静止无功发生器(SVG)型动态无功补偿装置,确保电压波动不高于2%。通过上述措施,弘盛铜业数据中心在微电网内作为核心负荷参与电力调节,年消纳2000万千瓦时余热所发电力,确保余热所发电能实现100%就地消纳。
图1:与弘盛铜业智能工厂协同建设的弘盛铜业数据中心
二、科学布局提升绿色低碳发展水平
国家电投集团贵安数据中心是基于国家电投集团数字化转型的发展战略需要,响应国家科学布局相关政策导向,在贵州全国一体化算力网络国家枢纽节点内布局新建,并顺利实现对北京数据中心硬件设备和数据处理业务的接收和扩容。在此过程中,国家电投集团贵安数据中心引入数据中心基础设施管理(DCIM)系统和人工智能(AI)群控系统,按室外湿球温度分级切换机械制冷、部分自然冷却和完全自然冷却三级模式,充分利用当地气候资源,全年利用自然冷源占总用冷量59%。同时,该数据中心融合国家电投电厂运营成功经验,建立“一体化、两票、反违章”模式,持续优化能效管理,数据中心电能利用效率(PUE)值相比投用时降低30%。
图2:完成接收和扩容后的国家电投集团贵安数据中心
三、智能算力调度平台与动力环境监控系统深度联动,降低单位信息流量综合能耗
南方电网绿色智慧数据中心作为南方电网的主信息中心,承载了算力支撑、信息化运营、计量分析等100余项业务系统。为充分发挥算力资源的数据处理能力及降低能源消耗,南方电网绿色智慧数据中心构建算力调度平台与动力环境监控系统联动架构,通过标准化数据接口实现算力负载率、机房温湿度、制冷系统能效等多维度数据的互联互通和实时采集,探索基于实时回传数据的动态调整模式,精准调整计算任务队列和基础设施运行状态,有效避免算力资源闲置与能源浪费。在年度单位信息流量同比增长8%的业务压力下,最终实现单位信息流量综合能耗下降5.29%。
图3:南方电网绿色智慧数据中心基础设施
国家绿色算力设施先进经验与典型案例之二:信息通信领域
2025年度信息通信领域国家绿色算力设施共有26家,分别为中国电信杭州智算中心1号楼、中国电信浙江分公司温州滨海数据中心、中国电信昌吉云基地4号数据中心、中国电信兰州新区大数据产业园A座机楼、中国电信东数西算国家枢纽庆阳算力中心、中国电信无锡国际数据中心三期A栋、中国电信苏州公司吴江算力调度中心1#算力机楼、中国移动长三角(金华)数据中心、中国电信临港信息园区A4数据研发机楼、中国电信云计算内蒙古信息园A8数据中心、中国联通(青岛)智算中心DC1、中国电信安徽智算中心A2楼、中国移动长三角(南京)数据中心1号楼、中国电信云计算贵州信息园A9数据中心、北京联通首钢园数据中心、中国电信中部云计算大数据中心(临空基地)、中国移动(甘肃庆阳)绿色智算中心、中国电信四川公司西信二期数据中心、中国电信陕西公司西咸云基地5#数据中心、中国移动(重庆)数据中心C栋、中国移动京津冀(天津)西青数据中心A1机楼、中国联通福州智云数据中心、中国移动(福建福州)数据中心A—1栋、中国移动(云南昆明)数据中心B02栋、中国电信东盟国际信息园2号数据中心、中国移动长三角(无锡)数据中心3号楼。其绿色化建设的先进经验做法如下:
一、多形式绿色化改造提升算力设施能效
中国电信浙江分公司温州滨海数据中心原机房设计方案老旧、设备老化,能耗高且影响运行安全。但作为市级核心机房,该数据中心无法整体搬迁或停机改造。基于温州地区气候特点,结合节能降碳诊断工作,该数据中心在原系统基础上构建“自然冷源+机械制冷”的制冷系统,采用在室外增设间接蒸发冷却冷水机组,在室内用双冷源精密空调替换原有冷却水型氟系统精密空调,同时部署智能化冷源切换管理系统的方案进行改造,并在改造期间保证了数据中心的持续稳定运行。改造完成后,全年可利用自然冷却时长占全年总时长40%以上,相比改造前节能约35%,2024年度电能利用效率(PUE)值达到1.19。
图1:中国电信浙江分公司温州滨海数据中心冷却系统架构
中国电信四川公司西信二期数据中心为减少气流冲突引起的冷量浪费,常态化迭代优化气流组织方案,定期利用专业仿真软件结合末端机柜温湿度实测数据验证方式对机房气流组织情况进行分析,并制定出新增回风管、配置机柜盲板、加装冷通道导流板、恢复热通道地板等组合改造方案。结合设备运行状态调优,2024年度电能利用效率(PUE)值相比投入运行初期降低15%。同时该数据中心借鉴成功经验,积极探索复制合同能源管理(EMC)模式实现轻资产运营。
图2:中国电信四川公司西信二期数据中心末端机柜温湿度监控系统
中国移动(福建福州)数据中心A—1栋原始设计冷却系统整体能效偏低。该数据中心开展节能降碳诊断工作,结合当地气候特点,确定自然冷源利用方案——在不影响数据中心运行的情况下,在冷冻水系统中串联接入板式换热器,并对原单点运行冷却塔进行并联改造,在人工智能(AI)群控系统支持下实现多塔协同调度与动态调节,充分利用全部冷却塔冷却容量。改造完成后,冷却系统优先启用板式换热器-冷却塔运行模式,全年自然冷却可利用时长接近4000小时,相比改造前节能约30%。
图3:中国移动(福建福州)数据中心A—1栋冷却系统架构
二、人工智能(AI)技术赋能电能利用效率提升
中国移动长三角(无锡)数据中心3号楼采用灰箱化人工智能(AI)能耗控制模型对冷源制冷机组、冷却塔、水泵三大主要设备运行状态进行综合寻优。针对模型控制状态与设备实际工作状态之间的偏差,该模型支持导出人工智能(AI)调控逻辑,协助运维人员核查人工智能(AI)决策合理性。针对设备性能退化导致寻优失效的情况,该模型支持通过再训练方式进行迭代校准。当实际能耗对比模型预测能耗偏离度超过10%时,运维人员可根据动环、楼宇自控(BA)系统采集的冷源用电量、设备能效、管路流量、负载率等300组典型运行工况参数,对模型拟合参数进行修正,直至模型能耗预测准确性达95%以上。通过对该灰箱化模型的采用及调优,该数据中心实现节能15%以上。
图4:中国移动长三角(无锡)数据中心3号楼能控模型再训练流程
中国电信东盟国际信息园2号数据中心针对引入的人工智能(AI)节能系统内置策略不完全符合冷却系统运行需要和所在地气候特征的情况,对其进行了深度调试。首先由专家团队基于运维经验制定冷却系统运行参数及调控策略,经运维团队观察并反馈冷却系统运行状况,再由人工智能(AI)节能系统分析专家所给出参数的内在逻辑并可视化展现实施效果,进而优化自身控制算法。通过此种方式,固化了专家经验,提升了冷却系统智能化管控水平。同时,人工智能(AI)节能系统调试的效率相较传统模式提升2倍以上。
图5:中国电信东盟国际信息园2号数据中心节能智能控制系统
中国移动(云南昆明)数据中心B02栋利用建设阶段的建筑信息模型(BIM)构建数据中心基础设施管理(DCIM)系统,实现机房资源三维可视化管理,并支持智能巡检机器人进行机柜级定位精度巡检及数据实时采集,提升运维效率50%以上。系统可实时结合机房模型建立三维温度场并模拟机房气流组织,以此为基础,在人工智能(AI)技术及物联网(IoT)技术支持下,对机房环境和冷源运行工况进行协同分析后生成运维优化策略,充分挖潜昆明空气干燥、昼夜温差大的气候优势,2024年度电能利用效率(PUE)值达到1.22。
图6:中国移动(云南昆明)数据中心B02栋机房气流组织模拟
中国电信兰州新区大数据产业园A座机楼为提高制冷效率,解决冷量分配不均、调控响应滞后等问题,对传统数据中心精密空调群控系统进行智能化算法改进,引入基于历史温度-风量数据训练形成的人工智能(AI)专业小模型,结合物联网(IoT)技术,使该系统支持多参数下自动寻优及动态调整每个风阀的开度,实现机柜级按需送风,响应时间可 达到秒级,并支持远程管理与可视化。引入该技术后,单位 信息系统能耗所需冷却系统制冷功耗降低16.4%。
图7:中国电信兰州新区大数据产业园A座机楼机柜状态监控系统
中国电信云计算贵州信息园A9数据中心为减少传统群 控系统粗放调节导致的时间滞后和冷量浪费,首先采用环形 控制架构替代传统“星形”控制架构。该架构使制冷设备相互 间可通过通信自动协调运行状态,实现互为备份,还能通过 增强操作弹性维持设备在高效区间工作。在此基础上,该数 据中心结合历史负荷数据、室外湿球温度及专家经验,训练 形成人工智能(AI)专业小模型,用于分析机房空调末端换 热负荷的变化趋势,进而预判对冷冻水的需求,并以此控制 冷冻水泵转速,减少制冷设备输出冷量与末端换热负荷需求 在数量与时间上匹配的波动,减少由此造成的冷量浪费及输 送能耗,2024年度电能利用效率 (PUE)值达到 1.23。
图8:中国电信云计算贵州信息园A9数据中心制冷设备控制架构
三、利用蓄冷系统改善低负荷期电能利用效率
中国移动长三角(金华)数据中心内的D07楼在投产初期,负荷不足设计值的20%,制冷系统按设计策略运行将导致冷机喘振、冷量浪费等问题。该机房楼利用配套建设的1座702m³蓄冷罐(蓄冷量5275kW·h),基于室外湿球温度波动规律,在低温季节(湿球温度<17℃)采取单台板式换热器与蓄冷罐组合交替供冷策略,在过渡季节(湿球温度在17℃~20℃之间)采取多台板式换热器与蓄冷罐组合交替供冷策略,在高温季节(湿球温度>20℃)采取单台制冷机组与蓄冷罐组合交替供冷策略。在保证供冷可靠性的同时,年度制冷能耗下降29%,冷源能效比提升40.8%,实现数据中心电能利用效率(PUE)值“投产即达标”。
图9:中国移动长三角(金华)数据中心D07楼蓄冷系统外观
四、探索算电协同调度,提高电力需求侧响应能力
中国电信临港信息园区A4数据研发机楼依托算电协同调度与管理系统,在兼顾全局调度效率和流量切换平滑度前提下,实现不同算力设施间分钟级调度能力,在收到当地电网发出的需求侧响应调度信号后,在3分钟内将运行中的人工智能(AI)推理任务无感迁移至湖北十堰的数据中心运行,调度结束后,相关任务无缝切换回原信息设备。本次调度涉及智算算力10PFlops,调度期间用电负荷功率下降75%,累计降低用电量200kW·h。经核算,若全部算力资源参与响应,最高可降低用电负荷8MW,可发挥小型调峰电站作用。
图10:中国电信临港信息园区A4数据研发机楼算电协同调度过程
五、算电协同布局提升可再生能源利用水平
中国电信东数西算国家枢纽庆阳算力中心、中国移动(甘肃庆阳)绿色智算中心位于甘肃省布局建设的全国一体化算力网络国家枢纽节点,其通过甘肃省电力交易中心搭建的区域电力交易平台及“省间+省内”协同平台,采用“绿电交易+绿证核销”模式,参与“中长期合约+现货交易+辅助服务”立体化交易,灵活调整交易策略,提升绿电采购效率,2024年度可再生能源利用率均达80%以上。
图11:电力交易辅助决策系统
中国电信云计算内蒙古信息园A8数据中心位于内蒙古自治区布局建设的全国一体化算力网络国家枢纽节点,2024年度可再生能源利用率达89.4%。该数据中心探索“绿电直供”形式应用可再生能源电力,在所在地政府牵头下,通过与新能源发电公司合作分工建设供电线路及变电站,以及签订绿电直供协议,2024年度直供绿电已占消纳可再生能源电力总量的63.7%。
图12:中国电信云计算内蒙古信息园A8数据中心绿电直供路由图
六、协同数据处理支持算电协同布局
“闽宁云”为中国联通为充分发挥不同地区算力设施优势,依托400G带宽直达网络,在福建和宁夏布局建设的算力联合体项目。中国联通福州智云数据中心为“闽宁云”在福建的载体之一。实际运行过程中,该数据中心识别并区分数据处理业务类型及需求,与在宁夏中卫布局的数据中心协同进行处理。如某自动驾驶项目,该数据中心首先对原始数据进行封装及标识,将封装后的海量数据发送至中卫进行长期存储及人工智能(AI)大模型训练,训练成果回传至该数据中心用于支持属地自动驾驶控制业务。通过分工合作,两地数据中心可发挥各自低时延及可再生能源优势。
图13:“闽宁云”中国联通中卫云数据中心
七、利用蓄冷系统提高用电负荷调节能力并节能
中国移动京津冀(天津)西青数据中心A1机楼充分利用配套建设的750m³蓄冷罐蓄冷能力,基于实时空调负荷分析结果,结合峰平谷电价政策,对制冷负荷与蓄冷罐释冷负荷进行动态分配与协同调度——在电价低谷期及用冷低谷期重合时段将冗余冷量以低温水(14℃~18℃)形式储存到蓄冷罐,使其达到满容量蓄冷状态;在电价高峰期及用冷高峰期重合时段优先启用蓄冷罐释冷满足负荷需求,替代或减少制冷机组运行,使制冷机组始终保持在30%~70%负荷水平的高能效区间,并为电网提供调节能力,实现错峰用能。采用此种模式后,制冷系统节电30%以上,同时增强了系统运行的稳定性与可靠性。
图 14:中国移动京津冀(天津)西青数据中心 A1 机楼蓄冷罐控制系统
八、结合管理体系创新提升数字化能碳管理水平
中国电信安徽智算中心 A2 楼按照中国电信安徽公司创新建立的“碳长制+链长制”管理体系,由省公司相关领导担任“链长”,负责按数据中心全生命周期时间链实施节能降碳管理。同时,数据中心被划分为 32 个“碳排放管理单元”,在每个单元设立“碳长”,具体负责本单元的能耗监测、节能优化等工作。中国电信安徽公司结合该管理体系建设双碳数字化管理平台,将机架利用情况、能耗、碳排放、费用支出等数据拉通并进行融合分析,并向“碳长”“链长”智能化发送具体任务单,实现数字化能碳管理“纵向到底、横向到边、全面覆盖”,2024 年度该数据中心电能利用效率(PUE)值同比降低 5.3%。
图15:中国电信安徽公司双碳管理平台系统架构
中国移动(重庆)数据中心C栋在执行中国移动重庆公司为落实“碳达峰、碳中和”战略决策以及“节能、洁能、赋能”工作目标而提出的“C²三能计划”过程中,明确能耗总量及电能利用效率(PUE)值具体目标,结合数据中心实际情况提出识别并清退低效设备、既有设施能效深度挖潜、碳排放量实时对标分析及报警等具体任务,并将任务过程、领导小组及归口管理组的职责与数据中心数字化能碳管理平台相结合,实现任务节点责任到人、任务效果直观可见,支持对具体目标完成情况可管、可控。2024年度电能利用效率(PUE)值较设计值降低0.03,年度单位信息流量综合能耗下降5.9%。
图16:中国移动重庆公司“C2三能计划”架构
九、多策并举提高水资源利用水平
中国移动长三角(南京)数据中心1号楼为定制化机房楼,设有4套不同架构的制冷系统。为提高运维效率,该数据中心综合采用数字孪生技术及人工智能(AI)技术,对机房环境进行数字化建模,并建立动环、电力、暖通等11类数据接口,探寻制冷系统综合节能节水配合运维经验调优措施,在日常水量分析基础上,动态调整冷却塔风机的转速和冷却水流量,及时关闭冗余冷却塔模组,同时更新水处理设备为自动加药及排污装置,实现综合节水60%以上。2024年度电能利用效率(PUE)值达到1.25,单位信息设备能耗用水量(WUE)低至0.66L/(kW·h)。
图17:中国移动长三角(南京)数据中心1号楼数字孪生系统
中国电信昌吉云基地4号数据中心所在地水资源较为紧张,该数据中心结合“间接蒸发冷却冷水机组+水冷冷冻水空调机组”组合模式用水特点,针对不同室外温湿度工况不断探索总结优化节水设置,并通过动态调整风机转速使冷却系统能耗匹配负载变化,对喷淋废水也实现了95%循环回用,在充分利用自然冷源的同时,力争按需耗水。2024年度单位信息设备能耗用水量(WUE)低至0.62L/(kW·h)。
图18:中国电信昌吉云基地4号数据中心间接蒸发冷却冷水机组
中国电信无锡国际数据中心三期A栋利用所在地空气湿度相对较大的特点,在制冷机房顶面增设水平收集管,并通过重力自流回水设计,使空调机组产生的冷凝水流入沉淀水箱,再经自然沉淀过滤去除杂质后输送至地下蓄水池,回用于冷却塔补水。2024年度该数据中心回收冷凝水12790吨,可减少水资源消耗量76%,单位信息设备能耗用水量(WUE)低至0.68L/(kW·h)。
图19:中国电信无锡国际数据中心三期A栋水回收利用系统架构
中国电信中部云计算大数据中心(临空基地)所在地江西省南昌市夏季高温多雨、冬季温和少雨,且年温差较大,针对此种气候条件,该数据中心在规划阶段优选“直膨式风冷空调机组+蒸发冷却磁悬浮变频离心机组”组合方案,兼顾节水与节能。在实际运行过程中,该数据中心通过定期清洁保证室外散热器散热效率,及引入人工智能(AI)群控系统实现所有空调设备的智能化联动控制,在充分利用自然冷源的同时,减少对水资源的消耗。2024年度电能利用效率(PUE)值实现1.21,单位信息设备能耗用水量(WUE)仅为0.33L/(kW·h)。
图 20:中国电信中部云计算大数据中心(临空基地)设备联控系统
十、结合老工业区改造升级实现集约建设
北京联通首钢园数据中心依托中国联通、中国人保、首钢集团三方战略合作,将原利用首钢老工业区建设的冬奥会技术运行中心进一步改造升级为数据中心。该数据中心结合金融业务需要统筹规划布局,标准机架数达3236个,节省新建投资40%。在充分利用原有5G+边缘计算、智能环控等核心技术基础上,该数据中心引入并应用水蓄冷、全直流变频氟泵空调、余热回收、冷机智能群控等先进节能降碳技术,在实现“工业遗存活化+奥运遗产转化”的同时,2024年度电能利用效率(PUE)值降至1.27,可再生能源利用率达80.9%,余热回收率达15.7%。
图21:首钢老工业区内改造完成的北京联通首钢园数据中心
十一、综合调控稳定信息设备负荷使用率并节能
中国电信苏州公司吴江算力调度中心1#算力机楼与国内高等院校、设计院所联合研发融合负荷调控与机房空调运行调优为一体的控制平台,将数据中心视为有机整体进行系统调控。平台在对各信息设备负荷进行毫秒级监测与分析的基础上,通过负荷预测模型提前预判,自动将冗余数据处理任务调度至低负载节点,维持信息设备负荷稳定在60%左右,避免低负载导致的资源闲置,也避免超负荷运行引发设备故障。同时,平台结合苏州本地温湿度、降水等气候数据及机房负载数据预测并设置空调运行参数与制冷策略,使冷量供给与设备散热需求匹配的同时,减少运行状态波动,实现数据中心空调系统节电10%。
图22:中国电信苏州公司吴江算力调度中心1#算力机楼联控平台
十二、优化配置提升网络资源利用率
中国电信陕西公司西咸云基地5#数据中心深化应用流量特征识别,将业务流量识别并区分为核心业务流量、辅助应用流量与冗余流量,动态分配带宽,同时基于12个月流量时序数据,构建人工智能(AI)决策体系,提前2至4小时预警链路与集群拥塞,结合动态调度技术,使拥塞发生率下降60%以上。在此基础上,该数据中心自动分析客户流量特征,智能生成低峰期算力调整、路由优化等定制化优化方案,在优化用户体验的同时减少数据中心带宽占用。2024年度网络资源年平均利用率达50.04%。
图23:中国电信陕西公司西咸云基地5#数据中心网络智能调控架构
青岛作为中国联通在山东的核心节点之一,出口流量持续增长,网络带宽资源相对紧张。中国联通(青岛)智算中心DC1通过分析并建立内容分发网络(CDN)、算力服务、容灾备份等不同业务流量模型,合理调配网络接入设备,同时建立具有量化业务权重的网络资源管理制度实现小时级监控管理,减少网络带宽资源占用。对于网络资源需求较大的算力服务业务,该数据中心通过算力池化技术整合分布式算力资源,根据任务需求统一调配网络资源,并合理组织数据流传输路径,在保障数据传输速度不受影响的前提下,2024年度网络资源年平均利用率达52.36%。
图24:青岛联通数据中心网络拓扑图
十三、发挥算力效能,提升单位电能消耗产出效益
中国电信杭州智算中心1号楼在算力建设方面探索实践自主可控与高效能并重的建设理念,综合部署了国产神经网络处理器(NPU)、张量处理器(TPU)及类脑处理器,并辅以部分进口通用图形处理器(GPGPU),总算力规模达到715PFlops,其中国产芯片算力占比超过70%。为充分发挥算力效能,杭州智算中心1号楼依托算力分发网络平台,实现异构算力资源的智能识别整合及池化,并可根据客户个性化需求,定制建设私有算力池,同时根据数据处理任务类型优化计算路径规划,充分发挥国产张量处理器(TPU)和类脑处理器特定场景下高能效特点。据中国电信集团测算,中国电信杭州智算中心1号楼算力的单位电能消耗产出效益达到同领域先进水平。
图25:中国电信杭州智算中心1号楼综智监控中心
国家绿色算力设施先进经验与典型案例之三:互联网领域
2025年度互联网领域国家绿色算力设施共有17家,分别为克拉玛依碳和水冷数据中心、新丝绸之路云计算中心、抖音—中联绿色大数据产业基地6号楼、泽悦数据中心A—1、数据港—阿里巴巴广东云计算数据中心河源集群源城机房C栋、华章数据佛山蓝湾云计算产业园C1、C2栋数据中心、广州懋源云5G交互中心、浩云长盛中卫2号数据中心、尚航华东云基地1号楼数据中心、四川能投天府云数据产业基地D1楼、阿里飞天云智能华东算力中心项目枫泾基地B楼、互盟5G数据交换中心、快手智能云乌兰察布大数据二园区数据中心项目B1机房楼、昆山博浩5G大数据创新中心、美利云中卫数据中心C1数据机房楼项目、合盈数据(怀来)科技产业园ND11数据中心、润泽数据中心A—8。其绿色化建设的先进经验做法如下:
一、运维持续优化提升电能利用效率
数据港—阿里巴巴广东云计算数据中心河源集群源城机房C栋面对全年温湿度相对较高的气候条件,通过探索调配设备运行状态,将原设计的湿球温度≤16℃时运行预冷模式,湿球温度≤10℃时运行自然冷却模式,提升至湿球温度≤20℃运行预冷模式,湿球温度≤14℃运行自然冷却模式,使全年自然冷源应用占比提升至42%。通过探索机房内温湿度组合边界条件,该数据中心在将湿度上限由60%放宽至70%的同时,控制全年60%~70%湿度区间时长不超过3600小时,在保证信息设备安全前提下,降低除湿系统能耗60%。同时,该中心还通过采取管控冷水机组冷凝器平均换热温差小于0.5℃,应用人工智能(AI)技术综合调控变频离心式冷水机组、变频水泵及冷却塔风机运行状态等组合措施,使制冷单元综合能效达到8.0。2024年度电能利用效率(PUE)值达到1.19。
图1:数据港—阿里巴巴广东云计算数据中心运维管理现场
阿里飞天云智能华东算力中心项目枫泾基地B楼采用水冷冷水机组+板式换热器+并联蓄冷罐架构——在将年均信息设备负荷使用率调节至约60%的同时,对于冷水机组采取低负载时利用蓄冷罐小负荷供冷、高负载时合理调控制冷单元数量方式,确保冷水机组处于最佳效率区间;对于末端空调设备,在满足服务器温湿度服务水平协议(SLA)要求前提下,将送风温度从22℃调至23℃,控制送回风温差不低于11℃,并限制风机转速在30%~60%之间;对于冷却水泵,在保证流量需求的同时压低其运行频率;当采用机械制冷模式时,手动隔离板换,减小局部压损,并减少蓄冷罐充冷流量。通过以上措施,结合人工智能(AI)技术对设备调优及包间级能耗监测与管理,该数据中心2024年度电能利用效率(PUE)值达到1.18。
图2:阿里飞天云智能华东算力中心项目枫泾基地B楼暖通智能算法
华章数据佛山蓝湾云计算产业园C1、C2栋数据中心结合人工智能(AI)技术对基础设施运行状况与信息设备进行协同管理,在跟踪信息设备运行负荷基础上,协同采取调整制冷单元制冷量、水泵运行频率、供电设施模块休眠、末端空调风机转速等措施减少基础设施无效能耗,并可智能生成能效分析报告,为持续优化能效提供决策支持。通过协同优化,该数据中心2024年度电能利用效率(PUE)值相比设计值降低0.023。
图3:华章数据佛山蓝湾云计算产业园C1、C2栋数据中心基础设施与信息设备协同管理系统
广州懋源云5G交互中心在项目投产初期电能利用效率(PUE)值远高于设计值。该数据中心引入大数据分析及人工智能(AI)控制技术方案,在获取冷机、末端空调、温湿度、列头柜等设备参数之后,确定信息设备冷却所需冷量,每隔12秒给出控制建议,调控冷却系统制冷量与需冷量动态平衡,减少冷量浪费,且通过能耗预测,相比传统群控系统可提前5到10分钟做出响应,使设备始终运行于高效区间,年节电超过100万千瓦时。
图4:广州懋源云5G交互中心能耗预测效果
互盟5G数据交换中心采用水冷方案,原冷冻水进回水设计温差为6℃(进水 17℃,回水 23℃)。该数据中心根据当地气候特点调整板式换热器与机械制冷之间的切换条件,并优化设备自控系统控制策略后,将运行温差提升1.5 {}^{\circ}\mathrm{C} 至7.5 {}^{\circ}\mathrm{C} 。该方案在冷负荷不变的前提下,降低了水系统流量,减少冷冻水循环泵能耗约30%;提高了冷媒蒸发温度与压力,降低冷水机组系统能耗约2.5%;板换使用率提升24.2%,全年板换运行时间达3872小时,其中完全自然冷却时间达1781小时。
图5:互盟5G数据交换中心冷水机组及自然冷却用板式换热器
昆山博浩5G大数据创新中心为应对投产后负荷逐步增加的情况,采用蒸发冷复合多联空调解决方案,通过分布式架构与末端多联设计,支持分区投用,但同时也增加了系统架构复杂度。为优化运维参数,该数据中心首先在实验室搭建整套系统模型,模拟实际项目交付落地的场景,验证不同运行负载率情况下的运行参数,积累经验后,在待投产的数据中心搭建整套试验系统,验证实验室测试过程摸索的各项参数在实际生产场景下的效果,挖掘该方案节能潜力。该数据中心投用后,在上负荷过程中,电能利用效率(PUE)值始终低于1.30。
图6:昆山博浩5G大数据创新中心蒸发冷复合多联空调解决方案架构
美利云中卫数据中心C1数据机房楼项目采用由间接蒸发冷却机组制冷的风冷方案,结合当地气候条件持续对设备运行参数进行调优——将启动喷淋模式所需风机转速边界值由60%调整至45%,减少风机高转速运行时间;将启动混合模式(压缩机机械补冷)所需湿球温度边界值由18.8℃调整至19.8℃,全年自然冷却时间提升至60%以上;将机房内冷热通道温差值由12℃调整为13℃,减少间接蒸发冷却机组制冷负荷;应用人工智能(AI)管理平台实现对每一台间接蒸发冷却机组风机系统、喷淋系统、机械补冷系统的综合调控。通过上述措施,该数据中心2024年度电能利用效率(PUE)值同比降低0.02。
图7:美利云中卫数据中心C1数据机房楼项目间接蒸发冷却空调机组
润泽数据中心A—8原制冷系统为独立控制架构,各设备仅可进行独立调优。该数据中心结合节能降碳诊断,对冷冻水泵进行变频升级,支持冷却塔、制冷机组与空调末端联动联控,引入人工智能(AI)控制技术后,实现多参数下动态协同寻优。在此基础上,该数据中心还结合廊坊地区气候特点优化制冷模式切换工况,2024年度实现全自然冷却近150天。
图8:润泽数据中心A—8冷冻水泵变频改造现场图
四川能投天府云数据产业基地D1楼基于42kW风冷高功率机柜,采用列间空调结合全封闭冷热通道模块化方案,每个模块均具备独立智能管理平台,可实现制冷系统与信息设备联动调优。该方案采用空调双群控策略,嵌套两组轮巡调控算法,可避免局部热点超温问题,在提升系统可靠性的同时提升制冷系统能效比。围绕该方案,该数据中心通过将冷冻水回水温度提升至24 {}^{\circ}\mathrm{C} 、控制变频设备频率在最佳节能区间、提高循环水质要求保证板式换热器换热效率等措施,全年自然冷却时间达5个月,2024年度电能利用效率(PUE)值达到1.26。
图9:四川能投天府云数据产业基地D1楼42kW风冷高功率机柜
二、主动作为提供用电负荷调节匹配能力
浩云长盛中卫2号数据中心主动对接供电部门,与电力调度侧建立联动机制,在及时掌握负荷预测、调峰目标、风险预警等关键信息的基础上,建立用电方案及不同类型突发情况专项预案,并事先预留 200kW 的专项负荷调整空间,明确该部分负荷的管控规则,在夏季、冬季等用电高峰季节前每月开展 1 次负荷应急调整实操演练。2025 年该数据中心主动响应调峰需求 5 次,应对紧急情况 3 次,并在每次响应完成后,及时向国家电网调度部门反馈负荷削减实际情况,配合完成效果评估,在保证自身用电安全的同时,为电网提供用电负荷调节匹配能力,支持新型电力系统建设。
图 10:浩云长盛中卫 2 号数据中心进行需求侧调峰响应现场图
三、因地制宜提升余热利用水平
克拉玛依碳和水冷数据中心建有液冷系统,余热品位相对较高,且所在地年取暖期在 180 天以上。在取暖期,该数据中心通过大流量小温差换热器提取液冷系统中服务器冷却循环内高温回水( 40^{\circ}\mathrm{C}\sim 55^{\circ}\mathrm{C} )余热,并视供热距离由太阳能槽式聚光光热系统及热泵系统提质。该系统初期已实现向数据中心自有生产及办公区域(约 \mathrm{4400m}^{2} )稳定供暖,年节电约 130 万千瓦时,远期将实现向周边市政及设施农业供暖。
同时,为在非取暖期充分利用余热及太阳能聚光光热系统,该数据中心在积极探索结合低温溴化锂吸收式制冷系统实现“热制冷”。
图11:低温溴化锂吸收式制冷系统架构
合盈数据(怀来)科技产业园ND11数据中心为大型数据中心,余热总量相对较大,在自用同时,通过配套建设独立换热站与市政管网联通探索为周边产业园区提供市政供暖。该数据中心在冷冻站回水管网部署余热回收用板式换热器提取机房冷冻水高温回水(23℃)余热,使其分别经水源多联机组向机房楼和柴发楼房间供热,经水源热泵提质到 40℃用于办公楼供热,进一步提升到 60℃用于市政供热,2024年度实现节能677吨标准煤(按燃气锅炉用能折算)。同时,该数据中心推动合作金融机构认可余热回收实践为数据中心用能绿色转型的重要特征之一,将其纳入绿色信贷评估体系,并据此发放数据中心碳中和可持续发展贷款。
图12:合盈数据(怀来)科技产业园ND11数据中心余热回收用板式换热器
抖音—中联绿色大数据产业基地6号楼采用间接蒸发冷却与氟泵空调组合制冷的风冷方案。针对风冷系统因空气热容低,余热回收功率有限问题,该数据中心在空调冷凝侧加装冷媒—水换热器,解耦压缩机与风机联动控制关系,并结合当地气候条件寻找制冷模式最经济切换点。当制冷模式切换至冬季运行状态时,冷媒与热通道回风换热汽化后,在关闭风机状态下由压缩机将常温常压冷媒蒸汽加温加压至80℃~90℃并输送至冷媒—水换热器,将循环水加温至50℃~55℃用于供暖,系统性能系数(COP)达9.7,2024年度实现为办公楼及配电间、柴油机房等附属用房共14500 \mathrm{m}^{2} 提供冬季供暖及生活热水。为充分利用余热,该数据中心目前正在相关主管部门协调下探索冬季为设施农业供热。
图 13:带热回收系统氟泵空调架构
四、人工智能(AI)技术赋能降低用水量
快手智能云乌兰察布大数据二园区数据中心项目B1机 房楼采用由间接蒸发冷却机组制冷的风冷方案。该数据中心 通过设备机理模型综合预测设备耗电量、耗水量,并设定判 断权重,取综合比较后最优解设定机组制冷模式。在需启动 喷淋模式和混合制冷模式时,i该系统可采用人工智能(AI) 技术对用水和用电进行同步调控,减少无效喷淋,并通过全 天能耗预测控制喷淋时间,将有限供水量用于全日能耗最高 时段。2024年度电能利用效率(PUE) 值达到1.23, 同时, 单位信息设备能耗用水量(WUE) 达到0.05L/(kW·h)。
五、算力调度提升信息设备负荷使用率
泽悦数据中心A—1围绕万卡级智算算力集群,构建全局智能调度系统并持续优化控制策略,实现算力牵引、设施随动。在算力集群处理人工智能(AI)大模型训练及推理任务时,该系统将算力资源转化为虚拟资源池,根据算力任务优先级、算力负载需求等参数,通过算力切分、跨节点聚合、内存虚拟化等技术,实现对池内算、存、运物理资源的统一动态调配,让信息设备运行在最优负载区间,并自动休眠闲余算力,降低能耗。同时,该系统支持制冷、供电等基础设施运行状态与信息系统运行状态同步调整,减少无效供冷与供电。相比投运初期,该数据中心已实现节能20%以上。
图 15:泽悦数据中心A—1万卡级智算算力智能调度系统架构
尚航华东云基地1号楼数据中心通过对计算资源进行虚拟化拆解和池化整合并建立异构算力调度中枢提供云化算力服务。该数据中心为客户建立专属算力单元,既可保证客户数据安全,又可根据客户业务波动随时调整单元容量,将闲置资源调整至备份状态,用于应对新客户或现有客户的临时扩容需求。该数据中心结合客户对算力服务的需求提供多种商业模式,推动客户快速释放闲置算力资源。针对不同业务类型,该数据中心优化算力资源配置,充分发挥算力资源性能。同时,该数据中心加入无锡算力服务体系,使算力资源形成互补。通过上述措施,尚航华东云基地1号楼数据中心2024年度信息设备负荷利用水平达到61.3%,单位电能消耗产出效益处于行业先进水平。
图16:无锡城市智算云平台
新丝绸之路云计算中心建有多源异构算力统一调度平台,该平台通过机器学习分析历史负载数据,提前72小时预测算力需求峰值,可基于预测调整算力资源分配策略,对于实时需求也可实现算力资源秒级响应,从而实现对算力资源动态分配,避免传统静态分配导致的资源闲置。2024年度信息设备负荷使用率达60.65%。该平台可实时监控设备状态与能耗数据,当某机房服务器利用率低于30%时,系统自动将业务负载迁移至相邻高负载区域,同时关闭闲置服务器,降低能 耗。结合其他节能措施,该计算中心2024年度电能利用效率 (PUE) 值达到1.25。
图17:新丝绸之路云计算中心一体化综合管理与治理系统
国家绿色算力设施先进经验与典型案例之四:金融领域
2025年度金融领域国家绿色算力设施共有4家,分别为交通银行数据中心浦江园区(一期)、中国人民保险集团股份有限公司北方信息中心数据机房一、广西金融广场数据中心、常熟农商银行燕谷数据中心。其绿色化建设的先进经验做法如下:
一、结合节能降碳诊断开展绿色化改造
广西金融广场数据中心、中国人民保险集团股份有限公司北方信息中心数据机房一积极响应《工业节能诊断服务行动计划》,依据《数据中心节能诊断服务指南》开展自愿性节能诊断工作,定位能效优化空间并实施绿色化改造。
广西金融广场数据中心通过采取对空调室外机加装喷雾系统降低空调运行能耗,建立数据中心能耗监测系统动态监控负载波动、室内外温湿度及暖通设备运行状态等关键参数,采用LED灯具并建设智慧照明管控系统实现分时分区智能控制等措施,改造后电能利用效率(PUE)值较改造前降低0.10。
图1:广西金融广场数据中心机房动力环境监控系统
中国人民保险集团股份有限公司北方信息中心数据机房对部分机柜进行冷板式液冷改造,提升冷却效率;加装冷水机组冷凝器胶球在线清洗装置,实现不停机自动清洗,提升换热效率 10%~30%;对机柜闲置空间进行盲板封堵,既避免灰尘杂质侵入设备,又优化机房气流组织,减少冷热气流混合损耗。通过改造,电能利用效率(PUE)值较改造前降低0.14。
图2:中国人民保险集团股份有限公司北方信息中心数据机房一液冷改造
二、“光储协同”发挥分布式光伏电站效能
常熟农商银行燕谷数据中心在屋顶建设分布式光伏电站,总装机容量约108kW,年发电量14万千瓦时。该数据中心将光伏发电与储能系统融合,克服光伏发电曲线波动缺点,使分布式光伏电站所发电量获得充分应用。同时该数据中心积极通过绿色电力市场购买绿电、绿证,可再生能源利用率达62.1%。
图3:常熟农商银行燕谷数据中心分布式光伏发电系统
三、高效回收余热再利用
交通银行数据中心浦江园区(一期)在保障双路冷源稳定运行的前提下,通过动态分配双路冷负载,优化冷水机组开启台数与负载率匹配度;提高冷冻水供水温度,延长自然冷却模式运行时长;采用水源热泵机组,将空调冷冻水回水通过专用管道输送,冬季为数据中心办公楼供热,实现余热高效回收再利用。
图4:交通银行数据中心浦江园区(一期)水源热泵机组
国家绿色算力设施先进经验与典型案例之五:公共机构领域
2025年度公共机构领域国家绿色算力设施共有10家,分别为北京城市副中心行政办公区数据中心、克拉玛依职业技术学院数据中心、山西大学思创楼数据中心、嘉庚智算中心、新疆医科大学数据中心、国家税务总局九江市税务局云数据中心、樟树市公安局数据中心、西部(重庆)科学城先进数据中心、南昌市西湖区数智西湖数据中心、国家税务总局新余市渝水区税务局中心机房。其绿色化建设的先进经验做法如下:
一、应用先进节能降碳技术降低制冷系统能耗
北京城市副中心行政办公区数据中心以“自然冷优先+动态适配”为核心,采用“风冷+自然冷”冷水机组,构建机械制冷、自然冷却、联合冷却三种运行模式,制冷系统可根据室外温度变化与机房实时负载,实现三种运行模式的自动切换;冷冻水系统采用直接数字控制器(DDC)智能控制与变频技术,通过实时采集设备运行参数与环境数据,精准调控水泵、冷水机组等设备的运行参数,避免“过度供冷”,实现制冷系统能耗降低15%~30%。
图1:北京城市副中心行政办公区数据中心机房
克拉玛依职业技术学院数据中心以“模块化设计+变频联动”为核心,实现空间利用率与制冷效率双提升。该数据中心采用智能微模块标准化部署,科学划分设备与功能分区,搭配“密闭冷通道+近端制冷+空调背板墙”闭环气流组织系统,实现冷空气精准输送、热空气集中回收;配置行级列间精密空调,采用高效变频压缩机、群控联动技术与智能温控算法,实时响应机柜热负荷变化,精准执行“按需供冷”策略,大幅削减无效制冷能耗。
图2:克拉玛依职业技术学院数据中心机房模块
西部(重庆)科学城先进数据中心聚焦高密度算力部署,实现“空间、能源、水资源”协同优化。该数据中心采用相变浸没式液冷技术,解决高密度集群局部热岛效应,使单机柜功率密度较传统机房提升数倍;供配电系统采用中压直转直流供电架构,减少变压环节与设备数量,节省20%以上配电区域占地面积;通过闭式水蓄冷系统与雨水回用设施,实现储能调峰与水资源循环利用。
图3:西部(重庆)科学城先进数据中心相变浸没式液冷系统
嘉庚智算中心结合自身数据处理业务需要,采用冷板式液冷高性能服务器,单机柜功率可至60kW。同时,通过采用高温工况设计,服务器冷却循环进水温度可达40℃,可充分利用自然冷源。结合封闭式窄通道设计,机柜与柜式精密空调共同组成单排微模块结构,形成前送风后回风冷却模式,大幅缩短送风距离,减少冷量浪费。2024年度电能利用效率(PUE)值达到1.19。
图4:嘉庚智算中心单排液冷微模块
二、优化布局提升能效及机房资源利用水平
国家税务总局九江市税务局云数据中心优化空间布局,采用全封闭式柜体设计,使机房具备灵活扩容能力。柜体内划分独立冷热通道,实现冷热气流物理隔离。同时聚焦散热核心区域采用小面积精准制冷设计,避免冷量浪费。并在机房冷通道两侧设置保温棉,避免因柜内外温差产生凝露。该数据中心2024年度电能利用效率(PUE)值达到1.30。
图5:国家税务总局九江市税务局云数据中心机房
樟树市公安局数据中心通过“规范布局+数据驱动”提升制冷效率。该数据中心采用冷热通道封闭模式规整机柜排列,将列间空调近距离部署于机柜旁,形成“冷热分离、精准送风”的气流组织模式,避免气流短路、冷热交织等传统机房常见问题。在智能管控上,该数据中心搭建智能监控管理系统,实时采集机房内温湿度、气流速度、设备负载等关键数据,通过数据可视化与趋势分析,为机柜布局调整、制冷策略优化提供数据支撑。
图6:樟树市公安局数据中心机房
三、构建能源信息化管控体系,强化智能运维
山西大学思创楼数据中心将绿色低碳理念贯穿“设计-采购-运营”全生命周期,以“信息化管控+智能算法”为支撑构建能效管理体系。该数据中心通过搭建能源信息化管控系统,实时采集精密空调运行参数、机房环境温湿度、服务器负载等数据,运用人工智能(AI)算法对数据进行深度分析,精准匹配冷量供给需求,同时采用末端空调并机轮巡、不间断电源(UPS)智能并机等策略,减少设备无效运行时间,实现电能利用效率(PUE)值较投用初期下降0.43。
图7:山西大学思创楼数据中心人工智能(AI)节能系统架构
新疆医科大学数据中心采用高密度微模块进行部署,将供配电系统、变频氟泵空调、服务器机柜、冷热气流隔离装置以及动力环境监控系统等集成,具备按需扩展、快速复制的灵活特性。依托动力环境监控系统,该数据中心制冷系统可实现近端精确送风、按需柔性制冷,全年三分之一时间利用自然冷源散热,电能利用效率(PUE)值比原老机房降低0.14。
图8:新疆医科大学数据中心动力环境监控系统
四、完善规章制度,加强绿色采购及绿色运维
国家税务总局新余市渝水区税务局中心机房严格落实税 务系统绿色采购制度,制定明确的绿色采购标准,要求采购 产品必须满足国家绿色设计产品评价标准及节能、节水、低 碳环保等相关要求,并建立供应商负面行为处理规则,强化 对供应商的约束。在运维处置环节,该数据中心建立健全废 旧电器电子产品回收管理制度,与设备生产厂家建立长期合 作关系,定期开展废旧设备、电缆、电池等物资的回收处置 工作,实现资源循环利用,减少环境污染。
图9:国家税务总局新余市渝水区税务局中心机房废旧物资回收处置管理办法
南昌市西湖区数智西湖数据中心通过制定节能管理工作 制度,坚持定期组织节能措施回顾,结合实际不断完善能源 管理、节水管理以及相关管理制度,并加强节能运维管理, 系统分析机房运行状况,合理利用动环监控系统,实时监测 数据中心供电、制冷设备的运行状态及流量,及时优化参数设置,持续改进提升绿色运维手段。
图10:南昌市西湖区数智西湖数据中心绿色运维工作流程
重磅!生态环境部印发《省级温室气体清单编制指南(2025年版)》
版权问题、业务合作、投稿请联系:18932564938(同微信)
特别声明:北极星转载其他网站内容,出于传递更多信息而非盈利之目的,同时并不代表赞成其观点或证实其描述,内容仅供参考。版权归原作者所有,若有侵权,请联系我们删除。凡来源注明北极星*网的内容为北极星原创,转载需获授权。

