全球数据中心正在进入“吉瓦级(Gigawatt)”时代。AWS、微软、Meta、Switch、Vantage等科技巨头们不再满足于传统的服务器机房,而是斥资数十亿美元建设用于支撑人工智能运算的数据中心。
根据电力容量(MW)排名,世界上最大的10个数据中心:
01
Project Rainier AI计算集群
运营商:AWS、Anthropic
地理位置:美国印第安纳州,新卡莱尔
电力容量:2200MW
占地面积:486万平方米
投资规模:110亿美元
状态:已投产/扩建中
Project Rainier是AWS与Anthropic合作开发的AI超级集群,自2024年9月启动建设,并于2025年10月正式投入运营。该项目位于美国印第安纳州,占地1200英亩,规划建设30座数据中心,耗电超过2.2吉瓦,总投资110亿美元,是专为AI工作负载设计的超大规模基础设施。
当前,这一超级集群已部署50万颗AWS自研的Trainium2芯片,用于训练与运行Anthropic生成式AI模型(包括Claude),提供的计算能力是Anthropic之前用于训练其AI模型的五倍以上。预计到今年年底,AWS计划将Trainium2芯片数量增加到100万颗。
02
微软Fairwater AI数据中心
运营商:微软(Microsoft)
地理位置:美国威斯康星州,芒特普莱森特;美国佐治亚州,亚特兰大
电力容量:2000MW
占地面积:162万平方米
投资规模:73亿美元
状态:已投产/扩建中
Fairwater 1(威斯康星):建设中(预计2026年初全面投产)。
Fairwater 2(亚特兰大):已投产(2025年10月开始运营)。
Fairwater是微软为大型AI训练与推理专门设计的新一代“AI数据中心”,该设施被定位为“全球最强大的人工智能数据中心”。Fairwater配备了数十万块NVIDIA GB200和GB300,通过一个“扁平网络”连接起来,这些GPU聚成一个巨大的逻辑集群,微软宣称其AI性能可达到当前最快超级计算机的10倍。
微软正在将多个Fairwater站点(威斯康星州和佐治亚州的数据中心)通过专用光纤网络(AI WAN,Wide Area Network)互联,形成一个“AI超级工厂”。这种设计打破了物理地理的限制,旨在承载数万颗GPU和CPU,以满足OpenAI和微软AI超级智能团队大规模AI模型的训练需求。
03
Meta Altoona数据中心
运营商:Meta(原Facebook)
地理位置:美国爱荷华州,阿尔图纳
电力容量:1401MW
占地面积:210万平方米
投资规模:超过25亿美元
状态:已投产
Meta Altoona数据中心是 Meta(原Facebook)在美国爱荷华州阿尔图纳建设的一个大型数据中心园区,自2013年起开始建设,建筑为两层“H 型”结构,电力容量约为1401MW,建筑面积超过46万平方米,总投资超过25亿美元。
该数据中心园区包括Polk County数据中心的1号和2号两栋建筑,是爱荷华州中部新园区八个数据中心大厅中最先建设的设施。在能源使用方面,该园区所用电力100%来自可再生能源。Meta与Apex Clean Energy签署了一份225 MW的风电购电协议(PPA),由其Great Pathfinder风电场提供电力。
04
Meta Prineville数据中心
运营商:Meta(原Facebook)
地理位置:美国俄勒冈州,普赖恩维尔
电力容量:1289 MW
占地面积:152万平方米
投资规模:超过20亿美元
状态:已投产
Meta Prineville数据中心是Meta在全球建设的首个自建超大规模数据中心,也是其最重要的基础设施之一。该项目自2010年开工建设,2011年启动运营,投资规模达20亿美元,电力容量为1289MW。它不仅是Meta全球互联网服务的核心支撑节点,也是其推动绿色计算与开源硬件设计的典型项目。
它位于俄勒冈州的高沙漠地区,该地区夏季气温通常在27~32°C之间,高温时甚至会超过38°C。Meta充分利用该地干燥、气温较低的环境设计了高效的空气冷却系统,通过雾化喷雾和外部空气混合来控制温湿度,避免了传统制冷空调设备的高能耗,从而实现PUE 1.06。
05
Meta Fort Worth数据中心
运营商:Meta(原Facebook)
地理位置:美国得克萨斯州,沃斯堡
电力容量:729 MW
占地面积:69万平方米
投资规模:超过15亿美元
状态:已投产
Meta位于德克萨斯州沃思堡(Fort Worth)的数据中心园区,IT负载约为729MW,占地约170 英亩(约69万平方米),总建筑面积250万平方英尺(约23.2万平方米),包括多个数据中心机房以及行政办公空间。该项目分阶段建设,2015年开工,第一个阶段于2017年运行,整个园区在2023年完工。
作为Meta全球基础设施的一部分,Fort Worth数据中心100%使用清洁可再生能源运行,并推动了德克萨斯州约1919MW新可再生能源项目的发展。该数据中心为Facebook、Instagram、WhatsApp等平台提供关键能力,支撑了全球超过30亿用户的应用服务。
06
Meta Mesa数据中心
运营商:Meta(原Facebook)
地理位置:美国亚利桑那州,梅萨
电力容量:701 MW
占地面积:160万平方米
投资规模:超过10亿美元
状态:已投产
Mesa数据中心是Meta在美国亚利桑那州梅萨市开发的一个大型数据中心园区。项目选址于梅萨市的伊斯特马克(Eastmark)社区附近,占地约390 英亩(160万平方米),总投资规模高达数十亿美元。Meta在2021年宣布启动该项目,并在2025年正式运营。
Meta通过与当地电力公司合作,投资于新的太阳能和风能项目来实现。Meta与清洁能源提供商Ørsted签订电力购买协议,将通过Salt River Project(简称SRP)产出的太阳能为梅萨数据中心供电。这一举措符合Meta致力于其全球数据中心运营实现100%可再生能源的目标。
07
Meta DeKalb数据中心
运营商:Meta(原Facebook)
地理位置:美国伊利诺伊州,迪卡尔布
电力容量:673MW
占地面积:204万平方米
投资规模:超过10亿美元
状态:已投产
Meta在美国伊利诺伊州迪卡尔布建立的一个大规模数据中心园区,自 2020年破土动工,并于 2023 年正式投入运营。该园区占地约 505英亩(约 204万平方米),规划总建筑面积为230万平方英尺(约 213677平方米),最终建设五栋数据中心。
在可持续性方面,Meta DeKalb数据中心与多个风能项目合作。例如,Meta与Enel签订了一份125 MW的长期风电购电协议,以为该数据中心提供可再生电力,该站点的用电完全由100%可再生能源匹配。此外,在建设过程中,Meta回收了高达90%的施工废料,减少了约17600吨建筑垃圾送往填埋场。
08
Switch TAHOE RENO数据中心
运营商:Switch
地理位置:美国内华达州,里诺
电力容量:650 MW
占地面积:809万平方米
投资规模:40亿美元
状态:已投产/扩建中
TAHOE RENO 1:已投产(2017年2月开始运营)。
TAHOE RENO 2和TAHOE RENO 3:建设中。
Switch TAHOE RENO数据中心又名The Citadel Campus(堡垒园区),是Switch位于美国内华达州里诺工业区的超大规模数据中心集群。该园区是Switch庞大PRIME生态系统的一部分,旨在成为全球最大、最先进的托管数据中心园区之一。
该园区采用三重冗余UPS系统,并配备可抵御时速200英里强风的 Switch SHIELD屋顶系统。高容量机柜可实现每柜高达42kW的功率密度。园区还接入Switch的SUPERLOOP,一条500英里、具备多Tbps能力的光纤网络,将太浩雷诺与旧金山、洛杉矶及拉斯维加斯的数据中心互联。
09
微软Quincy数据中心
运营商:微软(Microsoft)
地理位置:美国华盛顿州,昆西
电力容量:622 MW
占地面积:109万平方米
投资规模:8亿美元
状态:已投产/扩建中
微软在美国华盛顿州昆西的数据中心,也称为科伦比亚数据中心(Columbia Data Center)。该园区占地270英亩(109万平方米),由多栋建筑组成,总建筑面积80万平方英尺(约 7万平方米)。该园区始建于2006 年,2007年投入运营,之后不断扩展。
微软Quincy数据中心采用绝热冷却(adiabatic cooling)及传统的冷热通道(hot aisle/cold aisle)隔离策略,使其电力使用效率(PUE)保持在1.4以下。同时,通过附近的Grand Coulee水电站获取电力,微软的电费可低至每千瓦时1.9至2.5美分。
10
Vantage Ashburn数据中心
运营商:Vantage
地理位置:美国弗吉尼亚州,阿什本、斯特灵
电力容量:590 MW
占地面积:83万平方米
投资规模:超过10亿美元
状态:已投产/扩建中
Vantage Ashburn是Vantage在北弗吉尼亚布局的大型数据中心综合园区,该园区由多个子园区(VA1/VA2/VA3)组成。Vantage在2018年启动VA1(Ashburn I)的建设,2022年和2023年提交VA2(Ashburn II)和VA3(Ashburn III)的开发申请,并在2025年完成(VA1第五栋大楼)的封顶。
该数据中心园区采用高效的闭式冷冻水系统,由风冷冷水机组提供冷源,并集成旁路节能模式,可根据室外温度智能调节压缩机负载,大幅降低能耗。所有机电系统均按照N+2 冗余设计,得益于最新一代冷却架构,园区的水资源利用效率(WUE)接近为零,进一步提升可持续运营水平。
液冷常见问题汇总
当前,计算向智算转变,高算力的需求带动主流算力芯片的发展,算力芯片的功耗也随之不断增长,功耗逼近风冷单点散热极限,传统的风冷技术已无法满足高算力、高密度数据中心的散热和算力持续发展需求。
1、什么是液冷?
液冷是指使用液体取代空气作为冷媒,为发热部件进行换热、带走热量的技术。液冷服务器是指将液体注入服务器,通过直接或间接的冷热交换带走元器件发热量的一种服务器。液冷数据中心是指应用液冷技术和液冷服务器等设备的数据中心。
2、浪潮信息的液冷产品?
浪潮信息液冷是以浪潮信息自研液冷服务器和液冷数据中心产品技术为核心的新一代数据中心解决方案。
借助服务器市场的领先地位和先进技术,浪潮信息为客户提供液冷通用服务器、液冷整机柜服务器、液冷高性能服务器和液冷人工智能服务器,并在M7平台全面实现“ALL IN 液冷”,帮助客户规划、设计并建设节能低碳的绿色数据中心。
浪潮信息液冷数据中心最低可以实现PUE低于1.1,并具有节省能耗、节约占地、降低噪音、TCO低、增加装机量、减少地域气候对选址的影响、延长设备寿命、降低元件故障率等众多优势。
3、液冷与风冷数据中心的区别?
(1)设计:液冷无需数据中心机房中的制冷冷机和末端空调,利用液体代替空气,提高了散热效率。
(2)选址:液冷不必因为PUE和运营成本而优选寒冷气象区,可完全跟随业务需求新建或者改扩建,发展潜力更大、适用地区更广。
(3)建设:由于限制最少和政策支持,在业务需求相同的情况下,新建数据中心最适宜应用液冷方案。扩建数据中心需要选定适当比例的空间兼容液冷,提升整体运行效率。改建数据中心则需根据机房楼板承重,视实际情况进行机房的加固,为液冷留出适度裕量。
(4)交付:液冷数据中心的交付需要充分考虑冷却液的运行工况,对于管道、线材、机柜尺寸、承重等也提出不同的要求。
(5)运维:液冷数据中心的运维周期一般为传统数据中心的3-5倍,并且去除了风扇的噪声,工作环境对运维人员更为友好。
4、液冷数据中心PUE能达到多少?
数据中心PUE(Power Usage Effectiveness)与所在地区的气候和数据中心的设计架构直接相关,实际运行过程中更是受到室外环境、季节、负载率、运维管理水平等因素的影响。液冷数据中心的PUE还与液冷占比相关。数据中心完全采用液冷时pPUE可达到1.04。液冷与风冷负荷各占50%时,制冷系统pPUE可达到1.16。
注:此处只考虑制冷系统PUE,供配电、照明等系统PUE一般相差不大,不计入对比。
5、液冷是如何实现降低PUE的?
一个典型的数据中心中,IT设备能耗占50%,制冷系统占30%,其他系统占20%,可见制冷系统是数据中心除IT设备外能耗最大的系统。而制冷系统中,压缩机是能耗最大的部件。
液冷系统通过减少甚至完全取缔带有压缩机的空调机组(如风冷直膨精密空调、冷水机组等),采用功率较小的闭式冷却塔+换热单元(CDU)的形式,降低制冷系统能耗。
6、液冷与风冷的成本及投资收益对比?
由于增加了水管、快插接头、漏液检测、机柜加固等内容,但液冷机柜可以支持的服务器上架满配、同样装机量下可节约50%机柜数量,综合来看,平均一台液冷机柜比风冷机柜增加2万元。由于增加了闭式冷却塔,但减少了开式冷却塔和冷水机组,外部冷源、管路、阀门等系统投资,液冷与风冷持平。
液冷系统投资增加主要体现在机柜层面。液冷占比50%相比全部采用风冷的数据中心而言,PUE可降低0.2,假设总IT负载为5000kW,按风冷规划1000台机柜(单机柜5kW),按液冷规划500台机柜(单机柜10kW),液冷比风冷多投资1000万元。
假设数据中心实际运行负载率50%,则年平均耗电量为5000kW*24h*365*0.5=21900000kW·h,按每度电1元计算,则年总电费为2190万元。
液冷系统年节约电费2190*0.2=438万元,相比于全风冷建设而言,2.28年即可持平,第3年起每年可节约电费438万元,数据中心20年的使用周期内可节约电费8760万。
7、液冷可靠性怎么样/怎么防止泄漏?
从规范看:国内外纷纷出台液冷相关的白皮书、团体标准和行业标准,国内21年底发布了一系列液冷行业标准,22年4月开式实施,说明液冷有规范可依,浪潮信息也是参编单位之一。
从产业看:在行业发展和众多厂商推动下,液冷包括液冷服务器、液冷冷板、冷却液、快插接头等相关产品部件,配套管路、阀门、冷却塔、水泵等通用设备,液冷数据中心具有成熟的产业链体系和生态。浪潮信息凭借数据中心和IT市场多年深耕的积淀,为推动液冷产业的发展做出了极大的贡献。
从工艺看:浪潮信息生产测试中心部署了流体连接器、拉拔力测试仪、气密性检测、内窥镜检测、颗粒度检测仪、负压烘干箱等高精度智能化设备可以满足各项研发、测试需求,为满足液冷产品生产需求,浪潮信息液冷生产测试基地制定了严格的生产工艺及标准,保障液冷产品的可靠性。
从系统看:液冷系统内外两个循环系统均为闭式系统,驱动水泵一般采用双备份的变频水泵,循环系统的运行工况非常稳定;CDU、管路和其他主要器件均会考虑冗余配置,确保任何时候维护更换时不停机;主管路一般采用环型管路,确保任何一个机柜需要的液冷水均可以从二个方向流入。浪潮信息有专业的数据中心团队进行液冷数据中心系统的规划和设计,为客户提供高可靠、高可用、高性价比的优选方案。
从部件看:当前业内液冷板加工工艺以及管路连接技术非常成熟,经过大量的、长时间的测试和验证,泄露风险极低;液冷服务器均采用快插接头,快速插拔不会泄露,使用寿命内支持上万次插拔。
8、如何保证液冷安全?
多种措施保障高可靠:①采用铜冷板,无腐蚀风险;②采用三级漏液检测(节点级、机柜级、机房级),与BMC联动(可选自动关机)
国内液冷服务器市占率第一(IDC 《中国半年度液冷服务器市场(2023全年)跟踪》报告),数万台液冷服务器长期运行无泄漏。
9、液冷泄露了怎么办?
液冷泄露主要有服务器内部、机柜内管路泄露、机房管路泄露等方面。
(1)服务器内部泄露:浪潮信息服务器内部冷板及管路上缠绕漏液检测线,控制芯片嵌入到服务器主板上,一旦检测到泄露,立即告警联动当前服务器节点电源管理断电或告警(模式可自定义设置)。
(2)机柜内泄露:机柜进回液支管可配置电磁阀,一旦检测到泄露可联动报警并切断电磁阀,及时切断故障部分系统运行,避免故障扩散。
(3)CDU泄露:液冷系统一般设置N+1冗余或2N冗余的CDU,当一台故障或维修时,可停机并切断与主管路的连接,其他CDU不间断运行。
(4)管路泄露:管路是系统非常可靠的部件,不止液冷系统,传统冷冻水数据中心以及其他商业工业领域均有大量应用。只要在投运前做好打压、保压测试,实际运行几乎不会发生泄露。
10、液冷数据中心是否需要定期补液?
系统运行时,冷却液有微量损耗,因此需要补液。但是液冷系统内有补液箱,工作时CDU可自动向管路中补液,可以减少冷却液的补液频率。补液箱内有液位传感器,当冷却液存量较少时,可提醒运维人员手动补液。一般来说系统一年需要1~2次手动补液。
11、浪潮信息自研CDU有哪些优势?
(1)溶液检测:选配溶液监测部件,包含电导率、浊度、PH检测;
(2)支持冷备/热备,具有轮巡和层叠功能:CDU可定期自动切换,在冷量不足时自动启动备机,保证可靠性同时延长器件寿命;
(3)二次侧支持0~100%负载调节:可实现全旁通无负载运行;
(4)过滤器在线维护:过滤器可旁通运行,在线不停机维护;
12、老旧数据中心如何改造液冷?
能否改造液冷、以什么形式改造液冷,需要根据老旧机房的实际情况进行评估。老旧机房改造液冷一般有以下几种情况。
(1)屋面或室外空地有一定的空间、有液冷管路的路由,具备一定的冷源改造条件。在这种情况下,主要考虑改造后的节能效果,大幅降低PUE,推荐增加液冷系统所需的闭式冷却塔或干冷器,以及一次侧水泵、水处理装置、水箱等配套设施;主机房内部需按照新的液冷系统规划,布局液冷机柜、风冷机柜、液冷CDU、风冷空调、配电柜等相关设备,增加二次侧管路。新增液冷冷源改造对机房的要求较高,收益也较大,PUE可降低0.2以上。
(2)屋面或室外不具备新增冷源的情况下,如果现有机房采用冷冻水系统制冷,可以利用既有冷冻水同时作为液冷和风冷的冷源,重新规划液冷与风冷机柜的配比,仅需增加液冷CDU和二次侧管道即可完成液冷改造。
冷冻水冷源利旧节能收益稍弱,但可以避免对机房楼、管道井等做大幅度改造,施工难度小、对现有业务影响小。
(3)既不具备新增冷源条件、也没有利旧冷源的情况下,推荐采用风液混合冷却数据中心解决方案,即保持现有机房、空调、机柜等不做大的变动,仅搭配液冷服务器和风液式CDU,只在机柜级做改造,利用现有机房空调制冷,便可以实现液冷服务器的部署。
风液混合冷却数据中心方案适用于改造条件比较差的机房,是一种方便快速部署液冷服务器、解决高密度服务器散热风险的一种解决方案。
液冷数据中心解决方案
13、如何解决液冷改造难的问题?
小规模试点/POC场景,推荐风液式CDU+液冷服务器的“零改造”方案(有代表案例)利旧原有冷源场景,推荐新增液液式CDU+一/二次侧系统的“微改造方案”。无可利旧场景,可提供冷源+MDC+服务器全套新建液冷方案(有代表案例)
14、采用液冷是否会被某个厂家绑死?
OCTC组织牵头四项液冷部件团标,推动液冷行业标准化.支持节点级、机柜级和机房级多种液冷解耦方案
15、浪潮信息液冷给客户带来的价值?
(1)提升上架率:液冷服务器主要发热元件采用冷板+液体流动散热,不受单机柜功率密度和局部热点限制,支持不间隔上架部署,42U机柜最大可支持19台2U服务器上架;
(2)增加装机量:液冷服务器风扇功耗比风冷服务器低(一台780W风冷服务器采用液冷功耗仅695W),同等IT电力容量下,装机量可提升12%;
(3)减少占地:同等装机量下,液冷机柜数量仅为风冷机柜数量的一半,大幅节约机房占地面积;
(4)降低故障率:液冷服务器风扇频率降低、振动影响减小,降低硬盘故障率;液冷服务器排风温度比风冷服务器低约20℃,热敏部件(如光模块)运行环境得到优化,故障率降低90%,寿命提升3倍;
(5)延长寿命:CPU、GPU、VR、内存等高发热元件采用液冷散热,平均运行温度可比风冷散热低10~20℃,保证高性能的同时还能延长使用寿命;
(6)降低噪音:风机是机房噪音的主要来源,服务器采用液冷,风扇频率大幅降低,且机房空调数量减少,噪音可比风冷数据中心低10~20dB;
(7)节约电费:液冷数据中心PUE可低至1.1,比一般的风冷数据中心低0.15~0.3,节约电费、降低运营成本;
(8)社会责任:采用液冷是响应国家双碳政策、体现企业社会责任的途径之一,互联网头部厂商纷纷通过液冷等绿色技术实现企业节能减排。
16、液冷投资收益如何?
整体投入仅增加10%,每年可节省20%电费,2年内收回成本(GPU液冷1年内收回成本)
芯片温度降低10~15℃,风扇转速从70%降低到20%,降低整机振动,硬盘故障率降低30%,提升服务器生命周期2-3年。
免责声明:资料来源IDC及热设计,我司整理,我们尊重原创,信息真实性,也乐于分享。如有侵权或涉及版权等问题,请第一时间联系我司 15221898851 进行删除处理,谢谢!

