液冷服务器破局数据中心高能耗:PUE指标如何从1.5迈向1.1?

原创
见闻网 2026-02-06 13:53 阅读数 2 #科技前沿

当AI大模型训练将单机柜功率推至100kW以上,数据中心的能耗难题正从“行业痛点”升级为“发展瓶颈”。此时,液冷服务器数据中心PUE能效指标成为破解这一困局的核心抓手——它不仅是衡量数据中心能源利用效率的关键标尺,更直接决定了算力集群的运营成本与碳减排能力。液冷技术通过液体介质的高效导热,可将数据中心PUE从风冷时代的1.4-1.5降至1.2以下,甚至逼近1.1的理论极限,为高密度算力的绿色运行提供了可行路径。

PUE指标的“生死线”:数据中心节能的刚性要求

液冷服务器破局数据中心高能耗:PUE指标如何从1.5迈向1.1?

PUE(Power Usage Effectiveness)即电源使用效率,计算公式为“数据中心总能耗/IT设备能耗”,数值越接近1,表明非IT能耗占比越低,能效越高。见闻网2025年数据中心行业调研显示,我国数据中心年耗电量已接近4000亿千瓦时,占全国总发电量的5%以上,而传统风冷数据中心的PUE普遍在1.4-1.5区间,意味着近30%的电力被制冷、配电等系统消耗。

政策层面的刚性要求进一步抬高了PUE指标的“生死线”:工信部明确要求2025年新建大型数据中心PUE≤1.3,东数西算八大枢纽节点更是将PUE目标锁定在1.25以内。数据中心PUE每降低0.1,年耗电量可减少约10亿千瓦时,对应碳减排量超过80万吨。在这样的背景下,风冷技术已无法满足高算力密度下的PUE达标需求,液冷服务器成为行业转型的必然选择。

液冷服务器数据中心PUE能效指标:从理论优势到落地验证

液冷技术之所以能大幅优化PUE,核心在于液体的热物理特性远优于空气:液体的导热能力是空气的25倍,体积比热容是空气的1000-3500倍,可直接带走芯片产生的热量,避免了风冷系统中空气循环带来的能耗损失。

从落地数据来看,申菱环境在中国移动南方基地的液冷项目中,采用SKY-ACMECOL液冷温控系统,实现全年平均PUE值1.15,较传统风冷数据中心节能超过20%;曙光数创的全浸没相变液冷技术,更是将数据中心PUE压低至1.09,制冷能耗占比不足10%。见闻网还了解到,英特尔等硬件厂商已开始为液冷服务器提供维保支持,解决了此前行业的核心顾虑,加速了液冷方案的规模化落地。

技术路径拆解:不同液冷方案对PUE指标的影响差异

不同的液冷技术路径,对PUE指标的优化效果存在明显差异,企业需根据算力密度与成本需求选择适配方案:

其一,冷板式液冷:通过冷板与芯片接触换热,PUE优化空间在1.2-1.3之间,适合15-25kW的中密度机柜,部署成本相对较低,是当前行业应用最广泛的方案,比如三大运营商2025年规模应用的液冷项目中,60%采用冷板式技术。

其二,浸没式液冷:将服务器直接浸没在绝缘冷却液中,换热效率更高,PUE可低至1.09-1.15,适合50kW以上的高密度AI机柜。曙光数创在西部(重庆)科学城的项目中,采用全浸没液冷+余热回收技术,不仅将PUE控制在1.09,还能将机房余热转化为采暖热源,覆盖13万平方米的采暖面积,进一步挖掘能源价值。

其三,液/风混合冷却:针对70-100kW的机柜,采用液冷冷却GPU等高功耗组件、风冷辅助散热,PUE可维持在1.15左右,兼顾了能效与部署成本,是当前AI算力集群的过渡性选择。

标杆案例透视:头部企业如何用液冷刷新PUE下限

头部企业的实践正在为液冷服务器数据中心PUE能效指标的优化提供标杆:联想集团作为国内最早布局液冷的企业之一,构建了全栈式液冷能力,其AI液冷服务器可将PUE降至1.12,同时支持算力密度提升5-8倍,已应用于多家智算中心;嘉实多推出的端到端液冷解决方案,针对2000W级GPU芯片设计,通过定制化冷却液与系统优化,确保高密度机柜的PUE稳定在1.1以下,解决了液冷部署中的泄漏风险与兼容问题。

在政策驱动下,地方政府也在加速推进液冷落地:《上海市工业节能降碳“百一”行动计划》明确鼓励数据中心采用液冷升级改造,上海联通的某数据中心通过液冷改造后,PUE从1.48降至1.22,年节电超过1200万千瓦时。

未来趋势:液冷+PUE双驱动下的算力生态重构

IDC预测,2024-2029年中国液冷服务器市场年复合增长率将达到46.8%,2029年市场规模将突破162亿美元。随着液冷技术的普及,液冷服务器数据中心PUE能效指标将从“达标要求”升级为“核心竞争力”:一方面,PUE指标将成为数据中心招投标的核心门槛,低PUE的数据中心将获得更多算力订单;另一方面,液冷与PUE的结合将推动算力集群向“绿色+高密度”方向发展,为AI、云计算等产业提供可持续的算力支撑。

不过,液冷技术的规模化落地仍面临成本与生态的挑战:当前液冷服务器的部署成本较风冷高20%-30%,硬件生态的标准化仍需完善。但随着技术迭代与规模效应,预计2027年液冷服务器的成本将与风冷持平,届时液冷将成为数据中心的标配。

总结而言,液冷服务器数据中心PUE能效指标不仅是数据中心绿色转型的核心标尺,更是算力产业可持续发展的关键依托。在双碳目标与算力爆发的双重驱动下,液冷技术正在从“备选方案”升级为“刚需配置”。未来,我们不仅要关注PUE指标的持续降低,更要思考如何构建“液冷+余热回收+绿电利用”的全链条节能体系,让算力的增长与碳减排实现真正的协同——这或许是数据中心行业下一个十年的核心命题。

版权声明

本文仅代表作者观点,不代表见闻网立场。
本文系作者授权见闻网发表,未经许可,不得转载。

热门