1. 首页 > 财经

算力中心液冷“革命” 黄金时代开启

液冷已成为发展最快的数据中心节能制冷技术。

AI热浪之下,算力需求飙升,高功耗背后,算力中心液冷市场迎来风口。

英伟达创始人黄仁勋表示,液冷技术将成为AI算力的下一个趋势性领域。

“AI服务器散热技术走到了关键分水岭。”曙光数创副总裁姚勇告诉记者:“目前服务器市场正逐渐从风冷向液冷转型,液冷时代拉开序幕。”

市场调查机构Omdia发布的数据显示,2023年数据中心冷却市场规模已飙升至76.7亿美元,远超预期,这一增长势头预计将持续至2028年。

与此同时,根据IDC数据,年内中国液冷服务器市场规模达15.5亿美元,同比增长52.6%,预计2023-2028年,中国液冷服务器市场年复合增长率45.8%,2028年市场规模将达到102亿美元。

目前,全国多地正加快建设液冷智算中心,大湾区、长三角、京津冀均有落地。从人工智能和绿色电力的发展趋势来看,大型算力基础设施尤其是智算中心的建设,将推动液冷生态快速发展,市场空间有望大幅提升。

不过,根据业内观察,目前液冷技术的产业生态 和系统架构尚在演进,距离全面推广和应用还有很长一段路要走。

液冷技术走到黄金节点

具体来看,光模块、AI服务器、AI芯片、交换机和冷却设备是组建AI算力的五大必备硬件。

在冷却模块,与传统风冷技术相比,液冷技术散热介质比热容更大,制冷量大,制冷效率高,因此成为提升数据中心效能的重要条件。

据姚勇介绍,风冷是以空气为冷却介质,成本较低,适合小规模数据中心;液冷是以液体为介质进行热交换,例如利用水、乙二醇水溶液、空气制冷剂等进行散热。液冷散热速度和效率更高,但结构更复杂、成本更高,适合大规模数据中心和智算中心。

据浪潮信息(000977)数据,液体导热能力是空气的25倍,同体积液体带走的热量是同体积空气的近3000倍。而且,液冷设备的占地面积也更小,使算力中心能在有限的空间内部署更多的节点,从而提高计算能力密度。

中国信息通信研究院云计算与大数据研究所发布的《算力中心冷板式液冷发展研究报告(2024 年)》中透露,某算力中心引入了冷板式液冷系统,将其应用于高密度计算节点。在传统空气冷却技术下,每个机柜的功率密度仅为8-10kW,而在采用冷板式液冷技术后,单机柜的功率密度提升至33kW,可支持128颗CPU,单机柜最大支持66kW供电,实现计算能力的飞跃性提升。

液冷技术的优势还在于能耗低。相较风冷系统,液冷系统中没有压缩机、风机等高耗电器件,仅需水泵、传感器等少量耗电器件,因此能降低整个算力中心的能源消耗和PUE值。

PUE即电能利用效率,指数据中心消耗的所有能源与IT负载消耗的能源之比。PUE值越接近于1.则代表算力中心的绿色化程度越高。工业和信息化部、国家发改委、财政部等七部门联合印发的《信息通信行业绿色低碳发展行动计划(2022-2025年)》提出,到2025 年,全国新建大型、超大型数据中心PUE降到1.3 以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上。

财信证券数据显示,采用传统风冷方案的数据中心PUE一般在1.5左右,而液冷方案能够将数据中心整体PUE降低到1.05-1.2左右。“PUE是很关键的因素,如何在发达地区降低PUE,液冷是更好的解决方案。”世纪互联AIDC产品解决方案总经理程汉生向记者表示。

这也就意味着,无论是从提升效率还是降低能耗角度考虑,液冷都是产业的未来趋势。

姚勇补充说,目前数据中心温控仍以风冷为主,随着AI的大规模发展,带动算力需求提升,芯片和服务器功率逐步升级,将超出风冷散热能力范畴,“芯片的工作温度是八九十度,一定空间里高密度部署高功率芯片,最后决定算力水平的有可能不是半导体技术,而是散热技术。”

2023年6月,中国移动(600941)、中国电信(601728)、中国联通三大运营商联合发布的《电信运营商液冷技术白皮书》提出,2025年50%以上数据中心项目应用液冷技术,这也将有效推动液冷行业的高速发展。