“液冷虽然已成为主流选择,但是并不能完全取代风冷,风液融合仍是适应技术演进的重要趋势。”——在近日举行的施耐德电气卡车巡展北京站上,施耐德电气关键电源业务,IMDC及边缘计算产品经理汤熠如是说。

汤熠介绍,目前数据中心风液比的典型配置是3:7,预计未来液冷占比会进一步提高。与此同时,整个机柜的功率密度上升会更快,因此风冷的需求也会持续增长。

为应对这一趋势,施耐德电气推出的冷板式液冷CDU系统,构建起风液兼容的全栈制冷解决方案,将有效助力客户应对智算时代数据中心的散热挑战。

AI热潮下,数据中心由风冷向液冷平稳过渡

在持续汹涌的AI热潮下,算力产业发展迸发出无限可能,高密度人工智能集群不仅是解锁生产力的关键,也对制冷技术、可持续性等提出了全新要求。

对于机柜功率密度较低(20 kW及以下)的小型AI集群,传统风冷仍是受欢迎的制冷方案。但对于更高机柜功率密度的人工智能集群,液冷因其高效的散热性能,已经从数据中心建设和改造的“可选项”逐步发展为“必选项”。“未来超过50 kW的机柜都会配备液冷系统,这是一个全新的赛道。”汤熠说。

随着液冷应用逐渐普及,市场呈现快速增长趋势。据IDC预计,2023—2028年,中国液冷服务器市场年均复合增速将达到45.8%,2028年市场规模将达到102亿美元。

然而,数据中心全液冷解决方案不可能一蹴而就,在这一过程中,数据中心行业需要综合考量性能、能耗、成本等多重因素,并结合自身实际需求,灵活选择各类制冷方式及架构,从而实现由风冷向液冷的平稳过渡。

风液融合破局数据中心散热和能耗挑战

在上述背景下,“全栈视角下的风液兼容”正成为破局数据中心散热和能耗挑战的最优解。

基于持续创新的冷却技术与在数据中心行业的丰富制冷实践,施耐德电气冷板式液冷CDU系统覆盖“液-液CDU”和“风-液CDU” 功能场景,为高密度人工智能集群获得更佳的制冷效果提供有效支持。

“液-液CDU”顾名思义,是将液体从冷源侧直接通过管路连接到二次侧,再进入到机柜当中,因此需要搭建的是一次侧和二次侧的管路系统,实现整个冷热液体的循环。而“风-液CDU”则是将一体式的风冷空调跟行级CDU进行整合,通过空调将热的液体转换成热空气无需考虑管路问题,从而降低初期部署成本并实现快速上线。

“液-液CDU”需要二次侧的管网,由此而来的投资成本是巨大的。在约1 MW的液冷项目中,CDU的投入成本只占到10%~20%,其余约80%左右的投入则在工程、管网以及每一个快速接头和机柜级分水单元。在金额庞大的液冷基础设施投资背景下,诞生出了“风液同源”的设计理念,在一些边缘场景(如四联柜的部署)中,用户可以实现外部冷源与内部冷冻水空调、液-液CDU共用,同时基于机架式风-液CDU和风冷空调,通过‘服务器 - 冷板 - 直连软管’的制冷液输送设计,无需再额外部署液冷管路,有效提升了系统的部署效率,也符合边缘场景对高可用性的需求。

施耐德电气风液兼容的全栈制冷解决方案,正是立足于应用实践与创新研发技术的紧密结合,为用户提供一站式制冷解决方案的部署应用。在研发侧,上海研发中心正是施耐德电气全球唯一的液冷实验室;在供应链侧,施耐德电气珠海工厂则能提供高性价比的全套液冷解决方案。此外,施耐德电气在去年收购了Motivair公司的多数股份,进一步强化其液冷技术和产品布局,并巩固公司在冷板式液冷和高容量热能解决方案方面的专业地位。

完备产品矩阵,赋能智算中心

施耐德电气不仅提供冷板式液冷CDU,更支持电源、配电、制冷、机柜、环境监控管理等在内的物理基础设施单元的模块化、智能化、按需定制、一体交付,为客户提供开箱即用的IT服务。

这就不得不提到施耐德电气IMDC智能模块化数据中心,其全部物理组件可在到达客户现场前实现工厂预制及全面检测,通过边缘控制层级的智能管理及数字化运维软件APP,帮助客户实现快速部署,实现端到端一站式交付和远程数字化管理。

汤熠介绍,IMDC智能模块化数据中心支持所有AI机柜的模块化部署,在长度方面,可以实现20个机柜一组,最大延展到40个IT机组。同时,用户可以选择微模块的部署方式,基于自身需要设计AIDC,实现弹性扩容。

IMDC机柜门的屏幕上集成了2台算力服务器,用于AIDC的监控。汤熠表示,IMDC智能模块化数据中心不仅为AI服务器提供基础设施,也自带AI服务器,支持每8秒钟判定一次内部环境,例如空调温度是否合适等,并利用人工智能进行干涉,使AIDC空调能耗每年下降30%,大幅提升运维成本。

不止于制冷侧,供配电系统亦是AI演进过程中,行业首当其冲的一大挑战。施耐德电气关键电源业务,系统业务产品经理连博指出,AI驱动下的算力变革正在深刻重塑电力需求与使用模式。AI工作负载所具有的高密度、高能耗、波动大等显著特性,供配电系统更面临多重挑战。

未来,机柜功率密度从传统的5 kW、10 kW提升到30 kW、100 kW甚至更高,最直观的差异体现在数据中心灰区和白区的面积配比,常见数据中心灰区跟白区的比例约为1:1,但在未来可能会演变为7:3。

施耐德电气Galaxy VXL UPS能大幅提升空间利用率,其单机功率最高可达1.25 MW,其紧凑的设计仅占地面积1.2m²。反观传统1 MW以上的UPS,占地面积基本都在4㎡以上,Galaxy VXL UPS无疑将为IT负载的部署释放更多空间。

 

作为高安全可靠的关键一环,施耐德电气Galaxy VXL UPS在安全可靠性上同样表现出色,其具备TÜV认证的在线插拔(Live Swap)功能,可为操作人员安全和设备安全提供强有力的保障,支持用户在系统运行时实时更换模块。这一创新功能不仅显著减少维护时间,也可确保在更换过程中,即使出现异常,拉弧能量也能被有效控制在1.2cal/cm²以下,从而极大地降低安全风险。

从冷板式液冷CDU,到智能模块化数据中心IMDC,再到Galaxy VXL UPS,施耐德电气以全链路的制冷方案、创新的配电产品和一体化的服务能力,为适配未来的智算中心提供坚实支撑。

在智算产业高速发展的背景下,施耐德电气将持续依托技术研发、供应链整合与行业实践经验,助力更多客户应对散热、能耗、供配电等核心挑战,为智算中心的高效、可持续运行注入强劲动力。

资料来源:施耐德电气、通信人家园https://www.c114.com.cn/news/16/a1297543.html

艾邦建有服务器液冷散热交流群聚焦服务器液冷技术前沿,涵盖冷板/浸没/喷淋式方案设计、材料升级(耐腐蚀管路、密封件创新)、CDU运维与能效优化、政策标准解读(PUE、OCP规范)等。欢迎大家加入我们,共绘服务器液冷散热未来!

 

长按识别二维码,申请入群

 

 

活动推荐:
AI算力服务器液冷技术产业发展论坛(11月6日|深圳)
一、拟邀议题:

序号

议题

演讲企业

1

浸没式冷却液市场现状与应用(初拟)

云酷智能

2

AI算力服务器液冷板可靠性设计与验证体系构建

硅翔技术

3

钎焊技术在液冷系统中的作用(初拟)

合肥恒力

4

智算中心液冷及热回收技术研究进展

华中科技大学

5

新一代液冷技术介绍及其发展趋势

新华三

6

智算液冷微通道散热器正向设

上海及瑞工业

7

AI服务器液冷板超声波扫描显微镜解决方案

苏州广林达

8

数据中心高密负荷风/液解决方案的探索和实践(初拟)

三河同飞

9
智算趋势下冷却液挑战与解决方案
华清高科
10
液冷技术在数据中心、算力基础设施等领域的应用与发展趋势(初拟)
兰洋科技

11

液冷技术如何赋能高密算力部署

数据中心终端应用企业

12

液冷系统管路设计与制造

管道供应商

13

快速插拔接头如何赋能液冷技术的规模化应用

UQD供应商

14

液冷系统智能运维与可靠性管理

运维系统厂商

15
液冷服务器全生命周期检测管理及解决方案
检测/传感器厂家

16

3D打印助力智算液冷板发展

金属3D打印设备企业

17
智算趋势下冷却液挑战与解决方案
冷却液企业
更多议题征集中,创新演讲及赞助请联系:Elaine:13418617872(同微信)
现场展位图:

 

感谢以下企业对此次会议的赞助及支持:

  • 杭州云酷智能科技有限公司

  • 东莞市硅翔绝缘材料有限公司

  • 合肥恒力装备有限公司

  • 华中科技大学

  • 新华三科技有限公司

  • 上海及瑞工业设计有限公司

  • 苏州广林达电子科技有限公司

  • 三河同飞制冷股份有限公司 

  • 昆山艾科迅真空装备有限公司

  • 合肥华清高科表面技术股份有限公司

  • 兰洋(宁波)科技有限公司

 

 

二、报名方式:

方式1:请加微信并发名片报名

电话:Elaine13418617872(同微信)

邮箱:ab052@aibang.com

扫码添加微信,咨询会议详情

注意:每位参会者均需提供信息

方式2:长按二维码扫码在线登记报名

或者复制网址到浏览器后,微信注册报名:

https://www.aibang360.com/m/100274?ref=172672

点击阅读原文,即可报名!

 



微信扫描下方的二维码阅读本文

液冷技术通过冷却液直接/间接接触热源,核心结构包括:
  • 热交换核心  :冷板(CPU/GPU专用)、CDU(冷量分配单元);
  • 循环网络  :Manifold分液器、EPDM/PTFE管路、快接头;
  • 动力与控制  :变频循环泵(如飞龙股份电子泵)、智能温控系统。
主流方案中,冷板式兼容现网改造(占存量市场80%),浸没式为超算首选(PUE逼近1.0)。 2025年AI服务器的产值超过4000亿美元,年增45%。随着英伟达从Hopper系列向Blackwell系列转换,整个AI服务器产值提升。预计今年AI服务器的市场占有率会从去年的66%突破到今年的70%以上;另外,液冷散热方案的渗透率也有望从去年的14%提升到今年的30%。 涉及的材料有:铜、铝、复合金属材料、金属焊接材料、不锈钢、氟塑料、橡胶材料、密封材料、特种工程塑料、导热散热材料,热界面材料等 按照部件来分有:冷却塔、管道、CDU 液冷换热单元CDU 液冷板、接头、歧管、主泵和辅泵、流量控制系统、过滤系统等 系统集成方面有:空调、机柜、传感器、电源、泄漏检测、控制单元等 按照产业链来区分有:互联网企业,云服务器企业,代工企业、各个零部件企业、材料企业等; 欢迎大家加入我们,共绘服务器液冷散热未来!
长按识别二维码,申请入群
本群聚焦服务器液冷技术前沿,涵盖: ✅ 冷板/浸没/喷淋式方案设计 ✅ 材料升级(耐腐蚀管路、密封件创新) ✅ CDU运维与能效优化 ✅ 政策标准解读(PUE、OCP规范)

作者 808, ab