台湾经济日报9月15日报道,英伟达AI新平台Rubin与下一代Feynman平台的功耗预计高达2000W以上,现有的散热方案无法应对,传出英伟达要求供应商开发全新的“微通道水冷板MLCP”技术,该技术把多种散热元件深度整合,单价是现有散热方案的3-5倍,液冷板、均热板散热组件跃居变成战略物资,蓄势进入英伟达「冷革命3.0」时代

图片:AI生成

什么是MLCP液冷?

MLCP英文全称Micro-Channel Liquid Cooling Plate,中文译为微通道液冷板,是一种用于服务器、AI芯片等高性能计算场景的先进散热组件,其核心特点是在芯片或封装上蚀刻出微米级别(通常指10-1000微米)的狭窄水道,使得冷却液能无限接近热源,通过直接且高效的热交换带走热量。
MLCP并非简单的水道缩小,而是一种系统级的集成和架构革新,其主要特点和优势包括:
  • 高度集成化:将均热板(Vapor Chamber)、水冷板、IHS封装顶盖乃至芯片裸晶进行高度整合,极大减少了传统散热模组中的接触界面和热阻;
  • 微米级水道:传统液冷板的微水道尺寸在0.1mm (100μm) 到数毫米水平,而MLCP的通道尺寸可降低至微米级别,显著增大了换热面积,提升了散热效率。
  • 超高热流密度处理能力:MLCP能够处理超过2000W的热功耗,以及超过1kW/cm²的极端热流密度;
  • 显著提升散热效率:通过优化设计和微通道结构,能大幅降低热阻(可低至0.02°C·cm²/W)使芯片能在更低温、更稳定的状态下运行,从而提升计算性能和可靠性。
 MLCP与传统散热技术的对比

特性

传统风冷

传统液冷(液冷板)

MLCP(微通道液冷板)

最大支持TDP

< 500W

500W - 1000W

> 2000W 

典型热阻

> 0.20 °C·cm²/W

0.100.20 °C·cm²/W

< 0.05 °C·cm²/W 

相对成本

1x (基准)

2x4x

6x10x 

主要限制

噪音大,机柜功率密度低

接触热阻较高

制造复杂,良率挑战

 

冷革命3.0时代MLCP液冷以及更高效液冷技术

报道称,英伟达下一代“Rubin”GPU将采用双芯片封装,其热功耗将自原先预期的1.8kW提高至2.3kW,已超过现行冷板负荷。虽然双芯片新结构带来更大散热面积,但对冷却效率要求显著提升,传统水冷方案已难以满足。
因此英伟达最快将在2026年下半年于Rubin GPU导入MLCP。其中,Rubin GPU双芯片版本或依靠MLCP维持散热效率;至于单芯片Rubin GPU则可能继续采用冷板设计,其他如Vera CPU与交换器IC也仍以冷板为主。
不过,MLCP的成本远高于现有方案,单价预计为传统水冷板的3至5倍,业内人士预计若大规模应用,其制造成本将比现行Blackwell盖板高出5至7倍。目前已有厂商向Nvidia完成送样,但商业化仍面临流体力学及液体密封等技术挑战。
供应链人士指出,MLCP并非AI服务器散热的唯一选项,液体喷射等多种新方案也在同步验证中。市场普遍认为,MLCP若能成熟落地,将成为散热技术重组的重要“分水岭”。
英伟达从2023年开启首波「冷革命」,2024年开始酝酿导入液冷板,进入「冷革命2.0」时代,如今行业朝着「冷革命3.0」时代迈进,MLCP液冷及更高效的液冷技术显得尤为重要。

MLCP成散热新战场

项目

内容

新架构推进

英伟达从GB200切换到GB300,并提前布局Vera Rubin世代,散热全面走向液冷

MLCP需求

Rubin GPU功耗上修至2.3kW,冷板已难负荷,最快2026年下半年导入MLCP(微通道盖板)

产业进度

台湾散热三雄已有业者完成MLCP样品送样,但仍面临良率、渗漏与整合挑战,量产时间需3~4

市场影响

散热大厂具CoWoS盖板独家地位,若全面转向MLCP,成本将比Blackwell方案高5~7倍,带动价值链重组

短期策略

MLCP落地前,冷板仍是主流,GB300出货持续推升营运,各厂同步卡位微通道机会

资料来源:采访整理制表:杨络悬

英伟达近期还发布的Rubin CPX GPU,作为一款专为超长上下文推理设计的新型处理器,整机功耗预计提升至350kW,热设计功耗(TDP)约800W,搭配内存后单模块功耗可达880W。这进一步推动了液冷系统在高性能计算中的应用。
截至2024年底,全球数据中心装机容量已达54GW,预计到2026年将增至74GW,年复合增长率约13.7%。其中,估计液冷服务器的渗透率从当前的10%提升至2030年的35%。
业界消息透露,目前包括双鸿奇鋐健策散热三雄公司在积极开发微通道液冷板MLCP技术,其中双鸿已率先送样客户测试,奇鋐、健策也已有设计及生产能力,技术实力不容小觑,三家企业均在英伟达「冷革命3.0」时代处于领跑的地位,准备抢占先机。

资料来源:台湾经济日报、财联社、以及网络资料等。


艾邦建有服务器液冷散热交流群,聚焦服务器液冷技术前沿,涵盖冷板/浸没/喷淋式方案设计、材料升级(耐腐蚀管路、密封件创新)、CDU运维与能效优化、政策标准解读(PUE、OCP规范)等。欢迎大家加入我们,共绘服务器液冷散热未来!
 
活动推荐:
AI算力服务器液冷技术产业发展论坛(11月6日|深圳)
一、拟邀议题:

序号

演讲议题

拟邀企业

1

AI算力服务器散热技术发展新趋势

液冷服务器/解决方案企业

2

AI芯片级液冷散热技术

液冷服务器/解决方案企业

3

新一代液冷技术介绍及其发展趋势

液冷服务器/解决方案企业

4

冷板式液冷CDU及多元配套方案

液冷服务器/解决方案企业

5

浸没式液冷技术的创新与挑战

液冷服务器/解决方案企业

6

开放多算力兼容液冷整机柜服务器架构演进思考

液冷服务器/解决方案企业

7

准入与生态协同:共建液冷产业生态

液冷服务器/解决方案企业

8

液冷技术发展如何赋能高密算力部署

数据中心终端应用企业

9

数据中心液冷解决方案分享与节能设计

数据中心终端应用企业

10

AI算力服务器/数据中心液冷系统的设计与开发

数据中心终端应用企业

11

液冷系统管路设计与制造

管道供应企业

12

快速插拔接头如何赋能液冷技术的规模化应用

UQD供应商

13

新型液冷技术在储能行业中的创新发展

储能行业

14

液冷系统智能运维与可靠性管理

运维系统厂商

15

新一代储能电池液冷板的设计与开发

新能源车企、电池厂商

更多议题征集中,创新演讲及赞助请联系:Elaine:13418617872(同微信)

二、报名方式:

方式1:请加微信并发名片报名

电话:Elaine13418617872(同微信)

邮箱:ab052@aibang.com

扫码添加微信,咨询会议详情

注意:每位参会者均需提供信息

方式2:长按二维码扫码在线登记报名

或者复制网址到浏览器后,微信注册报名:

https://www.aibang360.com/m/100274?ref=172672

点击阅读原文,即可报名!

 



微信扫描下方的二维码阅读本文

液冷技术通过冷却液直接/间接接触热源,核心结构包括:
  • 热交换核心  :冷板(CPU/GPU专用)、CDU(冷量分配单元);
  • 循环网络  :Manifold分液器、EPDM/PTFE管路、快接头;
  • 动力与控制  :变频循环泵(如飞龙股份电子泵)、智能温控系统。
主流方案中,冷板式兼容现网改造(占存量市场80%),浸没式为超算首选(PUE逼近1.0)。 2025年AI服务器的产值超过4000亿美元,年增45%。随着英伟达从Hopper系列向Blackwell系列转换,整个AI服务器产值提升。预计今年AI服务器的市场占有率会从去年的66%突破到今年的70%以上;另外,液冷散热方案的渗透率也有望从去年的14%提升到今年的30%。 涉及的材料有:铜、铝、复合金属材料、金属焊接材料、不锈钢、氟塑料、橡胶材料、密封材料、特种工程塑料、导热散热材料,热界面材料等 按照部件来分有:冷却塔、管道、CDU 液冷换热单元CDU 液冷板、接头、歧管、主泵和辅泵、流量控制系统、过滤系统等 系统集成方面有:空调、机柜、传感器、电源、泄漏检测、控制单元等 按照产业链来区分有:互联网企业,云服务器企业,代工企业、各个零部件企业、材料企业等; 欢迎大家加入我们,共绘服务器液冷散热未来!
长按识别二维码,申请入群
本群聚焦服务器液冷技术前沿,涵盖: ✅ 冷板/浸没/喷淋式方案设计 ✅ 材料升级(耐腐蚀管路、密封件创新) ✅ CDU运维与能效优化 ✅ 政策标准解读(PUE、OCP规范)

作者 808, ab