2026年4月22日,谷歌在Cloud Next大会上正式发布第八代TPU芯片(TPU V8),分为训练专用型号8T和推理专用型号8i。该芯片最大亮点是单芯片功耗达1300W,较前代提升30%,强制采用全液冷散热方案,标志着AI算力进入液冷时代。

这是谷歌首次将训练芯片和推理芯片分开。

谷歌在博客文章中解释说,两款芯片都能运行各种工作负载,但专业化可以显著提高效率并获得收益。

  • TPU 8t擅长处理大规模、计算密集型的训练工作负载,以提供更大的计算吞吐量和更强的可扩展带宽,旨在将前沿模型开发周期从数月缩短至数周。

  • TPU 8i则拥有更高的内存带宽,专为对延迟最为敏感的推理工作负载而设计,旨在处理众多专业智能体复杂、协作、迭代的工作。

谷歌于2026年4月22日在Cloud Next大会上宣布,新一代TPU V8芯片将全面采用液冷散热方案,TPU V8单芯片功耗达1300W,较前代V7的980W提升30%。TPU V8的单芯片功耗已超过英伟达GB200单芯片功耗,风冷已完全无法满足,液冷是本代机型的唯一选择。依旧是延续V7采用小冷板方案,Manifold采用铜方案,这个和英伟达的架构差异较大,液冷覆盖率预估80%左右。
1、TPU 8t专为AI模型训练优化,号称能够"将前沿模型开发周期从数月压缩至数周"。

在性能层面,TPU 8t的每瓦性能较上一代提升124%,TPU 8i则提升117%。与去年11月发布的第七代Ironwood TPU相比,TPU 8t在同等价格下性能提升2.8倍,TPU 8i的性能则提升80%。

训练芯片TPU 8t最多可将9600块芯片组合成一套系统,谷歌表示,在部署如此大规模系统时,电力已成为数据中心的核心制约因素,更高的能效比因此至关重要。

2、TPU 8i主要面向推理场景,适用于运行AI模型及处理AI智能体任务。

如果说 TPU 8t 是为了 “把模型更快地训练出来”,那 TPU 8i 就是为了 “让百万级智能体的推理服务跑得又快又稳”。TPU 8i 专为后训练、高并发推理场景优化,针对自回归解码、链式思维处理、MoE 模型的核心瓶颈,完成了从片上缓存到互联拓扑的全链路重构。
3、谷歌采用第四代液冷技术和谷歌第四代机柜式CDU
本次google的TPU v8架构将延用第四代液冷技术,CDU并未采用最新发布的第五代2MWCDU,而是采用上一代的1MWCDU。

信息来源:https://zhidx.com/p/551995.html、https://wallstreetcn.com/articles/3770631

艾邦建有服务器液冷散热交流群聚焦服务器液冷技术前沿,涵盖冷板/浸没/喷淋式方案设计、材料升级(耐腐蚀管路、密封件创新)、CDU运维与能效优化、政策标准解读(PUE、OCP规范)等。欢迎大家加入我们,共绘服务器液冷散热未来!

图片
长按识别二维码,申请入群

 

推荐活动:2026年第三届 AI算力服务器液冷技术产业发展论坛



微信扫描下方的二维码阅读本文

液冷技术通过冷却液直接/间接接触热源,核心结构包括:
  • 热交换核心  :冷板(CPU/GPU专用)、CDU(冷量分配单元);
  • 循环网络  :Manifold分液器、EPDM/PTFE管路、快接头;
  • 动力与控制  :变频循环泵(如飞龙股份电子泵)、智能温控系统。
主流方案中,冷板式兼容现网改造(占存量市场80%),浸没式为超算首选(PUE逼近1.0)。 2025年AI服务器的产值超过4000亿美元,年增45%。随着英伟达从Hopper系列向Blackwell系列转换,整个AI服务器产值提升。预计今年AI服务器的市场占有率会从去年的66%突破到今年的70%以上;另外,液冷散热方案的渗透率也有望从去年的14%提升到今年的30%。 涉及的材料有:铜、铝、复合金属材料、金属焊接材料、不锈钢、氟塑料、橡胶材料、密封材料、特种工程塑料、导热散热材料,热界面材料等 按照部件来分有:冷却塔、管道、CDU 液冷换热单元CDU 液冷板、接头、歧管、主泵和辅泵、流量控制系统、过滤系统等 系统集成方面有:空调、机柜、传感器、电源、泄漏检测、控制单元等 按照产业链来区分有:互联网企业,云服务器企业,代工企业、各个零部件企业、材料企业等; 欢迎大家加入我们,共绘服务器液冷散热未来!
长按识别二维码,申请入群
本群聚焦服务器液冷技术前沿,涵盖: ✅ 冷板/浸没/喷淋式方案设计 ✅ 材料升级(耐腐蚀管路、密封件创新) ✅ CDU运维与能效优化 ✅ 政策标准解读(PUE、OCP规范)

作者 808, ab