
近日,技嘉科技旗下子公司Giga Computing正式发布新一代人工智能与高性能计算服务器GIGABYTE XN24-VC0-LA61。该系统基于NVIDIA GB200 NVL4(Grace Blackwell)平台打造,面向AI训练、推理及科学计算场景,旨在以更灵活的方式向企业和科研机构提供NVIDIA Blackwell级别的加速计算能力。

XN24的核心是一套基于NVIDIA MGX模块化架构的服务器设计。该系统采用2U双处理器形态,集成直冷式液冷技术,将NVIDIA Grace CPU与Blackwell GPU组合于同一节点中,在提升计算密度的同时兼顾能效表现,使用户无需一次性部署完整机架,也能获得高端AI算力。


此外,这款服务器最多可选 12 个 PCIe Gen 5 NVMe 硬盘位,可选 BlueField 等数据处理单元,拥有 80 Plus 钛金认证冗余电源。
-
极致计算密度:该系统采用 NVIDIA GB200 NVL4 芯片,集成了两颗基于 Arm 架构的 NVIDIA Grace CPU 和四颗 NVIDIA Blackwell GPU。每颗 Superchip 芯片配备 480 GB LPDDR5X ECC CPU 内存,而 GPU 则提供高达 186 GB 的 HBM3E 显存,显著加速科学模拟、大型语言模型 (LLM) 训练和高吞吐量推理任务。 -
高速网络集成:该系统支持 NVIDIA Quantum-X800 InfiniBand 或 Spectrum-X 以太网平台,每个端口支持 800 Gb/s InfiniBand 或 400 Gb/s 以太网,并采用 NVIDIA ConnectX-8 SuperNIC 解决方案,以确保跨多节点集群的低延迟、高带宽通信。 -
灵活的存储和扩展:该系统提供多达 12 个 PCIe Gen 5 NVMe 硬盘位,并支持可选的 DPU(数据处理单元),例如 NVIDIA BlueField,以实现计算和安全任务的硬件加速卸载。此外,该系统还配备了 80 Plus 钛金级冗余电源,以确保数据中心高效稳定的运行。
资料来源:https://finance.sina.cn/stock/jdts/2026-01-26/detail-inhirukr8142005.d.html?vt=4&cid=76993&node_id=76993
艾邦建有服务器液冷散热交流群,聚焦服务器液冷技术前沿,涵盖冷板/浸没/喷淋式方案设计、材料升级(耐腐蚀管路、密封件创新)、CDU运维与能效优化、政策标准解读(PUE、OCP规范)等。欢迎大家加入我们,共绘服务器液冷散热未来!


报名方式:
方式1:请加微信并发名片报名
电话:Elaine:13418617872(同微信)
邮箱:ab052@aibang.com

扫码添加微信,咨询会议详情
注意:每位参会者均需提供信息
方式2:长按二维码扫码在线登记报名

或者复制网址到浏览器后,微信注册报名:
https://www.aibang360.com/m/100283?ref=172672
微信扫描下方的二维码阅读本文
- 热交换核心 :冷板(CPU/GPU专用)、CDU(冷量分配单元);
- 循环网络 :Manifold分液器、EPDM/PTFE管路、快接头;
- 动力与控制 :变频循环泵(如飞龙股份电子泵)、智能温控系统。


