
2024年,被不少业内人士称为“液冷元年”。伴随AI训练集群的指数级扩张,服务器功耗迅速逼近千瓦级,机柜功率密度从7kW一路飙升至50kW、甚至150kW。传统风冷技术已触及散热能力的物理极限,而液冷则被推到产业舞台中央,成为智算中心升级的关键词。
但液冷远不是“换一种散热方式”这么简单。它横跨材料兼容性、系统集成、运维与回收的全链路,任何环节的缺口都可能演变为系统性风险。产业正在迎来一次“不得不变”的临界时刻。
9月10日,在北京开放数据中心大会上,嘉实多热管理事业部大中华区业务总监仇圆圆在接受采访时直言:“液冷是一个必选项,而不是可选项。”这个有着125年历史的润滑油品牌,首次面向中国市场发布端到端液冷解决方案。
嘉实多热管理事业部大中华区业务总监仇圆圆
在他看来,液冷技术从可选项变成必选项,背后有两个关键驱动力。一方面,芯片热密度正急剧攀升,传统风冷已无力承载;另一方面,政策红线收紧,新建数据中心PUE普遍要求低于1.25甚至1.2,而风冷方案往往停留在1.5左右,几乎无解。“从现实角度看,若不部署液冷系统,数据中心将很难达到这些指标。”仇圆圆说。
从润滑油到冷却液的“向前”策略
2024年,嘉实多在125周年之际发布全新战略“Onward,Upward,Forward”,将液冷与储能列为重点突破方向。其中,“Forward”(向前)策略明确提出:要把数据中心浸没式冷却和电池热管理列为重点举措,从“边缘探索”推向“核心路径”。
嘉实多进入液冷赛道,并非心血来潮。“我们本身在材料兼容性、液冷科技上面其实有非常多的技术储备。”仇圆圆表示,这些技术禀赋让公司对市场前景保持笃定。
具体而言,嘉实多在液冷技术上具备三大优势:
第一,冷却液视角。“我们的出发点并非硬件,而是冷却液。”冷却液是唯一能贯穿整个数据中心基础设施的介质,从室外机、冷却塔,经由管道流向CDU,再进入服务器内部。在这个循环中,它要面对材料兼容性、腐蚀、寿命等多重挑战,而这正是嘉实多百年来的专业积累所在。
第二,系统化团队。“我们的团队几乎全部来自数据中心或热管理行业,包括我自己。”仇圆圆说。他举例:在华南,一个5兆瓦的数据中心往往需要两到三台冷水机组;而在东北,依靠闭式循环与外界冷风即可实现冷却。因此,对于不同区域的差异化场景,他们不仅关注冷却液本身,更注重整个系统层面的整合。
第三,产业链协同。液冷真正大规模发展不过一两年,整个产业仍在探索。嘉实多投入大量资源,联合上游芯片和服务器厂商开展兼容性测试,覆盖冷板、浸没、喷淋等多种技术路径。这种跨界协同,为液冷的规模化落地打下了基础。
打造“端到端”:从产品到生态
单纯的产品供应显然不够,嘉实多通过“端到端”液冷解决方案,贯穿部署、运维到退役的全生命周期,覆盖四个关键阶段:
嘉实多热管理事业部全球总裁黄建棠表示,“我们通过端到端解决方案,把液冷从单一组件转化为客户运营的核心动力。”

嘉实多热管理事业部全球总裁黄建棠
在产品层面,嘉实多已形成覆盖不同应用的冷却液矩阵:冷板式冷却液PG 25 C与EG 25,以及浸没式冷却液DC 15/20。“我们把选择权交到客户手里,”仇圆圆说,“客户可以根据自己的路线图来选择合适的产品。”
无论是端到端服务还是产品研发,都需要强大的生态支撑。过去一年,嘉实多在中国不断拓展合作版图,与浪潮信息就服务器与液冷液的兼容性等方面签署了战略合作协议;与施耐德电气联合打造了液冷实验室和客户体验中心,既用于向客户展示液冷系统的实际应用,也为双方研究液体冷却系统的长期稳定性提供了实验基础。此外,嘉实多还参与了英特尔在中国的“液冷加速计划”,与英特尔、北京奕信通一起搭建测试环路。
在不确定中前行
趋势已定,但现实并不轻松。液冷产业仍处在“爆发前期”,与风冷相比,液冷领域的专业厂商有限,行业整体处在学习与摸索阶段。成本也是绕不过去的课题:冷板液冷初始投入仍高于风冷,不过依靠更优的PUE效率,长期运营可逐渐回本;浸没式技术则更前沿,但因投入和运维复杂,眼下多停留在标杆项目。
对于改造型项目,不确定性要更为突出。既有机房的制冷设备能否复用,高架地板是否需要改造,这些变量都可能成为额外负担。“很难直接给出标准化报价。”仇圆圆坦言,“根本原因在于每个机房的基础条件不一,需结合实际情况进行设计。在可控的初期投入与长期效益之间找到平衡,是关键。”
从润滑油到液冷,嘉实多的战略转身并非业务延伸,而是对算力基础设施未来的深度押注。虽然技术路线尚未完全明晰,行业标准仍在制定,但趋势已经足够清晰。嘉实多的百年积累与端到端方案,叠加全产业链协同,或许正是它在液冷革命中占据先机的关键。
当然,从战略制定到市场验证,中间还有很长的路要走。但至少在当下,嘉实多已经给出了自己的答案。
好文章,需要你的鼓励
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。
南洋理工大学与腾讯联合研究团队开发出Rolling Forcing技术,实现AI视频实时流式生成的重大突破。该技术通过滚动窗口联合去噪、注意力锚点机制和高效训练算法三项创新,解决了长视频生成中的错误累积问题,可在单GPU上以16fps速度生成多分钟高质量视频,延迟仅0.76秒,质量漂移指标从传统方法的1.66降至0.01,为交互式媒体和内容创作开辟新可能。
华中科技大学研究团队发现,通过让AI模型学习解决几何问题,能够显著提升其空间理解能力。他们构建了包含约30000个几何题目的Euclid30K数据集,使用强化学习方法训练多个AI模型。实验结果显示,几何训练在四个空间智能测试基准上都带来显著提升,其中最佳模型达到49.6%准确率,超越此前最好成绩。这项研究揭示了基础几何知识对培养AI空间智能的重要价值。