邮箱:support@zcecs.com
地址:北京市西城区南滨河路27号贵都国际中心A座1111室
在高性能计算和人工智能训练需求驱动下,数据中心正面临着散热挑战。液冷技术之所以能胜任,关键在于液态冷却介质拥有的远超空气的比热容和导热系数。
而根据冷却介质在工作过程中是否发生物态变化,液冷技术被划分为单相液冷、两相液冷和相变液冷等不同技术路径,其背后是截然不同的热物理原理与应用逻辑。
1、单相液冷:恒定的液态循环
单相液冷是概念上蕞为直观、目前应用较为广泛的一种形式。其核心特征是:冷却介质在整个循环过程中始终保持单一的液态,不发生相态变化。
其工作原理类似于汽车发动机的冷却系统:液态冷却液(通常是去离子水、专用电介质液体或乙二醇水溶液)被泵送至发热的电子元件(通过冷板或直接接触),吸收热量后温度升高,但并未沸腾汽化。升温后的液体被输送至外部换热设备(如冷却塔、干冷器),将热量释放到环境中,降温后再次循环使用。
单相液冷主要依靠液体的显热(即温度变化所吸收或释放的热量)进行散热。其系统相对简单,控制逻辑直观。冷板式液冷是单相液冷的典型代表,它通过金属冷板间接接触芯片,结构可靠,兼容性较好。
但单相液冷的散热能力受限于液体的比热容和允许的温升范围。为了带走大量热量,要么需要非常大的流量,要么允许冷却液有较大的进出口温差,这两者都可能带来系统能耗或设计上的挑战。
2、两相传热与两相液冷:利用沸腾潜热
当液体在吸收热量的过程中发生沸腾,从液态转变为气态,这一过程被称为两相传热。基于此原理的冷却技术可称为两相液冷。
其物理优势在于利用了液体的相变潜热。物质在相变时(如从水变为水蒸气),会在温度几乎不变的情况下吸收或释放巨大的热量。水的汽化潜热约为其升高100℃所需显热的5倍以上。这意味着,两相系统可以用更小的介质流量和更小的温升,带走同样多的热量,理论上散热效率更高。
在两相液冷系统中,冷却液流经发热表面时被加热至沸腾,产生气泡或蒸气。这些气液混合物被引导至冷凝器,蒸气重新凝结为液体,释放出潜热,完成一个循环。
在实际应用中,实现稳定、可控的沸腾传热对工质特性、系统压力控制、流道设计的要求比单相系统复杂得多。微通道沸腾、喷雾冷却等技术都属于两相传热的范畴,它们在实验室或特定领域展现了散热潜力,但在大规模数据中心环境中的工程化应用仍面临可靠性和成本控制的挑战。
3、相变液冷:特指浸没式相变冷却
在数据中心领域,相变液冷通常特指一种具体的技术实现形式:浸没式相变冷却。这是两相传热原理的一种规模化工程应用。
其工作方式是将整个服务器或其主要发热部件直接浸没在装有低沸点氟化液等电介质液体的密封箱体中。服务器运行时,芯片等高温部件使与之接触的液体迅速沸腾,产生蒸气。蒸气上升至箱体顶部的冷凝管(管内流动着来自外部的冷却水),遇冷重新凝结为液体,滴落回箱体底部,形成自然的相变循环。
这种技术的特点是:
散热密度高:直接接触和相变潜热使得它能应对JI高热流密度。
均温性好:沸腾过程的温度基本维持在液体的沸点附近,使电子元件处于一个非常均匀的温度环境中。
简化结构:服务器无需风扇和散热鳍片,可以设计得更紧凑。
然而,相变浸没式冷却也带来系统复杂性:需要密封箱体、控制内部压力以调节沸点、处理不凝性气体、以及选择环境友好且性能稳定的工质,其初投资和运维模式与传统基础设施差异较大。
4、技术比对与场景考量
这三种技术路径并非简单的升级替代关系,而是基于不同热工原理,适用于不同场景的解决方案。
从系统复杂度看,单相(特别是冷板式)系统与现有数据中心基础设施结合度较高,易于理解和接受。两相系统与相变浸没式系统则引入了相变控制,复杂程度增加。
从散热能力看,利用潜热的两相和相变技术,在应对单位面积发热量巨大的芯片时,理论上限更高。单相液冷则通过优化流道设计和大流量,也能满足当前多数高功率芯片的需求。
从适用场景看,单相冷板式液冷更适合对现有风冷服务器进行改造或用于部分液冷的混合架构。相变浸没式冷却则更适用于从芯片级开始全新设计的、追求JI致功率密度和能效的智算中心或超算系统。两相系统则在一些对重量和体积敏感的特殊领域(如航空航天电子设备冷却)有应用。
5、未来展望:混合与准确化应用
未来,数据中心的冷却方案很可能走向混合与准确化。在一个数据中心内,可能根据服务器负载的不同,混合使用风冷、单相液冷和相变液冷。
例如,对AI训练集群采用相变浸没式冷却,对通用计算服务器采用单相冷板式液冷,对存储等低功耗设备仍采用改良的风冷。关键在于通过数据中心基础设施管理系统进行统一调度,实现整体能效蕞优。
同时,随着芯片技术的演进,散热设计可能从“后置考虑”转向“前置协同”。液体冷却不再仅仅是基础设施,而是与芯片封装、板卡设计深度耦合,催生出新的服务器形态和架构,进一步推动计算密度的提升。
理解单相、两相与相变液冷的区别,本质上是理解热量如何被更有效地从芯片表面移走这一核心物理过程。从依赖液体升温,到激发液体沸腾,技术路径的演进反映了数据中心为适应算力爆发而不断突破散热边界的过程。
这些技术将继续在可靠性、经济性与散热效能的三角关系中寻找平衡点,共同支撑起下一代高密度数据中心的稳定运行。