2025年10月29日凌晨,英伟达GTC大会如期而至,CEO黄仁勋登台发表重磅演讲并展示了公司新款液冷AI服务器机架。继去年GTC大会发布 B100GPU,“黄教主”宣布从 B100GPU开始未来全部的产品的散热技术都将由风冷转为液冷后,再度掀起长期资金市场对于液冷概念的高度关注。
随着算力需求的爆炸式增长,传统风冷技术在满足高密度算力设备散热需求上的短板正在愈加明显,液冷技术正成为高算力场景下解决散热问题的必然选择。
就近期市场表现来看,液冷概念股仍然十分活跃。11月5日,同飞股份收盘上涨13.4%,淳中科技盘中一度涨停,科创新源等多只概念股跟涨。
未来液冷行业高成长性预期的底层逻辑:芯片迭代、政策驱动与市场需求三大合力共振下的高确定性结果。
在AI大模型的训练量与推理需求持续提升之下,对芯片性能的要求正慢慢的升高,GPU这只“电老虎”也在越来越热。
2020年,英伟达所发布的A100数据中心GPU的热设计功耗(TDP)还仅为400W;而至集成度显著较高的GB200系统级芯片,其TDP已高达2,700W。如果把A100视为一个温热的小火炉,GB200则已进化为了一个烫手的大烤箱。
而随着单个芯片功耗的显著提升,也进一步带来了从服务器再到机柜功率密度的指数级提升。目前搭载GB200芯片NVL72单机柜的功率密度就已达120kW,而根据英伟达GPU路线图,未来其RubinUltra架构下的单柜功率预计还将突破1MW。
驱动力之一:功率密度的爆炸式增长。再仅仅靠给芯片“吹风扇”已明显不够用了,天然物理瓶颈导致传统风冷解决方案的天花板已至。
物理形态来看,由于空气的密度低、且分子间的作用力弱,其导致了风冷系统的载热能力一眼就望到头。绿色节能组织TGG就已将每机柜15-25kW的功率密度,作为传统风冷解决方案的建议值上限。
再高的话,仅仅靠给芯片“吹风扇”就已经吹不透也吹不冷了。而温度过热,轻则会导致GPU降频、影响GPU常规使用的寿命,重则还会导致整个数据中心宕机。Uptime Institute多个方面数据显示,目前制冷系统故障率已超过IT系统,成为数据中心宕机的主因之一。
而相比之下,液冷解决方案则有着非常明显的竞争优异。一样体积水的热容量为空气的4,000倍,热导率是空气的25倍。液冷解决方案非常容易就能做到两倍于风冷方案的功率密度容量,还可以实现将单机柜功率密度大幅扩展至200kW。
![]()
因此从技术路径来看,液冷取代风冷,已是高算力场景下不可逆转的趋势。传统风冷方案已力不从心,给芯片“泡澡”才是终极选择。
驱动力之二:数据中心的降本增效需求迫切,而作为占比大、弹性高、给芯片“退烧”的相关制冷费用正是企业的重要抓手。
据顺为咨询统计,2024年其所选取数据中心行业的10家标杆企业中达7家实现营业收入同比增长,但只有润泽科技、数据港2家企业录得净利润同比增长,且均为个位数增速。
从2025年半年报数据分析来看,润泽科技也出现了净利润同比下滑,其中公司AIDC业务的毛利率水平同比骤降达16.73个百分点。公司同时表示,正在积极拥抱液冷技术,将持续扩大液冷部署规模,想必其也深刻认识到液冷对于盈利质量改善的重要作用。
据统计,假设一家数据中心运营周期为20年,则其期间运营成本估算在初始投资所需成本的3至5倍之间。而在远超初始投资的经营成本中,电费支出占比约高达60%—70%。
进一步深挖电费支出构成,抛开刚性的IT设备运行相关电费支出不谈,制冷系统的能耗占比紧随其后、已达到43%。
![]()
Supermicro曾算过这样一笔账,以此前TDP尚还不高的英伟达H100芯片测算,在采用液冷解决方案后,一方面能够使得单个GPU服务器的自身功耗从风冷的 7kW 降低至 6.3kW;另一方面,每个机架的PUE指标也将从1.5明显降低至1.1。
两者共同驱动下,扣减掉液冷方案3万美元的初始实施费用后,单个机架运营3年就将为企业节省约6万美元的电费开支。
![]()
图片说明:液冷方案与风冷方案电费开支测算; 资料来源:Supermicro
另据伊顿多个方面数据显示,大型数据中心的机架数量一般在3,000 个-10,000 个之间,我们假设以平均数6,500个进行进一步测算。采用液冷方案后,平滑计算其每年将为一个大型数据中心带来的经营成本降低收益将高达约1.3亿美元。
此外液冷还能带来机房空间占用的减少、设备寿命的延长,同时考虑到目前芯片的TDP早已较高于H100芯片,实施液冷方案的整体收益规模还应远远不止于此。
驱动力之三:双碳政策“紧箍咒”高悬,能耗指标要求使得液冷技术正从可选项转变为必选项。
双碳目标下,作为耗电大户的数据中心已成为重点管控对象,而PUE(电能使用效率)则是衡量数据中心能效的核心指标。通俗来讲,该指标就是用数据中心的总电费/算力相关的电费,PUE指标越接近1意味着其整体能源利用效率越高。
2024年7月,发改委等部门联合印发《数据中心绿色低碳发展专项行动计划》,其明确硬性要求在2025 年底新建及改扩建大型数据中心的PUE需降至 1.25 以内,枢纽节点的PUE更是不得高于1.2。
各地方具体的管控措施也在相继纷纷出台,并直接向高PUE指标的数据中心开刀。如上海便将能耗高的小散老旧数据中心纳入产业限制和淘汰目录,北京则是对PUE>1.35的数据中心执行差别电价。
而传统的风冷技术的PUE一般在1.5-1.8之间,其远远达不到专项行动计划所要求的1.2-1.25理想水平。政策硬性要求之下,液冷解决方案正成为各大数据中心的必然选择。
分析完液冷行业高成长性预期的三大底层逻辑,我们再来看看权威机构的市场规模预计数据也同样乐观,液冷赛道正迎来高速成长的黄金周期。
据IDC多个方面数据显示,2024年我国液冷服务器行业已展现出极强的爆发力,其市场规模已攀升至23.7亿美元,同比高增67%。而2024年液冷服务器的渗透率仍然较低,行业高景气度预计将长期延续。IDC预计,至2029年我国液冷服务器的市场规模有望冲击162亿美元,期间年复合增长率将保持在46.8%的高水平。
手机游戏玩家经常遇到手机发烫、游戏卡顿的情况,其立竿见影的解决方案就是给手机装上散热背夹。而作为给AI服务器“退烧”的神器,冷板式液冷技术便类似于芯片的散热背夹。通过金属冷板与芯片紧密贴合,冷却液在冷板内部管道流动,实现快速带走发热元件产生的热量。
因其技术方案相对简单直接、兼容性高,且对机房改造要求也较低,已成为目前液冷的主流技术路线。所以从短期来看,估值之家认为该技术路径相关企业的业绩受益度最高。同时,在细分赛道的参与者中,也值得更多关注技术壁垒较高、核心环节的龙头企业。
就价值量拆解来看,冷板式液冷产业链各环节的价值分布呈现着核心部件价值突出的结构性特征。中信建投多个方面数据显示,以GB200 NVL72机柜为例,其内部液冷系统的整体价值约为8.4万美元。而其中,芯片所对应冷板的合计价值量约为3.6万美元,占比达43%;冷却分配单元(CDU)价值量约为3万美元,占比达35.8%。
![]()
未来随着单机柜功率密度的逐步提升,一旦达到冷板式液冷技术阈值后,则预计将会是浸没式液冷的天下。通过将服务器直接浸入绝缘冷却液中进行散热,其传热路径更短,热交换效率高,相变浸没式液冷技术可将PUE降至1.1以下。
首要问题是不菲的初始投入成本。现阶段应用较多的方案为卧式机柜,其颠覆了传统的机架设计,导致其初始投资所需成本较风冷系统高出约50%-80%。由于项目回本周期被显著拉长,使得下游企业的投入意愿不强。
同时,目前主流冷却液为氟化液,但因生产门槛高,市场供应相对不足等原因,导致其价格昂贵。
另外,部分氟化液存在潜在毒性风险,使得运维难度大、专业性高,也进一步阻碍了浸没式液冷渗透率的提升。
但值得注意的是,目前已有企业定制开发了改性硅油替代方案,其具有环保且成本较低的优势,未来可持续关注该方案的推广与落地情况,以及浸没式液冷整体技术成熟度与产能增长规模效应提升所带来的成本优化空间。