高盛说液冷是AI黄金赛道?不是炒概念,是服务器快“烧”不动了

发布时间:2025-12-28 14:31  浏览量:14

最近高盛刚出的研报里,把液冷技术直接定义成了AI的“黄金赛道”。不少人一看到“赛道”俩字就觉得是炒热点,但这次真不是——你可能没进过数据中心的机房,但现在的AI服务器已经快“烧”得扛不住了,液冷不是“要不要用”的选择,是“不用就没法干活”的刚需。高盛上调2027年服务器冷却市场规模,也不是拍脑袋喊口号,是盯着AI服务器的发热和出货量算出来的实账。

先说说为啥液冷突然成了“必须品”。你应该听过英伟达的H100芯片,现在AI大模型训练基本都靠它,这芯片满载跑起来的功耗能到500瓦——差不多是半台家用微波炉的功率。以前给服务器散热靠“风冷”,就是装个大功率风扇吹,最多能压住300瓦的热,碰上H100这种“大火炉”,风扇转得再快也没用,芯片温度能冲到90度以上,轻则降算力,重则直接烧废。

现在的AI服务器还不止装一颗H100,比如英伟达的DGX H100集群,一台服务器塞8颗H100,满载功耗直接破4000瓦,相当于同时开4台微波炉,机房里的温度能比室外高10度。这种情况下,风冷已经摸到了“天花板”,液冷是唯一能接住这波热量的技术——简单说,以前是给服务器“吹电风扇”,现在得改成“泡凉水里”,效果差得不是一点半点。

高盛这次上调市场预测,就是盯着AI服务器的出货量来的。原来高盛预估2027年全球服务器冷却市场是120亿美元,现在直接调到了150亿,理由很实在:今年AI服务器的出货量比预想的快了30%,特别是“基板型架构”的高端服务器,占比从去年的20%涨到了现在的40%。

啥是“基板型架构”?就是把芯片直接焊在基板上,不用传统的插槽,这样能减少信号延迟,算力能提20%,但代价是发热更集中——传统插槽的芯片,热量还能通过插槽散出去一点,基板型的热量全堆在一小块区域里,必须用液冷才能压得住。现在国内的阿里云、腾讯云,新建的AI数据中心基本都只买这种基板型服务器,液冷的需求不是“增量”,是“标配”。

现在国内用得最多的液冷是“冷板式”,原理不复杂:给芯片贴个金属“水冷头”,里面通冷却液,芯片的热量通过水冷头传到冷却液里,再通过管道把热水运到机房外的冷却塔降温。这种技术成熟,成本也不算太高,国内做冷板式的企业里,英维克和依米康是头部。

比如英维克,今年拿到了字节跳动的冷板式液冷订单,给10万台AI服务器做配套,合同金额20亿。字节跳动的飞书AI、抖音推荐算法都靠这些服务器,英维克的冷板式方案能把芯片温度稳定在60度以下,算力不会降,还能省电费——用冷板式比风冷一年省15%的电费,10万台服务器一年就能省8000万。

依依米康更狠,它给国家电网的数据中心做了冷板式液冷改造,原来国家电网的调度服务器用风冷,一到用电高峰就降算力,现在改成冷板式后,就算夏天用电高峰,服务器也能满负荷跑,调度效率提了20%,依米康这单的金额是12亿,毛利能到42%——比它传统的风冷业务高12个百分点,这钱是真的好赚。

还有一种更高效的液冷叫“浸没式”,直接把整个服务器机柜泡在绝缘冷却液里,芯片的热量直接传到冷却液里,散热效率比冷板式高30%,而且没风扇的噪音,机房里安安静静的。不过浸没式的初期成本比风冷高30%,以前只有超算中心用得起,现在AI数据中心也开始试了。

曙光数创是国内做浸没式液冷的龙头,它给张家口的阿里云数据中心做了浸没式方案,把整个机柜泡在冷却液里,数据中心的PUE直接降到了1.08。“PUE”是数据中心的能耗指标,数值越接近1越好,国家要求新建超大型数据中心PUE不高于1.1,曙光这方案直接超额完成了。

阿里云这数据中心有5万台AI服务器,用浸没式一年省的电费能到1.2亿,虽然初期多花了2亿,但2年就能回本,现在阿里云已经决定,未来3年新建的AI数据中心全用浸没式液冷。曙光今年还拿到了华为云的订单,金额8亿,给华为的盘古大模型服务器做浸没式冷却。

可能有人会问:液冷不是新东西吧?以前超算中心不就用过?没错,但以前是“小众技术”,现在是“大众刚需”。比如天河二号超算用冷板式液冷,那是因为超算的算力需求特殊,全国就那么几个超算中心;现在是每个互联网公司、每个科技企业都要建AI数据中心,液冷从“超算专属”变成了“全民必备”,市场规模才跟着涨起来。

国内还有家企业不能漏——三花智控,你可能以为它是做空调阀件的,但它现在做液冷里的精密阀件,比如控制冷却液流量的电子膨胀阀。这东西技术门槛不低,得能精准控制流量,让芯片温度稳定在±2度以内,国内能做的没几家,三花的市占率能到30%。

今年三花拿到了阿里云和腾讯云的联合订单,金额15亿,专门供液冷阀件。腾讯云的负责人说,三花的阀件比进口的便宜20%,交付还快,以前进口阀件要等3个月,三花2周就能发货,现在腾讯云的液冷阀件基本全用三花的。

现在液冷能赚钱,不光是需求大,政策也在“推一把”。2025年工信部出了《数据中心绿色低碳发展行动计划》,明确要求“到2027年,新建大型、超大型数据中心PUE不高于1.1,既有数据中心PUE逐步降到1.2以下”。

要达到这个目标,光靠风冷根本不可能——传统风冷的数据中心PUE基本在1.2以上,冷板式液冷能降到1.1左右,浸没式能降到1.08,这是政策逼着数据中心用液冷。还有“东数西算”工程,西部的数据中心虽然气候冷,但高端AI服务器的发热太猛,还是得用液冷,所以国家在东数西算的配套政策里,专门给用液冷的数据中心补贴。

比如甘肃张掖的一个AI数据中心,用了曙光的浸没式液冷,拿到了当地政府1.5亿的补贴,相当于覆盖了初期成本的20%。现在西部的数据中心,只要用液冷技术,就能申请10%-15%的建设补贴,这也让液冷的普及更快了。

当然,液冷现在也有挑战,最大的问题是成本。浸没式液冷的初期投入比风冷高30%,很多中小企业的数据中心觉得“贵”,但长期看是划算的——比如一个5万台服务器的数据中心,用浸没式初期多花2亿,但一年省1亿电费,2年就能回本,后面每年都是净赚。

还有冷却液的问题,以前浸没式用的绝缘冷却液都是进口的,一吨要2万,现在国内的巨化股份已经能生产了,一吨只要1.2万,成本降了40%。巨化今年的冷却液销量比去年翻了3倍,客户全是阿里云、腾讯云这种大厂,这也让浸没式的成本越来越亲民。

现在国内的液冷企业已经不是“跟跑”了,是能“抢全球订单”。比如三花的液冷阀件卖到了欧洲,给亚马逊的AI数据中心供货,亚马逊说三花的阀件精度比欧洲本土企业还高5%;曙光的浸没式方案出口到了东南亚,给当地的电信运营商做AI数据中心,东南亚的气候比国内热,液冷的需求更迫切,曙光这单的金额是5亿美金。

今年8月发改委发布的《关于促进新型基础设施绿色低碳发展的指导意见》里,还专门提了“加快液冷等高效冷却技术的产业化应用,培育一批专精特新企业”。这说明液冷不是短期的热点,是长期的产业趋势——AI算力还会继续涨,服务器的发热只会越来越猛,液冷是绕不开的技术。

现在的液冷不是“炒概念”,是服务器真的“烧”不动了,政策也逼着用,企业也能赚到真钱。它不是“风口上的猪”,是“解决真问题的工具”。

最后想问问你:现在冷板式液冷普及度高、成本低,浸没式效率高但成本在降,你觉得是冷板式先铺满所有AI数据中心,还是浸没式会成为未来的主流?欢迎在评论区聊聊你的看法。