申菱环境:液冷龙头爆发!AI算力“黄金赛道”的核心基座!
发布时间:2025-08-11 22:52 浏览量:38
当ChatGPT掀起的AI风暴席卷全球,当大模型训练需要每秒千万亿次的算力支撑,有一个问题正变得比芯片本身更关键——如何给这些“发烧”的服务器降温。
传统的风冷技术,就像给高烧病人扇扇子,在单机柜功率突破100千瓦的今天,早已力不从心。而在这场“散热革命”中,申菱环境正从幕后走向台前,用液冷技术为AI算力大厦筑牢“冷却基座”。
一、被低估的“算力刚需”:降温比算力本身更迫切
走进任何一个现代化数据中心,你会发现一个耐人寻味的现象:为了给服务器降温,消耗的电能甚至超过了服务器本身。这不是夸张——当芯片功率从100瓦飙升到400瓦以上,风冷系统的能耗占比已经突破40%,有些极端场景下,散热成本甚至超过了硬件采购成本。
这就是AI时代的“算力悖论”:算力越强大,产生的热量就越多;热量越多,就需要更多能源去冷却,最终形成一个吞噬资源的恶性循环, 而液冷技术的出现,正在打破这个循环。
冷板式液冷像给芯片敷上“冰袋”,通过金属板直接接触发热源带走热量;浸没式液冷则更彻底,让服务器“泡”在不导电的冷却液里,散热效率是风冷的10倍以上。采用液冷方案后,数据中心的PUE值(衡量能源效率的核心指标)能降到1.1以下,意味着每消耗1度电用于算力,只有0.1度电被用于冷却——这对于年电费动辄上亿元的超算中心来说,每年能省下的真金白银数以千万计。
机构预测,到2030年全球数据中心液冷市场将突破千亿规模,而现在,正是这场革命的起点。
二、申菱环境的“硬实力”:不止是华为的合作伙伴
在液冷赛道上,申菱环境的优势不是偶然形成的。
这家企业早在十几年前就盯上了液冷技术,当时行业还在为风冷效率争论不休。如今,它已经构建起从冷板、冷却液到系统集成的全链条技术能力,就像既能生产零件,又能组装整机的汽车厂商,这种垂直整合能力在行业里并不多见。
与华为的深度合作,更成了申菱技术实力的“试金石”。华为智算中心的服务器功率密度是行业标杆,对散热的要求近乎苛刻。申菱的液冷方案能通过华为的严苛测试并大规模应用,本身就是最好的技术背书。在贵州、内蒙古等超大型数据中心,申菱的液冷系统正24小时不间断地为AI算力“降温”。
更关键的是,申菱不押注单一技术路线。冷板式适合大规模普及,浸没式适合极端高性能场景,它都有成熟方案。这种“全场景覆盖”的能力,让它在不同客户需求面前游刃有余——无论是互联网巨头的超算中心,还是边缘计算的小型机房,都能找到适配的冷却方案。
三、政策与市场的“双轮驱动”:液冷正在从“选择题”变“必答题”
“东数西算”工程明确要求,新建数据中心的PUE必须低于1.25。在上海、广东等算力需求集中的地区,甚至提出了更严格的1.15标准。这意味着,依赖风冷的传统数据中心将面临淘汰风险,液冷从“可选项”变成了“必选项”。
与此同时,AI大模型的军备竞赛还在升温。百度、阿里、腾讯等企业的智算中心建设计划密集出台,每一个新开工的项目,都离不开高效的液冷系统。这不是短期的风口,而是持续十年以上的算力基建需求——只要AI还在发展,对冷却技术的需求就只会增加。
申菱环境的业绩已经开始释放这种红利。2023年营收和净利润双双增长超35%,数据中心温控业务成了最大的增长引擎。更值得关注的是,它手里的订单大多来自大型智算中心项目,这些项目的交付周期虽然长,但确定性高,能支撑未来几年的业绩增长。
四、在AI的“热时代”,寻找“冷机会”
当所有人都在盯着芯片、算法这些AI的“显性基础设施”时,液冷技术这样的“隐性基础设施”往往被忽视。但恰恰是这些藏在服务器机房里的冷却系统,决定了AI算力的上限。
申菱环境的故事,本质上是技术创新如何抓住产业变革的机会。在AI算力需求还在指数级增长的今天,能解决“降温”这个核心问题的企业,或许已经站在了下一个黄金赛道的起点。
郑重声明:以上分析仅供参考,不构成投资建议;市场有风险,投资需谨慎。
- 上一篇:工业机器人专业就业方向及前景:智能制造时代的黄金赛道
- 下一篇:纽约期金跌约2.6%