刚刚,下周有大消息催化!盯着这一板块,或迎来黄金时代(附股)

发布时间:2026-03-15 17:33  浏览量:3

明天,全球AI产业的目光将聚焦于一年一度的英伟达GTC大会。

作为AI芯片领域的风向标,这场盛会不仅关乎技术演进,更可能牵动着万亿级AI产业链的发展趋势,

本次大会将可能是英伟达下一代Rubin架构正式发布前的最后一次大型技术展示,而

Rubin,预计将在2026年下半年登场。

与此同时,这也是英伟达完成对Groq的战略整合后,

首次系统性披露其在推理加速领域的全新布局。

但是本文不是来讨论当下如何看待Rubin、或者说英伟达的推理芯片,毕竟目前发布会还没开,笔者也不知道具体什么情况。

但是有一点或许我们可以提前跟踪,那就是面对AI芯片功耗不断逼近物理极限的现实,一场围绕

供电、散热

的底层基础设施,或已然拉开序幕。

这方面或许值得我们先做足功课,持续做产业链跟踪。

想象一下:一台家用空调的功率约为1.5千瓦,而英伟达下一代AI芯片的单颗功耗可能高达4.4千瓦,相当于同时运行三台空调。

若一个机柜部署上百颗这样的芯片,

总功耗将突破400千瓦,堪比一座小型工厂的用电规模。

如此庞大的电力需求,对传统数据中心的供电架构提出了严峻挑战。

过去依赖交流电(AC)的传输方式,在长距离输送中损耗严重,效率低下。

解决方案正在转向高压直流(HVDC)

通过将电压提升至±400V甚至800V,电流可以在几乎无损的状态下高效传输。

这一技术不仅能显著降低能耗,还可能

简化电源转换环节,提升整体系统稳定性。

目前,包括谷歌、甲骨文、Meta在内的全球科技巨头,已计划在2026年下半年大规模部署800V HVDC架构的数据中心。

而像台达、维谛等国际电源龙头,也拿到订单,进入交付高峰期。

对国内供应链而言,凭借成本控制、快速交付与技术适配能力,国内HVDC相关企业正加速切入全球高端供应链,打开全新的增长空间。

当芯片功耗迈入“千瓦级”,传统风冷早已力不从心。

试想,芯片内部温度堪比火炉,仅靠风扇散热无异于杯水车薪。

液冷,或已成为行业共识。

从Blackwell时代的85%液冷渗透率,到

即将登场的Rubin架构近乎100%采用液冷方案,风冷或将逐步退出高性能AI数据中心。

更值得关注的是,Rubin将回归

单相大冷板设计

通俗理解,就是给芯片“盖上一张流动冷水的毯子”。

而这张“毯子”的核心材料,正是

金刚石

为何是金刚石?因其热导率高达铜的4倍、碳化硅的3倍,是目前已知导热性能最强的材料之一

目前主流技术路径分为两类,

纯金刚石片

作为散热衬底或直接刻蚀微通道,实现芯片级极速导热

金刚石复合材料

,在冷板基材中掺入金刚石微粉,提升整体导热效率。

据行业消息,英伟达已向部分云服务商交付搭载金刚石散热方案的样机,并在H200平台上进行小规模测试。

虽然尚未大规模商用,但技术验证已迈出关键一步。

光互联

如果说供电和散热是AI算力的“地基”,那么芯片架构与互联方式,

则决定了AI能跑多快、多聪明。

本次GTC最受期待的看点之一,便是英伟达如何整合其收购的Groq公司所擅长的

LPU(Language Processing Unit)技术

简单类比:

GPU

像是“思考的大脑”,擅长训练模型、处理复杂计算;

LPU

则是“敏捷的嘴巴”,专精于高速推理与实时输出。

Groq的LPU内置超大容量SRAM,推理延迟比H100低一个数量级,响应速度提升5–10倍。

英伟达的策略可能是

GPU负责“想”,LPU负责“说”

,分工协作,彻底解决“想得快、说得慢”的瓶颈。

据悉,英伟达将推出全新的

LPX系列推理专用机架

,单机柜可集成256个LPU单元,专为实时AI交互(如智能体对话、语音生成、实时翻译)而设计。

这意味着,未来的AI不仅能“聪明”,更能“秒回”。

与此同时,

数据传输方式也在发生变化,

传统铜线互联如同乡间小路,带宽有限、发热严重、延迟高。

而新一代

共封装光学(CPO)技术

,将光模块直接与芯片封装在一起,实现“光进机柜”,让数据以光速流动。

每一次AI芯片的代际跃迁,都不仅仅是性能数字的提升,更是一场从电力、散热到架构、互联的结构性变化。

GTC大会即将揭晓的Rubin架构,或许只是AI发展趋势的关键跟踪信号之一。

特别声明:以上内容绝不构成任何投资建议、引导或承诺,仅供学术研讨。

如果觉得资料有用,希望各位能够多多支持,您一次点赞、一次转发、随手分享,都是笔者坚持的动力~