刚刚,下周有大消息催化!盯着这一板块,或迎来黄金时代(附股)
发布时间:2026-03-15 17:33 浏览量:3
明天,全球AI产业的目光将聚焦于一年一度的英伟达GTC大会。
作为AI芯片领域的风向标,这场盛会不仅关乎技术演进,更可能牵动着万亿级AI产业链的发展趋势,
本次大会将可能是英伟达下一代Rubin架构正式发布前的最后一次大型技术展示,而
Rubin,预计将在2026年下半年登场。
与此同时,这也是英伟达完成对Groq的战略整合后,
首次系统性披露其在推理加速领域的全新布局。
但是本文不是来讨论当下如何看待Rubin、或者说英伟达的推理芯片,毕竟目前发布会还没开,笔者也不知道具体什么情况。
但是有一点或许我们可以提前跟踪,那就是面对AI芯片功耗不断逼近物理极限的现实,一场围绕
供电、散热
的底层基础设施,或已然拉开序幕。
这方面或许值得我们先做足功课,持续做产业链跟踪。
想象一下:一台家用空调的功率约为1.5千瓦,而英伟达下一代AI芯片的单颗功耗可能高达4.4千瓦,相当于同时运行三台空调。
若一个机柜部署上百颗这样的芯片,
总功耗将突破400千瓦,堪比一座小型工厂的用电规模。
如此庞大的电力需求,对传统数据中心的供电架构提出了严峻挑战。
过去依赖交流电(AC)的传输方式,在长距离输送中损耗严重,效率低下。
解决方案正在转向高压直流(HVDC)
。
通过将电压提升至±400V甚至800V,电流可以在几乎无损的状态下高效传输。
这一技术不仅能显著降低能耗,还可能
简化电源转换环节,提升整体系统稳定性。
目前,包括谷歌、甲骨文、Meta在内的全球科技巨头,已计划在2026年下半年大规模部署800V HVDC架构的数据中心。
而像台达、维谛等国际电源龙头,也拿到订单,进入交付高峰期。
对国内供应链而言,凭借成本控制、快速交付与技术适配能力,国内HVDC相关企业正加速切入全球高端供应链,打开全新的增长空间。
当芯片功耗迈入“千瓦级”,传统风冷早已力不从心。
试想,芯片内部温度堪比火炉,仅靠风扇散热无异于杯水车薪。
液冷,或已成为行业共识。
从Blackwell时代的85%液冷渗透率,到
即将登场的Rubin架构近乎100%采用液冷方案,风冷或将逐步退出高性能AI数据中心。
更值得关注的是,Rubin将回归
单相大冷板设计
。
通俗理解,就是给芯片“盖上一张流动冷水的毯子”。
而这张“毯子”的核心材料,正是
金刚石
。
为何是金刚石?因其热导率高达铜的4倍、碳化硅的3倍,是目前已知导热性能最强的材料之一
目前主流技术路径分为两类,
纯金刚石片
作为散热衬底或直接刻蚀微通道,实现芯片级极速导热
金刚石复合材料
,在冷板基材中掺入金刚石微粉,提升整体导热效率。
据行业消息,英伟达已向部分云服务商交付搭载金刚石散热方案的样机,并在H200平台上进行小规模测试。
虽然尚未大规模商用,但技术验证已迈出关键一步。
光互联
如果说供电和散热是AI算力的“地基”,那么芯片架构与互联方式,
则决定了AI能跑多快、多聪明。
本次GTC最受期待的看点之一,便是英伟达如何整合其收购的Groq公司所擅长的
LPU(Language Processing Unit)技术
。
简单类比:
GPU
像是“思考的大脑”,擅长训练模型、处理复杂计算;
LPU
则是“敏捷的嘴巴”,专精于高速推理与实时输出。
Groq的LPU内置超大容量SRAM,推理延迟比H100低一个数量级,响应速度提升5–10倍。
英伟达的策略可能是
GPU负责“想”,LPU负责“说”
,分工协作,彻底解决“想得快、说得慢”的瓶颈。
据悉,英伟达将推出全新的
LPX系列推理专用机架
,单机柜可集成256个LPU单元,专为实时AI交互(如智能体对话、语音生成、实时翻译)而设计。
这意味着,未来的AI不仅能“聪明”,更能“秒回”。
与此同时,
数据传输方式也在发生变化,
传统铜线互联如同乡间小路,带宽有限、发热严重、延迟高。
而新一代
共封装光学(CPO)技术
,将光模块直接与芯片封装在一起,实现“光进机柜”,让数据以光速流动。
每一次AI芯片的代际跃迁,都不仅仅是性能数字的提升,更是一场从电力、散热到架构、互联的结构性变化。
GTC大会即将揭晓的Rubin架构,或许只是AI发展趋势的关键跟踪信号之一。
特别声明:以上内容绝不构成任何投资建议、引导或承诺,仅供学术研讨。
如果觉得资料有用,希望各位能够多多支持,您一次点赞、一次转发、随手分享,都是笔者坚持的动力~