国产算力产业链,迎来十年黄金期!

发布时间:2025-09-20 21:46  浏览量:30

这周市场最热闹的新闻,莫过于9月18日华为全联接大会上公布的昇腾AI 芯片技术路线图。消息一出,国产算力板块集体沸腾,尤其绑定华为产业链的公司,股价像被按了加速键。

表面看是一张简单的产品规划表——2026年推出昇腾950PR、950DT,2027年960,2028年970。实际上是华为对国产算力产业未来十年的战略宣言,更是中国AI算力从 “追赶” 到 “并跑” 的关键转折点。

这两年AI算力圈有个共识~要赢,先得单卡性能强。英伟达H100之所以能横扫市场,靠的就是单卡算力碾压。但华为这次偏不走“死磕单卡” 的老路,转而用系统级创新实现弯道超车。

最典型的例子是刚发布的超节点技术。

华为Atlas 950 SuperPoD能支持8192卡集群,算力8EFlops@FP8,跨柜全光互联总带宽16.3PB/s;更猛的Atlas 960 SuperPoD未来能支撑15488卡超集群,算力30EFLOPS,带宽34PB/s。

这数据听起来抽象?

打个比方:传统集群像一群人各自跑,跨机通信慢、协同效率低;华为的超节点则是把这群人绑成“超级跑者”,用自研 MatrixLink 高速总线把384颗昇腾NPU和192 颗鲲鹏CPU直接连起来,通信带宽269TB/s、时延降到200纳秒 —— 相当于给 “超级跑者” 装了条 “神经高速路”,信息传递快到几乎无感知。

支撑这套系统的,是三大核心创新。

一是全对等互联架构。传统集群跨机通信是瓶颈,华为用自研总线打破了这个“墙”,让集群像 “单台计算机” 一样协同;

二是资源池化调度。计算、存储、网络资源全局虚拟化,故障率直接降40%,运维效率翻倍;

三是液冷散热革命。针对单机柜50kW超高功耗,用浸没式液冷+微结构导热材料,功耗降20%,能源效率压到1.1 以下,这意味着同样算力,华为方案更省电、更省钱。

最有意思的是,哪怕昇腾单卡性能只有英伟达H100的50%,但通过系统级优化,集群性能反而反超。实测数据显示,在LLaMA3等密集模型训练中,性能是传统集群的2.5倍;多模态、MoE模型甚至能到3倍以上。

这说明什么?

算力竞争的终局,不是单卡性能的“数值游戏”,而是从芯片到集群的全链路效率比拼。华为这步棋,早把目光放在了“如何让100张卡发挥出1000张卡的效果” 上。

再看昇腾芯片的迭代路线,更能看出华为对行业痛点的精准打击~大模型训练的 “内存墙” 问题。

2026Q1的昇腾950PR,支持 FP8 低精度格式,算力 1PFlops,互联带宽 2TB/s,显存 128GB,还首次搭载自研 HBM(HiBL 1.0)。这相当于给芯片 “扩容”,解决大模型训练时 “内存不够用” 的问题。

2026Q4的昇腾950DT,显存提到144GB,带宽4TB/s,专攻大模型解码。实测数据显示,千亿参数模型推理效率能提升50%以上,这对需要高频推理的AI应用来说,是质的飞跃。

2027-2028年的960/970,算力和显存持续翻倍,带宽飙到14.4TB/s。这一步,直接瞄准未来更复杂的多模态、万亿参数模型需求。

尤其自研HBM的突破,意义远超芯片本身。HBM是先进芯片的 “血液”,此前全球市场基本被三星、SK海力士垄断。华为推出HiBL 1.0,意味着中国在存储芯片领域终于撕开一道口子,未来 “内存墙” 卡脖子的问题,有望逐步解决。

随着昇腾芯片迭代和超节点部署加速,整个国产算力产业链迎来十年一遇的机遇。

这两年,科技圈常说“国产替代”,但真正能实现 “从0到1” 突破的领域不多。华为这次公布的昇腾路线图,不仅是技术突破,更是产业生态的重塑 ——从芯片到集群,从制造到散热,一条完整的国产算力链正在成型。

对投资者来说,这是机遇,也是考验。投资不是追热点,而是找“长期被需要” 的企业。