算力变局,CPU迎来AI的“黄金”时代

发布时间:2026-02-11 11:46  浏览量:3

近日,存储价格上涨、服务器CPU供不应求等新闻频发,然而在2026年初这个节点回看,CPU 供需紧张只是一个表象。更深层的变化在于,AI 产业正在完成一次并不喧哗、却极为深刻的结构迁移。

经历了前两年的大训练竞赛之后,生成式 AI 的重心,正从大模型的“暴力训练”转向智能体(Agentic AI)的“全时推理”;从单模型调用,转向多智能体协同;从少量集中式算力集群,走向云、边、端多层级扩散。而在这次迁移过程中,一个看似“传统”的角色,正在重新走到舞台中央——CPU。如果说训练时代拼的是“肌肉(GPU)”,那么 Agent 时代拼的则是“大脑(CPU)”。

一个被忽视的现实

过去两年,市场对 AI 算力的讨论高度聚焦 GPU:算力规模、显存容量、互联带宽、卡间拓扑,构成了几乎全部叙事重心。但当 AI 开始进入规模化应用阶段,一个现实逐渐浮出水面:

大量 AI 工作负载,并不发生在 GPU 上。那是在哪里?

根据IDC最新的《全球智能体市场预测报告》,到2030年,全球活跃智能体规模将突破22亿个。这种爆炸式增长带来了一个技术侧的冷知识:在一个复杂的AI智能体任务中,由于涉及频繁的逻辑判断、实时感知和决策闭环,

CPU的处理耗时竟然占到了总任务延迟的80%-90%。

这意味着,单纯堆砌并行算力的时代已经结束。2026年初的KeyBanc报告也指出,全球服务器芯片需求正以40%的年增速狂奔,而其中至强(Xeon)的交付优先级被英特尔提到了前所未有的高度。这不仅仅是产能的倾斜,更是底层计算范式的转向——

AI需要一个更聪明的“大脑”来调度那些强大的“肌肉”。

如果说训练时代,CPU 更像是 GPU 的“配角”;那么在 Agentic AI 时代,CPU 正在重新变成系统主角。

为什么这么说呢?Agentic AI 的典型特征包括:需要持续运行、多任务并行、实时感知-决策-行动闭环、高可靠性与安全隔离需求,这类工作负载,对算力的要求并不等同于“更大吞吐”,而是更强调低延迟、确定性、资源可调度性以及长时间稳定运行,这恰恰是 CPU 架构长期擅长的领域。

更重要的是,智能体的爆发并不是单点GPU需求,而是成倍放大系统节点数量:更多服务器、更多边缘节点、更多微型数据中心。这意味着,每一个节点几乎必然配置 CPU,而 GPU 反而可能呈现按需部署。

从系统层面看,CPU的核心价值正在由单纯的算力提供者,演进为AI计算系统的调度与组织中枢。

至强 6:AI加速计算系统中的主控CPU角色重构

尽管当前市场的供给紧张主要集中在第四代和第五代至强处理器上,但从更长的技术周期看,至强 6 才是英特尔在 AI 时代押注的核心主控平台。

在 AI 服务器中,算力已高度向昂贵的加速器集中,主控 CPU 却并未因此被边缘化,反而变得更加关键。其原因并不在于某一项参数的领先,而在于至强 6 围绕系统级需求所构建的一整套能力组合。

第一,更强 I/O把加速器“喂饱”。至强6每颗处理器最多192条 PCIe 5.0 通道,相比上一代,通道数量提升最高20%。在 AI 系统中,CPU 是否能高效地向 GPU/ASIC 传输数据,直接决定了加速器的利用率。I/O 能力不足,等同于昂贵算力被闲置。

第二,更多内核+更高单线程性能。至强6单CPU多达 128 个性能核,每路内核数较上一代提升最高 2 倍,这使得 CPU 能同时承担任务调度、数据预处理、控制逻辑、轻量推理等多个任务而不会成为系统瓶颈。

第三,MRDIMM与CXL的内存革命。这是英特尔首次引入MRDIMM技术,内存带宽较前代直接拉升了2.3倍。配合CXL一致性协议,CPU与加速器之间的内存墙被推倒,极大地降低了异构计算的软件栈复杂度。

第四,AMX实现CPU侧 AI 能力补充。英特尔 AMX 新增对 FP16 的支持,使 CPU 在数据预处理、轻量推理阶段,具备一定 AI 加速能力,减少对 GPU 的依赖。

第五,面向大规模部署的 RAS 能力。RAS稳定性保障对于动辄数千个节点的AI集群,宕机意味着巨额损失。至强 6提供的电信级RAS支持,是目前市面上加速平台最稀缺的“确定性”。

至强 6 的意义并不在于重新争夺“算力主角”,而在于明确了 CPU 在 AI 加速时代的新位置——系统效率的决定者。当计算被加速器拆分、数据在多层内存与互连中高速流动时,真正影响 AI 服务器上限的,已不再是某一颗芯片的峰值性能,而是整个系统能否被有效组织与持续扩展。

以至强6为锚点,英特尔正在重新梳理其在AI时代的计算版图。长期以来,芯片巨头的内部往往存在严重的“烟囱式”架构,导致不同计算单元间协同效率低下。英特尔创新的全面加速,不仅源于芯片产品迭代的突破,更源于组织结构的扁平化革命。

2025年9月,英特尔任命 Kevork Kechichian 为数据中心集团执行副总裁兼总经理,并将包括 CPU、GPU 以及整体平台战略在内的核心数据中心与 AI 业务置于其统一管理之下。

Kevork Kechichian 具备超过 30 年行业背景,曾在 Arm、NXP 和 Qualcomm 担任高管。这不仅是一次高层的人事重塑,更是英特尔向“提供系统级算力”转型的标志。在 Kevork 的操刀下,CPU 负责逻辑、GPU 负责并行、ASIC 负责能效的“三级金字塔”架构正式从产品设计延伸到了组织血液。

1)CPU:向 18A 进军,定义能效新巅峰

首先,在CPU方面,英特尔已经向18A进军,定义能效新巅峰。计划于 2026 年发布的 Clearwater Forest(至强® 6+) 堪称英特尔制程工艺的集大成者:

工艺制程上,这是首款大规模采用 18A 制程的数据中心处理器,通过更小的门电容显著降低了功耗;封装层面,采用Foveros Direct 3D 封装,通过 9um 的极细间距实现 Compute Tile 与 I/O Tile 的垂直堆叠,数据移动的功耗损耗几乎为零(约 0.05pJ/bit);288 个 Darkmont E 核:这种极致的微型化计算单元布局,使得单插槽核心数翻倍,为超大规模云原生和 Agent 节点提供了惊人的计算密度。

2)GPU进入迭代快车道

2026 年 2 月,据路透社的报道中,英特尔 CEO Lip-Bu Tan 表示英特尔将开发 GPU,并聘请 GPU 架构负责人 Eric Demers(报道中称其为 chief GPU architect),而 Demers 将向 Kevork Kechichian 汇报。

英特尔的GPU路线图显示,自 2026 年起将进入连续迭代节奏。英特尔已经预告了两款新的GPU产品路线:Crescent Island、Jaguar Shores。

英特尔将发布针对 AI 推理热点工作负载的数据中心 GPU,代号为 Crescent Island,定位于高内存容量与高能效,面向企业及云端服务器。采用全新 Xe3P 架构,据Tom's Hardware报道可配备高达 160 GB LPDDR5X 显存,优化推理性能。该GPU将于 2026 年下半年开始向客户交付样品,并有望在 OCP 峰会等行业展会上进一步细化规格。

Jaguar Shores后续的高性能计算(HPC)级 GPU 将紧随其后。据HPCwire 消息称,Jaguar Shores 是原来计划中的 Falcon Shores(一款 AI GPU 设计)之后的继任者。据悉,Jaguar Shores是面向大型数据中心或机架级部署的 AI 芯片,具备大规模并行计算能力。

3)ASIC加速器,补齐特定负载效率

与此同时,第三类算力正在逐步成型,即面向特定工作负载、以能效为优先目标的专用加速器与定制 ASIC。这一层既包括英特尔自有的 AI 加速器产品线(如 Gaudi),也包括其通过代工与先进封装能力(IFS),为客户提供的定制 ASIC 解决方案。

此外,英特尔的代工业务也是其一个优势。根据公司最新业绩通报和分析师报道:英特尔的ASIC业务在2025年实现超过50%的年增长率,截至2025年末,该业务已形成超过10亿美元年化规模。

从整体来看,英特尔正在尝试构建的是一种多层并存、按负载特征动态分工的算力体系:CPU 负责系统与通用计算,GPU 提供高并行 AI 能力,专用加速器与 ASIC 在特定场景下进一步压榨能效与成本空间。

结语

在 AI 时代,CPU 从未离场,它只是在等待复杂性爆发的那个临界点。随着AI 竞赛正在进入下半场,胜负的决定因素也随之发生变化。比拼的,已不再是谁拥有更高的单点算力,而是谁能够让复杂异构系统在长期运行中保持更高的效率、更低的摩擦和更强的可扩展性。

在这一背景下,CPU 被重新拉回舞台中央,并非因为其算力重新超越了加速器,而是因为它重新成为系统秩序的建立者。大象转身,其势已成。

标签: 黄金 cpu gpu asic jaguar