结论先行
当所有人都在盯着 GPU 和 HBM 的时候,UBS 发布了一份被忽视但极其重要的分析:Agentic AI 的崛起正在重塑数据中心的架构,从”GPU 中心训练”转向”复杂编排执行”,这一转变将使服务器 CPU 的可寻址市场(TAM)在 2030 年前增长约 5 倍——从 300 亿美元到 1700 亿美元。
发生了什么
UBS 的研究团队在近期的分析中指出,AI 基础设施的投资重心正在发生结构性偏移:
核心数据
| 指标 | 2025 年 | 2030 年(预测) | 增长率 |
|---|---|---|---|
| 服务器 CPU TAM | 300 亿美元 | ~1700 亿美元 | ~5x |
| 单 Agent 工作负载 CPU 核心需求 | 基准 | 3-5x | 3-5 倍 |
驱动逻辑:
- Agentic AI 需要在 LLM 之上执行复杂的编排、推理、工具调用和状态管理
- 这些编排任务高度依赖 CPU,而非 GPU
- 每个 Agent 工作负载需要比传统 GPU 训练多 3-5 倍的 CPU 核心
背景:Big Tech 的 AI Capex 狂潮
摩根士丹利 5 月的预测提供了更大的背景:
| 公司 | 2026 年 AI Capex | 2027 年预测 |
|---|---|---|
| Amazon | ~1500 亿 | 增长中 |
| ~1500 亿 | 增长中 | |
| Meta | ~1500 亿 | 增长中 |
| Microsoft | ~1500 亿 | 增长中 |
| Oracle | ~200 亿 | 增长中 |
| 合计 | ~8050 亿 | ~1.1 万亿 |
全球数据中心建设总支出预计到 2027 年将达到 2.9 万亿美元。
为什么 CPU 需求会暴增
Agentic AI 的工作负载特征
传统的 AI 训练/推理工作负载:
GPU 密集:矩阵计算、张量运算 → GPU 利用率 80%+
CPU 轻量:数据预处理、结果后处理 → CPU 利用率 20-30%
Agentic AI 工作负载:
CPU 密集:任务编排、工具调用、状态管理、多 Agent 协调 → CPU 利用率 60-80%
GPU 辅助:LLM 推理、嵌入计算 → GPU 利用率 40-60%
关键差异:Agent 不只是”调用一次模型”,而是:
- 理解任务 → CPU(自然语言处理)
- 规划步骤 → CPU(推理与决策)
- 调用工具(搜索、数据库、API)→ CPU(网络 I/O、数据处理)
- 分析结果 → CPU(结果评估与决策)
- 循环迭代 → 以上步骤重复 5-50 次
每一步都需要 CPU 的参与,而 GPU 只在第 1 步和第 4 步的部分环节发挥作用。
具体场景的 CPU 消耗
| Agent 场景 | CPU 密集环节 | 估算 CPU 核心倍数 |
|---|---|---|
| 编码 Agent | 文件读取、代码分析、Shell 执行、测试运行 | 3-4x |
| 研究 Agent | 网页爬取、文档解析、知识图谱构建 | 4-5x |
| 数据分析 Agent | 数据库查询、数据清洗、可视化渲染 | 3-5x |
| 客服 Agent | 上下文管理、工具路由、会话状态维护 | 2-3x |
| 多 Agent 编排 | 任务分发、结果聚合、冲突解决 | 5-8x |
投资和市场影响
受益方
| 公司/领域 | 受益逻辑 | 关注点 |
|---|---|---|
| Intel | x86 服务器 CPU 市占率最高,直接受益于 CPU 需求增长 | 需关注 AMD 和 ARM 的竞争 |
| AMD | EPYC 服务器 CPU 持续增长,AI 工作负载优化中 | 数据中心市场份额持续扩大 |
| ARM 生态(Ampere、AWS Graviton) | 能效比优势在 Agent 编排场景更明显 | 云厂商自研芯片趋势 |
| 内存厂商 | CPU 密集工作负载需要更大内存带宽和容量 | HBM 之外的传统 DRAM 需求 |
| 云服务商 | CPU 实例需求增长推高收入 | 需要调整实例组合 |
被忽视的风险
- GPU 投资回报率可能低于预期:如果工作负载向 CPU 偏移,大量 GPU 投资可能面临利用率不足
- 电力和散热瓶颈转移:CPU 集群的电力和散热需求与 GPU 集群不同,现有数据中心设计可能不适用
- 软件栈不匹配:当前的 AI 基础设施(Kubernetes、推理框架)主要围绕 GPU 优化,CPU 编排的工具体系还不成熟
对中国市场的特殊意义
中国 AI 基础设施面临 GPU 供应限制(美国出口管制),CPU 需求增长反而可能带来新的机会:
- 国产 CPU(海光、飞腾、龙芯)在 Agent 编排场景的需求可能被激活
- 华为昇腾的”CPU+NPU”协同架构可能更适合 Agentic AI 工作负载
- 2026 年中国 AI 芯片出货量预计 300 万颗,其中国产占比持续提升
行动建议
如果你是基础设施投资者:
- 重新评估 AI 基础设施投资组合——CPU 相关标的可能被低估
- 关注服务器 CPU 供应链(封装、测试、内存配套)
- 注意数据中心设计趋势的变化
如果你是云用户:
- 评估当前 AI 工作负载的 CPU/GPU 比例——可能过度配置了 GPU
- 尝试用 CPU 密集型实例运行 Agent 编排任务,可能成本更低
- 关注云厂商新的 CPU 优化实例类型
如果你是 AI 应用开发者:
- 优化 Agent 的 CPU 使用效率:减少不必要的工具调用、缓存中间结果
- 在设计 Agent 架构时考虑 CPU 资源约束
- 评估 CPU vs GPU 的成本效益比,不同场景差异巨大
格局判断
Agentic AI 正在改变我们对”AI 基础设施”的定义。过去两年,行业叙事被 GPU 和 HBM 主导——但 Agentic AI 的实际工作负载分布正在揭示一个被忽视的事实:AI 不仅仅是 GPU 的故事,CPU 的角色正在重新崛起。
这不是说 GPU 不重要了——GPU 仍然是训练和大规模推理的核心。但在 AI 从”模型训练”走向”Agent 执行”的过程中,CPU 的价值被严重低估了。UBS 的 5 倍增长预测可能不是终点,而是起点。