大摩报告:自主 AI Agent 将引爆 CPU 和内存需求,GPU 之外的投资机会

大摩报告:自主 AI Agent 将引爆 CPU 和内存需求,GPU 之外的投资机会

结论

华尔街正在重新审视 AI 基础设施的投资逻辑:当 AI 从”单次推理”走向”自主运行”,算力需求的重心正在从 GPU 向 CPU 和内存转移。

这不只是分析师的纸上谈兵。DeepSeek V4 的百万 token 上下文、OpenClaw 的 24/7 本地 Agent 运行、Gemini Daily Brief 的每日数据扫描——这些应用场景都在消耗大量的 CPU 算力和内存带宽,而不仅仅是 GPU 的并行计算能力。

报告核心观点

为什么 Agent 时代需要更多 CPU 和内存

工作负载类型主要硬件趋势
模型训练GPU(NVIDIA H200/B200)持续增长
单次推理(聊天)GPU增长
自主 Agent 运行CPU + 内存爆发式增长
上下文管理(百万 token)内存爆发式增长
本地模型部署CPU + 内存快速增长

关键逻辑:

  1. Agent 需要持续运行:不像一次性聊天请求,Agent 需要在后台持续监控、决策、执行——这需要 CPU 长期在线
  2. 上下文窗口在膨胀:DeepSeek V4 支持 1M token 上下文,这些上下文必须驻留在内存中
  3. 边缘推理崛起:OpenClaw 的本地部署趋势意味着更多推理发生在 CPU 上而非云端 GPU

受益公司清单

CPU & 加速器

  • NVIDIA(不仅 GPU,CPU 产品线也在扩张)
  • AMD(EPYC 服务器 CPU + MI300 加速器)
  • Intel(Xeon 服务器 CPU + Gaudi 加速器)
  • Arm(架构授权,几乎所有移动端和边缘端 AI 都用 Arm)

内存

  • Micron(HBM 和 DDR5 需求激增)
  • Samsung(HBM3E 产能扩张)
  • SK hynix(HBM 市场领导者,NVIDIA 主要供应商)

芯片制造与设备

  • TSMC(先进制程代工霸主)
  • ASML(EUV 光刻机垄断)

数据支撑

几个关键数据点验证了这个趋势:

  • DeepSeek V4:1M token 上下文意味着每次对话需要约 2GB 内存来存储上下文状态
  • OpenClaw:32 万 GitHub 星,大部分部署在个人设备上(CPU 推理为主)
  • 华为 Ascend:预计 2026 年 AI 芯片收入 $120 亿,其中大量用于 CPU-协处理器架构

格局判断

对 NVIDIA 的影响

NVIDIA 仍然是 AI 芯片的绝对霸主,但这份报告提醒我们:

  • NVIDIA 的护城河在 GPU 训练端
  • 在 Agent 运行端(CPU + 内存),NVIDIA 的份额不如训练端那么大
  • NVIDIA 的 Grace CPU + BlueField DPU 是应对策略,但还在早期

对 AMD 和 Intel 的机会

  • AMD 的 EPYC + MI300 组合在推理端有成本优势
  • Intel 的 Gaudi 3 加速器正在抢夺一部分推理市场
  • 两家公司都在押注”AI PC”概念——本地 CPU 推理是核心卖点

对内存厂商的影响

HBM(高带宽内存)是 2025-2026 年最确定的半导体增长故事:

  • SK hynix 在 HBM3E 上领先
  • Samsung 正在追赶
  • Micron 的 HBM 良率在提升

行动建议

  • 投资者:如果你只持有 NVIDIA,考虑在 GPU 之外配置内存和 CPU 标的,分散 Agent 时代的算力投资风险
  • 开发者:本地 Agent 部署(如 OpenClaw)对 CPU 和内存的需求远超预期——选购硬件时不要只看 GPU
  • 芯片行业从业者:Agent 推理侧的芯片优化(CPU 推理加速、内存带宽优化)可能是下一个技术热点