结论
华尔街正在重新审视 AI 基础设施的投资逻辑:当 AI 从”单次推理”走向”自主运行”,算力需求的重心正在从 GPU 向 CPU 和内存转移。
这不只是分析师的纸上谈兵。DeepSeek V4 的百万 token 上下文、OpenClaw 的 24/7 本地 Agent 运行、Gemini Daily Brief 的每日数据扫描——这些应用场景都在消耗大量的 CPU 算力和内存带宽,而不仅仅是 GPU 的并行计算能力。
报告核心观点
为什么 Agent 时代需要更多 CPU 和内存
| 工作负载类型 | 主要硬件 | 趋势 |
|---|---|---|
| 模型训练 | GPU(NVIDIA H200/B200) | 持续增长 |
| 单次推理(聊天) | GPU | 增长 |
| 自主 Agent 运行 | CPU + 内存 | 爆发式增长 |
| 上下文管理(百万 token) | 内存 | 爆发式增长 |
| 本地模型部署 | CPU + 内存 | 快速增长 |
关键逻辑:
- Agent 需要持续运行:不像一次性聊天请求,Agent 需要在后台持续监控、决策、执行——这需要 CPU 长期在线
- 上下文窗口在膨胀:DeepSeek V4 支持 1M token 上下文,这些上下文必须驻留在内存中
- 边缘推理崛起:OpenClaw 的本地部署趋势意味着更多推理发生在 CPU 上而非云端 GPU
受益公司清单
CPU & 加速器:
- NVIDIA(不仅 GPU,CPU 产品线也在扩张)
- AMD(EPYC 服务器 CPU + MI300 加速器)
- Intel(Xeon 服务器 CPU + Gaudi 加速器)
- Arm(架构授权,几乎所有移动端和边缘端 AI 都用 Arm)
内存:
- Micron(HBM 和 DDR5 需求激增)
- Samsung(HBM3E 产能扩张)
- SK hynix(HBM 市场领导者,NVIDIA 主要供应商)
芯片制造与设备:
- TSMC(先进制程代工霸主)
- ASML(EUV 光刻机垄断)
数据支撑
几个关键数据点验证了这个趋势:
- DeepSeek V4:1M token 上下文意味着每次对话需要约 2GB 内存来存储上下文状态
- OpenClaw:32 万 GitHub 星,大部分部署在个人设备上(CPU 推理为主)
- 华为 Ascend:预计 2026 年 AI 芯片收入 $120 亿,其中大量用于 CPU-协处理器架构
格局判断
对 NVIDIA 的影响
NVIDIA 仍然是 AI 芯片的绝对霸主,但这份报告提醒我们:
- NVIDIA 的护城河在 GPU 训练端
- 在 Agent 运行端(CPU + 内存),NVIDIA 的份额不如训练端那么大
- NVIDIA 的 Grace CPU + BlueField DPU 是应对策略,但还在早期
对 AMD 和 Intel 的机会
- AMD 的 EPYC + MI300 组合在推理端有成本优势
- Intel 的 Gaudi 3 加速器正在抢夺一部分推理市场
- 两家公司都在押注”AI PC”概念——本地 CPU 推理是核心卖点
对内存厂商的影响
HBM(高带宽内存)是 2025-2026 年最确定的半导体增长故事:
- SK hynix 在 HBM3E 上领先
- Samsung 正在追赶
- Micron 的 HBM 良率在提升
行动建议
- 投资者:如果你只持有 NVIDIA,考虑在 GPU 之外配置内存和 CPU 标的,分散 Agent 时代的算力投资风险
- 开发者:本地 Agent 部署(如 OpenClaw)对 CPU 和内存的需求远超预期——选购硬件时不要只看 GPU
- 芯片行业从业者:Agent 推理侧的芯片优化(CPU 推理加速、内存带宽优化)可能是下一个技术热点