结论先行
2026 年四大科技巨头(Amazon、Google、Meta、Microsoft)的 AI 资本支出预计将达到 7150 亿美元,几乎全部增量由 AI 驱动。
与此同时,AI 算力的瓶颈正在从 GPU 转向 HBM(高带宽内存)——Micron CEO 在最新财报电话会上承认,2026 年 HBM 供应已全部售罄,只能满足 50-65% 的客户需求。
数据对比
2026 AI 资本支出拆解
| 公司 | 2026 Capex 上限 | 同比增长 | 主要用途 |
|---|---|---|---|
| Amazon (AWS) | ~2000 亿 | 加速增长(Bedrock 支出回升至 15 季度最快) | GPU 集群 + 数据中心 + 电力 |
| ~1900 亿 | 持续增长 | TPU + GPU + 数据中心基建 | |
| Microsoft | ~1900 亿 | 高位维持 | Azure AI + OpenAI 基础设施 |
| Meta | ~1350 亿 | 大幅增加 | Llama 训练 + AI 广告 + 元宇宙 |
| 合计 | ~7150 亿 | — | — |
供应链瓶颈转移
| 阶段 | 瓶颈 | 当前状况 |
|---|---|---|
| 2023-2024 | GPU 产能(NVIDIA A100/H100) | 产能大幅扩张,缓解 |
| 2025 | 先进封装(CoWoS) | 台积电扩产中 |
| 2026 | HBM 高带宽内存 | 全行业售罄,供不应求 |
HBM 市场格局
| 供应商 | 市场份额 | 2026 产能状态 | 备注 |
|---|---|---|---|
| SK Hynix | ~50% | Q1 营收同比翻三倍,突破 50 万亿韩元 | 宣布 130 亿美元扩产计划 |
| Micron | ~25% | 只能满足 50-65% 需求 | 已签多年量和价协议 |
| Samsung | ~20% | 追赶中 | HBM3E 量产爬坡 |
| 其他 | ~5% | — | — |
为什么 AI 变成”内存优先”
Micron CEO 的财报电话会释放了一个关键信号:
“AI 正在成为 memory-first(内存优先)的行业——因为模型和 Agent 需要更长的”思考”时间和更多的上下文保持。“
技术逻辑
Token 吞吐 = HBM 容量 × HBM 带宽
Agent 思考长度增加 → 上下文窗口扩大 → KV Cache 膨胀 → HBM 需求指数增长
当模型从 7B 参数升级到 70B、从 8K 上下文升级到 128K 时,HBM 的需求增长远超线性。
SanDisk 的 AI 反转
SanDisk 的财报同样验证了这一趋势:
- 去年每股亏损 30 美分,本季度每股盈利 23.41 美元(预期 14.50 美元)
- 营收 59.5 亿美元(预期 47 亿美元)
- 5 家 AI 公司签署了长期供应协议
存储行业因 AI 需求实现了从亏损到暴利的逆转。
格局判断
短期影响(2026)
- HBM 供应紧张将持续全年,推高 GPU 推理成本
- 模型优化方向将更注重内存效率:量化、MoE、KV Cache 压缩
- 国产替代方案(如长鑫存储 CXMT)将获得政策加速
中期趋势(2027-2028)
- HBM4 标准的推出可能缓解部分供应压力
- CXL 内存池化技术可能改变内存分配范式
- “存算一体”芯片架构可能成为新的竞争维度
投资逻辑
| 赛道 | 确定性 | 弹性 | 代表标的 |
|---|---|---|---|
| HBM 制造商 | ★★★★★ | ★★★☆☆ | SK Hynix, Micron |
| GPU 厂商 | ★★★★☆ | ★★★★☆ | NVIDIA, AMD |
| 数据中心 REITs | ★★★★☆ | ★★☆☆☆ | 数据中心地产基金 |
| 内存优化软件 | ★★★☆☆ | ★★★★★ | 量化/压缩工具链 |
行动建议
对 AI 应用团队
- 立即评估模型的内存使用效率,优先选择支持量化推理的框架
- 考虑 MoE 架构模型,在同等性能下大幅降低 HBM 需求
- 关注 KV Cache 优化技术(如 PagedAttention、FlashDecoding)
对硬件采购
- HBM 供应紧张可能持续 12-18 个月,建议提前锁定供应合同
- 评估 AMD MI 系列作为 NVIDIA 的替代方案(部分场景性价比更优)
对开发者
- 学习模型量化技术(INT4/INT8),在有限硬件上运行更大模型
- 关注 llama.cpp、MLX 等本地推理框架的内存优化更新