C
ChaoBro

2026 AI 资本支出飙升至7150亿美元,HBM 芯片供应已卖到断货

2026 AI 资本支出飙升至7150亿美元,HBM 芯片供应已卖到断货

结论先行

2026 年四大科技巨头(Amazon、Google、Meta、Microsoft)的 AI 资本支出预计将达到 7150 亿美元,几乎全部增量由 AI 驱动。

与此同时,AI 算力的瓶颈正在从 GPU 转向 HBM(高带宽内存)——Micron CEO 在最新财报电话会上承认,2026 年 HBM 供应已全部售罄,只能满足 50-65% 的客户需求。

数据对比

2026 AI 资本支出拆解

公司2026 Capex 上限同比增长主要用途
Amazon (AWS)~2000 亿加速增长(Bedrock 支出回升至 15 季度最快)GPU 集群 + 数据中心 + 电力
Google~1900 亿持续增长TPU + GPU + 数据中心基建
Microsoft~1900 亿高位维持Azure AI + OpenAI 基础设施
Meta~1350 亿大幅增加Llama 训练 + AI 广告 + 元宇宙
合计~7150 亿

供应链瓶颈转移

阶段瓶颈当前状况
2023-2024GPU 产能(NVIDIA A100/H100)产能大幅扩张,缓解
2025先进封装(CoWoS)台积电扩产中
2026HBM 高带宽内存全行业售罄,供不应求

HBM 市场格局

供应商市场份额2026 产能状态备注
SK Hynix~50%Q1 营收同比翻三倍,突破 50 万亿韩元宣布 130 亿美元扩产计划
Micron~25%只能满足 50-65% 需求已签多年量和价协议
Samsung~20%追赶中HBM3E 量产爬坡
其他~5%

为什么 AI 变成”内存优先”

Micron CEO 的财报电话会释放了一个关键信号:

“AI 正在成为 memory-first(内存优先)的行业——因为模型和 Agent 需要更长的”思考”时间和更多的上下文保持。“

技术逻辑

Token 吞吐 = HBM 容量 × HBM 带宽

Agent 思考长度增加 → 上下文窗口扩大 → KV Cache 膨胀 → HBM 需求指数增长

当模型从 7B 参数升级到 70B、从 8K 上下文升级到 128K 时,HBM 的需求增长远超线性。

SanDisk 的 AI 反转

SanDisk 的财报同样验证了这一趋势:

  • 去年每股亏损 30 美分,本季度每股盈利 23.41 美元(预期 14.50 美元)
  • 营收 59.5 亿美元(预期 47 亿美元)
  • 5 家 AI 公司签署了长期供应协议

存储行业因 AI 需求实现了从亏损到暴利的逆转。

格局判断

短期影响(2026)

  • HBM 供应紧张将持续全年,推高 GPU 推理成本
  • 模型优化方向将更注重内存效率:量化、MoE、KV Cache 压缩
  • 国产替代方案(如长鑫存储 CXMT)将获得政策加速

中期趋势(2027-2028)

  • HBM4 标准的推出可能缓解部分供应压力
  • CXL 内存池化技术可能改变内存分配范式
  • “存算一体”芯片架构可能成为新的竞争维度

投资逻辑

赛道确定性弹性代表标的
HBM 制造商★★★★★★★★☆☆SK Hynix, Micron
GPU 厂商★★★★☆★★★★☆NVIDIA, AMD
数据中心 REITs★★★★☆★★☆☆☆数据中心地产基金
内存优化软件★★★☆☆★★★★★量化/压缩工具链

行动建议

对 AI 应用团队

  • 立即评估模型的内存使用效率,优先选择支持量化推理的框架
  • 考虑 MoE 架构模型,在同等性能下大幅降低 HBM 需求
  • 关注 KV Cache 优化技术(如 PagedAttention、FlashDecoding)

对硬件采购

  • HBM 供应紧张可能持续 12-18 个月,建议提前锁定供应合同
  • 评估 AMD MI 系列作为 NVIDIA 的替代方案(部分场景性价比更优)

对开发者

  • 学习模型量化技术(INT4/INT8),在有限硬件上运行更大模型
  • 关注 llama.cpp、MLX 等本地推理框架的内存优化更新