交易数据
Meta 在 2026 年 4 月 29 日发布的 Q1 财报中交出了以下数字:
| 指标 | Q1 2026 实际 | 市场预期 | 变化 |
|---|---|---|---|
| 营收 | $563 亿 | $595.6 亿 | 低于预期 |
| Q2 营收指引 | $580-610 亿 | $595.6 亿 | 符合预期 |
| 全年 CAPEX | $1250-1450 亿 | $1150-1350 亿 | 大幅上调 |
| CAPEX 增幅 | +$100-150 亿 | — | 约 10-12% 上修 |
更值得注意的是扎克伯格在财报电话会议上的表态:
“Most of that is due to higher component costs, particularly memory pricing.” (大部分增长来自组件成本上升,特别是内存定价。)
这不是”我们打算多花钱”,而是”我们不得不花更多钱”。
公司业务
Meta 当前的 AI 战略围绕三个核心展开:
- Avocado 模型:Meta 下一代基础模型,原定 3 月发布,因性能未达预期推迟至 5 月。内部测试显示其超越了 Llama 4 和 Google 旧版 Gemini,但仍未达到 Meta 设定的”全面领先”门槛
- Llama 生态:开源策略持续,Llama 4 Scout(MoE 架构、1000 万上下文)已发布
- AI 基础设施:大规模 GPU 集群投资,支撑推荐系统、广告、Meta AI 助手等业务
CAPEX 的大幅上调,直接反映了 AI 基础设施成本的结构性变化。
投资逻辑:内存正在成为 AI 竞赛的瓶颈
为什么是内存?
HBM(高带宽内存)是当前 AI 芯片的核心组件。NVIDIA 的 GB10、Blackwell 等 AI 加速器高度依赖 HBM 的带宽和容量。而 HBM 的产能集中在三星、SK 海力士和美光三家手中。
2026 年的供需格局:
| 因素 | 影响 |
|---|---|
| 需求爆发 | 每家大公司都在扩建 AI 集群,HBM 需求同比增长 200%+ |
| 产能有限 | HBM 产线建设周期 18-24 个月,短期无法快速扩产 |
| 技术升级 | HBM4 开始量产,良率爬坡阶段成本高 |
| 价格杠杆 | 卖方市场,供应商有极强定价权 |
Meta 不是唯一感受到内存涨价压力的公司。此前已有报道指出 HBM 的”token 经济学”——内存成本正在成为 AI 推理成本的最大组成部分之一。
CAPEX 上调的连锁反应
| 公司 | CAPEX 趋势 | 驱动因素 |
|---|---|---|
| Meta | $1250-1450 亿(2026) | 内存涨价 + 集群扩建 |
| Q1 营收中 AI 基础设施持续投入 | 全栈 AI 战略 | |
| Microsoft | Agent 365 + 数据中心扩建 | 企业 AI 基础设施 |
| Amazon | AWS AI 服务扩张 | 云+AI 双轮驱动 |
2026 年全年,五大科技公司的 AI CAPEX 总和预计超过 $6000 亿。这还不包括中国科技公司的投入。
对行业的影响
1. 内存供应商的”黄金时代”
三星、SK 海力士、美光在 HBM 市场的定价权空前增强。这意味着:
- HBM 价格可能持续上涨,直到新产能上线(预计 2027 下半年)
- 内存成本将直接传导到 AI 服务的定价上
- 初创公司获取 HBM 的难度和成本持续增加
2. 模型效率的重要性上升
当内存成本成为主要变量时,模型设计哲学必然发生变化:
- MoE(混合专家)架构 更有优势——不是所有参数每次都要加载到内存
- 量化和压缩 技术的需求增加——降低内存占用 = 降低成本
- 小模型 + Agent 编排 模式可能比单一超大模型更经济
3. 竞争格局的微妙变化
Meta 的 CAPEX 上调传递了一个信号:AI 竞赛没有减速,反而在加速。
但值得注意的是,Meta 的 Avocado 模型经历了延迟——花更多钱不等于更快出成果。这反映了一个更广泛的问题:AI 基础设施投资存在显著的边际回报递减。
行动建议
| 角色 | 建议 |
|---|---|
| AI 初创公司 | 考虑使用量化模型或 MoE 架构降低内存需求;探索云厂商的预留实例 |
| 企业 IT | 在 AI 预算中单独列出内存/存储成本项,避免被 GPU 算力掩盖 |
| 投资者 | 关注 HBM 供应链(三星、SK 海力士、美光)以及内存优化技术公司 |
| 开发者 | 学习模型量化、LoRA 微调等降低内存占用的技术 |
格局判断
Meta 的 CAPEX 上调是一个关键信号,它告诉我们:
- AI 军备竞赛没有放缓——即使营收略低于预期,Meta 仍然在加大投入
- 瓶颈正在转移——从”算力不足”转向”内存太贵”,这是一个结构性变化
- 效率即竞争力——在内存成本上升的背景下,谁能用更少的内存做更多的事,谁就有优势
- 开源可能成为差异化武器——Llama 生态如果能在内存效率上领先,将吸引更多成本敏感的用户
2026 年的 AI 投资叙事正在从”谁投得更多”转向”谁投得更聪明”。内存成本的上升正在迫使所有人重新审视 AI 基础设施的 ROI 计算方式。