Meta Q1 财报:CAPEX 上调至 $1450 亿,内存成本成 AI 竞赛最大变量

Meta Q1 财报:CAPEX 上调至 $1450 亿,内存成本成 AI 竞赛最大变量

交易数据

Meta 在 2026 年 4 月 29 日发布的 Q1 财报中交出了以下数字:

指标Q1 2026 实际市场预期变化
营收$563 亿$595.6 亿低于预期
Q2 营收指引$580-610 亿$595.6 亿符合预期
全年 CAPEX$1250-1450 亿$1150-1350 亿大幅上调
CAPEX 增幅+$100-150 亿约 10-12% 上修

更值得注意的是扎克伯格在财报电话会议上的表态:

“Most of that is due to higher component costs, particularly memory pricing.” (大部分增长来自组件成本上升,特别是内存定价。)

这不是”我们打算多花钱”,而是”我们不得不花更多钱”。

公司业务

Meta 当前的 AI 战略围绕三个核心展开:

  1. Avocado 模型:Meta 下一代基础模型,原定 3 月发布,因性能未达预期推迟至 5 月。内部测试显示其超越了 Llama 4 和 Google 旧版 Gemini,但仍未达到 Meta 设定的”全面领先”门槛
  2. Llama 生态:开源策略持续,Llama 4 Scout(MoE 架构、1000 万上下文)已发布
  3. AI 基础设施:大规模 GPU 集群投资,支撑推荐系统、广告、Meta AI 助手等业务

CAPEX 的大幅上调,直接反映了 AI 基础设施成本的结构性变化。

投资逻辑:内存正在成为 AI 竞赛的瓶颈

为什么是内存?

HBM(高带宽内存)是当前 AI 芯片的核心组件。NVIDIA 的 GB10、Blackwell 等 AI 加速器高度依赖 HBM 的带宽和容量。而 HBM 的产能集中在三星、SK 海力士和美光三家手中。

2026 年的供需格局:

因素影响
需求爆发每家大公司都在扩建 AI 集群,HBM 需求同比增长 200%+
产能有限HBM 产线建设周期 18-24 个月,短期无法快速扩产
技术升级HBM4 开始量产,良率爬坡阶段成本高
价格杠杆卖方市场,供应商有极强定价权

Meta 不是唯一感受到内存涨价压力的公司。此前已有报道指出 HBM 的”token 经济学”——内存成本正在成为 AI 推理成本的最大组成部分之一。

CAPEX 上调的连锁反应

公司CAPEX 趋势驱动因素
Meta$1250-1450 亿(2026)内存涨价 + 集群扩建
GoogleQ1 营收中 AI 基础设施持续投入全栈 AI 战略
MicrosoftAgent 365 + 数据中心扩建企业 AI 基础设施
AmazonAWS AI 服务扩张云+AI 双轮驱动

2026 年全年,五大科技公司的 AI CAPEX 总和预计超过 $6000 亿。这还不包括中国科技公司的投入。

对行业的影响

1. 内存供应商的”黄金时代”

三星、SK 海力士、美光在 HBM 市场的定价权空前增强。这意味着:

  • HBM 价格可能持续上涨,直到新产能上线(预计 2027 下半年)
  • 内存成本将直接传导到 AI 服务的定价上
  • 初创公司获取 HBM 的难度和成本持续增加

2. 模型效率的重要性上升

当内存成本成为主要变量时,模型设计哲学必然发生变化:

  • MoE(混合专家)架构 更有优势——不是所有参数每次都要加载到内存
  • 量化和压缩 技术的需求增加——降低内存占用 = 降低成本
  • 小模型 + Agent 编排 模式可能比单一超大模型更经济

3. 竞争格局的微妙变化

Meta 的 CAPEX 上调传递了一个信号:AI 竞赛没有减速,反而在加速。

但值得注意的是,Meta 的 Avocado 模型经历了延迟——花更多钱不等于更快出成果。这反映了一个更广泛的问题:AI 基础设施投资存在显著的边际回报递减。

行动建议

角色建议
AI 初创公司考虑使用量化模型或 MoE 架构降低内存需求;探索云厂商的预留实例
企业 IT在 AI 预算中单独列出内存/存储成本项,避免被 GPU 算力掩盖
投资者关注 HBM 供应链(三星、SK 海力士、美光)以及内存优化技术公司
开发者学习模型量化、LoRA 微调等降低内存占用的技术

格局判断

Meta 的 CAPEX 上调是一个关键信号,它告诉我们:

  1. AI 军备竞赛没有放缓——即使营收略低于预期,Meta 仍然在加大投入
  2. 瓶颈正在转移——从”算力不足”转向”内存太贵”,这是一个结构性变化
  3. 效率即竞争力——在内存成本上升的背景下,谁能用更少的内存做更多的事,谁就有优势
  4. 开源可能成为差异化武器——Llama 生态如果能在内存效率上领先,将吸引更多成本敏感的用户

2026 年的 AI 投资叙事正在从”谁投得更多”转向”谁投得更聪明”。内存成本的上升正在迫使所有人重新审视 AI 基础设施的 ROI 计算方式。