核心判断
AMD 在 Q1 2026 交出了公司历史上最强劲的财报之一——营收 103 亿美元,同比增长 38%,超出华尔街共识预期(98.4 亿美元)。更关键的是,数据中心业务收入同比增长 171%,主要由 MI400 系列 AI 加速卡驱动。
这标志着 AI 芯片市场的一个结构性拐点:NVIDIA 长达数年的绝对垄断地位,正在被 AMD 实质性打破。
数据速览
| 指标 | Q1 2026 | Q1 2025 | 同比变化 |
|---|---|---|---|
| 总营收 | $103 亿 | $74.6 亿 | +38% |
| 数据中心收入 | ~$58 亿 | ~$21.3 亿 | +171% |
| GAAP 净利润 | $13.8 亿 | $7.07 亿 | +95% |
| Non-GAAP EPS | $1.37 | $0.96 | +43% |
| 毛利率 | 53% | 50% | +3pp |
MI400 系列:真正能与 H200/B200 掰手腕的产品
数据中心收入暴增 171% 的核心驱动力是 MI400 系列 AI 加速卡。该产品线在 Q1 实现了大规模出货,主要客户包括:
- 超大规模云厂商:AWS、Azure、Oracle Cloud 均在扩大 MI400 部署规模
- 企业客户:金融、医疗、制造行业开始采购用于推理和中等规模训练
- 主权 AI 项目:多个国家的政府级 AI 基础设施项目选择 MI400 作为 NVIDIA 的替代方案
MI400 的核心竞争力在于:
- 性价比:同等训练性能下,TCO(总拥有成本)比 H200 低 20-30%
- 供应保障:AMD 的台积电产能分配更稳定,交付周期短于 NVIDIA
- 软件生态突破:ROCm 6.x 对 PyTorch/JAX 的兼容性显著提升,迁移成本降低
行业格局判断
从"一家独大"到"双头垄断"
过去三年,NVIDIA 在 AI 训练芯片市场的份额长期维持在 90% 以上。AMD Q1 财报确认了一个趋势:这个比例正在快速下滑。
根据多家券商估算,2026 年全年 NVIDIA 在 AI 加速卡市场的份额可能降至 75-80%,而 AMD 将升至 15-20%。虽然差距仍然显著,但从 5% 到 15%+ 的跃升,足以改变市场定价权和客户谈判格局。
云厂商的"第二供应商"策略奏效
AWS、Azure、GCP 都在积极推进"第二供应商"策略——不再将 AI 基础设施押注于单一芯片供应商。AMD MI400 的放量,正是这一策略的直接成果。
对于使用 AI 模型的企业而言,这意味着:
- 更低的推理成本:竞争驱动降价
- 更稳定的供应链:不再受 NVIDIA 产能波动影响
- 更多技术路线选择:不同工作负载可匹配不同芯片
行动建议
| 角色 | 建议 |
|---|---|
| 企业 AI 团队 | 评估 MI400 作为推理/中小规模训练的替代方案,特别是 ROCm 生态兼容性已大幅改善 |
| 云用户 | 关注云厂商的 MI400 实例定价,可能与 NVIDIA 实例存在 15-25% 价差 |
| 投资者 | AMD 当前估值已部分反映增长预期,但数据中心业务的持续增长空间仍可关注 |
| 开发者 | 提前熟悉 ROCm 工具链,为多芯片环境下的模型部署做准备 |
风险因素
- NVIDIA B200/B300 系列可能重新拉开性能差距
- AMD 在超大规模训练场景的软件生态仍有差距
- 中国市场需求受出口管制影响,可能限制 AMD 的增长天花板