发生了什么
2026 年 5 月初,一条关于 Neocloud GPU 租赁市场的推文在 AI 基础设施社区引发讨论:
“没有一家 Neocloud 能想到,他们今天出租 H100 的价格竟然比 3 年前还高。”
这条获得了 432 个赞和 50K+ 浏览的推文揭示了一个反直觉的市场现象:在 GPU 产能持续扩张、AI 芯片竞争加剧的背景下,H100 的租赁价格不降反升。
为什么 GPU 租金反而更贵了
这背后的逻辑可以拆解为三个层面:
1. 需求侧:前沿厂商提前锁单
即便你有资金,前沿实验室和 Neolabs 已经提前锁定了 2026 年大部分 GPU 供应。超大规模厂商(Microsoft、Google、Meta、Amazon)2026 年的 AI 资本支出预计达到 $7250 亿,同比增长 77%。这些巨额订单优先占据了 NVIDIA 的产能分配。
2. 供给侧:HBM 产能瓶颈
GPU 不是独立芯片——它需要 HBM(高带宽内存)配合。Micron CEO 此前确认,2026 年 HBM 供应已全部售罄,仅能满足客户 50-65% 的需求。HBM 产能的瓶颈直接限制了 GPU 的总产出。
| 瓶颈环节 | 现状 | 影响 |
|---|---|---|
| GPU 晶圆 | NVIDIA 产能持续扩张 | 不是主要瓶颈 |
| HBM 内存 | 三家厂商产能锁死 | 核心瓶颈 |
| CoWoS 封装 | 台积电产能紧张 | 次要瓶颈 |
| 电力和冷却 | 数据中心选址受限 | 长期约束 |
3. 市场结构:Neocloud 的定价权丧失
Neocloud(新兴云计算提供商)的商业模式原本是”批量采购 GPU,以低于 AWS/Azure 的价格零售”。但在供应紧张的市场中:
- Neocloud 拿不到足够的 GPU 来建立规模效应
- 即便拿到 GPU,HBM 成本上涨推高了整体 TCO
- 需求远大于供应,Neocloud 没有降价动机
每 $1M AI 支出的流向
理解 GPU 租金为何上涨,需要看整体 AI 基础设施支出的结构:
| 支出类别 | 金额(每 $1M) | 占比 | 关键供应商 |
|---|---|---|---|
| GPU 和加速器 | $520K | 52% | NVIDIA、AMD、Broadcom |
| 网络和光通信 | $150K | 15% | Arista、Coherent |
| 数据中心基建 | $200K | 20% | 电力、冷却、机柜 |
| 内存和其他 | $130K | 13% | Micron、SK Hynix、Samsung |
超过一半的 AI 投资流向 GPU 和加速器——这意味着谁控制了 GPU 供应链,谁就控制了 AI 基础设施的定价权。
格局判断
GPU 租金上涨揭示了一个更深层的趋势:AI 算力正在从”商品化”回归”稀缺化”。
2023-2024 年,市场普遍预期随着 GPU 产能扩张和竞争加剧,算力成本会快速下降。但现实是:
- 需求增速远超产能增速
- 供应链瓶颈从 GPU 转移到 HBM
- 前沿厂商的提前锁单挤压了中小玩家的获取空间
这意味着”算力民主化”的叙事在 2026 年面临挑战——拥有 GPU 访问权限正在成为一种竞争优势,而非基础设施。
行动建议
- AI 创业者:不要假设 GPU 租金会自然下降。在商业模型中按当前或更高价格计算推理成本,预留供应风险缓冲。
- 模型选型策略:当 GPU 成本高企时,选择推理效率更高的模型(如 MoE 架构、量化版本)比追求最大参数规模更有经济意义。
- 关注替代方案:AMD MI300 系列、Google TPU、AWS Trainium 等替代芯片的可用性和性价比正在改善。多芯片策略可以降低对单一供应商的依赖。
- 长期视角:HBM 产能扩建周期为 18-24 个月。2026 年的供应紧张可能在 2027 年下半年开始缓解,但前提是所有主要厂商的扩产计划如期推进。