2026 年 4 月的大模型价格格局出现了一个反直觉的变化:当行业普遍认为模型价格会持续下降时,OpenAI 的旗舰模型反而在涨价。
从 GPT-5.0 到 GPT-5.5,API 定价走了一个陡峭的上行曲线:
| 模型版本 | 输入 ($/M) | 输出 ($/M) |
|---|---|---|
| GPT-5.0 | 0.625 | 5.00 |
| GPT-5.1 | 1.25 | 7.20 |
| GPT-5.2 | 2.50 | 12.00 |
| GPT-5.3 | 3.50 | 18.00 |
| GPT-5.4 | 3.50 | 18.00 |
| GPT-5.5 | 5.00 | 30.00 |
GPT-5.5 的输入价是 5.0 的 8 倍,输出价是 6 倍。加上社区反馈的 token 消耗增加,实际使用成本差距更大。
当前前沿模型价格全景
| 模型 | 输入 ($/M) | 输出 ($/M) | 定位 |
|---|---|---|---|
| GPT-5.5 | 5.00 | 30.00 | 最贵前沿 |
| Claude Opus 4.7 | 5.00 | 25.00 | 旗舰对标 |
| Gemini 3.1 Pro | 3.50 | 15.00 | 中端前沿 |
| Kimi K2.6 | ~1.70 | ~3.00 | 性价比 |
| DeepSeek V4 Pro | 2.20 | 3.48 | 低价高配 |
| DeepSeek V4 Flash | <1.00 | <2.00 | 速度优先 |
DeepSeek 的定价策略最为激进:V4 Pro 的输出价 $3.48 只有 GPT-5.5 的 11.6%。V4-Flash 版本的价格更低,适合高吞吐场景。
分层逻辑
当前模型市场正在形成三个价格带:
- 高端带($20-30/M 输出):GPT-5.5、Claude Opus 4.7。竞争焦点是基准测试排名和特定场景(终端、代码、长任务)的绝对优势。
- 中端带($10-15/M 输出):Gemini 3.1 Pro。竞争焦点是性价比——以不到高端一半的价格提供接近的性能。
- 入门带(<$5/M 输出):DeepSeek V4、Kimi K2.6。竞争焦点是”够用就好”——在多数场景提供 80% 的前沿性能,但价格只有 10-20%。
这个分层的意义在于:大多数企业应用不需要前沿模型的 100% 能力。如果 DeepSeek V4 在 80% 的场景中表现与 GPT-5.5 接近,但成本只有 1/9,那么价格分层将直接转化为市场份额的重新分配。
行动建议
- API 成本审计:建议对比当前使用的模型在 DeepSeek V4 上的表现。如果多数任务可以用 V4 替代,成本可能下降 80% 以上。
- 混合策略:将高频低复杂度任务路由到 V4-Flash,复杂推理任务路由到 GPT-5.5 或 Opus 4.7。这是目前成本最优的架构。
- 关注调价窗口:社区预测 OpenAI 可能在 6 月调整 Codex 订阅的调用额度。如果有 GPT-5.5 的用量计划,建议提前锁定当前定价。