DeepSeek-V4 正式发布:1.6 万亿 MoE 参数,API 价格仅为 Opus 的 1/7

DeepSeek-V4 正式发布:1.6 万亿 MoE 参数,API 价格仅为 Opus 的 1/7

结论先行

DeepSeek-V4 不是渐进式升级,而是对现有市场定价体系的正面冲击。1.6 万亿参数、仅激活 370 亿、100 万上下文窗口、Apache 2.0 开源——这些规格本身已经足够震撼,但真正改变游戏规则的是 $3.48/M 输出 tokens 的 API 定价,直接把闭源前沿模型的价格打到了 1/7。

核心规格速览

指标DeepSeek-V4GPT-5.5Claude Opus 4.7
总参数1.6T未公开未公开
激活参数~37B未公开未公开
上下文窗口1,000,000128,000200,000
开源协议Apache 2.0闭源闭源
输入价格$0.35/M$2.50/M$15.00/M
输出价格$3.48/M$30.00/M$25.00/M
推理速度提升35x(对比前代)未公开未公开
能耗降低40%(对比前代)未公开未公开
多模态原生支持文本/图像/视频/音频

数据来源:DeepSeek 官方技术报告、各模型定价页面(2026 年 4 月)

为什么这个数字很重要

价格差距不是边际差异,是数量级差异。 当 DeepSeek-V4 Pro 的定价仅为 Opus 4.7 的 14%、GPT-5.5 的 11.6% 时,企业技术决策的逻辑就变了。

过去选择闭源 API 的理由是”开源能力不够”——但现在的 benchmark 数据显示,DeepSeek-V4 在编码任务上与 Opus 4.7 差距已不到 0.2 分。对于大多数生产场景,这 0.2 分的差距远不足以证明 7-9 倍的价格溢价是合理的。

架构拆解:MoE 为何能同时做到大且快

DeepSeek-V4 的 1.6 万亿参数是 MoE(Mixture of Experts)架构。关键点在于:

  1. 稀疏激活:每次推理只激活约 370 亿参数,占总参数的 2.3%。这意味着实际推理成本远低于全参数模型。
  2. 16 个专家路由:模型包含多个专业化”专家”子网络,根据输入自动路由到最相关的专家组合。
  3. 100 万 token 无损上下文:不同于许多模型的”有效上下文衰减”,DeepSeek-V4 声称在百万 token 级别仍保持完整注意力机制。

这对生产部署的含义:你可以在单台 8×H100 服务器上运行 DeepSeek-V4 推理,而闭源同等能力的模型需要调用远程 API。

实际用户反馈

4 月底上线后,早期用户反馈显示:

  • 响应速度:DeepSeek-V4 Pro 在同等推理任务中约 10 秒出结果,GPT-5.5 约 20 秒
  • 搜索+推理场景:要求强搜索和自我审核的问题,两者答案质量接近一致
  • API 集成:已支持接入 Claude Code 桌面版,扩展了使用场景

格局判断

DeepSeek-V4 的发布标志着三个趋势的交汇:

  1. 开源模型已跨越”够用”门槛:90% 能力差距 + 1/7 价格 = 多数企业场景的最优解
  2. MoE 架构成熟:稀疏激活让万亿参数模型可以在合理成本下部署
  3. API 价格战不可逆:闭源厂商必须回应,否则将失去中端市场

行动建议

你的场景建议
已有闭源 API 用量大、成本高先用 DeepSeek-V4 Pro 替换非关键路径的调用,预计可节省 60-80% API 费用
需要本地部署、数据不出企业DeepSeek-V4 Apache 2.0 开源权重可直接下载部署
需要极致编码能力(0.2 分差距对你很重要)暂保留 Opus 4.7 / GPT-5.5 用于核心编码场景
预算有限、需要大规模调用DeepSeek-V4 Pro 折扣延至 5 月 31 日,当前是最佳尝试窗口

DeepSeek 折扣优惠截止 2026 年 5 月 31 日。