4 月下旬,DeepSeek 发布开源模型 V4,参数量达到 1.6 万亿,支持最高 100 万 Token 上下文窗口。这是全球最大规模的开源模型之一,在参数规模和上下文能力上都追平了顶级闭源系统的规格。
核心规格
DeepSeek V4 提供了多个版本:
| 版本 | 特点 | 价格 |
|---|---|---|
| V4 | 完整 1.6T 参数版本 | 开源 |
| V4-Pro | 优化版,适合生产环境 | API 调用约 $1,071(Artificial Analysis 评测总成本) |
| V4-Flash | 轻量高速版 | 价格约为 GPT-5.5 的 1/166 |
V4-Pro 在 Artificial Analysis Index 上的评测成本为 $1,071,显著低于 GPT-5.5 (xhigh) 的 $3,357 和 Claude Opus 4.7 的 $4,811。这意味着在需要大规模评测或批量处理时,DeepSeek 的成本优势非常明显。
开源生态的影响
1.6 万亿参数的完全开源模型,对 AI 行业有几个直接含义:
- 自部署门槛降低:企业和研究机构可以在自有基础设施上运行接近顶级水平的模型,减少对闭源 API 的依赖
- 微调成本下降:开源权重意味着任何团队都可以针对垂直领域做精细调优,而无需从零训练
- 上下文窗口竞赛:100 万 Token 的上下文能力使得长文档处理、代码库理解和多轮对话成为可能
与同周竞品的对比
本周是 2026 年最密集的模型发布周之一,四大模型同场竞技:
- 写代码:Claude Opus 4.7 领先(SWE-Bench 87.6%)
- 推理:GPT-5.5 领先(Terminal-Bench 82.7%)
- 性价比:DeepSeek V4-Flash 碾压性优势
- 规模:DeepSeek V4 的 1.6T 参数在四大模型中最大
这意味着不存在”全能冠军”,开发者需要根据具体场景做选择。
快速上手
DeepSeek V4 已在 HuggingFace 和 ModelScope 上开源,开发者可以通过以下方式快速体验:
pip install transformers
# 或使用 DeepSeek 官方 SDK 进行 API 调用
对于预算有限但需要接近旗舰性能的团队,DeepSeek V4 系列值得认真评估。