在开源大模型阵营里,1T 级别参数、MIT 协议、面向 Agent 场景——这三个标签同时出现,意味着又有一个可以直接拿去跑生产环境的选择摆在了开发者面前。
4 月 28 日,小米正式开源了 MiMo-V2.5 系列,包含两个模型:Pro 版本总参数 1.02T(激活 42B),标准版本总参数 310B(激活 15B)。权重、tokenizer、模型卡全部放在 Hugging Face 上,MIT 协议——可以商用、可以二次训练、可以微调,不需要任何额外授权。
能力定位:不做全能选手,专注 Agent
MiMo-V2.5 系列的策略很明确:不在通用聊天能力上和 GPT、Claude 拼全维度,而是聚焦 Agent 场景——代码生成、工具调用、多步推理。
两个版本的基准成绩:
MiMo-V2.5-Pro 在 Agent 评测中的表现:
- SWE-bench Pro:57.2,接近 Claude Opus 4.6 水平
- Claw-Eval:63.8
- τ3-Bench:72.9
MiMo-V2.5(310B)在 Artificial Analysis 智能指数中达到 49 分,与 GPT-5.5 mini x-high 和 Grok 4.2 相当。Pro 版达到 54 分,与 GPT-5.3 Codex、Kimi K2.6 持平。
值得注意的是,在完成相同 Agent 任务时,Pro 版本消耗的 token 数量比对比模型少 40%-60%。这个指标比单纯的基准分数更有实际意义——意味着在同等算力预算下,你可以跑更多的任务轮次。
两个模型都支持 1M 上下文窗口,Base 和 Instruct 双版本发布。
小米的 AI 节奏
小米在大模型上的动作不算最激进的,但这次开源释放了几个信号。
第一,国内团队的 pre-train 能力已经不再是跟跑。MiMo-V2.5-Pro 在 SWE-bench Pro 上追平 Claude Opus 4.6,说明在代码 Agent 这个垂直赛道上,开源模型已经具备了和闭源前沿模型正面竞争的能力。
第二,小米选择 MIT 协议而非更严格的 Apache 2.0 或商业授权,降低了商用的心理门槛。对于需要本地部署、数据不出域的企业来说,这是一个可以直接放进选型清单的选项。
第三,同时启动的 MiMo Orbit「百万亿 Token 创造者激励计划」向开发者开放 API 额度——不是给钱,而是给算力。这种策略在效果上类似于早期云厂商的免费额度计划:先让开发者用起来,形成依赖,再看后续的商业模式。
谁该关注,谁可以等等
值得现在就去试的:
- 做 Agent 系统的团队,需要一个开源 baseline 来做对比和迭代
- 有 GPU 资源(多卡 A100/H100)且需要 1M 长上下文的场景
- 需要 MIT 协议确保商用自由的创业项目
可以再观察一下的:
- 实际部署的显存需求和推理速度——MoE 架构的激活参数看起来不高(42B/15B),但总参数意味着加载时需要足够的存储
- 社区实测的中文能力——基准测试以英文为主,中文表现需要独立验证
- 小米是否会持续迭代——一次开源不足以建立生态,需要看到后续的更新节奏
API 方面,小米 MiMo API 开放平台已上线两个模型,OpenCode 等平台已率先接入。