Xiaomi MiMo-V2.5 デュアルモデルオープンソース:1T パラメータ、1M コンテキスト、MIT ライセンス

Xiaomi MiMo-V2.5 デュアルモデルオープンソース:1T パラメータ、1M コンテキスト、MIT ライセンス

オープンソースLLM阵营で、1Tレベルのパラメータ、MITライセンス、Agentワークロード向け――これら3つのラベルが同時に出現するということは、開発者がそのまま本番環境に投入できる選択肢がもう一つ増えたことを意味します。

4月28日、XiaomiはMiMo-V2.5シリーズを正式にオープンソース化しました。2つのモデルを含む:Pro版は総パラメータ1.02T(アクティブ42B)、標準版は総パラメータ310B(アクティブ15B)。重み、tokenizer、モデルカードがすべてHugging Faceに公開され、MITライセンスの下で商用利用、継続的な訓練、ファインチューニングが追加認可なしで許可されています。

能力ポジショニング:全能選手ではなく、Agentに注力

MiMo-V2.5シリーズの戦略は明確です:汎用チャット能力でGPTやClaudeと全次元で競うのではなく、Agentシナリオ――コード生成、ツール使用、多段推論――に焦点を当てています。

MiMo-V2.5-ProのAgentベンチマーク:

  • SWE-bench Pro:57.2、Claude Opus 4.6に接近
  • Claw-Eval:63.8
  • τ3-Bench:72.9

MiMo-V2.5(310B)はArtificial Analysisインテリジェンス指数で49点を記録し、GPT-5.5 mini x-highおよびGrok 4.2に相当。Pro版は54点で、GPT-5.3 Codex、Kimi K2.6に匹敵します。

注目すべきは、同じAgentタスクを完了する際、Pro版が同等モデルより40%-60%少ないトークンを消費することです。この指標は生ベンチマークスコアよりも実際的な意味を持ちます――同じコンピューティング予算でより多くのタスクサイクルを実行できることを意味します。

両モデルとも1Mコンテキストウィンドウをサポートし、BaseとInstructのデュアルバージョンでリリースされています。

誰が注目すべきか、誰が待てるか

今すぐ試すべき人

  • Agentシステムを構築しているチーム。比較とイテレーションのオープンソースベースラインが必要
  • GPUリソース(マルチカードA100/H100)があり、1M長コンテキストが必要
  • 商用の自由を確保するためにMITライセンスが必要なスタートアップ

もう少し観察してよい人

  • 実際のVRAM要件と推論速度――MoEアーキテクチャのアクティブパラメータは低く見える(42B/15B)が、総パラメータはロード時に十分なストレージが必要
  • 中国語能力――ベンチマークは英語中心。中国語の表現は独立した検証が必要
  • Xiaomiが継続的にイテレーションするかどうか――一度のオープンソースではエコシステムは構築できない。更新のリズムが重要

API面では、Xiaomi MiMo API開放プラットフォームに2つのモデルが上线し、OpenCodeなどが率先して接入しています。

主要ソース