主要ポイント
Xiaomiは2026年4月下旬に2つの大規模言語モデルをオープンソース化しました。MoEアーキテクチャを採用し、1Tと310Bのパラメータスケールをカバーし、どちらも百万レベルのTokenコンテキストウィンドウをサポートしています。
モデル仕様とアーキテクチャ
| 項目 | MiMo-V2.5-Pro | MiMo-V2.5 |
|---|---|---|
| 総パラメータ | 1T | 310B |
| アクティブパラメータ | 42B | 15B |
| コンテキストウィンドウ | 1M Token | 1M Token |
| アーキテクチャ | MoE | MoE |
| ライセンス | MIT | MIT |
| 位置づけ | 複雑Agent + SE | マルチモーダルAgent |
| 商用利用 | ✅ 追加許可不要 | ✅ 追加許可不要 |
競合オープンモデルとの比較
| モデル | 総パラメータ | アクティブ | コンテキスト | ライセンス |
|---|---|---|---|---|
| MiMo-V2.5-Pro | 1T | 42B | 1M | MIT |
| Kimi K2.6 | 1T | 32B | 1M | オープンソース |
| DeepSeek-V4 | 1.6T | 49B | - | オープンソース |
Intelligence Indexでは、MiMo V2.5 Proは約54点、GPT-5.5(60点)に後れを取りますが、Kimi K2.6との差は小さくなっています。
100T Tokenインセンティブプログラム
MiMo Orbit 開発者インセンティブプログラム:
- 最大額: 16億Token
- 審査: GitHubのアクティビティとAI利用履歴に基づく自動審査
- 承認速度: 約1分で承認(ユーザー報告)
- 対象: 高品質AIアプリ開発者
アクション推奨
| シナリオ | 推奨 | 理由 |
|---|---|---|
| ローカルAgentデプロイ | MiMo-V2.5(15Bアクティブ) | VRAM要件が低い |
| 複雑なコーディング | MiMo-V2.5-Pro | ソフトウェアエンジニアリング向け設計 |
| 商用アプリケーション | どちらでも | MITライセンス、追加許可不要 |
| 開発者テスト | MiMo Orbit無料枠 | ゼロコストでモデル能力を検証 |