Xiaomi MiMo-V2.5 Две Модели с Открытым Исходным Кодом: 1T MoE + 310B MoE, Контекст 1M, Программа Стимулирования 100T Токенов

Xiaomi MiMo-V2.5 Две Модели с Открытым Исходным Кодом: 1T MoE + 310B MoE, Контекст 1M, Программа Стимулирования 100T Токенов

Основные Выводы

Xiaomi открыла исходный код двух больших языковых моделей в конце апреля 2026 года с архитектурой MoE, охватывающей масштабы 1T и 310B параметров, обе поддерживают контекст в миллионы токенов.

Спецификации и Архитектура

ПараметрMiMo-V2.5-ProMiMo-V2.5
Общее кол-во параметров1T310B
Активные параметры42B15B
Окно контекста1M токенов1M токенов
АрхитектураMoEMoE
ЛицензияMITMIT
ПозиционированиеСложный Agent + SEМультимодальный Agent
Коммерческое использование✅ Без доп. лицензии✅ Без доп. лицензии

Сравнение с Конкурирующими Моделями

МодельПараметрыАктивныеКонтекстЛицензия
MiMo-V2.5-Pro1T42B1MMIT
Kimi K2.61T32B1MОткрытый код
DeepSeek-V41.6T49B-Открытый код

По Intelligence Index MiMo V2.5 Pro набирает ~54 балла, уступая GPT-5.5 (60 баллов), но разрыв с Kimi K2.6 минимален.

Программа Стимулирования 100T Токенов

MiMo Orbit — программа стимулирования разработчиков:

  • Максимум: 1,6 млрд токенов
  • Рассмотрение: Автоматическое на основе активности GitHub
  • Скорость: ~1 минута (по отзывам пользователей)
  • Целевая аудитория: Разработчики качественных AI-приложений

Рекомендации

СценарийРекомендацияПричина
Локальный AgentMiMo-V2.5 (15B активных)Низкие требования к VRAM
Сложное программированиеMiMo-V2.5-ProДля разработки ПО, 1M контекст
Коммерческое применениеЛюбаяЛицензия MIT, без ограничений
ТестированиеБесплатные токены MiMo OrbitНулевая стоимость оценки