MiMo V2.5 Pro вошёл в верхний эшелон Intelligence Index: амбиции модели ModelBest с 1T MoE

MiMo V2.5 Pro вошёл в верхний эшелон Intelligence Index: амбиции модели ModelBest с 1T MoE

Ключевой вывод

MiMo V2.5 Pro от ModelBest с архитектурой 1T MoE и контекстным окном до 1 млн токенов набирает 54 балла в Intelligence Index, разделяя позицию с Kimi K2.6 на вершине китайских open-source моделей. В глобальном сравнении GPT-5.5 набирает 60 баллов, Gemini и Claude — 57.

Это не история «чем больше параметров, тем лучше», а сигнал о том, что китайские модели одновременно продвигаются по двум направлениям: эффективность MoE-архитектуры и сверхдлинный контекст.

Ключевые данные MiMo V2.5 Pro

ПараметрMiMo V2.5 ProKimi K2.6DeepSeek V4 ProGPT-5.5
Intelligence Index54545260
Общее кол-во параметров1T (MoE)1T (MoE)1.6T (MoE)Неизвестно
Активные параметры~54BНеизвестно49BНеизвестно
Макс. контекст1M токенов1M токенов1M токеновНеизвестно
СтатусOpen WeightsOpen WeightsOpen WeightsЗакрытая
ПроизводительModelBestMoonshotDeepSeekOpenAI

Стратегический путь ModelBest

ModelBest выбрал путь, отличный от Baidu, Alibaba и ByteDance:

  • Не конкурирует по абсолютному размеру параметров: 1T MoE вместо 1.6T, достижение равных или более высоких баллов с меньшим общим числом параметров
  • Фокус на контекстных окнах: 1M токенов напрямую конкурирует с Kimi K2.6 и DeepSeek V4 Pro
  • Стратегия Open Weights: Разница с закрытой GPT-5.5 (60 баллов) составляет всего 6 пунктов, при этом open weights позволяют сообществу развёртывать и дообучать модель на потребительском оборудовании

Рекомендации

  • Анализ длинных документов: Контекст 1M MiMo V2.5 Pro подходит для обработки юридических/финансовых документов в сотни страниц
  • Развёртывание на GPU потребителей: 54B активных параметров позволяют запускать Q4-квантованную модель на 48GB VRAM (двойная RTX 4090 или A6000)
  • Выбор между DeepSeek V4 Pro и MiMo: Для снижения стоимости API — DeepSeek V4 Pro со скидкой 2.5x; для open-source экосистемы — MiMo V2.5 Pro