Модели с открытыми весами доминируют на границе Парето: 9 из 13 позиций заняты китайским open-source сообществом

Модели с открытыми весами доминируют на границе Парето: 9 из 13 позиций заняты китайским open-source сообществом

Open Source больше не просто «дешёвый» — он начинает побеждать

Долгое время ярлык «модели с открытым исходным кодом» всегда связывался с «экономичностью» и «альтернативой». Но в первую неделю мая 2026 года этот нарратив полностью переворачивается.

Последние данные от Artificial Analysis показывают: на границе Парето Intelligence vs Price 9 из 13 позиций заняты моделями с открытыми весами. Более того, эта граница Парето не доминируется одной компанией — она коллективно удерживается китайским open-source сообществом.

Текущая панорама границы Парето

МодельОрганизацияИндекс интеллектаТипGDPval-AA
GPT-5.5OpenAI60Закрытая-
Gemini / ClaudeGoogle/Anthropic57Закрытая-
Kimi K2.6Moonshot54Открытые веса1484
MiMo V2.5 ProXiaomi54Открытые веса1578
DeepSeek V4 ProDeepSeek52Открытые веса1554
GLM-5.1Zhipu~50Открытые веса1535
MiniMax M2.7MiniMax~49Открытые веса1514

Ключевые наблюдения:

  • Kimi K2.6 и MiMo V2.5 Pro делят 54 балла — потолок для моделей с открытыми весами
  • Обе превышают некоторые закрытые модели по GDPval-AA (реальные Agent-задачи)
  • DeepSeek V4 Pro следует вплотную с 52 баллами, при этом API-цены — доля от GPT-5.5

Взрывной скачок за одну неделю

Этот твит резюмирует изменение ландшафта за прошлую неделю:

Open Weights Capabilities have Exploded in the Last Week!

Kimi K2.6 & MiMo V2.5 Pro: 54 (1T MoE, up to 1M ctx) DeepSeek V4 Pro: 52 (1.6T/49B) GPT-5.5: 60 Gemini/Claude: 57

Всего за одну неделю три китайские open-source модели одновременно ворвались в топ-10 Индекса интеллекта — немыслимое год назад.

Что это значит

1. Открытые веса пересекли порог «достаточно хороши»

Когда open модели достигают 90%+ от закрытых моделей по Индексу интеллекта (54 против 60), стоя при этом в 10 раз дешевле, «премия за закрытый исходный код» становится всё труднее обосновать.

2. Китайские модели сформировали open-source матрицу

Не точечный прорыв, а матричное окружение:

ИзмерениеЛидерПреимущество
Общий интеллектKimi K2.6 / MiMo V2.5 ProДелят #54
Agent-способностиMiMo V2.5 ProGDPval-AA 1578
Длина контекстаDeepSeek V4 Pro1M+ context
Способность к кодингуGLM-5.1SWE-Bench 94-95% уровня Opus
ЦенаDeepSeek V4 ProАктивна скидка 75%

Рекомендации к действию

Для технических руководителей, выбирающих модели:

  • Если бюджет ограничен: DeepSeek V4 Pro (скидка 75% до 31 мая) — самый экономичный выбор прямо сейчас
  • Если нужны Agent-способности: MiMo V2.5 Pro лидирует по GDPval-AA, лицензия MIT для unrestricted коммерческого использования
  • Если нужен длинный контекст: Kimi K2.6 и MiMo V2.5 Pro поддерживают до 1M context
  • Если нужны самые передовые capabilities: закрытые модели (GPT-5.5, Claude 5) всё ещё имеют преимущество в 5-6 баллов по интеллекту

Модели с открытыми весами больше не «приемлемый вариант» — на границе Парето они становятся «первым выбором».