Сначала вывод
Moonshot AI 29 апреля незаметно выпустила обновление Kimi Super-Context, увеличив окно контекста до 20 миллионов токенов — одного из самых длинных публично доступных окон контекста, эквивалентного одновременному чтению 15 000 страниц документов или примерно 15 миллионов китайских иероглифов.
Ключевым является не само число, а прорыв Moonshot AI в решении ключевой проблемы — «точность поиска при сверхдлинном контексте»: поддержание полноты поиска needle-in-haystack свыше 98% в диапазоне 20 миллионов токенов.
Что такое 20 миллионов токенов?
| Сценарий | Ограничение традиционных моделей | Kimi Super-Context | Практическое значение |
|---|---|---|---|
| Технические руководства | 1–2 за раз | Вся библиотека (~500 книг) | Нет необходимости разделять документы |
| Юридические дела | Требуется суммаризация | Полные дела + база прецедентов | Снижение потери информации |
| Репозитории кода | Частичные файлы | Весь код проекта среднего размера | Глобальное понимание архитектуры |
| Финансовый анализ | Один отчёт | Многолетнее + многокомпаний сравнение | Кросс-документное рассуждение |
Возьмём юридический сценарий в качестве примера: дело среднего судебного разбирательства обычно включает от 50 000 до 100 000 страниц материалов. Окно в 20 миллионов токенов Kimi достаточно для размещения всего дела вместе с соответствующими базами прецедентов и нормативными актами — это означает, что ИИ может рассуждать на основе полной информации, а не быть вынужденным сжимать и суммировать, как раньше.
Технический подход: не «больше», а «умнее»
Технический маршрут Moonshot AI имеет несколько ключевых отличий:
1. Иерархическая архитектура внимания Вместо простого расширения KV-кэша строится многоуровневый механизм внимания — области с высокой частотой доступа сохраняют полное внимание, тогда как области с низкой частотой используют сжатые представления. Это обеспечивает рост потребления памяти значительно ниже линейного.
2. Динамическая маршрутизация контекста Модель автоматически выбирает стратегию обработки контекста в зависимости от типа задачи:
- Режим интенсивного чтения: полное внимание для критических пассажей
- Режим сканирования: разреженное внимание для некритических областей
- Гибридный режим: чередование обоих
3. Поисково-усиленный гибридный подход Встроенный механизм поиска всё ещё развёрнут внутри 20 миллионов токенов, но это не традиционный «сначала поиск, затем ответ», а «поиск во время рассуждения» — модель динамически определяет, какой контекст требует пристального внимания в процессе генерации.
Сравнение с возможностями контекста текущих основных моделей
| Модель | Окно контекста | Дата выпуска | Основная позиция |
|---|---|---|---|
| Kimi Super-Context | 20M | 29.04.2026 | Анализ сверхдлинных документов |
| Gemini 3.1 Ultra | 2M | 2026.04 | Мультимодальный длинный текст |
| Claude Opus 4.7 | 1M | 2026.04 | Глубокое рассуждение |
| GPT-5.5 | 128K | 23.04.2026 | Общий диалог |
| Qwen 3.6 Max | 131K | 2026.03 | Кодирование + рассуждение |
20M Kimi — это в 10 раз больше, чем 2M Gemini, и в 20 раз больше, чем 1M Claude. Но размер окна не равен реальной эффективности — ключевой вопрос в том, решена ли проблема «разбавления внимания» модели при сверхдлинном контексте. Moonshot AI заявляет о полноте свыше 98% в тесте Needle-in-Haystack, но результаты независимой проверки ещё не опубликованы.
Практическое влияние на разработчиков и предприятия
Сценарии, которые стоит попробовать немедленно:
- 📋 Проверка контрактов: Введите всю библиотеку контрактов + историю изменений за раз, пусть ИИ выявит шаблоны рискованных условий
- 📚 Построение базы знаний: Загрузите все технические документы предприятия в Kimi, создайте «живую базу знаний», доступную для запросов на естественном языке
- 🔬 Обзор научной литературы: Введите все ключевые статьи в области за раз, создайте систематический обзор
Сценарии, которые пока не рекомендуются:
- 🎯 Цитирование на уровне абзацев, требующее точности (точность локализации при сверхдлинном контексте всё ещё колеблется)
- 💻 Приложения, чувствительные к задержкам (задержка первого токена для 20 миллионов токенов значительно выше, чем для короткого контекста)
Оценка конкурентного ландшафта
Стратегический замысел Moonshot AI с этим обновлением ясен: в гонке за длину контекста китайские модели борются за глобальное лидерство.
Но длинный контекст — лишь одно измерение capabilities. Реальные конкурентные измерения расходятся в трёх направлениях:
- Длина (лидирует Kimi)
- Мультимодальная интеграция (лидирует Gemini)
- Глубина рассуждений (лидирует Claude)
Для пользователей это не вопрос «какой лучший», а «какой лучше всего подходит для вашего сценария». Если ваша работа связана с обработкой массивных документов, Kimi Super-Context — наиболее достойный внимания вариант на данный момент.