Главный вывод
MiniMax M2.7 — не просто модель с большим количеством параметров. Ключевая инновация: модель активно участвует в собственной тренировке через сложные Agent Harness для RL, достигая «самообучения».
Технические детали
| Параметр | Описание |
|---|---|
| Парадигма обучения | Agent Harness-управляемое самообучение через RL |
| Кодирование | SWE-Pro приближается к Opus |
| Agent-способности | Сложные многошаговые Agent-воркфлоу |
| Цена | Вход 2.1 юаня/миллион токенов (~$0.3) |
| API | Совместим с OpenAI |
Сравнение
| Модель | SWE-Pro | Цена (вход/млн токенов) | Соотношение |
|---|---|---|---|
| Claude Opus 4.7 | Базовая | ~$15-75 | 1.0x |
| MiniMax M2.7 | Приближается к Opus | ~$0.3 | 50x+ |
| DeepSeek V4 Pro | Отлично | ~$0.55 | 27x |
Рекомендации
Подходит для
- SWE-задачи: баг-фиксы, рефакторинг, реализация функций
- Agent-воркфлоу: многошаговое рассуждение и вызов инструментов
- Проекты с ограниченным бюджетом
Не подходит для
- Творческое письмо: M2.7 оптимизирован для кодинга
- Safety-критичные приложения: интерпретируемость самообучения требует проверки
Перспектива
Маршрут «самообучения» MiniMax M2.7 может стать ключевым направлением во второй половине 2026 года. Для разработчиков — отличный момент для тестирования near-Opus кодинга по минимальной цене.