xAI одновременно тренирует 7 моделей Grok на Colossus 2, до 10T параметров

xAI одновременно тренирует 7 моделей Grok на Colossus 2, до 10T параметров

Основной вывод

xAI одновременно обучает 7 различных моделей Grok на кластере Colossus 2 — крупнейший план параллельного обучения, раскрытый публично. В сочетании с только что выпущенным Grok 4.3, занявшим первое место в бенчмарках agent-вызова инструментов, xAI строит полную матрицу моделей от легких до ультрабоьших.

Обзор масштаба обучения

Согласно раскрытой информации на платформе X, текущая матрица моделей, обучаемых на Colossus 2:

Кодовое имяПараметрыПозиционированиеКонкуренты
Текущий Grok0.5T (500B)Существующий флагманGPT-5.5, Claude Opus 4.7
Grok 5 Small1TЭффективный инференсGemini 2.5 Pro
Grok 5 Mid1.5TБаланс производительностиClaude Sonnet 4.5
Grok 5 Large6TГлубокое рассуждениеGPT-6 (ожидается)
Grok 5 Max10TПиковая производительностьНет прямого конкурента

10T-параметрический Grok 5 Max, если успешно обучен, станет крупнейшей единой языковой моделью в мире.

Colossus 2: Инфраструктура обучения

Colossus 2 — ультрабоьшой GPU-кластер xAI в Мемфисе:

  • Масштаб GPU: 200 000+ NVIDIA H100/B200 GPU
  • Сеть: Кастомная архитектура InfiniScale
  • Электропитание: Выделенная подстанция, пиковое потребление более 500 МВт
  • Охлаждение: Полное жидкостное охлаждение, PUE ниже 1.1

Grok 4.3: Уже доступные возможности

Grok 4.3, выпущенный в начале мая 2026:

  • Agentic Tool Calling #1: Первое место в оценке agent-вызова инструментов
  • Скорость инференса: 100 токенов/секунду
  • Контекстное окно: 1M токенов
  • Цена: $1.25/MTok ввод

Рекомендации

Ваша рольФокус
Agent-разработчикиНачните с Grok 4.3 — низкая цена, лидирующая производительность
Корпоративный выбор технологийСледите за Grok 5 Small/Mid
ИсследователиАрхитектура параллельного обучения Colossus 2
ИнвесторыПуть коммерциализации 10T модели

Сроки: Grok 5 Small/Mid ожидаются через 3-6 месяцев, Large/Max через 6-12 месяцев.