Вывод в первую очередь
DeepSeek-V4 — это не постепенное обновление, а прямой вызов существующей системе ценообразования на рынке. 1.6 трлн параметров, активация лишь 37 млрд, контекстное окно 1 млн, открытый исходный код Apache 2.0 — сами по себе эти характеристики впечатляют. Но по-настоящему меняет правила игры цена API: $3.48/млн выходных токенов, что снижает стоимость моделей закрытого типа в 7 раз.
Обзор характеристик
| Показатель | DeepSeek-V4 | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| Общее количество параметров | 1.6T | Не раскрывается | Не раскрывается |
| Активированные параметры | ~37B | Не раскрывается | Не раскрывается |
| Контекстное окно | 1,000,000 | 128,000 | 200,000 |
| Открытый код | Apache 2.0 | Закрытый | Закрытый |
| Цена ввода | $0.35/млн | $2.50/млн | $15.00/млн |
| Цена вывода | $3.48/млн | $30.00/млн | $25.00/млн |
| Скорость инференса | В 35 раз быстрее (по сравнению с предыдущим поколением) | Не раскрывается | Не раскрывается |
| Снижение энергопотребления | 40% (по сравнению с предыдущим поколением) | Не раскрывается | Не раскрывается |
| Мультимодальность | Нативная поддержка текста/изображений/видео/аудио | Да | Да |
Источник: официальный технический отчёт DeepSeek, страницы цен моделей (апрель 2026)
Почему эта цифра важна
Разница в цене — не маргинальная, а на порядок. Когда DeepSeek-V4 Pro стоит всего 14% от Opus 4.7 и 11.6% от GPT-5.5, логика принятия технологических решений на предприятиях фундаментально меняется.
Прежнее обоснование выбора закрытых API было «open source недостаточно хорош» — но данные бенчмарков показывают, что разрыв DeepSeek-V4 с Opus 4.7 в задачах кодирования составляет менее 0.2 балла. Для большинства производственных сценариев этот разрыв в 0.2 балла никак не оправдывает 7-9-кратную ценовую премию.
Разбор архитектуры: почему MoE может быть одновременно большим и быстрым
1.6 трлн параметров DeepSeek-V4 используют архитектуру MoE (Mixture of Experts). Ключевые моменты:
- Редкая активация: При каждом инференсе активируется только ~37 млрд параметров — 2.3% от общего числа. Это означает, что реальная стоимость инференса значительно ниже моделей с полным набором параметров.
- 16 экспертных маршрутизаторов: Модель содержит несколько специализированных «экспертных» подсетей, автоматически направляющих запрос к наиболее релевантным экспертам.
- Контекст 1 млн токенов без потерь: В отличие от многих моделей с «эффективным затуханием контекста», DeepSeek-V4 утверждает, что сохраняет полный механизм внимания на уровне миллиона токенов.
Значение для производственного развёртывания: DeepSeek-V4 можно запустить на одном сервере с 8×H100, в то время как закрытые аналоги требуют вызовов удалённого API.
Отзывы ранних пользователей
После запуска в конце апреля ранние пользователи сообщают:
- Скорость отклика: DeepSeek-V4 Pro выдает результаты за ~10 секунд для сопоставимых задач, GPT-5.5 — за ~20 секунд
- Поиск + рассуждение: Для запросов, требующих мощного поиска и самопроверки, качество ответов сопоставимо
- Интеграция API: Поддерживается интеграция с настольной версией Claude Code
Оценка ландшафта
Выпуск DeepSeek-V4 знаменует слияние трёх трендов:
- Модели с открытым кодом перешли порог «достаточно хороших»: 90% мощности + 1/7 цены = оптимальное решение для большинства корпоративных сценариев
- Зрелость архитектуры MoE: Редкая активация позволяет разворачивать триллионные модели при разумных затратах
- Ценовая война API необратима: Закрытые поставщики должны ответить, иначе потеряют средний сегмент рынка
Рекомендации к действию
| Ваш сценарий | Рекомендация |
|---|---|
| Большое использование закрытых API, высокие затраты | Сначала замените вызовы некритичных путей на DeepSeek-V4 Pro — ожидается экономия 60-80% на API |
| Нужно локальное развёртывание, данные не покидают предприятие | Открытые веса DeepSeek-V4 (Apache 2.0) можно загрузить и развернуть напрямую |
| Нужна максимальная способность к кодированию (разница 0.2 балла важна) | Сохраните Opus 4.7 / GPT-5.5 для ключевых задач кодирования |
| Ограниченный бюджет, массовые вызовы | Скидка DeepSeek-V4 Pro продлена до 31 мая — оптимальное окно для тестирования |
Скидка DeepSeek действительна до 31 мая 2026 года.