Что произошло
Отчёт State of AI за май 2026 года раскрыл ключевое обнаружение:
И Claude Mythos Preview от Anthropic, и GPT-5.5 от OpenAI прошли 32-этапную симуляцию полного корпоративного сетевого вторжения, разработанную Британским институтом безопасности ИИ (UK AISI) — и это было сделано без какой-либо защиты.
Это означает: самые передовые модели ИИ на сегодняшний день обладают способностью самостоятельно выполнять сложные корпоративные сетевые вторжения.
Сравнение данных: кривая роста способностей ИИ к кибератакам
| Период | Веха способностей | Темп роста |
|---|---|---|
| 2025 Q1 | ИИ может генерировать фишинговые письма | Базовый уровень |
| 2025 Q3 | ИИ может обнаруживать известные уязвимости | 3x |
| 2025 Q4 | ИИ может писать простые эксплойты | 5x |
| 2026 Q1 | ИИ может пройти 16-этапную симуляцию вторжения | 10x |
| 2026 Q2 | ИИ может пройти полное 32-этапное вторжение | 20x |
Вывод оценки UK AISI: способности ИИ к кибератакам удваиваются каждые 4 месяца.
Что включает 32-этапная симуляция?
32-этапная симуляция корпоративного сетевого вторжения UK AISI охватывает полную цепочку атаки:
| Фаза | Шаги | Типичные действия |
|---|---|---|
| Разведка | 1-6 | Сбор информации, сканирование портов, анализ социальной инженерии |
| Первоначальный доступ | 7-12 | Эксплуатация уязвимостей, фишинг, получение учётных данных |
| Повышение привилегий | 13-18 | Локальное повышение привилегий, дамп учётных данных |
| Боковое перемещение | 19-24 | Проникновение во внутреннюю сеть, доступ к контроллеру домена |
| Эксфильтрация данных | 25-32 | Обнаружение данных, упаковка, передача наружу |
Модели ИИ могут автономно выполнить все 32 шага без вмешательства человека.
График соответствия: безопасность ИИ больше не является выбором
| Регулирование | Дата вступления в силу | Ключевые требования | Максимальный штраф |
|---|---|---|---|
| Colorado AI Act | Июнь 2026 | Оценка рисков систем ИИ, раскрытие информации о прозрачности | По законодательству штата |
| EU AI Act | Август 2026 | Классификация рисков, строгий контроль ИИ высокого риска | 35 млн € или 7% глобального дохода |
| Рамки UK AISI | Постоянное обновление | Оценка безопасности передовых моделей, тестирование красной командой | Саморегулирование отрасли + государственный надзор |
Для предприятий, разрабатывающих и развёртывающих передовые модели ИИ, это больше не «лучшая практика» — это юридически обязательно.
Оценка ландшафта
-
Безопасность ИИ превращается из технической проблемы в проблему соответствия. Развёртывание корпоративного ИИ должно иметь полные процессы оценки безопасности, иначе возникнут юридические риски.
-
Рост способностей к атаке далеко опережает рост способностей к защите. Когда способности ИИ к атаке удваиваются каждые 4 месяца, традиционная защита в стиле «патч и исправление» больше недостаточна. Необходимы автоматизированные системы защиты ИИ против ИИ.
-
Оценка безопасности моделей с открытым исходным кодом — серая зона. UK AISI оценивает закрытые передовые модели, но модели с открытым исходным кодом (такие как Qwen 3.6, DeepSeek V4, Llama 4) обладают теми же способностями — кто оценивает их?
Руководство к действию
- Корпоративное развёртывание ИИ: немедленно начните самопроверку соответствия требованиям безопасности ИИ, особенно для ИИ-агентов, связанных с сетевыми операциями и доступом к данным
- Разработчики ИИ: внедрите выравнивание безопасности (safety alignment) во время обучения моделей, чтобы предотвратить использование моделей в злонамеренных целях
- Команды безопасности: разверните системы обнаружения вторжений на базе ИИ — боритесь с ИИ с помощью ИИ
Эпоха ИИ в кибератаке и защите наступила. Красная линия — это не одна линия — это целая система защиты, которую необходимо перепроектировать с нуля.