C
ChaoBro

EU AI Act вступает в силу 2 августа: штрафы до 7% глобальной выручки, ваш продукт ИИ соответствует требованиям

EU AI Act вступает в силу 2 августа: штрафы до 7% глобальной выручки, ваш продукт ИИ соответствует требованиям

Вывод: Обратный отсчёт 90 дней, соответствие требованиям ИИ переходит из «рекомендации» в «обязательное»

До вступления в силу обязательств по прозрачности статьи 50 EU AI Act осталось менее 90 дней. С 2 августа 2026 года все продукты ИИ, работающие в ЕС — как для внутреннего, так и для внешнего использования — должны соответствовать требованиям прозрачности, иначе столкнутся со штрафами до 7% глобальной выручки.

Это не «рекомендация», не «лучшая практика», а юридическое требование.

Кого это затрагивает?

Проще говоря: практически всех.

СценарийЗатрагиваетсяОбъяснение
Продукты ИИ для пользователей ЕСНезависимо от местоположения штаб-квартиры компании
Инструменты ИИ, используемые внутри компаниями ЕСВнутренние инструменты также требуют соответствия
Вызовы API, обрабатывающие данные пользователей ЕСКаждое звено в цепи обработки данных
Модели ИИ с открытым исходным кодом⚠️Зависит от метода развёртывания
Чисто исследовательское использованиеАкадемические исследования обычно exempted

Ключевой момент: Даже если ваша компания зарегистрирована в Китае, США или любом не-ЕС регионе, пока ваши продукты ИИ обслуживают пользователей ЕС или обрабатывают данные ЕС, вы должны соответствовать требованиям.

Конкретные требования статьи 50

Три основных обязательства

  1. Маркировка контента ИИ

    • Контент, созданный ИИ, должен быть чётко маркирован
    • Включает текст, изображения, аудио, видео
    • Маркировка должна быть чётко видна, не скрыта в пользовательских соглашениях
  2. Цифровые водяные знаки

    • Медиа, созданные ИИ, должны содержать обнаруживаемые водяные знаки
    • Водяные знаки должны быть идентифицируемы стандартными инструментами
    • Даже если пользователи удалят водяные знаки, система всё равно должна иметь возможность отслеживания
  3. Журналы аудита

    • Записывать ключевую информацию о решениях ИИ
    • Включает входные данные, версию модели, результаты вывода
    • Журналы должны храниться достаточно долго для регуляторной проверки

Дополнительные требования для систем ИИ высокого риска

Если ваша система ИИ классифицируется как «высокий риск» (здравоохранение, найм, правоохранительные органы, критическая инфраструктура и т.д.), также требуются:

  • Способность объяснения решений
  • Методы формальной верификации
  • Механизмы человеческого надзора
  • Регулярные аудиты соответствия

Структура штрафов

Тип нарушенияЛимит штрафаТипичный случай
Использование запрещённых систем ИИ7% глобальной выручкиСоциальный кредитный скоринг, удалённая биометрическая идентификация в реальном времени
Несоответствие обязательствам по прозрачности3% глобальной выручкиКонтент, созданный ИИ, без маркировки
Предоставление ложной информации1,5% глобальной выручкиЛожные заявления о соответствии

Примечание: 3% глобальной выручки для крупных предприятий могут означать миллиарды долларов. Это не вопрос «заплатить штраф и продолжать работу», а риск, который может поколебать финансовую основу компании.

Контрольный список действий: Шаги по соответствию, которые необходимо завершить в течение 90 дней

Дни 1-30: Оценка и картирование

  • Инвентаризация всех продуктов ИИ, работающих в ЕС
  • Определение классификации рисков для каждого продукта
  • Выявление конкретных пробелов в соответствии
  • Назначение сотрудника по соответствию

Дни 31-60: Техническая реализация

  • Внедрение системы маркировки контента
  • Развёртывание решения для водяных знаков
  • Создание механизма ведения журналов аудита
  • Обновление пользовательского интерфейса для отображения идентификации ИИ

Дни 61-90: Верификация и документация

  • Внутренний аудит соответствия
  • Оценка соответствия третьей стороной (системы высокого риска)
  • Подготовка документации по соответствию
  • Обучение сотрудников

Влияние на китайские компании, выходящие на глобальный рынок

Для китайских компаний ИИ, нацеленных на европейский рынок, это не просто технический вопрос:

  1. Время ограничено: 90 дней недостаточно для создания системы соответствия с нуля
  2. Технический барьер: Системы водяных знаков и журналов требуют инженерных инвестиций
  3. Юридический риск: Не familiarity с правовой системой ЕС может привести к недооценке риска
  4. Конкурентная возможность: Способность соответствия сама по себе может стать преимуществом дифференциации на рынке

Рекомендуемые практические инструменты

  • Инструмент самооценки соответствия: Официальный EU AI Act предоставляет опросник самооценки соответствия
  • Решение для водяных знаков: Стандарт C2PA становится общим отраслевым подходом
  • Фреймворк журналов: Фреймворки аудита журналов ИИ с открытым исходным кодом уже доступны
  • Юридическая консультация: Рекомендуется заранее связаться с юридическими консультантами, знакомыми с регулированием ИИ в ЕС

Соответствие требованиям ИИ переходит из «приятно иметь» в «необходимо для выживания». Через 90 дней продукты ИИ без маркировки соответствия столкнутся с существенным риском на европейском рынке. Начните подготовку сейчас, и ещё есть время.