Второй ботинок регулирования ИИ в Китае упал.
30 апреля Управление киберпространства Китая (CAC) выпустило уведомление о развёртывании четырёхмесячной специальной кампании «Цинлан · Исправление нарушений в приложениях ИИ» по всей стране. Это не общая отраслевая инициатива — это поэтапная, целевая кампания правоприменения.
Первый этап нацелен на источник технологий ИИ: невыполнение обязательств по регистрации больших моделей, недостаточные возможности проверки безопасности, проблемы безопасности обучающих корпусов, отравление данных, недостаточная маркировка синтетического контента.
Второй этап фокусируется на нарушениях в информационном контенте ИИ: использование ИИ для создания «цифровых помоев», создание и публикация ложной информации, распространение жестокого и вульгарного контента, impersonation других лиц, нарушение прав несовершеннолетних.
Не первый раз, но на этот раз по-другому
Национальное управление радио и телевидения уже проводило специальную кампанию по «ИИ-модификации» видео в прошлом году. Xiaohongshu также объявило в феврале, что ограничит распространение ИИ-генеративного контента без активной маркировки.
Но масштаб и покрытие этого раунда ещё выше. Два этапа бьют и по технологическому слою, и по слою контента, и прямо упоминают «безопасность обучающих корпусов» и «отравление данных» — термины, которые напрямую нацелены на управление данными на этапе обучения моделей, области, которые предыдущие регуляторные документы редко затрагивали конкретно.
Перевод: регулируется не только то, что вы генерируете, но и то, на каких данных вы обучались.
Что это значит для китайских ИИ-компаний
Обязательства по регистрации уже исполняются, но формулировка «недостаточные возможности проверки безопасности» даёт регуляторам гораздо больше свободы действий. Что считается «недостаточным»? Нет чётких количественных стандартов, а это значит, что каждый провайдер больших моделей может быть обязан доказать, какого уровня он достиг.
Для стартапов стоимость соответствия быстро растёт. Проверки безопасности обучающих корпусов, системы маркировки синтетического контента, технические меры предотвращения отравления данных — это не то, что маленькая команда может легко настроить.
Для крупных игроков это наоборот попутный ветер. Baidu, Alibaba, ByteDance, Moonshot — компании, которые уже построили системы соответствия, теперь имеют само соответствие как конкурентный ров. Мелкие игроки либо инвестируют ресурсы, чтобы следовать, либо оказываются за бортом.
Международный контекст
Темпы и интенсивность регулирования ИИ в Китае входят в число самых агрессивных в мире. Закон об ИИ ЕС фокусируется на классификации рисков и предварительном соответствии, США в настоящее время больше полагаются на саморегулирование отрасли и законодательство на уровне штатов. Подход Китая ближе к модели «специальной кампании» — концентрированное правоприменение, чёткие сроки, покрытие всей цепочки.
Преимущество этой модели — высокая эффективность исполнения. Проблема в том, что она может чрезмерно сжать пространство для инноваций. Особенно такие расплывчатые формулировки, как «цифровые помои», могут на практике создать эффект охлаждения.
Оценка
Регулирование ИИ-генеративного контента переходит от «обсуждения, нужно ли регулировать» к «как регулировать, кто регулирует и в какой степени» — это глобальный тренд. Темпы Китая самые быстрые, а правоприменение самое жёсткое.
Прямое влияние на разработчиков: если ваш продукт включает ИИ-генеративный контент, вам нужно поставить маркировку контента, соответствие корпусов и проверку безопасности на высший приоритет прямо сейчас. Не ждите аудита.
Что наблюдать дальше: публикация кейсов правоприменения после окончания специальной кампании и будут ли оштрафованы конкретные компании или модели. Это нарисует реальную линию соответствия для всей отрасли.
Основные источники:
- Уведомление CAC о специальной кампании «Цинлан» (2026-04-30)
- Репортажи WallstreetCN
- Политика маркировки ИИ-контента Xiaohongshu (2026-02)