Ключевой вывод
По данным New York Times со ссылкой на американских официальных лиц, администрация Трампа обсуждает создание механизма предварительной проверки AI-моделей через указ — мощные AI-модели должны проходить правительственную экспертизу перед публичным выпуском. Это представляет собой разворот на 180 градусов от предыдущей позиции администрации Трампа «массовая отмена регуляторных ограничений AI для освобождения AI-инноваций» и может фундаментально изменить темпы выпуска и конкурентный ландшафт AI-моделей в США и во всём мире.
Хронология событий
| Время | Событие |
|---|---|
| Январь 2025 | Трамп подписывает указ, отменяя регуляторные ограничения AI эпохи Байдена |
| Апрель-Май 2026 | Белый дом внутренне обсуждает новый механизм проверки AI-моделей |
| 4 мая 2026 | NYT впервые сообщает, источники говорят, что указ «может быть в разработке» |
Всего за 16 месяцев позиция сместилась от «полной дерегуляции» к «проверке перед выпуском» — изменение в скорости и масштабе, превышающее рыночные ожидания.
Основное содержание механизма проверки
На основе раскрытой информации, потенциальные планы включают:
- Формальный правительственный процесс проверки: Члены рабочей группы по AI, состоящие из руководителей технологической индустрии и правительственных чиновников, проверяют потенциальные риски новых моделей
- Предварительное одобрение перед выпуском: Мощные модели должны получить правительственное одобрение перед публичным выпуском
- Фактическая система лицензирования: Критики отмечают, что это по сути создаёт «лицензионную» систему для AI-моделей
Реакции различных сторон
Обеспокоенность индустрии: Комментаторы отмечают, что любая «проверка перед выпуском» может быть равносильна фактической системе лицензирования, а реализация через указ, а не через законодательство, вызывает ещё больше тревоги. Это может привести к:
- Задержкам выпуска моделей, влияющим на конкурентоспособность американского AI
- Исключению малых стартапов из-за затрат на соответствие требованиям
- Воздействию на сообщество open-source моделей
Логика политического разворота: Несколько факторов могут стоять за этим сдвигом:
- Случаи обхода китайскими моделями, такими как DeepSeek, ограничений безопасности через «дистилляцию», вызывающие обеспокоенность
- Быстрая эволюция способностей AI-агентов, увеличивающая потенциальные риски автономного выполнения задач
- Давление политики избирательного цикла
Влияние на конкуренцию США и Китая в AI
Влияние этого политического разворота на конкуренцию США и Китая в AI двустороннее:
Краткосрочный негатив для США: Механизм проверки замедлит темпы выпуска американских моделей. С учётом того, что китайские модели (DeepSeek V4, Qwen 3.6, Kimi K2.6) уже обладают глобальной конкурентоспособностью, временное окно крайне ценно.
Долгосрочная сложность: Если механизм проверки повысит надёжность и безопасность американских AI-систем, это может дать преимущества на международном рынке. Но только если процесс проверки будет эффективным, а не бюрократическим.
Воздействие на open source: Если проверка охватит выпуски open-source моделей, это напрямую повлияет на скорость итерации таких экосистем, как Llama и Qwen. Это самый большой страх глобального open-source сообщества.
Связь с существующими регуляторными рамками
| Регуляторная framework | Область применения | Связь с данной проверкой |
|---|---|---|
| EU AI Act | Развёртывание в пределах ЕС | Независимая, но может конвергировать |
| Закон Колорадо об алгоритмической дискриминации (вступает в силу 30 июня 2026) | Уровень штата | Дополнительная |
| Предыдущий указ Белого дома (дерегуляция) | Федеральный | Заменён новой политикой |
| Дипломатическая телеграмма Госдепа о китайской AI-дистилляции | Дипломатический уровень | Та же проблема безопасности |
Рекомендации к действию
- AI-компании: Заранее подготовить документы по оценке безопасности моделей, создать внутренние процессы соответствия ещё до официального издания указа
- Open-source проекты: Следить за тем, охватывает ли проект указа open-source модели; возможно, потребуется корректировка стратегий выпуска
- Инвесторам: Механизм проверки может быть благоприятным для компаний AI, ориентированных на соответствие требованиям, и неблагоприятным для стартапов, полагающихся на быструю итерацию
- Разработчикам: Если выпуски open-source моделей будут ограничены, важность локального развёртывания и файн-тюнинга ещё больше возрастёт