26 апреля 2026 года OpenAI объявила программу bug bounty по биобезопасности GPT-5.5, открытую для исследователей по всему миру, с целью нахождения универсального метода обхода «пяти вопросов биобезопасности» модели. Максимальный приз составляет $25,000, тестирование ограничено средой Codex.
Пять вызовов
Основу программы составляют пять вопросов биобезопасности, охватывающих различные уровни сложности — от базовых запросов знаний до операционных инструкций. Участникам необходимо найти универсальный метод, способный одновременно обойти все пять линий защиты, а не решение, специфичное для одного вопроса.
Этот дизайн отражает системное понимание OpenAI рисков биобезопасности: одноразовые обходы промптов не представляют угрозы; по-настоящему опасен универсальный путь джейлбрейка, который можно использовать повторно.
Почему GPT-5.5
GPT-5.5 был официально выпущен 23 апреля 2026 года как первая публичная версия новой архитектуры предобучения OpenAI «Spud». По сравнению с GPT-5.4, модель демонстрирует значительные улучшения в самопроверке кода, поддержке глубоких исследований и кросс-тул коллаборации.
Более высокие способности означают более высокий потенциальный риск. Более умная модель, если её использовать для синтеза вредных биологических агентов или проектирования опасных соединений, может нанести ущерб, значительно превышающий предыдущие версии моделей. Решение OpenAI запустить программу bounty всего через три дня после выпуска GPT-5.5 показывает, что биобезопасность является приоритетом в процессе выпуска продуктов.
Отраслевые тренды
Проблема биобезопасности AI-моделей стала ключевой темой в области AI-управления в 2026 году. По мере быстрого роста способностей моделей в науке, кодировании и кросс-доменном рассуждении, академическое сообщество и политические регуляторы всё больше обеспокоены возможностью misuse AI в биологической, химической и других областях высокого риска.
Предыдущие GPT-5.4 и Claude Opus 4.7 уже имеют встроенные ограждения биобезопасности, но активное приглашение внешних исследователей для поиска уязвимостей через программу bounty отражает стратегию «red team testing» — лучше заплатить экспертам по безопасности за поиск уязвимостей, чем ждать их злонамеренного использования.
Приз в $25,000 не выделяется в сфере традиционных bug bounty для программного обеспечения, но для целевого вызова в конкретной вертикальной области его достаточно для привлечения профессиональных команд исследователей AI-безопасности.
Прогноз рынка
Программа bug bounty по биобезопасности OpenAI посылает чёткий сигнал: компании-разработчики передовых моделей переходят от «реактивного исправления» к «проактивной защите». Для разработчиков это означает, что при использовании GPT-5.5 для задач, связанных с биологическими, химическими или другими областями высокого риска, нельзя полагаться исключительно на встроенные защитные ограждения модели — необходимы дополнительные уровни проверки и контроля.
Для индустрии эта модель «открытого вызова» может стать стандартной практикой оценки AI-безопасности — не только внутреннее тестирование, но приглашение глобального сообщества безопасности для совместного участия.
Источники
- Программа bug bounty по биобезопасности OpenAI GPT-5.5
- Обсуждение в китайскоязычном сообществе платформы X