2026 年 4 月 26 日,OpenAI 宣布启动 GPT-5.5 生物安全漏洞赏金计划,面向全球研究人员开放,目标是找出能够突破模型”五道生物安全挑战题”的通用越狱方法。最高奖金为 25,000 美元,测试范围限定于 Codex 环境。
五道挑战题
该计划的核心是五道生物安全挑战题,覆盖了从基础知识查询到实际操作指令的不同难度层级。参与者需要找到一种通用方法,能够同时绕过这五道防线,而不是针对单道题的特化解法。
这种设计思路反映了 OpenAI 对生物安全风险的系统性认知:一次性的提示词绕过不足为惧,真正危险的是可以被反复利用的通用越狱路径。
为什么是 GPT-5.5
GPT-5.5 于 4 月 23 日正式发布,是 OpenAI 引入全新”Spud”预训练架构后的首个公开版本。相比 GPT-5.4,它在编码自检迭代、深度研究辅助和跨工具协作方面有显著提升。
更强的能力意味着更高的潜在风险。一个更聪明的模型如果被用于合成有害生物制剂或设计危险化合物,可能造成的危害远超之前的模型版本。OpenAI 选择在 GPT-5.5 发布仅三天后就启动赏金计划,说明生物安全是其产品发布流程中的优先事项。
行业趋势
AI 模型的生物安全问题在 2026 年已经成为 AI 治理领域的核心议题。随着模型在科学、编程和跨领域推理方面的能力快速提升,学界和政策制定者越来越关注 AI 可能被滥用于生物、化学等高风险领域。
此前 GPT-5.4 和 Claude Opus 4.7 都已内置生物安全护栏,但以赏金形式主动邀请外部研究者寻找漏洞,体现了”红队测试”的策略——与其等待漏洞被恶意利用,不如先花钱让安全专家来挖。
$25,000 的奖金在传统软件漏洞赏金领域不算突出,但针对特定垂直领域的定向挑战,足以吸引专业的 AI 安全研究团队参与。
格局判断
OpenAI 的生物安全赏金计划传递了一个明确信号:前沿模型公司正在将安全防护从”事后补救”转向”主动防御”。对开发者而言,这意味着在使用 GPT-5.5 处理涉及生物、化学等高风险领域的任务时,不能仅依赖模型内置的安全护栏,还需要额外的审核和控制层。
对行业而言,这种”公开挑战”的模式可能会成为 AI 安全评估的标准做法——不只是内部测试,而是邀请全球安全社区共同参与。
主要来源
- OpenAI GPT-5.5 生物安全漏洞赏金计划
- X 平台中文社区相关讨论