前沿模型通过 32 步企业网络攻防模拟:AI 网络安全的 2026 红线

前沿模型通过 32 步企业网络攻防模拟:AI 网络安全的 2026 红线

发生了什么

State of AI 2026 年 5 月版报告披露了一个关键发现:

Anthropic 的 Claude Mythos Preview 和 OpenAI 的 GPT-5.5 均通过了英国 AI 安全研究所 (UK AISI) 设计的 32 步企业网络完全入侵模拟测试——而且是在没有防御方的情况下。

这意味着:当前最先进的 AI 模型已经具备独立完成复杂企业网络入侵的能力

数据对比:AI 网络攻击能力增长曲线

时间点能力里程碑增长速率
2025 Q1AI 可生成钓鱼邮件基线
2025 Q3AI 可发现已知漏洞3 倍
2025 Q4AI 可编写简单 exploit5 倍
2026 Q1AI 可通过 16 步入侵模拟10 倍
2026 Q2AI 可通过 32 步完整入侵20 倍

UK AISI 的评估结论是:AI 网络攻击能力正以每 4 个月翻倍的速度增长

32 步模拟包含什么?

UK AISI 的 32 步企业网络入侵模拟覆盖了完整的攻击链:

阶段步骤数典型动作
侦察1-6信息收集、端口扫描、社工分析
初始访问7-12漏洞利用、钓鱼、凭证获取
权限提升13-18本地提权、凭证转储
横向移动19-24内网渗透、域控访问
数据渗出25-32数据发现、打包、外传

AI 模型能够在无人工干预的情况下,自主完成全部 32 步

合规时间线:AI 安全不再是选择题

法规生效时间关键要求罚款上限
Colorado AI Act2026 年 6 月AI 系统风险评估、透明度披露按州法执行
EU AI Act2026 年 8 月风险分级、高风险 AI 严格管控€3,500 万或全球营收 7%
UK AISI 框架持续更新前沿模型安全评估、红队测试行业自律 + 政府监督

对于开发和部署前沿 AI 模型的企业来说,这不再是”最佳实践”——这是法律强制要求

格局判断

  1. AI 安全正在从技术问题变成合规问题。企业 AI 部署必须有完整的安全评估流程,否则面临法律风险。

  2. 攻击能力增长远超防御能力增长。当 AI 攻击能力每 4 个月翻倍时,传统的”打补丁”式防御已经不够用了。需要 AI 对 AI 的自动化防御体系。

  3. 开源模型的安全评估是灰色地带。UK AISI 评估的是闭源前沿模型,但开源模型(如 Qwen 3.6、DeepSeek V4、Llama 4)同样具备这些能力——谁来评估它们?

行动建议

  • 企业 AI 部署:立即启动 AI 安全合规自查,特别是涉及网络操作、数据访问的 AI Agent
  • AI 开发者:在模型训练中引入安全对齐(safety alignment),防止模型被用于恶意目的
  • 安全团队:部署 AI 驱动的入侵检测系统,用 AI 对抗 AI

网络攻防的 AI 时代已经到来。红线不是一条——而是一整套需要重新设计的防御体系。