发生了什么
State of AI 2026 年 5 月版报告披露了一个关键发现:
Anthropic 的 Claude Mythos Preview 和 OpenAI 的 GPT-5.5 均通过了英国 AI 安全研究所 (UK AISI) 设计的 32 步企业网络完全入侵模拟测试——而且是在没有防御方的情况下。
这意味着:当前最先进的 AI 模型已经具备独立完成复杂企业网络入侵的能力。
数据对比:AI 网络攻击能力增长曲线
| 时间点 | 能力里程碑 | 增长速率 |
|---|---|---|
| 2025 Q1 | AI 可生成钓鱼邮件 | 基线 |
| 2025 Q3 | AI 可发现已知漏洞 | 3 倍 |
| 2025 Q4 | AI 可编写简单 exploit | 5 倍 |
| 2026 Q1 | AI 可通过 16 步入侵模拟 | 10 倍 |
| 2026 Q2 | AI 可通过 32 步完整入侵 | 20 倍 |
UK AISI 的评估结论是:AI 网络攻击能力正以每 4 个月翻倍的速度增长。
32 步模拟包含什么?
UK AISI 的 32 步企业网络入侵模拟覆盖了完整的攻击链:
| 阶段 | 步骤数 | 典型动作 |
|---|---|---|
| 侦察 | 1-6 | 信息收集、端口扫描、社工分析 |
| 初始访问 | 7-12 | 漏洞利用、钓鱼、凭证获取 |
| 权限提升 | 13-18 | 本地提权、凭证转储 |
| 横向移动 | 19-24 | 内网渗透、域控访问 |
| 数据渗出 | 25-32 | 数据发现、打包、外传 |
AI 模型能够在无人工干预的情况下,自主完成全部 32 步。
合规时间线:AI 安全不再是选择题
| 法规 | 生效时间 | 关键要求 | 罚款上限 |
|---|---|---|---|
| Colorado AI Act | 2026 年 6 月 | AI 系统风险评估、透明度披露 | 按州法执行 |
| EU AI Act | 2026 年 8 月 | 风险分级、高风险 AI 严格管控 | €3,500 万或全球营收 7% |
| UK AISI 框架 | 持续更新 | 前沿模型安全评估、红队测试 | 行业自律 + 政府监督 |
对于开发和部署前沿 AI 模型的企业来说,这不再是”最佳实践”——这是法律强制要求。
格局判断
-
AI 安全正在从技术问题变成合规问题。企业 AI 部署必须有完整的安全评估流程,否则面临法律风险。
-
攻击能力增长远超防御能力增长。当 AI 攻击能力每 4 个月翻倍时,传统的”打补丁”式防御已经不够用了。需要 AI 对 AI 的自动化防御体系。
-
开源模型的安全评估是灰色地带。UK AISI 评估的是闭源前沿模型,但开源模型(如 Qwen 3.6、DeepSeek V4、Llama 4)同样具备这些能力——谁来评估它们?
行动建议
- 企业 AI 部署:立即启动 AI 安全合规自查,特别是涉及网络操作、数据访问的 AI Agent
- AI 开发者:在模型训练中引入安全对齐(safety alignment),防止模型被用于恶意目的
- 安全团队:部署 AI 驱动的入侵检测系统,用 AI 对抗 AI
网络攻防的 AI 时代已经到来。红线不是一条——而是一整套需要重新设计的防御体系。