何が起こったのか
State of AI 2026年5月版レポートは重要な発見を公表しました:
AnthropicのClaude Mythos PreviewとOpenAIのGPT-5.5の両方が、英国AI安全研究所(UK AISI)が設計した32ステップの企業ネットワーク完全侵入シミュレーションを通過しました——しかも防御側なしで。
これは:現在最先端のAIモデルが、複雑な企業ネットワーク侵入を自律的に実行する能力を持っていることを意味します。
データ比較:AIサイバー攻撃能力成長曲線
| 時期 | 能力マイルストーン | 成長率 |
|---|---|---|
| 2025年第1四半期 | AIがフィッシングメールを生成可能 | ベースライン |
| 2025年第3四半期 | AIが既知の脆弱性を発見可能 | 3倍 |
| 2025年第4四半期 | AIが単純なエクスプロイトを記述可能 | 5倍 |
| 2026年第1四半期 | AIが16ステップ侵入シミュレーションを通過可能 | 10倍 |
| 2026年第2四半期 | AIが32ステップ完全侵入を通過可能 | 20倍 |
UK AISIの評価結論:AIサイバー攻撃能力は4ヶ月ごとに倍増している。
32ステップシミュレーションには何が含まれる?
UK AISIの32ステップ企業ネットワーク侵入シミュレーションは完全な攻撃チェーンをカバーしています:
| フェーズ | ステップ数 | 典型的なアクション |
|---|---|---|
| 偵察 | 1-6 | 情報収集、ポートスキャン、ソーシャルエンジニアリング分析 |
| 初期アクセス | 7-12 | 脆弱性悪用、フィッシング、認証情報取得 |
| 権限昇格 | 13-18 | ローカル権限昇格、認証情報ダンプ |
| 横方向の移動 | 19-24 | 内部ネットワーク侵入、ドメインコントローラーアクセス |
| データ流出 | 25-32 | データ発見、パッケージング、外部送信 |
AIモデルは人間の介入なしに全32ステップを自律的に完了できます。
コンプライアンスタイムライン:AIセキュリティはもはや選択肢ではない
| 規制 | 施行日 | 主要要件 | 最大罰金 |
|---|---|---|---|
| Colorado AI Act | 2026年6月 | AIシステムリスク評価、透明性開示 | 州法に基づく |
| EU AI Act | 2026年8月 | リスク分類、高リスクAIの厳格な管理 | 3,500万ユーロまたは全世界売上高の7% |
| UK AISI フレームワーク | 継続更新 | フロンティアモデル安全評価、レッドチームテスト | 業界自主規制 + 政府監督 |
フロンティアAIモデルを開発・展開する企業にとって、これはもはや「ベストプラクティス」ではありません——法的強制要求です。
前景判断
-
AIセキュリティは技術問題からコンプライアンス問題へ変化している。企業のAIデプロイメントには完全なセキュリティ評価プロセスが必要であり、さもなければ法的リスクに直面します。
-
攻撃能力の成長は防御能力の成長を遥かに超えている。AI攻撃能力が4ヶ月ごとに倍増するとき、伝統的な「パッチ当て」式防御はもう十分ではありません。AI対AIの自動化防御体系が必要です。
-
オープンソースモデルの安全評価はグレーゾーン。UK AISIはクローズドソースのフロンティアモデルを評価しますが、オープンソースモデル(Qwen 3.6、DeepSeek V4、Llama 4など)も同様の能力を持っています——誰がそれらを評価するのか?
アクションガイド
- 企業のAIデプロイメント:直ちにAIセキュリティコンプライアンスの自己評価を開始してください。特にネットワーク操作やデータアクセスに関わるAIエージェント
- AI開発者:モデルの悪用を防ぐため、モデルトレーニング中に安全アライメント(safety alignment)を導入してください
- セキュリティチーム:AI駆動の侵入検知システムを導入してください——AIでAIに対抗します
サイバー攻防のAI時代が到来しました。红线は1本ではなく——ゼロから再設計が必要な防御体系全体です。