核心结论:安全优先的代价
2026 年 5 月 1 日,路透社和 CNBC 同时确认:美国五角大楼已与 OpenAI、Google、Nvidia、微软、AWS、SpaceX、Oracle 七家公司签署 AI 合作协议,而 Anthropic 被明确排除在外。
更关键的细节是:五角大楼不仅没有签约,还将 Anthropic 正式列为”供应链风险”(supply-chain risk),禁止其所有产品在美国国防承包商网络中使用。
这是美国国防 AI 采购史上首次将一家前沿 AI 实验室列入黑名单。Anthropic 坚持安全护栏(safety guardrails)的立场,成了它在国防市场被抛弃的直接原因。
事件拆解
时间线:从合作到决裂
| 节点 | 时间 | 事件 |
|---|---|---|
| Anthropic 拒绝 | 2026 年初 | 五角大楼要求 Anthropic 允许在机密军事网络上不受限制地使用其 AI 工具,Anthropic 拒绝 |
| 黑名单生效 | 2026.4 | DoD 将 Anthropic 列为供应链风险,禁止其产品在所有国防承包商中使用 |
| 替代方案签约 | 2026.5.1 | 五角大楼与 7 家 AI 公司签署协议,构建排除 Anthropic 的国防 AI 体系 |
| CTO 表态 | 2026.5.1 | @USWREMichael 称 Anthropic 仍在黑名单上,但 Mythos 模型是”独立的国家安全议题” |
黑名单 vs. 模型价值:五角大楼的矛盾立场
五角大楼首席技术官 Michael 的表述揭示了核心矛盾:
“Anthropic 仍在黑名单上,但其 Mythos 模型是一个独立的国家安全议题。”
这意味着:
- 公司层面:Anthropic 因拒绝解除安全限制被列为供应链风险
- 技术层面:Mythos 模型的能力(据报道发现了数千个零日漏洞)被认为具有独立的军事价值
据 X 平台上的多份报道,Mythos 模型被发现能在数小时内穿透计算机网络,并在各大操作系统中识别出大量零日漏洞。这种能力让 NSA 等机构对其产生了浓厚兴趣——即使 Anthropic 公司本身被排除在采购体系之外。
七家替代公司的选择逻辑
| 公司 | 角色定位 | 国防 AI 关联 |
|---|---|---|
| OpenAI | 通用 AI 模型 | GPT 系列已被多家国防承包商采用 |
| 云+AI 全栈 | 刚签署允许”任何合法政府用途”的协议 | |
| Nvidia | 算力基础设施 | GPU 是训练和推理的基石 |
| 微软 | 企业 AI 平台 | Azure + Copilot 深度嵌入政府 IT |
| AWS | 云基础设施 | GovCloud 已是军方主要云平台 |
| SpaceX | 通信+太空 | Starlink + Starshield 军事网络 |
| Oracle | 数据库+云 | 政府云服务供应商 |
这个组合覆盖了 AI 的全链条:模型训练、推理部署、云基础设施、通信网络。
格局判断:AI 安全的两条路线
这次事件标志着前沿 AI 行业出现了明确的分化:
- 合规优先路线:OpenAI、Google 等选择配合国防需求,以获取政府合同和市场准入
- 原则优先路线:Anthropic 坚持安全护栏,为此承受商业代价
新的国防 AI 采购试金石已经成型:“合规”(compliant)vs. “有原则”(principled)。
同时,OpenAI 内部也出现了分歧。据 X 平台报道,OpenAI 的安全负责人向董事会发出警告,指出公司正在设定一个危险的行业先例——包括 Google 在内的开发者们正在忽略安全标准,专注于更快部署。
对行业的影响
- 安全护栏的商业化成本被量化:Anthropic 的案例证明,坚持安全立场可能意味着失去最大的客户之一——美国政府
- 国防 AI 市场的集中度加速提升:7 家公司形成联盟,进一步巩固了头部厂商的市场地位
- 模型与公司的解耦趋势:五角大楼将 Mythos 模型视为”独立议题”,暗示未来可能出现”模型可用但公司不可信”的采购模式
- 其他公司的压力增大:如果 Anthropic 因为安全立场被惩罚,其他坚持类似路线的公司将面临同样的风险
行动建议
- 国防承包商:评估现有 AI 供应链中的 Anthropic 依赖,制定迁移计划
- AI 安全从业者:关注”安全 vs. 合规”路线对人才流动的影响——原则优先的公司可能会吸引更多关注 AI 安全的工程师
- 投资者:国防 AI 合同的分配是判断 AI 公司政治资本和市场竞争力的重要指标