结论:Big Tech 与国防的”离婚”结束了
2026 年 4 月 28 日,Google 签署了一项协议,允许美国五角大楼使用其 AI 模型执行机密工作,并且可以用于”任何合法的政府用途”(any lawful government purpose)。
这个协议的特殊之处在于:它删除了此前限制军事应用的条款。 这意味着 Google AI 不再仅限于后勤、数据分析等”非战斗”场景,而是可以延伸到任务规划和作战行动。
600 多名 Google 员工联名呼吁 CEO Sundar Pichai 拒绝该协议,但未能改变公司决定。这标志着自 2018 年 Google 因员工抗议退出 Maven 项目以来,Big Tech 对国防 AI 的态度完成了历史性转折。
事件拆解
关键变化:从”有限参与”到”全面开放”
| 阶段 | 时间 | 限制 | 应用场景 |
|---|---|---|---|
| 退出期 | 2018 | 拒绝参与 | Google 因员工抗议退出 Maven 项目 |
| 有限参与期 | 2019-2025 | 限制军事用途 | 仅限后勤、非战斗数据分析 |
| 全面开放期 | 2026.4 | 无限制 | 任务规划、作战行动、“任何合法政府用途” |
“任何合法政府用途”这一措辞的变化是核心——它从明确排除军事应用,转变为不排除任何用途。这为 Google AI 在国防领域的全面应用打开了法律和技术通道。
三巨头格局
Google 的加入,使得国防 AI 正式成为三巨头竞逐的领域:
| 公司 | 国防 AI 布局 | 关键合同/项目 |
|---|---|---|
| OpenAI | 已签署机密级合同 | 与国防部多项 AI 合作协议 |
| xAI | 已签署机密级合同 | Grok 模型的国防应用 |
| 新加入 | Gemini 模型的机密工作支持 |
这三家公司的加入意味着:“AI 为战士服务”(AI for warfighter)正式成为 Big Tech 的主流收入来源之一,不再是边缘业务或实验性项目。
为什么重要
1. 技术溢出效应
国防合同对 AI 模型的要求远高于商用场景:
- 极端可靠性:误判的代价不是用户不满意,而是人员伤亡
- 对抗环境鲁棒性:需要在电子战、网络攻击等对抗条件下保持可用
- 安全隔离:模型必须在物理隔离的机密网络中运行
这些要求将推动 Google 在模型安全性和鲁棒性方面的技术进步,反过来也会提升其商用产品的能力。
2. 人才竞争加剧
国防 AI 项目需要特殊的人才——既懂 AI 又了解国防需求的复合型人才。Google 的加入将加剧这一人才的争夺,推高相关岗位的薪酬和股权包。
3. 全球连锁反应
美国 Big Tech 全面参与国防 AI,可能引发以下连锁反应:
- 中国模型公司:可能加速推进与国内军方和国家安全机构的合作
- 欧洲 AI 公司:面临”是否参与国防”的同样抉择,欧洲的反战文化可能导致不同的选择
- 开源社区:可能出台更严格的许可证条款,限制 AI 模型的军事用途
内部抵抗与外部需求
员工抗议:600 人的声音
600 多名 Google 员工联名致信 CEO,要求拒绝该协议。这是继 2018 年 Maven 项目抗议之后,Google 员工又一次针对国防项目的集体行动。
但 2026 年的背景已经不同于 2018 年:
- 竞争压力:OpenAI 和 xAI 已经签署了国防合同,Google 面临失去这一市场的风险
- 收入压力:AI 基础设施的巨额投入需要多元化收入来源
- 政治环境:美国政府对科技公司与国防合作的期望值更高
市场信号
从投资角度来看,这一协议释放的信号是:国防 AI 市场的商业化已经进入成熟期。不再是”要不要做”的问题,而是”怎么做大”的问题。
行动建议
对 AI 从业者
- 关注 Google 在国防 AI 岗位上的招聘需求,这是未来 1-2 年的高增长领域
- 如果你在考虑职业方向,AI 安全/鲁棒性方向将因国防需求而获得更多资源
对投资者
- 国防 AI 赛道正在从”初创公司主导”转向”Big Tech 入局”,投资逻辑需要调整
- 关注与 Google 国防 AI 项目相关的供应商和合作伙伴
对开发者
- 如果你关心 AI 伦理,可以关注开源模型许可证中关于军事用途的条款变化
- 考虑在你的项目中明确 AI 用途限制,作为个人/团队的伦理声明