谷歌正与美国国防部谈判,计划允许五角大楼在机密环境中部署其Gemini AI模型。据知情人士透露,双方已接近达成协议。此举标志着谷歌自2018年因员工抗议退出军方AI项目“Project Maven”以来,对军方立场的重大转变。
协议条款与潜在漏洞
- 协议允许将谷歌AI用于“所有合法用途”。
- 谷歌提议加入额外条款,禁止用于国内大规模监控或全自主武器(包括缺乏适当人类监督的目标识别)。
- 此措辞几乎复刻了OpenAI与五角大楼早前签署的协议模板。
- 法律专家指出,协议存在结构性漏洞:“所有合法用途”的宽泛表述可能覆盖并削弱对自主武器和监控的禁令。
行业对比:Anthropic的决裂
- 上述两项安全承诺,正是Anthropic与五角大楼公开决裂的核心。
- Anthropic因拒绝放弃相关禁令,被五角大楼列为“供应链风险”并排除出新合同,目前已就此发起诉讼。
- 相比之下,谷歌在五角大楼的口碑正在回暖。
背景与内部张力
- 2025年初,谷歌修改了AI原则,删除了对武器和监控的明确禁令。
- 此后,谷歌陆续获得多项军方合同,机密部署被视为其军方合作路线图的“最后一块拼图”。
- 谷歌内部对此存在反对声音,首席AI科学家Jeff Dean曾公开反对将AI用于大规模监控或自主武器,并有数百名员工联署支持其立场。