砺道智库 2025年1月11日
据防务头条网报道,谷歌放弃了自己设定的在武器中使用人工智能的禁令,这一举措在赢得赞誉的同时,也招致了批评,标志着谷歌进入了一个热门领域,同时也凸显了五角大楼——而不是任何一家公司——必须成为美国军方如何在战斗中使用人工智能的主要监管者。

上周二,谷歌为其决定取消2018年禁止以可能造成伤害的方式使用人工智能的决定进行了辩护。“在日益复杂的地缘政治格局中,全球正在展开一场争夺人工智能领导地位的竞争。”报告写道。
一位熟悉该公司决策过程的人士表示,此举是对过度修正的一次早该采取的修正。
这种“矫枉过正”就是谷歌在2018年决定不再续签美国空军Maven项目的合同。当时,Maven是五角大楼的旗舰AI项目:这款工具大大减少了在数小时的无人机视频片段中查找有用情报所需的时间。在国防圈内,这个项目并没有什么争议。军方官员在描述该项目时总是说,Maven的主要目的是使人类操作员能够理解大量数据,尤其是在巨大的认知负担下执行时间敏感任务时。许多人称赞这项努力为其他AI驱动的决策辅助工具指明了方向。
但谷歌在参与该项目方面并不完全透明,尤其是对其员工,这在一定程度上导致员工大规模辞职。该公司很快放弃了这份合同——但代价是争夺五角大楼其他重要的IT合同。
这一事件促使美国国防部于2019年起草了自己的人工智能道德原则,这些原则比大多数硅谷公司的原则要全面得多。这些原则旨在向美国科技界和国际伙伴保证,五角大楼能够在战斗中以合乎道德的方式使用人工智能方面发挥带头作用。
熟悉谷歌决策过程的人士表示,声明受到人工智能军事应用形势快速变化的推动。
“这一决定的主要驱动力是确保谷歌在负责任的人工智能领域继续保持领先地位。自2018年以来,技术前沿和商业格局发生了彻底改变,所以是时候彻底翻开Maven的新篇章了,”该人士表示。
但并非所有人都对此感到高兴,其中包括一些谷歌员工和人权组织。但战略与国际研究中心瓦德瓦尼人工智能中心主任格雷格·艾伦称,“这是一个非常棒的决定,谷歌几年前就应该做出这个决定。帮助保护美国是合乎道德的。”
谷歌正在加入一个拥挤的人工智能领域,这些公司正越来越多地合作,以影响五角大楼的人工智能使用。但谷歌拥有独特的云和人工智能能力,这也是它最初被选为Maven项目的原因之一。谷歌的决定,以及人工智能防御领域其他竞争对手的出现,表明硅谷的情绪发生了多大的变化,允许与军方合作。
研究人工智能伦理和政治哲学的雪城大学教授约翰内斯·希默赖希(Johannes Himmelreich)表示:“军事和监视技术本身并不坏或不道德。相反,支持国家安全并以正确的方式这样做非常重要。事实上,支持国家安全可以说是合乎道德的事情。”谷歌最初的禁令“可能从一开始就过于激进了”,希默赖希说道。但谷歌的决定也凸显了美国国防部作为人工智能在战争中应用的最终监督者的重要性。