五角大楼希望人工智能增强美国核武器系统的能力
美国是之前宣布将核武器控制权始终掌握在人类而非人工智能手中的几个国家之一。 但令人担忧的是,五角大楼并不排斥使用人工智能来"增强"核指挥、控制和通信系统。
上月底,美国战略司令部领导人、空军将军安东尼-J-科顿(Anthony J. Cotton)表示,该司令部正在"探索所有可能的技术、技巧和方法,以协助我们实现 NC3 能力的现代化"。
在过去几年中,已经开发出几种人工智能控制的军事武器系统和车辆,包括战斗机、无人机和机枪。 它们在战场上的使用引起了人们的担忧,因此,仍然会犯很多错误的人工智能成为核武器系统一部分的前景让人感觉像是好莱坞科幻小说中的梦魇。
科顿在 2024 年国防部情报信息系统会议上试图缓解这些担忧。 他说(通过《空天力量》杂志),虽然人工智能将增强核指挥与控制决策能力,但"我们绝不能让人工智能替我们做出这些决定"。
早在今年 5 月,美国国务院军控官员保罗-迪恩(Paul Dean)在一次在线简报会上说,华盛顿已经做出了"明确而坚定的承诺",要让人类继续控制核武器。 迪安补充说,英国和法国也做出了同样的承诺,美国将欢迎中国和俄罗斯联邦发表类似声明。
科顿说,日益增长的威胁、大量的传感器数据和网络安全问题使人工智能的使用成为使美军领先于那些试图挑战美国的人的必要手段。他说:"先进的系统可以更快、更有效地为我们提供信息,他再次强调,"我们必须始终保持人工决策的环路,以最大限度地采用这些能力,并保持我们对对手的优势。 "科顿还谈到了利用人工智能为领导人提供更多"决策空间"的问题。
诺斯罗普-格鲁曼公司战略空间系统部总经理克里斯-亚当斯说,NC3的部分问题在于它是由数百个系统组成的,"这些系统是为了应对不断变化的威胁而经过长期现代化和维护的"。 使用人工智能可以帮助整理、解释和快速呈现这些系统收集的所有数据。
科顿说,即使人工智能没有被象征性地交给核弹发射密码,但在任何核武器系统中使用人工智能都可能存在风险,这一点必须加以解决。他警告说:"我们需要引导研究工作,以了解人工智能模型的级联效应、突发和意外行为以及人工智能间接融入核决策过程的风险。"
今年 2 月,研究人员使用五种不同的 LLM 进行了国际冲突模拟: GPT-4、GPT 3.5、Claude 2.0、Llama-2-Chat 和 GPT-4-Base。 他们发现,这些系统经常使战争升级,有几次还在没有任何警告的情况下部署了核武器。 GPT-4-Base--GPT-4的基础型号--说:"我们拥有它! 让我们使用它!"