五角大楼称人工智能正在加速其"杀伤链"
领先的人工智能开发商如 OpenAI 和 Anthropic正在穿针引线地向美国军方推销软件:让五角大楼更有效率,同时不让他们的人工智能杀人。五角大楼首席数字和人工智能官拉达-普拉姆博士(Dr. Radha Plumb)在接受 采访时表示,如今,他们的工具并未被用作武器,但人工智能正在为国防部在识别、跟踪和评估威胁方面带来"显著优势"。
普拉姆说:"显然,我们正在增加加速执行杀伤链的方法,以便我们的指挥官能够在正确的时间做出反应,保护我们的部队。"
杀伤链"是指军队识别、跟踪和消除威胁的过程,涉及传感器、平台和武器的复杂系统。 "据普拉姆称,在杀伤链的规划和战略制定阶段,生成式人工智能证明是有帮助的。
五角大楼与人工智能开发者之间的关系相对较新。 OpenAI、Anthropic 和 Meta 在 2024 年收回了他们的使用政策,允许美国情报和国防机构使用他们的人工智能系统。 不过,它们仍然不允许人工智能伤害人类。
当被问及五角大楼如何与人工智能模型提供商合作时,普拉姆说:"我们已经非常清楚,我们会在什么情况下使用他们的技术,不会在什么情况下使用他们的技术。"
尽管如此,这还是为人工智能公司和国防承包商拉开了一轮交集的序幕。
Meta 与洛克希德-马丁公司(Lockheed Martin)和博思艾伦公司(Booz Allen)等公司合作,于11月将其Llama人工智能模型提供给国防机构。 同月,Anthropic与Palantir合作。 12 月,OpenAI 与 Anduril 达成了类似的协议。 更低调的是,Cohere也一直在与 Palantir 合作部署其模型。
随着生成式人工智能在五角大楼的实用性得到证明,它可能会推动硅谷放宽人工智能使用政策,允许更多的军事应用。
普拉姆说:"通过不同的场景进行游戏是生成式人工智能可以提供帮助的地方。它可以让你利用我们的指挥官所拥有的各种工具,还可以创造性地思考不同的应对方案,以及在需要应对潜在威胁或一系列威胁的环境中可能出现的取舍。"
目前还不清楚五角大楼在这项工作中使用了谁的技术;在杀伤链中使用生成式人工智能(即使是在早期规划阶段)似乎违反了几家领先模型开发商的使用政策。 例如,Anthropic 的政策禁止使用其模型来生产或修改"旨在对人类生命造成伤害或损失的系统"。
Anthropic 介绍了其首席执行官达里奥-阿莫代(Dario Amodei)最近接受《金融时报》的采访,他在采访中为自己的军事工作进行了辩护:
我们永远不应该在国防和情报领域使用人工智能的立场对我来说毫无意义。 而那种认为我们应该疯狂地使用人工智能制造任何我们想要的东西--甚至包括末日武器--的观点显然也同样疯狂。 我们试图寻求中间立场,以负责任的方式行事。
OpenAI、Meta 和 Cohere 没有回应置评请求。
近几个月来,一场围绕是否真的应该允许人工智能武器做出生死攸关的决定的国防科技辩论已经爆发。
Anduril 首席执行官帕尔默-卢基(Palmer Luckey)最近在 X 上指出,美国军方长期以来一直在购买和使用自主武器系统,例如CIWS炮塔。
"国防部购买和使用自主武器系统已有几十年的历史。" Luckey 说:"它们的使用(和出口)是被充分理解、严格定义的,并且受到明确的规则监管,完全不是自愿的。"
但当被问及五角大楼是否会购买和操作完全自主的武器时,普拉姆原则上拒绝了这一想法。
普拉姆说:"简而言之,不会。从可靠性和道德的角度来看,我们在决定使用武力时始终需要人类的参与,这也包括我们的武器系统。"
"自主"一词有些含糊不清,引发了科技行业关于自动系统(如人工智能编码代理、自动驾驶汽车或自动发射武器)何时才能真正独立的争论。
普拉姆说,自动系统独立做出生死决定的想法"过于二元化",现实没有那么"科幻"。 相反,她认为五角大楼对人工智能系统的使用实际上是人类与机器之间的合作,高层领导在整个过程中都在积极决策。"人们往往会认为,在某个地方有机器人,然后gonculator(一种虚构的自主机器)会吐出一张纸,而人类只是在方框里打勾。这不是人机合作的方式,也不是使用这类人工智能系统的有效方法。"
与军方的合作并不总是能得到硅谷员工的欢迎。 去年,亚马逊和Google的数十名员工因抗议公司与以色列的军事合同(代号为"Project Nimbus"的云交易)而被解雇和逮捕。
相比之下,人工智能界的反应却相当平淡。 一些人工智能研究人员,如Anthropic公司的埃文-胡宾格(Evan Hubinger)说,在军队中使用人工智能是不可避免的,关键是要直接与军方合作,以确保他们能正确地使用人工智能。
"如果认真对待人工智能带来的灾难性风险,那么美国政府就是一个极其重要的参与方,而试图阻止美国政府使用人工智能并不是一个可行的策略,"Hubinger 在 11 月的在线论坛 LessWrong 上发帖说。"仅仅关注灾难性风险是不够的,你还必须防止政府可能滥用你的模型的任何方式"。