Altman称在五角大楼AI合作问题上与Anthropic划下相同“红线”

摘要:

美国人工智能公司OpenAI首席执行官萨姆·阿尔特曼近日在一份致员工的内部备忘录中表示,在与美国国防部(五角大楼)潜在合作问题上,公司将坚持与竞争对手Anthropic相同的“红线”:拒绝让自家人工智能技术用于大规模监控或完全自治的致命性武器系统。

阿尔特曼在备忘录中强调,OpenAI不会为大规模监视提供技术支持,也不会参与开发可自主决定致命打击的武器系统,这与Anthropic此前在与五角大楼谈判中坚持的底线高度一致。Anthropic正是因拒绝在上述两类用途上作出让步,而与美国国防部爆发了一场备受关注的高风险博弈。

这一表态使得五角大楼在军用AI领域的布局面临新的不确定性。此前,Anthropic旗下的大语言模型Claude率先被整合进美国军方一些最敏感的业务场景中,被视为国防部推动前沿AI技术军事化应用的重要一步。如今,若OpenAI与Anthropic在关键伦理边界上保持一致,而其他头部公司如Google等也跟进类似立场,五角大楼在寻找替代方案、尤其是在高敏感军事任务中部署通用型大模型时,将遭遇更大的谈判与技术获取阻力。

围绕军用AI的技术与伦理之争,在美国科技企业和政府部门之间愈演愈烈。一方面,美国国防部希望利用通用人工智能提升情报分析、作战指挥与战场决策能力,甚至探索更高程度的自动化应用;另一方面,多家领先AI公司则在商业机遇与伦理责任之间寻求平衡,试图通过设定“红线”限制技术在大规模监控及自主致命武器等敏感领域的扩散。

阿尔特曼此次发声,被视为在五角大楼与Anthropic分歧公开化后,另一家关键玩家对军用AI底线问题作出的清晰定位。在美国AI产业高度集中的背景下,若主流企业在伦理边界上形成共识,将深刻影响军方未来获取和部署通用AI能力的路径与节奏,也可能推动美国在军用AI监管与国际规则方面的进一步讨论和博弈。

相关文章:

Anthropic准备退出2亿美元国防合同 美防长威胁强制共享技术

美国国防部公开设下最后期限 要求不受限使用Anthropic AI工具

查看评论
created by ceallan