如果竞争对手发布“高风险”AI OpenAI 可能会“调整”其安全措施

摘要:

OpenAI在其准备框架的更新中表示,如果竞争对手的人工智能实验室发布没有类似保障措施的“高风险”系统,它可能会“调整”其要求。OpenAI 使用这个内部框架来决定人工智能模型是否安全,以及在开发和发布期间需要哪些保障措施(如果有的话)。

这一变化反映出商业人工智能开发者面临着日益增长的竞争压力,需要快速部署模型。OpenAI 被指控为了加快发布速度而降低安全标准,并且未能及时提交详细的安全测试报告。上周,12 名 OpenAI 前员工在埃隆·马斯克 (Elon Musk) 起诉 OpenAI 的案件中提交了一份简报,称如果该公司完成计划中的公司重组,将被鼓励在安全方面进一步偷工减料。

OpenAI 或许预料到了会受到批评,因此声称不会轻易做出这些政策调整,并且会将其保障措施保持在“更具保护性的水平”。

OpenAI 在周二下午发布的博客文章中写道:“如果另一个前沿人工智能开发商发布了一个没有类似安全措施的高风险系统,我们可能会调整我们的要求。但是,我们首先会严格确认风险状况确实发生了变化,公开承认我们正在进行调整,并评估调整不会显著增加严重损害的总体风险,同时仍将安全措施保持在更具保护性的水平。”

更新后的准备框架也明确表明,OpenAI 将更加依赖自动化评估来加快产品开发速度。该公司表示,虽然尚未完全放弃人工主导的测试,但已经构建了“一套不断完善的自动化评估系统”,据称可以“跟上更快的发布节奏”。

一些报道与此相矛盾。据《金融时报》报道,OpenAI 给测试人员的时间不到一周,用于即将发布的主要模型的安全检查——与之前的版本相比,时间安排得相当紧凑。该媒体的消息来源还声称,OpenAI 的许多安全测试现在都是针对早期版本的模型进行的,而不是针对公开发布的版本。

OpenAI 在声明中对其在安全方面妥协的说法提出了质疑。

OpenAI 框架的其他变化涉及公司如何根据风险对模型进行分类,包括可以隐藏其能力、规避安全措施、防止其关闭,甚至自我复制的模型。OpenAI 表示,现在将重点关注模型是否满足两个阈值之一:“高”能力或“关键”能力。

OpenAI 对前者的定义是,一种能够“放大现有的严重伤害途径”的模型。该公司表示,后者则是“引入前所未有的、导致严重伤害的新途径”的模型。

OpenAI 在其博客文章中写道:“达到高性能的受保护系统在部署之前必须具备足够的保障措施,以最大程度地降低相关严重损害的风险。达到关键性能的系统还需要在开发过程中采取足够的保障措施,以最大程度地降低相关风险。”

这是 OpenAI 自 2023 年以来首次对防范框架做出的更新。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan