返回上一页  首页 | cnbeta报时: 01:29:30
OpenAI承诺让美国人工智能安全研究所提前使用其下一个模型
发布日期:2024-08-01 14:41:06  稿源:cnBeta.COM

OpenAI 首席执行官山姆-阿尔特曼(Sam Altman)表示,OpenAI 正在与美国人工智能安全研究所(U.S. AI Safety Institute)合作,该研究所是一个联邦政府机构,旨在评估和解决人工智能平台的风险。

Sam-Altman-OpenAI-DSC02874_jpg.jpg

阿尔特曼是在周四晚间在 X 上发布的一篇文章中宣布这一消息的,但具体细节并不多。但它--连同今年 6 月与英国人工智能安全机构达成的类似协议--似乎意在反驳 OpenAI 为追求能力更强、功能更强大的生成式人工智能技术而将人工智能安全工作置于次要地位的说法。

今年 5 月,OpenAI 有效地解散了一个研究开发控制措施以防止"超级智能"人工智能系统失控问题的小组。包括我们在内的一些报道认为,OpenAI将该团队的安全研究丢在一边,转而推出新产品,最终导致该团队的两位共同负责人扬-莱克(Jan Leike,现为人工智能初创公司Anthropic的安全研究负责人)和OpenAI联合创始人伊利亚-苏茨克沃(Ilya Sutskever,已创办自己的安全人工智能公司Safe Superintelligence Inc.)分道扬镳。

为了回应越来越多的批评者,OpenAI 表示将取消暗中阻止举报的限制性非贬损条款,成立安全委员会,并将 20% 的计算量用于安全研究。(已解散的安全团队曾被承诺将 OpenAI 20% 的计算量用于其工作,但从未实现)。阿尔特曼再次承诺将 20% 的计算量用于安全研究,并重申 OpenAI 已于今年 5 月废除了针对新员工和现有员工的非贬损条款。

然而,这些举动并没有安抚住一些观察家--尤其是在 OpenAI 为安全委员会配备了包括阿尔特曼在内的所有公司内部人员之后,最近又将一名高级人工智能安全主管调到了另一个组织。

包括夏威夷民主党人布莱恩-沙茨(Brian Schatz)在内的五位参议员在最近写给阿尔特曼的信中对 OpenAI 的政策提出了质疑。OpenAI 首席战略官杰森-权(Jason Kwon)今天对这封信做出了回应,他写道,OpenAI"致力于在流程的每个阶段执行严格的安全协议"。

OpenAI与美国人工智能安全研究所达成协议的时机似乎有点可疑,因为该公司本周早些时候支持《未来创新法案》(Future of Innovation Act),该法案是参议院提出的一项法案,将授权安全研究所作为一个执行机构,负责制定人工智能模型的标准和指导方针。这些举动加在一起可能会被认为是一种监管俘获的尝试--或者至少是OpenAI在联邦层面对人工智能政策制定施加影响。

阿尔特曼是美国国土安全部人工智能安全委员会的成员之一,该委员会为美国关键基础设施中"安全可靠地开发和部署人工智能"提供建议。今年,OpenAI 在联邦游说方面的支出大幅增加,2024 年前六个月的支出为 80 万美元,而 2023 年全年的支出为 26 万美元。

美国人工智能安全研究所设在商务部的国家标准与技术研究所内,与包括Anthropic以及Google、微软、Meta、苹果、亚马逊和NVIDIA等大型科技公司在内的公司联盟进行磋商。该行业组织的任务是根据乔-拜登总统10 月份发布的人工智能行政命令开展工作,包括制定人工智能红队、能力评估、风险管理、安全保障和合成内容水印的指导方针。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 01:29:30

文字版  标准版  电脑端

© 2003-2024