返回上一页  首页 | cnbeta报时: 20:36:09
OpenAI 警告:具有更高生物武器风险的模型即将出现
发布日期:2025-06-19 14:28:57  稿源:cnBeta.COM

OpenAI周三警告称,即将推出的模型在制造生物武器时将面临更高的风险——尤其是对于那些并不真正了解自己在做什么的人来说。公司和整个社会都需要为未来做好准备,未来业余爱好者可以更容易地从简单的车库武器发展成为复杂的特工。

OpenAI 高管表示该公司预计即将推出的模型将在公司的防范框架下达到高风险水平。因此,该公司在一篇博客文章中表示,正在加强对此类模型的测试,并采取新的预防措施,以防止它们协助制造生物武器。

OpenAI 并未设定首个达到该门槛的模型的具体发布时间,但安全系统负责人约翰内斯·海德克 (Johannes Heidecke) 向 Axios 表示:“我们预计我们的 o3(推理模型)的一些后继者将达到这一水平。”

OpenAI 并不一定说其平台能够制造新型生物武器。相反,它认为,如果不采取缓解措施,模型很快就会实现所谓的“新手提升”,或者允许那些没有生物学背景的人去做一些有潜在危险的事情。

海德克说:“我们还没有进入一个完全未知、前所未有的生物威胁时代。我们更担心的是,专家们已经非常熟悉的生物威胁会再次出现。”

其中一个挑战是,人工智能的一些能力虽然可以帮助发现新的医学突破,但也可能被用于造成伤害。但是,海德克承认 OpenAI 和其他公司需要能够高度准确地检测和防止有害使用的系统。

他说:“这并不是说 99% 甚至十万分之一的表现就足够了。我们基本上需要近乎完美,人工监控和执法系统需要能够快速识别任何逃避自动检测的有害用途,然后采取必要的行动防止危害发生。

 OpenAI 并不是唯一一家警告模型将达到潜在有害能力新水平的公司。

上个月发布 Claude 4时,Anthropic 表示,由于该模型可能助长生物和核威胁的传播,因此正在启动新的预防措施。各公司也纷纷发出警告,现在是时候开始为人工智能模型能够在广泛任务中达到或超越人类能力的世界做好准备了。

OpenAI 表示将于下个月召开一场活动,召集某些非营利组织和政府研究人员讨论未来的机遇和风险。OpenAI 政策负责人 Chris Lehane 向 Axios 表示,OpenAI 还希望扩大与美国国家实验室以及政府的合作。

莱哈内表示:“我们将探索一些额外的工作,以便能够真正有效地利用这项技术来打击那些试图滥用这项技术的人。”

Lehane 补充道,最强大模型能力的提升凸显了“至少在我看来,在世界范围内建设人工智能、真正由美国主导的重要性”。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 20:36:09

文字版  标准版  电脑端

© 2003-2025