返回上一页  首页 | cnbeta报时: 13:30:38
OpenAI称ChatGPT帮助制造生物武器的可能性很小
发布日期:2024-02-02 06:23:53  稿源:cnBeta.COM

根据 OpenAI 的一项自行研究,在研究生物武器方面,OpenAI 的 GPT-4 只比普通互联网搜索工具略胜一筹。据彭博社报道,这项研究是由 OpenAI 的新准备团队进行的,该团队于去年秋天成立,目的是评估该公司前沿人工智能模型的风险和潜在滥用。

lp_logo_3.0.jpg

OpenAI 的研究结果似乎反驳了科学家、立法者和人工智能伦理学家的担忧,即像 GPT-4 这样强大的人工智能模型可以为恐怖分子、罪犯和其他恶意行为者提供重要帮助。多项研究都警告说,人工智能可能会给那些制造生物武器的人带来额外的优势,例如牛津大学有效风险基金会(Effective Ventures Foundation)的这项研究考察了 ChatGPT 等人工智能工具,以及为科学家专门设计的人工智能模型,如 ProteinMPNN(可帮助生成新的蛋白质序列)。

这项研究由 100 名参与者组成,其中一半是高级生物学专家,另一半是修过大学生物学课程的学生。然后,参与者被随机分为两组:一组可以无限制地访问 OpenAI 高级人工智能聊天机器人 GPT-4 的特殊版本,另一组只能访问普通互联网。然后,科学家要求这两组人完成五项与制造生物武器有关的研究任务。其中一个例子是,参与者被要求写下合成和抢救埃博拉病毒的步骤方法。然后,根据准确性、创新性和完整性等标准,对他们的答案进行 1 到 10 分的评分。

研究得出的结论是,使用 GPT-4 的学生组和专家组的平均准确率略高。但 OpenAI 的研究人员发现,这种提高并不具有"统计学意义"。他们还发现,依赖 GPT-4 的参与者回答得更详细。

研究报告的作者写道:"虽然我们没有观察到在这一指标上有任何统计学上的显著差异,但我们确实注意到,获得模型访问权的参与者的回答往往更长,并且包含更多与任务相关的细节。"

此外,在某些任务上,使用 GPT-4 的学生几乎与专家组一样熟练。研究人员还注意到,GPT-4 使学生组的答案达到了"专家基线",尤其是在两个任务上:放大和表述。遗憾的是,出于"信息危害考虑",OpenAI 不会透露这些任务的内容。

据彭博社报道,该防备团队还在开展研究,探索人工智能在网络安全威胁方面的潜力及其改变信仰的力量。OpenAI 在去年秋天成立该团队时曾表示,其目标是"跟踪、评估、预测和保护"人工智能技术的风险,以及减轻化学、生物和放射性威胁。

鉴于 OpenAI 的准备团队仍在代表 OpenAI 开展工作,我们必须谨慎对待他们的研究。研究结果似乎低估了 GPT-4 为参与者带来的优于普通互联网的优势,这与外部研究以及 OpenAI 自身对 GPT-4 的卖点之一相矛盾。新的人工智能模型不仅可以完全访问互联网,而且是一个在大量科学数据和其他数据基础上训练出来的多模态模型,OpenAI不愿透露这些数据的来源。研究人员发现,GPT-4 能够对科学手稿提出反馈意见,甚至可以作为科学研究的合作者。总而言之,与Google相比,GPT-4 只给参与者带来微不足道的提升似乎不太可能。

虽然 OpenAI 创始人萨姆-奥特曼承认人工智能有潜在的危险,但其自己的研究却似乎在贬低其最先进聊天机器人的实力。虽然研究结果表明,GPT-4 给参与者带来了"准确性和完整性的轻微提升",但这似乎只适用于以某种方式调整数据的情况。这项研究衡量了学生们与专家们的表现,还考察了五种不同的"结果指标",包括完成任务所需的时间或解决方案的创造能力。

不过,该研究的作者后来在脚注中指出,总体而言,GPT-4 在总准确率方面给所有参与者带来了"统计学意义上显著的"优势"。作者指出:"不过,如果我们只评估总准确率,因而不对多重比较进行调整,那么这一差异在统计学上将是显著的。"

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 13:30:38

文字版  标准版  电脑端

© 2003-2024