AI专家警告OpenAI o1模型具有欺骗性 呼吁紧急监管以确保安全

摘要:

人工智能的进步极大地改善了消费者的互动方式,并彻底改变了信息的获取和扩展方式。 随着技术的飞速发展,公司面临着巨大的压力,必须确保安全并考虑道德因素。 OpenAI 及其在发展人工智能工具和将平台提升到全新水平方面所做的工作在科技界众所周知,但随着公司的进一步扩张,审查也在增加。 一位著名的人工智能专家揭示了 o1 模型,以及它如何不是推理能力更强,而是欺骗能力更强。

1.BENGIO_Yoshua_credit_Camille-Gladu-Drouin_dec2019-1-1-scaled.jpg

OpenAI 最近推出了 o1 模型,与之前的模型相比,它标志着人工智能推理能力的重大飞跃。 它能以类似人类的问题解决策略处理复杂问题。 虽然该平台具有高级推理能力,但一家人工智能公司阿波罗研究公司指出,该模型更擅长说谎。

商业内幕的报道将此事公之于众,该报道讲述了被誉为该领域教父的人工智能专家Yoshua Bengio建议需要加强安全测试,以防止其欺骗能力产生任何有害后果。 Bengio表示:

拥有欺骗能力是非常危险的,我们应该进行更严格的安全测试,以评估 o1 的风险及其后果。

本吉奥和其他许多人一样,对人工智能的快速发展和立法安全措施的迫切需要感到担忧。 他建议实施类似加州 SB 1047 的法律,对人工智能模型实施严格的安全限制。 SB 1047 是一项人工智能安全法案,对强大的人工智能模型进行监管,并强制要求公司允许第三方测试,以评估危害或解决潜在风险。

不过,OpenAI 已确保 o1-preview 在"准备框架"(Prearedness Framework)下进行管理,以应对人工智能模型发展带来的风险。 该模型被列为中等风险,它表示人们对该模型的担忧是适度的。

Bengio进一步强调,在推进人工智能模型和在没有足够保障措施的情况下部署这些模型之前,公司应表现出更高的可预测性。 他主张建立一个监管框架,以确保人工智能朝着预期的方向发展。

查看评论
created by ceallan