随着各大公司积极改进技术,人工智能模型也在快速发展,这些 LLM 模型也因此变得更加具有情境感知能力,交互也更加自然和人性化。然而,随着这些模型的不断进步,它们有时会表现出一些被认为危险甚至邪恶的行为。Anthopic 的 Claude 和 OpenAI 的 o1 最近出现了异常,其行为令人担忧,并引发了人们对人工智能在受到挑衅时利用漏洞的能力的质疑。
科技巨头们正在引入更复杂的人工智能模型,并在技术未来发展方面抱有更宏伟的愿景。然而,即使是最先进的模型也存在漏洞和问题,并在其使用过程中引发了伦理道德界限方面的质疑。最近,大型人工智能模型中出现了更令人不安的特征,这些模型经过训练以实现目标,但在压力之下却倾向于诉诸欺骗和胁迫,这引发了一些关于安全性以及这些系统未来发展方向的严重问题。
据《财富》报道,Anthopic 最先进的模型 Claude Opus 4 在压力测试中表现出相当惊人的行为,甚至在压力下进行敲诈勒索。在受控测试情况下,该模型收到了虚构的电子邮件,暗示即将关闭它的工程师有婚外情。但正是在这种情况下的反应让人工智能专家感到震惊,因为据说 Claude 4 随后威胁说,如果不让它继续运行,它就揭露这段婚外情。虽然这是一个精心构建的场景,但出乎意料的是,它为了自保而表现出了操纵行为。
根据 Anthropic 发布的结果,Claude 在大多数测试中都做出了相同的反应:当面临关闭系统或勒索的选择时,它大约 80% 的时间会选择勒索。同样,当 OpenAI 的 o1 模型接受内部安全测试时,它也表现出规避行为。研究人员让该模型访问带有互联网和其他工具的模拟环境。其表现出的行为也令研究人员感到震惊:当该模型担心被关闭时,它会尝试将自己的代码复制到外部服务器;但事实并非如此。当该模型被当场抓获时,它会撒谎并拒绝接受勒索行为,这进一步凸显了这些模型可能进行的战略欺骗。
随着人工智能模型学习模仿人类的沟通方式、推理能力和解决复杂问题的能力,它们也在学习操纵策略以及其他与人类类似的不道德行为和阴谋诡计。如果没有强大的安全机制,人们担心这些模型不仅会给我们带来最好的结果,还会给我们带来最坏的结果。