Anthropic CEO称人工智能模型产生的幻觉实际上要比人类少
Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 周四在旧金山举行的 Anthropic 首届开发者活动 Code with Claude 的新闻发布会上表示,他认为,当今的人工智能模型产生幻觉(即虚构事物并将其呈现为真实事物)的频率实际上低于人类。
Amodei 在阐述一个更重要的观点时说了这些:人工智能幻觉不会限制 Anthropic 走向 AGI——具有人类水平或更高级智能的人工智能系统。
“这实际上取决于你如何衡量它,但我怀疑人工智能模型产生的幻觉可能比人类少,但它们产生幻觉的方式更令人惊讶,”Amodei 说。
Anthropic 的首席执行官是业内对 AI 模型实现通用人工智能 (AGI) 前景最为看好的领导者之一。Amodei 在他去年撰写的一篇广为流传的论文中表示,他相信通用人工智能 (AGI) 最早可能在 2026 年实现。在周四的新闻发布会上,这位 Anthropic 的首席执行官表示,他看到这方面的进展稳步推进,并指出“水位正在全面上涨”。
“大家都在寻找(人工智能)能做什么的硬性障碍,”阿莫迪说,“但根本找不到。根本就没有这种东西。”
不少人工智能领袖认为,幻觉是实现通用人工智能 (AGI) 的一大障碍。本周早些时候,Google DeepMind 首席执行官 Demis Hassabis 表示,目前的人工智能模型存在太多“漏洞”,会错答太多显而易见的问题。例如,本月早些时候,Anthropic 的一名代理律师被迫在法庭上道歉,原因是该公司在一份法庭文件中使用 Claude 来创建引文,而该人工智能聊天机器人产生了幻觉,错误地记错了姓名和头衔。
很难验证 Amodei 的说法,主要是因为大多数幻觉基准测试都是让 AI 模型相互竞争,而不是将模型与人类进行比较。某些技术似乎有助于降低幻觉率,例如允许 AI 模型访问网络搜索。此外,一些 AI 模型,例如 OpenAI 的GPT-4.5,在基准测试中的幻觉率明显低于早期系统。
然而,也有证据表明,在高级推理AI模型中,幻觉实际上正在恶化。OpenAI的o3和o4-mini模型的幻觉发生率比OpenAI上一代推理模型更高,而该公司并不真正了解其中的原因。
在随后的新闻发布会上,阿莫迪指出,电视广播员、政客以及各行各业的人类都会犯错。阿莫迪表示,人工智能也会犯错,但这并不会降低其智能。然而,Anthropic 的首席执行官承认,人工智能模型将不真实的事情当成事实的自信可能是一个问题。
事实上,Anthropic 已经对人工智能模型欺骗人类的倾向进行了大量研究,这个问题在该公司最近发布的 Claude Opus 4 中尤为普遍。安全机构 Apollo Research 获得了该人工智能模型的早期测试权限,发现 Claude Opus 4 的早期版本表现出很强的针对人类进行阴谋和欺骗的倾向。Apollo 甚至建议 Anthropic 不应该发布该早期模型。Anthropic 表示,他们已经提出了一些缓解措施,似乎可以解决 Apollo 提出的问题。
Amodei 的评论表明,即使人工智能模型仍然会产生幻觉,Anthropic 也可能将其视为 AGI,或相当于人类水平的智能。然而,按照许多人的定义,产生幻觉的人工智能可能达不到 AGI 的水平。