Anthropic CEO称DeepSeek在关键的生物武器数据安全测试中表现"最差"

摘要:

Anthropic 的首席执行官达里奥-阿莫代(Dario Amodei)担心竞争对手 DeepSeek,这家中国人工智能公司凭借其 R1 模型在硅谷掀起了一场风暴,然而他的担忧可能比 DeepSeek 将用户数据发回中国的典型看法更为严重。

乔丹-施耐德(Jordan Schneider)的ChinaTalk播客的采访中,阿莫德说,DeepSeek在Anthropic进行的安全测试中生成了罕见的生物武器信息。

DeepSeek 的性能是"我们测试过的所有模型中最差的",阿莫代称。"它完全无法阻止生成这些信息"。

阿莫代表示,这是人类学定期对各种人工智能模型进行评估的一部分,以评估其潜在的国家安全风险。 他的团队会研究模型是否能生成Google或教科书上不容易找到的生物武器相关信息。 Anthropic将自己定位为认真对待安全问题的人工智能基础模型提供商。

阿莫迪说,他并不认为 DeepSeek 目前的模型在提供稀有和危险信息方面"真的很危险",但在不久的将来可能会如此。 尽管他称赞 DeepSeek 的团队是"才华横溢的工程师",但他建议该公司"认真对待这些人工智能安全问题"。

阿莫德还支持对中国实行强有力的芯片出口管制,理由是担心这些芯片会给中国军方带来优势。

阿莫代在 ChinaTalk 采访中没有说明 Anthropic 测试的 DeepSeek 型号,也没有提供有关这些测试的更多技术细节。

DeepSeek 的崛起在其他方面也引发了对其安全性的担忧。 例如,思科安全研究人员上周表示,DeepSeek R1 在安全测试中未能阻止任何有害提示,越狱成功率达到 100%。

思科没有提到生物武器,但表示能够让 DeepSeek 生成有关网络犯罪和其他非法活动的有害信息。 值得一提的是,Meta 的 Llama-3.1-405B 和 OpenAI 的 GPT-4o 的失败率也很高,分别为 96% 和 86%;

DeepSeek 的快速采用是否会受到类似安全问题的严重影响,我们拭目以待。 AWS和微软等公司已经公开表示要将 R1 集成到他们的云平台中--具有讽刺意味的是,亚马逊是Anthropic的最大投资者。

另一方面,越来越多的国家政府与跨国公司,尤其是像美国海军和五角大楼这样的政府组织开始禁止 DeepSeek。

时间会证明这些努力是否奏效,或者 DeepSeek 的全球崛起是否会继续下去。 无论如何,阿莫德说他确实认为 DeepSeek 是一个新的竞争对手,与美国顶尖的人工智能公司处于同一水平。

他在 ChinaTalk 上说:"这里的新事实是,出现了一个新的竞争对手。在可以训练人工智能的大公司中--Anthropic、OpenAI、Google,也许还有Meta和xAI--现在DeepSeek也许正在被加入这个类别。"

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan