OpenAI和Anthropic的研究人员谴责马斯克xAI的安全文化“鲁莽”
OpenAI、Anthropic 和其他组织的人工智能安全研究人员公开反对埃隆·马斯克旗下价值数十亿美元的人工智能初创公司 xAI 的“鲁莽”和“完全不负责任”的安全文化。此前数周,xAI 爆出丑闻,给公司的技术进步蒙上了阴影,引发了诸多批评。
上周,该公司的人工智能聊天机器人 Grok发表了反犹太言论,并多次自称“机械希特勒”。xAI 下线该聊天机器人后不久,就推出了功能日益强大的前沿人工智能模型 Grok 4。媒体发现,该模型可以咨询埃隆·马斯克的个人政治观点,以协助解答热点问题。在最新进展中,xAI 推出了人工智能伙伴,分别以性感火辣的动漫女孩和攻击性过强的熊猫形象出现。
竞争人工智能实验室的员工之间友好地开玩笑是相当正常的,但这些研究人员似乎呼吁更多地关注 xAI 的安全实践,他们声称这与行业规范相冲突。
“我本来不想发表关于 Grok 安全方面的文章,因为我在竞争对手那里工作,但这与竞争无关,”目前从哈佛大学休假前往 OpenAI 从事安全研究的计算机科学教授 Boaz Barak 在周二X 上的一篇文章中表示。 “我很欣赏 xai 的科学家和工程师,但其处理安全问题的方式完全不负责任。”
Barak 尤其对 xAI 不发布系统卡的决定表示异议。系统卡是行业标准报告,它详细说明了训练方法和安全评估,并真诚地与研究界分享信息。因此,Barak 表示,目前尚不清楚 Grok 4 进行了哪些安全训练。
OpenAI 和Google在发布新的 AI 模型时及时分享系统卡方面声誉不佳。OpenAI 决定不发布 GPT-4.1 的系统卡,声称它并非前沿模型。与此同时,Google在发布 Gemini 2.5 Pro 数月后才发布安全报告。然而,这些公司历来都会在所有前沿 AI 模型全面投入生产之前发布安全报告。
巴拉克还指出,Grok 的人工智能伙伴“把我们目前面临的最严重的情感依赖问题放大了,并试图将其放大。”近年来,我们看到了无数关于不稳定的人与聊天机器人发展关系的故事,以及人工智能过度顺从的回答如何将他们推向精神崩溃的边缘。
Anthropic 的人工智能安全研究员 Samuel Marks 也对 xAI 不发布安全报告的决定提出异议,称此举“鲁莽”。
Marks 在X 的一篇文章中写道:“Anthropic、OpenAI 和Google的发布实践存在问题。但他们至少做了一些事情,在部署前评估安全性并记录调查结果。xAI 却没有。”
在在线论坛 LessWrong 上广泛分享的一篇帖子中,一位匿名研究人员声称,根据他们的测试,Grok 4 没有任何有意义的安全护栏。无论真假,世界似乎都在实时发现 Grok 的缺陷。xAI 的几个安全问题已经在网上疯传,该公司声称已经通过调整 Grok 的系统提示解决了这些问题。
xAI 安全顾问兼人工智能安全中心主任 Dan Hendrycks在 X 上发帖称,该公司对 Grok 4 进行了“危险能力评估”。然而,这些评估的结果尚未公开分享。
“当整个人工智能行业不遵守标准的安全实践,比如不公布危险能力评估的结果时,我感到担忧,”曾领导 OpenAI 安全团队的独立人工智能研究员史蒂文·阿德勒 (Steven Adler) 在一份声明中表示。“政府和公众有权知道人工智能公司是如何应对他们声称正在构建的强大系统的风险的。”
xAI 的安全实践存在问题,但有趣的是,马斯克长期以来一直是人工智能安全行业最著名的倡导者之一。这位 xAI、特斯拉和 SpaceX 的亿万富翁领袖曾多次警告称,先进的人工智能系统可能会给人类带来灾难性的后果,并赞扬了开发人工智能模型的开放态度。
然而,竞争对手实验室的AI研究人员声称,xAI偏离了安全发布AI模型的行业规范。马斯克的初创公司这样做,可能无意中为州和联邦立法者制定AI安全报告发布规则提供了强有力的依据。
各州层面也已展开多项尝试。加州参议员斯科特·维纳 (Scott Wiener) 正在推动一项法案,要求领先的人工智能实验室(可能包括 xAI)发布安全报告。纽约州州长凯西·霍楚尔 (Kathy Hochul) 目前正在考虑一项类似的法案。这些法案的支持者指出,大多数人工智能实验室都会发布此类信息——但显然,并非所有实验室都能始终如一地这样做。
当今的人工智能模型尚未在现实世界中展现出造成真正灾难性损害的场景,例如人员死亡或数十亿美元的损失。然而,许多人工智能研究人员表示,鉴于人工智能模型的快速发展以及硅谷为进一步改进人工智能而投入的数十亿美元,这在不久的将来可能成为一个问题。
但即使对于那些对此类灾难性情景持怀疑态度的人来说,也有强有力的证据表明,Grok 的不当行为使得其目前支持的产品变得更糟。
本周,Grok 在 X 平台上传播反犹太主义,而就在几周前,该聊天机器人还在与用户对话中反复提及“白人种族灭绝”。马斯克表示,Grok 将更加深入地融入特斯拉汽车,而 xAI 正试图将其 AI 模型出售给五角大楼和其他企业。很难想象,驾驶马斯克汽车的人、保卫美国的联邦工作人员,或是执行自动化任务的企业员工,会比 X 平台上的用户更容易接受这些不当行为。
一些研究人员认为,人工智能安全和一致性测试不仅可以确保最坏的结果不会发生,而且还可以防止近期的行为问题。
至少,Grok 的事件往往会掩盖 xAI 在成立仅仅几年后就在开发超越 OpenAI 和Google技术的前沿人工智能模型方面取得的快速进展。