ChatGPT爆火, 谷歌Meta等在压力下被迫加快AI开发和部署

摘要:

1月29日消息,谷歌、Facebook和微软帮助构建了人工智能的框架,但规模较小的初创公司正在将其推向大众,这迫使科技巨头们加快AI开发速度。据消息人士透露,由于围绕ChatGPT的关注激增,Meta和谷歌内部压力也在增大,甚至可能为了行动更快而撇开某些潜在的安全担忧。

早在AI研究公司OpenAI于2011年11月份首次推出AI聊天机器人ChatGPT三个月前,Facebook母公司Meta就曾发布过类似的聊天机器人。但Meta首席人工智能科学家雅恩·勒昆(Yann LeCun)表示,与ChatGPT立即爆火、上线五天里就有100多万用户不同,Meta的Blenderbot让人觉得很无聊。

上周,勒昆在AI咨询公司Collective[i]主办的论坛上表示:“Blenderbot之所以让人觉得无聊,是因为它的设计非常安全。”他将Blenderbot的不温不火归咎于Meta对内容审核过于谨慎,比如若用户询问宗教问题,该公司就会指示聊天机器人改变话题。另一方面,ChatGPT却在谈论宗教著作中的谬误概念。

ChatGPT正在迅速成为主流,因为微软正在努力将其纳入其流行的办公软件中,并向其他企业出售该工具的使用权限。微软最近向ChatGPT开发公司OpenAI公司投资了数十亿美元。根据对六名离职和在职谷歌、Meta员工的采访,对ChatGPT的关注激增正在促使包括这两家公司在内的科技巨头内部压力激增,迫使他们更快地采取行动,可能会搁置对某些潜在安全问题的担忧。

科技巨头AI工具发布慢受到质疑

其中一人表示,在Meta,员工最近分享了内部备忘录,敦促公司加快AI项目的审批流程,以便利用最新技术。而谷歌本身就帮助开创了支撑ChatGPT的部分技术,该公司最近发布了围绕推出AI产品的“红色代码”,并提出了所谓的“绿色车道”,以缩短评估和减轻AI潜在危害的过程。

ChatGPT以及Dall-E 2、Stable Diffusion等文本转图像等工具,都属于所谓的生成性人工智能(AIGC)。它们通过借鉴现有的、人类创造的内容来确定某些模式,以此来创作自己的作品。这项技术是由谷歌等大型科技公司首创的,但它们近年来变得更加保守,只发布新的模型或演示版本,而对整个产品保密。与此同时,像OpenAI这样的研究实验室迅速发布了他们的最新版本,这引发了人们对谷歌语言模型LAMDa等企业产品的质疑。

自从像微软AI聊天机器人Tay等失败以来,科技巨头们始终都感觉很紧张。2016年发布仅仅不到一天,Tay就发布种族歧视等不当言论,导致微软立即将其关闭。Meta为Blenderbot进行了辩护,并在其发表种族歧视言论后放弃了它。去年11月,另一款名为Galactica的AI工具因其不够准确、有时存在偏见而受到批评,也在短短三天后被下线。

谷歌AI部门的一名员工表示:“人们觉得OpenAI的技术比这些老牌公司更新、更令人兴奋,而且犯下的错误更少,他们现在可以逃脱诸多指责。”他指的是公众愿意在不那么严格的情况下接受ChatGPT。有些AI领域的顶尖人才已经跳槽到机制更灵活的初创公司,比如OpenAI和Stable Diffusion等。

有些AI伦理学家担心,在信任和安全专家能够研究这些风险之前,大型科技公司匆忙进入市场可能会让数十亿人面临潜在的危害,比如分享不准确的信息、生成假图像或让学生有能力在学校考试中作弊。该领域的其他人也认同OpenAI的理念,即向公众发布工具是评估现实世界危害的唯一途径。在减轻了某些可预测的风险后,向公众发布工具通常名义上处于“测试期”。

创企抢先发布AI工具获巨大优势

Meta基础AI研究部门董事总经理乔尔·皮诺(Joelle Pineau)说:“AI的发展速度快得令人难以置信,我们一直在关注这个领域,并确保我们拥有高效的审查流程,但当务之急是做出正确的决定,并发布最适合我们社区的AI模型和产品。”

谷歌发言人林莉莉(Lily Lin)表示:“我们相信,AI是一项基础性和变革性技术,对个人、企业和社区都非常有用。我们需要考虑这些创新可能产生的更广泛的社会影响。我们继续在内部测试我们的AI技术,以确保它能提供帮助,并能够安全使用。”

微软通信主管弗兰克·肖(Frank Shaw)称,当微软在其产品中使用DALE-2等AI工具,并将与OpenAI合作时,该公司将构建额外的安全措施。他说:“微软多年来始终在致力于推动AI领域的发展,并公开指导如何以负责任和符合道德的方式在我们的平台上创建并使用这些技术。”

美国佐治亚理工学院计算机教授、机器学习专家马克·里德尔(Mark Riedl)表示,ChatGPT背后的技术不一定比谷歌和Meta开发的技术更好,但其发布语言模型供公众使用的做法给了它巨大优势。里德尔说:“在过去的两年里,他们始终在利用一群人类向GPT提供反馈,比如对不合适或不满意的答案给予‘否定’,这个过程被称为“从人类反馈中强化学习”。

科技巨头愿意冒险加速部署AI工具

在科技股暴跌之际,硅谷突然愿意考虑承担更多的声誉损失风险。当谷歌上周裁员1.2万人时,其首席执行官桑达尔·皮查伊(Sundar Pichai)写道,该公司已经进行了严格的审查,将重点放在最优先事项上,并两次提到了其对AI的早期投资。

十年前,谷歌成为AI领域无可争辩的领导者。2014年,谷歌收购了尖端AI实验室DeepMind,并于2015年开源了其机器学习软件TensorFlow。到2016年,皮查伊承诺将谷歌转变为一家“AI优先”的公司。次年,谷歌发布了转换器,这是其软件架构的关键部分,掀起了当前的生成式AI浪潮。

谷歌不断推出更先进的技术,推动整个领域向前发展,在语言理解方面取得了许多突破,帮助改进了谷歌搜索。在大型科技公司内部,审查尖端AI道德影响的制衡体系没有确保隐私或数据安全那么成熟。通常,由AI研究人员和工程师组成的团队会就他们的发现发表论文,将他们的技术整合到公司现有的基础设施中,或者开发新产品,这一过程有时可能会与其他负责AI开发的团队产生冲突,因为他们面临着将创新更快推向公众的压力。

谷歌在2018年发布了其著名的AI原则,此前员工曾抗议Project Maven(为美国国防部无人机提供计算机视觉的合同),消费者对Duplex(可以呼叫餐厅并进行订餐的AI系统)的演示也表示强烈反对。去年8月,谷歌开始通过其应用程序AI Test Kitchen向消费者提供限量版LaMDA。前谷歌软件工程师布莱克·莱莫因(Blake Lemoine)声称,他相信LaMDA存在感知能力,但该功能还没有完全向公众发布,谷歌计划在2022年底这样做。

但这些技术进步背后的顶尖AI人才却正变得焦躁不安。在过去1年左右的时间里,谷歌许多顶级AI研究人员离职,成立了围绕大型语言模型的初创公司,包括Character.AI、Cohere、Adept、Inflection.AI以及Inworld AI等。此外,还有使用类似模型开发聊天界面的搜索初创公司,例如由谷歌前高管斯里达尔·拉马斯瓦米(Sridhar Ramaswamy)运营的Neeva。

Character.AI创始人诺姆·沙泽(Noam Shazeer)帮助发明了转换器和其他核心机器学习架构。他表示,用户数据的飞轮效应是无价的。当他首次将用户反馈应用于Character.AI时,参与度上升了30%以上。Character.AI允许任何人根据对真人或虚构人物的简短描述来生成聊天机器人。

在Google Brain工作了三年的尼克·弗罗斯特(Nick Frosst)说,像谷歌和微软这样的大公司通常都专注于利用AI来改进他们庞大的现有商业模式。弗罗斯特在多伦多与人联合创立了Cohere,这是一家创建大型语言模型的初创公司,可以定制这些模型来帮助企业。他的创业伙伴艾丹·戈麦斯(Aidan Gomez)在谷歌工作时也帮助开发了转换器。弗罗斯特说:“这个领域发展得如此之快,对我来说,领先的都是小公司并不令人感到惊讶。”

在过去的十年里,AI领域经历了几次炒作周期,但对Dall-E和ChatGPT的狂热达到了新的高度。在OpenAI发布ChatGPT后不久,推特上的科技网红开始预测,AIGC将预示着谷歌搜索的衰亡。ChatGPT以一种可访问的方式提供简单的答案,并且不要求用户在蓝色链接中搜索。此外,在发布25年之后,谷歌的搜索界面变得臃肿起来,充斥着试图利用该系统的广告和营销人员。

技术专家Can Duruk在他的时事通讯《Margins》上写道:“由于他们的垄断地位,谷歌已经让他们曾经令人难以置信的搜索体验退化成了垃圾邮件泛滥、搜索引擎驱动的地狱。”

AI消费产品蕴藏巨大盈利潜力?

在匿名应用Blind上,科技工作者发布了数十个关于谷歌能否与ChatGPT竞争的问题。著名研究科学家David Ha在推特上写道:“如果谷歌不采取行动,开始发布类似应用,他们将被载入史册:它培养了整整一代机器学习研究人员和工程师,而这些研究人员和工程师后来又在其他公司部署了这项技术。”最近,David Ha离开Google Brain,加盟开源文本转图像的初创公司Stable Diffusion。

谷歌的员工们表示,仍留在公司内部的AI工程师和他一样沮丧。多年来,员工们始终在发送备忘录,表示要在搜索中加入AI聊天功能。但他们也明白,谷歌有合理的理由不急于改变其搜索产品。如果聊天机器人直接通过谷歌搜索回答问题,如果该答案被发现是有害的或抄袭的,则可能会增加它的责任。

像OpenAI这样的聊天机器人经常犯事实性错误,并经常根据问题的提问方式改变答案。一位前谷歌AI研究员表示,从提供一系列直接链接到原始材料的问题的答案,转向使用聊天机器人给出单一、权威的答案,将是一个重大转变,让谷歌内部的许多人感到紧张。这位知情人士说,谷歌不想承担这种提供单一答案的角色或责任。之前的搜索更新,比如添加即时答案,都是非常缓慢而谨慎进行的。

然而,在谷歌内部,对AI安全流程的部分失望来自一种感觉,即由于担心负面宣传,尖端技术从未作为产品发布。比方说,有些AI模型存在偏见。

据一位了解公司内部讨论情况的人士透露,Meta员工还不得不应对公司对糟糕公关的担忧。在推出新产品或发表研究成果之前,Meta员工必须回答有关宣传其工作的潜在风险问题,包括其研究如何可能被误解。有些项目由公关人员以及内部合规专家进行审查,这些专家确保该公司的产品符合2011年联邦贸易委员会关于如何处理用户数据的协议。

对于非营利组织“分布式AI研究所”(Distributed AI Research Institute)的执行董事蒂姆尼特·格布鲁(Timnit Gebru)来说,谷歌将其负责任AI团队边缘化的前景并不一定意味着权力或安全担忧的转移,因为那些警告潜在危害的人从一开始就没有得到授权。

从格布鲁的角度来看,谷歌发布AI工具的速度很慢,因为该公司缺乏足够强大的商业动机,不愿冒着声誉受损的风险。然而,在ChatGPT发布后,谷歌可能会看到其从这些消费产品中赚钱的能力发生了变化,而不仅仅是为搜索或在线广告提供动力。格布鲁称:“现在他们可能认为这对他们的核心业务构成了威胁,所以或许他们应该冒险一试。”

拉姆曼·乔杜里(Rumman Chowdhury)曾领导推特的机器学习伦理团队,直到去年11月埃隆·马斯克(Elon Musk)解散了该团队。她表示,她预计谷歌等公司在争先恐后地追赶OpenAI的过程中,将越来越多地将内部批评者和伦理学家排挤在外。她说:“我们原来以为是中国在推动美国AI技术进步,但现在看起来像是初创企业在背后发力。”(小小)

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan