谷歌与兄弟公司DeepMind抛开恩怨 联手追赶OpenAI
据报道,OpenAI不仅凭借人工智能聊天机器人成功超越谷歌,还意外促成了另外一件原本几乎不可能发生的事情:这迫使Alphabet旗下谷歌以及DeepMind的两大人工智能研究团队暂时搁置多年的恩怨,决定联手追赶OpenAI。
知情人士透露,谷歌大脑(Google Brain)的软件工程师正与DeepMind的员工合作开发与OpenAI竞争的软件。DeepMind是Alphabet旗下的一家人工智能实验室。谷歌之前为挑战OpenAI的ChatGPT而推出了Bard聊天机器人,但却在演示现场意外翻车。此后不久,Alphabet决定启动这个名为Gemini的联合项目。
一位著名谷歌人工智能研究员的辞职也对Bard的发布产生了内部影响,他曾经就这个项目的开发向Alphabet CEO桑达尔-皮查伊(Sundar Pichai)和其他高管提出过警告。
谷歌在2014年收购DeepMind,但DeepMind与谷歌大脑之间的关系更像是竞争对手,而非合作者。这两家公司都在争相改进谷歌的产品和服务,努力寻求科研突破。但现在,Alphabet旗下的这两个人工智能实验室都认为,OpenAI已经超过自己。此外,创业公司在纷纷挖角他们的重要工程师和研究员。
OpenAI在去年11月发布ChatGPT,这款聊天机器人可以模仿人类提供答案,并一举成为有史以来增长速度最快的应用之一。谷歌自己的聊天机器人Bard上周刚刚开放给部分用户使用,在某些任务上的效果似乎逊于ChatGPT。
知情人士称,谷歌最资深的人工智能研究主管兼谷歌大脑负责人杰夫-迪恩(Jeff Dean)已经在Gemini项目中担任技术角色,负责编写代码,帮助谷歌开发能与OpenAI的GPT-4相媲美的机器学习模型。由此足以看出Gemini在Alphabet内部的重要性。
这项措施也体现出谷歌调整搜索和云等多个部门的产品路线图,以应对OpenAI与微软的合作带来的竞争。OpenAI已经将ChatGPT等技术融合到微软的产品中,而微软则为这家创业公司提供资金和算力支持。
但Gemini多少有些不得已而为之的意思。Alphabet旗下的这两大人工智能实验室很少相互合作,也很少彼此分享代码。但知情人士表示,由于双方现在都希望开发与OpenAI竞争的机器学习模型,而且也都需要大量的算力支持,所以Alphabet也只能勉为其难强迫二者合作。
Bard之路,充满争议与担忧
Bard演示过程中的意外翻车揭示出谷歌的问题。知情人士透露,这款聊天机器人的开发过程充满争议,导致谷歌的著名人工智能工程师雅各布·德夫林(Jacob Devlin)今年1月辞职后很快就加入OpenAI。德夫林是一篇开创性论文的主要作者,这篇论文阐述了如何训练机器学习模型,以提高它们对一组组句子的理解能力——OpenAI已经将这项创新整合到自己的语言模型中。
德夫林是在向皮查伊、迪恩和Bard团队的其他高管表达担忧后离职的。Bard团队获得了来自谷歌大脑员工的帮助,还利用OpenAI的ChatGPT数据训练其机器学习模型。具体来说,德夫林认为,Bard团队似乎过于依赖ShareGPT的信息——ShareGPT是一个网站,人们会在这个网站上发布他们与ChatGPT之间的对话。
一些谷歌员工认为,使用这样的聊天日志会违反OpenAI的服务条款,因为后者在官方网站上明确表示,禁止使用“输出……来开发与OpenAI竞争的模型”。德夫林还对高管表示,他担心,如果过分依赖ShareGPT上共享的ChatGPT聊天日志,Bard的答案会与ChatGPT过于相似。
知情人士表示,在德夫林表达担忧后,谷歌停止使用ChatGPT的数据训练Bard。Bard团队的部分领导职能由西西-肖(Sissie Hsiao)负责,她的职位是副总裁,之前曾经负责过谷歌Assistant,这是一款与苹果Siri类似的语音助手。
谷歌发言人并未对德夫林的离职和担忧发表评论。OpenAI发言人尚未作出回应。
搜索攻防战进行时
OpenAI已在最近的AIGC(生成式人工智能)大战中处于领先地位,但具体会对Alphabet产生怎样的商业影响还不可知。尽管ChatGPT会出现许多错误,但已经有数百万人使用它及其背后的技术来快速生成博客文章、总结会议要点、制作电子表格,以及完成各种各样的任务。
这款产品迄今为止的收入还很少,但这种情况可能会改变。微软已经在OpenAI的帮助下,在自家搜索引擎中整合与ChatGPT类似的功能,希望以此提升搜索市场份额。不过,微软目前还没从谷歌手中抢走太多份额。但OpenAI似乎已经开启了一个全新的时代:应用程序已经可以理解用户通过自然语言提出的要求。
Gemini的目标是开发一个大语言模型(一种可以理解和生成类似人类语言的计算机程序),并将使用至多1万亿个参数(这个指标可以用来衡量机器学习模型的计算量)。据报道,GPT-4同样拥有大约1万亿个参数。谷歌的项目需要使用数万个TPU。TPU是谷歌开发的一种与英伟达的GPU类似的微芯片,非常适合训练大型机器学习模型。不过,Gemini可能需要数月时间才能产出实际成果。
与此同时,随着谷歌内部争相将人工智能融合到自己的产品中,该公司的其他团队也在开发自己的大语言模型。负责搜索排序的谷歌高管潘杜-纳亚克(Pandu Nayak)一直在开发一个独立的模型,希望处理特定的搜索请求。而谷歌云也在开发自己的模型来出售给云服务客户,类似于OpenAI或微软目前提供的服务。