返回上一页  首页 | cnbeta报时: 00:01:14
谷歌生成式人工智能失败将逐渐削弱用户信任
发布日期:2024-06-02 08:42:48  稿源:BiaNews鞭牛士

对于Google来说,这是一个忙碌的阵亡将士纪念日周末,因为该公司正在努力控制其搜索平台的新 AI 概览功能带来的大量疯狂建议所带来的影响。AI Overview 旨在为搜索查询提供基于 AI 的生成性响应。通常情况下,它确实会这样做。但上周,它还告诉用户,他们可以使用无毒胶水来防止奶酪从披萨上滑落,他们每天可以吃一块石头,并声称巴拉克·奥巴马是第一位穆斯林总统。

Google对此作出回应,删除了这些回复,并表示正在利用这些错误来改进其系统。但这些事件,加上Google灾难性的 Gemini 图像生成器发布,导致该应用程序生成了历史上不准确的图像,可能会严重损害这家搜索巨头的信誉。

“Google应该是互联网上的主要信息来源。”纽约大学坦登工程学院计算机科学与工程副教授 Chinmay Hegde 解释道。“如果该产品被淡化,它将慢慢侵蚀我们对Google的信任。”

Google的 AI 概览问题并不是该公司自开始其生成式 AI 驱动以来第一次遇到麻烦。该公司的 Bard 聊天机器人(Google于 2 月将其更名为 Gemini)在 2023 年 2 月的宣传视频中出现了一个错误,导致Google股价下跌。

然后还有它的Gemini 图像生成器软件,它可以生成不准确场景中不同群体的照片,包括 1943 年的德国士兵。

人工智能一直存在偏见,Google试图通过在生成人物图像时纳入更广泛的种族多样性来克服这一问题。但该公司矫枉过正,软件最终拒绝了一些针对特定背景人物图像的请求。Google对此作出回应,暂时下线了该软件,并为此事道歉。

与此同时,AI 概览问题出现的原因在于Google表示用户问了一些不常见的问题。

在吃石头的例子中,Google发言人表示,似乎一个关于地质学的网站将其他来源的有关该主题的文章联合发布到他们的网站上,而这恰好包括了一篇最初出现在洋葱报上的文章。AI 概览链接到了该来源。

这些都是很好的解释,但Google继续发布存在缺陷的产品并需要进行解释的事实让人感到厌倦。

卡内基梅隆大学泰珀商学院商业伦理学副教授德里克·莱本 (Derek Leben) 表示:在某种程度上,你必须对自己推出的产品负责。

“你不能只是说......我们将把人工智能融入到我们所有成熟的产品中,而且它处于持续的测试模式,对于它造成的任何错误或问题,我们都不会负责,甚至不会受到指责,就对产品本身的信任而言。”

Google是网上查找事实的首选网站。每当我和朋友就一些无聊的话题争论时,我们中的一个总会大喊:“好吧,Google一下!”你很可能也这么做过。也许不是因为你想证明你比朋友更了解辛普森一家的一些鲜为人知的事实,但仍然如此。

关键是,Google已经建立了值得信赖的声誉,而它的人工智能失误正在慢慢侵蚀这一声誉。

那么,为什么会出现这样的失误呢?Hegde 说,公司只是行动太快,在产品尚未准备好时就发布,以期超越微软等竞争对手(微软) 和 OpenAI。

“研究的步伐如此之快,以至于研究和产品之间的差距似乎正在显著缩小,而这导致了所有这些表面问题。”他解释道。

自 2023 年 2 月微软和 OpenAI 联手发布其 Bing 搜索引擎和聊天机器人的生成式 AI 版本以来,Google一直在努力摆脱落后于微软和 OpenAI 的形象。

本月早些时候,OpenAI 甚至在 I/O 开发者大会开始前一天宣布了其强大的 GPT-4o AI 模型,从而抢在了Google之前。

但如果击败竞争对手意味着推出会产生错误或有害信息的产品,那么Google就有可能给用户留下这样的印象:它的生成式人工智能成果不可信,最终不值得使用。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 00:01:14

文字版  标准版  电脑端

© 2003-2024