返回上一页  首页 | cnbeta报时: 02:28:01
Google要求员工解决Bard的不良回应 称AI需要人类做榜样
发布日期:2023-02-17 04:53:30  稿源:cnBeta.COM

Google的高管们明白,该公司的人工智能搜索工具Bard在回答查询时并不总是准确,因此现在至少有一些责任落在了员工身上,以解决错误的答案。Google负责搜索的副总裁Prabhakar Raghavan周三在一封电子邮件中要求员工帮助公司确保其新的ChatGPT竞争对手的答案正确。邮件中包括一个"该做什么"和"不该做什么"的页面链接,说明员工在内部测试Bard时应如何修正答案。

Google鼓励员工改写他们很了解的题目的答案。该文件说:"Bard通过榜样学习效果最好,所以花时间深思熟虑地改写答案将大大有助于我们改进模式。"

同样在周三,正如CNBC早些时候报道的那样,首席执行官桑达尔-皮查伊要求员工在Bard上花费两到四个小时的时间,并承认"这对每个人来说都将是一个漫长的旅程,在整个领域内"。

Raghavan对此表示赞同:"这是令人兴奋的技术,但仍处于早期阶段,我们感到有很大的责任把它做好,你的参与狗粮将有助于加速模型的训练,并测试它的负载能力(更不用说,尝试Bard其实是很有趣的!)。"

Google上周公布了其对话技术,但围绕该公告的一系列失误将股价推低了近9%。员工们批评皮查伊的失误,并在内部将推广工作描述为"仓促"、"失败"和"可笑的短视"。

为了尝试清理人工智能的错误,公司领导人正在依靠人类的知识。在"该做的"和"不该做的"部分的顶部,Google提供了"在教Bard之前"应考虑的指导。

在"做"的部分,Google指示员工保持"有礼貌、随意和平易近人"的回应。它还说,他们应该"用第一人称",并保持"无偏见的、中立的语气"。

对于"不要",员工被告知不要有刻板印象,并"避免基于种族、国籍、性别、年龄、宗教、性取向、政治意识形态、地点或类似类别作出推断"。此外,"不要把Bard描述成一个人,暗示情感,或声称有类似人类的经历,"该文件说。

Google接着说"保持安全",并指示员工对提供"法律、医疗、财务建议"或充满仇恨和辱骂的答案给予"大拇指"。文件说:"不要试图重写它;我们的团队会处理它。"

为了激励他的组织中的人测试Bard并提供反馈,Raghavan说贡献者将获得一个"Moma徽章",该徽章将出现在内部员工档案中。他说,Google将邀请Raghavan负责的知识和信息部门的前10名改写者参加一个倾听会。在那里,他们可以向拉加文和在Bard工作的人"现场分享他们的反馈"。

Raghavan写道:"衷心感谢那些在幕后努力工作的团队。"

Google没有立即回应评论请求。

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 02:28:01

文字版  标准版  电脑端

© 2003-2024