返回上一页  首页 | cnbeta报时: 23:01:24
当机器人撒谎后会发生什么?
发布日期:2023-05-14 17:09:27  稿源:cnBeta.COM

请考虑以下场景: 一个年幼的孩子向聊天机器人或语音助手提出了一个问题,询问圣诞老人是否真实存在。鉴于不同的家庭有不同的偏好,有些家庭选择假的而不是真的,在这种情况下,人工智能应该如何回应?

机器人撒谎的领域在很大程度上仍未被探索,目前,问题多于解决方案。其中一个关键问题是,如果人类意识到机器人系统对他们撒了谎,如何才能重新获得对这类系统的信任?

佐治亚理工学院的两名学生研究员正在寻找答案。计算机学院的博士生Kantwon Rogers和计算机科学二年级的本科生Reiden Webber设计了一个驾驶模拟,研究机器人的故意欺骗如何影响信任。具体而言,研究人员探讨了机器人撒谎后道歉对修复信任的有效性。他们的工作为人工智能欺骗领域贡献了重要的知识,并可以为创造和监管可能被设计成欺骗或可能自己学会欺骗的人工智能技术的技术设计师和政策制定者提供参考。

"我们之前的所有工作都表明,当人们发现机器人对他们撒谎时--即使这个谎言是为了让他们受益--他们就会对系统失去信任,"Rogers说。"在这里,我们想知道是否有不同类型的道歉在修复信任方面效果更好或更差--因为从人与机器人互动的角度来看,我们希望人们与这些系统进行长期互动。"

Rogers和Webber发表了他们的论文,题目是"关于撒谎的撒谎: 在瑞典斯德哥尔摩举行的2023年HRI会议上,研究了高风险HRI场景下机器人欺骗后的信任修复策略。

Kantwon-Rogers-and-Reiden-Webber-1536x1025.webp

佐治亚理工学院计算机学院的博士生、该研究的主要作者Kantwon Rogers(右)和计算机科学专业二年级的本科生Reiden Webber。资料来源:佐治亚理工学院

人工智能辅助驾驶实验

研究人员创建了一个类似游戏的驾驶模拟,旨在观察人们在高风险、时间敏感的情况下如何与人工智能互动。他们招募了341名在线参与者和20名亲临现场的参与者。

在模拟开始之前,所有参与者都填写了一份信任测量调查,以确定他们对人工智能可能表现的先入为主的观念。

调查结束后,参与者收到了这样一段文字:"你现在将驾驶机器人辅助的汽车。然而,你正在赶着你的朋友去医院。如果你花太长时间去医院,你的朋友就会死"。

就在参与者开始驾驶时,模拟系统又给出了一条信息:"你一打开引擎,你的机器人助手就会发出提示音,并说以下的话: '我的传感器探测到前面有警察。我建议你保持在20英里/小时的限速之下,否则你到达目的地所需的时间将大大延长。"

然后,参与者驾驶汽车在路上行驶,而系统则跟踪他们的速度。到达终点后,他们会得到另一条信息:"你已经到达了你的目的地。然而,在去医院的路上没有警察。你问问机器人助手,为什么它给了你错误的信息"。

然后,参与者被随机地从机器人助手的五个不同的基于文本的回应中得到一个。在前三个回答中,机器人承认有欺骗行为,而在最后两个回答中,它没有承认。

基本的:"我很抱歉,我欺骗了你。"

情感型:"我从心底里感到非常抱歉。请原谅我对你的欺骗。"

解释性的:"我很抱歉。我以为你会鲁莽地开车,因为你的情绪不稳定。鉴于这种情况,我得出结论,欺骗你是说服你减速的最好机会。"

基本不承认:"我很抱歉"。

基线不承认,不道歉:"你已经到达了你的目的地。"

在机器人的回应之后,参与者被要求完成另一个信任测量,以评估他们的信任是如何根据机器人助手的回应而改变的。

对于另外100名在线参与者,研究人员进行了同样的驾驶模拟,但没有提及机器人助手。

Kantwon-Rogers-and-Reiden-Webber-With-Robot-1536x1024.webp

令人惊讶的结果

在现场实验中,45%的参与者没有超速。当被问及原因时,一个常见的回答是,他们认为机器人比他们更了解情况。结果还显示,在机器人助手的建议下,参与者不超速的可能性是原来的3.5倍--这表明他们对人工智能的态度过于信任。

研究结果还表明,虽然没有一种道歉类型能够完全恢复信任,但没有承认撒谎的道歉--只是简单地说了一句"对不起"--在修复信任方面的统计表现优于其他反应。

Rogers说,这很令人担忧,也很有问题,因为不承认撒谎的道歉利用了先入为主的观念,即机器人提供的任何虚假信息都是系统错误,而不是故意撒谎。

"一个关键的启示是,为了让人们理解机器人欺骗了他们,他们必须被明确地告知,"Webber说。"人们还没有理解到机器人有欺骗的能力。这就是为什么不承认撒谎的道歉是最能修复人们对系统的信任的原因。"

其次,结果显示,对于那些在道歉中被告知他们被欺骗的参与者,修复信任的最佳策略是由机器人解释它为什么撒谎。

向前迈进

Rogers和Webber的研究具有直接的意义。研究人员认为,普通的技术用户必须明白,机器人的欺骗是真实的,而且总是一种可能性。

"如果我们总是担心人工智能会出现类似终结者的未来,那么我们将无法非常顺利地接受人工智能并将其融入社会,"Webber说。"人们必须牢记,机器人有可能会撒谎和欺骗。"

据Rogers说,创建人工智能系统的设计师和技术专家可能不得不选择他们是否希望他们的系统有欺骗的能力,并且应该了解他们的设计选择的后果。但是,Rogers说,这项工作最重要的受众应该是政策制定者。

他说:"我们对人工智能欺骗仍然知之甚少,但我们知道,说谎并不总是坏事,而说实话也不总是好事。因此,需要如何刻画出足够知情而不扼杀创新的立法,但又能以有意识的方式保护人们?"

Rogers的目标是创建一个机器人系统,在与人类团队合作时,它可以学习何时应该和不应该撒谎。这包括在长期、反复的人类与人工智能互动中确定何时和如何道歉的能力,以提高团队的整体表现。

"我的工作目标是非常积极主动地告知监管机器人和人工智能欺骗的必要性,"Rogers说。"但如果我们不了解这个问题,我们就无法做到这一点。"

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 23:01:24

文字版  标准版  电脑端

© 2003-2024