返回上一页  首页 | cnbeta报时: 17:09:18
[视频]研究人员尝试让机器人学会拒绝某些不合理的命令
发布日期:2015-11-26 11:51:04  稿源:cnBeta.COM

当前我们所打造的交互式机器人,其在编程的时候只是考虑到了毫无偏差地理解任务。但是在未来,机器人可能会变得有些“目中无人”。美国马萨诸塞州塔夫斯大学人机互动实验室的研究人员们,正在尝试许多科幻影视作品中千叮咛万嘱咐的警告,即——教会机器人说‘不’。与人类一样,机器人的程序也可以通过“合适条件”(felicity conditions)来评估某个命令。

简而言之,它会在处理过程中确定施令者的语境(context)、能力(capacity)和可信度(trustworthiness)。

1 - Simple Natural Language Interaction with Consequence Reasoning

IEEE Spectrum指出,机器人的Felicity Conditions处理流程应该是这样子的:

1)知识层面:我知道怎么去做吗?

2)能力层面:我现在有能力做吗?机体通常是否足以应对?

3)目标优先级和时间:是否现在就可以去做?

4)社会角色与义务:是否有义务去这么做?

5)规范许可:做这件事是否有违任何规范与原则?

2 - Natural Language Interaction

上面提到的第4点,是让机器人客观地确定施令者是否有权限;而第5点则听起来更加科幻一些,即机器人不能做一些人为危险或不对的事情(比如对人对事有害)。

3 - Natural Language Interaction

在当前阶段的应用中,机器人直接听从指令是比较简单的。但是在未来的谷歌无人驾驶汽车等机器上,它们将不得不根据不断变化的环境,而作出快速的计算和即时决策。

[编译自:TNW , via:Quartz]

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 17:09:18

文字版  标准版  电脑端

© 2003-2024