返回上一页  首页 | cnbeta报时: 07:28:19
无人驾驶汽车如何做出生死抉择?Google工程师承认他也不知道
发布日期:2016-08-27 10:18:56  稿源:cnBeta.COM

如果有这样一道问题摆在你的眼前:当你已经无法刹车控制车速,要么撞上有三名乘客的另一辆车,要么紧急转弯撞击路旁行走的三名儿童,假设你有充足的时间思考你会如何选择?诚然这是非常难以回答的问题,人类尚且如此那么当这辆汽车的驾驶权交给机器人,机器人又会做出什么样的选择?对此Google的工程总监Ray Kurzweil在上周也给出了自己的答案,总结来说就是:“我们都不知道。”

http://static.cnbetacdn.com/article/2016/0827/71350c744069799.jpg

在奇点大学的演讲中,Kurzweil解释为何说“汝不能杀戮”的机器人戒条是非常错误的。如果某个人想要炸毁一座建筑或者一座城市,那么从道德上我们自然有权利去阻止他。那么再回归到自动驾驶汽车上,机器人同样需要一个“道德编程”,他表示Isaac Asimov的机器人三大戒律是很好的“第一关”。

当你面临某些抉择的时候,如果两种结果都会导致一些人死亡你会怎么做?对此他也承认当无人驾驶面临这样的抉择的时候还没有准备好答案。他表示:“我会继续进行深入研究,我的分析工作还未结束。”

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 07:28:19

文字版  标准版  电脑端

© 2003-2024