返回上一页  首页 | cnbeta报时: 17:20:56
谷歌拟通过AI欺骗人类来让机器学习从错误中吸收经验
发布日期:2018-03-01 10:02:46  稿源:cnBeta.COM

据外媒报道,让机器人看到不存到的东西或完全让其将图像归类错误也许是一场有趣、好玩的游戏,但如果一套汽车的自动驾驶系统将一辆白色卡车错认成一朵白云时,这一切就跟好玩没有任何关系了。

为了避免这样的悲剧发生,谷歌的AI研究人员决定想办法改变这种情况。据了解 ,这家公司正在对人类大脑和神经网络同时展开研究。

到目前为止,神经科学已经通过神经网络的建立来显示其在AI领域上取得的进展。

现在,来自谷歌的一个研究团队刊登了一份名为《欺骗人类和计算机视觉的对抗性例子(Adversarial Examples that Fool both Human and Computer Vision)》的白皮书。该项研究指出,用来欺骗AI的方法对人类大脑没用。这意味着研究人员可以将人类大脑的这种更富弹性的特质应用到神经网络中。

去年,MIT研究人员对Google AI实施了抗性攻击,他们要做的只是往一张图像里嵌入一些简单的代码。为了达到这个目的,研究团队让神经网络相信它看到的是一把步枪,而实际上是海龟。估计年龄在3岁以上的孩子都知道这两者的区别。

turtlerifles.jpg

而之所以会出现这种情况其背后的原因并非来自Google AI本身,而是所有计算机的一个简单缺陷,即没有眼球。机器人无法“看到”世界,而只在处理图像,这使得它们变得非常好欺骗。

为了解决这一问题,谷歌试图弄明白人类对特定图像处理形式拥有对抗性的原因。也许更重要的是搞明白究竟怎样才能欺骗到人类的大脑。

catdog.jpg

白皮书写道:“如果我们确切地了解到人类大脑能够抵抗某种特定类型的对抗性例子,那么这将成为机器学习中类似机制安全提供一个存在证明。”

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 17:20:56

文字版  标准版  电脑端

© 2003-2024