返回上一页  首页 | cnbeta报时: 06:34:25
特别设计的对抗性彩色斑块可以被用来“欺骗”特定算法
发布日期:2019-04-24 10:23:36  稿源:cnBeta.COM

人工智能监控的兴起极为令人担忧。政府集体追踪和识别公民的能力可能会终止公众的匿名性。但是,正如研究人员一次又一次地表明的那样,有很多方法可以“欺骗”这些系统。

MWQE}0GK2}R%3Q3R{PMCK]9.png

最新的例子来自比利时鲁汶大学的一组工程师。在上周在预印本服务器arXiv上分享的一篇论文中,这些学生展示了简单的印刷图案如何能够“欺骗”人工智能系统,该系统旨在识别图像中的人物。

这些学生打印出特别设计的彩色斑块并将其挂在脖子上,从AI的角度来看,这可能相当于“隐形斗篷”。

正如研究人员写道:“我们相信,如果我们将这种技术与精致的服装模拟结合起来,我们就可以设计出一种T恤印花,可以让一个人对自动监控相机几乎不可见。”

这可能看起来很奇怪,但它实际上是AI世界中一个众所周知的现象。这些类型的模式被称为对抗性示例,它们利用计算机视觉系统的弱点来“诱骗它们看到”不存在的东西。

在过去,对抗性的例子被用来欺骗面部识别系统。然而许多研究人员警告说,对抗性的例子具有潜在的危险性。例如,它们可以用来欺骗自动驾驶汽车,或者它们可以欺骗用于识别疾病的医疗AI视觉系统。这可以用于医疗欺诈或甚至故意造成伤害。

对于最近的研究 - 我们通过谷歌研究员David Ha发现 - 一些警告确实适用。最重要的是,学生开发的对抗彩色斑块只能欺骗一个名为YOLOv2的特定算法。这不适用于谷歌或其他科技公司开发的现成的计算机视觉系统,当然,如果一个人正在查看图像时,它也不起作用。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 06:34:25

文字版  标准版  电脑端

© 2003-2025