返回上一页  首页 | cnbeta报时: 00:32:25
[视频]安全研究人员提醒AI助理需谨防人耳听不到的“海豚攻击”
发布日期:2018-05-11 08:53:55  稿源:cnBeta.COM

中美研究人员已经验证了一种可向 Siri 等 AI 助理发出“隐藏式攻击命令”的方法,因其采用了人耳察觉不到的音频,从而强迫智能助理执行非机主下达的恶意命令。《纽约时报》指出,如果被别有用心的人得逞,这种攻击手段可用于拨打电话、打开网站、甚至更糟糕的事情。根据来自加州、伯克利、以及乔治城大学的学生团队在本月发表的一篇研究论文,他们甚至可以将恶意命令嵌入音乐录音或口述文本中。

siri-iphone-x.jpg

当在亚马逊 Echo 或苹果 iPhone 附近播放时,普通人只能听到单纯的歌曲或语音。但智能设备能够捡拾起一条潜在的指令,比如向购物车中添加一些东西。

往更危险的层面去讲,恶意攻击者可以下达锁门、卷钱、或购买线上商品等操作 —— 尽管在通常情况下,为了不引起事主的注意,事情都是静悄悄地进行、涉及金额也不会太大。

然而论文作者之一、来自加州大学博客利分校的五年制计算机安全博士生 Nicholas Carlini 坚信,或许早已有恶意攻击者实施过类似的技术:

我们想要知道自己是否能够让它变得更加隐秘,虽然没有证据表明这些技术已经跑出了实验室,但它被人利用只是时间的问题。我的的猜测是,恶意攻击者早已雇人干过我提到的事情。

Dolphin Attack_ Inaudible Voice Command(via

去年的时候,美国普林斯顿和中国浙江大学的研究人员们已经执行过类似的测试,证明了 AI 助理可以通过不被人耳所听到的音频给激活。

如上方的“海豚攻击”演示视频所示,研究人员打造了一台可以下达隐藏命令的发送器,并顺利地让手机执行了拨打特定电话的操作(另有拍照和发送短信等测试)。

当然,海豚攻击的范围是有限的,因为攻击者必须足够接近接受设备。

[编译自:MacRumors]

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 00:32:25

文字版  标准版  电脑端

© 2003-2024