腾讯科技讯 据外国媒体报道,研究人员发现利用人耳听不到的声音能控制智能语音助手,这不禁让人们开始担心那些可以用语音激活的设备是否安全。
很多智能语音助手,如亚马逊的Alexa、谷歌(微博)的Assistant以及三星和华为的语音助手,都存在这样的一个问题。黑客可通过这个漏洞来控制设备,命令它们执行一些非法任务,例如下载恶意软件或开启前门。
浙江大学的研究人员能够控制一些时下流行的设备,例如运行有Siri语音助手的iPhone和MacBook、运行有Bixby的较新款Galaxy智能手机、亚马逊智能音箱Echo以及运行Windows 10(内置Cortana智能助手)的PC电脑。
他们可以将语音指令变成超声波频率,从而控制设备。这种超声波只有设备能够听到,人耳是听不到的。安全研究人员利用这种方法能够命令iPhone“拨打号码1234567890”,或命令Macbook和Nexus 7打开恶意网站。
黑客可以同时利用硬件和软件。他们利用硬件来接收超声波,利用软件来分辨人的声音和电脑合成的声音。
在大多数情况下,只有当声源距离设备几英寸远的时候,这些设备才能够接收到声音。但是,有时候,研究人员能够在几英尺远的地方发出攻击指令。例如,他们利用苹果智能手表Apple Watch就能这样做。
在普林斯顿大学和康奈尔大学所做的一项类似的研究中,安全研究人能在两三米远的距离命令谷歌Pixel手机拍照、开启飞行模式以及向Alexa询问天气情况及购物清单上的物品。
安全公司MWR Security上个月也进行了一项单独的研究,根据结果得出黑客可通过亚马逊Echo原版中的硬件漏洞将它变成。
如果用户感到担心,能够尽可能的防止在公众场合使用语音指令设备,或关闭语音助手功能。(编译/乐学)