细思极恐, 你的 Siri 和 Alexa 可能正被你听不到的声音所操控....

9 个月前
14.2k 次浏览
扒一扒
 

『Hey, Siri, 帮我打个电话给 Patrick』『好的,五秒后拨打 Patrick 的电话』

『Hello, Alexa, 帮我放一首 It G Ma』『音乐响起….』

Siri, Alexa, 还有 Google Assistant 这类智能助理, 真的很方便, 已经成为很多人生活中离不开的好伴侣, 小编的朋友的孩子们几乎天天都跟家里的 Alexa 说话.

上周 Google 在开发者大会上发布了一个重量级的产品, 它能让 Assistant 完全仿真人类的语气和口吻, 帮你打电话预约餐厅, 美发等等. 在下面这个屌炸天的演示里, 你会发现, 这个人工智能的小助手, 可以理解对方所有的语义, 而且对答如流.

有了这些, 我们再也不需要自己花时间下订单, 预约餐厅, 甚至连钥匙也不用带, 请家中的智能锁开门就好了….

然而, 问题来了, 如果 Alexa 和 Siri 被坏人控制了怎么办?

你会说: 不会的, Siri 只认我的声音, Alexa 我摆在家里, 坏人也进不去啊?

可是, 你确定吗?

近期, 美国和中国的研究人员发现这些设备除了能被现场人声操控, 还能被我们听不到的隐藏指令而控制! 研究人员将这项技术称为“DolphinAttack”(像海豚能发出一些人听不见的频率), 但一定要在靠近接收设备的一定范围内才有效.

研究人员成功用了一些人耳察觉不到的声音开启了人工助理的功能, 其中包括: 拨打电话和打开网页等功能. Berkeley 大学研究人员指出, 可以向 AI 助理发出隐藏指令, 这些指令可能就是一段播放的一段歌曲或语音. 所以可能我们听到的是音乐或一段话, 但AI智能却得到了一条隐藏的指令, 比如说将一件东西加入购物车.

研究人员相信, 不久后就黑客就能研发出能更加有效侵入这些 AI 助理的方法, 希望各大科技公司可以想办法修复这项漏洞.

对此, Amazon 表示, 虽然不能透露产品安全技术细节, 但现在已经在想办法提高 Echo Smart Speaker 的安全性了. Apple 的 HomePod 则是有密码保护, 一定要密码解锁手机后才能启动家庭AI助理指令.

安全和舒适的平衡, 好人和坏人的博弈, 将会永远地进行下去….

责任编辑:  
来源:  咕噜整理报导
点赞 (0)
脸书分享
微信分享
0条评论