周鸿祎:“海豚音攻击”会让智能音箱变成窃听器
作者:热点 来源:综合 浏览: 【大 中 小】 发布时间:2024-12-12 14:42:41 评论数:
导读:360集团董事长兼CEO周鸿祎表示,周鸿智现在智能音箱开始融入很多家庭的祎海音箱日常,为我们的豚音生活带来了一定便利,但大家有没有想过智能音箱可能会变成窃听器?攻击
1月21日消息,“现在智能音箱开始融入很多家庭的变成日常,为我们的窃听器生活带来了一定便利,但大家有没有想过智能音箱可能会变成窃听器?周鸿智”在昨天举办的中国人工智能学会“人工智能与安全专委会” 成立大会上,360集团董事长兼CEO周鸿祎当选首任专委会主任,祎海音箱他表示,豚音智能音箱变身窃听器并不是攻击科幻电影里的场景。
据他介绍,变成360与浙大合作发现了一种“海豚音攻击”,窃听器该攻击人耳无法听见,周鸿智但通过超声波信号可以劫持智能设备的祎海音箱语音控制系统,再利用麦克风的豚音硬件漏洞,就可以悄悄开启语音助手,把智能音箱变成窃听器,窃取用户隐私。
此外,“海豚音攻击”还可用于攻击多种拥有语音助手的智能设备,包括智能手机、智能手表、智能汽车等。伴随着越来越多的智能设备介入我们的生活,人工智能面临的安全问题也令产学研各界持审慎态度。
周鸿祎指出,人工智能是个热词,也是未来的大势所趋。但当下的人工智能技术并不完善,存在四大冰点:
首先、前端传感器可以被干扰。人工智能广泛依赖音视频采集、红外感应、激光雷达等各类传感器。但这些传感器自身并不安全,能够被干扰,造成人工智能识别和决策失误。“海豚音攻击”就是干扰语音传感器的方式之一。
其次、人工智能的数据样本可以被污染。目前人工智能采用深度学习模型,黑客可以构建畸形输入或者污染训练数据集,进行“数据投毒”,导致人工智能出错。比如,通过给智能汽车输入“污染”过的训练样本,就可以把“禁止通行”的交通标志牌识别为“可以通行”,从而造成交通事故。
第三、内部算法可以被欺骗。人工智能本质上是一种用大量数据训练出来的概率判断系统,其内部复杂的计算逻辑和决策过程还不透明,可以被欺骗或绕过。周鸿祎表示,人工智能也许可以有99.99%的概率保证识别是正确的,但是对于安全来讲,它只要出现一次识别错误,就会造成严重后果。
最后、实现平台有漏洞。周鸿祎介绍,当下的人工智能系统都依赖开源的深度学习框架,存在大量漏洞,当前360研究人员已经发现了40多个深度学习框架的软件漏洞。
1月21日消息,“现在智能音箱开始融入很多家庭的变成日常,为我们的窃听器生活带来了一定便利,但大家有没有想过智能音箱可能会变成窃听器?周鸿智”在昨天举办的中国人工智能学会“人工智能与安全专委会” 成立大会上,360集团董事长兼CEO周鸿祎当选首任专委会主任,祎海音箱他表示,豚音智能音箱变身窃听器并不是攻击科幻电影里的场景。
据他介绍,变成360与浙大合作发现了一种“海豚音攻击”,窃听器该攻击人耳无法听见,周鸿智但通过超声波信号可以劫持智能设备的祎海音箱语音控制系统,再利用麦克风的豚音硬件漏洞,就可以悄悄开启语音助手,把智能音箱变成窃听器,窃取用户隐私。
此外,“海豚音攻击”还可用于攻击多种拥有语音助手的智能设备,包括智能手机、智能手表、智能汽车等。伴随着越来越多的智能设备介入我们的生活,人工智能面临的安全问题也令产学研各界持审慎态度。
周鸿祎指出,人工智能是个热词,也是未来的大势所趋。但当下的人工智能技术并不完善,存在四大冰点:
首先、前端传感器可以被干扰。人工智能广泛依赖音视频采集、红外感应、激光雷达等各类传感器。但这些传感器自身并不安全,能够被干扰,造成人工智能识别和决策失误。“海豚音攻击”就是干扰语音传感器的方式之一。
其次、人工智能的数据样本可以被污染。目前人工智能采用深度学习模型,黑客可以构建畸形输入或者污染训练数据集,进行“数据投毒”,导致人工智能出错。比如,通过给智能汽车输入“污染”过的训练样本,就可以把“禁止通行”的交通标志牌识别为“可以通行”,从而造成交通事故。
第三、内部算法可以被欺骗。人工智能本质上是一种用大量数据训练出来的概率判断系统,其内部复杂的计算逻辑和决策过程还不透明,可以被欺骗或绕过。周鸿祎表示,人工智能也许可以有99.99%的概率保证识别是正确的,但是对于安全来讲,它只要出现一次识别错误,就会造成严重后果。
最后、实现平台有漏洞。周鸿祎介绍,当下的人工智能系统都依赖开源的深度学习框架,存在大量漏洞,当前360研究人员已经发现了40多个深度学习框架的软件漏洞。