Опубликованное на днях новое исследование доказывает, что популярные голосовые помощники, установленные в смартфонах, уязвимы для скрытых аудио-атак, которые могут быть спрятаны в музыке или видео на YouTube.
В своем исследовании специалисты утверждают, что им удалось обмануть движок с открытым исходным кодом от Mozilla DeepSpeech, эксперты скрыли команду в совершенно других звуках. Исследователи также уточнили, что подобная атака срабатывает, если скрыть команду в коротких музыкальных фрагментах.
«Я думаю, что многие злоумышленники уже взяли на вооружение данный метод обмана голосовых помощников», — говорит один из обнаруживших проблему безопасности экспертов. — «В принципе, наша команда уже давно знала, что нам удастся совершить успешную атаку на любую современную систему ассистирования голосом».
Таким образом, киебрпреступники могут заставить атакуемый девайс открыть браузер и перейти на любую веб-страницу, в том числе вредоносную.
В основе метода, предложенного исследователями, лежат различия между тем, как звуки распознает человек, и как это делает машина. Следовательно, хозяин атакуемого устройства вообще не услышит ничего необычного или подозрительного, когда его смартфон воспримет сообщение иначе, выполнив скрытую в нем команду.
Исследователи опубликовали видео, демонстрирующее наличие данной проблемы безопасности.
Многие крупные корпорации вроде Google и Apple напомнили пользователям, что их устройства защищены от подобного рода атак.