Просмотр видео на YouTube может скомпрометировать ваш смартфон

Просмотр видео на YouTube может скомпрометировать ваш смартфон

Просмотр видео на YouTube может скомпрометировать ваш смартфон

Скрытые голосовые команды могут скомпрометировать мобильное устройство. Исследователями был проанализирован новый метод атаки на мобильные устройства. Исследование было обусловлено появлением голосовых интерфейсов для компьютеров и проводилось на устройствах Android и iOS с включенной функцией "Google Now". Исследователи хотели узнать, могут ли выдаваться скрытые команды, учитывая, что устройства часто используют режим "always-on", в котором они непрерывно принимают голосовые команды.

В статье с описанием эксперимента, исследователи из Berkeley and Georgetown University показали, что скрытые голосовые команды могут действительно быть использованы. Человеку вряд ли удастся понять или даже заметить эти команды, однако мобильное устройство отреагирует на них.

Также исследователи обнаружили, что такого вида атаки могут быть выполнены, только если атакуемое устройство находится в пределах заданного диапазона. Это обусловлено тем, что системы распознавания голоса были предназначены для фильтрации фонового шума. Исследователи говорят, что можно транслировать скрытые команды из громкоговорителя на мероприятии или вставлять их в трендовом видео YouTube.

Злоумышленники могут спровоцировать утечку информации о пользователе (например, размещение в твиттере местоположения), могут активировать авиарежим, а так же могут подготовить устройство для дальнейших видов атак (например, открытие вредоносной веб-страницы в браузере).

В статье исследователей показано, что атака получается успешной, если она осуществляется на уровне менее 3,5 м от атакуемого устройства.

«В то время как голосовые интерфейсы позволяют облегчить взаимодействие человека с устройством, они также являются потенциальным вектором атак. Использование голосовых команд доступно для любого злоумышленника, находящего в непосредственной близости от устройства.» - утверждают исследователи.

В дополнение к описанию атаки в вышеупомянутой статье, исследователи также показали несколько методов, которые могут предотвратить подобные атаки. Среди них потенциальная возможность устройства сообщать пользователю, что получена голосовая команда или требовать подтверждения выданной команды. В любом случае, исследователи утверждают, что предотвратить такие атаки технически возможно.

" />

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Австралийцы полгода не замечали, что хип-хоп по заявкам ставит ИИ

Полгода назад на радио CADA в Сиднее появилась новая музыкальная программа — Workdays with Thy («Трудовые будни с Тай»). Как оказалось, никто даже не заподозрил, что ее ведет диджей, сгенерированный ИИ.

О том, что Тай, «фото» которой приведено на сайте CADA, — дипфейк, слушатели узнали лишь недавно из интервью в СМИ.

Представитель ARN Media (владелец радиостанции) подтвердил, что и голос, и сам образ задорной девушки были созданы сторонним ИИ на основе данных одной из сотрудниц компании.

 

В Австралии нет регуляторных ограничений по использованию ИИ в теле- и радиовещании, обязанность раскрывать такие факты тоже нигде не оговорена. Тем не менее национальную Ассоциацию актеров озвучивания возмутила подобная практика.

«Австралийские слушатели заслуживают честной и откровенной огласки, — цитирует The Verge претензии Терезы Лим (Teresa Lim), изложенные в LinkedIn. — Отсутствие прозрачности заставляет их довериться фейковому персонажу, которого они считают реальным ведущим эфира».

Вице-президенту Ассоциации также стало обидно за девушку, которая из-за азиатских корней с трудом строит свою карьеру в Австралии: ее вряд ли поставили в известность о рисках передачи данных на сторонний ИИ-сервис, а также о расценках на клонирование голоса.

Репортер припомнила и другие эксперименты с ИИ на радио — на Sirius XM, в Портленде, штат Орегон, в Польше. В последнем случае даже уволили журналистов, заменив их ИИ, но потом откатили столь радикальное решение из-за протестов пострадавших сотрудников и радиослушателей.

По данным недавнего опроса HradHunter, принять помощь ИИ на рабочем месте готовы 73% россиян, а 12% опасаются, что такое нововведение приведет к сокращению штата.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru