Просмотр видео на YouTube может скомпрометировать ваш смартфон

Просмотр видео на YouTube может скомпрометировать ваш смартфон

Просмотр видео на YouTube может скомпрометировать ваш смартфон

Скрытые голосовые команды могут скомпрометировать мобильное устройство. Исследователями был проанализирован новый метод атаки на мобильные устройства. Исследование было обусловлено появлением голосовых интерфейсов для компьютеров и проводилось на устройствах Android и iOS с включенной функцией "Google Now". Исследователи хотели узнать, могут ли выдаваться скрытые команды, учитывая, что устройства часто используют режим "always-on", в котором они непрерывно принимают голосовые команды.

В статье с описанием эксперимента, исследователи из Berkeley and Georgetown University показали, что скрытые голосовые команды могут действительно быть использованы. Человеку вряд ли удастся понять или даже заметить эти команды, однако мобильное устройство отреагирует на них.

Также исследователи обнаружили, что такого вида атаки могут быть выполнены, только если атакуемое устройство находится в пределах заданного диапазона. Это обусловлено тем, что системы распознавания голоса были предназначены для фильтрации фонового шума. Исследователи говорят, что можно транслировать скрытые команды из громкоговорителя на мероприятии или вставлять их в трендовом видео YouTube.

Злоумышленники могут спровоцировать утечку информации о пользователе (например, размещение в твиттере местоположения), могут активировать авиарежим, а так же могут подготовить устройство для дальнейших видов атак (например, открытие вредоносной веб-страницы в браузере).

В статье исследователей показано, что атака получается успешной, если она осуществляется на уровне менее 3,5 м от атакуемого устройства.

«В то время как голосовые интерфейсы позволяют облегчить взаимодействие человека с устройством, они также являются потенциальным вектором атак. Использование голосовых команд доступно для любого злоумышленника, находящего в непосредственной близости от устройства.» - утверждают исследователи.

В дополнение к описанию атаки в вышеупомянутой статье, исследователи также показали несколько методов, которые могут предотвратить подобные атаки. Среди них потенциальная возможность устройства сообщать пользователю, что получена голосовая команда или требовать подтверждения выданной команды. В любом случае, исследователи утверждают, что предотвратить такие атаки технически возможно.

" />

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер разработал комплексную модель угроз для ИИ

Эксперты Сбера разработали модель угроз для искусственного интеллекта (включая генеративный ИИ), охватывающую все этапы жизненного цикла таких систем — от подготовки данных до интеграции в приложения.

Документ опубликован на портале киберграмотности Сбера «Кибрарий». Он не привязан к конкретной отрасли и предназначен для оценки потенциальных уязвимостей, адаптации защитных механизмов и минимизации рисков.

В исследовании описаны 70 угроз, связанных с применением как предиктивных, так и генеративных моделей ИИ. Особое внимание уделено рискам, возникающим при использовании генеративных систем, чье распространение стремительно растёт. Для каждой угрозы определены затрагиваемые свойства информации — конфиденциальность, целостность и доступность, а также объекты воздействия, будь то обучающие датасеты или модели с открытым исходным кодом. Модель включает схему взаимодействия таких объектов и их детальное описание.

«Сбер активно применяет технологии искусственного интеллекта в бизнес-процессах и глубоко понимает возникающие угрозы. В ответ на эти вызовы мы создали первую в России модель киберугроз, охватывающую весь спектр рисков, связанных с разработкой и использованием ИИ. Этот документ позволит организациям любой сферы — от финансов до госструктур и промышленности — системно оценивать уязвимости, настраивать защитные меры и снижать возможные потери», — отметил вице-президент Сбера по кибербезопасности Сергей Лебедь.

Ключевые риски при использовании ИИ — это принятие ошибочных решений и утечки данных, использованных при обучении моделей. Кроме того, ИИ активно используют киберпреступные группировки в своих целях.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru