Динамики и наушники могут тайно записывать звук

Динамики и наушники могут тайно записывать звук

Динамики и наушники могут тайно записывать звук

Компьютерные динамики и наушники могут быть использованы как микрофоны, что позволяет задействовать их для приема ультразвуковых данных и отправки сигналов обратно. Это делает работу компьютерных систем с воздушным зазором (air gapping computer systems) менее надежной. К такому выводу пришли исследователи из израильского Университета Бен-Гуриона в Негеве.

В статье, опубликованной на ресурсе ArXiv, они описали новый метод эксфильтрации данных, который позволяет передавать и получать информацию в виде неуловимых для слуха ультразвуковых волн между двумя компьютерами, расположенными в одной комнате, без использования микрофонов. Это явление исследователи назвали MOSQUITO. Суть его в том, что устройства вывода звука (динамики, наушники) могут незаметно передавать данные между двумя несвязанными машинами на расстояние до девяти метров. 

В документе поясняется, что динамики можно рассматривать как микрофоны, работающие в обратном порядке: громкоговорители превращают электрические сигналы в акустические, а микрофоны — наоборот. В этом процессе задействована диафрагма, имеющаяся как в микрофонах, так и в наушниках, которую можно использовать, чтобы обратить этот процесс вспять. Поскольку и динамики, и наушники физически устроены как микрофоны, а роль аудио-порта в ПК можно программно сменить с выхода на вход, возникает возможность уязвимости, которой могут воспользоваться злоумышленники. Вредоносная программа может перенастроить динамик или наушники для работы в качестве микрофона в момент, когда устройство не работает и не подключено к сети.

Исследователи убедились в этом, проведя несколько экспериментов. Используя частоты в диапазоне от 18 кГц до 24 кГц, они смогли достичь скорости передачи данных до 166 бит/с с частотой ошибок в 1% при передаче двоичного файла размером 1Кб на расстояние трех метров. На расстояниях от 4 до 9 метров эта же частота ошибок могла быть достигнута только со скоростью передачи 10 бит/с, что связано с шумовыми помехами окружающей среды.

В документе описываются некоторые методы снижения вреда от уязвимости, каждый из которых имеет свои ограничения. Например, можно разработать динамики и наушники со встроенными усилителями (что предотвращает использование их в качестве микрофона), использовать ультразвуковой глушитель или сканировать систему на наличие ультразвуковых передач. Можно предотвратить смену роли гнезда через программное обеспечение или полностью отключить аудио-оборудование с помощью UEFI/BIOS.

По мнению авторов статьи, ультразвуковые вредоносные программы — не очень распространенное явление. Скорее всего, бесшумное аудио будет использовано в маркетинговых целях, что уже побудило разработчиков создать защитный ультразвуковой брандмауэр под названием Silverdog. 

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Преступлений с применением генеративного ИИ станет в 10 раз больше

По оценкам экспертов, в 2025 году количество преступлений, совершённых с использованием генеративного искусственного интеллекта (ИИ), может увеличиться в 10 раз по сравнению с 2024 годом.

Причём данные технологии начнут активно применять не только киберпреступники, но и представители традиционного криминального мира.

Первым известным случаем использования генеративного ИИ для реального преступления стал подрыв электромобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Злоумышленник воспользовался ChatGPT для планирования атаки.

«Рост преступлений, связанных с ИИ, официально не фиксируется, однако его масштабы можно оценить по числу ботов и сгенерированного ими контента. В 2025 году прирост подобных преступлений может составить от восьми до десятикратного увеличения по сравнению с предыдущим годом», — заявил руководитель департамента расследований T.Hunter Игорь Бедеров в комментарии для «Известий». Он отметил, что меры защиты можно обойти с помощью простых методов промт-инжиниринга, например, внедряя инструкции по созданию взрывных устройств в текстах художественных произведений.

По мнению экспертов, в 2025 году генеративный ИИ будут использовать до 90% киберпреступных группировок. Инструменты ИИ для составления фишинговых сообщений уже давно освоены, и их применение будет только расти. Генеральный директор Phishman Алексей Горелкин считает, что технологии нейросетей и чат-ботов могут взять на вооружение до 90% группировок, специализирующихся на социальной инженерии.

Старший аналитик Positive Technologies Екатерина Снегирёва подчеркнула, что генеративный ИИ активно используется для создания и модификации вредоносного кода.

Так, в июне 2024 года была зафиксирована фишинговая атака с использованием вредоносных скриптов, сгенерированных нейросетями. При этом 38% компаний применяют генеративный ИИ бесконтрольно, что значительно повышает риск утечек данных.

Эксперты F.A.C.C.T. прогнозируют: в 2025 году возрастёт число атак с использованием технологий дипфейков, массового автоматизированного фишинга и совершенствования методов поиска уязвимостей в программных системах. Впрочем, уже в 2024 году массовое использование дипфейков стало реальностью благодаря инструментам, позволяющим имитировать голос в режиме реального времени.

В России ситуация будет менее острой. Это связано с ограниченной доступностью зарубежных расширенных версий генеративного ИИ для граждан и встроенными мерами защиты в российских аналогах. Например, в отечественных системах предусмотрены фильтры на ключевые стоп-слова, которые невозможно обойти. Тем не менее регулирование использования генеративного ИИ требует постоянного уточнения и адаптации.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru