Аутентификацию по голосу можно обмануть дипфейком с вероятностью до 99%

Аутентификацию по голосу можно обмануть дипфейком с вероятностью до 99%

Аутентификацию по голосу можно обмануть дипфейком с вероятностью до 99%

Сотрудники канадского Университета Ватерлоо доказали, что меры против спуфинга, реализуемые в системах аутентификации по голосу, далеки от совершенства. Разработанный учеными метод обхода при тестировании показал эффективность 99% после шести попыток.

Аутентификация по образцу голоса все чаще используется в кол-центрах, системах ДБО, госсекторе и других сферах с повышенными требованиями к ИБ. Такие средства удостоверения личности полагаются на уникальность человеческого голоса, обусловленную анатомическими особенностями артикуляционного аппарата.

В рамках процедуры аутентификации по голосу, как пояснили исследователи, человека просят произнести определенную фразу. Система извлекает из образца голосовую подпись (отпечаток) и сохраняет ее на сервере. На следующий раз для повторения выдается другая фраза, отпечаток сравнивается с сохраненным, и по результатам доступ предоставляется или нет.

С появлением инструментов для создания дипфейков злоумышленники быстро сообразили, что это хорошая возможность для создания убедительных копий голоса с целью фрода. В ответ разработчики защитных решений стали принимать меры против таких имитаций; в настоящее время это в основном проверки на наличие в образцах признаков (маркеров) искусственного происхождения.

Программа синтеза речи, написанная канадцами в ходе исследования, использует алгоритмы машинного обучения и способна сгенерировать дипфейк по пятиминутной аудиозаписи. Она также умеет удалять артефакты, выдающие подлог, и обходить таким образом современную защиту от спуфинга.

Обучение системы проводилось на наборе из 107 образцов человеческой речи; для тестирования было создано множество дипфейк-аудио, способных ввести в заблуждение средства идентификации по голосу.

В 72% случаев исследователям удалось добиться успеха, вероятность обхода более слабых систем аутентификации оказалась еще выше — 99% за шесть попыток. Четырехсекундная атака на Amazon Connect показала 10% успеха; прогон тестов в течение 30 секунд повысил этот показатель до 40%.

Исследование выявило несовершенство современных мер защиты от спуфинга, реализованных в современных системах аутентификации по голосу. Университетские исследователи убеждены, что такую биометрию нельзя использовать как единственный способ удостоверить личность., нужны дополнительные средства — или более эффективные меры защиты от абьюзов.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Инфостилер Jarka прожил год на PyPI под видом инструментов интеграции ИИ

Эксперты «Лаборатории Касперского» нашли на PyPI два схожих пакета, якобы реализующих доступ к API популярных ИИ-моделей — GPT-4 Turbo и Claude AI. Анализ показал, что истинной целью в обоих случаях является внедрение зловреда JarkaStealer.

Вредоносные библиотеки gptplus и claudeai-eng были загружены в репозиторий Python-кодов в ноябре прошлого года, притом из-под одного и того же аккаунта. До удаления с подачи Kaspersky их скачали более 1700 раз пользователи из 30 стран (в основном жители США, Китая, Франции, Германии и России).

 

Описания содержали инструкции по созданию чатов для ИИ-ботов и примеры работы с большими языковыми моделями (БЯМ, LLM). Для имитации заявленной функциональности в код был встроен механизм взаимодействия с демопрокси ChatGPT.

При запуске параллельно происходит загрузка с GitHub файла JavaUpdater.jar — инфостилера Jarka. При отсутствии у жертвы софта Java с Dropbox скачивается JRE.

Внедряемый таким образом вредонос умеет выполнять следующие действия в системе:

  • собирать системную информацию;
  • воровать информацию из браузеров;
  • прерывать процессы Google Chrome и Microsoft Edge (чтобы вытащить сохраненные данные);
  • отыскивать сессионные токены в Telegram, Discord, Steam, чит-клиенте Minecraft;
  • делать скриншоты.

Украденные данные архивируются и передаются на C2-сервер. После этого файл с добычей удаляется с зараженного устройства, чтобы скрыть следы вредоносной активности.

Как оказалось, владельцы JarkaStealer продают его в Telegram по модели MaaS (Malware-as-a-Service, «вредонос как услуга»), однако за доступ уже можно не платить: исходники были опубликованы на GitHub. В рекламных сообщениях и коде зловреда обнаружены артефакты, позволяющие заключить, что автор стилера владеет русским языком.

«Обнаруженная кампания подчёркивает постоянные риски, связанные с атаками на цепочки поставок, — отметил эксперт Kaspersky GReAT Леонид Безвершенко. — При интеграции компонентов с открытым исходным кодом в процессе разработки критически важно проявлять осторожность. Мы рекомендуем организациям внедрять строгую проверку целостности кода на всех этапах разработки, чтобы убедиться в легитимности и безопасности внешнего программного обеспечения или внешних компонентов».

Тем, кто успел скачать gptplus или claudeai-eng, рекомендуется как можно скорее удалить пакет, а также обновить все пароли и сессионные токены.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru