Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Злоумышленники взламывают аккаунты Telegram и от имени жертвы просят ее знакомых о материальной помощи. Для пущей убедительности просьба подкрепляется голосовым сообщением, созданным с помощью ИИ.

Для получения доступа к аккаунту используется одна из уже обкатанных мошеннических схем: фейковое голосование, онлайн-опрос, подарочная подписка на Telegram Premium. Голосовые обращения, призванные убедить собеседника в необходимости денежного перевода, генерируются на основе аудиозаписей, найденных у жертвы, и дублируются во все ее чаты.

Откликнувшимся доброхотам высылается сфальсифицированное фото банковской карты с именем и фамилией, соответствующими паспортным данным жертвы взлома. Авторы одной из таких атак просили «одолжить» 200 тыс. руб., в другом случае пользователь «ВКонтакте», купившись на дипфейк, потерял порядка 3 тыс. рублей.

В конце прошлого года с аналогичной мошеннической схемой столкнулись русскоязычные пользователи WhatsApp. Перенос ее в Telegram зафиксировали, в частности, эксперты ГК «Солар»; за последний месяц они выявили более 500 новых доменов, созданных мошенниками для сбора ключей от аккаунтов в мессенджере.

Опрошенные РБК специалисты сошлись во мнении, что для России подобные сложные атаки новы, и пользователям в таких случаях следует удостовериться, что неожиданная просьба исходит от их знакомца — например, перезвонить ему по телефону.

«Сейчас для пользователей нет технических решений уровня UEBA, с поведенческой аналитикой и поиском аномалий, — комментирует главный специалист отдела комплексных СЗИ компании «Газинформсервис» Дмитрий Овчинников. — Что касается социальных сетей и мессенджеров, то уверен, что они начнут применять поведенческую аналитику, основанную на ИИ, для защиты своих клиентов от подобного рода атак в ближайшее время. Думаю, что в течение ближайших 5-10 лет подобные решения по защите пользователей от вымогательских атак, сгенерированных ИИ, станут нормой жизни и будут доступны на премиальных подписках мессенджеров и в виде специализированных персональных защитных приложений».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Авторы дипфейков используют автоответчики для сбора образцов голоса

Для создания голосового дипфейка злоумышленникам достаточно всего нескольких секунд записи — например, приветствия на автоответчике. На основе таких аудиофрагментов они генерируют сообщения от имени жертвы, используя их для атак на ее окружение.

Как отметил ведущий аналитик департамента Digital Risk Protection компании F6 Евгений Егоров в комментарии для «Известий», приветствия на автоответчике практически не отличаются от голосовых сообщений, оставленных в мессенджерах или записанных во время телефонных разговоров.

По его словам, мошенники активно применяют технологии подделки голоса уже около двух лет, причем для этого существуют многочисленные инструменты, не требующие специальных знаний.

Руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов уточняет, что для воспроизведения тембра голоса достаточно всего трех секунд записи. Однако для создания более убедительной синтетической речи, учитывающей характерные особенности голоса и эмоциональную окраску, нужны более длинные образцы. Такие фрагменты нередко встречаются в приветствиях на автоответчиках.

Эксперт по кибербезопасности Angara Security Никита Новиков соглашается, что автоответчик может стать источником ключевых фраз, интонации и манеры речи человека. Затем мошенники используют сгенерированные сообщения в различных схемах обмана. Например, жертве могут поступать просьбы о материальной помощи от имени знакомых, а более сложные сценарии включают мошенничество с фейковыми знакомствами (FakeDate) или подделку сообщений от руководителей (FakeBoss), создавая иллюзию реального общения.

По словам Евгения Егорова, наиболее качественные голосовые дипфейки могут применяться в таргетированных атаках с использованием вишинга. Однако для этого злоумышленникам требуются более сложные и зачастую платные инструменты, позволяющие создавать реалистичный контент.

Максим Бузинов предупреждает, что современные системы детекции не всегда способны распознать качественные голосовые дипфейки. Ситуацию осложняет тот факт, что сами пользователи часто применяют технологии обработки звука, улучшающие качество их речи, что дополнительно затрудняет выявление подделок.

В связи с этим эксперты рекомендуют воздерживаться от записи собственного голоса в качестве приветствия на автоответчике и использовать стандартные варианты, предлагаемые операторами связи. При разговорах с руководителями и официальными лицами стоит уточнять, можно ли выполнить запрашиваемые действия через сайт или мобильное приложение. А при получении просьб о финансовой помощи всегда необходимо связаться с отправителем напрямую.

По прогнозам аналитиков, в 2025 году число атак с использованием дипфейков может значительно возрасти.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru