Мошенники объединяют ботов и повышают убедительность фишинга

Мошенники объединяют ботов и повышают убедительность фишинга

Мошенники объединяют ботов и повышают убедительность фишинга

В Telegram появились группы ботов, которые активно ведут между собой дискуссии. За каждым таким ботом скрывается фейковый аккаунт с размещенными фишинговыми ссылками.

В отличие от примитивного спама, эти боты участвуют в сложных фишинговых кампаниях, нацеленных на кражу личных и платежных данных.

Они анализируют поведение пользователей и адаптируют свои действия, делая обман более убедительным.

«Групповая работа ботов значительно повышает доверие к их сообщениям, поскольку жертва видит «диалог», который выглядит естественно. Ситуация с нейроботами в Telegram — тревожный сигнал, показывающий, как быстро злоумышленники осваивают современные технологии. Использование ИИ для создания фейковых профилей и имитации живых диалогов — это качественный скачок в методах социальной инженерии», — прокомментировал для «Известий» руководитель департамента информационно-аналитических исследований компании T. Hunter Игорь Бедеров.

Как отметил руководитель BI.ZONE Brand Protection Дмитрий Кирюшкин, комментарии таких ботов осмысленны, соответствуют теме публикации и не похожи на спам, поэтому не вызывают настороженности. Это увеличивает вероятность того, что пользователь заглянет в описание учетной записи и перейдет по фишинговой ссылке. По данным BI.ZONE Brand Protection, только в феврале 2025 года было выявлено около тысячи ресурсов, созданных для перехвата учетных записей Telegram.

Руководитель ИТ-подразделения агентства «Полилог» Людмила Богатырева предупреждает, что боты используются и в классических мошеннических схемах, направленных на кражу платежных данных через фальшивые страницы оплаты. Чтобы привлечь жертв, они публикуют объявления о продаже товаров по заниженным ценам или маскируются под маркетплейсы.

Боты также научились взаимодействовать друг с другом. Один может задать вопрос, а другой — сразу дать рекомендацию. Причем такие рекомендации могут быть не только текстовыми, но и голосовыми, сгенерированными с помощью технологий дипфейка.

Ведущий аналитик департамента защиты от цифровых рисков Digital Risk Protection компании F6 Евгений Егоров отметил, что мошенники часто используют в качестве аватаров на фейковых аккаунтах фотографии реальных людей. При этом механизмов, способных предотвратить подобные действия, на данный момент не предусмотрено.

Руководитель направления аналитических исследований в Positive Technologies Ирина Зиновкина подчеркнула, что существующие инструменты для выявления искусственно созданных текстов крайне малоэффективны.

«Использование новых технологий приводит к стремительному росту распространенности и эффективности сложных мошеннических схем. Так, по данным ЦБ РФ, в 2024 году объем операций без добровольного согласия клиентов финансовых организаций увеличился на 74% по сравнению с 2023-м, превысив 27 млрд рублей», — резюмировал доктор технических наук, профессор МГТУ им. Н.Э. Баумана Петр Ключарев.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники атакуют видеоблогеров с помощью дипфейка гендиректора YouTube

Используя ИИ, мошенники создали дипфейк гендиректора YouTube Нила Мохана (Neal Mohan), сообщающего об изменениях в монетизации видеоконтента, и пытаются с его помощью раздавать трояна для кражи учетных данных.

Фальшивку расшаривают как частное видео. Иногда с той же целью используется имейл; в этом случае сообщения распространяются от имени YouTube, в них вставляется ссылка на дипфейк.

В описании сфабрикованного ролика содержится ссылка на форму (на самом деле exe-файл), которую якобы нужно скопировать и заполнить, чтобы продолжать получать доход от просмотра публикуемого контента.

 

Команда YouTube опубликовала предупреждение о текущих атаках, напомнив, что сотрудники компании никогда не используют частные видео для контактов с пользователями видеохостинга и распространения важной для них информации.

Когда видео делятся в частном порядке от имени YouTube, это явный подлог и мошенничество, на которые можно пожаловаться с помощью соответствующей кнопки на странице. Содержащиеся в таких материалах ссылки потенциально опасны: они могут вести на фишинговый сайт или загружать зловредов.

К сожалению, с ростом доступности ИИ-инструментов у мошенников появилась возможность автоматизировать создание приманок, которые становятся все более убедительными. На YouTube такие фейки обычно рекламируют кряки лицензионных продуктов, а ссылки в описаниях чаще всего загружают троянов-стилеров.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru