Мошенники ускоряют профилирование мишеней с помощью ИИ

Мошенники ускоряют профилирование мишеней с помощью ИИ

Мошенники ускоряют профилирование мишеней с помощью ИИ

Авторы сложных сценариев отъема денег у юрлиц стали использовать ИИ, чтобы ускорить сбор данных о намеченных жертвах. В RTM Group зафиксировали сотни случаев хорошо подготовленных атак на малый и средний бизнес.

Сама мошенническая схема выглядит, как BEC-атака, только вместо имейл используются мессенджер (в данном случае Telegram) и телефонная связь. Применение ИИ, по оценке экспертов, позволило повысить эффективность обмана на 40%; при этом преступный доход ОПГ средней величины (10 участников) может ежедневно составлять от 1 млн до нескольких десятков млн рублей.

В ходе подготовки злоумышленники, вооружившись ИИ, собирают информацию из слитых в Сеть баз. Найдя совпадения по месту работы и совместным счетам, они разбивают мишени на пары: владелец – управляющий компании, гендиректор – его зам, директор – главбух и т. п.

Затем в Telegram создаются поддельные аккаунты лидеров каждой пары, и боты начинают слать сообщения от их имени, вовлекая подчиненных в диалог. В качестве темы обычно используются непорядочность знакомых / клиентов либо мифическая проверка со стороны правоохраны (к примеру, ФСБ).

Сообщения бота могут содержать фамилии реальных представителей госорганов, скриншоты специально составленных документов. После такой обработки следует звонок персоны, упоминавшейся в ходе беседы.

Лжеревизор начинает задавать вопросы о случаях мошенничества, долгах, неких платежах, пытаясь определить финансовую проблему, которую можно использовать как предлог для выманивания денег переводом на левый счет.

«Основной рекомендацией по минимизации рисков является постоянное внимание к деталям в ходе виртуального общения с партнерами по бизнесу и сотрудниками, особенно когда речь идет о проблемах с законом, переводах финансовых средств, проверках компетентных органов, — заявили эксперты «Известиям». — Также специалисты RTM Group рекомендуют не выкладывать в публичный доступ прямые контакты руководителей компаний и департаментов».

На днях мы анализировали «злые» аналоги ChatGPT: xxXGPT, WormGPT, WolfGPT, FraudGPT, DarkBERT, HackerGPT. Рассказали, в чём состоит опасность и как с нею бороться.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ может склонировать JS-зловреда 10 тыс. раз и добиться FUD в 88% случаев

Проведенное в Palo Alto Networks исследование показало, что ИИ-модель можно заставить многократно обфусцировать вредоносный код JavaScript и в итоге получить семпл, не детектируемый антивирусами (FUD, fully undetectable).

Речь идет об онлайн-помощниках, авторы которых вводят ограничения во избежание злоупотреблений ИИ-технологиями — в отличие от создателей «злых» аналогов (WormGPT, FraudGPT и т. п.), заточенных под нужды киберкриминала.

Разработанный в Palo Alto алгоритм использует большую языковую модель (БЯМ, LLM) для пошаговой трансформации кода с сохранением его функциональности. При его тестировании на реальных образцах JavaScript-зловредов кастомный классификатор на основе модели глубокого обучения выдал вердикт «безвредный» в 88% случаев.

Опытным путем было установлено, что уровень детектирования снижается по мере увеличения количества итераций (в ходе экспериментов LLM создавала по 10 тыс. вариантов вредоноса). Примечательно, что привносимые изменения выглядели более естественно в сравнении с результатами готовых инструментов вроде obfuscator.io.

Для проведения исследования был также создан набор подсказок для выполнения различных преобразований, таких как переименование переменной, разделение строк, добавление мусора, удаление ненужных пробелов, альтернативная реализация функции.

Финальные варианты обфусцированных JavaScript были ради интереса загружены на VirusTotal. Их не смог распознать ни один антивирус; повторение проверок через четыре дня дало тот же эффект.

 

Результаты исследования помогли экспертам усовершенствовать свой инструмент детектирования JavaScript. Полученные с помощью LLM образцы были добавлены в тренировочный набор данных для модели машинного обучения; их использование позволило повысить результативность классификатора на 10%.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru