Новая схема фишинга против релокантов

Новая схема фишинга против релокантов

Новая схема фишинга против релокантов

DLBI, российский сервис отслеживания утечек данных, обнаружил расширяющуюся фишинговую кампанию, ориентированную на русскоговорящих пользователей YouTube и зарубежных соцсетей.

Злоумышленники массово публикуют в YouTube и соцсетях русскоязычные объявления от имени различных несуществующих киберполиций, Интерпола, ЕЦБ и даже совета ЕС с предложениями вернуть деньги, украденные брокерами, криптосервисами и другими финансовыми институциями.

При переходе на страницу фишингового сайта предлагается подтвердить свой аккаунт в соцсети, а также ввести данные карты якобы для проведения процедуры возврата средства. После этого происходит хищение данных карты, а также «угон» учетных записей, который затем используются размещения аналогичных объявлений.

Кампания, как отметили в DLBI, ориентирована на релокантов, которые часто используют различные «черные» и «серые» схемы для вывода активов из России, обходя заблокированные вследствие санкционной политики банковские каналы.

По данным DLBI, только с начала августа Meta (признана экстремистской организацией и запрещена в России) получила более 500 жалоб на подобные объявления, что говорит о высокой эффективности фишинговой схемы как минимум в части кражи учетных записей.

Однако реакция как автоматических, так и живых модераторов на жалобы остается вялой: удаляются с первого раза менее 10% фишинговых объявлений, еще около 30% – после запроса повторной проверки. Более половины объявлений злоумышленников остаются активными до исчерпания лимита рекламного аккаунта.

Сами мошенники также совершенствуют схемы обмана. Так, в объявлениях они стали активно использоваться омоглифы (символы, внешне сходные с буквами русского алфавита, но имеющие другие коды). Таким образом преступники пытаются обмануть алгоритмы автоматической модерации.

Как отметил основатель сервиса DLBI Ашот Оганесян, мошенники всегда стараются получить что-то с уже обманутых пользователей и чаще всего под предлогом вернуть украденные ими же деньги, однако в данном случае, опасность представляет именно вирусность кампании, когда каждый взломанный аккаунт начинает работать на ее продвижение:

«Вопрос также вызывает пассивность модераторов крупнейших соцсетей, пропускающих весь этот фрод. Вероятно, после запрета работы в России, они кардинально сократили подразделения, отвечающие за русскоязычный контент, а AI не справляется с великим и могучим русским языком. В такой ситуации я бы посоветовал пользоваться российскими ресурсами, где нет проблем с модерацией и уровень фишинга значительно ниже. В любом случае, не стоит верить тому, что кто-то, кроме правоохранительных органов,  вернет вам украденное. Но даже последние вряд ли попросят у вас данные карты, включая CVC-код».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru