Мошенники пугают россиян поддельными повестками от имени ФСБ России

Мошенники пугают россиян поддельными повестками от имени ФСБ России

Мошенники пугают россиян поддельными повестками от имени ФСБ России

Россиян предупреждают о новой схеме телефонного мошенничества, связанной с поддельными повестками от имени правоохранительных органов. В ходе таких атак, которые могут продолжаться от нескольких часов до суток, злоумышленники доставляют жертве на дом документы, якобы требующие явки для дачи объяснений.

Один из подобных случаев был зафиксирован в Подмосковье, где женщине передали конверт с фальшивой повесткой от имени ФСБ России. Мошенники пытались убедить её в наличии уголовной ответственности и требовали снять с банковского счёта 2,5 млн рублей.

По данным аналитиков F.A.C.C.T., схема строится на комбинации различных методов воздействия. Ранее мошенники преимущественно использовали телефонные звонки, видеозвонки с применением дипфейков и отправку фальшивых документов через мессенджеры. В 2025 году они начали прибегать к личной доставке поддельных повесток, что повышает убедительность.

В описанном случае преступники симулировали взлом личного кабинета на Госуслугах и связывались с потерпевшей от имени различных организаций, включая Росфинмониторинг. Женщине сообщили, что с её счёта якобы пытались перевести средства в поддержку ВСУ, после чего запугивали уголовной ответственностью.

Один из злоумышленников, представившись «майором ФСБ», связывался с ней через Telegram как по голосовой, так и по видеосвязи. На второй день после начала атаки потерпевшая обнаружила поддельную повестку в своём дворе.

Вскоре мошенники вызвали для неё такси до банка, требуя обналичить 2,5 млн рублей. На этом этапе о ситуации стало известно специалистам F.A.C.C.T., которые помогли предотвратить дальнейшие действия преступников.

Как отмечают специалисты, телефонные мошенники продолжают адаптировать свои методы, используя аудио- и видеодипфейки, мессенджеры и индивидуальный подход к жертвам. По мнению руководителя департамента защиты от финансового мошенничества Fraud Protection компании F.A.C.C.T. Дмитрия Ермакова, усиление защиты пользователей возможно за счёт создания единой межотраслевой платформы учёта подозрительных номеров телефонов и реквизитов.

Такая система, доступная участникам рынка в реальном времени, могла бы автоматически фиксировать признаки мошеннической активности и снижать риски для потенциальных жертв.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru