Авторы стилеров маскируют зловреды под ИИ-ассистенты

Авторы стилеров маскируют зловреды под ИИ-ассистенты

Авторы стилеров маскируют зловреды под ИИ-ассистенты

Злоумышленники активно распространяют вредоносные копии популярных ИИ-ассистентов, таких как ChatGPT, DeepSeek и Google Gemini. Чаще всего эти подделки используются для распространения стилеров — вредоносных программ, перехватывающих учетные данные пользователей, как из публичных сервисов, так и из корпоративных систем.

По данным экспертов, опрошенных «Известиями», стилеры остаются востребованным инструментом среди киберпреступников благодаря своей простоте, доступности и распространенности в даркнете. Согласно данным «Информзащиты», в 2024 году число атак с их использованием увеличилось на 54% по сравнению с предыдущим годом.

Как пояснила руководитель ИТ-подразделения агентства «Полилог» Людмила Богатырева, злоумышленники нередко распространяют стилеры через фальшивые версии официальных приложений госструктур и банков, копируя их внешний вид и функциональность.

«Часто такие программы распространяются через фишинговые письма со вложенными файлами или ссылками на зараженные ресурсы. Злоумышленники маскируются под представителей госорганов, контрагентов, специалистов техподдержки или HR-отделов. Сегодня в области кибербезопасности активно используются ИИ-решения для выявления подобных угроз, однако сами мошенники также применяют искусственный интеллект для повышения реалистичности своих атак», — отметила она.

Пример одной из таких атак привели в «Информзащите»: сотрудники компании получили фишинговое письмо якобы от партнера-логиста с прикрепленными документами. Один из сотрудников загрузил и открыл файл, после чего стилер оказался на его устройстве.

Вредоносная программа украла его учетные данные и перехватила одноразовый код из СМС для обхода двухфакторной аутентификации. Получив доступ к корпоративной системе, хакеры похитили конфиденциальные данные компании и потребовали за них выкуп в несколько сотен тысяч рублей.

Старший контент-аналитик «Лаборатории Касперского» Ольга Свистунова отметила, что мошенники создают поддельные сервисы, имитирующие популярные ИИ-ассистенты. Это позволяет им одновременно собирать данные, перехваченные стилерами, и получать доступ к учетным записям пользователей.

Руководитель BI.ZONE Threat Intelligence Олег Скулкин обратил внимание на то, что в даркнете можно найти базы данных, собранные стилерами. Кроме того, появились бесплатные генераторы вредоносного кода, доступные даже тем, кто не имеет средств или технических возможностей для приобретения коммерческих вредоносных программ по модели «вирус как сервис».

Некоторые стилеры становятся все более сложными и трудно обнаруживаются средствами защиты. Например, новые штаммы GuLoader практически незаметны для антивирусных программ.

В Министерстве цифрового развития рекомендуют соблюдать базовые меры предосторожности:

  • Критически относиться к ссылкам, по которым переходите,
  • Избегать установки приложений из непроверенных источников,
  • Не передавать никому логины, пароли и коды двухфакторной аутентификации.

Для защиты компаний директор по клиентской безопасности Selectel Денис Полянский выделил три ключевых правила:

  1. Настроить защиту корпоративной почты,
  2. Обеспечить антивирусную защиту всех рабочих устройств, включая Linux-системы,
  3. Регулярно обучать сотрудников методам кибербезопасности и выявления мошеннических схем.

По прогнозам специалистов, стилеры останутся одной из значимых угроз в 2025 году.

ГАИ проиграла суд против роботов-доставщиков

Московский городской суд отклонил жалобу ГАИ на решение суда первой инстанции, который не усмотрел в действиях роботов-доставщиков состава административного правонарушения, связанного с нарушением Правил дорожного движения. Ранее ГАИ обвинило дочернюю компанию Яндекса — «Рободоставку» — в нарушении ПДД.

Поводом для разбирательства стало происшествие 7 марта, когда инспектор ГАИ счёл, что робот-доставщик, передвигавшийся по тротуару, создаёт помехи пешеходам.

По мнению инспектора, это подпадало под статью 12.33 КоАП РФ. Компании «Рободоставка» в этом случае грозил штраф в размере 300 тыс. рублей.

Представители Яндекса с такой трактовкой не согласились, указав, что в действиях роботов-доставщиков отсутствует и не может присутствовать умысел. Дело было рассмотрено в Мещанском районном суде Москвы, который поддержал позицию компании.

«Роботы-доставщики не относятся к транспортным средствам, определённым нормами действующего законодательства. Как следует из видеозаписи, робот-доставщик передвигался по краю тротуара, не перекрывая пешеходную зону, автоматически останавливался при приближении людей. Пешеходы продолжали движение. Контакта, вынужденного сближения, опасных манёвров или остановок зафиксировано не было. Следовательно, объективных признаков угрозы безопасности дорожного движения не имелось», — такую выдержку из решения суда приводит Autonews.

ГАИ с таким решением не согласилась и подала жалобу в Московский городской суд. Однако Мосгорсуд оставил её без удовлетворения. Решение было принято ещё 5 февраля, но опубликовано только вечером 9 февраля.

«Мы работаем над тем, чтобы роботы-доставщики безопасно и корректно интегрировались в городскую среду и городскую инфраструктуру в рамках экспериментального правового режима, а также находимся в постоянном взаимодействии с профильными ведомствами. Подобные кейсы помогают формировать и развивать понятные правила использования автономных устройств в городе по мере накопления практического опыта», — прокомментировали судебное решение в Яндексе.

RSS: Новости на портале Anti-Malware.ru