Windows угрожает ещё один метод установки вредоносных драйверов

Windows угрожает ещё один метод установки вредоносных драйверов

Windows угрожает ещё один метод установки вредоносных драйверов

Казалось бы, все уже должны были забыть про уязвимость PrintNightmare, однако о ней внезапно снова заговорили. Исследователи привели ещё один пример того, как атакующие могут повысить права до SYSTEM с помощью вредоносных драйверов для принтера.

О новых проблемах в безопасности сообщил создатель Mimikatz Бенджамин Делпи, который также отметил, что ему удалось найти новый способ инсталляции драйверов принтера и повышения своих привилегий в системе до уровня SYSTEM.

Причём способ Делпи сработает даже в том случае, если системные администраторы тщательно следовали инструкции Microsoft, в которой техногигант советует ограничить возможность установки драйверов для печати.

То, о чём говорит Делпи нельзя назвать аналогичным PrintNightmare методом, однако эксперт рассчитывает, что его находка будет рассматриваться именно под этим именем. Алгоритм Делпи предполагает создание вредоносного драйвера и подпись его с помощью сертификата Authenticode (шаги описаны здесь). Стоит также учитывать, что злоумышленники могут купить или выкрасть EV-сертификат.

После подписи атакующие свободно устанавливают драйвер на любое сетевое устройство, где у них есть соответствующие права. Следующим шагом привилегии уже повышаются до SYSTEM, что демонстрируется на видео ниже:

 

По словам Делпи, его метод можно использовать для латерального передвижения по сети жертвы. Чтобы заблокировать этот вектор атаки, следует просто отключить службу Print Spooler.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники объединяют ботов и повышают убедительность фишинга

В Telegram появились группы ботов, которые активно ведут между собой дискуссии. За каждым таким ботом скрывается фейковый аккаунт с размещенными фишинговыми ссылками.

В отличие от примитивного спама, эти боты участвуют в сложных фишинговых кампаниях, нацеленных на кражу личных и платежных данных.

Они анализируют поведение пользователей и адаптируют свои действия, делая обман более убедительным.

«Групповая работа ботов значительно повышает доверие к их сообщениям, поскольку жертва видит «диалог», который выглядит естественно. Ситуация с нейроботами в Telegram — тревожный сигнал, показывающий, как быстро злоумышленники осваивают современные технологии. Использование ИИ для создания фейковых профилей и имитации живых диалогов — это качественный скачок в методах социальной инженерии», — прокомментировал для «Известий» руководитель департамента информационно-аналитических исследований компании T. Hunter Игорь Бедеров.

Как отметил руководитель BI.ZONE Brand Protection Дмитрий Кирюшкин, комментарии таких ботов осмысленны, соответствуют теме публикации и не похожи на спам, поэтому не вызывают настороженности. Это увеличивает вероятность того, что пользователь заглянет в описание учетной записи и перейдет по фишинговой ссылке. По данным BI.ZONE Brand Protection, только в феврале 2025 года было выявлено около тысячи ресурсов, созданных для перехвата учетных записей Telegram.

Руководитель ИТ-подразделения агентства «Полилог» Людмила Богатырева предупреждает, что боты используются и в классических мошеннических схемах, направленных на кражу платежных данных через фальшивые страницы оплаты. Чтобы привлечь жертв, они публикуют объявления о продаже товаров по заниженным ценам или маскируются под маркетплейсы.

Боты также научились взаимодействовать друг с другом. Один может задать вопрос, а другой — сразу дать рекомендацию. Причем такие рекомендации могут быть не только текстовыми, но и голосовыми, сгенерированными с помощью технологий дипфейка.

Ведущий аналитик департамента защиты от цифровых рисков Digital Risk Protection компании F6 Евгений Егоров отметил, что мошенники часто используют в качестве аватаров на фейковых аккаунтах фотографии реальных людей. При этом механизмов, способных предотвратить подобные действия, на данный момент не предусмотрено.

Руководитель направления аналитических исследований в Positive Technologies Ирина Зиновкина подчеркнула, что существующие инструменты для выявления искусственно созданных текстов крайне малоэффективны.

«Использование новых технологий приводит к стремительному росту распространенности и эффективности сложных мошеннических схем. Так, по данным ЦБ РФ, в 2024 году объем операций без добровольного согласия клиентов финансовых организаций увеличился на 74% по сравнению с 2023-м, превысив 27 млрд рублей», — резюмировал доктор технических наук, профессор МГТУ им. Н.Э. Баумана Петр Ключарев.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru