В прошивках ряда устройств D-Link обнаружен бэкдор

В прошивках ряда устройств D-Link обнаружен бэкдор

Немецкий разработчик, известный рядом исследований, касающихся безопасности сетевых устройств, обнаружил в ряде моделей беспроводных маршрутизаторов D-Link бэкдор, организующий административный вход на устройства с инженерным паролем. Исследователь упоминает о том, что проблема присутствует как минимум на устройствах DIR-300revA, DIR-300revB, DIR-600revB, однако возможно, что этот список неполный.

Код запуска демона telnet на проблемных устройствах выглядит так (содержимое /rootfs/etc/scripts/misc/telnetd.sh):

#!/bin/sh
image_sign='cat /etc/config/image_sign'
TELNETD='rgdb -g /sys/telnetd'
if [ "$TELNETD" = "true" ]; then
echo "Start telnetd ..." > /dev/console
if [ -f "/usr/sbin/login" ]; then
lf='rgdb -i -g /runtime/layout/lanif'
telnetd -l "/usr/sbin/login" -u Alphanetworks:$image_sign -i $lf &
else
telnetd &
fi
fi


Из этого кода становится очевидно, что на устройство кто угодно может подключиться телнетом, используя стандартные инженерные логин (Alphanetworks) и пароль (содержимое файла /etc/config/image_sign). Поиск в интернете показал, что данные инженерные пароли уже стали широко известными и не являются каким-то особым секретом. Imagesig - внутреннее обозначение образа прошивки для данной модели устройств.

Наиболее очевидные сочетания логинов и паролей обнаруженные исследователем:

Alphanetworks wrgg19_c_dlwbr_dir300
Alphanetworks wrgn49_dlob_dir600b
Alphanetworks wrgn23_dlwbr_dir600b
Alphanetworks wrgn22_dlwbr_dir615
Alphanetworks wrgnd08_dlob_dir815
Alphanetworks wrgg15_di524
Alphanetworks wrgn39_dlob.hans_dir645

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Преступлений с применением генеративного ИИ станет в 10 раз больше

По оценкам экспертов, в 2025 году количество преступлений, совершённых с использованием генеративного искусственного интеллекта (ИИ), может увеличиться в 10 раз по сравнению с 2024 годом.

Причём данные технологии начнут активно применять не только киберпреступники, но и представители традиционного криминального мира.

Первым известным случаем использования генеративного ИИ для реального преступления стал подрыв электромобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Злоумышленник воспользовался ChatGPT для планирования атаки.

«Рост преступлений, связанных с ИИ, официально не фиксируется, однако его масштабы можно оценить по числу ботов и сгенерированного ими контента. В 2025 году прирост подобных преступлений может составить от восьми до десятикратного увеличения по сравнению с предыдущим годом», — заявил руководитель департамента расследований T.Hunter Игорь Бедеров в комментарии для «Известий». Он отметил, что меры защиты можно обойти с помощью простых методов промт-инжиниринга, например, внедряя инструкции по созданию взрывных устройств в текстах художественных произведений.

По мнению экспертов, в 2025 году генеративный ИИ будут использовать до 90% киберпреступных группировок. Инструменты ИИ для составления фишинговых сообщений уже давно освоены, и их применение будет только расти. Генеральный директор Phishman Алексей Горелкин считает, что технологии нейросетей и чат-ботов могут взять на вооружение до 90% группировок, специализирующихся на социальной инженерии.

Старший аналитик Positive Technologies Екатерина Снегирёва подчеркнула, что генеративный ИИ активно используется для создания и модификации вредоносного кода.

Так, в июне 2024 года была зафиксирована фишинговая атака с использованием вредоносных скриптов, сгенерированных нейросетями. При этом 38% компаний применяют генеративный ИИ бесконтрольно, что значительно повышает риск утечек данных.

Эксперты F.A.C.C.T. прогнозируют: в 2025 году возрастёт число атак с использованием технологий дипфейков, массового автоматизированного фишинга и совершенствования методов поиска уязвимостей в программных системах. Впрочем, уже в 2024 году массовое использование дипфейков стало реальностью благодаря инструментам, позволяющим имитировать голос в режиме реального времени.

В России ситуация будет менее острой. Это связано с ограниченной доступностью зарубежных расширенных версий генеративного ИИ для граждан и встроенными мерами защиты в российских аналогах. Например, в отечественных системах предусмотрены фильтры на ключевые стоп-слова, которые невозможно обойти. Тем не менее регулирование использования генеративного ИИ требует постоянного уточнения и адаптации.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru