Разработан вирус конструирующийся из установленных на компьютере программ

Разработан вирус конструирующийся из установленных на компьютере программ

Учёные по заказу армии США разработали образец вируса, который самособирается из фрагментов ПО, установленного на компьютере жертвы. Концептуальной разработке дали название Frankenstein, пишет журнал New Scientist. Перед учёными поставили задание создать код, который будет трудно обнаружить с помощью неизвестного антивируса. Задачу решили за счёт модульной конструкции вируса.

После установки на машину жертвы, вирус конструирует рабочее тело из так называемых «гаджетов» — маленьких фрагментов исходного кода, каждый из которых выполняет определённую узкую задачу. Гаджеты заимствуются из программ, уже установленных на компьютере пользователя, таких как Internet Explorer или Notepad. Типичная Windows-программа содержит около 100 000 гаджетов, своеобразных кирпичиков для сборки. Например, explorer.exe — 127859 гаджетов, gcc.exe — 97163 гаджетов, calc.exe — 60390, cmd.exe — 25008, notepad.exe — 6974.

Предыдущие исследования в данной области показали теоретическую возможность конструирования ПО таким способом, если доступно достаточное количество гаджетов. Теперь эта теория доказана на практике. Вишват Мохэн (Vishwath Mohan) и Кевин Хэмлен (Kevin Hamlen) из Техасского университета в Далласе создали из гаджетов программу, реализовав два простых алгоритма, которые могут использоваться в настоящем зловреде, передает xakep.ru.

Ключевая особенность «Франкенштейна» в том, что сборка рабочего тела по заданным инструкциям повторяется на каждом заражённом компьютере, но каждый раз задействуются новые гаджеты, так что бинарник вируса в каждом случае получается уникальным. За счёт этой особенности вредоносную программу практически невозможно обнаружить по базе вирусных сигнатур.

Подобный подход генерации кода гораздо эффективнее, чем мутация по заданному алгоритму, потому что антивирусные программы довольно быстро вычисляют алгоритм и приспосабливаются к нему. Чтобы вычислять вирусы вроде «Франкенштейна», им придётся анализировать не программный код, а реальное поведение программы, возможно, запуская её в песочнице. С другой стороны, вредоносная программа может определять наличие песочницы и менять своё поведение, как это делают некоторые нынешние вирусы.

Презентация научной работы Вишвата Мохэн и Кевина Хэмлена Frankenstein: Stitching Malware from Benign Binaries(pdf) состоялась на конференции USENIX Workshop on Offensive Technologies, которая прошла 6-7 августа 2012 года в городе Белвью (штат Вашингтон).

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru