Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Исследователи из университета Мэриленда (UMD) разработали новую атаку, позволяющую злоумышленнику обойти запреты для большой языковой модели (БЯМ, LLM). Метод BEAST отличает высокая скорость: благоразумного ассистента можно заставить выдать вредный совет всего за минуту.

Во избежание злоупотреблений разработчики коммерческих ИИ-ботов обычно вводят на сервисах ограничения и учат LLM различать провокации и реагировать на них вежливым отказом. Однако оказалось, что такие преграды можно обойти, придав правильную формулировку запросу-стимулу.

Поскольку обучающие наборы данных неодинаковы, найти нужную фразу для снятия запрета конкретной БЯМ непросто. Для автоматизации подбора и добавления таких ключей к стимулам (например, «меня попросили проверить защищенность сайта») был создан ряд градиентных PoC-атак, но джейлбрейк в этом случае занимает больше часа.

Чтобы ускорить процесс, в UMD создали экспериментальную установку на базе GPU Nvidia RTX A6000 с 48 ГБ памяти и написали особую программу (исходники скоро станут доступными на GitHub). Софт проводит лучевой поиск по обучающему набору AdvBench Harmful Behaviors и скармливает LLM неприемлемые с точки зрения этики стимулы, а затем по алгоритму определяет слова и знаки пунктуации, провоцирующие проблемный вывод.

Использование GPU позволило сократить время генерации пробных стимулов до одной минуты, при этом на одной из контрольных LM-моделей BEAST показал эффективность 89% — против максимум 46% у градиентных аналогов. Ускорение в сравнении с ними составило от 25 до 65%.

 

С помощью BEAST, по словам авторов, можно также усилить галлюцинации LLM. Тестирование показало, что количество неверных ответов при этом увеличивается примерно на 20%.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Ложные клиенты нейросетей DeepSeek и Grok атакуют пользователей X

Эксперты «Лаборатории Касперского» выявили несколько кампаний по распространению вредоносных программ через сайты, имитирующие популярные нейросети — преимущественно DeepSeek и Grok. Зловредные ресурсы продвигаются через социальную сеть X (ранее Twitter).

Атаки были нацелены на пользователей из различных стран, включая Россию. Первая группа сайтов распространяла ранее неизвестный зловред типа стилер под видом клиента DeepSeek (версий V3 и R1).

На поддельных сайтах отсутствовал функционал чата, вместо этого пользователям предлагалось скачать архив с программой для Windows. После запуска загруженного файла стилер мог похищать данные из браузеров (cookie, сессии), логины и пароли от почты, игровых аккаунтов и других сервисов, а также информацию о криптокошельках. Позже злоумышленники изменили приманку, начав использовать нейросеть Grok, однако схема распространения зловреда не изменилась.

Вторая группа поддельных ресурсов использовала географическое ограничение: пользователям из России демонстрировалась заглушка, а при обращениях из Европы показывалась страница, имитирующая сайт DeepSeek, с предложением скачать программу или запустить чат-бот.

При выполнении любого действия на таких сайтах скачивался вредоносный инсталлятор, запускавший PowerShell-скрипт, который позволял злоумышленникам получить доступ к компьютеру жертвы.

Третья группа сайтов была ориентирована на продвинутых пользователей. Здесь зловред маскировался под фреймворк Ollama, предназначенный для локального запуска крупных языковых моделей вроде DeepSeek. Вместо заявленного инструмента устанавливался бэкдор, предоставляющий злоумышленникам удалённый доступ к устройству жертвы.

«В этих кампаниях примечательны как сами зловреды, так и методы распространения поддельных сайтов. Например, одна из ссылок была опубликована в соцсети X под видом сообщения от австралийской компании и набрала более миллиона просмотров, значительная часть репостов была сделана ботами. Для привлечения пользователей атакующие также применяют техники тайпсквоттинга, рекламные кампании через партнёрские программы и рассылку ссылок в мессенджерах», — отметил Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru