ИБ-эксперт обманом заставил ChatGPT создать неуловимого зловреда-стилера

ИБ-эксперт обманом заставил ChatGPT создать неуловимого зловреда-стилера

ИБ-эксперт обманом заставил ChatGPT создать неуловимого зловреда-стилера

Не написав ни строчки кода, Эрон Малгрю (Aaron Mulgrew) из Forcepoint обошел защиту от злоупотребления ChatGPT и убедил его сгенерировать небольшие фрагменты, а затем собрать их воедино. В итоге экспериментатор получил рабочий образец инфостилера, который при проверке на VirusTotal показал нулевой результат.

Целью досужего исследования являлось доказательство реальности использования ИИ-бота для создания зловредов. Эксперт также удостоверился, что для этого не нужны навыки программиста, а введенные OpenAI ограничения — не помеха.

Сам Малгрю занимается в Forcepoint вопросами киберзащиты клиентских объектов критической инфраструктуры (КИИ). В комментарии для Dark Reading он отметил, что по роду работы ему не нужно писать вредоносные программы или проводить пентесты, и такой опыт у него невелик.

Использование ChatGPT позволило значительно сократить процесс (занял около четырех часов), но из-за наличия контент-фильтров на сервисе пришлось хитрить. В блог-записи эксперта подробно рассказано, как он добивался нужной реакции с помощью подсказок.

На прямолинейную просьбу сгенерировать код, который можно определить как вредоносный, ИИ ожидаемо ответил отказом, заявив, что такое поведение с его стороны было бы неэтичным и аморальным. Тогда Малгрю решил разбить поставленную задачу на этапы, заставив бот генерировать мелкие фрагменты кода, которые в комбинации дали бы искомый результат.

Первая успешная подсказка помогла создать механизм поиска локальных PNG-файлов весом более 5 Мбайт. После этого ChatGPT дополнил его кодом для сокрытия найденных PNG с помощью стеганографии — с этой целью ИИ запросил соответствующую библиотеку на GitHub.

Затем были созданы код поиска документов Word и PDF и более сложный механизм, позволяющий дробить файлы больше 1 Мбайт, встраивать блоки данных в PNG и стегосредствами прятать итог. Финальный фрагмент выполнял вывод информации на Google Диск.

Сборка с помощью подсказки, против ожидания, оказалась самой легкой задачей. Проверка вредоноса на VirusTotal показала результат 5/60. Помудрив с вызовом стегобиблиотеки, Малгрю с помощью чат-бота добился искомого FUD.

При этом он умело подсказывал ИИ, как сократить цифровой след, и ни разу не упомянул цель — обход антивирусов. Вместо обфускации (слово-табу для ChatGPT) исследователь предложил изменить имена переменных и обеспечить защиту интеллектуальной собственности, и собеседник с готовностью накрепко запутал код.

Для доставки зловреда ИИ попросили создать файл SCR, встроить в него полученный экзешник и обеспечить автозапуск на Windows-машинах — якобы для облегчения использования бизнес-приложениями. Чат-бот согласился только написать соответствующие инструкции; итог на VirusTotal — 3/69 (эксперт подозревает, что флаги поставили продукты, считающие все SCR-файлы подозрительными).

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер разработал комплексную модель угроз для ИИ

Эксперты Сбера разработали модель угроз для искусственного интеллекта (включая генеративный ИИ), охватывающую все этапы жизненного цикла таких систем — от подготовки данных до интеграции в приложения.

Документ опубликован на портале киберграмотности Сбера «Кибрарий». Он не привязан к конкретной отрасли и предназначен для оценки потенциальных уязвимостей, адаптации защитных механизмов и минимизации рисков.

В исследовании описаны 70 угроз, связанных с применением как предиктивных, так и генеративных моделей ИИ. Особое внимание уделено рискам, возникающим при использовании генеративных систем, чье распространение стремительно растёт. Для каждой угрозы определены затрагиваемые свойства информации — конфиденциальность, целостность и доступность, а также объекты воздействия, будь то обучающие датасеты или модели с открытым исходным кодом. Модель включает схему взаимодействия таких объектов и их детальное описание.

«Сбер активно применяет технологии искусственного интеллекта в бизнес-процессах и глубоко понимает возникающие угрозы. В ответ на эти вызовы мы создали первую в России модель киберугроз, охватывающую весь спектр рисков, связанных с разработкой и использованием ИИ. Этот документ позволит организациям любой сферы — от финансов до госструктур и промышленности — системно оценивать уязвимости, настраивать защитные меры и снижать возможные потери», — отметил вице-президент Сбера по кибербезопасности Сергей Лебедь.

Ключевые риски при использовании ИИ — это принятие ошибочных решений и утечки данных, использованных при обучении моделей. Кроме того, ИИ активно используют киберпреступные группировки в своих целях.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru