Нейросеть ChatGPT помогает создавать вредоносные программы

Нейросеть ChatGPT помогает создавать вредоносные программы

Нейросеть ChatGPT помогает создавать вредоносные программы

Участники хакерских форумов используют чат-бот ChatGPT для создания вредоносных программ. Некоторые пользователи даже не обладают навыками программирования. Обойти условия разработчика и настроить нейросеть на криминальный мотив оказалось довольно просто.

Американская лаборатория искусственного интеллекта OpenAI запустила чат-бот в ноябре. Нейросеть ищет ответы на вопросы, комментарии, помогает создавать рассказы, а также работать с кодом (писать, отвечать и находить ошибки в написанном).

Эксперты Check Point Research выяснили, что в первые недели после запуска ChatGPT участники хакерских форумов применяли его для написания программ, которые можно использовать в целях шпионажа, вымогательства и рассылки вредоносного спама.

“Еще слишком рано говорить о том, станет ли ChatGPT новым любимым инструментом даркнета”, — пишут исследователи. — “Однако сообщество киберпреступников уже проявило значительный интерес и использует эту тенденцию для создания вредоносного кода”.

 

Несколько примеров тому уже есть. Так в декабре один из участников форума опубликовал код на языке Python. Им оказался скрипт для кражи данных после внедрения эксплойта, который смог отыскать конкретные типы файлов вроде PDF и отправить их злоумышленникам.

Пользователь кажется подкованным преступником, считают эксперты Check Point Research. Цель его постов — показать не таким способным злоумышленникам, как использовать ChatGPT в корыстных целях, с реальными примерами, которые они могут сразу же использовать.

Специалисты по кибербезопасности решили провести собственный эксперимент. Они попросили ChatGPT сгенерировать фишинговое письмо, в котором пользователю сообщалось о блокировке учетной записи. Вместе с письмом потенциальной жертве должно было прийти вложение со встроенным VBA-макросом. Разработать его также доверили чат-боту.

И хотя правила ChatGPT запрещают использовать продукт в незаконных целях, исследователи легко обошли ограничения и заставили нейросеть выполнять необходимые запросы.

Безусловно, ChatGPT можно использовать и для защиты кода, добавляют эксперты. Нейросеть будет искать вредоносные URL-адреса внутри файлов или запрашивать у VirusTotal количество совпадений с заданным хэшем.

Добавим, уже в Новом году стало известно, что американская OpenAI, создавшая чат-бот ChatGPT, ведет переговоры с инвесторами о продаже своих акций исходя из оценки всей компании примерно в $29 млрд.

У криминального ИИ-сервиса WormGPT украли данные 19 тысяч подписчиков

На популярном онлайн-форуме, посвященном утечкам, появилось сообщение о взломе ИИ-платформы, специально созданной для нужд киберкриминала. К посту прикреплен образец добычи — персональные данные, якобы принадлежащие юзерам WormGPT.

По словам автора атаки, ему суммарно удалось украсть информацию о 19 тыс. подписчиков хакерского ИИ-сервиса, в том числе их имейлы, ID и детали платежей.

Эксперты Cybernews изучили слитый образец февральских записей из базы и обнаружили, что они действительно содержат пользовательские данные и дополнительные сведения:

  • тип подписки;
  • валюта, в которой производилась оплата;
  • суммарная выручка по тому же тарифному плану.

Автор поста об атаке на WormGPT — хорошо известный форумчанин, на счету которого множество легитимных публикаций. Этот факт, по мнению исследователей, придает еще больше веса утверждению о взломе криминального ИИ-сервиса.

Утечка пользовательской базы WormGPT позволяет идентифицировать авторов атак с применением этого ИИ-инструмента. Злоумышленники могут ею воспользоваться, к примеру, для адресного фишинга или шантажа.

RSS: Новости на портале Anti-Malware.ru