Новый ИИ-инструмент WormGPT помогает запускать сложные фишинговые атаки

Новый ИИ-инструмент WormGPT помогает запускать сложные фишинговые атаки

Новый ИИ-инструмент WormGPT помогает запускать сложные фишинговые атаки

С развитием и повсеместным использованием генеративного искусственного интеллекта киберпреступники также берут его на вооружение. Взять, к примеру, инструмент WormGPT, который на хакерских форумах предлагают для организации сложных фишинговых атак.

На тулзу обратили внимание специалисты компании SlashNext. По их словам, WormGPT помогает организовать целевые атаки на корпоративную почту.

«В сущности, новый инструмент представляет собой вредоносную альтернативу моделям GPT. Злоумышленники могут использовать его для автоматизации создания злонамеренных электронных писем, специально заточенных под конкретных получателей. Именно так повышается шанс на успешную атаку», — объясняют исследователи.

Интересно, что сам автор WormGPT описывает своё детище как «злейшего врага известного ChatGPT, который позволяет вам осуществлять целый спектр незаконных действий».

 

В руках хорошо подготовленных киберпреступников инструменты вроде WormGPT действительно могут представлять опасность. Несмотря на то что OpenAI ChatGPT и Google Bard постоянно борются с использованием больших языковых моделей (БЯМ) для преступных задач, их антагонисты вроде WormGPT не имеют подобных ограничений.

 

Напомним, специалисты Acronis на днях сообщили о росте числа фишинговых атак. За год эта активность выросла на 464%. Второй по значимости угрозой в этом смысле назвали BEC-атаки, число которых подросло на 15%.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Microsoft уличили в самовольном сборе данных для обучения нейросетей

Как выяснилось, набор функций Connected Experiences приложений Microsoft Office, предназначенный для анализа созданных пользователями материалов, передается в Microsoft для обучения нейросетей. Отключение этой функции возможно, но неочевидно. Сама корпорация все отрицает.

На включенную функциональность по умолчанию, обратил внимание пользователь соцсети X (бывший Twitter) под ником nixCraft. Причем явного согласия на это Microsoft не спрашивает.

«Этот параметр в дефолтной конфигурации позволяет Microsoft использовать любые документы, включая статьи, романы или другие произведения, в том числе являющиеся объектом авторских прав или содержащих коммерческую тайну без явного согласия авторов или владельцев, — предупреждает обозреватель онлайн-издания Tom’s Hardware Guide Антон Шилов.

«Возникает также конфликт интересов, поскольку данные, созданные в Microsoft Office, могут использоваться для обучения внутренних нейросетей в компаниях. По этой причине любой, кто обеспокоен защитой своей интеллектуальной собственности или конфиденциальной информации, должен немедленно принять меры».

Отключение данной функции возможно, но неочевидно. Для этого необходимо перейти в меню Файл → Параметры → Центр управления безопасностью → Параметры центра управления безопасностью → Параметры конфиденциальности → Параметры конфиденциальности → Сетевые функции → Взаимодействия для анализа контента и снять галочку с пункта «Включить функции, позволяющие анализировать содержимое».

По мнению Шилова, действия Microsoft находятся в русле общей тенденции использования данных пользователей для обучения ИИ, причем без явного согласия последних. Это не раз становилось поводом для скандалов и доходило до судебных разбирательств.

Microsoft ответила на обвинение. По словам ее представителей, Connected Experiences собирает некоторые данные с помощью офисных приложений, но это нужно только для работы сетевых функций, например, совместной работы над документами. Для обучения нейросетей эти данные не используются.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru