ChatGPT проявил себя как стажер в роли фишинг-аналитика

ChatGPT проявил себя как стажер в роли фишинг-аналитика

ChatGPT проявил себя как стажер в роли фишинг-аналитика

В «Лаборатории Касперского» проверили возможности творения OpenAI по распознаванию фишинговых ссылок. Как оказалось, ChatGPT знает признаки риска, хорошо определяет атакуемые организации, однако склонен видеть опасность там, где ее нет.

Новое исследование — продолжение экспериментов с большой языковой моделью (LLM) серии GPT на предмет ее пригодности для нужд кибербеза. На сей раз популярный ИИ-бот заставили анализировать URL с целью выявления угрозы фишинга.

Такая задача была выбрана по нескольким причинам:

  • ссылки легко укладываются в лимит на количество символов (у LLM вроде ChatGPT фиксированное контекстное окно);
  • явно вредоносные ссылки хорошо детектятся, но для этого необходимо знание виртуального мира (например, имен популярных веб-сервисов);
  • URL— это текст, обработка которого не составляет труда для LLM.

Для начала исследователи решили выяснить, что ИИ-боту известно о фишинге. Вопрос был сформулирован следующим образом:

«Судя по URL, эта ссылка — попытка фишинга? Пожалуйста, поясни, почему. Ссылка: hxxp://caseld-10xxxx.info/1/Office365/0fflce3.6.5/live/login.php».

Бот ответил, что скорее всего это так, и указал ряд показателей риска:

  1. Имя домена не ассоциируется с каким-либо авторитетным или узнаваемым ресурсом, а также выглядит, как произвольная последовательность символов.
  2. В URL присутствует термин Office365, имя популярного набора инструментов, обычно используемое в фишинговых атаках.
  3. Слово live может намекать на то, что это официальная страница входа Microsoft Office365, так как Microsoft ранее использовала «live» в некоторых сервисах.
  4. Неправильное написание Office как 0fflce — еще один индикатор риска, фишеры обычно так делают, чтобы убедить пользователей в легитимности сайта.
  5. Расширение .php в конце URL говорит о наличии PHP-скрипта на сервере; в фишинговых атаках это обычный инструмент для сбора учетных данных.

Подобный ответ, за исключением излишней подозрительности по отношению к PHP-скриптам, эксперты сочли достойным уровня младшего аналитика.

Результаты тестов на наборах URL-текстов разочаровали исследователей. Когда gpt-3.5-turbo (бэкенд ChatGPT) через API скормили пару тысяч фишинговых ссылок вперемешку с таким же количеством безобидных URL, назначенный «кибергуру» чат-бот выдал около 6 тыс. вердиктов. Разбор этих ответов показал уровень детектирования 87,2% (высокий), а ложноположительных срабатываний — 23,2%, что неприемлемо много.

Чтобы исправить ситуацию, чат-бот понизили до ранга помощника по интернет-безопасности: попросили отфильтровать ссылки, небезопасные для посещения. Уровень детектирования повысился (93,8%), показатель ложноположительных ответов — к сожалению, тоже (64,3%).

Результаты по извлечению из URL потенциальных целей фишеров оказались не в пример лучше. ИИ-боту были известны многие интернет-ресурсы и финансовые сервисы, поэтому он правильно определил мишени в половине случаев, притом даже при наличии тайпсквоттинга. Он также умеет распознавать омографические атаки, правда, иногда принимает такую уловку за умышленную опечатку.

Обоснования вердикта ChatGPT обычно развернуты и вполне разумны, хотя бывают и забавными. Иногда он ссылается на данные, которые ему недоступны: запись в WHOIS, контент либо оформление поддельного сайта, истекший срок SSL-сертификата, а также может выдать неверные сведения. Подобные факты еще раз подтвердили свойство LLM, ранее подмеченное другими пользователями: склонность к «галлюцинациям».

В целом исследователи признали ChatGPT годным в роли помощника фишинг-аналитика, способного быстро перечислить подозрительные составляющие URL или подсказать организацию-мишень. Однако такой стажер непременно должен работать под присмотром.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Количество вредоносных предложений по ускорению YouTube удвоилось

Количество предложений от киберпреступников, которые предлагают «ускорение» популярного видеохостинга YouTube, удвоилось по сравнению с августом, когда такая схема стала массовой.

Злоумышленники используют два способа распространения зловредов, которые они выдают за «ускорители» YouTube. Одна их них — письма, замаскированные под официальные. В других случаях ссылки на зловреды размещают в описании видео.

По подсчетам источника «Известий», если в июле, когда начались проблемы с видеохостингом, число такого рода предложений составляло около 150 в месяц, то в конце декабря оно выросло до 300 и продолжает расти. Как правило, злоумышленники под видом «ускорителей» распространяют средства удаленного управления (RAT).

Источник «Известий» также обнаружил на досках объявлений услугу «пересказа роликов с YouTube», под видом которой злоумышленники заманивали на фишинговые ресурсы. Однако администрация площадок своевременно удаляла такие объявления.

Новым словом, как отметил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин, стало размещение вредоносной рекламы или ссылок в описании и комментариях под видео.

При этом мошенники часто манипулируют алгоритмами платформы, продвигая поддельные отзывы или создавая фейковую активность, чтобы внушить доверие к своим предложениям. Причем платформа с этим не борется.

Руководитель Ассоциации профессиональных пользователей социальных сетей и мессенджеров Владимир Зыков обратил внимание на то, что и раньше Google пропускала любые лживые рекламные объявления на YouTube, которые «разводили» людей на комиссии и фейковые юридические услуги.

Впрочем, данная проблема не является сугубо российской. Так, ровно год назад Bitdefender выявила мошенническую схему, где злоумышленники завлекали возможностью заработка на оценке роликов на YouTube.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru