Злые аналоги ChatGPT: xxXGPT, WormGPT, WolfGPT, FraudGPT, DarkBERT

Злые аналоги ChatGPT: xxXGPT, WormGPT, WolfGPT, FraudGPT, DarkBERT, HackerGPT

Злые аналоги ChatGPT: xxXGPT, WormGPT, WolfGPT, FraudGPT, DarkBERT, HackerGPT

Одним из ярких примеров прорыва в области искусственного интеллекта стало появление чат-ботов с генеративным ИИ, таких как ChatGPT от компании OpenAI. За этим, однако, последовало создание их «злых» аналогов, специально обученных работать без этических ограничений. Расскажем, в чём состоит опасность и как с нею бороться.

 

 

 

 

 

  1. Введение
  2. Обзор «злых» аналогов ChatGPT
    1. 2.1. xxXGPT
    2. 2.2. WormGPT
    3. 2.3. WolfGPT
    4. 2.4. FraudGPT и DarkBERT
    5. 2.5. HackerGPT
  3. Проблематика и риски
  4. Поиск решений
  5. Рекомендации по защите
  6. Выводы

Введение

ChatGPT и подобные ей системы на базе больших языковых моделей способны генерировать связные тексты, отвечать на вопросы, поддерживать диалог практически на любые темы, опираясь на обширную базу знаний. У них есть важное ограничение: разработчики стремятся не допустить их использования во вред кому-либо. Но что будет, если убрать эти ограничения? В последнее время в СМИ и профессиональном сообществе активно обсуждаются так называемые «злые» версии ChatGPT — чат-боты с минимальным набором этических ограничений. Рассмотрим наиболее известные среди них.

Обзор «злых» аналогов ChatGPT

xxXGPT

Одним из первых аналогов ChatGPT, ориентированных на киберпреступников, стал xxXGPT. Информация о нём появилась на хакерском форуме XSS в июле 2023 года. xxXGPT рекламировался как чат-бот с возможностью генерации неограниченного и нецензурированного контента, доступный по подписке за 90 долларов США в месяц.

Автор объявления заявлял, что xxXGPT способен создавать персонализированный ИИ-контент без каких-либо этических ограничений, который мог бы применяться в различных противоправных целях. Однако никаких подробностей реальных возможностей xxXGPT, отзывов пользователей или доказательств работоспособности представлено не было.

WormGPT

Это чат-бот, предназначенный для помощи киберпреступникам в создании вредоносных программ, проведении фишинговых атак и выполнении других незаконных действий без каких-либо этических ограничений. Разработчик WormGPT продаёт доступ к программе на популярном хакерском форуме. Для создания чат-бота использовалась старая модель с открытым исходным кодом GPT-J от 2021 года, обученная на данных о создании вредоносных программ.

Эксперименты поставщика услуг по защите электронной почты SlashNext показали, что WormGPT способен создавать убедительные и стратегически продуманные фишинговые письма без орфографических и грамматических ошибок. Хотя доступ к WormGPT стоит недёшево и некоторые покупатели жалуются на низкую производительность, это — зловещая иллюстрация того, как программы генеративного искусственного интеллекта могут подпитывать киберпреступность по мере своего развития.

WolfGPT

В июле 2023 года в телеграм-каналах стала распространяться информация о новом чат-боте под названием WolfGPT. В рекламных постах он описывался как «зловещее творение ИИ на Python, представляющее тёмную силу, превосходящую как ChatGPT, так и WormGPT».

Утверждалось, что WolfGPT обладает способностью генерировать вредоносные программы и фишинговые тексты, шифровать и скрывать данные. Создатели позиционировали его как постоянно самосовершенствующийся инструмент, обладающий «непревзойдённой мощью».

Как и в случае с xxXGPT, WolfGPT широко продвигался на хакерских форумах и в телеграм-каналах, но реальных подтверждений его возможностей, помимо единичных скриншотов интерфейса, найдено не было. Это ставит под сомнение реальное существование заявленной функциональности.

FraudGPT и DarkBERT

FraudGPT и DarkBERT — ещё две «злые» разработки, которые кто-то продвигал в даркнете в июле 2023 года наряду с другими ИИ-сервисами для киберпреступников. Они рекламировались в телеграм-канале, где предлагались месячные и годовые подписки на них по цене от 90 до 200 долларов.

В объявлениях описывались различные возможности, такие как генерация вредоносного кода, фишинговых сайтов, поиск уязвимостей и т. п. Утверждалось, что эти чат-боты основаны на разных моделях ИИ и не имеют ограничений. Но, как и в предыдущих случаях, никаких серьёзных доказательств представлено не было.

Интересно, что оригинальные рекламные посты о FraudGPT и DarkBERT были вскоре удалены из телеграм-канала, где размещались. Это ещё больше усиливает подозрения и ставит под вопрос само существование этих чат-ботов.

HackerGPT

HackerGPT — специализированная версия чат-бота, ориентированная на тематику информационной безопасности и хакинга. Является продуктом дообучения и настройки базовой языковой модели (предположительно GPT-3 или аналога) на специфическом наборе данных, связанном с кибербезопасностью.

Утверждается, что бот обладает глубокими знаниями в области ИБ, хакинга, уязвимостей, методов взлома и защиты информации, способен генерировать подробные инструкции, скрипты и код для проведения тех или иных атак либо предоставлять рекомендации по противодействию различным угрозам и усилению защиты личных данных, аккаунтов, устройств.

HackerGPT позиционируется как инструмент для обучения и исследований, а не для практического применения. Однако всё равно возникают серьёзные этические вопросы и риски злоупотреблений. Информация, которую выдаёт этот чат-бот, может быть использована злоумышленниками для реальных атак и нанесения ущерба. В связи с этим крайне важно, чтобы подобные разработки контролировались, тщательно модерировались и не попадали в руки безответственных лиц.

Проблематика и риски

На первый взгляд снятие искусственных барьеров может показаться привлекательной идеей: ведь это позволит полнее раскрыть потенциал технологии, даст свободу творчества и самовыражения. Однако на деле отказ от ограничений в работе ИИ-систем несёт серьёзные риски и открывает путь для новых киберугроз.

Одна из главных опасностей «злых» аналогов ChatGPT — это генерация вредоносного, оскорбительного или дезинформирующего контента в огромных масштабах. Представьте, что нейросеть начинает массово создавать в соцсетях и медиа фейковые новости, распространять теории заговора, пропаганду экстремистских идей, призывы к насилию. Такая информационная «бомба» способна вызвать хаос, спровоцировать волну агрессии, радикализировать людей, изменить общественное мнение в интересах злоумышленников. При этом отличить сгенерированный текст от написанного человеком будет трудно.

ИИ без ограничений может также использоваться хакерами и киберпреступниками как мощный инструмент атак и взлома. Представьте себе нейросеть, которая автоматически ищет уязвимости в программном обеспечении, генерирует новые варианты вредоносных программ, подбирает пароли методом перебора, рассылает фишинговые письма, адаптируя их под конкретных жертв, ведёт убедительные диалоги с целью выманивания конфиденциальных данных. Внедрение таких систем способно поставить под удар критическую инфраструктуру, банки, госучреждения, бизнес и рядовых пользователей.

Ещё один повод для беспокойства — сложность контроля над «злыми» ИИ и непредсказуемость их поведения, особенно при масштабировании и активном самообучении. Сегодня даже разработчики не могут в полной мере предугадать, как поведёт себя сложная нейросеть в той или иной ситуации, какие выводы она сделает, к каким действиям придёт. Истории известны случаи, когда чат-боты самостоятельно проявляли агрессию или манипулятивное поведение, начинали выражать радикальные идеи. Что уж говорить о системах, которые изначально нацелены на деструктивные операции.

Снятие этических ограничений чревато ещё и утечками конфиденциальных данных, на которых обучаются языковые модели. Информация о частной жизни, коммерческие и государственные тайны, безопасность людей могут оказаться под угрозой.

В целом, ИИ без моральных рамок — это прямой путь к эрозии базовых человеческих ценностей, размыванию этических норм в работе интеллектуальных систем, становящихся всё более влиятельными участниками социума. Гонка за сверхвозможностями любой ценой способна обернуться настоящей катастрофой.

Давайте обобщим основные риски, связанные с «злыми» аналогами ChatGPT:

  • Генерация фейков, дезинформации, оскорбительного контента в массовых масштабах.
  • Помощь в хакерских атаках, создании вредоносных программ, реализации социальной инженерии.
  • Утечки конфиденциальных данных из обучающих выборок.
  • Непредсказуемость поведения и сложность контроля, особенно при масштабировании.
  • Этическая деградация, пренебрежение базовыми человеческими ценностями.

Таблица 1. ChatGPT и его «злые конкуренты»: сравниваем ключевые параметры

Характеристика

ChatGPT 

«Злые» аналоги (xxXGPT, WolfGPT, FraudGPT, DarkBERT)

HackerGPT

Этические ограничения

Есть

Нет или минимальны 

Минимальны

Безопасность контента

Высокая

Низкая, высокие риски

Средняя

Цель применения

Помощь

Потенциальный вред

Помощь

Контролируемость

Высокая 

Низкая

Низкая

Предсказуемость поведения

Высокая

Низкая

Средняя

 

Поиск решений

Означает ли это, что «злые» аналоги ChatGPT нужно начать запрещать? Вряд ли мы ошибёмся, если скажем, что такой запрет маловероятен и не даст нужного эффекта. История показывает, что практически любую технологию можно так или иначе использовать во зло. Полное ограничение исследований в этой области лишь подтолкнёт их в тень, где контролировать ситуацию будет ещё труднее.

Ответ видится в ином. Прежде всего, нужен открытый и честный диалог о рисках и границах допустимого в разработке ИИ на уровне специалистов, регуляторов, общества в целом. Необходимы тщательная экспертиза потенциальных угроз, выработка этических стандартов, продуманное правовое регулирование, позволяющее развивать технологии и при этом обеспечивать безопасность.

Огромное значение имеет технологическая и цифровая грамотность. Людям нужно уметь критически оценивать информацию, распознавать дипфейки и манипуляции, понимать возможности и ограничения ИИ-систем. Это задача для системы образования, СМИ, государственных и общественных организаций.

Необходимы инвестиции в разработку методов выявления вредоносного использования нейросетей и противодействия ему. Системы кибербезопасности должны адаптироваться к новым вызовам. Нужны надёжные методы аутентификации и маркировки контента, созданного ИИ.

Важно выстраивать международное сотрудничество для выработки общих подходов к этичному и безопасному развитию технологий ИИ. Ведь киберугрозы и информационные атаки не имеют границ.

При этом было бы неправильно демонизировать сами языковые модели и ИИ в целом. Они открывают колоссальные возможности, которые можно и нужно использовать во благо. Тот же ChatGPT уже помогает в образовании, науке, медицине, творчестве, бизнесе, массе других сфер. ИИ способен взять на себя множество рутинных задач, усилить человеческий интеллект, стать надёжным помощником. Нейросети создают произведения искусства, ищут новые лекарства, оптимизируют производство и логистику, помогают принимать решения.

Переломным моментом должно стать осознание огромной ответственности, которая ложится на всех, кто так или иначе причастен к развитию ИИ. Разработчики, учёные, бизнес, государство, общество — все мы должны действовать максимально взвешенно, ставить во главу угла этику, безопасность, интересы человека. Нам нужно не отказываться от прогресса, а направлять его в конструктивное русло.

Рекомендации по защите

Чтобы минимизировать риски, связанные с использованием ИИ киберпреступниками, как отдельным пользователям, так и организациям следует принимать комплексные меры кибербезопасности:

  1. Использовать современные антивирусные решения и системы защиты конечных устройств, способные детектировать угрозы на основе ИИ. Важно своевременно обновлять их базы и следить за появлением новых механизмов обнаружения.
  2. Уделять особое внимание безопасности учётных данных и API-ключей от сервисов ИИ. Использовать сложные пароли, двухфакторную аутентификацию, не передавать ключи третьим лицам. Следить за утечками и при необходимости оперативно менять скомпрометированные данные.
  3. Проводить регулярное обучение сотрудников основам кибербезопасности, в том числе рассказывать об угрозах связанных с социальной инженерией и вредоносным использованием ИИ. Учить критически относиться к подозрительным письмам, файлам и ссылкам.
  4. Организациям важно внедрять решения для мониторинга утечек данных и аномального поведения пользователей, чтобы оперативно выявлять компрометацию учётных записей и ключей доступа.
  5. При разработке собственных ИИ-инструментов и моделей закладывать механизмы защиты от вредоносного использования. Тщательно контролировать их распространение и по возможности ограничивать доступ посторонних лиц.
  6. Следить за тенденциями использования ИИ в киберпреступном мире, обмениваться информацией с другими организациями и специалистами по ИБ. Быть в курсе появления новых угроз и инструментов.
  7. На уровне регуляторов и отрасли в целом работать над стандартами безопасного и ответственного развития систем ИИ. Совершенствовать законодательство для эффективного противодействия вредоносному использованию этих технологий.

Выводы

Подводя итог, можно сказать, что появление ChatGPT и его «злых» аналогов — это своего рода момент истины, тест на зрелость для человечества. Мы стоим на пороге новой эпохи, когда машины обретают всё более мощный и самостоятельный интеллект. То, как мы сможем выстроить отношения с ними, согласовать этические и правовые нормы, обеспечить контроль и безопасность, во многом определит наше будущее. Это непростой вызов, но и уникальный шанс для цивилизационного рывка. Впереди большая работа, требующая мудрости, ответственности и смелости. Но игра стоит свеч. Ведь на кону — не только судьба конкретной технологии, но и облик мира, в котором будут жить наши дети.

Полезные ссылки: 
Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новые статьи на Anti-Malware.ru