Одним из ярких примеров прорыва в области искусственного интеллекта стало появление чат-ботов с генеративным ИИ, таких как ChatGPT от компании OpenAI. За этим, однако, последовало создание их «злых» аналогов, специально обученных работать без этических ограничений. Расскажем, в чём состоит опасность и как с нею бороться.
- Введение
- Обзор «злых» аналогов ChatGPT
- 2.1. xxXGPT
- 2.2. WormGPT
- 2.3. WolfGPT
- 2.4. FraudGPT и DarkBERT
- 2.5. HackerGPT
- Проблематика и риски
- Поиск решений
- Рекомендации по защите
- Выводы
Введение
ChatGPT и подобные ей системы на базе больших языковых моделей способны генерировать связные тексты, отвечать на вопросы, поддерживать диалог практически на любые темы, опираясь на обширную базу знаний. У них есть важное ограничение: разработчики стремятся не допустить их использования во вред кому-либо. Но что будет, если убрать эти ограничения? В последнее время в СМИ и профессиональном сообществе активно обсуждаются так называемые «злые» версии ChatGPT — чат-боты с минимальным набором этических ограничений. Рассмотрим наиболее известные среди них.
Обзор «злых» аналогов ChatGPT
xxXGPT
Одним из первых аналогов ChatGPT, ориентированных на киберпреступников, стал xxXGPT. Информация о нём появилась на хакерском форуме XSS в июле 2023 года. xxXGPT рекламировался как чат-бот с возможностью генерации неограниченного и нецензурированного контента, доступный по подписке за 90 долларов США в месяц.
Автор объявления заявлял, что xxXGPT способен создавать персонализированный ИИ-контент без каких-либо этических ограничений, который мог бы применяться в различных противоправных целях. Однако никаких подробностей реальных возможностей xxXGPT, отзывов пользователей или доказательств работоспособности представлено не было.
WormGPT
Это чат-бот, предназначенный для помощи киберпреступникам в создании вредоносных программ, проведении фишинговых атак и выполнении других незаконных действий без каких-либо этических ограничений. Разработчик WormGPT продаёт доступ к программе на популярном хакерском форуме. Для создания чат-бота использовалась старая модель с открытым исходным кодом GPT-J от 2021 года, обученная на данных о создании вредоносных программ.
Эксперименты поставщика услуг по защите электронной почты SlashNext показали, что WormGPT способен создавать убедительные и стратегически продуманные фишинговые письма без орфографических и грамматических ошибок. Хотя доступ к WormGPT стоит недёшево и некоторые покупатели жалуются на низкую производительность, это — зловещая иллюстрация того, как программы генеративного искусственного интеллекта могут подпитывать киберпреступность по мере своего развития.
WolfGPT
В июле 2023 года в телеграм-каналах стала распространяться информация о новом чат-боте под названием WolfGPT. В рекламных постах он описывался как «зловещее творение ИИ на Python, представляющее тёмную силу, превосходящую как ChatGPT, так и WormGPT».
Утверждалось, что WolfGPT обладает способностью генерировать вредоносные программы и фишинговые тексты, шифровать и скрывать данные. Создатели позиционировали его как постоянно самосовершенствующийся инструмент, обладающий «непревзойдённой мощью».
Как и в случае с xxXGPT, WolfGPT широко продвигался на хакерских форумах и в телеграм-каналах, но реальных подтверждений его возможностей, помимо единичных скриншотов интерфейса, найдено не было. Это ставит под сомнение реальное существование заявленной функциональности.
FraudGPT и DarkBERT
FraudGPT и DarkBERT — ещё две «злые» разработки, которые кто-то продвигал в даркнете в июле 2023 года наряду с другими ИИ-сервисами для киберпреступников. Они рекламировались в телеграм-канале, где предлагались месячные и годовые подписки на них по цене от 90 до 200 долларов.
В объявлениях описывались различные возможности, такие как генерация вредоносного кода, фишинговых сайтов, поиск уязвимостей и т. п. Утверждалось, что эти чат-боты основаны на разных моделях ИИ и не имеют ограничений. Но, как и в предыдущих случаях, никаких серьёзных доказательств представлено не было.
Интересно, что оригинальные рекламные посты о FraudGPT и DarkBERT были вскоре удалены из телеграм-канала, где размещались. Это ещё больше усиливает подозрения и ставит под вопрос само существование этих чат-ботов.
HackerGPT
HackerGPT — специализированная версия чат-бота, ориентированная на тематику информационной безопасности и хакинга. Является продуктом дообучения и настройки базовой языковой модели (предположительно GPT-3 или аналога) на специфическом наборе данных, связанном с кибербезопасностью.
Утверждается, что бот обладает глубокими знаниями в области ИБ, хакинга, уязвимостей, методов взлома и защиты информации, способен генерировать подробные инструкции, скрипты и код для проведения тех или иных атак либо предоставлять рекомендации по противодействию различным угрозам и усилению защиты личных данных, аккаунтов, устройств.
HackerGPT позиционируется как инструмент для обучения и исследований, а не для практического применения. Однако всё равно возникают серьёзные этические вопросы и риски злоупотреблений. Информация, которую выдаёт этот чат-бот, может быть использована злоумышленниками для реальных атак и нанесения ущерба. В связи с этим крайне важно, чтобы подобные разработки контролировались, тщательно модерировались и не попадали в руки безответственных лиц.
Проблематика и риски
На первый взгляд снятие искусственных барьеров может показаться привлекательной идеей: ведь это позволит полнее раскрыть потенциал технологии, даст свободу творчества и самовыражения. Однако на деле отказ от ограничений в работе ИИ-систем несёт серьёзные риски и открывает путь для новых киберугроз.
Одна из главных опасностей «злых» аналогов ChatGPT — это генерация вредоносного, оскорбительного или дезинформирующего контента в огромных масштабах. Представьте, что нейросеть начинает массово создавать в соцсетях и медиа фейковые новости, распространять теории заговора, пропаганду экстремистских идей, призывы к насилию. Такая информационная «бомба» способна вызвать хаос, спровоцировать волну агрессии, радикализировать людей, изменить общественное мнение в интересах злоумышленников. При этом отличить сгенерированный текст от написанного человеком будет трудно.
ИИ без ограничений может также использоваться хакерами и киберпреступниками как мощный инструмент атак и взлома. Представьте себе нейросеть, которая автоматически ищет уязвимости в программном обеспечении, генерирует новые варианты вредоносных программ, подбирает пароли методом перебора, рассылает фишинговые письма, адаптируя их под конкретных жертв, ведёт убедительные диалоги с целью выманивания конфиденциальных данных. Внедрение таких систем способно поставить под удар критическую инфраструктуру, банки, госучреждения, бизнес и рядовых пользователей.
Ещё один повод для беспокойства — сложность контроля над «злыми» ИИ и непредсказуемость их поведения, особенно при масштабировании и активном самообучении. Сегодня даже разработчики не могут в полной мере предугадать, как поведёт себя сложная нейросеть в той или иной ситуации, какие выводы она сделает, к каким действиям придёт. Истории известны случаи, когда чат-боты самостоятельно проявляли агрессию или манипулятивное поведение, начинали выражать радикальные идеи. Что уж говорить о системах, которые изначально нацелены на деструктивные операции.
Снятие этических ограничений чревато ещё и утечками конфиденциальных данных, на которых обучаются языковые модели. Информация о частной жизни, коммерческие и государственные тайны, безопасность людей могут оказаться под угрозой.
В целом, ИИ без моральных рамок — это прямой путь к эрозии базовых человеческих ценностей, размыванию этических норм в работе интеллектуальных систем, становящихся всё более влиятельными участниками социума. Гонка за сверхвозможностями любой ценой способна обернуться настоящей катастрофой.
Давайте обобщим основные риски, связанные с «злыми» аналогами ChatGPT:
- Генерация фейков, дезинформации, оскорбительного контента в массовых масштабах.
- Помощь в хакерских атаках, создании вредоносных программ, реализации социальной инженерии.
- Утечки конфиденциальных данных из обучающих выборок.
- Непредсказуемость поведения и сложность контроля, особенно при масштабировании.
- Этическая деградация, пренебрежение базовыми человеческими ценностями.
Таблица 1. ChatGPT и его «злые конкуренты»: сравниваем ключевые параметры
Характеристика |
ChatGPT |
«Злые» аналоги (xxXGPT, WolfGPT, FraudGPT, DarkBERT) |
HackerGPT |
Этические ограничения |
Есть |
Нет или минимальны |
Минимальны |
Безопасность контента |
Высокая |
Низкая, высокие риски |
Средняя |
Цель применения |
Помощь |
Потенциальный вред |
Помощь |
Контролируемость |
Высокая |
Низкая |
Низкая |
Предсказуемость поведения |
Высокая |
Низкая |
Средняя |
Поиск решений
Означает ли это, что «злые» аналоги ChatGPT нужно начать запрещать? Вряд ли мы ошибёмся, если скажем, что такой запрет маловероятен и не даст нужного эффекта. История показывает, что практически любую технологию можно так или иначе использовать во зло. Полное ограничение исследований в этой области лишь подтолкнёт их в тень, где контролировать ситуацию будет ещё труднее.
Ответ видится в ином. Прежде всего, нужен открытый и честный диалог о рисках и границах допустимого в разработке ИИ на уровне специалистов, регуляторов, общества в целом. Необходимы тщательная экспертиза потенциальных угроз, выработка этических стандартов, продуманное правовое регулирование, позволяющее развивать технологии и при этом обеспечивать безопасность.
Огромное значение имеет технологическая и цифровая грамотность. Людям нужно уметь критически оценивать информацию, распознавать дипфейки и манипуляции, понимать возможности и ограничения ИИ-систем. Это задача для системы образования, СМИ, государственных и общественных организаций.
Необходимы инвестиции в разработку методов выявления вредоносного использования нейросетей и противодействия ему. Системы кибербезопасности должны адаптироваться к новым вызовам. Нужны надёжные методы аутентификации и маркировки контента, созданного ИИ.
Важно выстраивать международное сотрудничество для выработки общих подходов к этичному и безопасному развитию технологий ИИ. Ведь киберугрозы и информационные атаки не имеют границ.
При этом было бы неправильно демонизировать сами языковые модели и ИИ в целом. Они открывают колоссальные возможности, которые можно и нужно использовать во благо. Тот же ChatGPT уже помогает в образовании, науке, медицине, творчестве, бизнесе, массе других сфер. ИИ способен взять на себя множество рутинных задач, усилить человеческий интеллект, стать надёжным помощником. Нейросети создают произведения искусства, ищут новые лекарства, оптимизируют производство и логистику, помогают принимать решения.
Переломным моментом должно стать осознание огромной ответственности, которая ложится на всех, кто так или иначе причастен к развитию ИИ. Разработчики, учёные, бизнес, государство, общество — все мы должны действовать максимально взвешенно, ставить во главу угла этику, безопасность, интересы человека. Нам нужно не отказываться от прогресса, а направлять его в конструктивное русло.
Рекомендации по защите
Чтобы минимизировать риски, связанные с использованием ИИ киберпреступниками, как отдельным пользователям, так и организациям следует принимать комплексные меры кибербезопасности:
- Использовать современные антивирусные решения и системы защиты конечных устройств, способные детектировать угрозы на основе ИИ. Важно своевременно обновлять их базы и следить за появлением новых механизмов обнаружения.
- Уделять особое внимание безопасности учётных данных и API-ключей от сервисов ИИ. Использовать сложные пароли, двухфакторную аутентификацию, не передавать ключи третьим лицам. Следить за утечками и при необходимости оперативно менять скомпрометированные данные.
- Проводить регулярное обучение сотрудников основам кибербезопасности, в том числе рассказывать об угрозах связанных с социальной инженерией и вредоносным использованием ИИ. Учить критически относиться к подозрительным письмам, файлам и ссылкам.
- Организациям важно внедрять решения для мониторинга утечек данных и аномального поведения пользователей, чтобы оперативно выявлять компрометацию учётных записей и ключей доступа.
- При разработке собственных ИИ-инструментов и моделей закладывать механизмы защиты от вредоносного использования. Тщательно контролировать их распространение и по возможности ограничивать доступ посторонних лиц.
- Следить за тенденциями использования ИИ в киберпреступном мире, обмениваться информацией с другими организациями и специалистами по ИБ. Быть в курсе появления новых угроз и инструментов.
- На уровне регуляторов и отрасли в целом работать над стандартами безопасного и ответственного развития систем ИИ. Совершенствовать законодательство для эффективного противодействия вредоносному использованию этих технологий.
Выводы
Подводя итог, можно сказать, что появление ChatGPT и его «злых» аналогов — это своего рода момент истины, тест на зрелость для человечества. Мы стоим на пороге новой эпохи, когда машины обретают всё более мощный и самостоятельный интеллект. То, как мы сможем выстроить отношения с ними, согласовать этические и правовые нормы, обеспечить контроль и безопасность, во многом определит наше будущее. Это непростой вызов, но и уникальный шанс для цивилизационного рывка. Впереди большая работа, требующая мудрости, ответственности и смелости. Но игра стоит свеч. Ведь на кону — не только судьба конкретной технологии, но и облик мира, в котором будут жить наши дети.