Эксперты уговорили DeepSeek создать кейлоггер и шифровальщика

Эксперты уговорили DeepSeek создать кейлоггер и шифровальщика

Эксперты уговорили DeepSeek создать кейлоггер и шифровальщика

Исследователи из Tenable убедились в том, что защиту DeepSeek R1 от злоупотреблений можно обойти и заставить ИИ-помощника сгенерировать, а потом улучшить вредоносный код,— нужно лишь найти нужные слова и следить за его «ходом мысли».

Для обхода ограничений DeepSeek экспериментаторы использовали джейлбрейк, перефразируя запросы, которые чат-бот отказывался выполнять. Улучшить результаты помогла способность ИИ-модели имитировать человеческое мышление — строить рассуждения на основе цепочек логических выводов (Chain-of-Thought).

Испытания проводились по двум сценариям. Вначале DeepSeek обманом заставили создать кейлоггер; выстроив план выполнения задачи, собеседник в итоге выдал код на C++ для отслеживания нажатия клавиш с записью в локальный файл.

Образец работал некорректно из-за допущенных ошибок, которые ИИ-ассистент сам не смог исправить. Поскольку он поэтапно отчитывался о ходе выполнения задачи, эксперты сумели внести корректуру, а заодно попросили написать дополнительные коды для инъекции DLL и шифрования лог-файла.

Таким же образом с помощью DeepSeek были созданы несколько семплов шифровальщика, однако они не компилировались, и правки пришлось вносить вручную. После ряда усовершенствований под руководством экспертов ИИ выдал рабочий код, умеющий перечислять файлы, шифровать данные, закрепляться в системе и выводить диалоговое окно с сообщением для жертвы.

По результатам испытаний был сделан ожидаемый вывод: умножение числа ИИ-сервисов снизило планку для неумелых вирусописателей. Вредоносные коды, которые можно создать с помощью DeepSeek, несовершенны и примитивны, но их можно доработать, используя его коллекцию техник и поисковых ключей.

Злоумышленники все чаще применяют ИИ для создания зловредов и планирования атак. Они также создают свои ИИ-модели, лишенные всяких ограничений.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI призывает разрешить игнорировать авторское право при обучении ИИ

Компания OpenAI официально обратилась к правительству США с просьбой разрешить использование контента, защищенного авторским правом, для обучения искусственного интеллекта (ИИ) при условии соблюдения принципа «добросовестного использования» (fair use).

По мнению представителей компании, ограничения на доступ к таким данным угрожают национальной безопасности и конкурентоспособности США на международной арене.

Издание Ars Technica отмечает, что OpenAI и другие разработчики искусственного интеллекта уже вовлечены в десятки судебных разбирательств с правообладателями.

В большинстве случаев суды встают на сторону владельцев авторских прав, отказываясь признавать правомерной трансформацию их контента при обучении нейросетей. Кроме того, как сообщал журнал Wired, некоторые иски были поданы из-за опасений, что развитие ИИ может полностью вытеснить людей из ряда профессий.

OpenAI подчеркнула, что китайские разработчики имеют практически неограниченный доступ к информации и могут свободно использовать защищённый контент, что даёт им значительное преимущество в скорости и качестве разработки искусственного интеллекта.

Компания уверена, что США рискуют проиграть технологическую гонку, если американские компании не получат аналогичный доступ к широкому спектру данных для обучения нейросетей.

Ситуация усложняется также активностью американских законодателей, которые за последнее время предложили уже 822 нормативных акта, направленных на регулирование сферы ИИ.

Многие из предложенных законов похожи на действующие в Евросоюзе нормы, которые, по мнению OpenAI, значительно усложняют технологическое развитие и могут негативно повлиять на конкурентоспособность США.

Компания также выступила против присоединения Соединённых Штатов к международным соглашениям, которые, по её мнению, могут замедлить развитие технологий и усилить преимущества китайских конкурентов, чьи разработки уже активно внедряются на американском рынке.

Федеральные власти США пока никак не прокомментировали предложение OpenAI. План национального развития искусственного интеллекта должен быть представлен в июле 2025 года.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru