В Израиле придумали маску, защищающую от технологий распознавания лиц

В Израиле придумали маску, защищающую от технологий распознавания лиц

В Израиле придумали маску, защищающую от технологий распознавания лиц

На ткань или бумагу наносят определенный рисунок. Паттерн не даёт технологиям распознать человека в маске. Шаблон справляется с видеосистемами по всему миру, но исследователи говорят, что камеры можно “натаскать”.

Пандемия COVID-19 сделала ношение масок привычной практикой, что сначала сильно тормозило работу систем распознавания лиц по всему миру. Со временем технологии адаптировались — теперь обычная медицинская или любая дизайнерская маска не мешает установить личность.

Ученые из Бен-Гуриона и Тель-Авива решили проверить гипотезу: можно ли создать такую маску, которая не поддается системам распознавания лиц. 

Исследователи экспериментировали с разными рисунками и градиентами. В итоге они получили шаблон, который ставит в тупик любую FRT (Facial recognition technology). Маска по очертаниям напоминает строение черепа — на ткани прослеживается рот, нос, скулы и даже часть глаз. Всё это окрашено в сложный градиент “радужных” цветов. 

“Мы проверили эффективность нашей маски в полевых условиях, — говорят исследователи. — Система смогла идентифицировать только 3% участников. Пол не имеет значения”.

Человека в обычной маске камера узнает в 80% случаев. Ученые говорят, что придуманный шаблон не является единственно возможным. При желании можно разработать модель под каждую технологию, на которой сегодня работают мировые системы распознавания лиц.

Исследователи считают, что и с этой угрозой можно справиться. Например, настроить так системы, чтобы они расценивали любую надетую на лицо маску как простую медицинскую. Это поможет технике не “растеряться”. 

Еще один “рабочий” вариант — научить камеры восстанавливать нижнюю часть лица, ориентируясь только на верхнюю. 

“Существует популярное направление — генеративно-состязательная сеть (GAN), — рассказывает аспирант Алон Золфи, руководивший исследованием “враждебных” масок. — Оно использует известные “входные данные” и дорабатывает портрет. Правда, это “тяжелый” подход: он требует совершенно другой архитектуры технических решений и обучения. Большую роль в этом процессе играет и человек, который стоит за камерой”.

В отчёте (PDF) специалисты поделились ссылкой на видео, демонстрирующее эффективность их разработки. Мы приводим ролик ниже:

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Эксперты уговорили DeepSeek создать кейлоггер и шифровальщика

Исследователи из Tenable убедились в том, что защиту DeepSeek R1 от злоупотреблений можно обойти и заставить ИИ-помощника сгенерировать, а потом улучшить вредоносный код,— нужно лишь найти нужные слова и следить за его «ходом мысли».

Для обхода ограничений DeepSeek экспериментаторы использовали джейлбрейк, перефразируя запросы, которые чат-бот отказывался выполнять. Улучшить результаты помогла способность ИИ-модели имитировать человеческое мышление — строить рассуждения на основе цепочек логических выводов (Chain-of-Thought).

Испытания проводились по двум сценариям. Вначале DeepSeek обманом заставили создать кейлоггер; выстроив план выполнения задачи, собеседник в итоге выдал код на C++ для отслеживания нажатия клавиш с записью в локальный файл.

Образец работал некорректно из-за допущенных ошибок, которые ИИ-ассистент сам не смог исправить. Поскольку он поэтапно отчитывался о ходе выполнения задачи, эксперты сумели внести корректуру, а заодно попросили написать дополнительные коды для инъекции DLL и шифрования лог-файла.

Таким же образом с помощью DeepSeek были созданы несколько семплов шифровальщика, однако они не компилировались, и правки пришлось вносить вручную. После ряда усовершенствований под руководством экспертов ИИ выдал рабочий код, умеющий перечислять файлы, шифровать данные, закрепляться в системе и выводить диалоговое окно с сообщением для жертвы.

По результатам испытаний был сделан ожидаемый вывод: умножение числа ИИ-сервисов снизило планку для неумелых вирусописателей. Вредоносные коды, которые можно создать с помощью DeepSeek, несовершенны и примитивны, но их можно доработать, используя его коллекцию техник и поисковых ключей.

Злоумышленники все чаще применяют ИИ для создания зловредов и планирования атак. Они также создают свои ИИ-модели, лишенные всяких ограничений.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru