ИИ научили вычислять пароли по глазам аватарки владельца Apple Vision Pro

ИИ научили вычислять пароли по глазам аватарки владельца Apple Vision Pro

ИИ научили вычислять пароли по глазам аватарки владельца Apple Vision Pro

Университетские исследователи показали, как удаленно получать пароли и другой ввод с виртуальной клавиатуры Vision Pro. Метод GAZEploit основан на анализе движения глаз аватарки в ходе видеосвязи на гаджете Apple и использует с этой целью ИИ.

Очки смешанной реальности Vision Pro предоставляют возможность управления взглядом (айтрекинга) и при видеозвонках создают 3D-аватар, отображаемый собеседнику. Команда из Университета Флориды и Техасского технологического университета обнаружила, что этот персонаж точно воспроизводит направление глаз юзера, фиксируемое клавиатурой, и в результате может слить вводимые данные.

Атака GAZEploit проводится в два этапа. Вначале определяются расположение и размеры виртуальной клавиатуры (путем геометрических расчетов), а также сам факт ввода текста — по концентрации взгляда, снижению частоты морганий и характерному чередованию саккад (последовательное перемещение глаз по деталям объекта) и фиксаций (пауз).

Для вычисления стабильности айтрекинга был создан алгоритм, а также установлен порог, позволяющий различать саккады и фиксации. Все необходимые данные исследователи собрали с помощью 30 добровольцев, скормили их рекуррентной нейронной сети и в итоге получили точность определения набора на клавиатуре 98%.

На втором этапе GAZEploit проводится анализ. Снятая с аватарки информация сопоставляется с раскладкой виртуальной клавиатуры, и по результатам делаются выводы.

 

По словам исследователей, им удалось добиться точности определения «нажатых» клавиш 85,9% (precision, доля правильно классифицированных объектов среди всех объектов, которые к этому классу отнес классификатор, в том числе неверно) и полноты 96,8% (отношение верно классифицированных объектов класса к общему числу элементов этого класса, с учетом ложноотрицательных срабатываний).

Таким же образом можно перехватить не только пароль, но и ПИН-код, сообщение, адрес имейл. «Угадайка» в лабораторных условиях (до пяти попыток) показала следующие результаты:

 

О найденной уязвимости минувшей весной было доложено разработчику гаджета, и в конце июля Apple выпустила патч для CVE-2024-40865 в составе сборки VisionOS 1.3.

Предыдущее обновление этой ОС (июньское 1.2) содержало заплатку для другой дыры, объявившейся в Vision Pro, — CVE-2024-27812. Недочет позволял обойти защиту виртуального пространства пользователя и вбросить в него анимированные и озвученные «страшилки» — змей, пауков, летучих мышей.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Новый генератор картинок ChatGPT ловко фальсифицирует счета общепита

В прошлом месяце ИИ-бот ChatGPT обрел новый генератор изображений с выпуском модели 4o. Первые пробы показали, что создаваемые с его помощью картинки с вставленным текстом стали более реалистичными.

Пользователи ChatGPT теперь заставляют его генерировать ресторанные счета и получают вполне убедительные дипфейки.

Фото одной из таких фальшивок было опубликовано в X.

 

 

 

Другие юзеры подхватили идею, добились схожих результатов, а в одном из случаев тот же фейковый счет был для большего правдоподобия «испачкан»:

 

Наиболее реалистичный образец получился у французского специалиста в области ИИ — из-за эффекта помятой бумаги.

 

В TechCrunch тоже опробовали новинку и получили вполне сносный вариант для гриль-бара в Сан-Франциско. Правда, в итоговой сумме вместо точки стояла запятая, к тому же у ChatGPT, видимо, плохо с арифметикой, но эти огрехи при желании можно быстро исправить, конкретизировав подсказки, или с помощью графического редактора.

 

В комментарии для онлайн-издания представитель OpenAI заявила, что все изображения, генерируемые ИИ-ботом, снабжены соответствующими метаданными. Обнаружив нарушение пользовательского соглашения, компания «принимает меры» и «учится» на таких случаях.

В ответ на вопрос, зачем вообще позволять ChatGPT соглашаться на авантюры, попахивающие злоупотреблением, собеседница подчеркнула, что их цель — предоставить юзерам «как можно больше свободы творчества». К тому же фейковые счета необязательно нужны для мошенничества, их можно использовать в целях финансового ликбеза, а также для создания оригинальных картин или продуктовой рекламы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru