Хакер нашел ошибку, позволяющую удалять любую фотографию из Facebook

Хакер нашел ошибку, позволяющую удалять любую фотографию из Facebook

Специалист по информационной безопасности Арул Кумар обнаружил уязвимость, которая позволяет хакерам удалять любую фотографию из Facebook, и получил за это 12,5 тысяч долларов от администрации соцсети, пишет TechCrunch.

Как сообщал Digit.ru, обычно хакеры получают от Facebook как минимум 500 долларов за выявление критических уязвимостей в соцсети, и вознаграждение возрастает в зависимости от важности найденной ошибки. Средняя сумма выплат составляет около 1,5 тысячи долларов. Аналогичные программы по вознаграждению сторонних экспертов за поиск уязвимостей есть у Google, «Яндекс» и других крупных компаний, пишет digit.ru.

Индийский хакер Арул Кумар описал ошибку в своем блоге, где указал, что уязвимость позволяет любому человеку удалить абсолютно любую фотографию с Facebook, включая снимки на чужих аккаунтах и публичных страницах. Опасность уязвимости, отмечает TechCrunch, заключалась также в простоте ее воспроизведения и возможности удалять много изображений одновременно.

Уязвимость кроется в разделе Facebook, который позволяет отследить статус жалоб к администрации (к примеру, на профили спамеров или порнографические фотографии). Если пользователь жаловался на фотографию, но Facebook решала не удалять снимок, он получал ссылку, с помощью которой мог напрямую попросить другого пользователя (не обязательно владельца) убрать фото с сайта. Изменение нескольких цифр в URL-адресе ссылки позволяло удалить любой снимок, говорит хакер.

Арул Кумар продемонстрировал выявленную ошибку на примере аккаунта главы Facebook Марка Цукерберга. Однако, как сообщал Digit.ru, похожие действия помешали другому хакеру получить вознаграждение за уязвимость, позволяющую публиковать записи на стенах других пользователей. В то же время, в этом случае эксперт не взламывал аккаунт Цукерберга, а лишь показал весь процесс на видео, не нажимая последней кнопки для удаления фото. По правилам Facebook, для проверки уязвимости нужно использовать тестовые аккаунты, а не реальные страницы других пользователей без их разрешения.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Автор роликов на YouTube борется с ИИ-плагиатом, подсовывая ботам мусор

На YouTube плодятся видеоматериалы, созданные на основе краденого контента с помощью ИИ. Автоматизированный плагиат позволяет мошенникам быстро получать доход с минимальными усилиями, а жертвы сплотились и пытаются дать отпор.

Автор видеоконтента F4mi борется с ИИ-ботами, ворующими расшифровки, вставляя в них большое количество скрытых мусорных данных, Подобное дополнение не мешает пользователям читать тексты, но способно обесценить творение умного помощника, обрабатывающего добычу скрейперов.

Разработанный F4mi метод полагается на использование формата ASS, созданного десятки лет назад для субтитров. Мусор вносится в расшифровки в пропорции 2:1, при этом используются фрагменты из открытых источников либо сгенерированные ИИ выдумки.

Возможности ASS позволяют задать нулевые значения размера и прозрачности вставок, то есть сделать их невидимыми. В результате обработки таких файлов ИИ-пособник мошенников выдает тексты, непригодные для использования.

Автор идеи признает, что более мощные инструменты вроде ChatGPT o1 смогут отфильтровать мусор и правильно воспроизвести оригинал. В этом случае придется еще помудрить над ASS-файлами, чтобы затруднить задачу и таким помощникам.

Поддержки ASS на YouTube не предусмотрено, там отдают предпочтение YTT, но можно использовать конвертер. В мобильной версии YouTube содержимое таких файлов будет отображаться некорректно — в виде черного окна поверх видео.

Изобретательному автору удалось обойти и это препятствие. Был написан Python-скрипт, который прячет мусорные вставки как черный текст на черном фоне. Единственная проблема, которая пока не решена, — это креш, возникающий на слишком тяжелых файлах.

К сожалению, придуманный F4mi трюк не помеха для таких инструментов, как Whisper разработки OpenAI, который сам делает расшифровку аудиозаписей, притом, по отзывам, вполне сносно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru