Исследователи выявили уязвимость в алгоритме хеширования NeuralHash, который Apple использует, помимо прочего, для проверки схожести фото и видео пользователя с известными материалами, на которых запечатлена эксплуатация несовершеннолетних. Таким образом, система сканирования Apple CSAM получила новую порцию критики.
На этой неделе один из пользователей GitHub опубликовал на площадке реконструированную Python-версию NeuralHash. По словам специалиста, ему удалось провести обратный инжиниринг протокола из прошлых версий iOS.
В посте также содержалась инструкция, позволяющая извлечь NeuralHash из текущих сборок macOS или iOS. Стоит отметить, что NeuralHash не используется конкретно для CSAM, однако всё равно даёт представление об уязвимостях системы в целом.
«Предварительные тесты показали, что алгоритм допускает сжатие и изменение размеров изображения, но при этом запрещает переворачивать его или обрезать», — написал выложивший алгоритм эксперт на страницах Reddit.
«Надеюсь, это поможет нам лучше понять алгоритм NeuralHash и вычислить его потенциальные слабости до того, как он появится в iOS».
Вскоре после этого пользователь Кори Корнелиус отметил интересную особенность алгоритма: два изображения могут генерировать абсолютно одинаковый хеш. Apple же утверждает, что дополнительные защитные функции системы CSAM будут пресекать эксплуатацию этой бреши.
Напомним, что с момента анонсирования функции сканирования фотографий и видеозаписей Apple пытается убедить всех, что она абсолютно безопасна для добропорядочных граждан. Например, на днях корпорация ответила на обвинения во встраивании бэкдора.