Apple решила не рисковать и пока отложить запуск новой функции сканирования, которая будет проверять выгружаемые в облако фотографии и видеозаписи пользователей на наличие неприемлемого контента, связанного с эксплуатацией детей. Большую роль в решении техногиганта из Купертино сыграла позиция защитников неприкосновенности личных данных.
Новости
Пока споры на тему сканирования Apple фото- и видеоматериалов пользователей не утихают, поэтому корпорация решила прояснить один момент. В частности, техногигант признался, что с 2019 года сканировал почту iCloud Mail в поисках сексуальной эксплуатации детей, однако обходил стороной резервные копии iCloud Photos и iCloud.
На форуме, посвящённом технической поддержке пользователей продукции Apple, появилось сразу несколько тем, в которых люди жалуются на минорное обновление iOS 14.7.1. Как отметили обратившиеся на форум лица, их устройства iPhone не могут подключиться к сотовой сети.
Глава отдела Apple, отвечающего за безопасность и борьбу с мошенничеством, Эрик Фридман назвал инфраструктуру компании наилучшей площадкой для распространения материалов порнографического содержания, в которых задействованы несовершеннолетние лица. Такая характеристика объясняет рвение купертиновцев сканировать фотографии и видеозаписи пользователей.
Исследователи выявили уязвимость в алгоритме хеширования NeuralHash, который Apple использует, помимо прочего, для проверки схожести фото и видео пользователя с известными материалами, на которых запечатлена эксплуатация несовершеннолетних. Таким образом, система сканирования Apple CSAM получила новую порцию критики.