
Apple всё ещё пытается убедить пользователей, что готовящаяся к запуску функция сканирования фото- и видеоматериалов не несёт никакой опасности для добропорядочных граждан. Например, на этой неделе техногигант из Купертино углубился в детали безопасности нововведения.
Как известно, функция получила имя CSAM, а её основная задача — сканировать фотографии и видеозаписи пользователей iPhone, iPad и macOS-устройств до выгрузки в iCloud. Именно так Apple планирует отслеживать обмен или распространение порнографии с несовершеннолетними лицами.
Ряд экспертов по защите информации, среди которых была компания Electronic Frontier, отметили, что CSAM существенно ограничит такую защитную меру, как сквозное шифрование. Другими словами, Apple собственноручно создала бэкдор и доступ к данным на клиентской стороне.
«Apple может сколько угодно рассказывать о мерах безопасности и конфиденциальности, однако в конечном счёте даже полностью продуманный и контролируемый бэкдор — всё ещё бэкдор», — подчеркнули в Electronic Frontier.
Судя по всему, именно из-за таких обвинений Apple опубликовала новый документ (PDF), подробнее объясняющий работу новой функции. Например, корпорация отметила, что CSAM будет работать только с детскими аккаунтами, при этом родители или опекуны должны будут дать своё согласие. Затем в мессенджеры добавится специальный классификатор, основанный на машинном обучении.
Задача последнего — сканировать отправляемые и получаемые сообщения на наличие неприемлемого контента. Если система обнаружит подобный контент, пользователь увидит специальное предупреждение.
«Это функция не раскрывает информацию Apple. Также мы не передаём никакие подробности переписки и другие сведения правоохранительным органам», — объясняют купертиновцы.
Напомним, что ранее Apple уже заявляла, что не даст властям использовать функцию сканирования фото пользователей. Также отметим, что руководство WhatsApp не поддержало нововедение техногиганта.