Apple Intelligence: ИИ-прорыв или кошмар для конфиденциальности владельцев iPhone?

Apple Intelligence: ИИ-прорыв или кошмар для конфиденциальности владельцев iPhone?

Apple Intelligence: ИИ-прорыв или кошмар для конфиденциальности владельцев iPhone?

В бета-версиях iOS 18, iPadOS 18 и macOS Sequoia появилась система Apple Intelligence, основанная на искусственном интеллекте. Так ли она безопасна, как её пытается преподнести нам Apple? Какие риски для конфиденциальности владельцев iPhone несёт персональный ИИ-помощник?

 

 

 

 

 

 

  1. Введение
  2. Apple Intelligence: потенциал и риски
  3. Архитектура безопасности Apple Intelligence
  4. Анализ потенциальных уязвимостей Apple Intelligence
  5. Правовые и этические аспекты внедрения ИИ в экосистему Apple
  6. Можно ли доверять OpenAI?
  7. Приверженность Apple прозрачности в сфере ИИ
  8. Выводы

Введение

Искусственный интеллект (ИИ) меняет все сферы социальной жизни. На ежегодной презентации Worldwide Developers Conference 10 июня 2024 года Apple объявила о присоединении к технологической гонке: функции ИИ интегрируются в iOS, iPadOS и macOS под брендом Apple Intelligence. Но характер внедрённых генеративных возможностей (новая Siri, Genmoji, редактирование фото, видео и др.) создаёт новые угрозы конфиденциальности и размывает границы вмешательства ИИ в частную жизнь.

Apple Intelligence: потенциал и риски 

В Apple Intelligence уже внедрена модель GPT-4o и скоро добавится Google Gemini для обработки текста в облаке, генерации контента, редактирования, реферирования и ответов на запросы. Похожая на DALL-E модель создаёт Genmoji — сгенерированные пользователем эмодзи. Облачная модель от самой Apple используется в iOS-приложении «Фото» и в новой Siri.

Apple заранее обезопасила себя от утечек конфиденциальных данных пользователей и несанкционированного доступа, введя механизм Private Cloud Compute. Он гарантирует, что персональные данные используются только для обработки конкретного запроса к ИИ в облаке, не сохраняются после ответа и недоступны даже персоналу Apple.

Private Cloud Compute работает на выделенных серверах Apple Silicon со специальными аппаратными модулями безопасности. Обработка большинства задач ИИ локально (на самих устройствах) минимизирует объём отправляемых в облако данных и сокращает связанные с этим риски.

Secure Enclave — аппаратное средство защиты чипов Apple Silicon — даёт дополнительную защиту локальных моделей и пользовательской информации. Наконец, «умный» ИИ-анализ поступающего на устройства контента сам распознаёт попытки фишинга и заражения вирусами, предотвращает утечку данных.

Однако сам факт доступа моделей, которые неподконтрольны Apple, к пользовательским данным создаёт новые уязвимости и риски распространения конфиденциальных сведений вне экосистемы компании. Обучение же моделей ИИ в iCloud приведёт к централизации огромных массивов личных данных. Это делает облачную платформу Apple привлекательной мишенью для хакеров.

Архитектура безопасности Apple Intelligence

Apple делает ставку на аппаратные механизмы защиты, локальное выполнение операций, сквозное шифрование коммуникаций. Например, Private Cloud Compute создана для безопасного выполнения ресурсоёмких задач ИИ с минимизацией площади атак и вероятности утечек данных.

Однако, опять же, модели обучаются на пользовательской информации, часть таких данных передаётся в OpenAI, а локальный ИИ экосистемы Apple уязвим к действиям вредоносных программ.

Таким образом, аппаратная безопасность — не панацея, как утверждает компания. Для полного понимания ситуации потребуется затратить определённое время на сбор и обработку статистики, аудит, грамотную децентрализацию и конфиденциальные вычисления (Confidential Computing).

Анализ потенциальных уязвимостей Apple Intelligence

Даже передовая архитектура безопасности Apple Intelligence не гарантирует абсолютной защиты данных. Хакеры могут попытаться проникнуть в облачную инфраструктуру Apple, атаковать цепочки поставок сервисов ИИ или перехватить сетевой трафик. Централизация управления доступом через Apple ID и потенциальные изъяны в микросервисах создают дополнительные риски. Для их снижения компании, возможно, придётся задействовать аппаратные анклавы и квантово-устойчивую криптографию, децентрализовать систему идентификации пользователей.

Так, тревожным сигналом стала недавняя утечка закрытого кода внутренних инструментов Apple в даркнет. Не исключено, что это результат успешного взлома корпоративной сети.

Заслуживает упоминания и недавняя кибершпионская операция «Триангуляция», раскрытая экспертами «Лаборатории Касперского» при анализе подозрительного трафика с корпоративных iPhone, когда злоумышленники смогли внедрить многоступенчатый вредоносный код, обходящий аппаратные средства защиты процессоров Apple путём эксплуатации недокументированных низкоуровневых функций (регистров MMIO, шрифтовых инструкций «fnt_ADJUST» и пр.). Это дало хакерам полный контроль над заражёнными устройствами в обход штатных систем безопасности iOS, включая Secure Enclave, и позволило организовать скрытую кражу широкого спектра конфиденциальных данных пользователей.

Если даже «Лаборатория Касперского» годами не замечала активность вредоносной программы, использующей аппаратную уязвимость «fnt_ADJUST», существовавшую с 1990-х по 2023 год, что говорить о рядовых пользователях и организациях? Учитывая косвенные признаки того, что злоумышленники задействовали дорогостоящий эксплойт для сохранения заражения iPhone после перезагрузки, высока вероятность их спонсирования на государственном уровне.

Пока нет гарантированной защиты от уязвимостей «нулевого дня», о какой безопасности данных в Apple Intelligence может идти речь? Если ранее угрозе были подвержены лишь пользовательские документы, фото, история звонков и переписки в Telegram или WhatsApp, то следующая скрытая уязвимость «нулевого дня» может привести к утечке полных цифровых слепков личности, собираемых нейронными сетями Apple и передаваемых для обработки в облако компании или напрямую в OpenAI. Такая брешь в безопасности повлечёт за собой необратимые последствия для десятков миллионов владельцев iPhone.

Поэтому перед внедрением Apple Intelligence компания была обязана обеспечить многоуровневую защиту от кибератак и гарантировать, что как прошлые, так и новые аппаратные либо программные уязвимости не поставят под угрозу конфиденциальность пользовательских данных, обрабатываемых нейронными сетями. Сейчас же попытка любой ценой захватить лидерство в технологической гонке может обернуться фатальным ущербом в случае масштабной утечки «больших данных» по вине очередной бреши в безопасности экосистемы.

Правовые и этические аспекты внедрения ИИ в экосистему Apple

Актуальное законодательство о персональных данных не в полной мере учитывает специфику применения ИИ. Сегодня пока только в Европейском Союзе появляются первые зачатки регулирования ИИ. Тем временем Apple Intelligence уже сейчас создаёт детальные цифровые профили личности, ставя под угрозу приватность.

Широкое применение ИИ в продуктах Apple может привести к усилению асимметрии между компанией и пользователями, появлению рисков цифровой дискриминации через профилирование. Решение этих проблем потребует разработки новых принципов регулирования ИИ, введения практик внешнего аудита, ограничения автоматизированного принятия решений, пересмотра законодательных норм о конфиденциальности. Контроль за ИИ и поиск баланса между инновациями и правами человека становятся ключевыми темами цифровой эпохи. Беспокойство вызывают и влияние ИИ на рынок труда, риски технологической безработицы, усиления экономического неравенства и дестабилизации.

Можно ли доверять OpenAI?

Объединение модели GPT-4o с сервисами Apple также вызывает вопросы. Насколько можно доверять OpenAI в части обращения с пользовательскими данными? Предыдущие утечки и практика компании по монетизации информации заставляют сомневаться в сохранности передаваемых данных.

Такую обеспокоенность высказал, например, Илон Маск: по его мнению, есть риски ненадлежащего раскрытия персональных сведений третьей стороной. Особенно тревожит возможность случайного попадания личной информации из Apple в базу OpenAI при дообучении модели GPT-4o.

 

Рисунок 1. Пост Илона Маска в соцсети X

Пост Илона Маска в соцсети X

 

В ответ на критику Apple подчёркивает добровольный характер использования функций GPT-4o и факт обезличивания передаваемых сервису данных. Но одних заверений недостаточно: нужны чёткие и проверяемые гарантии конфиденциальности.

Также, по сообщению Associated Press от 14 июня 2024 года, OpenAI приняла в совет директоров Пола Накасоне — бывшего командующего Кибернетическим командованием США и директора Агентства национальной безопасности (АНБ). В компании считают, что Пол поможет защитить ChatGPT от «всё более изощрённо действующих злоумышленников».

 

Рисунок 2. Пол Накасоне

Пол Накасоне

 

В АНБ Накасоне занимал пост директора и руководил программами электронной слежки и кибератаками против зарубежных целей. В OpenAI он войдёт в новый комитет по безопасности, который будет консультировать совет директоров по критически важным вопросам защиты данных. Получив доступ к огромным массивам личной информации в OpenAI, Накасоне сможет (теоретически) использовать их в интересах американских спецслужб.

Иначе говоря, Apple через партнёрство с OpenAI фактически открывает разведывательным структурам США доступ к конфиденциальным данным экосистемы. В итоге, общаясь с GPT-4o, пользователи будут делиться персональными данными не только с самой компанией и OpenAI, но и с американскими спецслужбами. Поэтому голословных заверений о надёжной защите приватности недостаточно. Apple должна дать юридические гарантии неприкосновенности пользовательских данных и обеспечить независимый аудит Apple Intelligence (что кажется маловероятным событием).

Приверженность Apple прозрачности в сфере ИИ

Впрочем, Apple делает важные шаги к большей открытости. Например, компания опубликовала исходники ключевых модулей Private Cloud Compute, позволив независимым экспертам проверить заявления о надёжности шифрования, безопасности обработки и конфиденциальном исполнении задач ИИ. Такая добровольная «прозрачность» облачной инфраструктуры является большой редкостью для технологических гигантов и может стать новой нормой отрасли. Правда, и здесь не обошлось без ограничений: энтузиасты смогут изучить только опубликованную часть, но не весь код Private Cloud Compute целиком.

Выводы

Появление Apple Intelligence знаменует собой наступление новой эпохи, где риски утечек персональных данных слишком велики. Актуальные правовые и этические нормы не готовы к новым реалиям. Поэтому технологическим гигантам в ближайшем будущем понадобится доказывать свою этичность относительно использования частных данных, пока разрабатывается законодательная база. В конце концов, только нам, самим пользователям, предстоит коллективно прощупывать границы дозволенного искусственному интеллекту.

Таким образом, прозрачность и строгие стандарты конфиденциальности противопоставляются потенциальным компромиссам при интеграции сторонних моделей ИИ в экосистему Apple.

Полезные ссылки: 
AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новые статьи на Anti-Malware.ru