Доказана возможность атаки side-channel на криптоалгоритм эпохи кванта

Доказана возможность атаки side-channel на криптоалгоритм эпохи кванта

Доказана возможность атаки side-channel на криптоалгоритм эпохи кванта

Университетские исследователи проверили устойчивость криптосистемы CRYSTALS-Kyber к атакам по стороннему каналу (side-channel) и обнаружили, что использование машинного обучения позволяет получить закрытый ключ. Результаты, по мнению экспертов, говорят лишь об уязвимости реализации, а не слабости самого алгоритма.

В прошлом году американский Институт стандартов и технологий (NIST) выбрал CRYSTALS-Kyber в качестве кандидата на стандарт шифрования, устойчивого к взлому с помощью квантового компьютера. Данная система с открытым ключом также включена в список криптоалгоритмов, которые АНБ США рекомендует использовать для защиты национальных систем, поэтому в Королевском технологическом институте (Kungliga Tekniska högskolan, KTH) Стокгольма решили оценить ее криптостойкость с помощью концептуальной атаки side-channel.

Для реализации алгоритма исследователи использовали (PDF) процессор ARM Cortex-M4, а для эксплойта — нейросеть, натренированную по методу рекурсивного обучения (recursive learning), специально разработанному в KTH.

Источником информации, позволяющей получить нужные подсказки, являлись слабые флуктуации электропотребления. Команде экспериментаторов удалось усилить слив битов из таких сообщений и ускорить таким образом восстановление содержимого с вероятностью выше 99%.

Созданная методика на основе машинного обучения, по словам авторов исследования, позволяет обойти обычные меры защиты от side-channel — использование масок, перестановки, случайных задержек, кода с постоянным весом, полиморфизма, рандомизации тактовой частоты. Представленный в отчете подход пригоден также для испытания других криптосистем с открытым ключом, использующих теорию решеток.

В комментарии для журналистов представитель NIST подчеркнул, что проведенное в KTH исследование выявило уязвимость реализации CRYSTALS-Kyber, с которой там работали. Сам алгоритм взлому не подвержен, и у экспертов к нему претензий нет.

В России тоже осознают, что прогресс в сфере квантовых вычислений создал новые вызовы, повысив требования к криптозащите данных. Над созданием новых методов трудятся, в числе прочих, в НИЯУ МИФИ; там уже разработали PoC криптопротокола, взломать который не сможет даже квантовый компьютер.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер разработал комплексную модель угроз для ИИ

Эксперты Сбера разработали модель угроз для искусственного интеллекта (включая генеративный ИИ), охватывающую все этапы жизненного цикла таких систем — от подготовки данных до интеграции в приложения.

Документ опубликован на портале киберграмотности Сбера «Кибрарий». Он не привязан к конкретной отрасли и предназначен для оценки потенциальных уязвимостей, адаптации защитных механизмов и минимизации рисков.

В исследовании описаны 70 угроз, связанных с применением как предиктивных, так и генеративных моделей ИИ. Особое внимание уделено рискам, возникающим при использовании генеративных систем, чье распространение стремительно растёт. Для каждой угрозы определены затрагиваемые свойства информации — конфиденциальность, целостность и доступность, а также объекты воздействия, будь то обучающие датасеты или модели с открытым исходным кодом. Модель включает схему взаимодействия таких объектов и их детальное описание.

«Сбер активно применяет технологии искусственного интеллекта в бизнес-процессах и глубоко понимает возникающие угрозы. В ответ на эти вызовы мы создали первую в России модель киберугроз, охватывающую весь спектр рисков, связанных с разработкой и использованием ИИ. Этот документ позволит организациям любой сферы — от финансов до госструктур и промышленности — системно оценивать уязвимости, настраивать защитные меры и снижать возможные потери», — отметил вице-президент Сбера по кибербезопасности Сергей Лебедь.

Ключевые риски при использовании ИИ — это принятие ошибочных решений и утечки данных, использованных при обучении моделей. Кроме того, ИИ активно используют киберпреступные группировки в своих целях.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru