Эксперты проверили надёжность криптографической защиты системы ДЭГ

Эксперты проверили надёжность криптографической защиты системы ДЭГ

Эксперты проверили надёжность криптографической защиты системы ДЭГ

В рамках подготовки к единому дню голосования 2023 года компания «Криптонит», входящая в «ИКС Холдинг», провела исследование трёх криптографических механизмов, используемых в федеральной системе дистанционного электронного голосования (ДЭГ).

Первый механизм, рассмотренный в исследовании, предназначен для сокрытия промежуточных результатов и ускорения подсчета голосов.

Он использует шифрование с открытым ключом, гомоморфное относительно операции сложения. Так можно суммировать голоса избирателей с максимальной конфиденциальностью — в зашифрованном виде. А высокую эффективность системы обеспечит более быстрая в сравнении с операцией сложения дешифровка.

Второй механизм основан на протоколе доказательства с нулевым разглашением Чаума-Педерсена и применяется для подтверждения правильности расшифровки суммы голосов. Здесь задача — доказать правильность дешифровки без раскрытия ключа.

Третий механизм основан на дизъюнктивной версии протокола доказательства с нулевым разглашением Чаума-Педерсена и применяется в ДЭГ для доказательства правильности содержимого каждого избирательного бюллетеня.

Он контролирует, чтобы система не принимала бюллетени, с которыми избиратель провел несанкционированные манипуляции, например отметил несколько кандидатов, когда допускается выбор только одного. Проблема заключается в том, что бюллетень зашифровывается на устройстве избирателя, и система не может просто проверить его содержимое. Протокол доказательства с нулевым разглашением позволяет убедиться в корректности зашифрованного бюллетеня, сохраняя при этом конфиденциальность голосования.

Главный архитектор ДЭГ компании «Ростелеком» Юрий Сатиров отметил:

«Криптографические механизмы, лежащие в основе российской системы ДЭГ, активно разрабатываются мировым научным сообществом, однако их применение в системах государственного уровня требует дополнительных исследований в области безопасности. Поэтому мы привлекли отечественных экспертов в области криптографии из компании 'Криптонит' для более детального изучения вопросов криптографической защиты нашей системы».

В результате работы была создана формальная модель атакующего, которая помогла подготовить математическое обоснование стойкости применяемых криптографических механизмов в системе ДЭГ.

Регулирование ИИ в России смягчили после критики бизнеса

Законопроект о регулировании искусственного интеллекта, подготовленный Минцифры, заметно скорректировали с учётом замечаний бизнеса. Требования к национальным и суверенным моделям стали более сбалансированными, изменились нормы по маркировке ИИ-контента, а часть спорных положений убрали из текста документа.

Обновлённый текст законопроекта оказался в распоряжении «Российской газеты». Как отметили источники издания, близкие к работе над документом, разработчики постарались максимально учесть замечания, высказанные бизнесом.

Ряд положений прежней версии документа участники рынка называли фактически невыполнимыми. Кроме того, по оценке более чем 150 экспертов, соблюдение ключевых требований могло привести к удорожанию ИИ-проектов до 40%.

«Видим в законопроекте потенциал стать полезным инструментом для развития и применения ИИ. Регулирующие органы открыты к диалогу с отраслью — это позволяет дорабатывать проект документа, выстраивая долгосрочные правила с учётом баланса интересов заинтересованных сторон. Рассчитываем, что при дальнейшей работе этот баланс будет сохранён», — прокомментировали результаты корректировки в пресс-службе Яндекса.

Прежде всего изменились требования к национальным и суверенным моделям ИИ. В первоначальной версии законопроекта речь шла о полной локализации. В обновлённой редакции достаточно, чтобы разработчик был российским юридическим лицом и самостоятельно определял и изменял существенные характеристики модели.

«Критерии для отечественных ИИ-моделей не должны становиться дополнительными ограничениями для разработчиков, особенно с учётом высокой международной конкуренции и наличия открытых моделей на рынке. Именно на это было направлено большинство замечаний бизнеса, которые учли в ходе работы над законопроектом», — прокомментировали корректировку в Ассоциации больших данных.

Для использования ИИ-модели в госструктурах больше не требуется её включение в реестр доверенных моделей. Это требование также вызывало опасения у участников рынка: они считали, что реестр может стать «бутылочным горлышком» и затормозить внедрение ИИ. Теперь сфера применения доверенных моделей ограничена только объектами критической информационной инфраструктуры.

Требование уведомлять пользователей об использовании ИИ-сервисов сохранили только для госструктур. На коммерческий сектор оно больше не распространяется.

Из текста также убрали норму, которая обязывала сервисы с аудиторией более 500 тыс. человек хранить информацию о пользователях в течение трёх лет. Кроме того, сняты ограничения на трансграничную передачу данных ИИ. Ранее многие участники рынка расценивали это требование как фактический запрет на использование зарубежных ИИ-моделей.

Сняты и ограничения на использование открытых данных для обучения нейросетей. В прежних редакциях соответствующие формулировки были недостаточно чёткими.

Наконец, изменились требования к маркировке контента. Она должна быть машиночитаемой, но делать её различимой для людей не обязательно.

«Международная практика двигается к созданию стандартов машиночитаемой маркировки такого контента, но до определения универсальных правил ещё достаточно далеко. Поэтому случаи установления машиночитаемой маркировки ИИ-контента будут дополнительно определены правительством», — отметил один из источников издания.

RSS: Новости на портале Anti-Malware.ru