Многие страны сегодня признают важность регулирования искусственного интеллекта (ИИ). Рассмотрим уже существующие правовые акты (Указ Президента Российской Федерации от 15.02.2024 № 124), а также векторы применения нейросетей в области информационной безопасности.
- Введение
- Законодательные инициативы в области ИИ в мире
- Регулирование ИИ в РФ
- Информационная безопасность и искусственный интеллект: векторы применения
- Выводы
Введение
В настоящее время в обществе широко обсуждается тема необходимости регулирования искусственного интеллекта. Некоторые страны уже приняли меры в этом направлении и опубликовали первые законодательные инициативы. Разберёмся в сути этих инициатив и попытаемся предсказать, как будет развиваться искусственный интеллект в области информационной безопасности.
Законодательные инициативы в области ИИ в мире
В декабре 2023 года в Евросоюзе был принят первый закон, посвящённый искусственному интеллекту. Главные декларируемые цели инициативы — обеспечение безопасности систем ИИ и уважение к фундаментальным правам и ценностям в регионе. Предлагается риск-ориентированный подход к классификации систем ИИ. Он позволяет контролировать принятие решений, основанных на результатах работы искусственного интеллекта, в различных сферах экономики. Однако наказания только в виде штрафов за нарушения градации систем ИИ по степени риска недостаточны. Если говорить о крупных корпорациях, то такие штрафы могут и не стимулировать их к целенаправленному снижению риска при использовании систем ИИ. Также вызывают вопросы обратная связь в отношении разработки и соблюдения методических рекомендаций для всесторонней проверки систем ИИ и методы взаимодействия с регуляторами. Возможно, каждое государство — член Евросоюза будет разрабатывать свои правила в отдельности, однако отсутствие широкой базы методологических документов на данный момент не позволяет говорить о безопасном применении систем ИИ.
Подход США в законодательной сфере, касающийся безопасности ИИ, включает в себя глубокий контроль над всеми решениями в этой области со стороны правительства и государственных центров. Такое вмешательство позволяет внедрять различные «закладки» в практически любое решение, базирующееся на технологиях ИИ. Вектор международного сотрудничества, заданный правовыми актами, позволяет распространить такие «закладки» через государственные ресурсы исследований в области ИИ в т. ч. и на международные решения и исследования.
Китай ввёл ряд временных мер для управления генеративными системами искусственного интеллекта. Первое направление законодательных инициатив связано с ответственностью разработчиков за содержимое, генерируемое системами ИИ. Китай требует, чтобы разработчики несли ответственность за любые негативные последствия или противоправное использование систем ИИ. Это позволяет Китаю отрицать свою причастность к наличию «закладок» в системах ИИ, разработанных для международного использования. Они делают акцент на том, что ответственность лежит на разработчиках, а не на правительстве. Второе направление связано с требованиями соответствия систем ИИ социалистическим ценностям. Эти требования относятся только к правительству Китая и подчеркивают интерес государственных органов к обеспечению существенного контроля над любыми технологиями, которые могут быть использованы против правительства или нарушить социалистические принципы. В целом эти временные меры показывают, что Китай стремится к контролю и ответственности при использовании генеративных систем искусственного интеллекта, чтобы предотвратить негативные последствия и использование систем ИИ против правительства.
Регулирование ИИ в РФ
Указом Президента Российской Федерации от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» утверждена Национальная стратегия развития искусственного интеллекта на период до 2030 года. Стратегия является основным программным документом, направленным на развитие и внедрение отечественных решений, обеспечивающих внедрение инноваций во все сферы экономической деятельности и повседневной жизни граждан.
Совсем недавно указом Президента Российской Федерации от 15 февраля 2024 г. № 124 были внесены изменения как в указ 2019 года, так и в саму «Стратегию». В частности, теперь федеральные органы исполнительной власти должны руководствоваться положениями «Стратегии» при разработке и реализации отраслевых документов стратегического планирования Российской Федерации. Появились также новый термин — «доверенные технологии искусственного интеллекта» — и важный пункт в перечне основных задач развития ИИ в Российской Федерации: обязательное внедрение доверенных технологий искусственного интеллекта в тех областях его использования, в которых может быть нанесён ущерб безопасности Российской Федерации.
В 2019 году с целью повышения эффективности работы по стандартизации в области ИИ на национальном и международном уровнях создан Технический комитет по стандартизации № 164 «Искусственный интеллект». Он работает в тесном сотрудничестве с Техническим комитетом № 362 «Защита информации». Также стоит отметить, что Россия и Индия приступили к разработке проекта «Белой книги» оценки технологий искусственного интеллекта на соответствие требованиям к ним. С февраля 2024 года секретариат Технического комитета № 164 организует проведение заседаний постоянно действующего научного семинара по вопросам международного регулирования искусственного интеллекта; заседания будут проходить раз в месяц. Таким образом, видно, что вопросам регулирования ИИ в Российской Федерации уделяется существенное внимание.
Информационная безопасность и искусственный интеллект: векторы применения
Искусственный интеллект имеет несомненный потенциал в области информационной безопасности. Применительно к России можно выделить здесь три основных направления.
Первым направлением является создание надёжных средств защиты информации (СЗИ) с использованием технологий ИИ. За последние годы технологии искусственного интеллекта всё чаще проникают в инструменты администраторов информационной безопасности, и поэтому создание доверенных СЗИ становится наиболее очевидным вектором развития. Особое внимание необходимо уделить внедрению технологий искусственного интеллекта в средства защиты информации.
Вторым вектором развития является интеграция искусственного интеллекта в инструменты разработки безопасного программного обеспечения. Особое значение имеет создание интеллектуальных инструментов для анализа исходного кода на предмет уязвимостей, «закладок» и проблем взаимодействия СЗИ. Без таких решений создание интеллектуальных систем в области информационной безопасности становится невозможным.
Третьим направлением является подготовка квалифицированных специалистов. Внедрение искусственного интеллекта в образовательные процессы, подготовка администраторов и разработчиков средств защиты информации с применением искусственного интеллекта играют значимую роль в создании доверенных ИБ-решений. Учитывая ожидаемый рост спроса на специалистов в области искусственного интеллекта, необходимо разработать меры по подготовке не менее 7–10 тыс. человек ежегодно.
Развитие искусственного интеллекта в информационной безопасности к 2030 году позволит сформировать полнофункциональные экосистемы. Каждое СЗИ будет содержать элементы искусственного интеллекта, имеющие комплексное представление о функционировании смежных компонентов. Это потребует серьёзной стандартизации применительно к разработке решений в области информационной безопасности с использованием ИИ. Наблюдаемое движение экспертного сообщества в этом направлении говорит о создании доверенной среды применения искусственного интеллекта в ИБ.
Необходимо также учитывать развитие других технологий, таких как создание цифровых двойников. Эта технология позволит иметь полную цифровую копию информационной системы, где различные решения на основе ИИ позволят проводить эксперименты для оценки воздействия на систему в настоящем времени. Это можно рассматривать как использование «песочницы на максималках».
Развитие и внедрение искусственного интеллекта в информационную безопасность требуют инновационного подхода и внимания ко многообразию возможностей современных технологий. Такое развитие позволит создать надёжные, эффективные и интеллектуальные СЗИ.
Выводы
Без существенной международной законодательной инициативы в сфере ИИ могут произойти катастрофические для всего человечества в целом события.
Предположим, что государства и международные сообщества не сумеют найти унифицированного подхода к международному регулированию в сфере ИИ. К чему это может привести в пессимистическом сценарии развития технологий? Как бесконтрольное развитие и применение технологий ИИ в современной повседневной жизни человечества отразится на судьбе нашей цивилизации? Рассмотрим предсказание Рэймонда Курцвейла о наступлении технологической сингулярности в 2045 году. Технологическую сингулярность следует понимать как момент, когда технологическое развитие станет неконтролируемым, что приведёт к радикальным изменениям характера человеческой цивилизации.
В настоящее время мы уже видим активное внедрение технологий ИИ в подавляющее большинство аспектов жизни общества: политику, экономику, этику, науку, культуру и т. д. В каждом из этих аспектов ИИ уже меняет жизнь человека. В рамках политики используются целевые инструменты убеждения избирателей, а в Канаде уже в 2017 году использовали ИИ для формирования рекомендаций по реформе избирательной системы. Экономическое влияние ИИ можно оценить как положительно (повышение эффективности в различных секторах экономики), так и отрицательно (в ближайшее время появится «технологическая безработица», что приведёт к ещё большему разделу доходов и богатств в обществе). Аналогичные изменения происходят и в социальной сфере: происходит усиление социального неравенства по принципу доступности технологий и их вовлечённости в жизнь и работу. В науке, культуре и этике видны такие же тенденции.
К чему это может привести? Согласно модели Курцвейла, в недалёком будущем (2040–2050 годы) вся планета Земля превратится в один гигантский компьютер.
Отметим один из тезисов, показывающих, почему технологическая сингулярность не страшна: современные технологии создаются для общества под контролем людей и являются управляемыми. Однако стоит задать себе вопрос: а так ли мы уверены в правдивости этого тезиса?
Поэтому единственным верным путём предотвращения негативного сценария ИИ-сингулярности может стать только разработка комплекса широких регуляторных мер, в том числе в области этических стандартов. В то же время стоит учитывать важный аспект современных исследований: развитие технологий ИИ происходит со всё большей скоростью, а значит, регулирование этого развития должно идти ещё быстрее, опережающими темпами. В противном случае человечество не будет застраховано от появления искусственного интеллекта, способного принимать решения, которые могут причинить вред людям или окружающей среде.