Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

В ходе дискуссии на Форуме ООН по управлению интернетом (IGF) «Лаборатория Касперского» представила этические принципы, которых, по ее мнению, нужно придерживаться при разработке и использовании систем машинного обучения.

Одна из ключевых тем IGF в этом году — искусственный интеллект и развивающиеся технологии, и Kaspersky, следуя взятому шесть лет назад курсу на информационную открытость, решила поделиться с коллегами своими наработками, чтобы придать импульс многостороннему диалогу с целью выработки единых практик использования таких технологий в кибербезопасности.

Машинное обучение, по словам экспертов, играет важную роль в автоматизации процесса обнаружения угроз и выявления аномалий, а также повышает точность распознавания вредоносных программ. В сочетании с человеческим опытом такие помощники позволяют также обнаруживать новые, ранее неизвестные угрозы и противодействовать им.

ИБ-компания использует ML-алгоритмы в своих решениях около 20 лет, придерживаясь следующих этических принципов (PDF):

  • прозрачность (информирование клиентов об использовании технологий машинного обучения в своих продуктах и услугах);
  • безопасность (аудит с учетом специфики, минимизация зависимости от сторонних наборов данных в процессе обучения решений, фокус на облачные технологии ML с необходимыми мерами защиты и т. п.);
  • человеческий контроль (обязательные проверки при анализе сложных угроз);
  • конфиденциальность (технические и оргмеры для защиты данных пользователей и систем);
  • приверженность целям кибербезопасности (концентрация на защитных технологиях);
  • открытость к диалогу (обмен опытом по этичному использованию ML с заинтересованными сторонами, сотрудничество с целью решения проблем и стимулирования инноваций).

«Машинное обучение может быть очень полезным для индустрии кибербезопасности, ещё больше повысить киберустойчивость общества, — комментирует Антон Иванов, директор Kaspersky по исследованиям и разработке. — Однако, как и любая технология, находящаяся на ранней стадии своего развития, она несёт определённые риски. Мы рассказываем о своих этических принципах в области работы с технологиями машинного обучения и призываем к открытому диалогу в отрасли для выработки чётких рекомендаций, как сделать разработку таких решений этичной».