Интервью с Гера Дорфманом, вице-президентом Check Point Software Technologies по сетевой безопасности

Гера Дорфман: Архитектура Infinity 2.0 — ответ на риски и вызовы экспоненциально развивающихся технологий

Гера Дорфман: Архитектура Infinity 2.0 — ответ на риски и вызовы экспоненциально развивающихся технологий

Гера Дорфман

Вице-президент компании Check Point Software Technologies Ltd по продуктам сетевой безопасности.

Работает в компании Check Point около 14 лет. Начинал карьеру как разработчик программного обеспечения. Затем руководил группой по разработке первых программно-аппаратных комплексов, операционной системы ОС Gaia, отвечал за SMB-направление. Впоследствии в зону его ответственности были включены решения по предотвращению вторжения (IPS) и предотвращению угроз (Threat Prevention).

И уже в качестве директора направления он также возглавил разработку высокопроизводительных устройств модульной архитектуры и платформ масштабирования и балансировки. Сегодня в зону его ответственности входят все продукты сетевой безопасности. Это флагманские продукты компании Check Point (такие как Firewall, Application Control, URL Filtering, Data Leakage Prevention и другие), Security Appliances, OS Gaia, High End Appliances и ряд других направлений.

...

Гера Дорфман, вице-президент Check Point Software Technologies по сетевой безопасности, рассказал Anti-Malware.ru о концепции Infinity 2.0 и развитии безопасности от облаков до интернета вещей.

На пленарной сессии ITSF вы сделали очень интересный доклад о концепции Infinity 2.0, которая, как я понял, направлена на безопасность мира интернета вещей.

Г. Д.: Infinity 2.0 направлена не только на безопасность мира умных устройств. Сама презентация, кстати, представляет Infinity 2.0 как инструмент, а не как главную тему. Она была посвящена тому, как стремительно движется наш мир, куда он движется, и тому, как он меняется. На презентации мы говорили о том, насколько технологии экспоненциально продвинулись за последние годы. Я приводил пример с результатами сотрудничества врачей и программистов. Несколько ИТ-специалистов достигли поразительного результата в своих разработках — и врачи используют их работу — искусственный интеллект для нахождения опухолей. Я не знаю, прошли ли их исследования необходимую сертификацию, но точность нахождения опухолей, которой они добились, была просто феноменальной по сравнению с работой врачей-экспертов. За последние годы те вещи, возможности, которые могут сделать компьютер, алгоритмы, облачные технологии, сильно изменились. Мы, как компания, которая обеспечивает безопасность, должны идти в ногу со временем и с этими переменами — основная мысль моего доклада была именно в этом.

Infinity 2.0 — архитектура следующего поколения, которую мы сейчас активно разрабатываем. Нам нужны технологии такого уровня, чтобы достичь стремительного роста и обеспечить самую лучшую защиту от угроз (в конце концов, именно в этом состоит наша главная цель). При этом важно не сбавлять того темпа, в котором идет работа на текущий момент. Я приводил пример, что происходит сейчас в организациях, с которыми я работаю: DevOps идет очень интенсивно, они выпускают по несколько версий в день, создают новые приложения. У меня были клиенты, которые хотели одним нажатием кнопки создать полностью безопасное приложение с защитой всех данных. Такие приложения могут быть где угодно: в частном облаке, on-premise и так далее.

Также я приводил в пример технологию 5G. Она служит отличным образцом того самого экспоненциального роста. Здесь мы видим рост скорости (максимально допустимая задержка в 1 миллисекунду), количества устройств (до 1 миллиона на квадратный километр), количества пользователей (все захотят это использовать). 5G действует на основе последних стандартов телекоммуникаций, и мы должны научиться максимально эффективно их защищать. Архитектура Infinity 2.0 — инструмент для поддержки такого стремительного роста и быстрого движения.

Если пройтись по основным моментам этой концепции, то как она поможет защитить пользователей и инфраструктуру в динамичном и меняющемся мире?

Г. Д.: Во-первых, мы хотим создать архитектуру, которая будет поддерживать высокий уровень масштабирования. Я упоминал о сотнях миллионов или даже о миллиардах устройств на каждого владельца или арендатора. Во-вторых, нужно обеспечить управление всем этим крупномасштабным охватом из единого центра, контролировать облако, классические сети — то есть управлять устройствами, интернетом вещей, который сейчас представляет собой одну из наиболее горячих тем. И то, и другое вытекает из наших целей и задач — обеспечивать полноценную защиту повсеместно.

Я со своей стороны вижу в этой концепции два краеугольных камня и одновременно две сложности: во-первых, «наноагенты», которые будут устанавливаться на всевозможные устройства, и, во-вторых, особое сообщество производителей, которые на основе открытого кода своими силами будут создавать такие агенты для этой платформы. Почему вы уверены, что производители поверят в эту концепцию и начнут разрабатывать агенты? Как убедить их участвовать в подобной инициативе и как охватить их всех, с учетом их многочисленности и разнообразия?

Г. Д.: Я думаю, что, во-первых, безопасность устройств должна стать приоритетом для производителей, так как есть запрос со стороны пользователей. Число уязвимостей растет в геометрической прогрессии, и впереди будет тот, кто наряду с функциональными возможностям обеспечит сохранность данных и спокойствие пользователей. Во-вторых, мы открыты к диалогу и готовы обсуждать разные варианты сотрудничества. Так, для крупных производителей устройств при необходимости вполне можем и сами разработать агент.

Если же это будет нишевый производитель, заинтересованный в безопасности, которую мы можем ему дать, то, скорее всего, он будет готов к совместной работе с нами как с одним из лидеров в этой области, в том числе на основе открытого кода. Замечу, что для этого не понадобится, например, оформлять какое-то партнерство, как это делают другие большие компании (на конференции уже звучали вопросы о том, сколько это будет стоить). Мы откроем код, дадим API, дадим инфраструктуру. Мы стремимся к тому, чтобы наш имидж, история сильной компании в области информационной безопасности привлекали людей работать с нами.

Планируете ли вы организовывать какую-либо валидацию подобных агентов? Допустим, кто-то взял код, API, разработал, оптимизировал под свое устройство и везде говорит о том, что всё работает успешно, а по факту агент имеет проблемы с функциональностью.

Г. Д.: Пока трудно сказать, в каком направлении мы будем двигаться. Если мы решим, что хотим сертифицировать такие разработки, то да, будет соответствующая модель. Может быть, сам автор или клиент будут сертифицировать агент после того, как выложат код на GitHub. Но в любом случае нам хотелось бы сохранить преимущества открытого кода и API, когда любой человек, написавший код, может быстро интегрироваться без дополнительных затруднений — условно говоря, безотносительно того, какой браузер взаимодействует с веб-сервером. Первоочередная задача здесь — дать инфраструктуру, которая обеспечит легкую интеграцию; нужна ли в таком случае сертификация со стороны Check Point — вопрос отдельный.

Я хотел также спросить о технологиях искусственного интеллекта, которые будут работать на вашей стороне, в облаке, и анализировать поступающие туда данные. Насколько это технологически затратная затея? Какого рода инвестиций это потребует?

Г. Д.: Непростой процесс, я думаю, но мы уже сейчас работаем с большим количеством данных. Например, у нас есть технология ThreatCloud, самой большой совместной сетью по борьбе с киберпреступностью, которая предоставляет данные об угрозах и тенденциях атак из глобальной сети датчиков угроз, — к ней доступов больше, чем к Google.

Когда процессы масштабируются (и в том числе в облаке), встает вопрос о стоимости. Очевидно, что разработка и управление такими операциями — задача повышенной сложности, которая требует значительных временных и финансовых ресурсов. Все подобные вопросы мы неоднократно обсуждаем. Наши специалисты обладают значительным опытом работы с большими объемами данных, и он поможет им в разработке алгоритмов самообучения для развития искусственного интеллекта.

В России особенности регуляторов и боязнь западных санкций обусловливают «нелюбовь» к облакам. Можно ли будет адаптировать эту технологию, например, для работы в on premise, т. е. без облака?

Г. Д.: Действительно, российские компании склонны не доверять облачным хранилищам — сказываются и боязнь санкций, и вопросы приватности, и задержки, которые есть в любом облаке. Для таких компаний есть вариант, который мы называем fog, т. е. «туман», когда заказчик может сделать копию облака и пользоваться целым множеством таких копий — вплоть до десятков тысяч, размещенных в его частном облаке, в собственном дата-центре. Тем самым он решит все проблемы — и с задержкой, и с доступностью, и с приватностью данных. В будущем, я думаю, на российском рынке возможным будет наше сотрудничество с другими компаниями, которые развивают свои облака; впрочем, поскольку Россия велика, размещение таких облаков тоже должно будет быть повсеместным, во избежание всё тех же задержек.

Напоследок я бы хотел затронуть еще одну горячую тему — 5G. Многие говорят, что это — «технология-убийца», которая после себя не оставит никаких других сетевых технологий, включая Wi-Fi. С вашей точки зрения, какие риски это несет для пользователей и какой ответ следует ожидать со стороны security-вендоров и сообщества?

Г. Д.: Здесь мы возвращаемся к первой теме: интернет вещей и агенты. Я говорил об этом в презентации: мы должны быть как можно ближе к контексту. Например, учесть особенности архитектуры Edge computing, когда связь между двумя устройствами идет не через облачную станцию, а через локальную, ближе всего расположенную антенну для максимального снижения задержки.

Здесь в дополнение к наноагенту может быть инструмент для предотвращения атаки по типу man-in-the-middle, наподобие своеобразных мини-брандмауэров, работающих на конкретных антеннах. Эта тема в целом очень интересна и актуальна; несомненно, здесь есть вызов всему, что происходит. Например, встает вопрос: нужен ли нам сегодня шлюз в офисе? Кто-то скажет: мол, зачем мне Wi-Fi, зачем LAN, я подключу свой смартфон или ПК к 5G.

Соответственно, может быть реализована, например, схема network-as-a-service, когда весь трафик маршрутизируется через виртуальный шлюз в облаке. Всё это — новые вызовы и новые риски.

Спасибо за интервью. Желаем успехов!