Вышел UserGate Management Center, объединяющий управление устройствами

Вышел UserGate Management Center, объединяющий управление устройствами

Вышел UserGate Management Center, объединяющий управление устройствами

Компания UserGate представила новый продукт — UserGate Management Center (UGMC). UGMC - это вспомогательный компонент для универсального межсетевого экрана UserGate, который позволяет управлять большим количеством устройств.

В случаях использования двух и более межсетевых экранов, а также в организациях с филиальной сетью, где требуется применение общей политики безопасности для каждого из устройств, UserGate Management Center объединяет управление в единую точку, из которой администратор может выполнять мониторинг серверов UserGate, применять необходимы настройки, создавать политики, применяемые к группам устройств для обеспечения безопасности корпоративной сети.

UserGate Management Center позволяет систематизировать подход к составлению настроек через применение шаблонов, а также прозрачно применить эти настройки на выбранной части парка межсетевых экранов.

UGMC также поддерживает облачную модель управления, то есть предоставляет возможность полностью независимого управления межсетевыми экранами разных предприятий, используя единый сервер управления. 

Использование UserGate Management Center позволяет улучшить эффективность управления и поддержки распределенного парка межсетевых экранов UserGate.

Подробнее о продукте можно прочитать здесь.

Инженеры UserGate работают над расширением функциональности и производительности решений UserGate компании. До конца 2021 года планируется релиз UserGate Client – решения для защиты конечных точек в рамках концепции ZTNA. В начале 2022 компания выпустит прототип UserGate Security Gateway. Это новый программно-аппаратный высокопроизводительный универсальный шлюз безопасности класса New Generation Firewall (NGFW) с использованием инструментов машинного обучения (ML), искусственного интеллекта (AI, ИИ) с аппаратным ускорением, разрабатывается при грантовой поддержке Фонда «Сколково». Ожидаемая пропускная способность в режиме межсетевого экрана (Firewall - FW) – до 60 Гбит/с; пропускная способность в режиме системы обнаружения вторжений с использованием инструментария искусственного интеллекта (Artificial Intelligence Intrusion Detection and Prevention System - AI IDPS) – до 20 Гбит/с; производительность в режиме веб-фильтрации (Web Filtering - WF) – до 12 Гбит/с.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер разработал комплексную модель угроз для ИИ

Эксперты Сбера разработали модель угроз для искусственного интеллекта (включая генеративный ИИ), охватывающую все этапы жизненного цикла таких систем — от подготовки данных до интеграции в приложения.

Документ опубликован на портале киберграмотности Сбера «Кибрарий». Он не привязан к конкретной отрасли и предназначен для оценки потенциальных уязвимостей, адаптации защитных механизмов и минимизации рисков.

В исследовании описаны 70 угроз, связанных с применением как предиктивных, так и генеративных моделей ИИ. Особое внимание уделено рискам, возникающим при использовании генеративных систем, чье распространение стремительно растёт. Для каждой угрозы определены затрагиваемые свойства информации — конфиденциальность, целостность и доступность, а также объекты воздействия, будь то обучающие датасеты или модели с открытым исходным кодом. Модель включает схему взаимодействия таких объектов и их детальное описание.

«Сбер активно применяет технологии искусственного интеллекта в бизнес-процессах и глубоко понимает возникающие угрозы. В ответ на эти вызовы мы создали первую в России модель киберугроз, охватывающую весь спектр рисков, связанных с разработкой и использованием ИИ. Этот документ позволит организациям любой сферы — от финансов до госструктур и промышленности — системно оценивать уязвимости, настраивать защитные меры и снижать возможные потери», — отметил вице-президент Сбера по кибербезопасности Сергей Лебедь.

Ключевые риски при использовании ИИ — это принятие ошибочных решений и утечки данных, использованных при обучении моделей. Кроме того, ИИ активно используют киберпреступные группировки в своих целях.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru