Клиенты Solar Dozor получат в подарок 3 месяца бесплатного Dozor UBA

Клиенты Solar Dozor получат в подарок 3 месяца бесплатного Dozor UBA

Клиенты Solar Dozor получат в подарок 3 месяца бесплатного Dozor UBA

Компания «Ростелеком-Солар» запускает акцию для клиентов системы защиты от утечек Solar Dozor. С января 2021 года всем пользователям системы, имеющим действующую подписку на обновления, предложат бесплатную миграцию на новейшую версию Solar Dozor 7.3, релиз которой состоялся в начале декабря.

Переход на новую версию будет сопровождаться полным комплексом работ по интеграции системы в инфраструктуру заказчика со стороны вендора. В качестве подарка участники акции получат 3-месяца бесплатной эксплуатации модуля продвинутого анализа поведения пользователей Dozor UBA или любого другого функционального модуля DLP-системы Solar Dozor на выбор.

При переходе на Solar Dozor 7.3 клиенты получат целый набор преимуществ, реализованных в новой версии. Это и высокая точность распознавания критичных данных в графических форматах, которая стала возможной благодаря применению технологии глубокого обучения на основе нейронных сетей Faster RCNN. И контроль переписки пользователей в мессенджере Telegram на рабочих станциях, а также отправки файлов в облачные хранилища с помощью десктоп-приложений Яндекс.Диск и Google Drive. А полностью переработанный фильтр результатов быстрого поиска позволит оперативно находить нужные данные в уже сформированной поисковой выборке, что ускорит обнаружение утечек и расследование инцидентов.

Но главный бонус для пользователей 7.3 заключается в возможности бесплатно в течение 3-х месяцев опробовать в действии работу модуля анализа поведения пользователей Dozor UBA. Модуль позволяет автоматически выявлять в поведении сотрудников компании аномалии, которые могут свидетельствовать о ранних признаках корпоративного мошенничества, зарождении коррупционных схем, предпосылках к возникновению утечек информации и т.п. Это дает возможность службам безопасности работать с рисками превентивно, используя автоматизированные инструменты анализа.

Методы анализа модуля Dozor UBA основаны на уникальных алгоритмах класса unsupervised machine learning (обучение без учителя), не требующих предварительной настройки и адаптации системы под новые условия эксплуатации. Накопленной в течение 2-х месяцев истории активности пользователя достаточно для того, чтобы определить его устойчивое поведение и начать детектировать аномалии поведения.

А в версии 7.3 модуль Dozor UBA еще и значительно расширил свою функциональность, позволяющую минимизировать риск утечки данных при увольнении сотрудников. Для этого в интерфейсе системы в разделе «Анализ поведения» появился виджет «Признаки увольнения». Кликнув на виджет, офицер безопасности мгновенно получает список сотрудников, в поведении которых присутствуют признаки подготовки к увольнению.

Критерии, по которым система выявляет работников, готовящихся к увольнению, были сформированы в результате практических исследований и наблюдений за поведением уходящих из компаний сотрудников. К таким критериям относится постепенное падение внешней и внутренней активности, оптимизация или сокращение сотрудником рабочего графика, появление новых уникальных контактов в коммуникациях, передача нехарактерных для сотрудника информационных активов и ряд других.

Для участия в новогодней акции Solar Dozor необходимо оставить заявку на странице до 31 января 2021 года!

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Microsoft: системы на базе ИИ никогда не станут абсолютно безопасными

Команда Microsoft AI Red Team (AIRT) подытожила свой опыт тестирования 100 продуктов, созданных в компании на основе генеративного ИИ, и пришла к выводу, что обеспечение безопасности таких систем — нескончаемый процесс.

Из-за фундаментальных ограничений ИИ-моделей угрозы вроде инъекции стимула и джейлбрейка в этой сфере неистребимы.

Однако такие атаки можно сделать более затратными — как и в случае с другими ИТ-рисками, которые удается снизить, применяя, к примеру, тактику эшелонированной защиты (defense-in-depth) или следуя принципам конструктивной безопасности (security-by-design).

Делясь опытом, в Red Team также отметили (PDF), что для выстраивания защиты ИИ-системы важно понимать ее возможности и учитывать сферу применения. Так, большие языковые модели (БЯМ, LLM) склонны слепо следовать инструкциям пользователя, и их легко обмануть, спрятав вредоносный контент в большом объеме безобидного текста при вводе.

Также атака на ИИ-помощника по литературному творчеству вряд ли приведет к серьезным последствиям, а в случае с LLM, предназначенной для анализа историй болезни, может нанести вред здоровью пациентов и поставить крест на репутации медучреждения.

Чтобы заставить LLM выдать вредный совет, необязательно проводить градиентные состязательные атаки. Тот же эффект можно получить более дешевым способом, манипулируя интерфейсом либо введя в заблуждение модель языка и технического зрения.

 

Еще одно важное наблюдение, которым поделились специалисты: использование ИИ увеличивает существующие риски и создает новые.

Напомним, вопросы использования ИИ недавно обсуждались в ходе Открытой конференции Института системного программирования РАН им. В. П. Иванникова. Участники пленарной дискуссии сошлись во мнении, что внедрение ИИ-технологий тормозят проблемы доверия и безопасности таких сервисов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru