РТК-Солар запустил DRP-сервис нового поколения

РТК-Солар запустил DRP-сервис нового поколения

РТК-Солар запустил DRP-сервис нового поколения

Ростелеком-Солар” представил сервис по мониторингу внешних цифровых угроз. Solar AURA позиционируется как решение нового поколения. Сервис “ловит” фишинг и утечки, мониторит бренд компании и личные аккаунты.

Solar AURA расшифровывается как Audit & Risk Assessment. Сервис от РТК-Солар презентовали на Уральском банковском форуме.

Новое решение выявляет утечки данных и блокирует фишинг от имени компании, говорится в сообщении разработчика. Сервис “видит” признаки подготовки атак в даркнете, незаконное использование бренда, нелегальное применение эквайринга и махинации с контрагентами.

Solar AURA – решение класса DRP (Digital Risk Protection). У сервиса “максимально гибкая модульная архитектура”, отмечает пресс-служба. Он может интегрироваться с комплексными системами безопасности организации в качестве источника данных.

Для каждой категории событий в сервисе существует свой протокол обработки данных, сформированный на основе многолетнего анализа цифровых рисков, говорится в сообщении компании.

Solar AURA позиционируется как абсолютно новый продукт.

“Наша цель – не копирование старых наработок команды, — объясняет директор центра аналитики внешних цифровых рисков компании “Ростелеком-Солар” Игорь Сергиенко. — Используя накопленные знания как ступеньку, мы избрали иной подход к управлению цифровыми рисками, который, надеемся, станет новым золотым стандартом в отрасли”.

В компании Solar AURA называют DRP-сервисом нового поколения, “фактически DRP2.0”.

Решение включает в себя семь модулей, их можно подключать отдельно или в комплексе. 

Среди них — “Антифишинг”, “Утечки” и “Даркнет”. Последний отслеживает появление в даркнете угроз, нацеленных на заказчика. Это могут быть сообщения о готовящихся кибератаках и нелегальных услугах, предложения о “пробиве” или поиске точки входа в инфраструктуру компании, продаже баз данных.

Еще два блока касаются бренда. Они выявляют ресурсы, которые используют символику незаконно, отслеживают публикации мобильных приложений на неофициальных и небезопасных площадках, мониторят личные фейковые аккаунты в соцсетях.

Блок “Медиаполе” ловит чувствительную для заказчика информацию в открытом доступе, а “Безопасность финансов” касается возможных банковских манипуляций и афер. 

“Необходимо понимать, что концепция “да зачем нам вкладываться в безопасность, кому мы нужны?” — не работает”, — комментирует запуск нового сервиса заместитель директора центра аналитики внешних цифровых рисков компании “Ростелеком-Солар” Сергей Трухачев. Опыт последних месяцев показывает, что атакам подвергаются самые разные организации, даже те, кто еще недавно был неинтересен злоумышленникам, подчеркивает он.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru