F.A.C.C.T. AntiFraud Club сплотит банки Белоруссии в борьбе с мошенниками

F.A.C.C.T. AntiFraud Club сплотит банки Белоруссии в борьбе с мошенниками

F.A.C.C.T. AntiFraud Club сплотит банки Белоруссии в борьбе с мошенниками

Открытый F.A.C.C.T. в Минске AntiFraud Club призван помочь финансистам выработать единый подход к борьбе с мошенничеством. В новый клуб по интересам уже вступили представители ведущих банков Белоруссии.

По данным ИБ-компании, последние десять лет число киберпреступлений в этой стране неуклонно растет. В 2022 году МВД Республики Беларусь зарегистрировало 13,5 тыс. инцидентов, в 2024-м их количество превысило 18 тысяч. Суммарный ущерб по завершенным делам составил 41 млн белорусских рублей (около ₽1,2 млрд).

Основными киберугрозами для клиентов белорусских банков в настоящее время являются телефонное мошенничество, скам в соцсетях, фишинг, компрометация учеток в системах ДБО, а также инструменты удаленного управления, оказавшиеся в недобрых руках.

Новая площадка, использующая возможности F.A.C.C.T. Fraud Protection, позволит финансистам обмениваться свежей информацией о техниках и тактиках злоумышленников, а также сообща вырабатывать меры противодействия новым угрозам.

На первую встречу в рамках AntiFraud Club пришли представители Белагропромбанка, Белгазпромбанка, Банка БелВЭБ, СтатусБанка, БТА Банка и других крупных кредитно-финансовых организаций страны. Организаторы предложили выработать единый подход к маркировке мошеннических устройств и оповещению о таких находках. Поскольку в Белоруссии высок спрос не услуги дропов, участникам также было представлено готовое инженерное решение для выявления таких посредников.

«AntiFraud Club — это открытая площадка для обмена мнениями, выработки общих правил и отстройки процессов, — отметил гендиректор F.A.C.C.T. Валерий Баулин. — В дальнейшем на базе нашего клуба мы планируем реализовать пилотный проект странового антифрода, который призван показать результативность государственно-частного партнерства в сфере борьбы с финансовым мошенничеством».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru