Банки хотят открывать счета по видеосвязи

Банки хотят открывать счета по видеосвязи

Банки хотят открывать счета по видеосвязи

Банки просят ЦБ разрешить им эксперимент с открытием счетов по видеосвязи. Так можно “добрать” слепков в единую биометрическую систему (ЕБС). Технологию давно используют в Европе, но внедрение может обойтись в сотни миллионов рублей.

С письмом Национального совета финансового рынка (НСФР) в Банк России ознакомился “Ъ”.

Рынок предлагает провести “пилотирование и последующее нормативное урегулирование технологии удаленной идентификации клиентов в режиме видеоконференции”.

Речь идет о клиентах, которые открывают счета в первый раз. Сейчас существует две опции: при личном общении с сотрудником банка (в офисе и на выезде) или через единую биометрическую систему (ЕБС).

Но потенциальный клиент может находиться далеко в глубинке или иметь особенности по здоровью, а ЕБС, введенная 5 лет назад, так и не получила широкого применения.

Чаще всего с проблемами сталкиваются глухонемые и сотрудники компаний в отдаленной местности. В ЦБ пока не получили письмо НСФР, но обещают рассмотреть предложения “в установленном порядке”.

По видеоидентификации уже несколько лет открывают полноценные банковские счета в Европе.

“Каких-либо рисков там не выявлено”, — говорит глава совета Ассоциации участников рынка электронных денег Виктор Достов.

В последнее время такие услуги стали оказывать в Узбекистане, Киргизии и Таджикистане. По данным НСФР, о желании участвовать в пилоте заявили 18 банков.

Предполагается, что клиент на видеоконференции будет предъявлять паспорт и СНИЛС, как и при личном визите в офис.

При этом видео будет исследовано на применение программ, искажающих передаваемое изображение, типа Deepfake.

Владельцев таких счетов хотят также ограничить по суммам операций: с наличными до 15 тыс. руб., безналичные переводы до 100 тыс. руб. за один раз и 1 млн руб. в месяц.

По словам Достова, при этом “не компрометируется контроль — на таких счетах ставится соответствующая пометка, и специфика учитывается при текущем мониторинге операций”.

В крупных банках есть команда, которая может заниматься дипфейками и подлинностью документов по видео, но объединение технологий, доработка и сертификация продукта может потребовать определенных инвестиций и времени, говорит гендиректор компании Digital Consulting Solutions Александр Скоморохин.

По его оценке, речь идет о 90–130 млн руб. и трех месяцах работы при условии наличия отдельных модулей программного обеспечения.

Однако если потребуется распознавание средствами программного обеспечения подлинности документов, то стоимость доработки, по подсчетам Скоморохина, может составить не одну сотню миллионов рублей, а срок вырастет до полугода.

Добавим, летом Госдума приняла поправки в 152-ФЗ “О персональных данных”. Один из пунктов — операторам персданных больше не нужно согласие субъекта для передачи его биометрии в единую биометрическую систему (ЕБС). Достаточно просто уведомить гражданина.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Преступлений с применением генеративного ИИ станет в 10 раз больше

По оценкам экспертов, в 2025 году количество преступлений, совершённых с использованием генеративного искусственного интеллекта (ИИ), может увеличиться в 10 раз по сравнению с 2024 годом.

Причём данные технологии начнут активно применять не только киберпреступники, но и представители традиционного криминального мира.

Первым известным случаем использования генеративного ИИ для реального преступления стал подрыв электромобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Злоумышленник воспользовался ChatGPT для планирования атаки.

«Рост преступлений, связанных с ИИ, официально не фиксируется, однако его масштабы можно оценить по числу ботов и сгенерированного ими контента. В 2025 году прирост подобных преступлений может составить от восьми до десятикратного увеличения по сравнению с предыдущим годом», — заявил руководитель департамента расследований T.Hunter Игорь Бедеров в комментарии для «Известий». Он отметил, что меры защиты можно обойти с помощью простых методов промт-инжиниринга, например, внедряя инструкции по созданию взрывных устройств в текстах художественных произведений.

По мнению экспертов, в 2025 году генеративный ИИ будут использовать до 90% киберпреступных группировок. Инструменты ИИ для составления фишинговых сообщений уже давно освоены, и их применение будет только расти. Генеральный директор Phishman Алексей Горелкин считает, что технологии нейросетей и чат-ботов могут взять на вооружение до 90% группировок, специализирующихся на социальной инженерии.

Старший аналитик Positive Technologies Екатерина Снегирёва подчеркнула, что генеративный ИИ активно используется для создания и модификации вредоносного кода.

Так, в июне 2024 года была зафиксирована фишинговая атака с использованием вредоносных скриптов, сгенерированных нейросетями. При этом 38% компаний применяют генеративный ИИ бесконтрольно, что значительно повышает риск утечек данных.

Эксперты F.A.C.C.T. прогнозируют: в 2025 году возрастёт число атак с использованием технологий дипфейков, массового автоматизированного фишинга и совершенствования методов поиска уязвимостей в программных системах. Впрочем, уже в 2024 году массовое использование дипфейков стало реальностью благодаря инструментам, позволяющим имитировать голос в режиме реального времени.

В России ситуация будет менее острой. Это связано с ограниченной доступностью зарубежных расширенных версий генеративного ИИ для граждан и встроенными мерами защиты в российских аналогах. Например, в отечественных системах предусмотрены фильтры на ключевые стоп-слова, которые невозможно обойти. Тем не менее регулирование использования генеративного ИИ требует постоянного уточнения и адаптации.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru