Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Злоумышленники взламывают аккаунты Telegram и от имени жертвы просят ее знакомых о материальной помощи. Для пущей убедительности просьба подкрепляется голосовым сообщением, созданным с помощью ИИ.

Для получения доступа к аккаунту используется одна из уже обкатанных мошеннических схем: фейковое голосование, онлайн-опрос, подарочная подписка на Telegram Premium. Голосовые обращения, призванные убедить собеседника в необходимости денежного перевода, генерируются на основе аудиозаписей, найденных у жертвы, и дублируются во все ее чаты.

Откликнувшимся доброхотам высылается сфальсифицированное фото банковской карты с именем и фамилией, соответствующими паспортным данным жертвы взлома. Авторы одной из таких атак просили «одолжить» 200 тыс. руб., в другом случае пользователь «ВКонтакте», купившись на дипфейк, потерял порядка 3 тыс. рублей.

В конце прошлого года с аналогичной мошеннической схемой столкнулись русскоязычные пользователи WhatsApp. Перенос ее в Telegram зафиксировали, в частности, эксперты ГК «Солар»; за последний месяц они выявили более 500 новых доменов, созданных мошенниками для сбора ключей от аккаунтов в мессенджере.

Опрошенные РБК специалисты сошлись во мнении, что для России подобные сложные атаки новы, и пользователям в таких случаях следует удостовериться, что неожиданная просьба исходит от их знакомца — например, перезвонить ему по телефону.

«Сейчас для пользователей нет технических решений уровня UEBA, с поведенческой аналитикой и поиском аномалий, — комментирует главный специалист отдела комплексных СЗИ компании «Газинформсервис» Дмитрий Овчинников. — Что касается социальных сетей и мессенджеров, то уверен, что они начнут применять поведенческую аналитику, основанную на ИИ, для защиты своих клиентов от подобного рода атак в ближайшее время. Думаю, что в течение ближайших 5-10 лет подобные решения по защите пользователей от вымогательских атак, сгенерированных ИИ, станут нормой жизни и будут доступны на премиальных подписках мессенджеров и в виде специализированных персональных защитных приложений».

Минцифры создаст полигон для тестирования систем с ИИ на безопасность

Минцифры планирует создать киберполигон для тестирования систем с искусственным интеллектом (ИИ) на безопасность. В первую очередь речь идёт о решениях, предназначенных для применения на объектах критической инфраструктуры, а также о системах с функцией принятия решений.

О том, что министерство ведёт работу над созданием такого полигона, сообщил РБК со ссылкой на несколько источников.

Площадка будет использоваться для тестирования ИИ-систем, которые в дальнейшем должны пройти сертификацию ФСТЭК и ФСБ России. Это предусмотрено правительственным законопроектом «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты».

Документ вводит четыре уровня критичности ИИ-систем:

  • минимальный — влияние на безопасность отсутствует или минимально;
  • ограниченный;
  • высокий — относится к системам, используемым на объектах критической информационной инфраструктуры;
  • критический — системы, способные угрожать жизни и здоровью людей или безопасности государства, а также автономные комплексы, принимающие самостоятельные решения.

Определять уровень критичности будет Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Эта же структура займётся ведением реестра сертифицированных ИИ-систем.

Конкретные требования к сертификации планируется закрепить в отдельных нормативных документах, которые пока находятся в разработке. На текущем этапе единственным обязательным условием является включение программного обеспечения в реестр Минцифры.

По данным «Российской газеты», распространять новые требования на коммерческие ИИ-решения не планируется. При этом в аппарате первого вице-премьера Дмитрия Григоренко пояснили, что ключевая цель законопроекта — снизить риски применения ИИ в сферах с высокой ценой ошибки, включая здравоохранение, судопроизводство, общественную безопасность и образование.

RSS: Новости на портале Anti-Malware.ru