Кибермошенники используют ИИ для генерирования голосовых в WhatsApp

Кибермошенники используют ИИ для генерирования голосовых в WhatsApp

Кибермошенники используют ИИ для генерирования голосовых в WhatsApp

Искусственный интеллект помогает кибермошенникам генерировать голосовые сообщения и с их помощью разводить пользователей WhatsApp. Получая «войсы» от якобы знакомых людей, люди теряют бдительность.

О новой схеме злоумышленников рассказал Петр Куценко, специалист компании R-Vision. Чтобы сгенерировать правоподобный войс, мошеннику достаточно лишь небольшой записи голоса пользователя.

Как только всё будет готово, преступник отправляет голосовое сообщение и просит у жертвы деньги в долг.  По словам Куценко, мошенники также не отказались от схем с опросами и онлайн-голосованиями.

Цель в этом случае не изменилась: пользователя просят проголосовать за ребёнка в каком-либо конкурсе, после чего доверчивая жертва может попросить распространить ссылку своих друзей и знакомых.

Специалист R-Vision напомнил, что перед праздниками риски возрастают, поэтому гражданам стоит быть особенно бдительными. Нужно очень внимательно и крайне скептически относиться к розыгрышам билетов на новогодние концерты и другие мероприятия, приуроченные к праздникам.

Куценко призывает ни в коем случае не переводить деньги по запросам в WhatsApp и не переходить по сомнительным ссылкам.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер разработал комплексную модель угроз для ИИ

Эксперты Сбера разработали модель угроз для искусственного интеллекта (включая генеративный ИИ), охватывающую все этапы жизненного цикла таких систем — от подготовки данных до интеграции в приложения.

Документ опубликован на портале киберграмотности Сбера «Кибрарий». Он не привязан к конкретной отрасли и предназначен для оценки потенциальных уязвимостей, адаптации защитных механизмов и минимизации рисков.

В исследовании описаны 70 угроз, связанных с применением как предиктивных, так и генеративных моделей ИИ. Особое внимание уделено рискам, возникающим при использовании генеративных систем, чье распространение стремительно растёт. Для каждой угрозы определены затрагиваемые свойства информации — конфиденциальность, целостность и доступность, а также объекты воздействия, будь то обучающие датасеты или модели с открытым исходным кодом. Модель включает схему взаимодействия таких объектов и их детальное описание.

«Сбер активно применяет технологии искусственного интеллекта в бизнес-процессах и глубоко понимает возникающие угрозы. В ответ на эти вызовы мы создали первую в России модель киберугроз, охватывающую весь спектр рисков, связанных с разработкой и использованием ИИ. Этот документ позволит организациям любой сферы — от финансов до госструктур и промышленности — системно оценивать уязвимости, настраивать защитные меры и снижать возможные потери», — отметил вице-президент Сбера по кибербезопасности Сергей Лебедь.

Ключевые риски при использовании ИИ — это принятие ошибочных решений и утечки данных, использованных при обучении моделей. Кроме того, ИИ активно используют киберпреступные группировки в своих целях.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru