Авторы дипфейков используют автоответчики для сбора образцов голоса

Авторы дипфейков используют автоответчики для сбора образцов голоса

Авторы дипфейков используют автоответчики для сбора образцов голоса

Для создания голосового дипфейка злоумышленникам достаточно всего нескольких секунд записи — например, приветствия на автоответчике. На основе таких аудиофрагментов они генерируют сообщения от имени жертвы, используя их для атак на ее окружение.

Как отметил ведущий аналитик департамента Digital Risk Protection компании F6 Евгений Егоров в комментарии для «Известий», приветствия на автоответчике практически не отличаются от голосовых сообщений, оставленных в мессенджерах или записанных во время телефонных разговоров.

По его словам, мошенники активно применяют технологии подделки голоса уже около двух лет, причем для этого существуют многочисленные инструменты, не требующие специальных знаний.

Руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов уточняет, что для воспроизведения тембра голоса достаточно всего трех секунд записи. Однако для создания более убедительной синтетической речи, учитывающей характерные особенности голоса и эмоциональную окраску, нужны более длинные образцы. Такие фрагменты нередко встречаются в приветствиях на автоответчиках.

Эксперт по кибербезопасности Angara Security Никита Новиков соглашается, что автоответчик может стать источником ключевых фраз, интонации и манеры речи человека. Затем мошенники используют сгенерированные сообщения в различных схемах обмана. Например, жертве могут поступать просьбы о материальной помощи от имени знакомых, а более сложные сценарии включают мошенничество с фейковыми знакомствами (FakeDate) или подделку сообщений от руководителей (FakeBoss), создавая иллюзию реального общения.

По словам Евгения Егорова, наиболее качественные голосовые дипфейки могут применяться в таргетированных атаках с использованием вишинга. Однако для этого злоумышленникам требуются более сложные и зачастую платные инструменты, позволяющие создавать реалистичный контент.

Максим Бузинов предупреждает, что современные системы детекции не всегда способны распознать качественные голосовые дипфейки. Ситуацию осложняет тот факт, что сами пользователи часто применяют технологии обработки звука, улучшающие качество их речи, что дополнительно затрудняет выявление подделок.

В связи с этим эксперты рекомендуют воздерживаться от записи собственного голоса в качестве приветствия на автоответчике и использовать стандартные варианты, предлагаемые операторами связи. При разговорах с руководителями и официальными лицами стоит уточнять, можно ли выполнить запрашиваемые действия через сайт или мобильное приложение. А при получении просьб о финансовой помощи всегда необходимо связаться с отправителем напрямую.

По прогнозам аналитиков, в 2025 году число атак с использованием дипфейков может значительно возрасти.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Искусственный интеллект привёл россиян в суд почти 300 раз за год

В 2024 году российские суды рассмотрели 292 дела, связанных с использованием искусственного интеллекта (ИИ). Споры касались вопросов интеллектуальной собственности, правомерности решений автоматизированных систем, а также качества обслуживания клиентов ИИ-сервисами.

Как сообщили «Известиям» в исследовательском центре «Аналитика. Бизнес. Право», количество судебных разбирательств с участием ИИ существенно выросло: если в 2021 году таких дел было всего 112, то в 2024-м уже почти втрое больше. Из них гражданские дела составили 59%, а в 73% решений суды вставали на сторону людей.

По числу судебных споров лидируют Москва и Московская область. Санкт-Петербург и Свердловская область занимают второе и третье места соответственно, замыкают пятёрку лидеров Новосибирск и Краснодар.

Директор центра «Аналитика. Бизнес. Право» Венера Шайдуллина отмечает, что дела с участием ИИ обладают высоким потенциалом роста, хотя их доля в общем количестве судебных разбирательств пока относительно невелика.

Она также подчеркнула, что значительное число подобных случаев могло просто не попасть в официальную статистику, особенно в рамках уголовных процессов. Например, киберпреступления, включая шантаж и кибербуллинг с использованием нейросетей, зачастую квалифицируются как традиционные преступления (кражи или мошенничества).

В судебной практике зафиксированы дела, связанные с мошенничеством с помощью дипфейков, подделкой документов и использованием ботов для продажи запрещённых веществ. Однако наибольший объём составили споры по интеллектуальной собственности, особенно касающиеся контента, сгенерированного нейросетями.

Большая часть разбирательств касается защиты прав потребителей. Чаще всего граждане судились с банками из-за решений скоринговых систем, деятельности различных чат-ботов и автоматизированного обслуживания клиентов. В 73% таких случаев решения были в пользу потребителей. Общая сумма компенсаций за четыре года составила около 2 млрд рублей, а средний размер иска достиг 2,1 млн рублей.

Также часто обжалуются штрафы, выписанные автоматическими системами фиксации нарушений, и рассматриваются дела о законности их применения.

По прогнозам авторов исследования, число подобных судебных разбирательств продолжит расти. К 2030 году количество дел о защите интеллектуальной собственности увеличится на 40–50%, административных – на 25–30%, а уголовных – на 15–18%.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru