Авторы дипфейков используют автоответчики для сбора образцов голоса

Авторы дипфейков используют автоответчики для сбора образцов голоса

Авторы дипфейков используют автоответчики для сбора образцов голоса

Для создания голосового дипфейка злоумышленникам достаточно всего нескольких секунд записи — например, приветствия на автоответчике. На основе таких аудиофрагментов они генерируют сообщения от имени жертвы, используя их для атак на ее окружение.

Как отметил ведущий аналитик департамента Digital Risk Protection компании F6 Евгений Егоров в комментарии для «Известий», приветствия на автоответчике практически не отличаются от голосовых сообщений, оставленных в мессенджерах или записанных во время телефонных разговоров.

По его словам, мошенники активно применяют технологии подделки голоса уже около двух лет, причем для этого существуют многочисленные инструменты, не требующие специальных знаний.

Руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов уточняет, что для воспроизведения тембра голоса достаточно всего трех секунд записи. Однако для создания более убедительной синтетической речи, учитывающей характерные особенности голоса и эмоциональную окраску, нужны более длинные образцы. Такие фрагменты нередко встречаются в приветствиях на автоответчиках.

Эксперт по кибербезопасности Angara Security Никита Новиков соглашается, что автоответчик может стать источником ключевых фраз, интонации и манеры речи человека. Затем мошенники используют сгенерированные сообщения в различных схемах обмана. Например, жертве могут поступать просьбы о материальной помощи от имени знакомых, а более сложные сценарии включают мошенничество с фейковыми знакомствами (FakeDate) или подделку сообщений от руководителей (FakeBoss), создавая иллюзию реального общения.

По словам Евгения Егорова, наиболее качественные голосовые дипфейки могут применяться в таргетированных атаках с использованием вишинга. Однако для этого злоумышленникам требуются более сложные и зачастую платные инструменты, позволяющие создавать реалистичный контент.

Максим Бузинов предупреждает, что современные системы детекции не всегда способны распознать качественные голосовые дипфейки. Ситуацию осложняет тот факт, что сами пользователи часто применяют технологии обработки звука, улучшающие качество их речи, что дополнительно затрудняет выявление подделок.

В связи с этим эксперты рекомендуют воздерживаться от записи собственного голоса в качестве приветствия на автоответчике и использовать стандартные варианты, предлагаемые операторами связи. При разговорах с руководителями и официальными лицами стоит уточнять, можно ли выполнить запрашиваемые действия через сайт или мобильное приложение. А при получении просьб о финансовой помощи всегда необходимо связаться с отправителем напрямую.

По прогнозам аналитиков, в 2025 году число атак с использованием дипфейков может значительно возрасти.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI призывает разрешить игнорировать авторское право при обучении ИИ

Компания OpenAI официально обратилась к правительству США с просьбой разрешить использование контента, защищенного авторским правом, для обучения искусственного интеллекта (ИИ) при условии соблюдения принципа «добросовестного использования» (fair use).

По мнению представителей компании, ограничения на доступ к таким данным угрожают национальной безопасности и конкурентоспособности США на международной арене.

Издание Ars Technica отмечает, что OpenAI и другие разработчики искусственного интеллекта уже вовлечены в десятки судебных разбирательств с правообладателями.

В большинстве случаев суды встают на сторону владельцев авторских прав, отказываясь признавать правомерной трансформацию их контента при обучении нейросетей. Кроме того, как сообщал журнал Wired, некоторые иски были поданы из-за опасений, что развитие ИИ может полностью вытеснить людей из ряда профессий.

OpenAI подчеркнула, что китайские разработчики имеют практически неограниченный доступ к информации и могут свободно использовать защищённый контент, что даёт им значительное преимущество в скорости и качестве разработки искусственного интеллекта.

Компания уверена, что США рискуют проиграть технологическую гонку, если американские компании не получат аналогичный доступ к широкому спектру данных для обучения нейросетей.

Ситуация усложняется также активностью американских законодателей, которые за последнее время предложили уже 822 нормативных акта, направленных на регулирование сферы ИИ.

Многие из предложенных законов похожи на действующие в Евросоюзе нормы, которые, по мнению OpenAI, значительно усложняют технологическое развитие и могут негативно повлиять на конкурентоспособность США.

Компания также выступила против присоединения Соединённых Штатов к международным соглашениям, которые, по её мнению, могут замедлить развитие технологий и усилить преимущества китайских конкурентов, чьи разработки уже активно внедряются на американском рынке.

Федеральные власти США пока никак не прокомментировали предложение OpenAI. План национального развития искусственного интеллекта должен быть представлен в июле 2025 года.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru