Эксперты предупреждают о лавинообразном росте дипфейк-атак

Эксперты предупреждают о лавинообразном росте дипфейк-атак

Эксперты предупреждают о лавинообразном росте дипфейк-атак

По итогам 2024 года количество атак с использованием технологий дипфейков, преимущественно голосовых, достигло десятков тысяч. Эксперты прогнозируют резкий рост подобных инцидентов в 2025 году, вплоть до увеличения их числа в несколько раз.

Согласно данным МТС VisionLabs, на которые ссылаются «Известия», реальное число таких атак значительно превышает официальные показатели.

«Аудио- и видеодипфейки в 2024 году стали массовым явлением, поскольку преступники усовершенствовали технологии их создания», — отметил в комментарии для «Коммерсанта» Максим Бузинов, руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар».

Как правило, злоумышленники подделывают голос руководителя компании или близкого родственника потенциальной жертвы. По оценкам экспертов, наиболее уязвимыми категориями для таких атак остаются подростки, женщины и пожилые люди.

В 2025 году количество таких случаев может значительно возрасти благодаря появлению систем, способных подделывать голос в режиме реального времени. Первые рабочие версии таких приложений начали появляться уже во второй половине 2024 года.

«Проблема в том, что даже сложные алгоритмы дипфейков теперь можно легко найти в открытом доступе», — предупреждает Татьяна Дешкина, представитель VisionLabs. «Кроме того, порог входа для их создания значительно снизился — появились приложения, позволяющие генерировать дипфейки даже людям без минимального опыта в программировании».

При этом программное обеспечение для изменения голоса доступно практически без ограничений. Уже сегодня можно сгенерировать видеозвонок в режиме реального времени. Хотя качество такого видео пока низкое, это легко списывается на плохое соединение или низкое разрешение камеры.

Тем не менее такие звонки чрезвычайно опасны, так как их можно использовать для вымогательства, оформления кредитов от имени жертвы, получения конфиденциальной информации или шантажа.

Дмитрий Соколов, руководитель службы информационной безопасности компании «МойОфис» и эксперт АРПП «Отечественный софт», подчеркивает, что такие инструменты позволяют имитировать не только голос, но и интонации, что делает дипфейк практически неотличимым от оригинала.

Помимо этого, злоумышленники активно используют методы психологического давления, повышая уровень стресса у жертвы, а также играют на неосведомленности широкой аудитории о технологиях дипфейков.

Эксперты сходятся во мнении, что основная рекомендация для пользователей — перезванивать тому, от чьего имени якобы поступил звонок. Тем временем разработчики активно работают над созданием решений для выявления дипфейков, в том числе в режиме реального времени. Такие продукты уже представили компании MTS AI, Сбер, онлайн-кинотеатр Wink и ГК «Солар».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер разработал комплексную модель угроз для ИИ

Эксперты Сбера разработали модель угроз для искусственного интеллекта (включая генеративный ИИ), охватывающую все этапы жизненного цикла таких систем — от подготовки данных до интеграции в приложения.

Документ опубликован на портале киберграмотности Сбера «Кибрарий». Он не привязан к конкретной отрасли и предназначен для оценки потенциальных уязвимостей, адаптации защитных механизмов и минимизации рисков.

В исследовании описаны 70 угроз, связанных с применением как предиктивных, так и генеративных моделей ИИ. Особое внимание уделено рискам, возникающим при использовании генеративных систем, чье распространение стремительно растёт. Для каждой угрозы определены затрагиваемые свойства информации — конфиденциальность, целостность и доступность, а также объекты воздействия, будь то обучающие датасеты или модели с открытым исходным кодом. Модель включает схему взаимодействия таких объектов и их детальное описание.

«Сбер активно применяет технологии искусственного интеллекта в бизнес-процессах и глубоко понимает возникающие угрозы. В ответ на эти вызовы мы создали первую в России модель киберугроз, охватывающую весь спектр рисков, связанных с разработкой и использованием ИИ. Этот документ позволит организациям любой сферы — от финансов до госструктур и промышленности — системно оценивать уязвимости, настраивать защитные меры и снижать возможные потери», — отметил вице-президент Сбера по кибербезопасности Сергей Лебедь.

Ключевые риски при использовании ИИ — это принятие ошибочных решений и утечки данных, использованных при обучении моделей. Кроме того, ИИ активно используют киберпреступные группировки в своих целях.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru