Атак с использованием дипфейков стало больше, а выявлять их все сложнее

Атак с использованием дипфейков стало больше, а выявлять их все сложнее

Атак с использованием дипфейков стало больше, а выявлять их все сложнее

В 2024 году атаки с использованием дипфейков — поддельных аудио- и видеоматериалов, созданных нейросетями — приобрели массовый характер. Совершенствование технологий делает их всё сложнее отличить от реальных записей, что даёт злоумышленникам всё больше возможностей для манипуляций.

Количество инцидентов, связанных сприменением дипфейков в России, уже исчисляется десятками тысяч и продолжает стремительно расти. По прогнозам экспертов, включая аналитиков МТС VisionLabs, в 2025 году число подобных атак может увеличиться в несколько раз.

В начале марта в сети широко распространялись фальшивые видео, якобы с участием губернаторов ряда регионов, включая Сахалинскую область и Приморский край. Однако низкое качество этих роликов выдавало подделку. По всей вероятности, за их созданием стояли пропагандистские структуры Украины.

«Пользователям стоит критически относиться к подобным материалам и не доверять всему, что они видят в интернете. Качество дипфейков постоянно растёт, и в будущем их будет ещё сложнее распознать. Поэтому важно развивать критическое мышление», — подчеркнули в Центре управления регионом Сахалинской области.

Однако дипфейки используются не только в политических целях, но и в мошеннических схемах, направленных на кражу денег. Одна из популярных тактик — имитация голоса родственников потенциальных жертв. Мы собрали наиболее распространённые способы обмана, которые уже активно применяются или могут стать угрозой в ближайшем будущем.

Директор по развитию продуктов ГК «Гарда» Денис Батранков предупреждает:

«Раньше ошибки в текстурах изображения, искажения в голосе, низкое качество видео и аудио были явными признаками дипфейков. Однако сегодня такие артефакты встречаются всё реже. Для их выявления необходимо использовать специализированные программы, такие как Resemblyzer и Deepware, которые с точностью выше 90% анализируют контент и находят признаки искусственной модификации».

Также эксперт напомнил, что телефонные звонки от мошенников часто сопровождаются срочными просьбами или указаниями — например, перевести деньги или передать конфиденциальные данные. Чтобы избежать обмана, он рекомендует:

  • Не принимать решения в спешке. Возьмите паузу в разговоре.
  • Задавать проверочные вопросы. Например, спросите о событии, известном только реальному человеку.
  • Использовать секретные пароли или кодовые слова.
  • Связываться через другие каналы. Например, перезвонить с другого номера или встретиться лично.

Современные технологии развиваются стремительно, но и способы защиты от них не стоят на месте. Главное — оставаться бдительными и не поддаваться на уловки злоумышленников.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Искусственный интеллект привёл россиян в суд почти 300 раз за год

В 2024 году российские суды рассмотрели 292 дела, связанных с использованием искусственного интеллекта (ИИ). Споры касались вопросов интеллектуальной собственности, правомерности решений автоматизированных систем, а также качества обслуживания клиентов ИИ-сервисами.

Как сообщили «Известиям» в исследовательском центре «Аналитика. Бизнес. Право», количество судебных разбирательств с участием ИИ существенно выросло: если в 2021 году таких дел было всего 112, то в 2024-м уже почти втрое больше. Из них гражданские дела составили 59%, а в 73% решений суды вставали на сторону людей.

По числу судебных споров лидируют Москва и Московская область. Санкт-Петербург и Свердловская область занимают второе и третье места соответственно, замыкают пятёрку лидеров Новосибирск и Краснодар.

Директор центра «Аналитика. Бизнес. Право» Венера Шайдуллина отмечает, что дела с участием ИИ обладают высоким потенциалом роста, хотя их доля в общем количестве судебных разбирательств пока относительно невелика.

Она также подчеркнула, что значительное число подобных случаев могло просто не попасть в официальную статистику, особенно в рамках уголовных процессов. Например, киберпреступления, включая шантаж и кибербуллинг с использованием нейросетей, зачастую квалифицируются как традиционные преступления (кражи или мошенничества).

В судебной практике зафиксированы дела, связанные с мошенничеством с помощью дипфейков, подделкой документов и использованием ботов для продажи запрещённых веществ. Однако наибольший объём составили споры по интеллектуальной собственности, особенно касающиеся контента, сгенерированного нейросетями.

Большая часть разбирательств касается защиты прав потребителей. Чаще всего граждане судились с банками из-за решений скоринговых систем, деятельности различных чат-ботов и автоматизированного обслуживания клиентов. В 73% таких случаев решения были в пользу потребителей. Общая сумма компенсаций за четыре года составила около 2 млрд рублей, а средний размер иска достиг 2,1 млн рублей.

Также часто обжалуются штрафы, выписанные автоматическими системами фиксации нарушений, и рассматриваются дела о законности их применения.

По прогнозам авторов исследования, число подобных судебных разбирательств продолжит расти. К 2030 году количество дел о защите интеллектуальной собственности увеличится на 40–50%, административных – на 25–30%, а уголовных – на 15–18%.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru