Уголовное наказание за дипфейки хотят ввести в России

Уголовное наказание за дипфейки хотят ввести в России

Уголовное наказание за дипфейки хотят ввести в России

В России предложили ввести уголовную ответственность за дипфейки голосов или изображений людей. Злоумышленники всё чаще стали использовать контент ИИ в преступных целях.

На этой неделе Ярослав Нилов, глава комитета по труду, социальной политике и делам ветеранов, собирается внести законопроект в Госдуму, который будет включён в статьи о клевете, краже, мошенничестве и вымогательстве.

Преступникам будет грозить штраф до полутора миллиона рублей или лишение свободы до 7 лет. Сейчас в стране не предусмотрено наказание за использование дипфейков.

Компьютерные технологии стремительно развиваются и позволяют людям с помощью ИИ создавать контент, который практически неотличим от реального. Мошенники активно этим злоупотребляют и остаются безнаказанными. Законопроект поможет ввести ответственность за использование этой технологии в противоправных действиях и фальсификацию изображений, голоса и биометрических данных.

Некоторые специалисты утверждают, что не видят реальной опасности дипфейков, так как созданы технологии, которые проверяют их подлинность.

Зампред комитета по информационной политике Олег Матвейчев отметил, что терминология ещё не разработана. Само понятие «дипфейк» не внесено в законодательство и не носит юридический характер. Поэтому есть сомнения, что данный документ поддержат в Госдуме.

Ярослав Шицле, руководитель направления «Разрешение IT&Ip споров» юридической фирмы «Рустам Курмаев и партнеры», рассказал «Известиям» об актуальности законопроекта. Он поможет правоохранительным органам работать активнее и привлекать к ответственности большее количество людей.

Руководитель исследовательской группы Positive Technologies Ирина Зиновкина рассказала, что, по их данным, в первом квартале этого года в 85% атак на частных лиц злоумышленники прибегали к социальной инженерии, где активно используется ИИ. Мошенники могут манипулировать жертвами при помощи дипфейков. Законопроект, возможно, поможет усмирить преступников.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Новая ИИ-модель копирует собеседника путем проведения опроса

Исследователи из трех американских университетов и команды Google DeepMind создали модель генеративного ИИ, способную после двухчасового аудиоинтервью сымитировать личность и поведение собеседника с точностью до 85%.

В контрольную выборку вошли 1052 добровольца разного возраста, пола, образования, достатка, национальности, вероисповедания и политических взглядов. Для всех были созданы индивидуальные программы-агенты одинаковой архитектуры.

Разработанный сценарий бесед включал обычные для социологических исследований вопросы, тесты «Большая пятерка» для построения модели личности, пять экономических игр («Диктатор», «Общественное благо» и проч.) и поведенческую анкету, составленную в ходе недавних экспериментов с большими языковыми моделями (БЯМ, LLM).

Ответы испытуемых сохранялись в памяти для использования в качестве контекста. Спустя две недели добровольцам предложили пройти тот же опрос, и LLM смогла предугадать их реплики с точностью до 85%.

 

По мнению авторов исследования, их метод создания цифровых двойников — хорошее подспорье в изучении индивидуального и коллективного поведения. Полученные результаты также можно использовать в социологии и для выработки политических решений.

К сожалению, совершенствование ИИ-технологий — палка о двух концах. Попав в руки злоумышленников, подобный инструмент позволит создавать еще более убедительные дипфейки, чтобы вводить в заблуждение интернет-пользователей с корыстной либо иной неблаговидной целью.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru