В России могут создать специальные суды для дел о репостах и лайках

В России могут создать специальные суды для дел о репостах и лайках

В России могут создать специальные суды для дел о репостах и лайках

В России могут появиться специальные суды, которые займутся рассмотрением исключительно тех дел, что связаны со сферой социальных сетей. Об этом сообщил Дмитрий Песков, занимающий пост спецпредставителя президента России по цифровому развитию. Песков считает, что нынешняя система уголовного наказания за репосты и лайки доказала свою несостоятельность.

Чиновник считает, что для рассмотрения именно таких дел стоило бы создать «тонко настроенный оценочный механизм». Более того, Песков считает, что угрозой для общества могут стать слишком активные действия в социальных сетях.

Свое мнение спецпредставитель президента РФ озвучил в преддверии ВЕФ:

«Мне кажется, сейчас принципиально важно посмотреть на тот массив дел, который у нас появился за последнее время, и отделить те, где репосты и мемы вели к негативным последствиям, и те, где это использовалось лишь для того, чтобы получить лайк».

Поскольку это очень тонкие нюансы, которые, безусловно, должны учитываться системой наказания, Песков допустил появление в России специальных органов, которые будут заниматься только анализом таких дел.

«Я допускаю, что в будущем нам в судебной системе придется выработать специализированные институты, которые будут накапливать соответствующую экспертизу. Мне кажется, что сегодняшний метод работает не очень эффективно», — передали слова Пескова СМИ.

«В судебной системе ранее уже были выделены в отдельные направления арбитраж, суды в области торгового права. По мере развития цифрового права я допускаю и появление специализированных институций».

Напомним, что в прошлом месяце инициативу отмены уголовной ответственности за публикации и репосты в социальных сетях поддержало Министерство цифрового развития, связи и массовых коммуникаций.

А в прошлом месяце Арсений Недяк, заместитель директора департамента государственной политики в области СМИ, заявил, что Минкомсвязь поддерживает проект об исключении уголовной ответственности за репосты в Сети. Соответствующее решение обсуждалось на экспертном совещании Общероссийского народного фронта.

Также в преддверии ВЕФ Песков заявил, что в России разрабатывают новый механизм идентификации пользователей в Сети, который будет представлять собой облачную подпись.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Microsoft: системы на базе ИИ никогда не станут абсолютно безопасными

Команда Microsoft AI Red Team (AIRT) подытожила свой опыт тестирования 100 продуктов, созданных в компании на основе генеративного ИИ, и пришла к выводу, что обеспечение безопасности таких систем — нескончаемый процесс.

Из-за фундаментальных ограничений ИИ-моделей угрозы вроде инъекции стимула и джейлбрейка в этой сфере неистребимы.

Однако такие атаки можно сделать более затратными — как и в случае с другими ИТ-рисками, которые удается снизить, применяя, к примеру, тактику эшелонированной защиты (defense-in-depth) или следуя принципам конструктивной безопасности (security-by-design).

Делясь опытом, в Red Team также отметили (PDF), что для выстраивания защиты ИИ-системы важно понимать ее возможности и учитывать сферу применения. Так, большие языковые модели (БЯМ, LLM) склонны слепо следовать инструкциям пользователя, и их легко обмануть, спрятав вредоносный контент в большом объеме безобидного текста при вводе.

Также атака на ИИ-помощника по литературному творчеству вряд ли приведет к серьезным последствиям, а в случае с LLM, предназначенной для анализа историй болезни, может нанести вред здоровью пациентов и поставить крест на репутации медучреждения.

Чтобы заставить LLM выдать вредный совет, необязательно проводить градиентные состязательные атаки. Тот же эффект можно получить более дешевым способом, манипулируя интерфейсом либо введя в заблуждение модель языка и технического зрения.

 

Еще одно важное наблюдение, которым поделились специалисты: использование ИИ увеличивает существующие риски и создает новые.

Напомним, вопросы использования ИИ недавно обсуждались в ходе Открытой конференции Института системного программирования РАН им. В. П. Иванникова. Участники пленарной дискуссии сошлись во мнении, что внедрение ИИ-технологий тормозят проблемы доверия и безопасности таких сервисов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru