Twitter вводит новые правила для борьбы с политическим влиянием

Twitter вводит новые правила для борьбы с политическим влиянием

Twitter вводит новые правила для борьбы с политическим влиянием

Социальная платформа Twitter внесла значительные изменения в правила использования сайта, чтобы противостоять вмешательству в промежуточные выборы США со стороны других государств. Также новые меры предназначаются для борьбы с огромным количеством спама и жестокости, которые некоторые личности культивируют на платформе.

Всего важных изменений оказалось три, одно из них затрагивает вопрос распространения скомпрометированных данных в социальной сети. У Twitter уже был пункт, запрещающий распространения таких материалов — персональную информацию или коммерческую тайну.

Однако теперь команда соцсети будет банить учетные записи, которые подозреваются во взломах, угрожают взломом или пытаются скомпрометировать аккаунты других пользователей.

Интересно, что раньше Twitter проявлял мало интереса относительно блокирования учетных записей киберпреступников. Например, аккаунт печально известной группировки The Dark Overlord по сей день активен на платформе.

Теперь же представители социальной сети утверждают, что подобные учетные записи будут блокироваться куда быстрее.

Однако больше всего внимания Twitter уделит проблеме политической подоплеки вредоносной деятельности некоторых отдельных аккаунтов. Основная задача — как можно эффективнее убрать с платформы все, что может хоть как-то повлиять на результаты и процесс выборов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Microsoft: системы на базе ИИ никогда не станут абсолютно безопасными

Команда Microsoft AI Red Team (AIRT) подытожила свой опыт тестирования 100 продуктов, созданных в компании на основе генеративного ИИ, и пришла к выводу, что обеспечение безопасности таких систем — нескончаемый процесс.

Из-за фундаментальных ограничений ИИ-моделей угрозы вроде инъекции стимула и джейлбрейка в этой сфере неистребимы.

Однако такие атаки можно сделать более затратными — как и в случае с другими ИТ-рисками, которые удается снизить, применяя, к примеру, тактику эшелонированной защиты (defense-in-depth) или следуя принципам конструктивной безопасности (security-by-design).

Делясь опытом, в Red Team также отметили (PDF), что для выстраивания защиты ИИ-системы важно понимать ее возможности и учитывать сферу применения. Так, большие языковые модели (БЯМ, LLM) склонны слепо следовать инструкциям пользователя, и их легко обмануть, спрятав вредоносный контент в большом объеме безобидного текста при вводе.

Также атака на ИИ-помощника по литературному творчеству вряд ли приведет к серьезным последствиям, а в случае с LLM, предназначенной для анализа историй болезни, может нанести вред здоровью пациентов и поставить крест на репутации медучреждения.

Чтобы заставить LLM выдать вредный совет, необязательно проводить градиентные состязательные атаки. Тот же эффект можно получить более дешевым способом, манипулируя интерфейсом либо введя в заблуждение модель языка и технического зрения.

 

Еще одно важное наблюдение, которым поделились специалисты: использование ИИ увеличивает существующие риски и создает новые.

Напомним, вопросы использования ИИ недавно обсуждались в ходе Открытой конференции Института системного программирования РАН им. В. П. Иванникова. Участники пленарной дискуссии сошлись во мнении, что внедрение ИИ-технологий тормозят проблемы доверия и безопасности таких сервисов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru