Хакеры «похоронили» Руперта Мердока

Хакеры «похоронили» Руперта Мердока

...

Жители туманного Альбиона, зайдя на сайт самого популярного на островах таблоида - лондонской газеты Sun, кто с печалью, но большинство, наверное, с радостью узнали из набранного большими буквами сообщения о кончине газетного магната Руперта Мердока. Напомним, Sun в числе десятков СМИ входит в медиаимперию Мердока - News International.



К счастью, слухи о смерти Мердока, имя которого фигурирует в бушующем сейчас в Великобритании очень громком скандале, связанном с незаконным прослушиванием его журналистами десятков известных британцев, оказались сильно преувеличенными. Тело г-на Мердока, отравившегося палладием, как сообщалось в статье, не было найдено в саду его особняка. Руперт Мердок жив и относительно (для своего преклонного возраста) здоров и будет сегодня оправдываться в палате общин британского парламента. Новость же об его кончине стала очередной «шалостью» группы хакеров, которые называет себя Lulz Security. Это, пожалуй, одна из самых известных хакерских групп. Ранее они взламывали сайты таких крупных компаний, как Sony и Nintendo, коллег Sun - Fox и PBS, сената США и даже ЦРУ, передает kp.ru.


О том, что это их рук дело, хакеры из Lulz Security сообщили через социальную сеть Twitter, куда ввела ссылка из Sun.

Хакеры объявили в июне о прекращении своей деятельности, но сейчас, похоже, передумали и «ожили». Они вновь бросили вызов полиции и властям и просят: «Арестуйте нас. Мы – поколение хакеров, которых невозможно остановить…»

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Microsoft: системы на базе ИИ никогда не станут абсолютно безопасными

Команда Microsoft AI Red Team (AIRT) подытожила свой опыт тестирования 100 продуктов, созданных в компании на основе генеративного ИИ, и пришла к выводу, что обеспечение безопасности таких систем — нескончаемый процесс.

Из-за фундаментальных ограничений ИИ-моделей угрозы вроде инъекции стимула и джейлбрейка в этой сфере неистребимы.

Однако такие атаки можно сделать более затратными — как и в случае с другими ИТ-рисками, которые удается снизить, применяя, к примеру, тактику эшелонированной защиты (defense-in-depth) или следуя принципам конструктивной безопасности (security-by-design).

Делясь опытом, в Red Team также отметили (PDF), что для выстраивания защиты ИИ-системы важно понимать ее возможности и учитывать сферу применения. Так, большие языковые модели (БЯМ, LLM) склонны слепо следовать инструкциям пользователя, и их легко обмануть, спрятав вредоносный контент в большом объеме безобидного текста при вводе.

Также атака на ИИ-помощника по литературному творчеству вряд ли приведет к серьезным последствиям, а в случае с LLM, предназначенной для анализа историй болезни, может нанести вред здоровью пациентов и поставить крест на репутации медучреждения.

Чтобы заставить LLM выдать вредный совет, необязательно проводить градиентные состязательные атаки. Тот же эффект можно получить более дешевым способом, манипулируя интерфейсом либо введя в заблуждение модель языка и технического зрения.

 

Еще одно важное наблюдение, которым поделились специалисты: использование ИИ увеличивает существующие риски и создает новые.

Напомним, вопросы использования ИИ недавно обсуждались в ходе Открытой конференции Института системного программирования РАН им. В. П. Иванникова. Участники пленарной дискуссии сошлись во мнении, что внедрение ИИ-технологий тормозят проблемы доверия и безопасности таких сервисов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru