Хакер из Anonymous, атаковавший детские больницы, получил 10 лет тюрьмы

Хакер из Anonymous, атаковавший детские больницы, получил 10 лет тюрьмы

Хакер из Anonymous, атаковавший детские больницы, получил 10 лет тюрьмы

Житель Массачусетса был приговорен к 10 годам тюрьмы за организацию DDoS-атак на детские больницы в США, которые имели место в 2014 году. Оказалось, что 34-летний Мартин Готесфелд действовал от имени знаменитой группировки хакеров Anonymous.

В качестве возмещения причиненного DDoS-атаками ущерба осужденный должен выплатить $443 000. На данный момент известно, что атаки производились с помощью ботнета, который насчитывал 40 000 взломанных маршрутизаторов.

Сообщается, что эти атаки были частью кампании, известной под именем #OpJustina — именно за этой кибероперацией стоят киберпреступники из Anonymous. Суть #OpJustina заключается в том, чтобы посеять общественный резонанс вокруг дела маленькой девочки Джастины Пельтье.

История Пельтье говорит о том, что девочку разлучили с родителями после того, как ей поставили диагноз в детской больнице Бостона.

Атаки, как писали издания на тот момент, были очень масштабными — бостонская больница была выведена из строя на несколько дней.

Правоохранители вычислили Готесфелда благодаря опубликованному на YouTube видео. Обыскав его дом в 2014 году, служащие правопорядка не стали заключать киберпреступника под сражу. Арестован хакер был уже позднее — в 2016 году. С судебными документами можно ознакомиться по этой ссылке.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Microsoft: системы на базе ИИ никогда не станут абсолютно безопасными

Команда Microsoft AI Red Team (AIRT) подытожила свой опыт тестирования 100 продуктов, созданных в компании на основе генеративного ИИ, и пришла к выводу, что обеспечение безопасности таких систем — нескончаемый процесс.

Из-за фундаментальных ограничений ИИ-моделей угрозы вроде инъекции стимула и джейлбрейка в этой сфере неистребимы.

Однако такие атаки можно сделать более затратными — как и в случае с другими ИТ-рисками, которые удается снизить, применяя, к примеру, тактику эшелонированной защиты (defense-in-depth) или следуя принципам конструктивной безопасности (security-by-design).

Делясь опытом, в Red Team также отметили (PDF), что для выстраивания защиты ИИ-системы важно понимать ее возможности и учитывать сферу применения. Так, большие языковые модели (БЯМ, LLM) склонны слепо следовать инструкциям пользователя, и их легко обмануть, спрятав вредоносный контент в большом объеме безобидного текста при вводе.

Также атака на ИИ-помощника по литературному творчеству вряд ли приведет к серьезным последствиям, а в случае с LLM, предназначенной для анализа историй болезни, может нанести вред здоровью пациентов и поставить крест на репутации медучреждения.

Чтобы заставить LLM выдать вредный совет, необязательно проводить градиентные состязательные атаки. Тот же эффект можно получить более дешевым способом, манипулируя интерфейсом либо введя в заблуждение модель языка и технического зрения.

 

Еще одно важное наблюдение, которым поделились специалисты: использование ИИ увеличивает существующие риски и создает новые.

Напомним, вопросы использования ИИ недавно обсуждались в ходе Открытой конференции Института системного программирования РАН им. В. П. Иванникова. Участники пленарной дискуссии сошлись во мнении, что внедрение ИИ-технологий тормозят проблемы доверия и безопасности таких сервисов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru