Китайские хакеры APT3 завладели инструментами АНБ задолго до слива

Китайские хакеры APT3 завладели инструментами АНБ задолго до слива

Китайские хакеры APT3 завладели инструментами АНБ задолго до слива

Китайские правительственные киберпреступники из группы APT3 смогли выкрасть у АНБ США опасные инструменты для осуществления кибератак. Об этом говорится в новом отчете компании Check Point.

Эксперты полагают, что китайские хакеры намеренно расставили ловушки, чтобы завладеть кибероружием США. Своим мнением на этот счёт поделился сотрудник Check Point Марк Лечтик.

«Все дело в том, что Китай во что бы то ни стало хотел обладать теми же возможностями в киберпространстве, которые были у Запада», — объясняет Лечтик. — «При этом власти КНР не хотели вкладывать большие средства в разработку, поэтому пошли по пути жульничества».

В Check Point подчеркнули, что Китай получил доступ к инструментам, разработанным Equation Group — специальным подразделением, отвечающим за наступательные кибероперации. Более того, есть доказательства использования этих инструментов группой APT3 задолго до их утечки, которую организовала группа Shadow Brokers.

Таким образом, минимум за год до утечки от рук Shadow Brokers APT3 использовала инструменты Equation Group, чтобы пробраться в системы атакуемых организаций. Особо стоит отметить, что слитые Shadow Brokers варианты инструментов отличались от используемых APT3, то есть источник у них точно был разный.

Специалисты считают, что APT3 завладела и адаптировала под свои нужды инструмент, известный под именем EternalRomance. В исполнении китайских хакеров этот инструмент получил название Bemstour.

Используя Bemstour, киберпреступники могли удаленно выполнять код на уровне ядра атакуемых компьютеров.

Одну из состоятельных версий, объясняющих появления в руках китайских хакеров инструментов АНБ, озвучила компания Symantec. По словам специалистов, APT3 могла захватить кибероружие во время атаки АНБ на китайские системы, предварительно расставив соответствующие ловушки.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru