Обнаружена критическая уязвимость в системах виртуализации, использующих драйвер PCNET

Обнаружена критическая уязвимость в системах виртуализации, использующих драйвер PCNET

В QEMU-драйвере PCNET выявлены уязвимости (CVE-2015-7512, CVE-2015-7504), которые могут использоваться для выполнения кода злоумышленника вне гостевой системы.

Уязвимость CVE-2015-7512 проявляется на внешних сетевых интерфейсах и может быть эксплуатирована удалённо, через отправку специально оформленных сетевых пакетов к гостевой системе, для обеспечения работы которой используется виртуальный сетевой адаптер на основе драйвера PCNET, эмулирующего Ethernet-контроллер AMD PC-Net II. Проблема CVE-2015-7504 проявляется только для интерфейсов в loopback-режиме, т.е. может быть эксплуатирована локальным пользователем гостевой системы.

Проблеме подвержены Xen, KVM (qemu-kvm), VirtualBox и другие системы виртуализации, использующих компоненты QEMU. Что касается Xen, то уязвимость проявляется только для гостевых систем, работающих в режиме HVM с применением виртуального сетевого интерфейса на базе драйвера pcnet ("model=pcnet" в настройках, по умолчанию не используется). Гостевые системы, работающие в режиме паравиртуализации Xen (PV) или запускаемые на архитектуре ARM проблемам не подвержены. В случае успешной экплуатации уязвимостей, атакующий может выполнить код с правами драйверов QEMU (обычно root, а при запуске в режиме stubdomain (qemu-dm) под отдельным изолированным непривилегированным пользователем), пишет opennet.ru.

Первая уязвимость CVE-2015-7512 вызвана ошибкой в коде проверки размера полученных данных, что может привести к записи в буфер блока, превышающего размер выделенной памяти. Условием проявления уязвимости является установка внутри гостевой системы лимита на размер MTU, превышающего параметры хост-системы. Вторая уязвимость CVE-2015-7504 связана с некорректным добавлением кода CRC к буферу с принятыми данными и может быть использовано для записи 4-байтового значения CRC за границу буфера, что позволяет переписать следующий за буфером указатель 's->irq'.

Для оперативного устранения проблемы в QEMU подготовлены патчи (CVE-2015-7512, CVE-2015-7504). Обновления пакетов с устранением уязвимости для дистрибутивов пока не выпущены. Оценить появление обновлений в других дистрибутивах можно на следующих страницах: RHEL, Ubuntu, Debian, CentOS, Fedora, openSUSE, SLES, Gentoo, FreeBSD, NetBSD. 

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru