Баг Looney Tunables открывает root-доступ в популярных дистрибутивах Linux

Баг Looney Tunables открывает root-доступ в популярных дистрибутивах Linux

Баг Looney Tunables открывает root-доступ в популярных дистрибутивах Linux

Уязвимость под названием Looney Tunables затрагивает популярные дистрибутивы Linux и позволяет атакующему получить права root. Корень проблемы — возможность переполнения буфера в загрузчике ld.so библиотеки GNU C.

Упомянутая библиотека (glibc) отвечает за базовую функциональность; например, за системные вызовы: open, malloc, printf, exit и пр. Она необходима для запуска и работы софта.

Загрузчик в glibc также имеет большое значение и отвечает за подготовку и запуск программ в системе Linux.

Команда Qualys Threat Research Unit обнаружила уязвимость в glibc версии 2.34 в апреле 2021 года. Тогда брешь получила идентификатор CVE-2023-4911. Саид Абаси, один из исследователей, описал (TXT) брешь так:

«Успешная эксплуатация уязвимости привела к получению root-прав в дистрибутивах Fedora, Ubuntu и Debian. Другими словами, это весьма распространённая проблема с большим потенциальным охватом пользователей».

«Мы решили пока не публиковать код нашего эксплойта, однако в скором времени другие специалисты могут подготовить свои варианты и слить их в открытый доступ».

Уязвимость возникает в момент обработки переменной среды GLIBC_TUNABLES на установках Debian 12 и 13, Ubuntu 22.04 и 23.04, а также Fedora 37 и 38 по умолчанию.

Red Hat выпустила собственное описание бага, уточнив, что злоумышленники могут использовать специально подготовленные вредоносные переменные GLIBC_TUNABLES при запуске бинарников с правами SUID.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Новый генератор картинок ChatGPT ловко фальсифицирует счета общепита

В прошлом месяце ИИ-бот ChatGPT обрел новый генератор изображений с выпуском модели 4o. Первые пробы показали, что создаваемые с его помощью картинки с вставленным текстом стали более реалистичными.

Пользователи ChatGPT теперь заставляют его генерировать ресторанные счета и получают вполне убедительные дипфейки.

Фото одной из таких фальшивок было опубликовано в X.

 

 

 

Другие юзеры подхватили идею, добились схожих результатов, а в одном из случаев тот же фейковый счет был для большего правдоподобия «испачкан»:

 

Наиболее реалистичный образец получился у французского специалиста в области ИИ — из-за эффекта помятой бумаги.

 

В TechCrunch тоже опробовали новинку и получили вполне сносный вариант для гриль-бара в Сан-Франциско. Правда, в итоговой сумме вместо точки стояла запятая, к тому же у ChatGPT, видимо, плохо с арифметикой, но эти огрехи при желании можно быстро исправить, конкретизировав подсказки, или с помощью графического редактора.

 

В комментарии для онлайн-издания представитель OpenAI заявила, что все изображения, генерируемые ИИ-ботом, снабжены соответствующими метаданными. Обнаружив нарушение пользовательского соглашения, компания «принимает меры» и «учится» на таких случаях.

В ответ на вопрос, зачем вообще позволять ChatGPT соглашаться на авантюры, попахивающие злоупотреблением, собеседница подчеркнула, что их цель — предоставить юзерам «как можно больше свободы творчества». К тому же фейковые счета необязательно нужны для мошенничества, их можно использовать в целях финансового ликбеза, а также для создания оригинальных картин или продуктовой рекламы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru