Уязвимости в старых версиях FFmpeg

Уязвимости в старых версиях FFmpeg

Microsoft и Secunia опубликовали информацию об уязвимостях в наборе open source инструментов и библиотек FFmpeg до версии 0.11.2, включительно. Как известно, FFmpeg 1.0 вышел 1 октября 2012 года, то есть относительно недавно. Хотя в последней версии уязвимости закрыты, но наверняка многие пользователи ещё не успели обновиться.

Широкая распространённость FFmpeg на всех платформах делает уязвимости даже в старых версиях библиотеки чрезвычайно опасными и подходящими для создания успешных эксплойтов.

Предупреждение Microsoft MSVR12-017 относится к версиям FFmpeg 0.10 и более ранним. Согласно описанию, библиотека libavcodec некорректно обрабатывает содержимое медиафайлов ASF, QuickTime (QT) и Windows Media Video (WMV), что позволяет внедрить в них вредоносный код и исполнить код в системе с теми же правами, под которыми работает пользователь. Если юзер работает с правами администратора, то код получает полные права в системе, может незаметно устанавливать программное обеспечение, просматривать/изменять/удалять файлы и т.д., передает  xakep.ru 

Microsoft заблаговременно сообщила разработчикам FFmpeg об обнаруженных уязвимостях, которым присвоены номера CVE-2012-5359, CVE-2012-5360 и CVE-2012-5361.

В сообщении от компании Secunia указаны те же уязвимости, но написано, что они присутствуют вплоть до версии 0.11.2, которая была последней версией FFmpeg до релиза 1.0.

Дополнительно поясняется, что ошибка содержится в коде libavcodec/mpegaudiodec.c, а именно — в реализации функции ff_compute_band_indexes(). Специалисты Secunia указывают на связь этой уязвимости с багом в mp3dec, о котором сообщил Костя Шишков в мае 2012 года.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Преступлений с применением генеративного ИИ станет в 10 раз больше

По оценкам экспертов, в 2025 году количество преступлений, совершённых с использованием генеративного искусственного интеллекта (ИИ), может увеличиться в 10 раз по сравнению с 2024 годом.

Причём данные технологии начнут активно применять не только киберпреступники, но и представители традиционного криминального мира.

Первым известным случаем использования генеративного ИИ для реального преступления стал подрыв электромобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Злоумышленник воспользовался ChatGPT для планирования атаки.

«Рост преступлений, связанных с ИИ, официально не фиксируется, однако его масштабы можно оценить по числу ботов и сгенерированного ими контента. В 2025 году прирост подобных преступлений может составить от восьми до десятикратного увеличения по сравнению с предыдущим годом», — заявил руководитель департамента расследований T.Hunter Игорь Бедеров в комментарии для «Известий». Он отметил, что меры защиты можно обойти с помощью простых методов промт-инжиниринга, например, внедряя инструкции по созданию взрывных устройств в текстах художественных произведений.

По мнению экспертов, в 2025 году генеративный ИИ будут использовать до 90% киберпреступных группировок. Инструменты ИИ для составления фишинговых сообщений уже давно освоены, и их применение будет только расти. Генеральный директор Phishman Алексей Горелкин считает, что технологии нейросетей и чат-ботов могут взять на вооружение до 90% группировок, специализирующихся на социальной инженерии.

Старший аналитик Positive Technologies Екатерина Снегирёва подчеркнула, что генеративный ИИ активно используется для создания и модификации вредоносного кода.

Так, в июне 2024 года была зафиксирована фишинговая атака с использованием вредоносных скриптов, сгенерированных нейросетями. При этом 38% компаний применяют генеративный ИИ бесконтрольно, что значительно повышает риск утечек данных.

Эксперты F.A.C.C.T. прогнозируют: в 2025 году возрастёт число атак с использованием технологий дипфейков, массового автоматизированного фишинга и совершенствования методов поиска уязвимостей в программных системах. Впрочем, уже в 2024 году массовое использование дипфейков стало реальностью благодаря инструментам, позволяющим имитировать голос в режиме реального времени.

В России ситуация будет менее острой. Это связано с ограниченной доступностью зарубежных расширенных версий генеративного ИИ для граждан и встроенными мерами защиты в российских аналогах. Например, в отечественных системах предусмотрены фильтры на ключевые стоп-слова, которые невозможно обойти. Тем не менее регулирование использования генеративного ИИ требует постоянного уточнения и адаптации.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru