Уязвимость в Steam позволяла заражать компьютеры через игры

Уязвимость в Steam позволяла заражать компьютеры через игры

Уязвимость в Steam позволяла заражать компьютеры через игры

Специалист компании One Up Security Джастин Тафт (Justin Taft) обнаружил занимательную уязвимость в составе Valve Source SDK. Исследователь пишет, что уязвимость в движке Source затрагивала такие популярные игры, как Counter Strike: Global Offensive, Team Fortress 2, Left 4 dead 2, Potral 2.

Дело в том, что игры, работающие на движке Source, используют Source SDK, чтобы сторонние компании и независимые разработчики могли создавать собственные кастомные моды. К тому же файлы карт для движка Source позволяют разработчикам добавлять кастомный контент (текстуры, скины, модели трупов), который подгружается вместе с картой.

Корень проблемы лежал в обычном переполнении буфера (buffer overflow), однако через эту уязвимость можно было добиться и выполнения произвольного кода на клиентской или серверной стороне. В качестве примера эксплуатации бага Тафт приводит следующий кейс: если создать кастомую модель трупа, которая будет загружаться после смерти игрового персонажа, к этой модели можно привязать загрузку произвольного вредоносного кода. Как видно на гифке ниже, смерть игрока в TF2 влечет за собой выполнение вредоносных инструкций, пишет xakep.ru.

Исследователь сообщает, что разработчики Valve устранили проблему еще в июне 2017 года, и разработчиков модов попросили обновить Steam Source SDK до актуальной версии, установив этот патч.

Пока Тафт не обнародовал proof-of-concept эксплоита, так как он хочет дать разработчикам больше времени на установку исправления. Тем не менее, через несколько недель эксплоит будет опубликован здесь.

«Видеоигры – обычное дело в комнатах отдыха для сотрудников [в различных компаниях], а также у них дома. Эксплуатация этой уязвимости может использоваться для осуществления направленных атак, проникновения на изолированные от сети компьютеры и в приватные сети. Снизить риски очень просто: игры не должны устанавливаться на рабочие устройства. Игровые машины должны находиться в недоверенной сети, а рабочие устройства не должны подключаться к недоверенным сетям», — пишет Тафт.

Исследователь советует разработчикам игр и модов включать ASLR защиту бинарников, и размышляет, что, возможно, оптимальным решением вообще был бы запуск каждой Steam игры в отдельной, изолированной песочнице. Также Тафт советует временно отключить автоматическую загрузку сторонних игровых компонентов, по крайней мере, для новых и недоверенных игровых серверов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Преступлений с применением генеративного ИИ станет в 10 раз больше

По оценкам экспертов, в 2025 году количество преступлений, совершённых с использованием генеративного искусственного интеллекта (ИИ), может увеличиться в 10 раз по сравнению с 2024 годом.

Причём данные технологии начнут активно применять не только киберпреступники, но и представители традиционного криминального мира.

Первым известным случаем использования генеративного ИИ для реального преступления стал подрыв электромобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Злоумышленник воспользовался ChatGPT для планирования атаки.

«Рост преступлений, связанных с ИИ, официально не фиксируется, однако его масштабы можно оценить по числу ботов и сгенерированного ими контента. В 2025 году прирост подобных преступлений может составить от восьми до десятикратного увеличения по сравнению с предыдущим годом», — заявил руководитель департамента расследований T.Hunter Игорь Бедеров в комментарии для «Известий». Он отметил, что меры защиты можно обойти с помощью простых методов промт-инжиниринга, например, внедряя инструкции по созданию взрывных устройств в текстах художественных произведений.

По мнению экспертов, в 2025 году генеративный ИИ будут использовать до 90% киберпреступных группировок. Инструменты ИИ для составления фишинговых сообщений уже давно освоены, и их применение будет только расти. Генеральный директор Phishman Алексей Горелкин считает, что технологии нейросетей и чат-ботов могут взять на вооружение до 90% группировок, специализирующихся на социальной инженерии.

Старший аналитик Positive Technologies Екатерина Снегирёва подчеркнула, что генеративный ИИ активно используется для создания и модификации вредоносного кода.

Так, в июне 2024 года была зафиксирована фишинговая атака с использованием вредоносных скриптов, сгенерированных нейросетями. При этом 38% компаний применяют генеративный ИИ бесконтрольно, что значительно повышает риск утечек данных.

Эксперты F.A.C.C.T. прогнозируют: в 2025 году возрастёт число атак с использованием технологий дипфейков, массового автоматизированного фишинга и совершенствования методов поиска уязвимостей в программных системах. Впрочем, уже в 2024 году массовое использование дипфейков стало реальностью благодаря инструментам, позволяющим имитировать голос в режиме реального времени.

В России ситуация будет менее острой. Это связано с ограниченной доступностью зарубежных расширенных версий генеративного ИИ для граждан и встроенными мерами защиты в российских аналогах. Например, в отечественных системах предусмотрены фильтры на ключевые стоп-слова, которые невозможно обойти. Тем не менее регулирование использования генеративного ИИ требует постоянного уточнения и адаптации.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru