Стриминговые устройства EZCast компрометируют безопасность пользователей

Стриминговые устройства EZCast компрометируют безопасность пользователей

Цифровые медиаплееры EZCast работают по тому же принципу, что и устройства Chromecast компании Google. Эти HDMI-донглы удобны и подходят практически к любому телевизору, превращая его в полноценный Smart TV. Но специалисты компании Check Point предупреждают: использование EZCast может привести к компрометации всей домашней сети.

Эксперт компании Check Point Касиф Дикель (Kasif Dekel) обнаружил в прошивке донглов EZCast сразу несколько багов. К сожалению, компания EZCast до сих пор не выпустила исправление, хотя исследователь давно сообщил им о найденных проблемах.

Дикель выяснил, что для упрощения работы донгл создает собственную Wi-Fi сеть, чтобы без проблем подключить к EZCast другие устройства (ноутбуки, ПК или мобильные гаджеты) и начать стримить контент. Проблема в том, что эта сеть Wi-Fi защищена лишь простым паролем, длина которого составляет 8 символов. Устройство также не имеет никакой защиты против брутфорс-атак, так что взломать пароль крайне легко, пишет xakep.ru.

Дикель пишет, что злоумышленник также может использовать приемы социальной инженерии и создать вредоносную ссылку, которую можно отправить в Skype или Facebook жертвы. Если такое вредоносное сообщение будет открыто на ТВ, пока пользователь находится в сети через телевизор с подключенным EZCast, атакующий получит доступ к сети донгла.

Исследователь объясняет, что пользователей не спасет тот факт, что EZCast подключается к телевизору, а не к ПК. Если атакующий сумеет проникнуть в Wi-Fi сеть донгла, он без проблем доберется и до других устройств в этой сети – ноутбуков, ПК и так далее.

 «Устройства EZCast создавались без оглядки на безопасность, — пишет эксперт. — Нам [с коллегами] удалось обнаружить несколько критических уязвимостей и это лишь верхушка айсберга. Вы продали бы root shell для своей сети за $25? По сути, покупая устройство EZCast, вы делаете именно это».

По итогам своих изысканий, Дикель обнаружил две уязвимости, позволяющие произвести удаленное выполнение произвольного кода, одну возможность инъекции команд и один баг, связанный с неограниченной загрузкой файлов. Эксплуатация найденных проблем позволит атакующему получить root-привилегии в системе.

Как уже было сказано выше, производитель донглов проигнорировал все сообщения об уязвимостях, посланные экспертами. Исправлений пока нет и, похоже, не предвидится.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер разработал комплексную модель угроз для ИИ

Эксперты Сбера разработали модель угроз для искусственного интеллекта (включая генеративный ИИ), охватывающую все этапы жизненного цикла таких систем — от подготовки данных до интеграции в приложения.

Документ опубликован на портале киберграмотности Сбера «Кибрарий». Он не привязан к конкретной отрасли и предназначен для оценки потенциальных уязвимостей, адаптации защитных механизмов и минимизации рисков.

В исследовании описаны 70 угроз, связанных с применением как предиктивных, так и генеративных моделей ИИ. Особое внимание уделено рискам, возникающим при использовании генеративных систем, чье распространение стремительно растёт. Для каждой угрозы определены затрагиваемые свойства информации — конфиденциальность, целостность и доступность, а также объекты воздействия, будь то обучающие датасеты или модели с открытым исходным кодом. Модель включает схему взаимодействия таких объектов и их детальное описание.

«Сбер активно применяет технологии искусственного интеллекта в бизнес-процессах и глубоко понимает возникающие угрозы. В ответ на эти вызовы мы создали первую в России модель киберугроз, охватывающую весь спектр рисков, связанных с разработкой и использованием ИИ. Этот документ позволит организациям любой сферы — от финансов до госструктур и промышленности — системно оценивать уязвимости, настраивать защитные меры и снижать возможные потери», — отметил вице-президент Сбера по кибербезопасности Сергей Лебедь.

Ключевые риски при использовании ИИ — это принятие ошибочных решений и утечки данных, использованных при обучении моделей. Кроме того, ИИ активно используют киберпреступные группировки в своих целях.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru