Тестирование на масштабируемость в облачной среде

Тестирование на масштабируемость в облачной среде

Не так давно в Trend Micro задались целью выполнить тест масштабируемости одного из собственных продуктов (Trend Micro Deep Security). Скорый поверхностный расчет показал, что для выполнения этой задачи потребовалось бы 35 серверов Dell 710 с возможностью виртуализации. Найти столько доступных серверов – непростая задача для любой компании, а о том, чтобы купить столько серверов ради месячного тестирования, не могло быть и речи.



Поэтому было решено обратиться за помощью к облакам. Подходящим решением стала инфраструктура Amazon Web Services (AWS), с помощью которой удалось получить необходимое количество менее крупных ресурсов. (В данном случае небольшие экземпляры идеально подходили для моделирования крупной архитектуры «менеджер-агент», причем каждый экземпляр моделировал множество агентов).

Следует иметь в виду, что просто открыть учетную запись и сделать запрос на 1000 небольших экземпляров не удастся. Сотрудники Amazon связываются с клиентом по электронной почте, чтобы определить требуемое соотношение типов экземпляров, платформ, зон доступности и регионов, которые будут выгодны как вашему проекту, так и AWS. Сразу после определения конфигурации мы разработали необходимые инструменты быстрого увеличения или уменьшения масштаба нашей тестовой среды. К ним относились AMI (шаблоны) и инструменты, использовавшие интерфейсы прикладного программирования для обнаружения и мониторинга ресурсов.

Нас не миновали странности платформы AWS, такие как перекос временной диаграммы при активном использовании ресурсов ЦП, некорректная информация о ресурсах ЦП для небольших экземпляров в CloudWatch и неизбежные «войны цен» за точечные экземпляры. Из-за особого характера тестов не все шло по плану. Порой при увеличении масштаба возникали сообщения об ошибке от интерфейса прикладного программирования AWS с формулировкой «недостаточно ресурсов». Будет нелишним иметь запасные варианты на случай, когда нужный тип экземпляра или регион перегружены.

В процессе решения различных задач платформа AWS показала хорошие возможности поиска и быстрого решения проблем с масштабируемостью. Имея возможность быстро получить сотни виртуальных машин с одного AMI, мы могли увеличивать и уменьшать масштаб в зависимости от условий тестирования.

В итоге были достигнуты поставленные цели по масштабируемости и потрачено гораздо меньше средств.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google дважды латала одни и те же дыры в Quick Share из-за обхода патча

Прошлым летом Google закрыла в Windows-версии Quick Share девять уязвимостей; некоторые в связке позволяли удаленно выполнить сторонний код в системе. Созданные патчи оказались неполными, и их пришлось заменить.

Возможность проведения RCE-атаки на Windows через эксплойт Quick Share обнаружили исследователи из Safebreach. Когда они проверили выпущенные заплатки, выяснилось, что пару из них можно с легкостью обойти.

Одна некорректно решенная проблема могла повлечь отказ приложения Google для быстрого обмена файлами (DoS). Другая (CVE-2024-38272) позволяла без согласия юзера Quick Share передать на его компьютер файл, и тот автоматом записывался на диск.

После исправления утилита стала опознавать такие сюрпризы как Unknown File («неизвестные файлы») и удалять их по завершении сессии файлообмена. Как оказалось, этот фикс можно обойти, передав в рамках сессии два разных файла и присвоив содержимому пакетов (пейлоад) один и тот же ID: оба файла попадут в Загрузки, но сотрется потом только один.

 

Обход патча для CVE-2024-38272 был зарегистрирован как уязвимость CVE-2024-10668. Новую проблему Quick Share для Windows устранили в ноябре прошлого года с выпуском сборки 1.0.2002.2.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru