Специалисты описали способ обхода WAF от AWS, Cloudflare, F5, Imperva

Специалисты описали способ обхода WAF от AWS, Cloudflare, F5, Imperva

Специалисты описали способ обхода WAF от AWS, Cloudflare, F5, Imperva

Исследователи указали на новый вектор атаки, который можно использовать для обхода средств фильтрации трафика прикладного уровня (Web Application Firewall, WAF) и проникновения в системы. Воспользовавшись этим вектором, злоумышленники могут в теории добраться до корпоративных данных.

WAF, как известно, являются одним из ключевых элементов защиты, помогающим фильтровать, мониторить и блокировать HTTP(S)-трафик (как входящий в веб-приложение, так и исходящий). Такие файрволы помогают защищаться от атак вида CSRF (межсайтовая подделка запроса) и XSS (межсайтовый скриптинг), а также от SQL-инъекций и т. п.

После ухода зарубежных вендоров мы подготовили материал «Какой отечественный WAF выбрать в рамках импортозамещения». Также на одном из эфиров AM Live мы обсуждали проблему защиты веб-приложений в условиях санкционного давления.

Обход файрволов уровня веб-приложений осуществляется за счёт прикрепления синтаксиса JSON к пейлоадам при SQL-инъекции.

«В этом случае WAF не сможет пропарсить такие пейлоады. Большинство WAF-систем легко детектируют атаки SQLi, однако подсовывание JSON может “ослепить“ файрволы», — объясняет Ноам Мош, исследователь из Claroty.

По словам специалистов, этот способ сработал против WAF от Amazon Web Services (AWS), Cloudflare, F5, Imperva и Palo Alto Networks. На данный момент вендоры устранили эту лазейку со свежими обновлениями.

 

В Claroty предупредили, что киберпреступники, обойдя WAF, смогут пробраться в корпоративную среду и развить атаку уже оттуда.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Microsoft: системы на базе ИИ никогда не станут абсолютно безопасными

Команда Microsoft AI Red Team (AIRT) подытожила свой опыт тестирования 100 продуктов, созданных в компании на основе генеративного ИИ, и пришла к выводу, что обеспечение безопасности таких систем — нескончаемый процесс.

Из-за фундаментальных ограничений ИИ-моделей угрозы вроде инъекции стимула и джейлбрейка в этой сфере неистребимы.

Однако такие атаки можно сделать более затратными — как и в случае с другими ИТ-рисками, которые удается снизить, применяя, к примеру, тактику эшелонированной защиты (defense-in-depth) или следуя принципам конструктивной безопасности (security-by-design).

Делясь опытом, в Red Team также отметили (PDF), что для выстраивания защиты ИИ-системы важно понимать ее возможности и учитывать сферу применения. Так, большие языковые модели (БЯМ, LLM) склонны слепо следовать инструкциям пользователя, и их легко обмануть, спрятав вредоносный контент в большом объеме безобидного текста при вводе.

Также атака на ИИ-помощника по литературному творчеству вряд ли приведет к серьезным последствиям, а в случае с LLM, предназначенной для анализа историй болезни, может нанести вред здоровью пациентов и поставить крест на репутации медучреждения.

Чтобы заставить LLM выдать вредный совет, необязательно проводить градиентные состязательные атаки. Тот же эффект можно получить более дешевым способом, манипулируя интерфейсом либо введя в заблуждение модель языка и технического зрения.

 

Еще одно важное наблюдение, которым поделились специалисты: использование ИИ увеличивает существующие риски и создает новые.

Напомним, вопросы использования ИИ недавно обсуждались в ходе Открытой конференции Института системного программирования РАН им. В. П. Иванникова. Участники пленарной дискуссии сошлись во мнении, что внедрение ИИ-технологий тормозят проблемы доверия и безопасности таких сервисов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru