Власти Великобритании не до конца доверяют китайской Huawei

Власти Великобритании не до конца доверяют китайской Huawei

Власти Великобритании не до конца доверяют китайской Huawei

Правительство Великобритании не до конца доверяет продукции китайской компании Huawei. Согласно опубликованному властями отчету, инфраструктура компании лишь «частично внушает уверенность» в отсутствии с ее стороны угроз национальной безопасности.

Исследование выявило недостатки в технических процессах китайской фирмы, которые могут поставить под угрозу сети телекоммуникаций Великобритании. Также в отчете говорится, что для устранения этих недостатков потребуется «значительная работа».

Со своей стороны, Huawei признала, что существуют некоторые области, которые компания могла бы улучшить.

Пресс-служба Huawei добавила:

«Мы благодарны за наличие такой обратной связи. Будем стремиться решить эти проблемы. Кибербезопасность остается основным приоритетом Huawei, и мы будем совершенствовать наши инженерные процессы и системы управления рисками».

Помимо этого, Центр правительственной связи (GCHQ), спецслужба Великобритании, отметила, что китайская компания, к сожалению, не в состоянии надлежащим образом следить за использованием сторонних компонентов.

«Было установлено, что не все компоненты управляются с помощью процессов компании. В частности, критически важное для безопасности программное обеспечение сторонних производителей, используемое в различных продуктах, недостаточно контролируется», — гласит отчет.

Напомним, что США также активно следят за продукцией Huawei — в Белом доме рассматривают возможность реализации законопроекта, запрещающего некоторым китайским компаниям продавать свою продукцию в Штатах. Согласно источникам, эти меры могут затронуть таких производителей, как Huawei и ZTE.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Red Teaming в применении к ИИ требует переосмысления

Учения Generative Red Team, проведенные в рамках DEF CON 32, показали, что подобный способ оценки защищенности ИИ не дает адекватной картины. Эксперты предлагают создать систему, подобную CVE и учитывающую целевое назначение объектов анализа.

В мероприятии приняли участие (PDF) около 500 добровольцев с разным опытом аудита больших языковых моделей (БЯМ, LLM). В 48 случаях за выявленные недочеты были выплачены премии — суммарно $7850.

Тем не менее организаторы пришли к выводу, что метод Red Teaming в применении к ИИ необходимо усовершенствовать. Большой проблемой оказалось фрагментарность документации по LLM, которые к тому же разнятся по предусмотренному применению.

Без учета назначения ИИ-модели и сообразных встроенных ограничений результаты таких проверок на прочность могут ввести в заблуждение. Более того, отсутствие единых критериев оценки может привести к противоречивым заключениям.

Бурный рост и развитие ИИ-технологий создали новые риски, однако ни у кого пока нет четкого представления о том, как тестировать такие продукты и выстраивать их защиту.

Обеспечение безопасности LLM, по словам экспертов, — нескончаемый процесс. Умные помощники могут ошибаться, им свойственны галлюцинации, предвзятость (из-за неправильного обучения), уязвимость к инъекции стимула. Подобные системы бесперспективно защищать от взлома, однако его можно сделать более затратным, а последствия — краткосрочными.

Организаторы Generative Red Team призывают ИИ- и ИБ-сообщества совместными усилиями решить настоятельные проблемы. В противном случае техническая революция приведет к появлению ИИ-инструментов, на которые невозможно положиться; живой пример тому — скороспелка DeepSeek.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru