Иранский вирус вывел из строя 75% компьютеров саудовской национальной нефтяной компании

Иранский вирус вывел из строя 75% компьютеров нефтяной компании

Два дня назад национальная нефтяная компания Саудовской Аравии Aramco сообщила, что в результате хакерской атаки, произведенной с помощью компьютерного вируса, была выведена из строя часть компьютерной сети компании.



В сообщении Aramco, крупнейшей по объемам добываемой нефти в мире, хакерская атака не достигла цели – сокращения темпов добычи нефти.

 Ответственность за хакерскую атаку взяла на себя ранее неизвестная группировка "Меч правосудия", однако по утверждению специалистов, за созданием вируса, получившего название "Шамун", стояли государственные структуры, скорее всего – иранские, передает newsru.co.il

Газета "Калькалист" сообщает со ссылкой на осведомленные источники, что, скорее всего, Aramco занижает размеры ущерба. По мнению специалистов, предпочитающих оставаться анонимными, в результате хакерской атаки из строя были выведены три четверти компьютерной сети компании.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Red Teaming в применении к ИИ требует переосмысления

Учения Generative Red Team, проведенные в рамках DEF CON 32, показали, что подобный способ оценки защищенности ИИ не дает адекватной картины. Эксперты предлагают создать систему, подобную CVE и учитывающую целевое назначение объектов анализа.

В мероприятии приняли участие (PDF) около 500 добровольцев с разным опытом аудита больших языковых моделей (БЯМ, LLM). В 48 случаях за выявленные недочеты были выплачены премии — суммарно $7850.

Тем не менее организаторы пришли к выводу, что метод Red Teaming в применении к ИИ необходимо усовершенствовать. Большой проблемой оказалось фрагментарность документации по LLM, которые к тому же разнятся по предусмотренному применению.

Без учета назначения ИИ-модели и сообразных встроенных ограничений результаты таких проверок на прочность могут ввести в заблуждение. Более того, отсутствие единых критериев оценки может привести к противоречивым заключениям.

Бурный рост и развитие ИИ-технологий создали новые риски, однако ни у кого пока нет четкого представления о том, как тестировать такие продукты и выстраивать их защиту.

Обеспечение безопасности LLM, по словам экспертов, — нескончаемый процесс. Умные помощники могут ошибаться, им свойственны галлюцинации, предвзятость (из-за неправильного обучения), уязвимость к инъекции стимула. Подобные системы бесперспективно защищать от взлома, однако его можно сделать более затратным, а последствия — краткосрочными.

Организаторы Generative Red Team призывают ИИ- и ИБ-сообщества совместными усилиями решить настоятельные проблемы. В противном случае техническая революция приведет к появлению ИИ-инструментов, на которые невозможно положиться; живой пример тому — скороспелка DeepSeek.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru