В США оценили ответ Кремля на утечку данных олигархов (Досье Пандоры)

В США оценили ответ Кремля на утечку данных олигархов (Досье Пандоры)

В США оценили ответ Кремля на утечку данных олигархов (Досье Пандоры)

В США прокомментировали реакцию Кремля на «Досье Пандоры», которое открыло информацию о собственности влиятельных людей, тесно общающиеся с президентом России Владимиром Путиным. Москва в этом случае проявила свою информационную стратегию, считает Запад.

В частности, высказалась Джессика Брандт, занимающая пост директора Брукингского института и отвечающая за развитие новых технологий и искусственного интеллекта.

По словам госпожи Брандт, в слитой базе «Досье Пандоры» можно найти данные приблизительно о 3700 российских организациях, а также более чем о 4 тыс. граждан, из которых 46 на данный момент числятся среди олигархов. Представительница Брукингского института отметила, что это самый высокий показатель среди упомянутых стран.

Отдельной темой для обсуждения Брандт считает ответ России, который якобы выдаёт стратегию Кремля — наступательную дискредитацию общественных институтов других стран. Для этого Москва задействует ряд соцсетей и СМИ в онлайн-пространстве.

Параллельно российские власти хотят снять с себя часть вины, отметила Брандт. Дело в том, что часто речь идёт о некоей «руке Вашингтона», которая стоит за компрометацией конфиденциальной информации.

Напомним, что в «Досье Пандоры», согласно опубликованной «Ъ» информации, упоминаются генеральный директор «Первого канала» Константин Эрнст, нынешний президент Украины Владимир Зеленский, глава Азербайджана Ильхам Алиев и многие другие «сильные мира сего».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Red Teaming в применении к ИИ требует переосмысления

Учения Generative Red Team, проведенные в рамках DEF CON 32, показали, что подобный способ оценки защищенности ИИ не дает адекватной картины. Эксперты предлагают создать систему, подобную CVE и учитывающую целевое назначение объектов анализа.

В мероприятии приняли участие (PDF) около 500 добровольцев с разным опытом аудита больших языковых моделей (БЯМ, LLM). В 48 случаях за выявленные недочеты были выплачены премии — суммарно $7850.

Тем не менее организаторы пришли к выводу, что метод Red Teaming в применении к ИИ необходимо усовершенствовать. Большой проблемой оказалось фрагментарность документации по LLM, которые к тому же разнятся по предусмотренному применению.

Без учета назначения ИИ-модели и сообразных встроенных ограничений результаты таких проверок на прочность могут ввести в заблуждение. Более того, отсутствие единых критериев оценки может привести к противоречивым заключениям.

Бурный рост и развитие ИИ-технологий создали новые риски, однако ни у кого пока нет четкого представления о том, как тестировать такие продукты и выстраивать их защиту.

Обеспечение безопасности LLM, по словам экспертов, — нескончаемый процесс. Умные помощники могут ошибаться, им свойственны галлюцинации, предвзятость (из-за неправильного обучения), уязвимость к инъекции стимула. Подобные системы бесперспективно защищать от взлома, однако его можно сделать более затратным, а последствия — краткосрочными.

Организаторы Generative Red Team призывают ИИ- и ИБ-сообщества совместными усилиями решить настоятельные проблемы. В противном случае техническая революция приведет к появлению ИИ-инструментов, на которые невозможно положиться; живой пример тому — скороспелка DeepSeek.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru