Шутка Касперского обидела испанцев

Шутка Касперского обидела испанцев

На прошлой неделе «Лаборатория Касперского»
рассказала об эксперименте, в ходе которого было доказано, что не
всякий коллективный разум одинаково полезен. Представители ЛК добавили
в базу антивирусного проекта Virus Total чистые файлы, помеченные как
вредоносные. Через месяц эти "якобы вредоносные" файлы начали
детектироваться многими другими антивирусами.

Таким образом,
экспертиментаторы доказали, что в детектировании вирусов тоже
существует некий "эффект толпы". При этом программы, которые не
согласились с "общественным мнением" и не детектировали файл как
вредоносный, могут предстать в невыгодном свете. Создатели
антивирусного ПО повторили опыт немецких журналистов, которые год назад
точно так же загрузили в Virus Total чистый файл, помеченный как
небезопасный - спустя несколько месяцев этот файл детектировался на
VirusTotal более чем 20 сканерами. На этот раз «Лаборатория
Касперского» создала 20 чистых файлов, и 10 из них назвала
вредоносными.

Через десять дней все эти 10 файлов детектировались
сканерами 14 других антивирусных компаний. «Подстегиваемые
необходимостью добиваться хороших результатов в тестах, антивирусные
компании последние годы стали все чаще прибегать к проверке файлов
сканерами от разных вендоров для определения вредоносности», - пишут
специалисты ЛК. Однако испанская компания Hispasec Sistemas, которая
управляет проектом VirusTotal, обиделась на Касперского, сообщает The
Register. По ее мнению, авторы эксперимента использовали их детище не
по назначению. Кроме того, антивирусные коллеги расстроилась из-за
того, что «Лаборатория Касперского» доложила о результатах своего
эксперимента не на профильной конференции, а во время пресс-тура в
Москве. Это как будто бы говорит о том, что компания хотела не столько
поделиться результатами, сколько бросить тень на коллег.

Ведущий
эксперт ЛК Магнус Калкул (Magnus Kalkuhl), который собственно и
проводил эксперимент, отвергает эти обвинения. "Мы не ставили себе
целью показать проблемы Virus Total или продавцов антивирусов, - заявил
он. - Мы лишь хотели показать, что не все образцы, которые
детектируются антивирусами, на самом деле являются вредоносными -
потому что случаются ошибки, и они быстро множатся».


Подробности

На прошлой неделе «Лаборатория Касперского» рассказала об эксперименте, в ходе которого было доказано, что не всякий коллективный разум одинаково полезен. Представители ЛК добавили в базу антивирусного проекта Virus Total чистые файлы, помеченные как вредоносные. Через месяц эти "якобы вредоносные" файлы начали детектироваться многими другими антивирусами." />
AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru