Переход клавиатур Corsair на самовольный ввод — не кейлогер, а баг

Переход клавиатур Corsair на самовольный ввод — не кейлогер, а баг

Переход клавиатур Corsair на самовольный ввод — не кейлогер, а баг

Пользователи Corsair K100 стали жаловаться на то, что игровая клавиатура иногда начинает сама печатать текст, набранный несколько дней назад. Вендор подтвердил наличие проблемы, вызванной багом, и работает над решением.

Жалобы на самопроизвольный ввод были впервые озвучены на форумах Corsair в августе этого года: пользователи опасались, что подхватили кейлогер или иной Windows-зловред. Некоторые даже протестировали клавиатуру в безопасном режиме, чтобы исключить такую возможность, однако проблема не исчезла, и стало понятно, что ее источник — само периферийное устройство.

Представители Corsair поспешили заверить, что в их продуктах нет функций регистрации нажатия клавиш и мониторинга действий пользователя при работе с периферийным устройством. Виновником появления проблемы, скорее всего, является функция, отвечающая за запись комбинаций клавиш для макросов.

Какая-то ошибка в коде заставляет эту функцию включиться и вести запись нажатий клавиш и движений мыши. В итоге при активации макросов сохраненный текст вводится повторно.

Так ли это, пока не установлено. Последнее обновление прошивки K100 (версия 1.11.39) проблему не устранило, а лишь усугубило: в некоторых случаях клавиатура стала зависать.

В отсутствие исправления пользователям рекомендуется сбросить настройки: вынуть шнур из гнезда, нажать Esc и удерживать кнопку пять секунд, вставляя шнур обратно. Некоторым, правда, не удалось таким образом избавиться от проблемы, не помогла даже очистка памяти клавиатуры. Видимо, им придется ждать, когда Corsair все пофиксит или поискать замену.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Red Teaming в применении к ИИ требует переосмысления

Учения Generative Red Team, проведенные в рамках DEF CON 32, показали, что подобный способ оценки защищенности ИИ не дает адекватной картины. Эксперты предлагают создать систему, подобную CVE и учитывающую целевое назначение объектов анализа.

В мероприятии приняли участие (PDF) около 500 добровольцев с разным опытом аудита больших языковых моделей (БЯМ, LLM). В 48 случаях за выявленные недочеты были выплачены премии — суммарно $7850.

Тем не менее организаторы пришли к выводу, что метод Red Teaming в применении к ИИ необходимо усовершенствовать. Большой проблемой оказалось фрагментарность документации по LLM, которые к тому же разнятся по предусмотренному применению.

Без учета назначения ИИ-модели и сообразных встроенных ограничений результаты таких проверок на прочность могут ввести в заблуждение. Более того, отсутствие единых критериев оценки может привести к противоречивым заключениям.

Бурный рост и развитие ИИ-технологий создали новые риски, однако ни у кого пока нет четкого представления о том, как тестировать такие продукты и выстраивать их защиту.

Обеспечение безопасности LLM, по словам экспертов, — нескончаемый процесс. Умные помощники могут ошибаться, им свойственны галлюцинации, предвзятость (из-за неправильного обучения), уязвимость к инъекции стимула. Подобные системы бесперспективно защищать от взлома, однако его можно сделать более затратным, а последствия — краткосрочными.

Организаторы Generative Red Team призывают ИИ- и ИБ-сообщества совместными усилиями решить настоятельные проблемы. В противном случае техническая революция приведет к появлению ИИ-инструментов, на которые невозможно положиться; живой пример тому — скороспелка DeepSeek.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru