Давняя уязвимость RoboForm вернула доступ к BTC-кошельку ценой в 3 миллиона

Давняя уязвимость RoboForm вернула доступ к BTC-кошельку ценой в 3 миллиона

Давняя уязвимость RoboForm вернула доступ к BTC-кошельку ценой в 3 миллиона

Обнаружив уязвимость в менеджере паролей RoboForm выпуска 2013 года, исследователи смогли восстановить ключ доступа к биткоин-кошельку. Его владелец рад вдвойне: за 11 лет его 43,6 BTC подорожали с $5,3 тыс. до $3 миллионов.

Двадцатизначный пароль, который он сгенерировал с помощью RoboForm, хранился в отдельном файле, зашифрованном с помощью TrueCrypt. В какой-то момент файл побился, и доступ к кошельку был потерян.

Безутешный владелец крипты обратился за помощью к известному в узких кругах умельцу, однако тот привык иметь дело с аппаратными криптокошельками вроде Trezor, а здесь речь шла о софте. Брутфорс с помощью скрипта для автоматизации подбора пароля казался трудновыполнимым, поэтому было решено поискать в RoboForm уязвимость, которая помогла бы решить проблему.

Специалист по взлому вместе с приятелем несколько месяцев занимался реверс-инжинирнгом, хотя знатоки убеждали его в безнадежности затеи. Наконец, было найдено то, что искали: как оказалось, генератор случайных чисел, который использовала версия RoboForm заказчика, привязывал результаты к дате и времени компьютера, что делало их предсказуемыми.

Нужно было также знать, из чего состоял пароль: заглавных / строчных букв, цифр, спецсимволов. При наличии всех этих параметров можно было, подменив дату и время, заставить RoboForm выдать нужный вариант ключа.

К сожалению, владелец криптокошелька плохо помнил, когда именно он поставил пароль и какие символы использовал. Просмотр журнала показал, что первые биткоины появились в кошельке 14 апреля 2013 года; исследователи также изучили другие пароли, созданные заказчиком с помощью RoboForm, и начали экспериментировать.

Методом проб и ошибок правильный вариант был получен. Специалисты торжественно вручили утерянный ключ хозяину, взяв немного крипты за труды, и опубликовали видео о том, как они восстанавливали пароль.

 

RoboForm разработки Siber Systems одним из первых появился на рынке менеджеров паролей; в настоящее время на его счету более 6 млн пользователей. Генератор случайных чисел, слабостью которого воспользовались исследователи, подкрутили или заменили в 2015 году, с выпуском сборки 7.9.14 продукта.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru