Российский исследователь взломал репозиторий и багтрекер Ruby on Rails

Российский исследователь взломал репозиторий и багтрекер Ruby on Rails

Проникновение было осуществлено с целью наглядно продемонстрировать наличие изъяна в системе безопасности среды Ruby on Rails и веб-приложений, разработанных с ее помощью. До этого специалист активно пытался убедить разработчиков в серьезности проблемы, однако не встретил понимания и решил последовать старому правилу - лучше один раз увидеть, чем сто раз услышать.

Среда Ruby on Rails предназначена для построения веб-приложений на языке Ruby. Ее основная задача состоит в упрощении и оптимизации процесса разработки программных продуктов. Одним из наиболее популярных сетевых проектов, при создании и сопровождении которого применялась эта среда, является GitHub - крупная платформа для хранения исходных кодов и совместной работы над ними. На этой площадке размещается в том числе и официальный репозиторий Ruby on Rails вкупе с системой отслеживания ошибок и изъянов в ПО.

В четверг отечественный исследователь заявил об уязвимости в этой программной среде, отметив, что ее успешная эксплуатация может окончиться введением посторонних сведений в базу данных приложений Ruby on Rails через внешние веб-формы - почти как в случае с SQL-инъекциями. Проблема произрастает из функции под названием "массовое назначение", особенности которой можно злонамеренно использовать - если не приняты надлежащие меры безопасности. Вообще говоря, теоретическая возможность злоупотребления этим функционалом была описана еще несколько лет назад, однако команда Ruby on Rails сочла, что ответственность за управление "массовым назначением" должна лежать на самих разработчиках программных продуктов.

"Массовое назначение" - это функция управления программными атрибутами. Программисты Ruby on Rails предпочли использовать подход белого списка: по умолчанию разрешено изменять все атрибуты, а создатели веб-приложений должны самостоятельно составлять черный список тех параметров, которые потенциально опасны и запрещены к модифицированию. Альтернативный подход диаметрально противоположен (и более безопасен): запретить изменение всех атрибутов и возложить на разработчиков задачу их выборочной активации по мере необходимости и целесообразности.

Такая организация работы с атрибутами потенциально приводит к возникновению множества недостаточно защищенных сетевых ресурсов, о чем и говорил российский специалист в своем заявлении. После безуспешных попыток убедить в этом команду Ruby on Rails он решил показать, что даже один из наиболее успешных проектов, вышедших из этой среды - GitHub, - не обеспечен надлежащей защитой от "массового назначения". Создав ложную запись с особыми параметрами в багтрекере, он впоследствии сумел подменить публичный ключ одного из разработчиков своим собственным и присвоить права на доступ к репозиторию. Это позволило ему ввести в проект новый файл, продемонстрировав тем самым, что исходные коды Ruby on Rails подвержены риску несанкционированной модификации.

Администрация GitHub оперативно устранила уязвимость и начала общий аудит с целью обнаружить новые потенциальные изъяны. Учетная запись исследователя была приостановлена, но затем возобновлена - когда технические специалисты проекта убедились, что в его действиях не было злого умысла. По-видимому, теперь разработчики Ruby on Rails не будут столь категоричны в своих суждениях и с большей охотой займутся поиском решений проблемы "массового назначения".

PC World

Письмо автору

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

8,5% подсказок ИИ сливают ключи доступа и финансовые данные компаний

Проведенное в Harmonic Security исследование показало, что при вводе подсказок корпоративные пользователи ИИ-сервисов могут случайно слить конфиденциальные данные, в том числе финансовую информацию, ключи доступа и код проприетарного программного обеспечения.

В IV квартале 2024 года эксперты тщательно мониторили использование бизнесом Microsoft Copilot, ChatGPT, Google Gemini, Claude от Anthropic и Perplexity. За этот период были изучены тысячи посказок-стимулов, которыми сотрудники предприятий пользовались в ходе работы с инструментами на основе генеративного ИИ.

В подавляющем большинстве случаев юзеры решали простые задачи: резюмировали текст, редактировали блог-записи, оформляли документацию по кодам. Тем не менее 8,5% зафиксированных подсказок исследователи идентифицировали как угрозу утечки важных данных.

В 45,8% случаев такой ввод содержал клиентские данные — сведения об оплате счетов, идентификаторы для доступа к сервисам. Более четверти потенциально опасных подсказок (26,8%) раскрывали информацию о сотрудниках, в том числе расходы по зарплатам, послужные списки, персональные данные.

Умному бизнес-помощнику также могут неумышленно слить юридическую и финансовую информацию (процесс продаж, портфель инвестиций, сделки M&A), связанные с безопасностью сведения (результаты пентестов, конфигурация сети, отчеты об инцидентах), критические важные коды (ключи доступа, исходники проприетарного ПО).

 

«В большинстве случаев организации справляются с подобным сливом, блокируя запросы либо предупреждая пользователей о потенциальной опасности совершаемых действий, — комментирует гендиректор Harmonic Аластер Патерсон (Alastair Paterson). — Однако не все пока располагают такими возможностями. Беспокоит также большое количество бесплатных подписок».

Бесплатные ИИ-инструменты обычно хуже защищены, чем корпоративные версии. К тому же их пользовательское соглашение обычно предусматривает использование пользовательского ввода для тренинга, и риск утечки конфиденциальных данных для бизнеса в этом случае очевиден.

Согласно результатам исследования, сотрудники предприятий отдают предпочтение бесплатным подпискам на ИИ-услуги.

 

Эксперты не советуют прибегать к блокировкам, чтобы снизить риски. По их мнению, лучше управлять использованием ИИ, придерживаясь следующих рекомендаций:

  • мониторинг ввода данных в реальном времени;
  • использование платного доступа либо сервисов, не обучающих свои модели на пользовательском вводе;
  • визуальный контроль данных, которыми юзеры делятся с ИИ-инструментами, со стороны ИБ-служб;
  • ранжирование конфиденциальных данных по степени ущерба в случае потери;
  • создание правил использования ИИ с дифференциацией департаментов и групп;
  • обучение персонала ответственному использованию ИИ, с объяснением рисков.
AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru