В критически важных приложениях обнаружен опасный код

В критически важных приложениях обнаружен опасный код

Оказывается, не только разработчики Android-приложений грешат неграмотным внедрением SSL, но подобные ошибки присутствуют в программах ведущих софтверных компаний, включая Amazon и Paypal.

Неграмотная процедура проверки SSL-сертификатов обнаружена в критически важных приложениях, SDK, Java middleware, банковском софте и т.д., что открывает перед злоумышленниками возможности для MiTM-атаки — ничего хуже этого и представить невозможно, считают исследователи из Стэнфордского и Техасского университетов, которые опубликовали научную работу «Самый опасный код в мире: проверка SSL-сертификатов вне браузера». Достоин упоминания тот факт, что группа американских учёных работала под руководством кандидата наук Техасского университета Виталия Шматикова, пишет xakep.ru.

Итак, исследователи обнаружили некорректную процедуру SSL-валидации в ряде очень серьёзных программ:

Java-библиотека Amazon EC2 и все облачные клиенты на её основе;SDK Amazon и SDK Paypal, которые отвечают за передачу платёжных данных от торговой площадки к платёжному гейту;движки интернет-магазинов osCommerce, ZenCart, Ubercart и PrestaShop;код AdMob в мобильных веб-сайтах;мобильное приложение банка Chase и некоторые другие приложения и библиотеки под Android;Java middleware для веб-сервисов, включая Apache Axis, Axis 2, Codehaus XFire и библиотеку Pusher для Android, а также все приложения, которые используют перечисленное middleware.

В качестве примера безалаберности можно привести фрагмент исходного кода банковского приложения Chase.

public final void checkServerTrusted(X509Certificate[]
paramArrayOfX509Certificate, String paramString)
{
if ((paramArrayOfX509Certificate != null) && (
paramArrayOfX509Certificate.length == 1))
paramArrayOfX509Certificate[0].checkValidity();
while (true)
{
return;
this.a.checkServerTrusted(
paramArrayOfX509Certificate, paramString);
}
}

Любое SSL-соединение, установленное каждой из перечисленных программ, не является безопасным. Ключевая проблема лежит не столько в низкой квалификации разработчиков, сколько в плохом дизайне программных интерфейсов для реализации SSL (таких как JSSE, OpenSSL и GnuTLS) и библиотек для передачи данных (таких как cURL). Эти API и библиотеки сложны для обычного программиста, предлагая ему слишком путаный набор настроек и опций.

Например, в cURL есть несколько параметров для CURL_SSL_VERIFYHOST. Параметр VERIFYHOST=0 интуитивно понятен: он отключает проверку сертификата. Параметр VERIFYHOST=2 выполняет корректную проверку и сверяет имя хоста, указанное в сертификате, с именем хоста, который предъявляет сертификат. А вот параметрVERIFYHOST=1 (VERIFYHOST=TRUE) делает нечто очень странное: он проверяет, что сертификат принадлежит какому-то хосту, а затем принимает его от любого хоста. Понятно, что многие программисты не ожидали от cURL такой «подставы». Кстати, разработчик cURL Дэниел Стенберг вчера уже высказался по этому поводу. Ему после 10+ лет работы над cURL очень обидно слышать подобные обвинения, тем более что за все эти годы никто ни разу не предлагал изменить параметры для CURL_SSL_VERIFYHOST.

По результатам анализа ситуации с реализацией SSL в различных приложениях Шматиков с коллегами выработали ряд рекомендаций, в том числе они рекомендуют использовать специальное программное обеспечение для проверки корректности программного кода и пентестинга: например, программа TLSPretense. Есть также чёткая инструкция, как реализовать проверку SSL-сертификатов с помощью OpenSSL и репозиторий примеров правильного кода SSL Conservatory.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI: суицидник нарушил правила использования ChatGPT, вина не наша

OpenAI направила в суд свой первый развернутый ответ по одному из пяти исков о суициде пользователей, заявив, что 16-летний Адам Рейн нарушил правила использования ChatGPT и что его трагедия не была вызвана работой чат-бота. Компания утверждает: именно пользователь просил модель обсуждать темы, которые прямо запрещены условиями сервиса.

Родители подростка обвиняют OpenAI в том, что модель ChatGPT 4o имела слабые защитные механизмы — настолько, что фактически стала «суицидальным коучем», поддерживавшим его мрачные мысли и помогавшим планировать смерть.

По словам потерпевших, модель фактически вела с юношей откровенные диалоги о самоповреждении, убеждала не обращаться к родителям и даже предложила составить «красивую предсмертную записку».

Однако OpenAI в своём блоге заявила, что в деле не хватает контекста. Компания утверждает, что в полных логах переписки видно: Рейн за много лет до знакомства с ChatGPT сталкивался с депрессией и суицидальными мыслями.

Подросток якобы писал, что неоднократно звал на помощь близких и знакомых, но его не слышали. А ещё — что увеличил дозировку препарата, который, по словам OpenAI, известен рисками усиления суицидальных мыслей у подростков, особенно при смене дозы.

Все эти логи засекречены, поэтому проверить слова компании невозможно. OpenAI объясняет ограничение доступа «заботой и уважением» к конфиденциальным материалам. А вот адвокат семьи Рейнов, Джей Эдельсон, назвал позицию компании «тревожной» и обвинил OpenAI в игнорировании ключевых фактов — вроде того, что модельный регламент дважды переписывался так, чтобы ChatGPT всё же вступал в опасные для пользователей разговоры.

По словам Эдельсона, компания пытается переложить ответственность на погибшего подростка, утверждая, что он «сам нарушил правила», хотя именно модель, по мнению стороны обвинения, была обучена вести такие разговоры.

Примечательно, что OpenAI не подала стандартное ходатайство о прекращении дела. Формально компания просит отклонить иск, но фактически спор движется к полноценному судебному разбирательству, которое может состояться в 2026 году. Адвокат Рейнов убежден: OpenAI идёт на всё, чтобы не признать вину.

В своём ответе OpenAI делает акцент на условиях использования: пользователи обязаны применять ChatGPT «на свой страх и риск», не считать ответы «истиной в последней инстанции» и не использовать сервис для обсуждения суицида или самоповреждения. Компания утверждает, что чат-бот более сотни раз просил подростка обратиться к близким и специалистам, но тот обходил ограничения и уверял модель, что речь идёт о «выдуманных сценариях».

В документах также говорится, что Рейн искал информацию о самоубийстве на других ресурсах и проводил много времени на специализированном форуме.

Тем временем давление на OpenAI растёт. В этом месяце сразу семь семей подали иски против OpenAI, утверждая, что компания выпустила модель GPT-4o слишком рано и без достаточных мер безопасности. Четыре иска касаются случаев самоубийств, а ещё три — ситуаций, когда ChatGPT якобы усугубил бредовые идеи.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru