ИИ в правосудии: новые возможности и риски

ИИ в правосудии: новые возможности и риски

ИИ в правосудии: новые возможности и риски

Активное внедрение ИИ в судебную и уголовную практику началось несколько лет назад. Достижения ИИ, казалось, открывали новые горизонты для повышения эффективности расследований. Но за прошедшее время выявились и новые риски, о которых ранее и не подозревали.

 

 

 

 

 

 

  1. Введение
  2. Сыскная деятельность и ИИ
  3. От реалистичности в криминалистике больше вреда, чем пользы
  4. Этические проблемы применения ИИ в криминалистике
  5. Практика
  6. DeepFaceDrawing: назад в будущее
  7. Выводы

Введение

Громкие прогнозы по поводу внедрения ИИ, достигшие апогея в последнее время в связи с популяризацией бота ChatGPT, породили волну исследований на тему эффективности применения ИИ в судебной и уголовной практике. Появились уже и первые результаты, некоторые из них станут предметом рассмотрения в этой статье.

Забегая вперёд, сразу отметим: преимущества ИИ в криминалистике оказались не настолько очевидными. Более того, выяснилось, что непродуманные внедрения ИИ в судебную практику способны породить серьёзные проблемы и чреваты появлением новых, сложных для выявления ошибок. Понимать причину их появления необходимо уже сейчас, до начала широкомасштабного прихода ИИ.

Новые риски не связаны напрямую с алгоритмами ИИ или качеством обучения ИИ-моделей. Эксперты в области ИТ считают, что именно это является главным для построения эффективных систем. Но, как показали результаты исследований, главные новые ошибки порождает человек, который всё равно остаётся полноценным участником процесса расследования. В отличие от ИИ-моделей, человек проходит обучение через социальное воспитание, на результат которого оказывают влияние особенности его психики. Новые риски настолько существенны, что многие разработчики уже приостановили внедрение своих ИИ-моделей в криминалистическую практику, продолжая искать более эффективные методы взаимодействия человека и машины.

Внедрению новых ИИ-разработок также препятствуют законодатели, которые опасаются нецелевого применения ИИ и утечки технологий в криминальную сферу.

Сыскная деятельность и ИИ

В декабре 2022 года два португальских разработчика (Artur Fortunato, Filipe Reynaud) приняли участие в хакатоне по теме ИИ. Они показали там прототип программы для художника-криминалиста. По вводимым описаниям отдельных элементов лица программа создавала набросок портрета.

Идею сразу оценили криминалисты. Было понятно, что эта программа ориентирована именно на них. Она могла стать отличным инструментом для поиска подозреваемого по рассказам свидетелей в ходе следственных мероприятий. До сих пор для этого продолжают использовать бумагу и карандаш в руках художника-криминалиста. Более развитый вариант — использование графической программы и набора слайдов, когда свидетелям задают вопросы о том, как выглядел нарушитель, а художник подбирает подходящие элементы и создаёт фотопортрет по отдельным деталям лица.

Этот алгоритм подразумевает применение характерных шаблонов для отдельных элементов лица (глаза, рот, скулы, брови, нос и т. д.). Процесс может занимать несколько дней. В то же время «рисованный» портрет всё равно остаётся не настолько реалистичным, как хотелось бы многим. 

Португальские разработчики предложили свой ИИ для этой процедуры, дав программе название Forensic Sketch AI-rtist. По их словам, подготовка портрета по аналогичной методике опроса с использованием ИИ сокращается до двух-трёх часов. Результат — фотореалистичный снимок, близкий к оригиналу, как утверждают разработчики. Формально с этим трудно не согласиться.

 

Рисунок 1. Интерфейс программы Forensic Sketch AI-rtist

Интерфейс программы Forensic Sketch AI-rtist

 

Предложенное решение основано на применении обученной ИИ-модели. Это позволяет генерировать изображения с подключением нейросети DALL-E 2. Для работы с ней достаточно зарегистрироваться на сайте разработчика — компании OpenAI. Для регистрации требуется только номер мобильного телефона.

К сожалению, в России сервис DALL-E 2 сейчас (февраль 2023 г.) недоступен. То же касается и другой, более известной разработки этой компании — ChatGPT.

В Forensic Sketch AI-rtist есть возможность коррекции изображений. Вводя комментарии, можно вживую наблюдать процесс создания фотореалистичных эскизов. Это позволяет уточнять описания, если результат визуально оценивается как неточный или ошибочный.

В результате процесс «расследования» становится сверхреалистичным. По мнению разработчиков, это должно сильно упростить работу полицейских.

 

Рисунок 2. Архитектура решения Forensic Sketch AI-rtist

Архитектура решения Forensic Sketch AI-rtist

 

Однако позднее в интервью изданию Motherboard авторы программы заявили, что полномасштабное внедрение Forensic Sketch AI-rtist откладывается, несмотря на её полную готовность. Задержка вызвана рядом причин нетехнического характера.

От реалистичности в криминалистике больше вреда, чем пользы

Обсуждая в интервью изданию Motherboard тему применения ИИ в криминалистике, специалисты по этике отметили, что его внедрение повлечёт за собой появление множества подводных камней. Уже сейчас очевидно, что это коснётся скрытых в людях расовых и гендерных предубеждений.

Например, по мнению Дженнифер Линч, директора по судебно-правовым вопросам компании Electronic Frontier Foundation, основной проблемой при использовании ИИ для подготовки фотороботов будет учёт особенностей работы человеческой памяти. По мнению эксперта, она подвержена определённым предубеждениям, имеет ряд слабых сторон. «ИИ не может решить проблемы связанные с особенностями человеческой психики, а предложенная программа Forensic Sketch AI-rtist, скорее всего, только усугубит их».

Алгоритм подразумевает шаблонную замену отдельных элементов лица человека с учётом его пола, цвета кожи, возраста, формы бровей и носа, цвета и длины волос и бороды, формы и цвета глаз, формы челюсти и т. д. Свидетелей просят дать описание этих элементов. Нейросеть DALL-E 2 подбирает по ним подходящие элементы, и программа «врисовывает» их в будущий фотопортрет.

 

Рисунок 3. Алгоритм поэлементной генерации фотореалистичного изображения

Алгоритм поэлементной генерации фотореалистичного изображения

 

«Как показали результаты исследований, люди помнят детали лица целостно, в виде полного образа, а не в виде отдельных черт. Память нейросети устроена наоборот». По мнению эксперта, как только свидетель увидит композицию, слишком высокая реалистичность образа подменит в его сознании смутное воспоминание о настоящем подозреваемом. Реалистичность только усугубляет ситуацию. «Созданный ИИ образ, который выглядит более реалистичным, чем нарисованный от руки эскиз, заставляет память принять его и заменить прежний, более расплывчатый».

В результате, считает Линч, схожесть получаемого фотопортрета с портретом реального преступника может оказаться значительно меньшей, чем в случае с прежними, рисованными от руки эскизами.

 

Рисунок 4. Добавление новых элементов в эскиз (вариант b сделан из a) существенно меняет результат

Добавление новых элементов в эскиз (вариант b сделан из a) существенно меняет результат

 

Этические проблемы применения ИИ в криминалистике

В США в последние годы обострилась борьба за равноправие для чернокожих и латиноамериканцев. Это обстоятельство также накладывает отпечаток на потенциал использования программы Forensic Sketch AI-rtist, отмечают эксперты.

«У чернокожих в пять раз больше вероятность быть остановленными полицией без причины, чем у белых граждан США. Цветных также чаще останавливают, обыскивают и подозревают в совершении преступления, даже если нет явных признаков этого». Как отмечают эксперты, этот стереотип может быть неявно перенесён и в процесс дознания. Повышенная реалистичность может стать «спусковым крючком» превращения подозрения в улику.

Особый резонанс может вызвать публичная демонстрация таких искусственно созданных криминалистических фотопортретов, сгенерированных ИИ. «Они могут укрепить в людях стереотипы и расовые предубеждения, затруднять ход расследования, привлекать ошибочное внимание к людям, которые внешне выглядят похожими, но не имеют ничего общего с настоящим преступником», — считает Линч.

В качестве примера Линч приводит применявшуюся ранее практику использования ДНК-тестов на этапе дознания. Опыт показал, что 25 % ошибочно вынесенных приговоров в США опирались на результаты судебной ДНК-экспертизы, на основании которых делались ложные выводы. Более того, причиной 69 % ошибочных опознаний преступников свидетелями в США были подтверждённые ДНК-тесты.

По мнению экспертов, признаки предвзятости проявляются уже на уровне базовых инструментов, предложенных в Forensic Sketch AI-rtist. Как рассказала в интервью Motherboard научный сотрудник Hugging Face Саша Лучони, анализ выдаваемых DALL-E 2 результатов показал, что, например, по запросу «генеральный директор» нейросеть изображала в основном мужчин европейской наружности. 

Как отмечает эксперт, пока нет готовых рецептов борьбы с такими явлениями в работе ИИ-систем. В OpenAI уже признали существование такой проблемы. Сообщается, что ведётся разработка новых методов для смягчения таких зависимостей, но о результатах пока рано говорить.

По мнению эксперта, причина появления предвзятости в работе ИИ-систем кроется в том, что сами наборы используемых данных создавались под неявным воздействием определённых предубеждений. Как показывает практика, если в обществе проявляется тренд маргинализации определённой группы людей, то ИИ учитывает это как закономерность и сам «маргинализирует» данные и результаты в том же направлении. Получается, что глубокое обучение ИИ воспроизводит и легитимизирует уже существующие в обществе предубеждения, которые воспринимаются как объективное отражение реальности. 

 

Рисунок 5. Пример подбора лица по фотоснимку (нейросеть DALL-E 2)

Пример подбора лица по фотоснимку (нейросеть DALL-E 2)

 

Эксперт советует придерживаться правила, согласно которому «полицейские должны нести ответственность за честный выбор реалистичного фоторобота». Но как оценивать честность их выбора, непонятно. Предполагается, что в будущем появятся вспомогательные инструменты, которые помогут вручную или автоматически повышать достоверность выдаваемого ИИ результата.

Один из возможных вариантов — это генерация нескольких эскизов в разных, независимых итерациях и принятие итогового результата за достоверный только в случае их совпадения. Но даже в этом «независимом» решении присутствует немало своих неопределённостей.

В общем, разработчики признают, что в настоящее время пока нет метрик для измерения точности сгенерированного ИИ изображения.

Практика

Создание ошибочных фотореалистичных изображений средствами ИИ регистрируется уже не в первый раз. Памятен недавний случай, произошедший осенью 2022 года, когда полиция канадского города Эдмонтон опубликовала фоторобот подозреваемого в совершении сексуального преступления. Для создания портрета использовался ДНК-тест из базы данных зарегистрированных образцов. Полицейские посчитали этот метод достаточно надёжным, поэтому публично распространили «снимок» подозреваемого.

 

Рисунок 6. Фоторобот полицейского управления города Эдмонтон

Фоторобот полицейского управления города Эдмонтон

 

С протестом выступила группа экспертов. В качестве аргумента они указывали на то, что применяемый метод ДНК-анализа не обеспечивает стопроцентной точности подбора фотореалистичного снимка. Это ставит под угрозу невинных людей.

Ошибка могла состоять в том, что при подборе снимка не учитывался ряд важных для расследования факторов: возраст подозреваемого, его биометрические данные, характерные признаки (волосы, борода, татуировки и шрамы). К тому же полиция опиралась на очень скудное описание подозреваемого, данное жертвой: «рост около 160 см, черные брюки и свитер или толстовка с капюшоном, акцент в речи». 

После этого протеста полицейские удалили фоторобот из публичного доступа. Офицер полиции принёс извинения, заявив, что ошибка является неприемлемой, а компромисс в расследовании, когда публичная огласка позволяет существенно ускорить поиски, в данном случае недопустим.

Эксперты по криминалистике провели независимое исследование, используя собранную базу данных ДНК. Они опубликовали поразительные расхождения, которые можно получить при использовании одинаковых результатов ДНК-тестов. Эти ошибки неизбежны в расследованиях, когда нет уверенности в правильности выбора характерных признаков подозреваемого: цвета кожи, глаз, волос и пр.

 

Рисунок 7. Подбор фоторобота по базе ДНК и внешним признакам

Подбор фоторобота по базе ДНК и внешним признакам

 

DeepFaceDrawing: назад в будущее

Другая идея автоматизации работы художника-криминалиста с использованием ИИ была показана летом 2020 года. Тогда группа исследователей из Китайской академии наук, Всекитайского исследовательского института и Городского университета Гонконга представила на ежегодной выставке компьютерной графики Siggraph 2020 программу DeepFaceDrawing.

Входными данными для этой программы служили не словесные описания подозреваемого, а рисованные наброски отдельных черт лица. Опираясь на общедоступные базы данных и ИИ-модель нейронной сети, прошедшую глубокое обучение, китайские исследователи продемонстрировали, как можно получать фотореалистичные снимки лиц людей.

Именно тогда многие могли впервые наглядно оценить, насколько быстро и легко современные методы глубокого ИИ-преобразования графики позволяют создавать изображения из совсем незамысловатых эскизов.

 

 

Многих удивило тогда, насколько, казалось бы, незначительные штрихи в эскизе могли легко преобразовать готовый портрет в совершенно новый образ. Это выглядело красиво, но одновременно наводило на мысль, что ИИ просто выбирал первый подходящий вариант из своей базы фотографий, оставляя другие, смежные варианты нетронутыми. Если человеческий мозг «понимает», что такое «похожее», то программа просто выбирает подходящий вариант, не отвечая на вопрос, насколько её ответ согласовывается с другими элементами образа, воспринимаемыми человеком интуитивно.

Профессиональные художники, которые участвовали в тестировании DeepFaceDrawing, отмечая высокую зависимость от выбора штрихов в портрете, вынесли свой вердикт: «Эти ограничения затрудняют использование ИИ-технологий непрофессионалами».

 

Рисунок 8. Один эскиз порождает разные результаты в зависимости от датасета и методов интерполяции

Один эскиз порождает разные результаты в зависимости от датасета и методов интерполяции

 

Тогда было принято решение, что необходимо не осуществлять поиск среди «уже готовых лиц», а создать базу данных по отдельным чертам и создавать из них изображение, отказавшись от использования реальных снимков целого лица человека.

Эта деталь в формировании базы данных позволяла приблизить обычные, «голосовые» портреты к более правдоподобным результатам без необходимости использования базы лиц конкретных людей. Исследователи опирались на то, что человеческий мозг, похоже, работает по аналогичному сценарию: для распознавания лица он принимает во внимание имеющуюся у него информацию об отдельных его чертах и инстинктивно сам «вырисовывает» правдоподобный образ.

Тестирование программы DeepFaceDrawing проводилось на выборке из 60 участников. Они не имели профессионального художественного образования. Это было одним из условий для их отбора, чтобы испытуемый не зависел от накопленных знаний и опирался только на свою интуицию. Каждому участнику предлагались на выбор 22 эскиза и по три портрета, искусственно полученных различными методами, в т. ч. с помощью DeepFaceDrawing. Нужно было выбрать вариант наиболее соответствующий эскизу.

Как показали результаты, метод DeepFaceDrawing неизменно давал наиболее качественные, «достоверные» результаты, чем другие методы.

 

Рисунок 9. Примеры эскизов и подобранные для них методом DeepFaceDrawing фотопортреты

Примеры эскизов и подобранные для них методом DeepFaceDrawing фотопортреты

 

Тогда предполагалось, что данная разработка найдет применение в самых разных отраслях, в том числе и в уголовной криминалистике и расследовании преступлений.

Выводы

Появление на рынке технологии DeepFaceDrawing вызвало озабоченность со стороны государственных органов Китая. По их мнению, новая технология позволяет легко создавать дипфейки, т. е. осуществлять подмену лиц с сохранением естественности в движениях человека.

Тем не менее новые технологии продолжают активно развиваться и, похоже, внедряться. Это создаёт не только новые возможности, но и новые риски. Задуматься о них лучше заранее.

Полезные ссылки: 
AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новые статьи на Anti-Malware.ru