БУДУТ ЛИ ЗАВТРА НАС СУДИТЬ «РОБОТЫ-СУДЬИ»?

БУДУТ ЛИ ЗАВТРА НАС СУДИТЬ «РОБОТЫ-СУДЬИ»?

Можно ли доверить закон искусственному интеллекту (ИИ) как если бы это был простой набор «кодов»? Что если завтра судьи будут совещаться онлайн? Что если судьи будут принимать решения, предварительно «разжеванные» для них компьютером? Техническая осуществимость делегирования принятия судебных решений существует, поэтому движемся ли мы к быстрому, но свободному от человеческой оценки правосудию?

Развлечения, здоровье, мультимедиа, знакомства, информация, путешествия – ИИ уже присутствует почти везде, почти в каждой отрасли. Благодаря машинному обучению уже можно предсказывать ряд событий – от цен на фондовом рынке и будущих циклонов вплоть до преступлений и уголовных проступков.

Предиктивное1 правосудие, непрозрачные системы
Уже существует PredPol, программное обеспечении «предиктивной полиции», используемое американскими и британскими правоохранительными органами. Оно позволяет отправиться на место преступления… еще до того, как преступление совершено. Этот алгоритм эффективен в прогнозировании угона автомобиля, но в случае более «вдумчивого» действия – это другая история. И не зря, так как поведение человека остается... непредсказуемым. Служба социальной защиты детей округа Лос-Анджелес (DCFS) знает об этом, но с 2016 года также пытается использовать алгоритмы, чтобы пойти еще дальше и «идентифицировать» детей с высоким риском оказаться однажды в тюрьме. Или просто оказаться под влиянием преступников. Но опять же, это программное обеспечение, которое называется «Safe Measures», не свободно ни от потенциальных ошибок, ни от сбоев, ни от риска кражи данных.

В любом случае, часть американских полицейских, похоже, убеждена в том, что с ИИ в конечном итоге можно будет прогнозировать преступления и предотвращать их, прежде чем они вообще произойдут, как в фильме Стивена Спилберга «Особое мнение» (2002), главную роль в котором сыграл Том Круз. Но правительство США идет еще дальше, практикуя то, что называется «предиктивным правосудием». Цель: использовать искусственный интеллект, чтобы предсказать исход судебного дела или помочь судье в принятии решения. Правосудие «с помощью компьютера».

Если конкретнее, то программное обеспечение «Compas» (Correctional Offender Management Profiling for Alternative Sanctions) используется судьями как минимум в десяти штатах США для принятия решения об условно-досрочном освобождении заключенных на основании их «уровня рецидивизма». Этот показатель рассчитывается ИИ, который основывается на анкетах и обширной базе данных, в которой указаны годы и конкретные случаи, связанные с ранее имевшимся или нет рецидивом преступлений соответствующих правонарушителей и преступников. Таким вот образом, основываясь на прошлых делах, а также на похожих случаях, система предлагает судье освободить его «клиента» или оставить в тюрьме.

Но, как и «Predpol» и «Safe Measures», этот вид программного обеспечения также не идеален. Согласно недавнему исследованию, «Compas» не более эффективен в «прогнозировании» риска рецидивизма, чем если подбросить монетку («орел или решка»), помимо того, что система полна дискриминационных предубеждений, особенно в отношении афроамериканцев.  «Риск программного обеспечения, такого как "Compas", состоит в том, что такого рода программное обеспечение дает довольно плохие результаты, потому что проблема, которую нужно решить, совсем не проста, когда дело доходит до анализа человеческих данных. И мы также заметили, что "Compas" переоценивает риски рецидивизма для чернокожих и что он чаще отправляет их в тюрьму. Это не расистское программное обеспечение, но оно основано на ценностях, которые коррелируют с этническим происхождением, а также на решениях судей, которые, со своей стороны, могли иметь этнические предрассудки», – объясняет Серж Абитбуль, ученый-компьютерщик, работающий в Высшей нормальной школе (Париж).

Еще одна проблема с «предикативным правосудием»: ИИ пока еще не может основываться на человеческой интерпретации фактов, базирующейся на интуиции, личной убежденности, понимании контраста и человеческих страстей. По словам Антуана Гарапона, магистрата, генерального секретаря Института перспективных исследований в области правосудия и соавтора «Цифрового правосудия», такая система недостаточно гибкая, и этим объясняется, почему Соединенные Штаты испытали за последние 15 лет значительный рост «уголовного населения» и «массовые посадки». Действительно, программное обеспечение, такое как «Compas», использует «основные принципы», значительный разброс «сетки наказаний», что позволяет судьям принимать квазиавтоматические решения в зависимости от возраста, правонарушения и степени рецидивизма обвиняемого. Хотя «на бумаге преступление часто сильно отличается от того, как оно выглядит в реальности», предикативное правосудие может, таким образом, стать своеобразным «топливом, увеличивающим криминальную статистику», опасается Антуан Гарапон.

Если они не будут значительно улучшены до той степени, пока не станут «превосходными и справедливыми» (что может занять время), такие системы ИИ, по мнению Антуана Гарапона и Сержа Абитбуля, не должны использоваться для принятия важных решений судьями по уголовным делам. Именно по этой причине многие американские судьи по-прежнему предпочитают доверять собственному мнению, а не мнению «Compas». Но в то же время, согласно отчету Электронного информационного центра конфиденциальности, «Compas» и другое подобное программное обеспечение в настоящее время используются «во многих отраслях системы правосудия» в Соединенных Штатах. Они используются для определения срока тюремного заключения и даже для определения вины или невиновности подозреваемого.
В книге «Суд алгоритмов» Эммануэль Пуанас, магистрат и советник Апелляционного суда Экс-ан-Прованса, рисует будущее, в котором искусственные ассистенты заменят судей. «Уже прямо сейчас возникают очень конкретные вопросы о вкладе информационных технологий и искусственного интеллекта в конкретное применение закона: как интерпретировать результат решения суда, выработанного алгоритмом? Можно ли "доверять" тем судьям и принимаемым ими решениям, только на основании того, что предлагает ИИ? И где тогда независимость судей? Приведет ли эволюция к правосудию без суда и выносимые решения без участия человека? В таких условиях как мы можем гарантировать каждому, будет ли он подвергаться справедливому и беспристрастному суду?» – задается вопросом Эммануэль Пуанас.

Он, в частности, напоминает, что «Compas» и многие другие программы такого же типа опасно «непрозрачны». Потому что частные компании, которые их разрабатывают, не раскрывают свои коды – коды, которые могут направлять на принятие важных судебных решений. В 2017 году американец Эрик Л. Лумис был приговорен к 6 годам лишения свободы по приговору, вынесенному с использованием «Compas», согласно которому обвиняемый представлял «высокий риск» повторного совершения правонарушений. Лумис оспорил это решение и обвинил разработчика программного обеспечения Northpointe Inc., утверждая, что его права были нарушены из-за использования алгоритма, в котором он не смог разобраться.

Правосудие и алгоритмы: благо или угроза?
Может ли принцип «свободной воли» судьи подвергнуться риску в результате массового использования судебных данных искусственным интеллектом? «Во Франции наша система отличается от системы Соединенных Штатов: здесь обработка судебных дел по уголовным делам запрещена. С другой стороны, в гражданских делах, где все решения доступны, хотя и анонимны, риск изучить стандарты работы магистратов и адвокатов, является реальным», – утверждает Эммануэль Пуанас.

В настоящее время во Франции, программное обеспечение «Legal Tech», предлагает усовершенствовать часть права, облегчив доступ граждан к данным правосудия (на цифровых платформах, чтобы позволить им делать более эффективные запросы), используя базы данных, что и сделал возможным в 2016 году закон Лемэра «Цифровая республика», позволив распространять судебные решения в частности посредством «JuriNet» (внутренняя база Кассационного суда) и «Légi France». Другие базы, со своей стороны, позволяют судьям и адвокатам предвосхищать «судебные результаты» по гражданским делам.

С 2017 года программное обеспечение «Predictice», например, тестируется в апелляционных судах Ренна и Дуэ в партнерстве с Министерством юстиции: оно позволяет «сканировать» всю судебную практику по гражданскому праву (но не уголовному), чтобы помочь судьям в принятии решений, главным образом, в делах о разводе. «В левой части экрана отображаются все решения, принятые в соответствии с запросом. Справа – шансы на получение компенсационных выплат при расторжении брака в зависимости от того, в какой местности вы находитесь и в каком году», – рассказывает газета Le Parisien. На своем веб-сайте «Predictice» хвастается тем, что позволяет гражданам оценивать «показатель успешности юридических действий» и оптимизировать «свою стратегию в соответствии с подсудностью».

По мнению магистратов, использующих эту прогностическую систему (которая еще не доказала свою эффективность), это всего лишь эксперимент, который в основном только улучшает уже распространенную практику: использование ориентировочных шкал компенсации или фиксирования выплат. Эти шкалы, имеют меньшие последствия по сравнению с американскими «шкалами наказания», используемые «Compas» в уголовных делах, и которые легче поддаются «объективной» интерпретации с помощью машины. Другие французские стартапы, такие как «Case Law Analytics», количественно определяют «правовой риск» и ставят перед собой цель «отразить судебную практику по конкретному спору», такую ​​как выходное пособие или алименты путем анализа от 10 000 до 20 000 судебных решений с использованием машинного обучения. Опять же, это должно лишь помочь в обычном судебном процессе, позволив судье проконсультироваться с «виртуальным судьей». Это также способ «разгрузки судов», предполагает математик Жак Леви Вехель, создатель «Case Law Analytics» – программного обеспечения, которое будет использоваться юридическими фирмами, страховыми компаниями, судами высшей инстанции и даже юридическими отделами крупных компаний.

В других странах, особенно в Канаде и Аргентине, иные системы выходят за рамки простого информационного прогнозирования и позволяют пользователю Интернета моментально урегулировать онлайн, «простые» юридические споры (штрафы, интеллектуальная собственность, налоговые споры) – и все это виртуально, благодаря ИИ. «Но когда это касается людей, в частности в уголовном праве, но также и при решении ряда гражданских (семейных) дел, то предикативное правосудие может быть опасным», – предупреждает Эммануэль Пуанас.

«Адаптировать общее правило к конкретной ситуации»
С ИИ судьям в конечном итоге больше не нужно будет листать тысячи страниц судебных заседаний и читать массу отчетов экспертов, текстов законов и т.д. Об этом в гражданских (но не уголовных) делах позаботится программное обеспечение. Такие технологии также изменят и работу адвокатов. В прошлом юристам самим приходилось рыться в кучах документов, чтобы информировать своих клиентов об их правах: уже сегодня чат-боты задают вам правильные вопросы и помогают «правильно сформулировать» запрос. Таким образом, это освобождает адвокатов от этой работы и дает им больше времени для конкретной поддержки своих клиентов, в частности, путем разработки более эффективных стратегий защиты. «Если конкретно, то программное обеспечение уже способно определить аргументы, приводящие к определенному решению. Например, ИИ обнаружил в случае развода, что существует связь между упоминанием супружеской измены и суммой компенсационного пособия, выплачиваемого супругом-обидчиком. Таким образом, искусственный интеллект может позволить выбрать правильный аргумент во время предъявления обвинения: а это уже качественный скачок», – отмечает Эммануэль Пуанас.

Но магистрат предупреждает: «Будьте осторожны, не убедите себя в том, что это чудодейственный элемент: предикативное правосудие экономит время, оценивает последствия судебного процесса, но мы также ожидаем от судей, что они уловят особенности конкретного дела, которые появятся при заслушивании лиц и во время выступлений адвокатов…» И необходимо помнить, что правосудие заключается «в адаптации общего правила к конкретной ситуации». Итак, если цифровые технологии и ИИ позволяют дать «точное видение верховенства закона», они должны ограничиваться лишь помощью при принятии решения, а «судья не должен им делегировать решение этой задачи».

Как указывает Антуан Гарапон, машины не могут «обрабатывать человеческие страсти». «Развод, в частности, всегда связан с человеческими отношениями, страстями. Чтобы назначить опеку над детьми или раздел мебели, необходимо учитывать человеческие данные, общаться, говорить лицом к лицу. Техника позволяет учесть многое, но не все. Но роль судьи также заключается и в том, чтобы истолковывать что-то живое, истолковать закон, который ИИ один не сможет постичь», – объясняет он. С алгоритмами прогнозирования, используемыми в правосудии, «риск в конечном итоге заключается в достижении бесчеловечной справедливости, основанной, в частности, на идее, что человек обязательно воспроизведет свое прошлое; в "замораживании" времени вплоть до того, чтобы определить людям некую социальную судьбу, ужасающий детерминизм», добавляет он.

Кроме того, риск, связанный с правосудием, использующим ИИ, также приводит к тому, что закон "ускользает" от законодателей и органов государственной власти и попадает в руки инженеров и частных компаний, которые, как уже сказано выше, не любят раскрывать свои технологические секреты. Эммануэль Пуанас и Антуан Гарапон, таким образом, выступают за осторожность при работе с технологиями, «которые могут оказать сильное влияние на сложные индивидуальные ситуации», и за «демократический контроль», позволяющий проверять такие системы и допускать или не допускать их использование… Зная, что «чем более сложным является конкретный случай, тем труднее для ИИ его решить», отмечает Стефан Филипсен, профессор конституционного права в Утрехтском университете.

Бестелесное правосудие против этических защитных мер
Ну а как насчет роли судьи, принципиально ставящего под сомнение подобные системы? Смогут ли магистраты уже завтра ставить под сомнение наиболее «справедливые» решения, предлагаемые ИИ? «Существует реальная опасность перформативного эффекта, то есть стремления к стандартизации практики, которая может быть серьезно вредна для участвующих в деле граждан. Эффект предикативного правосудия все еще трудно измерить, но он может ослабить решение профессионалов от правосудия», – полагает Флоранс Джиселл, профессор Лотарингского университета, участвовавшая в 2017 году в составлении доклада «Правосудие в цифровом виде», подготовленном Институтом Монтеня. «Мы не избежим перечитывания всех юридических документов; правосудие, вероятно, все больше и больше будет использовать алгоритмы; но нам придется сохранять места и время, когда и где мы действительно сможем обсуждать отдельные ситуации и вновь использовать дебаты живых людей, которые будут проходить в судах будущего», – добавляет Эммануэль Пуанас.

Поэтому необходимо быть осторожным, чтобы не «лишить жизнеспособности» судебное разбирательство, как это может сделать Эстония, которая вскоре должна начать использовать программу ИИ, ответственную за независимый арбитраж по делам о мелких преступлениях и судебным разбирательствам по вопросам заключаемых контрактов. Имеется в виду, что в случаях, касающихся фактов, ущерб от которых составляет менее 7000 евро, «судья-робот» должен определить, виновен ли человек. Цель этих «автономных» решений, выносимых ИИ: облегчить работу судей и секретарей судебных заседаний, чтобы они могли сосредоточиться на более сложных делах. Как рассказывает журнал Wired, ИИ останется «под наблюдением человека», и любой обвиняемый будет иметь возможность обжаловать решение машины, соответственно у ответчиков есть возможность требовать, чтобы дело рассматривал «обычный» судья. Но, как отмечает Эммануэль Пуанас, «во Франции мы используем подобную систему по автоматической обработке нарушений дорожного движения, и оспариваются немногие решения, принятые этой системой. Будет ли уровень опротестования в Эстонии действительно выше?»

Наконец, несомненно, было бы целесообразно следовать правилам Европейской этической хартии 2018 года, которая разрешает использование ИИ в судебных системах, при условии, что он «находится под контролем пользователя» (в данном случае – судьи), что он «уважает основные права», что он гарантирует полную «недискриминацию» и что его функционирование «прозрачно и беспристрастно». Кроме того, необходимо быть уверенным, что «Общий регламент защиты персональных данных», принятый постановлением Евросоюза, станет хорошей гарантией при автоматизации судебных решений: статья 22 регламента предусматривает, что каждый гражданин Европы имеет право «не быть субъектом решения, основанного исключительно на автоматизированной обработке, включая профилирование, имеющее правовые последствия».

Сокращенный перевод
Александра ПАРХОМЕНКО



 1 - Предиктивный – предсказательный.
 

10.02.2020

Фабьен СУАЙЕ CNET

 в избранное

Добавление комментария

Комментарии

  • Записей нет
ТЕМА НЕДЕЛИ ПРОВЕРОЧНАЯ ЖЕСТОКОСТЬ
Немотивированное ужесточение наказаний в виде замены условного срока на реальный нередко приводит в ступор не только осужденных и их защиту, но и само судейское сообщество. В июне 2024 года ВС даже пришлось...

Популярное
Новое