Шрифт:
Интервал:
Закладка:
Как правило, проекты моделирования ИИ для формализации решения правовых вопросов построены по принципу алгоритмической матрицы оптимизации решений. Это значит, что система нацелена на так называемый «честный», или «холодный», поиск минимально затратного решения при максимальной его полезности. Мораль или справедливость подобных суждений не определена заранее и зависит от способа усвоения правил (объективный критерий, который был выбран), а также от того, каким образом была сформирована выборка для принятия решения. Кроме того, как правило, в человеческой коммуникации столкновение идей позволяет человеку прояснить свою собственную позицию, осознать ошибки, даже если изначально неверный выбор был сделан осознанно. Но большинство машинизированных решений на сегодняшний день не инициирует самостоятельный пересмотр решения. В связи с этим возникает деликатный вопрос: как определить или с помощью каких «измеримых» характеристик перевести понятия лояльности, доверия, ответственности (справедливости, достоверности, подотчетности), применяемые к алгоритмическим решениям. Нерешенные вопросы, подразумеваемые в данном сегменте цифровизации правовой сферы, вытекают из трудности формализации целого спектра, собственно ценностных категорий. Смысловые и ценностные (семантические и аксиологические) аспекты коммуникации сопровождаются неопределенностью и при взаимодействии людей. Однако в случае человеческой коммуникации они многократно уточняются и заменяются в процессе интеракции. Компьютеризированное взаимодействие не предполагает оперативной коррекции в процессе уже заданного общения. Отсюда возможны погрешности коммуникации с точки зрения представления интересов той или иной стороны. В частности, машинизированное решение может заключаться в оптимальном решении приобщения к исковому заявлению всех материалов дела, в то время как защищающий интересы подопечного адвокат-человек может ограничиться частичной выборкой. Нарушения в коммуникации могут возникать на протяжении всей цепочки взаимодействия между разными участниками процесса.
2. В настоящее время в судебной системе активно обсуждается вопрос о возможности полной замены судей системами ИИ. Аргументом в пользу такой замены, как было сказано выше, является избегание предвзятости, уменьшение коррупционной компоненты судопроизводства, устранение фактора дискриминационной погрешности, которая может зависеть от расы, пола, внешности, типа занятости или биографии человека. Идея замены человека-судьи на компьютеризированного исполнителя могла бы наиболее совершенным образом воплотить идею бесстрастности и независимости суда. Судебное решение устремится к максимальной формализации и объективности, согласно существующим нормам закона. Субъективный фактор в судейском решении должен быть сведен к минимуму. При таких характеристиках судебное решение в идеале должно сводиться к подведению любого частного случая (спора или коллизии) под реализацию общего закона. Судебное решение в этом случае будет четко формализованным предписанием. Фактически оно будет стремиться к четкому алгоритмическому выводу, где все значения пошагово прояснены (подкреплены законом и нормами права) и прозрачны для воспроизведения другим судьей при тех же вводных. При таком определении статуса судебных решений их полноценная компьютеризированная эмуляция должна оказаться делом техники. В идеале ИИ будет со стопроцентной вероятностью воспроизводить решение человека-судьи и наоборот. Наличие погрешностей же будет либо указывать на несовершенства человеческих решений (не принявших во внимание ряд объективных факторов или допустивших примесь субъективной оценки), либо на несовершенства самого ИИ, который ошибся на семантическом (при установлении значения), но не логическом участке работы [Miller, Wolf, Grodzinsky, 2019].
Кейс. В декабре 2018 года была принята Европейская этическая хартия о использовании искусственного интеллекта в судебных системах. Она стала первым международным актом, регулирующим использование ИИ в судопроизводстве [Нагорная, 2019].
Кейс. Специалисты из Университетского колледжа Лондона и Университета Шеффилда создали программное обеспечение, которое может предсказать решения по реальным судебным процессам с вероятностью, превышающей 70 %. С помощью данной разработки удалось спрогнозировать ряд решений ЕСПЧ с точностью до 79 %. В 2019 году с помощью этого же обеспечения ИИ-судья вынес решения по шести делам, пять из которых полностью совпали с решениями ЕСПЧ. В процессе анализа существа данных дел ИИ обработал около 600 дел с вынесенными и обнародованными судебными решениями, пока не пришел к собственному приговору [Taylors, 2020].
Вопрос о полноценной замене решений человека-судьи с помощью ИИ является сейчас очень обсуждаемым и дискуссионным. Сама идея об ИИ в правосудии задевает важные этические вопросы, связанные с автономией и юридической ответственностью самих ИИ.
Серьезная проблема в сфере алгоритмизации правовых решений – баланс между принятой человеком ответственностью и решениями ИИ. Человека можно судить за нарушение чужих прав и несоблюдение возложенных на него обязанностей. В ситуации, когда судейские решения выносятся человеком, на судью также возлагается и определенная ответственность, а также необходимость соблюдения прав [Sharkey, 2019]. В случае нарушения судьей возложенных на него обязательств он должен понести определенное наказание. Например, судья несет ответственность за совершение судебной ошибки, однако неясно, в какой степени мы можем возлагать ответственность ИИ на судью. В связи с риском ошибок ИИ может быть неясно, кто несет ответственность за любой возникающий ущерб. Законы об ответственности за продукцию на текущий момент часто возлагают ответственность на производителей (как это происходит через лицензионные соглашения с конечными пользователями в области программного обеспечения). Так, в случае производства военных роботов по всей цепочке поставок существует список субъектов, которые могут быть привлечены к ответственности: программист, производитель, группа правовой экспертизы оружия, офицер по военным закупкам, куратор робота и т. д. Некоторые специалисты полагают, что по мере того как роботы станут более автономными, ответственность можно будет возложить на них. Если ИИ способен продемонстрировать достаточно функций, которые обычно определяют индивидуальность человеческого субъекта, то его можно будет считать ответственным лицом. Однако другие специалисты указывают, что ответственность не может возлагаться на ИИ в силу отсутствия у последнего спонтанной свободы и внутреннего сознания [Warwick, 2011]. Как следствие, ситуация, в которой человека, наделенного ответственностью, обязанностями и правами, судит лицо, предположительно не обладающее такими характеристиками, представляется не справедливой. Процедура, в которой человека судит машина, является этически нерелевантной по причине того, что оба участника судопроизводства, как судья, так и обвиняемый, должны быть одинаково подотчетны закону. Закон должен быть един и для обвиняемого, и для судьи. Согласно концептуальной рамке суда как процесса, все лица, включенные в него, должны обладать равным доступом к правам и возможностям реализовать свою ответственность. Иными словами, все участники судебного процесса должны быть субъектами права. Однако на сегодняшний день нет ясности в том, можно ли считать ИИ-судью субъектом права или, скорее, техническим помощником. Нет ясности в том, считаем ли мы подотчетным закону сам ИИ, его создателей или пользователей. В условиях отсутствия ясности в этом вопросе отношения между обвиняемым и ИИ-судьей выглядят неопределенными, а сам акт вынесения судебного решения ИИ неэтичным с точки зрения нарушения равенства и паритета гражданских отношений. Возникает риск того, что