litbaza книги онлайнРазная литератураИскусственный интеллект. Этика и право - Елена Сергеевна Ларина

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 22 23 24 25 26 27 28 29 30 31
Перейти на страницу:
машины молодой нелегальный мигрант в США в возрасте, скажем, до 20 лет без официального гражданства будет наиболее подозреваемым ИИ в преступлении лицом. Из белого и латиноса машина выберет латиноса в полном соответствии с прошлыми данными. Это и называется пристрастностью ИИ, которая влияет на правоохранительные и судебные решения. – Авторы.

4

Человек, когда принимает решение, использует несколько критериев, одни из которых более важны, другие – менее важны. Сегодня для наиболее продвинутых ИИ нет способа выяснить в компактном и понятном виде, на основе каких конкретно критериев принимается решение относить объект к той или иной совокупности. Это вызывает большие опасения, потому что люди принимают решения, не понимая, почему они это делают. Проблема черного ящика и непонятности действий нейронных сетей для принимающих решения лиц без специального математического образования – это главная проблема использования ИИ в госуправлении. – Авторы.

5

Согласно данным доклада ФБР 2018 г. об использовании ИИ, а также конференции начальников полиции штатов в августе 2018 г. указанные в тексте факторы примерно на 80–90 % позволяют распознать в совокупности подозреваемых потенциального преступника с точностью более 95 %. Т. е. проблема состоит в том, что люди определенного возраста, пола, этнической, расовой принадлежности с конкретными социально-экономическими характеристиками совершают преступления намного чаще, чем представители других групп. Выявление значимых для вовлечения индивидуума в организованную преступность факторов и является главной функцией ИИ в правоохранительной и судебной сферах. Соответственно ИИ, как огромный арифмометр, быстро обрабатывающий гигантские данные и определяющий числовые зависимости межу всем, чем угодно в этих данных, опираясь на прошлый опыт, выраженный в корреляциях, регрессиях, факторном анализе делает очень точные выводы. По сути, ИИ – это методы максимально многомерного статистического анализа исходных данных. Как результат ИИ получает только то, что содержится в исходных данных, но непосредственно не обнаруживается человеком и представляет собой неочевидные связи. Поэтому американцы и страны Британского содружества его применяют. Европейцы же этой Хартией делают по сути невозможным использование ИИ, дело в том, что он будет указывать на, скажем, мусульманских молодых эмигрантов без работы гораздо чаще, чем накоренного немца со средним доходом и среднего возраста. А это противоречит толерантному подходу Европейской Комиссии. Между дискриминацией, как они ее называют и эффективностью прогноза, ради чего и используется ИИ, существует не прямая, как хотелось бы, а обратная зависимость. Просто в Европе правду называют дискриминацией. – Авторы.

6

В основу главы положен REPORT ON ALGORITHMIC RISK ASSESSMENT TOOLS IN THE U.S. CRIMINAL JUSTICE SYSTEM – THE PARTNERSHIP ON AI, 2019

7

Эрика Лумиса приговорили к шести годам заключения по рекомендации секретного проприетарного программного обеспечения частной компании. Лумис, который уже имел криминальную историю и был приговорен за то, что бежал из полиции на угнанной машине, теперь утверждает, что его право на процедуру было нарушено, поскольку ни он, ни его представители не смогли рассмотреть или опротестовать алгоритм рекомендации. Отчет был подготовлен программой Compas, которая продается Notrpointe судам. Программа воплощает новую тенденцию в исследованиях ИИ: помогает судьям принять более ориентированное на данные решение в суде.

Хотя конкретные подробности дела Лумиса остаются закрытыми, в нем наверняка содержатся диаграммы и числа, определяющие жизнь, поведение и вероятность рецидива Лумиса.

Среди них возраст, раса, гендерная идентичность, привычки, история браузера и какие-нибудь измерения черепа. Точнее никто не знает. Известно, что прокурор по делу сказал судье, что Лумис продемонстрировал «высокий риск рецидивизма, насилия, досудебного разбирательства». Это стандартно, когда дело касается вынесения приговора. Судья согласился и сказал Лумису, что «по оценке Compas он был определен как лицо, представляющее высокий риск для общества». Верховный суд штата Висконсин осудил Лумиса, добавив, что отчет Compas привнес ценную информацию в его решение, но отметил, что без него он вынес бы такой же приговор.

8

Artificial Intelligence. Ethics, governance and policy challenges, Report of a CEPS Task Force. Centre for European Policy Studies (CEPS). Brussels, February 2019.

9

European Tech Insights 2019. IE. Centre The Governance of chance.

10

Подробно о правовом регулировании ИИ в разных странах, в том числе и в России, см.: Понкин И.В., Редькина А.И. Искусственный интеллект с точки зрения права. Вестник РУДН. Серия: Юридические науки. 2018, т.22, № 1, с. 91–109; Новые законы робототехники. / Под ред. А.В. Незнамова. М., 2018; Регулирование робототехники: введение в «робоправо». / Под ред. А.В. Незнамова. М., 2018; Основы государственной политики в сфере робототехники и технологий искусственного интеллекта. / Под ред. А.В. Незнамова. М., 2019 и др.

11

Uber, AirBNB, Amazon и т. п. являются наиболее быстрорастущими сегментами американской глобальной экономики, т. е. установлению юридических требований через кодирование алгоритмов или алгоритмическое регулирование принадлежит будущее.

12

В данном случае закон фактически перестает регулировать деятельность обслуживающего персонала на платформе, например, телефонных консультантов, службы доставки и т. п. Их регулирует традиционное законодательство. В то же время в законе четко прописывается требование, например, свободы доступа клиента ко всем предложениям на платформе или напротив, обязательное установление подсистемами недопуска на платформу лиц, моложе 16 лет. Т. е. законодательство теперь не регулирует поведение, а определяет некоторые требования к алгоритмам, т. е. к тем или иным процедурам и последовательностям, которые затем, будучи записанными на языке программирования, т. е. к программам, которые автоматически исполняются на платформе. Т. о. закон впервые превращается в своего рода текстовое описание алгоритма или последовательности операций, которое затем кодируется на том или ином языке программирования и превращается в автоматически исполняемую платформой программу. Закон, таким образом, становится базисом для кода. Наиболее полно на сегодняшний день этот подход реализован в блокчейне, который, по сути, и представляет собой автоматически исполняемые действия в соответствии с кодированными контрактами. – Авторы.

13

Под системой ИИ ОЭСР понимает машинную систему, которая может для определенного набора определенных человеком задач делать прогнозы, рекомендации или решения, влияющие на реальную или виртуальную среду. Системы ИИ предназначены для работы с различными уровнями автономии.

1 ... 22 23 24 25 26 27 28 29 30 31
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?