Шрифт:
Интервал:
Закладка:
Этически ориентированный, или так называемый надежный (reliable), ИИ включает три взаимосвязанных аспекта, каждый из которых предполагает отдельный уровень экспертной оценки.
Во-первых, его разработка и применение должны соответствовать существующему законодательству и правоприменительным практикам, не нарушать прав и обязанностей граждан, не мешать их исполнению. Успешная реализация настоящего требования предполагает проведение юридической экспертизы с привлечением советующих квалифицированных специалистов.
Во-вторых, разработка надежного ИИ предполагает соблюдение и воспроизводство ключевых этических норм, принципов и ценностей, присущих определенной культуре или региону. Для их соблюдения также необходимо привлечение соответствующих экспертов, а именно тех, кто обладает достаточными компетенциями для проведения самой этической экспертизы ИИ. В число таких экспертов могут входить люди с междисциплинарной подготовкой и разносторонней квалификацией: философы, психологи, социологи, управленцы и др. [Russell, Norvig, 2009].
В-третьих, разработка и внедрение ИИ должны быть надежными с социальной точки зрения. Под этим параметром подразумевается этическая безопасность применения ИИ, когда объектом воздействия является большое количество людей или общество в целом. Даже при успешном прохождении этической экспертизы системы искусственного интеллекта могут причинить непреднамеренный или незаметный вред в краткосрочной перспективе. Для устранения таких рисков применение ИИ должно поддерживаться не только технологиями конечного внедрения, но и процедурами долгосрочного мониторинга.
В оптимальной перспективе все три компонента должны работать слаженно и поддерживать друг друга. Если на практике между этими компонентами возникает конфликт или несогласованность экспертных сообществ, группы разработчиков и государство должны стремиться к их устранению.
Мы сосредоточимся главным образом на втором и частично на третьем принципах разработки надежного ИИ. Нашей задачей является анализ этических аспектов разработки и внедрения ИИ, а также анализ его социального и антропоразмерного потенциала. Настоящая работа преследует три цели: описательную, аналитическую и рекомендательную.
В рамках первой цели мы предлагаем схематичный обзор возможных применений ИИ в судебной системе и определенном отраслевом сегменте (образование, здравоохранение, ЖКХ). Данный обзор ни в коем случае не претендует на полный охват существующих и разрабатываемых технологий ИИ. Он нацелен на подбор иллюстративного материала для ситуаций, с которыми могут столкнуться управленцы-практики в выбранных нами отраслях, анализ которого поможет решить текущие и спрогнозировать дальнейшие этические затруднения при внедрении технологий ИИ.
Вторая цель, аналитическая, является центральной для данного руководства и указывает собственно на этически проблемные стороны внедрения и применения ИИ в определенных отраслевых сегментах и судебной системе. Согласно аналитическому замыслу раздела мы не ограничиваемся одной лишь констатацией возможных проблем, но показываем логику их формирования, что должно помочь обнаружению и прогнозированию аналогичных этических трудностей работы технологий ИИ и в других отраслевых сегментах, которые не вошли в данную книгу.
Наконец, рекомендательная цель книги заключается в описании критериев улучшения работы ИИ в случае возникновения этических затруднений и проблем при его внедрении. Реализация этой цели не предполагает формирования полного и детализированного перечня управленческих практик, в которых ИИ-технологии способствуют совершенствованию отраслевой деятельности, так как постоянные инновации в разработках ИИ быстро делают такую работу неактуальной. Нам важнее указать на общие типы проблем при этической оценке ИИ, которые можно в дальнейшем распространять на новые ситуации.
В свою очередь, для реализации рекомендательной цели на более системном уровне требуется отдельный документ, подготовленный на основе данной работы соответствующей группой специалистов. Настоящая книга состоит из четырех частей, в каждой из которых описан соответствующий блок отраслевых инноваций ИИ, дан аналитический разбор потенциальных несовершенств этического характера и пул возможных рекомендаций по их устранению.
Книга построена так, что разбор ключевых сложностей внедрения ИИ в различных отраслевых сегментах дан поблочно (на материале конкретных кейсов). В начале книги приведен общий анализ прикладных проблем, связанных с этикой разработки и внедрения искусственного интеллекта, затем изложены руководящие принципы и ценности этически ориентированного искусственного интеллекта и далее анализ этических проблем внедрения по секторам. Каждая глава посвящена отдельной отрасли и делится на две части: в первой дан собственно обзор этических аспектов применения и внедрения ИИ и, во второй, пул рекомендаций по возможному их устранению или минимизации. Таким образом, текст настоящей работы имеет выраженно прикладное и рекомендательное назначение. В книге выделяются четыре основные сферы, где использование ИИ требует решения ряда этических проблем:
1. Судебная система. Конкретная правовая и судебная практика.
2. Образование. Отслеживание успехов учащихся и целевая помощь в планировании образования и трудовой карьеры.
3. Здравоохранение. Медицинская помощь гражданам, комплекс диагностических процедур, системы мониторинга здоровья и терапии.
4. ЖКХ. Системы «Умный дом».
Мы надеемся, что помимо студентов, аспирантов, представителей академического сообщества наша книга будет полезна государственным управленцам, экспертам, которые на практике сталкиваются с различными барьерами при отраслевом внедрении технологий ИИ, а также осуществлении государственного отраслевого регулирования согласно этическим принципам и верховенству закона.
Руководящие принципы и ценности этически-ориентированного ИИ
Индустрия ИИ и робототехники в современном мире стремительно развивается, хотя многие вопросы взаимодействия ИИ с обществом остаются либо принципиально нерешаемыми, либо неуспевающими за технологическим развитием. Революция робототехники обещает массу преимуществ, но, как и в случае с другими новыми технологиями, она сопряжена с рисками и новыми вопросами, с которыми общество должно столкнуться. Использование роботов должно соответствовать законодательным нормам и этическим принципам, но сами эти нормы и принципы могут быть не до конца выяснены в области взаимодействия с ИИ. Социальная рефлексия нередко медленно «догоняет» технологические инновации, что приводит к образованию «этического вакуума» [Moor, 1985]. Такой эффект означает, что ИИ-технологии развиваются по своим собственным законам, и это приводит к ряду этических коллизий и противоречий. Чтобы их избежать, необходимо провести ревизию существующих этических лакун в области использования ИИ и наметить пути их устранения. Искусственный интеллект все еще находится в зачаточном состоянии с точки зрения сопутствующих его развитию этических исследований.
Существует две взаимосвязанные проблемы использования ИИ с точки зрения этики. Первая – согласование работы ИИ с существующими в обществе ценностными установками. Вторая – формализация данных ценностных установок. Большинство программ ИИ ориентированы на нейтральный анализ данных. Однако для ряда задач, связанных с оценкой человеческой деятельности, это невозможно, противоречит законодательству или неэтично. Отсутствие ценностной составляющей лишает смысла работу программы для человеческих нужд. Одним из естественных способов минимизации риска причинения вреда программами ИИ (например, роботами) является их программирование в соответствии с нашими законами или этическим кодексом. Однако здесь перед нами встает ряд трудностей: законы могут быть расплывчатыми и контекстно-зависимыми, а сами роботы могут оказаться достаточно сложными для программирования в соответствии со всеми правовыми и этическими нормами. Более того, в силу ограниченности ценностных выборов конкретной ситуацией, бесконечность вариантов решений, с которым работает программа ИИ, может всерьез затруднить