Шрифт:
Интервал:
Закладка:
Из-за большого роста количества поисковых запросов по данным ключевым словам некоторые компании продвигают недостоверную информацию о технологиях искусственного интеллекта с целью получения дополнительных просмотров своей рекламы. Сейчас к любому технологическому стартапу или продукту легко можно добавить приставку «с искусственным интеллектом», причем совершенно не важно, правда это или нет, и получить таким образом дополнительные просмотры рекламных постов или переходы по рекламным ссылкам.
В своем посте на сайте Quora доктор Зеешан Зиа делает несколько занимательных наблюдений относительно практики создания шумихи вокруг технологий искусственного интеллекта. Например, согласно сообщению Зиа, в то время как в обсуждениях в научной среде особой шумихи по поводу технологий искусственного интеллекта обычно практически нет, нельзя сказать того же самого о множестве коммерческих предприятий, работающих в сферах, связанных с данными технологиями[317].
Поэтому всегда необходимо проверять источники любых заявлений относительно инструментов с искусственным интеллектом и их возможностей.
За все то время, которое люди населяют Землю, этика помогала нам определять, что правильно, а что – нет, и что можно допустить, а чего стоит избегать.
Так или иначе, этика дает обществу рамки с определенным набором принятых правил, необходимых для нормального сосуществования и взаимодействия.
В области технологий искусственного интеллекта одним из ярых сторонников этики в отношении развивающихся технологий является Герд Леонгард, автор книги «Технологии против человека». Леонгард утверждает, что каждый несет ответственность за вещи, которые создает: «Многие компании практически полностью лишены этики. Им нужны механизмы саморегулирования. Им необходимо принять свою ответственность. А если они не займутся этим сами, то, по моему мнению, мы должны будем сделать это за них»[318].
И я полностью согласен с его суждением. После изучения работы Леонгарда я еще больше убедился в важности этики в мире технологий искусственного интеллекта. Я уверен в том, что данную идею необходимо преподавать в университетах и других образовательных учреждениях. Я также рекомендую каждому прочесть его последнюю книгу по теме, которая даст дополнительную информацию о взаимодействии этики и технологий.
Шведский философ Ник Бостром, основавший «Институт будущего жизни» и написавший книгу Superintelligence: Paths, Dangers, Strategies, стал еще одним сторонником применения этических норм при создании технологий искусственного интеллекта.
Вместе с несколькими ведущими экспертами в области технологий искусственного интеллекта Институт будущего жизни разработал набор принципов ИИ, которые были разделены на три пункта: «Исследовательские проблемы», «Этика и ценности» и «Долгосрочные проблемы».
Раздел «Этика и ценности» включает в себя:
1. Безопасность. Системы с искусственным интеллектом должны быть безопасными для использования, и их безопасность должна быть доказуемой, если это применимо и обосновано.
2. Прозрачность ошибки. Если система с искусственным интеллектом причиняет вред, то должна быть возможность понять почему.
3. Юридическая прозрачность. Любое применение автономной системы для принятия юридических решений должно быть соответствующим образом обосновано, и такое обоснование должно быть проверяемым компетентными представителями власти.
4. Ответственность. Разработчики и создатели продвинутых систем с искусственным интеллектом должны нести ответственность за нравственные последствия их использования, в том числе ненадлежащего, а также иметь возможность разделить эту ответственность.
5. Ценностная настройка. Полностью автономные системы с искусственным интеллектом должны разрабатываться таким образом, чтобы их цели и схемы поведения точно совпадали с человеческими ценностями в течение всего времени их использования.
6. Человеческие ценности. Системы с искусственным интеллектом должны быть разработаны и использоваться таким образом, чтобы они были совместимы с идеалами человеческого достоинства, прав, свобод, а также культурного многообразия.
7. Безопасность личного пространства. Люди должны иметь право на доступ, управление и контроль над данными, которые они создают, применяя системы с искусственным интеллектом для анализа и обработки этих данных.
8. Свобода и приватность. Применение искусственного интеллекта для обработки персональных данных не должно необоснованно ограничивать реальную или воображаемую свободу человека.
9. Общий доступ к преимуществам. Преимуществами технологий искусственного интеллекта должны воспользоваться как можно больше людей.
10. Всеобщее процветание. Экономическое процветание, обеспечиваемое технологиями искусственного интеллекта, должно быть широко распространено, во благо всего человечества.
11. Человеческий контроль. Люди должны выбирать, какие процессы принятия решений при необходимости передавать системам с искусственным интеллектом для достижения выбранных человеком целей.
12. Невредительство. Власть, предоставляемая с получением контроля над продвинутыми системами с искусственным интеллектом, должна уважать и улучшать социальные процессы, от которых зависит здоровье общества, а не вредить им.
13. Гонка вооружений с искусственным интеллектом. Необходимо избегать гонки вооружений с созданием автономного летального оружия с искусственным интеллектом[319].
Я уверен в том, что следовать этим нормам при разработке продуктов с искусственным интеллектом необходимо, как и преподавать эти нормы в образовательных учреждениях.
Для получения более подробной информации об этике в мире технологий искусственного интеллекта я рекомендую посмотреть данное часовое видео, в котором присутствуют несколько уважаемых экспертов в области искусственного интеллекта. Среди них – Илон Маск, Сэм Харрис, Ник Бостром, Дэвид Чалмерс, Барт Селман и Яан Таллин, которые делятся своим мнением относительно развития технологий искусственного интеллекта и того, как нам подготовиться к преодолению этических проблем, которые принесут с собой эти технологии. https://youtu.be/h0962biiZa4