litbaza книги онлайнДомашняяСовместимость. Как контролировать искусственный интеллект - Стюарт Рассел

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 72 73 74 75 76 77 78 79 80 ... 94
Перейти на страницу:

Как и в случае садизма и злобности, мы можем предположить, что Робби должен будет приписывать малый или нулевой вес гордыне и зависти от своих планов помощи Алисе и Бобу. Однако это предложение сталкивается с некоторыми трудностями. Поскольку гордыня и зависть противодействуют заботе в отношении Алисы к благополучию Боба, будет нелегко их разделить. Может оказаться, что Алиса очень заботлива, но в то же время страдает от зависти; трудно отличить эту Алису от другой Алисы, которой лишь самую малость не наплевать на Боба, зато она совсем не завидует ему. Более того, в силу преобладания гордыни и зависти в человеческих предпочтениях критически важно учесть негативные последствия их игнорирования. Возможно, они принципиальны для самооценки, особенно в положительной форме самоуважения и восхищения другими.

Позвольте мне еще раз подчеркнуть ранее сделанное замечание: правильно сконструированные машины не будут вести себя так, как те, чье поведение они наблюдают, даже если они изучают предпочтения демонов-садистов. Возможно даже, что, оказавшись в незнакомой ситуации повседневного взаимодействия с чисто альтруистическими сущностями, мы научимся быть лучшими людьми — более альтруистичными и менее управляемыми гордыней и завистью.

Тупые, эмоциональные люди

Название этого раздела не выделяет конкретный подтип людей. Оно относится ко всем нам. Мы все невероятно тупы по сравнению с недостижимым уровнем идеальной рациональности и все подвержены эмоциональным переменам, в значительной мере управляющим нашим поведением.

Давайте начнем с тупости. Идеально рациональная сущность максимизирует ожидаемое удовлетворение своих предпочтений во всех возможных будущих жизнях, которые могла бы для себя избрать. Я не в состоянии написать число, характеризующее сложность этой проблемы принятия решения, но считаю полезным следующий мысленный эксперимент. Сначала заметьте, что количество выборов в области двигательного контроля, которые человек делает в течение жизни, составляет около 20 трлн (см. подробные расчеты в Приложении А). Далее, посмотрим, куда заведут нас вычисления методом перебора на описанном Сетом Ллойдом ноутбуке с предельными физическими возможностями, который в миллиард триллионов триллионов раз быстрее самого быстрого в мире компьютера. Поручим этому устройству перебрать все возможные последовательности слов английского языка (скажем, в порядке разминки перед Вавилонской библиотекой из рассказа Борхеса) и оставим его на год работать. Последовательности скольких слов он сможет пересчитать за это время? Тысячу страниц текста? Миллион страниц? Нет. Одиннадцать слов. Это дает некоторое представление о трудности конструирования наилучшей возможной жизни из 20 трлн действий. В общем, мы намного дальше от рациональности, чем слизень от возможности обогнать космический корабль «Энтерпрайз» из «Звездного пути» при искривлении пространства девятого уровня. Мы не имеем ни малейшего представления о том, какой должна быть рационально выбранная жизнь.

Из этого следует, что люди часто действуют против собственных предпочтений. Например, Ли Седоль во время матча, проигранного программе AlphaGo, сделал один или даже несколько ходов, гарантировавших проигрыш, и AlphaGo смогла (по крайней мере, в некоторых случаях) это зафиксировать. Однако для AlphaGo было бы неправильно сделать вывод, что Ли Седоль имеет предпочтение проиграть. Нет, было бы разумно заключить, что Ли Седоль предпочитает выиграть, но некоторые ограничения вычислительных возможностей не позволяют ему выбирать верный ход во всех случаях. Таким образом, чтобы понять поведение Ли Седоля и узнать его предпочтения, робот, следующий третьему принципу («решающим источником информации о человеческих предпочтениях является человеческое поведение»), должен сколько-нибудь разбираться в когнитивных процессах, обусловливающих это поведение. Он не может по умолчанию считать его рациональным.

Это ставит очень серьезную исследовательскую проблему перед создателями ИИ, специалистами по когнитивной науке, психологами и нейробиологами: каким образом достичь настолько глубокого понимания человеческой познавательной деятельности[313], чтобы мы (или, скорее, наши полезные машины) могли «ретроспективно вывести» из поведения человека его глубинные предпочтения, если таковые имеются? Люди отчасти справляются с этим, усваивая ценности других, руководствуясь врожденными навыками, так что, по-видимому, это возможно. У людей есть преимущество: они могут использовать собственную когнитивную архитектуру, чтобы моделировать чужую, даже не зная, что это за архитектура: «Если я хочу Х, то делаю то же самое, что мамочка, значит, мамочка, по-видимому, хочет Х».

Машины этого преимущества лишены. Они с легкостью моделируют другие машины, но не людей. Не похоже, чтобы они в скором времени получили доступ к полной модели человеческой когнитивной деятельности, будь то видовой или ориентированный на конкретных индивидов. Вместо этого имеет смысл с практической точки зрения рассмотреть основные пути отклонения людей от рациональности и изучить вопрос о том, как узнавать предпочтения по поведению, демонстрирующему эти отклонения.

Одно из очевидных различий между людьми и рациональными сущностями состоит в том, что в любой отдельный момент мы не делаем выбор из всех возможных первых шагов для всех возможных вариантов жизни. Мы очень от этого далеки. Типичный человек встроен в глубоко укорененную иерархию «стандартных подпрограмм». В общем, мы преследуем ближайшие цели, а не максимизируем предпочтения в отношении будущей жизни, и можем действовать лишь в соответствии с ограничениями стандартных подпрограмм, имеющихся у нас в настоящее время. В данную минуту, например, я печатаю это предложение: я могу выбирать, как продолжить его после двоеточия, но мне никогда не придет в голову задуматься о том, чтобы бросить его писать, а вместо этого прослушать онлайновый курс для рэперов, или сжечь дом и потребовать страховку, или о любом другом из мириад действий, которые я мог бы совершить. Вероятно, многие из них были бы лучше того, что я делаю сейчас, но с учетом моей иерархии обязательств для меня они все равно что не существуют.

Судя по всему, понимание действий человека требует понимания его иерархии стандартных подпрограмм (весьма индивидуальной): какую подпрограмму данный человек выполняет сейчас, какие краткосрочные цели преследуются в рамках этой подпрограммы и какое отношение они имеют к глубинным, долгосрочным предпочтениям. Обобщая, можно сказать, что выяснение человеческих предпочтений требует узнавания реальной структуры человеческой жизни. Каковы все те дела, которыми мы, люди, можем заниматься, поодиночке или вместе? Какие занятия характерны для разных культур и типов индивидов? Это невероятно интересные и серьезные вопросы для исследования. Очевидно, у них нет конкретного ответа, поскольку мы, люди, постоянно пополняем свой «репертуар» новыми видами деятельности и поведенческими структурами. Однако даже частичные и промежуточные ответы были бы очень полезны для интеллектуальных систем всех типов, призванных помогать людям в их повседневной жизни.

1 ... 72 73 74 75 76 77 78 79 80 ... 94
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?