Шрифт:
Интервал:
Закладка:
Я приведу лишь один пример из сотен, чтобы дать общее представление о Канемане[78]. Это история Линды, которую я позволю себе адаптировать к реалиям современной Франции. Линда – студентка социологического факультета, активистка, которая борется с несправедливостью и ущемлением прав других видов. Она участвовала в оккупации кампуса Жюсье во время забастовок весны 2018 года. Кем она с бо́льшей вероятностью станет спустя десять лет:
1. воспитательницей в детском саду;
2. преподавателем йоги;
3. банковским работником;
4. социальным работником;
5. банковским работником, борющимся за права животных?
Большинство опрошенных учитывают предположительные личные качества Линды и полагают, что она, скорее всего, станет «банковским работником, борющимся за права животных». Но, если задуматься и провести очень простое логическое рассуждение, становится ясно, что это не так, поскольку вариант 5 является лишь подчиненной категорией варианта 3: вероятность того, что Линда станет «банковским работником, борющимся за права животных», не может быть больше вероятности того, что она станет просто банковским работником. Эта распространенная ошибка иллюстрирует предубеждение «репрезентативности», в силу которого вкус к стереотипу берет верх над элементарным статистическим рассуждением.
Эти психологические открытия, которые кажутся довольно тривиальными читателю, хорошо знакомому с максимами классических моралистов, оказали огромное влияние на экономическую науку, которая до 1970‐х годов опиралась на постулат рационального индивида, то есть Homo economicus, способного оптимизировать собственную полезность. Работы Канемана тесно связаны с возникновением поведенческой экономики, которая рассматривает человека вместе со всеми его изъянами. Так, Ричард Талер, соратник Канемана и ведущая фигура поведенческой экономики, проводит в нашем поведении различие между тем, что относится к «экону» (равноценному «системе 2»), и тем, что относится к «человеку» («система 1»). Эти исследования здравого смысла изменят весь подход к рынку, который отныне должен будет учитывать менее обдуманные решения. Задача не в том, чтобы сделать человека совершенно рациональным (что, к счастью, невозможно), а в том, чтобы минимизировать негативные экстерналии, вызванные предвзятыми решениями. Сегодня эти тезисы в академическом мире считаются вполне подтвержденными: в 2002 году Канеман получил Нобелевскую премию по экономике, а в 2017 году ее вручили и Талеру.
Это привело к перевороту в публичной политике. С точки зрения гипотезы рационального агента, которую можно назвать фридмановской, считалось недопустимым защищать индивида от него самого, поскольку каждый принимает результаты собственного выбора, сделанного с полным знанием дела. И наоборот, человека, склонного к иллюзиям и поспешным суждениям, можно и должно подталкивать к решениям, которые внешний наблюдатель, в данном случае регулятор, сочтет лучшими. Именно это Тайлер и назвал «либертарианским патернализмом»: индивиду надо предоставить весь набор возможных вариантов, но «подталкивая его локтем» (по-английски nudge[79]) к тому варианту, который представляется наиболее желательным. Например, если мы замечаем, что студенты в столовой обычно берут первое блюдо, которое стоит на раздаче прямо перед ними, можно устроить так, чтобы это был салат, а не гамбургер, но не запрещать им целенаправленно выбирать менее здоровую еду. Таким образом, можно использовать те самые механизмы, которые ведут к ошибке, чтобы защититься от наших негативных инстинктов. Эта политика подталкивания стала чрезвычайно популярной среди политиков в начале 2010‐х годов: британский премьер-министр создал в своем правительстве специальный Nudge Policy Unit. Даже Google использует внутри компании такие «подталкивания», чтобы снизить потребление мяса среди сотрудников или повысить производительность за счет системы персональных извещений. В Кремниевой долине даже стали нанимать «специалистов по подталкиванию», nudge scientists…
Но какое отношение все это имеет к ИИ? Канеман сам указывает на это отношение, комментируя опыты Пола Мила. Этот психолог в 1950‐х годах решил доказать превосходство «статистического предсказания» над «клиническим предсказанием». Мил изучил, как профессиональные работники образования предсказывают будущие оценки студентов первого года, основываясь на сданных экзаменах, на тестах способностей, а также на личной беседе. Затем он сравнил эти прогнозы с результатом строгой математической формулы, основанной на некоторых простейших данных. Выяснилось, что формула регулярно давала лучший результат, чем человеческое суждение. Это, по мнению Мила, доказывало, что эксперт всегда находится под влиянием слишком большого числа неточных критериев и субъективных мнений, будь они сознательными или нет. И наоборот, простые правила и анкеты, не зависящие от «системы 1», обладают доказанными преимуществами, которые хорошо известны летчикам и альпинистам: в случае паники лучше полагаться на учебник, чем на интуицию. Отсюда важность приобретения определенных «автоматизмов», которые превращают нас, по сути, в автоматы. Канеман полностью разделяет эти выводы: «Эксперты уступают алгоритмам». Из этого он выводит определенные следствия, имеющие значение для мира ИИ, в котором алгоритмы производят все больше и больше статистических вычислений: надо преодолеть наше естественное предпочтение человеческого суждения (например, врача или адвоката) и научиться доверять машине, чистой «системе 2», свободной от любых предубеждений. «К счастью, – заключает Канеман, – враждебное отношение к алгоритмам, вероятно, будет ослабевать по мере возрастания их роли в повседневной жизни».
Теперь мы лучше понимаем, почему Канеман важен для столь многих поборников ИИ. Иррациональность наших повседневных суждений оправдывает помощь машины, способной определить наши личные потребности и при этом избежать наших когнитивных иллюзий. Поскольку мы сами не смогли бы обрабатывать постоянно поставляемую машиной информацию, почему бы не попросить ее упростить и сам процесс принятия решения, ненавязчиво руководя нами и нашим поведением? А поскольку наша «система 2» дает нам лишь весьма несовершенное представление о самих себе, не могли бы мы возложить на ИИ также и задачу определения наших истинных желаний, чтобы машина помогала в совершенствовании не только эффективности наших решений, но и самой их природы? Таким образом, ИИ мог бы действовать в качестве своего рода универсального nudge, заранее выполняя за нас работу по выбору и надолго помещая нас в общество турникетов[80].
Канеман не отрицает существования свободы воли. Он довольствуется тем, что связывает ее с «системой 2», которая относительно слаба, поскольку не имеет возможности справляться с постоянным потоком информации и может мобилизоваться только в исключительных обстоятельствах и ценой заметных усилий. Будучи психологом, Канеман сосредотачивает свои исследования на ошибках «системы 1», оставляя другим вопросы сознания и свободного выбора, помещенные в черный ящик «системы 2». Множество современных ученых, занимающихся нейронауками, ответили на этот вызов, постаравшись доказать, что само понятие свободы воли является наследием средневековой метафизики. По мере расшифровки работы мозга мы сможем свести способность принимать решения к химическим процессам, которые могут быть раскодированы и подсчитаны. Станислас Деан, один из ведущих ученых в этой области, решил реабилитировать картезианское представление о чисто механическом устройстве мозга[81]. Он хочет раз и навсегда покончить с идеей души, духа или сознания, которое якобы способно абстрагироваться от законов молекулярной биологии и делать «свободный» выбор (то есть выбор в определенном смысле случайный и даже произвольный). То, что философ Дэвид Чалмерс назвал