Шрифт:
Интервал:
Закладка:
Десять лет спустя Отор и один его коллега отнесли «принятие заказов» к числу «нестандартных» задач. Но в том же году рестораны Chili’s и Applebee’s в США объявили об установке ста тысяч планшетов, благодаря которым клиенты могли делать заказы и оплачивать их без помощи официанта; их примеру последовали McDonald’s и другие сети. Даже некоторые весьма своеобразные задачи поддались натиску автоматизации. Всего несколько лет назад заявлялось, что будет трудно автоматизировать «распознавание птицы за доли секунды», но сейчас такая система уже существует – это программа Merlin, разработанная учеными-компьютерщиками в Корнеллской лаборатории орнитологии в США.
Конечно, вполне резонно усомниться в том, что эти задачи были полностью автоматизированы. В настоящее время все еще существуют болезни, которые диагностические системы бессильны интерпретировать, и птицы, которых Мерлин не может идентифицировать. Современные автомобильные системы «автопилот» все еще требуют человеческого внимания. Но важно отметить направление движения: многие «нестандартные» задачи теперь находятся в пределах досягаемости машин, что было немыслимо до самого последнего времени[208].
Что же пошло не так с предсказаниями? Проблема заключается в том, что гипотеза ОЛМ пренебрегла революцией прагматиков. Экономисты считали, что для выполнения поставленной задачи компьютер должен следовать правилам, которые четко сформулировал человек, – т. е. в основе машинных возможностей должно лежать нисходящее применение человеческого интеллекта. Возможно, так оно и было в первой волне развития искусственного интеллекта. Но, как мы видели выше, теперь это уже не так. Современные машины могут научиться выполнять задачи самостоятельно, выводя собственные правила снизу вверх. Уже не имеет значения, что людям трудно объяснить, как они управляют автомобилем или распознают стол; машины больше не нуждаются в их объяснениях. А это значит, что теперь им под силу взять на себя множество «нестандартных» задач, которые когда-то считались вне пределов их досягаемости.
Из этого вытекает очевидное следствие: экономисты должны переписать свои истории о технологиях и работе. Набор задач, все еще выполняемых людьми, сузился больше, чем они могли предсказать. И в последних работах ведущих экономистов такой пересмотр уже начался. Растет понимание того, что традиционные предположения о возможностях машин больше не выдерживают критики, что в делении на «рутинные» и «нестандартные» задачи есть какой-то изъян. Тем не менее экономисты нередко все еще предлагают сохранить это первоначальное деление, просто корректируя и обновляя его, вместо того чтобы полностью отказаться от гипотезы ОЛМ.
В настоящее время многие экономисты понимают свою ошибку: они не догадывались, что новые технологии превратят многие «нестандартные» задачи в «рутинные». Ведь «нестандартные» задачи определяются как те, что требуют «негласного» знания, которое людям трудно сформулировать. Экономисты утверждают, что в настоящее время новые технологии просто раскрывают некоторые из тех неявных знаний, на которые полагаются люди. Различие между «рутиной» и «нерутиной» все еще полезно, утверждают они; новые технологии просто сдвигают границу между ними, которую экономисты когда-то (ошибочно, по их признанию) считали фиксированной. Таким образом, они пытаются спасти гипотезу ОЛМ. Дэвид Отор, например, утверждает, что современные ученые пытаются автоматизировать «нестандартные» задачи, «выводя правила, которые мы применяем, но отчетливо не понимаем»; Дана Ремус и Фрэнк Леви говорят, что новая технология «объясняет негласный протокол»[209].
Чтобы увидеть на практике, как работает такой подход, рассмотрим систему, придуманную группой исследователей из Стэнфордского университета в 2017 году для выявления рака кожи. Если вы дадите ей фотографию родинки, она может определить, является ли та злокачественной, с такой же точностью, как 21 ведущий дерматолог. Как ей это удается? Располагая базой данных из 129 450 случаев, она ищет сходство между ними и изображением этого образования. Обновленная гипотеза ОЛМ предполагает, что эта машина для распознавания родинок работает, потому что она способна идентифицировать и извлекать из архива невыразимые правила, которые дерматологи не могут сформулировать, хотя сами им следуют. Машина делает их негласные правила явными, превращая «нестандартную» задачу в «рутинную».
Однако такое объяснение принципов работы стэнфордской машины неверно. Идея о том, что машины раскрывают до сих пор скрытые человеческие правила, проникая все глубже в молчаливое понимание людьми мира, все еще исходит из того, что именно человеческий интеллект лежит в основе возможностей машин. Но она неверно объясняет, как работают системы искусственного интеллекта второй волны. Конечно, некоторые машины действительно могут наткнуться на негласные человеческие правила и превратить «нестандартные» задачи в «рутинные». Но гораздо важнее то, что многие машины также сейчас вырабатывают совершенно новые правила, не связанные с теми, которым следуют люди. И это серьезное изменение. Машины больше не ездят верхом на хвосте человеческого интеллекта.
Возьмем еще раз стэнфордскую машину. Просматривая 129 450 клинических случаев, она не пытается раскрыть «негласные» правила, которым следует дерматолог, а использует огромные вычислительные мощности для выявления ключевых паттернов в базе данных, содержащей больше возможных случаев, чем врач может рассмотреть за свою жизнь. Вполне вероятно, что некоторые правила, которые она при этом открывает, похожи на те, которым следуют люди. Но это необязательно так: машина может обнаружить и совершенно иные правила.
Еще один хороший пример этого – машина AlphaGo, которая победила чемпиона мира Ли Седола в игре в го. Почти столь же примечательным, как и победа AlphaGo, стал ее тридцать седьмой ход во второй игре – и реакция на него зрителей. Комментаторы были потрясены, они никогда не видели ничего подобного. Сам Ли Седол казался обескураженным. Тысячи лет человеческой игры выковали эмпирическое правило, известное даже новичкам: в начале игры нельзя ставить камни на пятую линию от края. Но именно это AlphaGo и сделала на этом ходу[210], не обнаружив существующего, но доселе не сформулированного человеческого правила. На самом деле из имеющихся в ее распоряжении данных AlphaGo сама рассчитала, что вероятность того, что человек сделает такой ход, составляет всего один из десяти тысяч[211]. Как заметил один эксперт-наблюдатель, это было «совсем не человеческое движение»[212]. Это было что-то новое и удивительное. Один чемпион по игре в го назвал этот ход «красивым», а другой сказал, что ему от него стало «дурно»