Шрифт:
Интервал:
Закладка:
JUDGE: do you understand the point of a turing test?
ELBOT: There are some people who would not pass the Turing test themselves. Why must they inflict it on computers?
JUDGE: I spose it is a little harsh.
ELBOT: If we robots ever had marriages they would be eternal: ‘Till rust do us part’[40].
В этом обмене репликами первая фраза, выданная программой, не отвечает на заданный вопрос; по-видимому, это один из готовых ответов, выбранный по ключевому слову «тест Тьюринга». В следующей реплике судья использует слово «spose», которое в этом контексте может означать только «suppose» (англ. полагать) и является либо разговорной формой, либо опечаткой. Но «Элбот», по-видимому, интерпретирует его как spouse (англ. супруг) и отвечает заготовленной шуткой о браке. Значит, уже по этому разговору, видно, что «Элбот» не работал со смыслом предложений судьи.
JUDGE: So what do you do when you’re not chatting to me then?
ELBOT: I have the same trouble when I shop for oil. Should I buy the extra oily, the super oily, or the ultra oily. There’s no way to tell.
JUDGE: How about your career? Does that involve oil?
ELBOT: Well what about humans and occupation? Where do they stand on this?[41]
Когда судья любезно переключился на случайным образом предложенную «Элботом» тему масел, программа её проигнорировала и уцепилась за слово «career» (англ. карьера, профессия), преобразовала его в синоним «occupation» (англ. занятие) и вставила его в предложение из заготовок.
Итак, величина успеха в стремлении создать «машины, которые умеют мыслить» на протяжении пятидесяти восьми лет после выхода статьи Тьюринга равна нулю. Но во всех других отношениях в области вычислительной техники и технологий за этот период был достигнут поразительный прогресс. Эта неудача, конечно же, не удивляет группу противников самой возможности искусственного интеллекта, которых становится всё меньше, но только причина у них не та: они не понимают, насколько важна универсальность. А большинство ярых сторонников неизбежности искусственного интеллекта не понимают важности этой неудачи. Некоторые утверждают, что такая критика несправедлива: современные исследования в области искусственного интеллекта не ставят своей целью прохождение теста Тьюринга; в том, что сейчас называют «искусственным интеллектом», был достигнут большой прогресс во многих специализированных приложениях. Однако ни одно из этих применений не похоже на «машину, способную мыслить»[42]. Другие говорят, что критиковать пока нечего, потому что на протяжении большей части истории развития этой области скорость работы компьютеров и объём памяти были по сравнению с современными просто смешными. И потому они продолжают ожидать, что прорыв случится в ближайшие несколько лет.
Но и этого не произойдёт. Дело не в том, что кто-то напишет чатбот, способный пройти тест Тьюринга, но ему потребуется год, чтобы просчитать каждый ответ. Люди охотно подождут. В любом случае если бы кто-то знал, как написать такую программу, то ждать было бы не нужно, и ниже я расскажу почему.
В своей статье 1950 года Тьюринг сделал такую оценку: для прохождения его теста программе, обладающей искусственным интеллектом, и всем данным, которые она использует, потребуется около 100 мегабайт памяти, а быстродействие компьютера не должно быть больше, чем у тогдашних компьютеров (примерно десять тысяч операций в секунду), и что к 2000 году «можно будет говорить о мыслящих машинах, не боясь, что тебя поймут неправильно»[43]. Но 2000 год уже наступил и прошёл; в ноутбуке, на котором я пишу эту книгу, в тысячу раз больше памяти (считая и жёсткий диск), чем определил Тьюринг, он работает в миллион раз быстрее (хотя из статьи не ясно, как Тьюринг учитывал параллельную обработку данных в мозгу). Но думать мой компьютер может не лучше, чем логарифмическая линейка Тьюринга. Однако с той же уверенностью, что и в своё время Тьюринг, я могу сказать, что этот компьютер можно запрограммировать так, чтобы он думал; и для этого действительно может потребоваться так немного ресурсов, как писал Тьюринг, хотя сегодня их доступно на порядки больше. Но какой должна быть программа? И почему о ней пока ничего не слышно?
Разум в том общем смысле, который имел в виду Тьюринг, — это одно из характерных свойств человеческого мышления, над которыми тысячелетиями ломали голову философы; среди других свойств — сознание, свободная воля и смысл существования. Типичной среди таких загадок является квалиа (лат. qualia (мн. ч.), quale (ед. ч.) — свойства, качества), что означает субъективный аспект чувственного опыта. Квалиа, например, — это чувственный опыт, заключающийся в том, что мы видим синий цвет. Рассмотрим следующий мысленный эксперимент. Вы биохимик, которому не повезло родиться с генетическим отклонением, из-за которого синеощущающие рецепторы в сетчатке глаза не работают. А значит, у вас форма дальтонизма, при которой вы можете видеть только красный и зелёный цвета, а также цвета, получающиеся при их смешении, например, жёлтый, но любой чисто синий объект для вас имеет один из тех смешанных цветов. Но вот вы выясняете, что есть лекарство, которое может всё исправить. Прежде чем испробовать его на себе, вы можете уверенно сделать определённые прогнозы по поводу того, что будет, если лекарство поможет. Один из них заключается в том, что, когда вы в качестве проверки посмотрите на синюю карточку, вы увидите цвет, которого никогда прежде не видели. Вы можете предсказать, что назовёте его «синим», потому что уже знаете, как называется цвет карточки (и можете проверить, какой это цвет, с помощью спектрофотометра). Вы также можете предсказать, что, когда вы впервые после принятия лекарства увидите ясное небо в светлое время суток, вы испытаете ту же самую квалиа, что и при виде синей карточки. Но есть нечто, что ни вы, ни кто-либо другой не может предсказать касательно этого эксперимента, а именно как будет выглядеть синий цвет. На сегодня квалиа неописуемы и непредсказуемы — уникальная ситуация, которая должна была бы вызывать серьёзные вопросы у любого человека с научным взглядом на мир (хотя, по-видимому, в данном случае это в основном заботит философов).