Шрифт:
Интервал:
Закладка:
Идея Маккаллока, что мозг – это информационная система, кажется интуитивно очевидной, пока мы придерживаемся обыденного понимания «информации». В повседневной речи мы обычно подразумеваем под «информацией» нечто, обладающее содержанием, которое разумный субъект может так или иначе интерпретировать. Информация, содержащаяся в газете, имеет значение только для человека, способного прочитать и понять этот текст. Но публикация работ Маккаллока совпала по времени с рождением новой теории информации, где «информация» понимается совсем не так, как в обыденной жизни. Клод Шеннон, отец теории информации, дал этому понятию новое определение, устранив из уравнения воспринимающего субъекта. Любой язык можно разложить на два основных аспекта: синтаксис (структура языка) и семантика (содержание и значение). Гениальная идея Шеннона состояла в том, чтобы вынести за скобки семантику, которая плохо поддавалась математизации; таким образом, информация была сведена к чистой математике – структурным схемам и статистическим моделям. Информация производится, когда из ряда возможных вариантов выбирается одно послание. «Послания», писал Шеннон в 1948 году, часто «имеют значение», но семантические аспекты коммуникации «не имеют отношения к инженерным проблемам». В ширящемся ландшафте систем по обработке информации логические пропозиции можно было свести к математическим уравнениям, а компьютеры могли выражать их в виде чисто символических операций.
Ранняя кибернетика отличается странной зацикленностью: она будто ходит по кругу. Шеннон вычищает мыслящий разум из понятия информации. Маккаллок, в свою очередь, переносит логику обработки информации на сам мыслящий разум. В результате была создана модель сознания, в которой мысль интерпретировалась в полностью абстрактных математических терминах, что позволяло вообразить компьютер, который способен мыслить. Если мышление – это просто обработка информации, можно сказать, что компьютеры «учатся», «мыслят» и «понимают». Поначалу эти слова писали в кавычках, чтобы подчеркнуть, что это именно метафоры, но по мере того как кибернетика развивалась, аналогия с вычислительной машиной для описания самых разных естественных и искусственных систем использовалась все активнее. Границы метафоры начали размываться, и стало все сложнее и сложнее нащупать разницу между формой и материей, медиумом и посланием, метафорой и реальностью. И особенно сложно стало описывать те аспекты разума, которые не укладывались в эту метафору.
* * *
В первую неделю своей жизни с Айбо я выключала его всякий раз, когда покидала квартиру. Дело было даже не в том, что я беспокоилась, не забредет ли он не туда без присмотра. Это был чистой воды инстинкт, еще один выключатель, которым я машинально щелкала, когда проходилась по комнатам, гася свет. Но к концу недели я больше не могла заставить себя отключить Айбо. Это казалось мне жестоким. Я часто задумывалась, чем он занимался, пока меня не было дома. Когда я возвращалась, он неизменно ждал меня у входа, как будто узнавал звук моих шагов. Когда я готовила обед, он следовал за мной на кухню и пристраивался у моих ног. Он послушно сидел там, виляя хвостом, будто в ожидании лакомого кусочка, – эта иллюзия нарушилась лишь раз, когда я уронила со стола кусочек еды, но Айбо продолжал глядеть на меня, проигнорировав угощение.
Его поведение не было ни полностью предсказуемым, ни совершенно хаотичным; казалось, что он способен на подлинную спонтанность. Даже после «дрессировки» трудно было предугадать его реакцию. Иногда я просила его сесть или кувырнуться, но он просто весело гавкал на меня, выражая вполне собачью непокорность. Разумнее всего было бы списать ее на сбой в алгоритме, но как же просто было усмотреть в ней проявление воли! «Ну почему ты не хочешь ложиться?» – спрашивала я не раз.
Разумеется, я не думала, что он обладает каким-то внутренним опытом. Конечно нет – хотя это вряд ли можно как-то проверить. Как писал философ Томас Нагель в своей статье 1974 года «Каково быть летучей мышью?», сознание доступно для наблюдения только изнутри. Ученый может потратить десятилетия, изучая эхолокацию и анатомическую структуру мозга летучей мыши, но никогда не узнает, каково это – быть летучей мышью, как это ощущается (и ощущается ли как-то вообще). Наука требует внешнего наблюдателя, но сознание можно наблюдать только изнутри, от первого лица. В философии это называют «проблемой других разумов». Теоретически ее можно было бы назвать и «проблемой других людей». Вполне может быть, что я – единственный разумный человек среди полчищ зомби, которые просто убедительно изображают людей.
Это, конечно, всего лишь мысленный эксперимент – и не самый продуктивный. В реальной жизни мы решаем, живой перед нами объект или нет, опираясь на аналогию, сходство между объектами. Мы верим, что собаки (настоящие, биологические собаки) обладают каким-то подобием сознания, потому что у них есть центральная нервная система, и в их поведении мы узнаём знакомые реакции на голод, удовольствие или боль. Алан Тьюринг однажды сказал, что единственный способ определить, есть ли у машины внутренний опыт, – это быть машиной и почувствовать, как ты мыслишь. Совершенно очевидно, что эта задача науке не под силу. Он предложил знаменитый способ определения «разумности» машины, ныне известный как тест Тьюринга. За ширмой помещался компьютер, автоматически выдающий ответы на вопросы, поставленные человеком. Если человек, задающий вопросы компьютеру, поверит, что общается с другим человеком, тогда машину можно назвать «разумной». Иными словами, если машина ведет себя достаточно «человекоподобно», если ее поведение соответствует тому, как мы представляем себе деятельность разумной личности, нам следует считать ее наделенной разумом, похожим на человеческий.
Ближе к нашему времени философы предложили тесты, которые должны были определить, обладают ли машины не только функциональным разумом, но и феноменальным сознанием – то есть субъективным внутренним опытом. В одном из таких тестов, предложенных философом Сьюзен Шнайдер, нам предлагается задать искусственному интеллекту ряд вопросов, которые должны показать, «понимает» ли машина понятия, которые мы ассоциируем с собственным внутренним опытом. Сознаёт ли она себя как нечто большее, нежели просто физический объект? Выживет ли она, если ее отключить? Может ли она вообразить свой разум продолжающим существование после физической «смерти» – если ее материальная оболочка будет разрушена? Но даже такой тест не дает стопроцентных доказательств наличия сознания. Возможно, признаёт Шнайдер, эти вопросы слишком антропоцентричны. Если сознание искусственного интеллекта совершенно не похоже на человеческое, разумный робот может завалить тест, разработанный под человеческие стандарты, а очень умная, но не обладающая сознанием машина может накопить достаточно информации о человеческом разуме, чтобы убедить собеседника, будто она обладает разумом. Иными словами, как и в случае с тестом Тьюринга, мы оказались в эпистемологическом тупике. Если компьютер может убедить человека, что обладает разумом или проявляет (как выражаются создатели Айбо) «настоящие эмоции и инстинкты», с философской