Шрифт:
Интервал:
Закладка:
Теперь наш вопрос заключается в следующем. Понимает ли Пузырьков мандаринский язык? Вы не понимаете мандаринский язык. Но тогда вы не Bubblehead. Понимает ли Bubblehead мандаринский язык? Трудно сказать. Что мы не можем сказать, так это то, что Серл хотел бы, чтобы мы сказали: что Пузырьков не понимает мандаринского языка, потому что вы не понимаете мандаринского языка. Это несостоятельный аргумент, поскольку он ошибочно предполагает, что вы и Пузырьковая голова - это одна когнитивная система. Это не так. Система китайской комнаты в Bubblehead подобна инопланетному вторжению в ваш мозг: она сидит в вашей памяти как вирус, используя вашу привычку следовать инструкциям.
Аргумент Серла "Китайская комната" терпит неудачу. В конце концов, у него нет удовлетворительного ответа на ответ систем. Но это не означает, что его вывод неверен. Опровергая аргумент Сёрла, мы не показываем, что Китайская комната действительно понимает мандаринский язык. Мы лишь показываем, что не можем использовать аргумент Серла для доказательства того, что она не понимает мандаринский язык. Конечно, Bubblehead - очень странное существо; и у нас есть все основания сомневаться в том, что компонент Chinese Room действительно что-то понимает. Поскольку она не интегрирована должным образом в вашу когнитивную систему, она не разделяет вашего робототехнического мастерства. А без владения робототехникой, то есть без полного каузального погружения в окружающую среду, очень маловероятно, что он понимает содержание разговоров с носителями мандаринского языка. Для того чтобы идея системы искусственного интеллекта, понимающей, что она делает, стала хоть сколько-нибудь правдоподобной, нам необходимо объединить ответ робота с ответом системы.
Это возвращает нас к нашему фильму. Не случайно в научной фантастике системы искусственного интеллекта обычно изображаются в виде роботов. Даже компьютеры, не обладающие полным набором робототехнических навыков - вспомним HAL в фильме "2001 год: космическая одиссея" (1968), - имеют богатый репертуар перцептивных и исполнительных способностей. У HAL везде есть глаза и уши. И он может по своему желанию открывать или не открывать двери отсека капсулы. В ИИ когнитивные способности Дэвида тесно связаны с его робототехнической функциональностью. Он учится, наблюдая за другими и подражая им (не слишком внимательно; когда он действительно пытается проглотить свой обед, все идет не так, как надо). Возможно, он действительно понимает отчасти благодаря этой робототехнической функциональности. Возможно, он действительно понимает, что такое локон волос, потому что может отрезать его у Моники и потом рассказывать об этом. Возможно, он имеет некоторое представление о том, что такое Голубая фея, потому что может отправиться на ее поиски.
Может ли Дэвид что-нибудь почувствовать? Возражение против квалиа
Каково это - быть Дэвидом? Мы не можем поместить себя в его ментальный мир, представив себе версию "китайской комнаты", похожую на Давида. Как мы видели, этот мысленный эксперимент не попадает в цель. Но есть и другая причина для того, чтобы с подозрением относиться к психическим качествам Дэвида. Почему мы должны верить, что он действительно что-то чувствует? Он регистрирует опыт как информационный поток в когнитивной системе. Но полностью ли он осознан? Есть ли что-то такое, что можно ощутить, будучи Дэвидом? Больно ли ему, когда мать бросает его в лесу? Он делает вид, что ему больно. Но больно ли на самом деле?
Мы можем представить себе, что Дэвид демонстрирует убедительные реакции на боль и дистресс, не испытывая при этом боли и дистресса. Есть нечто, что похоже на ощущение боли. И есть то, что похоже на то, как будто вы чувствуете боль, когда вы ее не чувствуете. Как отличить их друг от друга? Философы называют осознанное качество переживания - особую болезненность боли, особую красноту цветового восприятия, особую резкость диссонирующей музыки - квале. Множественное число quale - qualia. Вот еще одно возражение против подлинности Дэвида. Он не может по-настоящему любить Монику, потому что он создан для того, чтобы вести себя так, как будто у него есть опыт, богатый qualia, но на самом деле у него его нет. Когда он кажется расстроенным при мысли о том, что Моника когда-нибудь умрет, он просто выполняет свои обязанности. На самом деле он не чувствует себя расстроенным, хотя мы можем представить, что совершенно невозможно сказать, что это не так. Ему не хватает квала страдания. Нет ничего похожего на то, что испытывает Давид в беде. Нет ничего, что было бы похоже на то, чтобы быть Дэвидом вообще, так же как нет ничего, что было бы похоже на то, чтобы быть тостером. Назовем это возражение qualia.
Пока мы лишь высказываем свое подозрение. Есть ли философский аргумент в его поддержку? Нам нужен аргумент, показывающий, что сознание - опыт qualia - не может быть создан искусственно. Поскольку мы не знаем, как именно возникает сознание у человека, а теорий на этот счет не так уж и мало, вряд ли можно исключить возможность искусственного сознания на философских основаниях. Мы можем чувствовать, что в сознании есть что-то особенное - возможно, что-то духовное или немеханическое. Мы можем интуитивно чувствовать, что только живое существо или только существо с душой может быть полностью сознательным, но эта интуиция сама по себе не имеет большого философского веса.
Один философский аргумент приближает нас к тому, что мы хотим получить. Это аргумент, призванный показать, что сознание на самом деле вовсе не является физическим феноменом. Если сознание нефизично, то мы вполне можем обнаружить, что его невозможно воспроизвести искусственно. Этот аргумент принадлежит австралийскому философу Фрэнку Джексону (1982; 1986). Он называется аргументом знания и требует проведения еще одного мыслительного эксперимента. (Представьте себе некую Мэри, ставшую объектом жестокого и длительного психологического эксперимента. При рождении Мэри устанавливают специальные глазные имплантаты, которые не позволяют ей видеть ничего цветного. Всю свою жизнь она видит все в черно-белом цвете. Тем не