litbaza книги онлайнДомашняяНаука сознания. Современная теория субъективного опыта - Майкл Грациано

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 51 52 53 54 55 56 57 58 59 60
Перейти на страницу:

Наука сознания. Современная теория субъективного опыта

Зрительная обработка данных – одна из самых изучаемых областей нейробиологии. На сегодняшний день зрительная система человека в общих чертах обрисована, хотя и остается множество невыясненных загадочных подробностей. Все, что нам требуется знать для проекта “создай мозг”, – это что уже были прецеденты постройки искусственных зрительных систем, пусть и ограниченных и упрощенных по сравнению с той, которая действует в человеческом мозге[262]. Давайте наделим нашего робота способностью вобрать зрительный образ через глаз-камеру и составить обширный, подробный комплекс информации о яблоке. Искусственная зрительная система сводит воедино данные о цвете, форме, размере и расположении яблока, создавая нечто вроде досье – комплекса информации, который постоянно меняется по мере поступления новых сигналов. Этот пакет данных иногда называют внутренней моделью. Можно представить ее себе как имитацию яблока.

В реальном, биологическом мозге эти имитации не очень достоверны. Если бы мозг строил подробные, научно точные описания яблок, это было бы пустой тратой энергии и вычислительных ресурсов. Скажем, цвет яблока отчасти достраивается мозгом. В действительности яблоко обладает не цветом, а спектром отражения. Глаза и мозг упрощают этот спектр и присваивают яблоку цвет. Но это, скорее, карикатура на цвет – для простоты и быстроты обработки. Для выживания важна оперативность. Вы явно не захотите заниматься настолько тщательным моделированием, что не сумеете вовремя среагировать на мир.

Все, что я описал выше, не нарушает ограничения, упомянутого в начале раздела. Раз у нас есть камера и компьютер, нам удастся построить систему, изображенную на рис. А.1. Но сможет ли наш робот осознать яблоко?

В каком-то смысле, да. Как я уже говорил, исследователи сознания иногда пользуются термином “объективное осознание” для обозначения того, что информация попала внутрь и обрабатывается[263]. Да, машина с рис. А.1 объективно осознает яблоко. В ней есть эта информация.

Но осознает ли она его субъективно? Есть ли у нее субъективное переживание круглости, красноты и блеска – такое, какое было бы у вас, рассматривай яблоко вы? Некоторые ученые будут утверждать, что да – сознание это ощущение, возникающее при обработке информации[264]. Поскольку машина обрабатывает яблоко, она по определению осознает его субъективно. Я называю такие теории “сопряженными с информацией”: сознание – неизбежный побочный эффект обработки данных подобно тому, как тепло – побочный эффект электрических сетей. Исходя из этой точки зрения, если построить вычислительную машину, то обязательно возникнет сознание. Если это так, у нас все готово. Мы успешно спроектировали сознающую машину, хотя сознание так и осталось необъясненным.

Но мне не кажется, что машина готова. Чтобы доказать это, давайте спросим самого робота. Раз уже мы проводим мысленный эксперимент по конструированию мозга, то кто нам мешает встроить в него и лингвистический интерфейс, поисковик вроде Сири (на рис. А.1 он обозначен как когнитивно-лингвистический интерфейс). Он получает вопросы, ищет ответы по доступной внутри машины базе данных и сообщает результат поиска. Поскольку такой интерфейс вполне реально создать на основе сегодняшних технологий, нам “позволено” включить и его в нашу машину, хотя это новое для него применение.

Мы спрашиваем машину: “Что это?”

Машина: “Яблоко”.

Мы: “Какие у яблока свойства?”

Машина: “Оно круглое, красное, блестящее, сверху вмятина, лежит там-то”.

Робот может ответить на эти простые вопросы, поскольку содержит нужную информацию. Более того, его ответы насыщенны и гибки, потому что его знание о яблоке основано на модели, а модель, к которой он обращается, – обширное, если не полное, описание яблока. И вот у нас есть машина, которая в состоянии взглянуть на яблоко, обработать данные о нем и сделать конкретные касающиеся его утверждения. Такую машину еще вполне возможно построить в сегодняшних реалиях.

И тем не менее в качестве теории сознания рис. А.1 чего-то не хватает. Чтобы доказать это, зададим машине очевидный последний вопрос: “А ты осознаешь это яблоко?”

Поисковая система обращается к внутренней модели, но не находит ответа. Она находит кучу информации о яблоке и никаких данных об осознании – что это такое и есть ли у машины это загадочное свойство. У машины попросту нет данных о себе самой. Мы ведь ее спросили: “Осознаешь ли ты яблоко?”, а ей не хватает информации о том, что такое это “ты”. Наш вопрос не имеет для машины смысла. В лучшем случае она ответит: “Ошибка вычислений”. С тем же успехом мы можем спрашивать цифровую камеру, осознает ли она фотографию, которую только что сделала. Ничто из того, что мы уже вложили в машину, не приведет ее к утверждению о наличии сознания.

Я принимаю это как постулат базовой логики: машина для обработки данных не может сделать утверждение – не может выдать информацию, – если в ней не содержится информация, которую она утверждает. Машина на рис. А.1 не содержит информации о том, что такое сознание, и уж подавно о том, что она что-то осознает. Нельзя наивно надеяться, что, вложив в машину сложность, мы получим от нее утверждение о сознании. Имея лишь те компоненты, из которых мы ее построили, машина не может содержать информацию о, скажем, зебрах, и поэтому не способна взять и заговорить о зебрах. С инженерной точки зрения лелеять надежду, что машина проснется и заявит: “Я сознаю” – это нарушение логики. Нам придется вложить в машину больше данных, чтобы расширить диапазон возможных ответов.

На рис. А.2 изображена следующая версия нашего проекта “создай мозг”. Сюда я добавил вторую внутреннюю модель: модель себя. Она тоже состоит из данных, которые собираются в мозге. Эта информация может описывать физическую форму и структуру тела – уже упоминавшуюся схему тела[265]. Она способна включать в себя и автобиографические воспоминания, которые играют важную роль в любой психологической модели себя[266]. Нам известно, что человеческий мозг содержит что-то вроде модели себя – скорее всего, очень сложной и распределенной по многим его областям. Мы имеем право дать нашему роботу модель его самого, поскольку техническая возможность предоставить ему некий произвольный комплект информации вполне доступна.

1 ... 51 52 53 54 55 56 57 58 59 60
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?