Шрифт:
Интервал:
Закладка:
Я считаю это поразительным доказательством необходимости фундаментального открытия, благодаря которому такие вещи, как квалиа, будут интегрированы в другие наши знания. Дэниел Деннетт приходит к противоположному выводу, а именно, что квалиа не существует! Строго говоря, он не утверждает, что квалиа — это иллюзия, потому что иллюзия о квалиа была бы этой квалиа. Он говорит об ошибочном убеждении. Интроспекция, то есть анализ воспоминаний о том, что с нами было, включая воспоминания о том, что произошло всего долю секунды назад, развилась до такой степени, что теперь сообщает нам, что мы испытали квалиа, но это ложные воспоминания. Одна из книг Деннетта, в которой он приводит доводы в защиту этой теории, называется «Объяснение сознания» (Consciousness Explained). Некоторые философы с усмешкой замечают, что правильнее было бы назвать её «Отрицание сознания» (Consciousness Denied). И я с этим согласен, потому что, хотя любому верному объяснению квалиа придётся столкнуться с доводами Деннетта против общепринятой теории их существования, просто отрицать их существование — это неразумное объяснение: таким образом можно отрицать всё что угодно. Если всё это верно, то потребуется подтверждение в виде разумного объяснения, за счёт чего и почему эти ошибочные убеждения представляются кардинально отличными от других ложных убеждений, как, например, то, что Земля у нас под ногами покоится. Но, на мой взгляд, это снова напоминает исходную проблему квалиа: вроде бы они есть, но кажется невозможным описать, чем они нам представляются.
Однажды мы справимся и с этим. Проблемы решаемы.
Кстати, некоторые возможности человека, которые часто включаются в эту группу, связанную с универсальным интеллектом, на самом деле к ней не относятся. Среди них самосознание, наличие которого подтверждается, например, тем, что мы узнаём себя в зеркале. Некоторые люди очень удивляются, когда узнают, что этой способностью обладают различные животные. Но в этом нет ничего загадочного: это под силу и простой компьютерной программе по распознаванию образов. То же верно и для использования инструментов, применения языка для передачи сигналов (хотя и не для разговора в смысле теста Тьюринга), для различных эмоциональных реакций (но не связанных с ними квалиа). В текущем положении вещей полезным эмпирическим правилом будет следующее: если что-то уже можно запрограммировать, оно не имеет никакого отношения к интеллекту в смысле Тьюринга. И наоборот, я принял для себя следующий простой тест для оценки утверждений, включая сделанные Деннеттом, которые объясняли бы природу сознания (или любой другой вычислительной задачи): если что-то не получается запрограммировать, значит, вы этого не понимаете.
Тьюринг придумал свой тест в надежде обойти все эти философские проблемы. Другими словами, он надеялся, что сначала можно добиться функциональности, а потом уже объяснить её. К сожалению, найти практические решения фундаментальных проблем, не объясняя, почему они срабатывают, удаётся очень редко.
Тем не менее идея теста Тьюринга, как во многом и эмпиризм, который она напоминает, была очень ценной. Она дала отправную точку для объяснения значения универсальности и для критики древних антропоцентрических допущений, которые исключали возможность искусственного интеллекта. Сам Тьюринг в своей судьбоносной статье методично опроверг все классические возражения (и заодно и некоторые абсурдные). Но его тест основывается на эмпирической ошибке, заключающейся в поиске чисто поведенческого критерия: он требует, чтобы судья вынес заключение безо всякого объяснения того, как должен работать испытуемый искусственный интеллект. Но ведь на самом деле, чтобы определить подлинность искусственного интеллекта, опираться на объяснения того, как он работает, нужно непременно.
Дело в том, что задача судьи в тесте Тьюринга логически схожа с ситуацией, когда Пейли, гуляя по пустырю, нашёл камень, часы или живой организм: нужно объяснить, откуда взялись наблюдаемые свойства объекта. В случае с тестом Тьюринга мы намеренно игнорируем вопрос о том, как было создано знание, необходимое для разработки объекта. Тест имеет дело только с тем, кто разработал высказывания искусственного интеллекта: кто придал им смысл, кто создал знания, содержащиеся в них? Если это дело рук разработчика, то программа не является искусственным интеллектом. А если самой программы, то она — действительно искусственный интеллект.
Время от времени этот вопрос возникает и в отношении самих людей. Например, фокусников, политиков, экзаменующихся иногда подозревают в том, что кто-то через спрятанные наушники передаёт им информацию, которую они затем механически повторяют, притворяясь, что это плод их собственной мысли. Или когда врач берёт у пациента согласие на какую-либо медицинскую процедуру, он должен убедиться, что пациент не просто проговаривает слова, а понимает, что они означают. Для этого можно по-разному повторять вопрос или задать другой вопрос, в котором присутствуют те же слова, и посмотреть, изменятся ли ответы. Это естественно для любого свободно текущего разговора.
Тест Тьюринга устроен похожим образом, однако акцент в нём делается на другом. Когда тестируется человек, нужно установить, в здравом ли он уме (и действует ли он по своей воле, а не в интересах другого лица). При тестировании искусственного интеллекта мы хотим найти трудноварьируемое объяснение тому факту, что его высказывания не могут исходить ни от какого человека, а могут принадлежать только искусственному интеллекту. В обоих случаях опрашивать человека в качестве контрольного примера бессмысленно.
Без разумного объяснения того, как были созданы высказывания некоего существа, наблюдения за этим процессом нам ничего не скажут. В тесте Тьюринга, на самом простом его уровне, нас нужно убедить в том, что высказывания не сочиняются непосредственно человеком, притворяющимся искусственным интеллектом, как в розыгрыше с Хофштадтером. Но подлог — это меньшая из возможных бед. Например, выше я предположил, что «Элбот» процитировал заготовленную шутку в ответ на ошибочно опознанное ключевое слово «spouse». Но значение этой шутки было бы совершенно иным, если бы мы знали, что это не заготовка, поскольку никто её в программу не закладывал.
Но откуда мы могли бы это узнать? Только из разумного объяснения. Например, мы могли бы это знать, если бы сами написали программу. Или если бы автор программы объяснил нам, как она работает: как создаёт знания, включая шутки. Окажись объяснение разумным, нам следовало бы признать, что программа — искусственный интеллект. На самом деле, если бы у нас было только такое объяснение, но мы бы ещё не видели результата работы программы и даже если бы она ещё не была бы написана, мы бы всё равно должны были заключить, что это настоящий искусственный интеллект. И тест Тьюринга был бы не нужен. Вот почему я говорю, что если бы недостаток вычислительной мощности был единственным препятствием в создании искусственного интеллекта, то не было бы смысла ждать его практической реализации.
Детальное объяснение принципа работы искусственного интеллекта вполне может оказаться исключительно сложным. На практике авторское объяснение всегда будет даваться на некоем эмерджентном, абстрактном уровне. Но это не мешает ему быть разумным. Разъяснять конкретные вычислительные шаги, из которых получилась шутка, не придётся так же, как и теория эволюции не должна объяснять, почему в истории данной адаптации сохранилась или не сохранилась каждая конкретная мутация. Должно быть только объяснено, как это могло произойти и почему следует ожидать, что это случится, с учётом того, как работает программа. Если это разумное объяснение, мы убедимся в том, что шутка — знание в ней — зарождается в программе, а не в голове программиста. Таким образом, в зависимости от наилучшего доступного объяснения принципа работы программы одно и то же её высказывание — шутка — может доказывать как то, что программа не думает, так и то, что она думает.