Шрифт:
Интервал:
Закладка:
Но, как бы ни впечатляло вас могущество человеческого разума, к тому же вооруженного письменностью, существуют некоторые аспекты мышления, в которых компьютеры могут дать нам фору. Как уже упоминалось, даже старенький персональный компьютер превзойдет любого из нас в области математики и теории вероятности. Компьютер может обыграть в шахматы даже гроссмейстера. Бывают и другие случаи, когда нам приходится вступать с компьютером в соревнование. Взять хотя бы тест Тьюринга.
Этот тест придумал криптограф и один из первопроходцев информатики Алан Тьюринг. Его цель состоит в том, чтобы определить тот уровень развития компьютерной техники, за которым машина сможет соперничать с человеком в плане интеллекта. Если вы переписываетесь с неким собеседником и при этом не можете определить, имеете дело с человеком или с компьютером, то можно сделать вывод, что компьютер обладает достаточным уровнем искусственного интеллекта.
Эксперимент: беседа с компьютером
Зайдите на сайт www.universeinsideyou.com, выберите раздел Experiments и в нем тему Talking to computers. Для начала попробуйте свои силы на программе Eliza. Это одна из самых старых программ для поддержания беседы. Она была написана еще в середине 1960‑х годов. Компьютер в данном случае выступает в роли психотерапевта, ведущего беседу с пациентом, поэтому часто повторяет сказанное вами. Его довольно легко вывести на чистую воду, но если вы не будете слишком умничать, он весьма уверенно поддержит разговор.
Затем оцените программу Cleverbot. Это одна из современных программ, которые получили название чат-ботов. Даже Cleverbot можно относительно легко загнать в тупик, но у него по сравнению с Eliza припасено значительно больше трюков, которые позволяют успешно прикидываться человеком.
В последнее время было создано несколько программ, с помощью которых компьютер может достаточно убедительно выдавать себя в беседе за человека.
На Техническом фестивале 2011 года в Гувахати (Индия) Cleverbot сумел одержать верх в тесте Тьюринга. По крайней мере, так заявляли его организаторы. В эксперименте приняли участие 30 добровольцев, половина из которых беседовала с человеком, а половина – с чат-ботом. Затем вся следившая за диалогом аудитория в количестве 1334 человек, включая и добровольцев, методом голосования вынесла вердикт, кто из собеседников был человеком. Пятьдесят девять процентов сочли, что Cleverbot – человек, что и дало повод организаторам (и журналу «New Scientist») сделать заявление, что программа прошла тест Тьюринга.
Для сравнения: человека признали человеком 63 процента голосовавших. Должно быть, сам экспериментатор был немало обескуражен тем, что значительная часть публики приняла его за компьютер. Правда, я не считаю полученный результат однозначным успехом. Беседа длилась только четыре минуты, и это давало создателям чат-бота возможность использовать различные тактические уловки, которые не сработали бы в ходе продолжительного разговора, который имел в виду Тьюринг.
Кроме того, меня настораживает место проведения эксперимента. В отчете не было указано, сколько участников владеют английским языком как родным. Я подозреваю, что многие из голосовавших не были в достаточной степени знакомы с английскими идиомами, чтобы с уверенностью судить, кто был человеком, а кто – компьютером.
Но одно дело – умение поддерживать беседу, и совсем другое – мораль. Трудно представить себе компьютерную программу, которая была бы способна решать этические проблемы. В конце концов, мы и сами имеем не слишком четкое представление о собственной этике. В теории все может быть абсолютно ясно, но, когда дело доходит до практики, зачастую мы принимаем решения, которые потом трудно оправдать. Приведу хорошо известный пример.
Представьте себе, что вы, находясь в железнодорожной диспетчерской, замечаете неуправляемый поезд. Машинист по какой-то причине выбыл из строя, и остановить состав нет никакой возможности. Вскоре поезд подойдет к стрелке, и у вас появится возможность направить его по одному из двух путей. Если вы ничего не предпримете, он пойдет по пути А и убьет двадцать человек, которые собрались в стоящем на путях вагоне и празднуют успешное окончание благотворительной кампании по сбору средств на развитие железной дороги. Если вы переключите стрелку, поезд свернет на путь Б и задавит путевого обходчика, который убирает мусор с путей.
Давайте взглянем правде в глаза: какое бы решение вы ни приняли, оно будет означать смерть ничего не подозревающих людей, только в одном случае это будет один человек, а в другом – двадцать. Как вы поступите? Примите решение, прежде чем продолжить чтение.
А теперь давайте изменим ситуацию. Вы стоите на мосту над железнодорожными путями. По ним движется неуправляемый поезд. Если он не свернет на стрелке, это будет, как и в первом случае, означать смерть двадцати ни в чем не повинных людей, если же стрелку удастся переключить, то он уйдет на свободный путь, и никто не пострадает. У вас нет возможности быстро добраться до стрелки, но вы знаете, что прямо под мостом находится пневматическое устройство для ее переключения. Чтобы оно сработало, необходимо сбросить на него какой-то предмет вдвое тяжелее вас. И тут вы замечаете, что на перилах моста сидит, беспечно свесив ноги, очень полный человек…
Если вы столкнете его с моста, он, конечно, погибнет, но зато вы сможете спасти жизни двадцати других людей. Если вы ничего не предпримете, они умрут. Как вы поступите?
Большинство людей в первой ситуации предпочтут нажать на кнопку, увести поезд с основного пути и убить одного человека вместо двадцати. Но вот во второй ситуации мало кто решается сбросить человека с моста, хотя соотношение потенциальных жертв то же самое.
Психологи объясняют, что с этической точки зрения проще убить человека, нажав на кнопку, чем сделать это своими руками, хотя в этом, казалось бы, отсутствует логика. Примерно такой же сдвиг в мышлении произошел, когда развитие технологии позволило убивать противника на войне дистанционно, с помощью пуль и снарядов, а не в рукопашной схватке, как раньше. Правда, лично я считаю, что приведенный мысленный эксперимент не лишен недостатков.
Дело в том, что описанные сценарии имеют разную степень вероятности. Первая ситуация вполне могла бы произойти в реальности. Перед диспетчером в этом случае действительно стоял бы выбор: убить одного человека или двадцать. Но вот история с пневматическим переключателем стрелки, который срабатывает от падения предмета, вес которого вдвое превышает ваш собственный, кажется мне совсем уж невероятной, особенно если учесть, что на перилах вдруг оказался толстяк и вы даже можете оценить, сколько он весит. Оригинальная версия этого психологического теста еще более невероятна. В ней на перилах сидит настолько толстый человек, что он способен затормозить поезд собственным весом. Похоже, психологи, составлявшие тест, явно не в ладах с физикой.
Более того, психологи забывают о факторе случайности. В первой ситуации вы практически на 100 процентов уверены, что если нажать кнопку, то стрелка переключится и поезд уйдет на другой путь. Во второй ситуации, даже если вы знаете, как работает пневматический переключатель, все может пойти совсем не так, как задумано. Например, человек, которого вы столкнете, упадет мимо переключателя. Высокая степень неопределенности сильно затрудняет процесс принятия решения, даже если ваши нравственные нормы позволяют спасти двадцать человек, убив одного.