Шрифт:
Интервал:
Закладка:
Борясь со слезами, Марк объяснил, что он действительно пережил потерю и от этого грустит и полон чувства вины. Из-за его невнимания и пренебрежения умер его тамагочи. Для тех, кто не знаком с этим продуктом, поясню: тамагочи – это цифровая игрушка «домашний питомец», созданный в 1996 году японскими изобретателями. Приборчик в форме яйца оснащен небольшим экраном, на котором появляются изображения животных, объектов или людей, и тремя кнопками. Задача владельца – ухаживать за этим созданием, нажимая нужные кнопки, пока оно не станет взрослым. То, как оно развивается, зависит – как и у человеческого ребенка – от того, сколько он получает внимания. Марк, отвлекшись на экзамены и новую девушку, не смог ухаживать за тамагочи так, чтобы тот остался жив.
Прежде чем счесть Марка невротиком, важно понять, что многие из 76 миллионов владельцев тамагочи по всему миру утверждали, что так же скорбели, пережив подобную потерю. У них смерть цифрового создания вызывала не меньшее горе, чем уход близкого человека. И в этом они не одиноки.
В недавнем исследовании группе потребителей позволили немного поиграть с кошкообразным роботом по имени iCat. Затем им велели выключить iCat и сообщили, что тем самым они сотрут память робота. «Как будто, – объясняет директор по исследованиям Dynamic Logic, – они убивали робота». Ученые обнаружили, что участники, пережившие «положительный эмоциональный опыт» с «животным», думали в три раза дольше, прежде чем нажать кнопку «выкл.», чем те, кому не понравилось играть с ним[270].
То, что даже высокоинтеллектуальные люди могут создавать с компьютерами невероятно глубокие эмоциональные отношения, впервые было обнаружено еще в 1966 году. На конференции, организованной Ассоциацией специалистов по вычислительной технике, Джозеф Вайзенбаум представил делегатов Элизе[271]. Названная в честь Элизы Дулитл из пьесы «Пигмалион» Бернарда Шоу, эта компьютерная программа играла роль психоаналитика. Это был всего лишь набор кодов, не обладавший интеллектом и работавший методом простого распознавания моделей и подстановки ключевых слов. Несмотря на значительные ограничения, ее влияние на тех, кто с ней взаимодействовал, было поистине удивительно.
Вайзенбаум вспоминает:
Элиза создавала поразительное впечатление: она как будто заглядывала в душу людям, с которыми разговаривала. Многие требовали, чтобы им позволили поговорить с системой наедине, и, пообщавшись с ней некоторое время, настаивали, что, несмотря на все объяснения, она по-настоящему поняла их[272].
Он вспоминает, как однажды, придя в офис, он увидел, что его секретарша разговаривает с «психоаналитиком». «Простите, профессор, – воскликнула она возмущенно, – не могли бы вы подождать снаружи, пока сеанс не закончится?»
Байрон Ривз и Клиффорд Насс из Стэнфордского университета замечают:
В том, как компьютеры общаются, дают указания и взаимодействуют с пользователями, они достаточно близки к человеку и поэтому вызывают социальную реакцию. Для того чтобы эта реакция проявилась, не нужен сильный стимул. Люди соответственно реагируют на поведение, предполагающее социальное присутствие. Следовательно, к любому мало-мальски «подобному собеседнику» будут относиться как к человеку, даже если люди знают, что это глупо, и потом это отрицают[273].
Во время одного из своих исследований эти ученые сообщили участникам, что их будут тестировать на ряд фактов, представленных на экране компьютера. Показав им информацию, компьютер спросил их, сколько они знают об этом предмете, и объяснил, что если они плохо разбираются в данной теме, он предоставит им дальнейшую информацию. На самом деле независимо от того, что испытуемые отвечали, всем давали одну и ту же информацию. Затем участники решали проверочный тест, и им сообщали о результатах. После этого компьютер оценивал свою работу как учителя. Независимо от того, каковы были результаты участника, компьютер говорил, что тот проделал прекрасную работу.
После этого участников делили на две группы и просили решить, насколько, по их мнению, хорошо поработал компьютер. Разница состояла в том, что одна группа делала свою оценку на том компьютере, которым она пользовалась до того, а вторая – на другом компьютере. Ривз и Насс рассказывают:
Оценка участников, отвечавших на вопросы на том же компьютере, была значительно положительнее, чем оценка тех, кто отвечал на другом компьютере. Люди отнеслись к компьютерам как к себе подобным. Респонденты, взаимодействовавшие с одним компьютером на протяжении всего эксперимента, выше оценили 20 из 22 представленных характеристик[274].
Похоже, студенты чувствовали более тесную связь с первым компьютером и не хотели обидеть его.
«Если пользователи наделяют рабочий компьютер человеческими качествами, то они считают его более компетентным, а взаимодействие с ним более приятным и полезным», – объясняет Фогг[275]. В одном из исследований две группы участников решали задачи, пользуясь двумя компьютерами. Первый назывался «Приятель», а второй был без названия. Ученые обнаружили, что участники эксперимента уверены: компьютер «с опознанной личностью», который они считают членом команды, «использует те же методы при решении задач, что и они, его предложения похожи на их, у него такой же стиль общения, он так же оценивает то, что необходимо для выживания»[276]. Кроме того, люди считали его умнее и дружелюбнее, думали, что он дает им более полезную информацию и качественнее работает.
Результаты многочисленных исследований отношений между человеком и умными машинами доказывают, что первые могут создать со вторыми тесную, даже высокоэмоциональную психологическую связь. Чем умнее кажется цифровое устройство, чем лучше оно реагирует, тем больше люди верят его «суждениям» и следуют его «рекомендациям» – и то и другое делает его на голову выше большинства специалистов по продажам, когда они стараются заключить вожделенную сделку.