Шрифт:
Интервал:
Закладка:
Теперь подумайте над такой историей. В три часа дня 9 ноября 1979 г., когда, как казалось, отношения сторон в холодной войне начали оттаивать, советник по национальной безопасности США Збигнев Бжезинский был разбужен телефонным звонком{509}. Ему сказали, что Советский Союз предпринял широкомасштабную ядерную атаку против США. Система раннего обнаружения сообщила о 2500 ядерных боеголовок, направляющихся к территории США. Ядерные командные центры по всей стране включились в работу. Возмездие было бы скорым. Самолеты, загруженные атомными бомбами, уже поднялись в небо. Офицеры-ракетчики в шахтовых пусковых установках уже подготовили ключи запуска. Затем, когда Бжезинский собрался предупредить президента о неизбежности ядерного апокалипсиса, он получил еще один звонок. Тревога оказалась ложной: испытательная программа, имитирующая советскую ядерную атаку, каким-то образом передала вымышленные данные на обычную систему обнаружения таким образом, как будто это реальное нападение. Паника была вызвана компьютерной ошибкой. Кризис удалось предотвратить.
Ну как, вы поменяли свое отношение к ядерному сдерживанию? Ваше беспокойство о собственной безопасности стало сильнее или слабее? С одной стороны, система дала сбой, что привело нас на грань апокалипсической катастрофы, и, возможно, ядерное оружие – в большей степени обуза, нежели козырь. С другой стороны, были приняты меры безопасности и ошибка обнаружена до того, как был нанесен какой-либо ущерб. Возможно, риск ложного срабатывания значительно меньше, чем опасность остаться беззащитными. Вывод из подобных событий далеко не однозначен. Однако, несмотря на возможность различных интерпретаций, предсказать, как отреагирует какой-либо конкретный человек, оказывается совсем не сложно. Как показал психолог Скотт Плаус, для этого надо знать только то, как исходно этот человек относился к ядерному оружию.
Плаус разработал хитроумный набор тестов, чтобы понять, как меняются убеждения людей, когда они узнают о чуть было не случившейся ядерной катастрофе{510}. Он обнаружил, что люди, изначально находившиеся по разные стороны баррикад, видели одно и то же событие совершенно по-разному. Те, кто против ядерного вооружения, обычно воспринимали нарушение работы как «доказательство уязвимости системы», в то время как люди, выступавшие за атомное оружие, «были склонны считать сбои удачно пройденной проверкой на безопасность». В итоге сторонники ядерного сдерживания после знакомства с историей чуть не случившейся катастрофы стали чувствовать себя более безопасно, а противники – более уязвимо. И чем сильнее были изначальные убеждения человека, тем более предвзятой была интерпретация. Когда Плаус тестировал студентов колледжа со слабыми предпочтениями той или иной точки зрения, то у них наблюдалось и более неоднозначное отношение к сбоям. А когда он сравнивал группу курсантов ВВС (которые уверенно поддерживали ядерное сдерживание) с группой борцов за мир (которые были категорически против атомного оружия), полярность мнений была выражена намного сильнее.
Эта тенденция характерна не только для простых граждан, сидящих в кабинетах психологов. Исследование Плауса возникло под влиянием реального правительственного расследования неисправности системы оповещения о ядерной опасности в 1981 г. (во времена холодной войны было несколько подобных случаев){511}. Один из членов комитета, конгрессмен Фрэнк Хортон из Нью-Йорка, увидел причины для серьезной озабоченности: «Нынешние ложные оповещения о ракетном нападении ‹…› как мне кажется, представляют серьезную угрозу для нашей национальной безопасности». Генерал Джеймс Хартингер, с другой стороны, призывал успокоиться: «Я на самом деле сейчас больше доверяю системе, потому что выяснилось, что мы можем справиться с такой ошибкой». Надо заметить, что Хортон на протяжении всей своей политической карьеры выступал против ядерного оружия. Хартингер был главнокомандующим Командования воздушно-космической обороны Северной Америки (NORAD), организации, которая отслеживает воздушные атаки.
Психологи называют это предвзятой интерпретацией. Мы истолковываем двусмысленные события в соответствии с тем, во что уже верим. Представьте себе характерную реакцию прессы на массовую стрельбу. Для тех обозревателей, кто уже высказывался за ужесточение законов о ношении оружия, такая стрельба однозначно свидетельствует, что оружие должно стать менее доступным. Для тех, кто уже поддерживал право на ношение оружия, массовый расстрел означает, что большему числу людей следует иметь оружие. Как отметил руководитель Национальной стрелковой ассоциации Уэйн Лапьер, «единственное, что может остановить плохого парня с пушкой, – это хороший парень с пушкой»{512}. Даже вполне прозаичные события могут вызывать предвзятую интерпретацию. Люди с противоположными политическими взглядами могут смотреть одни и те же дебаты, и каждый из них останется с убеждением, что именно его сторона одержала верх{513}. С точки зрения футбольных болельщиков, арбитр может быть либо остроглазым профессионалом, либо безграмотным кретином в зависимости от того, какой команде он назначил пенальти{514}. Фанаты Chicago Bears и Green Bay Packers могут смотреть одну и ту же игру, но, когда дело доходит до сомнительного момента, они как будто оказываются в разных вселенных.
Кроме того, предвзятая интерпретация срабатывает, когда мы сталкиваемся со сложными и противоречивыми аргументами на тему, о которой у нас уже есть собственное мнение. Группа психологов из Стэнфордского университета в 1979 г. обратила внимание на взгляды студентов о том, может ли угроза смертной казни удержать потенциального преступника от убийства{515}. Студентам давали прочитать две научные работы, в одной сообщалось, что такой сдерживающий эффект есть, а в другой – что его нет. В действительности оба исследования были придуманы учеными, которые составили их таким образом, чтобы можно было точно проконтролировать качество доказательств в пользу той или иной точки зрения. Студенты, как правило, более внимательно проверяли и опровергали то исследование, которое противоречило их первоначальным убеждениям, и в то же время некритично принимали то, которое согласовывалось с их мнением, даже если обе работы были в равной степени спорны.