Шрифт:
Интервал:
Закладка:
Изучая передачу сообщений, теория информации понимает их именно как организованные системы, управляемые по установленным законам вероятности, – системы, где как помеха извне или как ослабление самого сообщения (все эти элементы понимаются как «шум») может заявить о себе некая неупорядоченность, то есть обеднение сообщения, увеличение энтропии. Если значение представляет собой организацию сообщения согласно определенным правилам вероятности (именно согласно правилам, а не статистической равновероятности, которая позитивно измеряется энтропией), тогда неупорядоченность – это опасность, грозящая уничтожить само сообщение, а энтропия – ее мера. Таким образом, энтропия будет негативной мерой смысла сообщения{52}.
Для того чтобы защитить сообщение от такого обеднения, чтобы, несмотря на проникновение шума, мешающего его принятию, смысл содержания (его порядок) в основном оставался без изменения, мне придется как бы окутать это сообщение условными повторениями, окружить его избытком четко определенных вероятностей, чтобы, невзирая на любой шум, доля информации все равно сохранилась бы. Этот излишек вероятностей и является избыточностью. Предположим, нам надо сообщить: «Я тебя слышу» («Ti odo»). Допустим, что кто-то кричит эти слова с одной горной вершины на другую, что неопытная телеграфистка, передавая эту фразу, неправильно расставляет на своем передатчике точки и тире или что, наконец, фраза написана на листке бумаги, оказавшемся в классической бутылке, где бумагу подмочила вода. В контексте передачи информации все эти помехи и ситуации являются шумом. Для уверенности в том, что сообщение будет принято в надлежащем виде, что, например, ошибка телеграфистки не изменит первую фразу на «Я тебя ненавижу» («Ti odio»), а порывы ветра не превратят ее в нечто непонятное, я могу сказать так: «Я тебя слышу, то есть улавливаю твои слова». В общих чертах можно сказать, что, как бы плохо ни обстояли дела для того, кто принимает сообщение, все-таки сохраняется возможность, основываясь на скудных и неполных его компонентах, воссоздать его наилучшим образом.
Если же говорить точнее, то в языковой системе смысловая избыточность определяется всей совокупностью синтаксических, орфографических и грамматических правил, которые как бы устанавливают необходимые лингвистические вехи. В этом смысле можно сказать, что, будучи системой заранее определенных вероятностей, на которые и полагается его пользователь, язык представляет собой коммуникативный код. Использование местоимений, частиц, флексий в определенных языках способствует тому, что в структурном плане сообщение усложняется и в большей степени соотносится с вполне определенными (а не какими-либо другими) вероятностями. Впав в крайность, можно даже сказать, что гласные в словах являются элементами избыточности будто бы для того, чтобы сделать более вероятным и понятным расположение согласных (которые определяют то или иное слово). Глядя на совокупность согласных «лшд», я могу догадаться, что речь идет о «лошади», даже если и не вижу гласных «о» и «а». Однако эти последние появляются между согласными для того, чтобы я увидел совершенно полное и понятное слово, появляются почти как выражение некоего преизбытка понятности. Когда специалисты по теории информации утверждают, что избыточность в английском языке составляет пятьдесят процентов, это значит, что, когда говорят по-английски, пятьдесят процентов сказанного несут в себе какое-то сообщение, а остальные пятьдесят определяются структурой языка и являются пояснительным излишком. Телеграмма, написанная именно в «телеграфном» стиле, по существу, представляет собой сообщение, из которого устранена малая часть избыточности (местоимения, артикли, наречия) настолько, насколько это возможно, чтобы не утратился смысл. С другой стороны, в такой телеграмме утраченная избыточность компенсируется введением условных оборотов речи, стереотипных выражений, которые облегчают понимание и создают новую форму вероятности и упорядоченности.
Законы вероятности настолько сильно управляют повторяемостью элементов языка, что, применяя статистические исследования к морфологической структуре слов, можно выбрать определенное количество букв, которые, согласно статистическим критериям, повторяются чаще других, и из них составить некие произвольные последовательности, которые, тем не менее, будут иметь много общего со словами языка, с которым проводится этот эксперимент{53}.
Все это, однако, приводит нас к выводу, что порядок, регулирующий понятность сообщения, утверждает также его абсолютную предсказуемость или, иными словами, его банальность. Чем больше сообщение упорядочено и понятно, тем больше оно предсказуемо: поздравления с днем рождения или выражения соболезнования, следующие предельно строгим критериям вероятности, вполне ясны, но почти не говорят нам ничего нового.
Различие между значением и информацией
Все это заставляет нас признать недостаточной распространенную точку зрения, вошедшую в обиход благодаря Винеру, для которого значение какого-либо сообщения и информация, содержащаяся в нем, являются синонимами, связанными с понятиями порядка и системы вероятности и противопоставленными понятиям энтропии и неупорядоченности.
Тем не менее мы уже отмечали, что информация зависит также от ее источника, то есть вполне понятно, что, если, например, поздравление с днем рождения исходит от Председателя Совета министров СССР, непредсказуемость этого поздравления обернется для нас неожиданным увеличением информации. Это, однако, подтверждает именно тот факт, что, информация, будучи дополнением, связана с оригинальностью, не-вероятностью. Но как это согласовать с тем, что, чем вероятнее сообщение, чем оно предсказуемее в любой своей части, тем больше в нем смысла? Ясно, что фраза «каждой весной распускаются цветы» имеет вполне ясное, совершенно недвусмысленное значение; она наделена максимальным смыслом и всевозможной доступностью, однако не добавляет ничего к тому, что нам уже известно.
Из нашего прежнего разговора об информации следует, что она не сообщает нам ничего особенного. Быть может, информация и смысл (значение) – не одно и то же?
Читая Винера, мы не можем прийти к такому заключению: для него информация означает порядок, а ее противоположность