litbaza книги онлайнРазная литератураОткрытое произведение. Форма и неопределенность в современной поэтике - Умберто Эко

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 32 33 34 35 36 37 38 39 40 ... 95
Перейти на страницу:
поведение системы – нам нелегко предугадать, каким будет следующее положение той или иной молекулы; иными словами, молекула может двигаться самыми разными путями, она, так сказать, открыта всем возможностям, мы знаем, что она может занять самые разные положения, но не знаем, какие именно. Для того, чтобы лучше определить поведение отдельных молекул, нам потребовалось бы дифференцировать их скорость, одним словом, придать системе порядок и уменьшить в ней энтропию – таким образом, мы увеличим вероятность того, что молекула будет вести себя так, а не иначе, но ограничим число ее изначальных разнообразных возможностей (подчинив их определенному коду).

Итак, если я хочу что-либо знать о поведении отдельной частицы, информация, которую я ищу, противостоит энтропии, но если я хочу знать все возможные варианты поведения любой частицы, тогда информация, которую я ищу, будет прямо пропорциональна энтропии; привнося в систему порядок и уменьшая энтропию, я узнаю о системе многое в каком-то одном смысле, но значительно меньше в другом.

То же самое происходит и с передачей информации.

Постараемся это пояснить ссылкой на формулу, с помощью которой обычно выражается величина какой-либо информации:

I = N log h,

где h представляет собой число элементов, из которых делается выбор, а N – количество вариантов выбора, которые можно сделать (в случае с двумя игральными костями h = 6, а N = 2; если же мы имеем шахматную доску, то h = 64, a N = ходы, которые допускаются правилами шахматной игры).

Если же речь идет о системе с высокой энтропией (где могут осуществиться все комбинации), значения величин N и h оказываются очень большими и, следовательно, самым высоким оказывается и количество той информации о поведении одного или нескольких элементов системы, которое можно было бы передать. Однако очень трудно сообщить столько бинарных вариантов выбора, сколько необходимо для того, чтобы обособить выбранный элемент и определить его сочетания с другими элементами.

Каким образом можно легко сообщить ту или иную информацию? Это можно сделать, сокращая число задействованных элементов и вариантов выбора, вводя какой-либо код, систему правил, которая предусматривает наличие строго определенного числа элементов, исключает некоторые комбинации и допускает лишь оговоренные. В этом случае можно будет сообщить информацию через разумное число бинарных вариантов выбора. Однако значения величин N и h в таком случае уменьшаются и, следовательно, уменьшается величина полученной информации.

Таким образом, чем больше информации, тем труднее ее сообщить, и чем яснее какое-либо сообщение, тем меньше в нем информации.

Вот почему в своем классическом труде по теории информации{56} Шеннон и Уивер осмысляют информацию как величину, прямо пропорциональную энтропии. Другие исследователи тоже признают, что Шеннон, один из основателей этой теории, обращает внимание именно на этот аспект информации{57}, но все они напоминают о том, что, если мы понимаем информацию в узкостатистическом смысле, она не имеет отношения к тому, истинно или ложно содержание сообщения (не имеет отношения к его «значению»). Мы лучше все это усвоим, если обратимся к некоторым высказываниям Уоррена Уивера, которые содержатся в его очерке, посвященном популяризации математического аспекта информации:{58} «В этой новой теории слово “информация” относится не столько к тому, что говорится, сколько к тому, что могло быть сказанным, то есть информация выступает как мера нашей свободы в выборе сообщения… Необходимо помнить, что в математической теории коммуникации наш интерес обращен не к значению отдельных сообщений, а к общей статистической природе источника информации…

Понятие “информации”, изложенное в этой теории, на первый взгляд кажется странным и неудовлетворительным: неудовлетворительным потому, что не имеет никакого отношения к понятию “значения”, а странным потому, что оно относится не только к какому-то отдельному сообщению, но, в первую очередь, учитывает статистический характер всей совокупности сообщений; оно странно еще и потому, что в таком статистическом контексте слова “информация” и “неопределенность” тесно связаны между собой».

Этим мы вернули наш долгий разговор о теории информации к основной для нас проблеме и тем не менее должны задаться вопросом, законно ли все-таки применять такие понятия как орудия исследования в вопросах эстетики хотя бы потому, что, как теперь ясно, статистический смысл информации гораздо шире коммуникативного.

Статистически я имею информацию тогда, когда (оставаясь по эту сторону всякого порядка) вдобавок располагаю всем перечнем вероятностей на уровне источника информации.

В коммуникативном плане я имею информацию, когда:

1) находясь в изначальной неупорядоченности, очерчиваю и утверждаю некий порядок как систему вероятности, то есть устанавливаю определенный код;

2) находясь в этой системе и не возвращаясь к тому, что ей предшествовало, я (излагая сообщение, которое является двусмысленным по отношению к установленным правилам кода) ввожу элементы неупорядоченности, которые вступают в напряженную диалектическую связь с основным порядком (сообщение приводит код к кризису).

Итак, нам придется выяснить, как сказывается использование этой намеренной неупорядоченности на сообщении, содержащемся в поэтической речи, причем здесь надо помнить о том, что эту неупорядоченность если и можно отождествить со статистическим понятием энтропии, то лишь в переносном смысле: неупорядоченность, несущая сообщение, является таковой лишь относительно предшествовавшего ей порядка.

Ii. Поэтическая речь и информация

Пример с терцетом Петрарки особым образом вписывался в этот контекст: по меньшей мере он наводил нас на мысль о том, что в искусстве один из элементов самобытности эстетической речи обусловливается как раз нарушением вероятностного порядка языка, способного сообщать обычные значения, и это приводит к увеличению числа возможных смыслов. Такой вид информации характерен для всякого эстетического сообщения и совпадает с той основополагающей открытостью любого произведения, которую мы рассматривали в предыдущей главе.

А теперь перейдем к примерам из современного искусства, где сознательно делается установка на то, чтобы расширить традиционно понимаемое значение.

Если я произношу артикль «il», то, согласно законам избыточности, вероятность того, что следующее слово будет местоимением или существительным, очень велика; если же я говорю «в случае…», то весьма высока вероятность того, что следующим словом будет «если», а не «слон», к примеру. Так обстоят дела в обычной речи, и хорошо, что так. Приводя эти примеры, Уивер приходит к выводу, что крайне мала вероятность появления фразы: «я ловлю в Константинополе неприятную гвоздику». Согласно законам статистики, которые управляют повседневным языком, это действительно так, но удивительно, что подобные фразы кажутся примером автоматического сюрреалистического письма.

Прочитаем теперь стихотворение «Остров», принадлежащее Унгаретти:

A una proda ove sera era perenne

di anziane selve assorte, scese

e s’inoltrò

e lo richiamò rumore di penne

ch’erasi sciolto dallo stridulo

1 ... 32 33 34 35 36 37 38 39 40 ... 95
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?