litbaza книги онлайнРазная литератураРомантика реальности. Как Вселенная самоорганизуется, порождая жизнь, сознание и сложность Космоса - Бобби Азарян

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 16 17 18 19 20 21 22 23 24 ... 85
Перейти на страницу:
и объединяются, большая часть поврежденной информации восстанавливается, и неопределенность в отношении исходного содержимого уменьшается. Согласно теории Шеннона, информация представляет собой «уменьшение неопределенности», а количество информации в сигнале соответствует величине неопределенности, которая была уменьшена после получения сообщения. Другими словами, неопределенность – это неведение, а информация – знание.

Чтобы прояснить эту концепцию на классическом примере, представим информацию, получаемую, когда кто-то подбрасывает монетку и наблюдает за результатом. Перед подбрасыванием монеты никто не знает, выпадет ли она орлом или решкой; шансы составляют пятьдесят на пятьдесят. Когда же она падает, и вы видите результат, то вы объединяете два вероятных состояния в одно четко определенное и при этом получаете ровно один бит информации.

Теперь вместо монеты, у которой есть лишь два возможных состояния, представьте, что вы, закрыв глаза, бросаете шестигранный кубик. В этом случае неопределенность выше, поскольку кубик потенциально может находиться в большем количестве состояний. Когда вы открываете глаза и видите, на какую грань он приземлился, вы в большей степени уменьшаете неопределенность, а следовательно, получаете больше информации.

Если конкретнее, то, увидев результат броска кубика, вы получаете примерно 2,6 бита информации, но давайте пока оставим за скобками математические подробности. Важно то, что объем полученной информации пропорционален количеству возможных вариантов – или количеству возможных сообщений, которые могли быть отправлены. По этой причине получение первого символа сообщения, закодированного в двоичном формате (1 или 0), дает гораздо меньше информации, чем первый символ сообщения, закодированного английскими буквами, поскольку в английском алфавите двадцать шесть букв и, следовательно, двадцать шесть различных возможностей.

Хотя мы только начали описывать информацию, физик, знакомый со статистической термодинамикой, уже мог заметить, что она имеет некоторые любопытные сходства с энтропией. Но указывают ли эти сходства на связанность двух понятий? Что ж, математическое уравнение Шеннона для вычисления меры неопределенности информации в сообщении является тем же выражением, которое используется для вычисления статистической энтропии Больцмана – меры конфигурационного беспорядка.

Эта формальная эквивалентность, на которую Шеннону впервые указал венгерско-американский эрудит Джон фон Нейман, не простое совпадение. Как говорилось во второй главе, чем более энтропийна система, чем более случайными, перемешанными и неупорядоченными являются ее компоненты – тем меньше уверенности в точном состоянии системы (ее микросостоянии) при простом наблюдении или измерении ее коллективных свойств (ее макросостояния). Это объясняется тем, что по сравнению с организованной системой существует гораздо больше вариантов расположения компонентов неупорядоченной системы без соответствующего изменения какой-либо глобальной характеристики, например ее общего внешнего вида, температуры или давления.

Логическое сходство между статистической неупорядоченностью Больцмана и количественной мерой неопределенности Шеннона навело фон Неймана на мысль, что меру неопределенности также следует называть энтропией, что делало этот термин еще более запутанным. Но отчасти это было сделано намеренно: фон Нейман сказал Шеннону, что, поскольку «никто не знает, что такое энтропия, в дебатах у вас всегда будет преимущество»1. Итак, теперь появился третий тип энтропии, известный как энтропия Шеннона или информационная энтропия, и это мера неизвестности или неопределенности перед расшифровкой закодированного сообщения.

Связь между неизвестностью и энтропией приводит нас к важной идее. Если неопределенность математически эквивалентна беспорядку, а информация – это уменьшение неопределенности, то получение информации должно быть связано с уменьшением беспорядка. Это имеет смысл и на интуитивном уровне, поскольку знания не плавают в пространстве свободно. Значимая информация должна быть закодирована или воплощена в какой-либо физической структуре, такой как упорядоченный носитель или организованная система. В следующей части книги мы увидим, почему эта связь между информацией и энтропией действительно является ключом к пониманию происхождения жизни и ее эволюции в сторону усложнения.

Пытаясь измерить информацию, мы неизбежно сталкиваемся с проблемой: то, что мы считаем или не считаем информацией, представляется в некотором смысле субъективным или, по крайней мере, относительным. Сообщение информативно только в том случае, если оно сообщает получателям нечто такое, чего они прежде не знали. Очевидно, что руководство по выживанию содержит больше информации, чем книга такого же размера, в которой снова и снова повторяется одно единственное слово. Если сообщение насыщено избыточностью, то оно содержит не так много информации. Аналогично, если слова книги выбраны совершенно случайным образом, то ее содержание окажется всего лишь бессмысленным словесным винегретом – в нем тоже будет не так много информации. Определенно, не так много, как в руководстве по выживанию, верно?

Но что, если руководство по выживанию написано на английском языке, а взял его человек, понимающий только японский? Для него эта книга содержит не больше информации, чем если бы она была полной бессмыслицей. Или представим, что руководство по выживанию насыщено техническим жаргоном, поскольку написано для подготовленных бойскаутов? В этом случае в нем было бы больше информации, если читатель оказался бы бойскаутом, а не городским жителем без подготовки к выживанию или соответствующего образования. А что, если бойскаут еще и автор этой книги? Тогда она для него вообще неинформативна, ведь она не сообщит ему ничего такого, чего он уже не знал раньше. Как видно, классификация и измерение информации – порой нетривиальная задача.

Однако Шеннон, будучи инженером, нашел практическое решение проблемы, значительно упростившее эту задачу. Чтобы иметь возможность точно и объективно измерять информацию, он предложил просто игнорировать смысл передаваемого сообщения. Другими словами, его измерения игнорировали семантическую (значимую) информацию и фокусировались исключительно на синтаксической (символической) информации. Так, например, если закодированное сообщение было получено и декодировано без ошибок, то не имело значения, было ли это случайным набором букв или поэмой Шекспира. Покуда используется одна и та же система символов, а их количество и разнообразие в строке одинаково, так же одинаков и объем информации в сигнале.

Хотя Шеннон не предполагал объяснять биологию через информацию, ученым с междисциплинарным образованием потребовалось не так уж много времени, чтобы понять ее важность для жизни. Биологические структуры и процессы удалось точнее сформулировать и смоделировать на основе информационного подхода. Сегодня биологию трудно представить себе в отрыве от информации.

Живые системы – это информационные системы

Джон Мейнард Смит, один из великих британских биологов-эволюционистов двадцатого века, так описал влияние теории информации на биологию в интервью 1997 года, которое у него взял другой известный британский биолог-эволюционист Ричард Докинз:

В двадцатом веке биология стала все больше интересоваться именно информацией. Генетика отвечает на вопрос о том, как информация передается от поколения к поколению. Молекулярная биология занимается тем, как она преобразуется из ДНК в белок. Биология развития изучает то, как она преобразуется из набора белков в морфологическую структуру. А эволюционная теория, в сущности,

1 ... 16 17 18 19 20 21 22 23 24 ... 85
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?