Шрифт:
Интервал:
Закладка:
Таким образом, если после преобразования работы в теплоту (первый закон термодинамики) я преобразую эту теплоту в работу, мне не удается получить обратно исходное количество этой работы. Наблюдается уменьшение или, как обычно говорят, «расход» энергии, которую уже не удастся восстановить. Энергия «расходуется». Таким образом, некоторые природные процессы не являются полностью обратимыми: «эти процессы однонаправленны, и с каждым из них мир делает шаг, след которого никоим образом нельзя стереть»{47}. Если мы хотим найти общую меру этой необратимости, надо предположить, что природа, так сказать, отдает предпочтение одним состояниям перед другими (то есть тем, к которым устремляются необратимые процессы) и, кроме того, нам придется отыскать физическую величину, которая количественно измеряет предпочтение, отдаваемое природой определенному состоянию. Такая величина имела бы свойство расти во всех необратимых процессах. Это и есть энтропия.
Таким образом, второе начало термодинамики, утверждая «расход» энергии, стало законом энтропии, причем настолько, что обычно идею энтропии связывают с идеей этого «расхода» и с тем выводом, согласно которому, наблюдая за развитием любого естественного процесса в направлении увеличивающегося расхода и поступательного уменьшения энергии, можно якобы говорить о «тепловой смерти» вселенной. Однако надо раз и навсегда отметить, что, если понятие энтропии и используется в термодинамике для определения расхода энергии (и, следовательно, здесь неизбежно начинают звучать пессимистические нотки, коль скоро нам позволено облекать в чувства научные размышления), в действительности энтропия представляет собой статистическую величину и потому является математически нейтральным инструментом. Иными словами, энтропия представляет собой меру состояния наибольшей равновероятности, к которой стремятся естественные процессы. В этом смысле и принято говорить, что природа имеет предпочтения: она предпочитает более единообразное состояние менее единообразному, и теплота переходит от более нагретого тела к менее нагретому потому, что состояние равномерного распределения температуры более вероятно, чем состояние неравномерного распределения. Иными словами, взаимонаправленная скорость молекул в большей степени тяготеет к состоянию единообразия, а не к состоянию различия, в котором, при их различной скорости, совершаются различные тепловые реакции. Исследования, проведенные Больцманом в области кинетики газов, показали, что природа прежде всего тяготеет к элементарной неупорядоченности, мерой которой является энтропия{48}.
Тем не менее, необходимо еще раз подчеркнуть, что понятие энтропии является чисто статистическим, так же, как, в конечном счете, чисто статистическим является тот же принцип необратимости: как уже показал Больцман, в замкнутой системе обратимость не невозможна, а только невероятна. Столкновение молекул газа происходит согласно статистическим законам, которые сводят различие скоростей к среднему равенству. Когда более быстрая молекула сталкивается с более медленной, может случиться так, что последняя передаст часть своей скорости первой молекуле, но статистически более вероятно, что произойдет обратное, то есть быстрая молекула замедлит свой бег и сообразует свою скорость со скоростью более медленной молекулы, порождая состояние большего единообразия и, следовательно, способствуя росту элементарной неупорядоченности. «Таким образом, закон увеличения энтропии обусловлен законом больших чисел, известным любому виду статистики, однако он не относится к строгим физическим законам, которые, как, например, законы механики, не допускают исключений»{49}. То, каким образом от теории «расхода» энергии можно перейти к использованию понятия энтропии в теории информации, нам показывают довольно ясно рассуждения Ганса Рейхенбаха. Общая тенденция к возрастанию энтропии, свойственная физическим процессам, не препятствует тому, чтобы (как мы это ощущаем каждый день) происходили такие физические процессы, в которых совершается определенная организация, то есть упорядочение событий в соответствии с определенной невероятностью (все органические процессы таковы) и, следовательно, в соответствии с уменьшением энтропии. По отношению к общей графической кривой роста энтропии эти моменты ее уменьшения Рейхенбах называет branch systems[34] – как отклонения, ответвления от этой кривой, в которых взаимодействие некоторых событий приводит к упорядочению соответствующих элементов. Приведем пример. Ветры, дующие на пляже, порождают в тысяче песчинок общую тенденцию к беспорядку и, следовательно, к единообразию их расположения, но вот неожиданно по пляжу проходит человек, и взаимодействие его ног с поверхностью песка представляет собой взаимодействие событий, приводящих к появлению определенной конфигурации (статистически совершенно невероятной) следа от его ноги. Эта конфигурация, являющаяся формой, фактом определенной организации, очевидно, будет стремиться к исчезновению под воздействием ветра, иными словами, если она и представляла собой ответвление от общей кривой энтропии (там, где сама энтропия уменьшалась, уступая место невероятному порядку), сама боковая система, тем не менее, будет стремиться к тому, чтобы снова слиться с общей кривой увеличивающейся энтропии. В то же время в этой системе, как раз благодаря уменьшению элементарной неупорядоченности и реализации порядка, сложились причинно-следственные отношения: причина представляла собой совокупность фактов взаимодействия с песчинками пляжа (читай «человеческая нога»), а следствие – возникшую затем их организацию («след»).
Существование причинно-следственных отношений в системах, созданных при уменьшении энтропии, приводит к возникновению «воспоминания»; с физической точки зрения воспоминание представляет собой запись, «упорядочение, структура которого остается неизменной, так сказать, замороженной»{50}. Это помогает нам установить цепь причин, чтобы воссоздать событие, однако поскольку второе начало термодинамики ведет к признанию и утверждению существования воспоминаний о прошлом, постольку воспоминание представляет собой не что иное, как накопление информации, а из этого рождается тесная связь между энтропией и информацией{51}.
Поэтому нас не удивит, если в теоретических работах по информации мы обнаружим широко используемый термин «энтропия»: это, напротив, поможет нам понять, что измерение количества информации означает измерение того порядка или беспорядка, в соответствии с которым организовано то или иное сообщение.
Понятие информации в теории Винера
Норберт Винер широко использует теорию информации в своих исследованиях по кибернетике для того, чтобы оценить возможность контроля над коммуникацией среди людей и машин. Согласно Винеру, информативность того или иного сообщения зависит от степени его организации; информация является мерой упорядоченности, и, следовательно, мера беспорядка, то есть энтропия, будет противоположностью информации. Иначе говоря, информация, заключенная в каком-либо сообщении, зависит от его способности организоваться в соответствии с конкретным порядком, благодаря невероятной систематизации избегая той равновероятности, того единообразия, той элементарной неупорядоченности, к которой преимущественно стремились бы естественные события. Приведем пример. Если я подбрасываю в воздух большое количество кубиков, на гранях которых написаны буквы алфавита, то кубики в любом случае упадут так, что последовательность букв на них будет лишена всякого смысла, например, AAASQMFLLNSUHOI и т. д. Эта последовательность ни о чем мне не говорит: она сказала бы мне что-нибудь, если бы была организована по правилам