Шрифт:
Интервал:
Закладка:
Больцман не только идентифицировал степень перестанавливаемости с энтропией, но и указывал на то, что его видение последней может быть распространено на любое вещество, одноатомное или многоатомное, жидкое или твердое. Действительно, физик пришел к выводу:
"Возьмем любую систему, которая подвергается произвольной трансформации, при этом конечные и начальные состояния — необязательно состояния равновесия; в этих условиях мера перестанавливаемости множества тел системы будет постоянно расти в ходе процесса и в лучшем случае будет постоянной в обратимых процессах, которые находятся бесконечно близко к термодинамическому равновесию".
ПРИНЦИП БОЛЬЦМАНА
Эйнштейн ввел термин "принцип Больцмана" для обозначения формулы, которая в итоге была выгравирована на могиле австрийца:
S = k logW.
Несмотря на то что Больцман демонстративно не привел ее в своей статье 1877 года, эту формулу легко вывести простым методом группировки различных констант. В ней S представляет энтропию, к — постоянную Больцмана, которая равна 1,38 · 10-23 Дж/К и которой Больцман никогда не пользовался, a W— число микросостояний (микроскопических конфигураций), совместимых с наблюдаемым макросостоянием (макроскопической конфигурацией). W также иногда толкуется как вероятность макросостояния, поскольку она прямо пропорциональна числу микросостояний. Из этого уравнения видно, как энтропия S увеличивается, по мере того как IV тоже увеличивается. Чем больше микросостояний, тем больше беспорядок; чем больше беспорядок, тем больше энтропия. Кроме того, только для одного возможного микросостояния энтропия математически равна нулю.
СОВРЕМЕННОЕ ПОНЯТИЕ ЭНТРОПИИ
Несмотря на то что терминология, используемая в статье 1877 года, сегодня несколько устарела, в тексте уже встречается понятие энтропии в том виде, в каком она понимается сегодня. В работе Больцмана она определяется как две трети меры перестанавливаемости; в современном понимании этот коэффициент в две трети включен в то, что стали называть "постоянной Больцмана", хотя сам ученый никогда этим термином не пользовался.
Поскольку число перестановок и число микросостояний, совместимых с распределением, прямо пропорциональны, сегодня вместо числа перестановок используется это последнее значение. Итак, в формуле энтропии утверждается, что она пропорциональна логарифму числа микроскопических состояний, совместимых с наблюдаемым макроскопическим состоянием.
Современная терминология в статистической физике была разработана Джозайей Уиллардом Гиббсом (1839-1903). Так, распределения энергии Больцмана сегодня называются макросостояниями, в том смысле, что это состояния, наблюдаемые с макроскопической точки зрения, а комплексиям было дано новое название — микросостояния, поскольку они не наблюдаются напрямую. В целом у каждого состояния есть некоторое число связанных с ним микросостояний, в том смысле что они порождают одни и те же наблюдаемые свойства, и их вероятность увеличивается прямо пропорционально их числу.
Формулу Больцмана, S = k logW, современным языком можно описать следующим образом: энтропия прямо пропорциональна логарифму числа микросостояний, совместимых с макросостоянием. Логарифм используется, поскольку, с одной стороны, он упрощает вычисление вероятности (так как большинство перестановок вычисляется на основе произведений), а с другой стороны, подчеркивает то, что энтропия связана с суммой в том смысле, что энтропия двух систем складывается, а не умножается, как это было бы с числом перестановок. Именно эта формула выгравирована на могиле Больцмана, а не та, которую он сам ввел в 1877 году.
Обычно говорят, что энтропия есть мера беспорядка системы. Этого понятия не было в формулировке Клаузиуса, и оно также, похоже, было не совсем применимо к первому определению Больцмана. Подход 1877 года делает возможным объяснение связи между энтропией и беспорядком вполне естественным образом. Первое, на что нужно указать, — это то, что беспорядок — довольно бессистемное понятие. В классическом примере с колодой карт говорят, что они упорядочены, если расположены так, что каждой карте предшествует другая непосредственно меньшего значения, а после нее следует другая непосредственно большего значения. В случае с газом считается, что он находится в упорядоченном состоянии, если у молекул имеется распределение энергии или положений, которое отклонялось бы от ожидаемого, если бы было произвольным, что в данном случае означает распределение Больцмана.
ЭНТРОПИЯ ШЕННОНА
Определение энтропии Больцмана было столь общим, что было использовано в математике и науке о вычислениях. Самое известное применение — так называемая "энтропия Шеннона", названная в честь математика и специалиста по теории коммуникаций Клода Элвуда Шеннона (1916-2001), которая измеряет количество информации, содержащееся в сообщении.
Представим себе сообщение, состоящее из единиц и нулей. Если бы частота единиц и нулей не была произвольной, а в ней имелись бы некоторые тенденции к большему количеству нулей или единиц, наблюдатель, читающий цепочку по порядку, мог бы предсказать, до какой-то степени, следующее значение. Цепочка 1111111111111... довольно предсказуема: крайне вероятно, что следующим символом будет 1. В этом случае чтение этих данных предоставляет нам очень мало информации, поскольку уже известно все необходимое, до того как мы увидим сообщение: их энтропия Шеннона минимальна. И наоборот, энтропия Шеннона максимальна, когда цепочка — произвольный ряд нулей и единиц. В этом случае единственный способ узнать, каков следующий символ, — увидеть его. На практике большинство сообщений (например, на английском или на испанском языке) имеет относительно низкую энтропию Шеннона из-за статистического преобладания некоторых букв. Из-за этого они содержат мало информации, и их легко сжать. На этой идее основываются программы-архиваторы. Связь между энтропией Шеннона и энтропией Больцмана была не очень ясной до середины 1950-х годов. Было высказано предположение, что энтропия Больцмана может быть истолкована как частный случай энтропии Шеннона: когда она максимальна, тело, которое она описывает, находится в самом произвольном состоянии, то есть с очень высокой энтропией Шеннона. Так, энтропию Больцмана можно вычислить как информацию, необходимую для определения состояния каждой из молекул тела, если известны макроскопические детали. Энтропия Шеннона — не единственная интеллектуальная "дочь" энтропии Больцмана: в Linux (операционной системе со свободным кодом, благодаря которой появился Android) термин "энтропия" используется для определения произвольных данных, собираемых системой на основе движения мыши или клавиатуры.
В примере с картами легко увидеть, что большинство порядков соответствует неупорядоченному состоянию: если исходить из упорядоченной колоды и изменить положение десяти карт, то получится колода, отдаленная от предыдущего порядка. Если повторить операцию, выбирая каждый раз десять произвольных карт, колода все больше будет отдаляться от упорядоченного состояния, если только нам сильно не повезет. Это происходит потому, что существует намного большее число беспорядочных конфигураций, чем упорядоченных. Чтобы увидеть это, воспользуемся простой моделью с пятью картами, пронумерованными от 1 до 5.