litbaza книги онлайнРазная литератураИгра разума. Как Клод Шеннон изобрел информационный век - Джимми Сони

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 38 39 40 41 42 43 44 45 46 ... 88
Перейти на страницу:
точности. Если следуя логике Найквиста, количество информации имело отношение к выбору из некоего количества символов, тогда первым необходимым требованием было выяснить количество символов, свободных от капризов психологии. Наука об информации должна была различать сообщения, которые мы называем тарабарщиной, и те, которые несут смысл. Поэтому в одном из ключевых параграфов своей работы Хартли объяснял, как начать воспринимать информацию не в психологическом, а в физическом смысле: «Оценивая возможности физической системы передавать информацию, мы должны игнорировать вопрос интерпретации, осуществлять каждый выбор абсолютно условно и основывать наши результаты на возможности того, что приемное устройство разлимит результат выбора одного символа от результата выбора любого другого символа».

Таким образом, Хартли теоретически закрепил те самоочевидные знания, которые были уже накоплены сотрудниками телефонной компании – суть их заключалась в самой передаче информации, а не в ее интерпретации. И так же как в мысленном эксперименте с телеграфной связью, управляемой катящимся шариком, единственные требования, чтобы символы легко проходили по каналу связи и чтобы человек, находящийся на том конце, мог разобрать их.

На самом деле реальная мера информации заключена не в символах, которые мы отправляем, а в тех, которые мы могли бы отправить, но не отправили. Отправить сообщение – значит сделать выбор из библиотеки возможных символов, и «при каждом сделанном выборе будут исключенные символы – те, которые могли бы быть выбраны». Выбрать – значит избавиться от альтернативных вариантов. Наиболее наглядно мы можем видеть это, объяснял Хартли, в тех случаях, когда сообщения несут смысл. «Так, к примеру, в предложении “яблоки красные” (apples are red) первое слово исключает все другие виды фруктов и все другие предметы. Второе слово указывает на некое свойство или состояние яблок, а третье отменяет другие возможные цвета». Этот повторяющийся процесс отмены применим к любому сообщению. Информационная ценность символа зависит от количества отброшенных при выборе альтернатив. Символы, взятые из больших словарей, несут больше информации, чем символы из маленьких словарей. Информация измеряет свободу выбора.

В данном случае мысли Хартли относительно выбора явно перекликались с пониманием Найквистом текущих значений. Но если Найквист демонстрировал это применительно к телеграфии, то Хартли доказал, что это одинаково справедливо для любой формы связи. Идеи Найквиста оказались своеобразным «подклассом» идей Хартли. Если смотреть шире, в тех дискретных сообщениях, в которых символы посылались по одному за раз, лишь три переменных величины обусловливали количество информации: количество k-символов, отправленных в секунду, размер s-группы возможных символов и длина n-сообщения. Имея эти величины и определив количество передаваемой информации символом Н, мы получаем:

H = k log sn.

Если мы делаем случайные выборы из набора символов, то количество возможных сообщений возрастает в геометрической прогрессии, по мере того как растет длина сообщения. Так, к примеру, в английском 26-буквенном алфавите существуют 676 возможных двухбуквенных цепочек (или 262), но 17 576 трехбуквенных (или 263). Хартли, как и Найквист до него, посчитал это неудобным. Мера информации была бы более удобной в работе, если бы она увеличивалась последовательно с каждым добавленным символом, а не разбухала в геометрической прогрессии. В этом смысле о телеграмме, состоящей из 20 букв, можно сказать, что она содержит в два раза больше информации, чем телеграмма, состоящая из 10 букв, при условии, что оба сообщения были написаны с помощью одного алфавита. Это объясняет, что делает логарифм в формуле Хартли (и Найквиста): он преобразовывает экспоненциальное изменение в последовательное. Для Хартли это было вопросом «практической инженерной ценности»[4].

Именно инженерная ценность интересовала его в первую очередь, несмотря на его попытки определить само понятие информации. Какова природа связи? Что происходит, когда мы отправляем сообщение? Присутствует ли информация в сообщении, которое мы даже не понимаем? Это были сами по себе значимые вопросы. Но во всех поколениях, осуществлявших процесс связи, эти вопросы с настойчивостью и неумолимостью возникали уже потом, так как ответы на них становились вдруг исключительно ценными. Избалованные изобилием подводных кабелей, трансконтинентальных радиозвонков, снимков, отправленных по телефонной линии, и движущихся изображений, посылаемых по воздуху, мы приобрели отличные навыки того, как осуществлять процесс связи, но не успели разобраться в том, а что же такое связь как таковая. И за это незнание приходилось платить – либо аварией (перегоревшим кабелем), либо просто неудобством (мерцающая или размытая картинка на экранах первых телевизоров).

Хартли на тот момент ближе, чем кто бы то ни было, добрался до сути понятия информации. Более того, его работа говорила о том, что четкое понимание информации расширяло инженерные возможности. Так, к примеру, они могли «рубить» продолжительные сигналы, такие как человеческий голос, на цифровые шаблоны, и тогда информационный контент любого сообщения – продолжительного или дискретного – можно было подвести под единый стандарт. Сколько информации, к примеру, содержится в изображении? Сейчас мы можем воспринимать изображение так же, как мы воспринимаем телеграфную связь. Точно так же, как мы разбиваем телеграфное сообщение на дискретную последовательность из точек и тире, мы можем разбить изображение на дискретное количество клеток, которые Хартли называл «элементарными участками»: то, что позднее было названо элементами отображения или пикселями. Подобно тому, как операторы-телеграфисты выбирают из конечного набора символов, каждый элементарный участок определяется выбором из конечного набора яркости тона. Чем больше этот набор яркости и чем больше количество элементарных участков, тем больше информации содержит изображение. Это объясняет, почему цветные изображения включают больше информации, чем черно-белые – в первом случае выбор осуществляется из большего по объему словаря символов.

Итак, мы имеем клетки и степень яркости тона, а в виде изображения может выступать «Тайная Вечеря» или завтрак собаки – информация в обоих случаях будет беспристрастна. В идее о том, что даже изображение можно определить количественно, заключено понимание абсолютно утилитарных принципов информации. Это почти фаустовский обмен. Но когда мы принимаем эти принципы, то впервые начинаем догадываться о единстве, присутствующем в каждом сообщении.

И если некоторым людям требуются значительные усилия, чтобы достичь этого понимания, то машины «заточены» под эту беспристрастность. Поэтому универсальная мера информации может позволить нам определить лимиты действия наших машин и содержимое наших сообщений с помощью одинаковых формул, то есть как приводить наши машины и сообщения к единому знаменателю. Мера информации помогает нам обнаружить связи между диапазоном частот в определенной среде, информацией, содержащейся в сообщении, и временем, которое требуется для его отправки. Как показал Хартли, при работе с тремя этими параметрами всегда приходится идти на компромисс. Чтобы сообщение пошло быстрее, мы вынуждены выбрать больший диапазон частот или упростить сообщение. Если

1 ... 38 39 40 41 42 43 44 45 46 ... 88
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?