Шрифт:
Интервал:
Закладка:
[2] Содержанием S является X, если S вызывает в R когнитивную или корковую репрезентацию X/мысли об X/ментальный образ X
Опять же, в [2] предлагается несколько различных механизмов более высокого порядка (например, когнитивная обработка не подразумевает ментальных образов), и неясно, какие из них могут определять содержание сигнала. Более того, организмы, полагающиеся на механизмы низшего порядка, не будут считаться обменивающимися информацией. И этот вывод не очень хорошо согласуется с обычным пониманием коммуникации в исследованиях поведения животных.
Столкнувшись с этими проблемами, может возникнуть соблазн поискать убежище в количественных рамках. Две величины, энтропия и взаимная информация, стали особенно влиятельными в этологии (например, Halliday 1983; Seyfarth et al. 2010; Wheeler et al. 2011). Энтропия Шеннона - это мера количества различных состояний и их вероятностей, которые может принимать система. Системы с большим количеством одинаково возможных состояний (например, шесть сторон игральной кости) связаны с более высокой степенью неопределенности относительно текущего состояния системы, чем системы с небольшим количеством возможных состояний, особенно если одно из них очень вероятно (например, банковские хранилища заперты/не заперты). Взаимная информация отражает статистическую связь между двумя такими системами. В 1950-х и 1960-х годах в ряде исследований оценивалась взаимная информация между сигналами и ответами приемника (см. Halliday 1983). Однако, поскольку сигналы обычно не рассматриваются с точки зрения их воздействия на приемники, эта мера ("передаваемая информация", Wiley 1983) не может отразить информационное содержание сигнала. Более близкой к цели является взаимная информация между сигналами и состояниями, о которых они говорят ("транслируемая информация", Wiley 1983). Отсюда вытекает следующая идея:
[3] Содержимым S является X, если S имеет ненулевую взаимную информацию с X
Однако величины Шеннона не эквивалентны (или не являются мерой) информации в разговорном смысле содержания, и это признали несколько первых этологов. Одна из причин заключается в том, что величины усредняются по всем состояниям, которые может иметь система, тогда как содержание в разговорном смысле не является средним (Dretske 1981). Другая причина заключается в том, что уменьшение неопределенности S и уменьшение неопределенности R относительно X - это трехтерминальное отношение (включающее S, R и X), тогда как взаимная информация - это только двухтерминальное отношение между S и X.
В настоящее время предпочтительной количественной основой в исследованиях поведения животных является статистическая теория принятия решений (SDT) (Bradbury and Vehrencamp 2011). Ее основная идея заключается в том, что животные могут использовать текущее восприятие для обновления своих предварительных знаний о событиях. Предварительные знания возникают из предыдущего опыта и/или эволюционной истории. SDT использует теорему Байеса для получения апостериорных вероятностей. Разница между апостериорными и предшествующими вероятностями понимается как измерение уменьшения неопределенности животного относительно состояния, вероятность которого обновляется. Идея может быть сформулирована следующим образом:
[4] Содержание S - это X, если S обновляет ожидания R относительно X
Байесовские вероятности традиционно понимаются как степени убежденности. Это поднимает вопрос о природе убеждений, скажем, у беспозвоночных и организмов, лишенных нервной системы. Возможно, чтобы избежать этих проблем, SDT остается явно нейтральной в отношении механизмов обновления (например, Bradbury and Vehrencamp 2011). Но эта стратегия поднимает другую проблему. Если SDT используется просто как инструмент предсказания, то это оправдывает толкование S просто как имеющего содержание.
Сигнальный контент как естественная информация
Философы склонны рассматривать содержание сигналов животных как пример либо естественной, либо семантической информации. Эти два типа информации различаются в зависимости от того, допускают ли они наличие ложного содержания. Ложность требует, чтобы нечто могло нести информацию о том, что p, несмотря на то, что это не p. Например, вера в то, что сегодня пятница, несет информацию о том, что сегодня пятница, которая может быть истинной, а может и не быть (семантическая информация). Кольца деревьев, напротив, являются стандартным примером естественной информации. Шесть колец дерева указывают на то, что дереву шесть лет, потому что обычно у дерева не было бы шести колец, если бы ему на самом деле не было шесть лет.
Подобно тому, как кольца деревьев достоверно обусловлены годовым периодом медленного роста, сигналы животных часто достоверно возникают в ответ на определенные события или объекты, например, хищников. И таким образом, подобно тому как кольца деревьев указывают на возраст, сигналы животных указывают на различные события или объекты. Эта основная идея развивается по-разному. Некоторые авторы опираются на сильные версии естественной информации, согласно которым одно состояние указывает на другое только в том случае, если первое не могло бы возникнуть без второго; таким образом, сигнал гарантирует возникновение указанного состояния (Dretske 1981; Adams and Beighley 2013). Однако большинство комментаторов считают, что такие строгие отношения возникают редко. Поэтому другая группа теорий допускает, что одно состояние может нести информацию о другом, даже если первое может возникнуть без второго (Millikan 2004; Shea 2007; Skyrms 2010). Хорошо сформулированную теорию такого рода отстаивает Скарантино (2015).
Центральная часть теории естественной информации Скарантино заключается в том, что одно состояние несет информацию о другом, когда первое делает второе более вероятным (или менее вероятным):
Инкрементальная естественная информация (INI): то, что r является G, несет инкрементальную естественную информацию о том, что s является F, относительно фоновых данных d, тогда и только тогда, когда p(s является F|r является G & d) ≠ p(s является F|d)
Основная идея может быть сформулирована следующим образом. Существо s имеет определенную предварительную вероятность того, что оно является F, учитывая некоторые исходные данные. Если он влияет на вероятность того, что s является F (делая ее более или менее вероятной), то то, что r является G, несет информацию о том, что s является F. Обратите внимание, что информационное содержание того, что r является G, не сводится (только) к тому, что s является F. Это происходит потому, что возникновение какого-либо состояния обычно влияет на вероятности многих состояний, а не только одного. Формальное определение информационного содержания, данное Скарантино,