Шрифт:
Интервал:
Закладка:
Информационная теория индивидуальности
Если у Д. С. Чернавского и М. Левина индивидуальность агента или элемента информационной системы фактически возникает в момент [спонтанного] возникновения цели, то у Дэвида Кракауэра и коллег (Krakauer D. et al., 2020) в информационной теории индивидуальности (ИТИ, the information theory of individuality) индивидуальность агента при определенных условиях возникает в многоуровневой системе, где есть поток информации между агентами, но также исключительно из формальных информационно-математических оснований.
Сама индивидуальность в ИТИ понимается как некая совокупность (агрегат) элементов, способная сохранять свою целостность во времени и распространять связанную с собой информацию из прошлого в будущее. Переформулировка одного из вариантов определения цели информационной динамической системы Д. С. Чернавского («целью является выбор такой информации, которая сохранится в будущем») дает общую платформу для ИТИ и рассмотренных выше целеполагающих подходов при рассмотрении возникновении цели и индивидуальности. В ИТИ индивидуальность в итоге обладает несколькими неожиданными характеристиками.
1. Сама индивидуальность скорее непрерывна, чем бинарна, то есть может не иметь четких границ, или, другими словами, в каком-то элементе ее может больше, а в каком-то меньше.
2. Индивидуальность может возникать на самых разных уровнях – уровне организма (что наиболее понятно), колонии, роя (например, у насекомых, что менее понятно, но тем не менее), и даже надколониальном уровне в форме особых отношений сообщества с окружающей средой (что воспринимается с еще большим трудом).
3. Индивидуальность может быть вложенной, то есть отдельная индивидуальность может быть частью другой надындивидуальности (рис. 10). Более того, теоретически не исключается, что отдельный элемент может быть частью разных индивидуальностей. Крайний предел этой тенденции могут представлять вирусы – химерные индивидуальности.
4. Репликация (то есть наиболее понятная форма переноса информации из прошлого в будущее) не является обязательным признаком индивидуальности.
5. Организующий принцип адаптивных систем индивидуальностей – способность к максимальному снижению неопределенности. При этом агент, обладающий индивидуальностью, обязан обладать возможностью максимизации скорости передачи информации. Эта характеристика очевидным образом перекликается с принципом свободной энергии Карла Фристона (БОН: глава VI).
Рис. 10. Вложенные матрешки-индивидуальности
Насколько гипотеза безмасштабной когнитивности Майкла Левина перекликается с идеей «эгоистического гена» Ричарда Докинза, настолько ИТИ Дэвида Кракауэра – с концепцией холобионта, введенной в научный оборот неутомимой Линн Маргулис (Lynn Margulis, 1991) БОН: глава VIII, и развитой далее американо-израильскими учеными Юджином и Иланой Розенберг (Eugene Rosenberg and Ilana Zilber-Rosenberg, 2008, 2018V). Концепция предполагает, что единицей эволюции многоклеточных организмов и субъектом отбора является холобионт – совокупность макроорганизма и его динамически подвижного, но достаточно стабильного микробиома. Сообщность генома хозяина (якорного организма) и всего множества геномов сожительствующих с ним организмов (преимущественно бактерий) – относительно автономных самих по себе агентов – понимается как хологеном.
Рождение сотрудничества
Анализ взаимодействия агентов в рамках мультистабильных динамических систем позволяет сделать еще два вывода, исключительно важных для логики всего повествования.
Во-первых, самые простые виды взаимодействия вроде случайных нерегулярных столкновений ведут к критическим или фатальным для объектов исходам. Взаимодействия агентов, разделяющих общие ресурсы, изначально, то есть при чрезмерности совместного использования и недостаточной дифференциации агентов (см. выше – гипотеза безмасштабной когнитивности Майкла Левина) склонны к протеканию в форме соперничества (конкуренции). Соперничество в целом пропорционально численности объектов и напряжению поля, в котором происходит взаимодействие. Соперничество, с одной стороны, отбирает более подходящие или приспособленные в конкретных условиях объекты, радикально ограничивает свободу выбора, заставляет «выбирать» траектории, направленные к строго детерминированным целям, то есть снижает рост энтропии. С другой – соперничество через фатальные столкновения статистически заставляет объекты генерировать огромное количество микроинформации, то есть связанной с энтропией информации по Бриллюэну, или негэнтропии, которая в итоге с эффективностью в зависимости от запоминающей емкости системы порождает и актуальную ценную макроинформацию.
Во-вторых, более сложные объекты, то есть со сформировавшимися, но не абсолютными физическими, когнитивными границами и индивидуальностями, оказываются способными усреднять или не фатализировать свои взаимодействия. Если при этом проявляются регулярности и закономерности, данный вид взаимодействия можно уже называть кооперацией. Траектория движения системы в этом случае также во многом определяется разностью потенциалов (напряжением генерирующего поля) и количеством вовлеченных объектов. Нечрезмерная, но стабильная разность потенциалов способна вызвать предсказуемое движение системы по аттрактору, или руслу в иной терминологии. Если устойчивость кооперативного устройства системы оказывается выше, чем конкурентного хотя бы в какой-то части фазового пространства, то такое устройство с неизбежностью возникает. Кроме того, возникает положительная обратная связь между кооперативным устройством и специализацией объектов. Генерация новой информации в кооперативной среде гораздо меньше, чем в конкурентной, но создаются возможности актуализации преднакопленной информации, что дает рост развитию функциональной сложности. С другой стороны, в сложившейся кооперативной среде при низком напряжении поля взаимодействия размывается направленность совместного движения системы, что увеличивает свободу объектов и необратимо способствует появлению паразитизма. Паразитизм здесь – предтеча новой генерации конкурентного взаимодействия, способный в условиях кооперативной среды эту среду стремительно разрушить.
Важным механизмом, обеспечивающим как поддержание рабочей разности потенциалов, так и сдерживание роста энтропии, служит удержание устойчивых (возможно, даже подвижных) границ, причем границ не глухих, а полупроницаемых, способных, с одной стороны, поддерживать разность потенциалов определенных объектов и совершение за счет этого необходимой работы, с другой – обеспечивать все взаимодействия, без которых невозможна рецепция и генерация информации. Также поддержание границ принципиально улучшает сохранность и фиксацию собственной информации объекта, но ограничивает тем самым вместе с ростом энтропии и рост функциональной сложности.
Возможно, именно с этим и связана необходимость периодического «выхода за границы», например в виде смены поколений, начиная с простейшего деления примитивных микроорганизмов пополам, о чем уже упоминалось в III главе: при росте клетки ей становится все труднее и труднее поддерживать внутреннюю упорядоченность в силу кратного увеличения собственного объема, и клеточное деление становится решением, позволяющим уменьшившимся дочерним клеткам и далее продолжать повышать свою внутреннюю упорядоченность. Однако достаточно возросшая сложность биологических объектов, таких, например, как эукариоты, не позволяет постоянно осуществлять смену поколений простым делением пополам (или очень условно пополам – например, почкованием), и в условиях энергетической достаточности, которую обеспечивают митохондрии (но и одновременно рождают кратно увеличенную сложность), возникают сложное деление – митоз, половое размножение и смертность. Новые системы, «забывая» часть информации, могут легче преодолевать холмы адаптационного ландшафта, в отличие от