282 000 книг, 71 000 авторов


Электронная библиотека » Бобби Азарян » » онлайн чтение - страница 7


  • Текст добавлен: 10 февраля 2025, 08:40


Текущая страница: 7 (всего у книги 29 страниц) [доступный отрывок для чтения: 7 страниц]

Шрифт:
- 100% +
Непомерная живучесть биологии

Еще одна загадка, которую нельзя объяснить, просто назвав жизнь диссипативной структурой, – это вопрос о том, почему жизнь столь потрясающе прочна и устойчива. Обычные диссипативные структуры быстро материализуются и распадаются, чаще всего на протяжении секунд, минут, часов или дней. Жизнь, напротив, ни разу не исчезала полностью с тех пор, как зародилась четыре миллиарда лет назад, и сейчас у нас есть несколько очень веских причин полагать, что она только начинается.

Большинству из нас внушали, что жизнь хрупка и ее существование всегда под угрозой, но это распространенное заблуждение, проистекающее, как это ни иронично, из чрезмерно антропоцентрического мировоззрения. Хотя это верно для отдельного организма или вида, это не относится ко всем экосистемам или биосфере в целом. Мы должны помнить, что жизнь – коллективное явление. Отдельные представители приходят и уходят, но паттерны организации жизни, поддерживающие когерентную структуру и функции, сохраняются бесперебойно. Биологическая сеть на Земле не просто не угасла, она процветает, несмотря на испытания бесчисленными стихийными бедствиями и многими периодами массового вымирания. После каждой катастрофической неудачи жизнь не просто восстанавливалась, а поднималась на новые высоты, всегда продвигаясь как в разнообразии, так и в сложности. Мы рассмотрим эту траекторию жизни более подробно в седьмой и восьмой главах.

Сказать, что жизнь устойчива, – значит ничего не сказать. Как только она закрепляется на планете, ее практически невозможно уничтожить. Если бы внезапно разразилась ядерная война, она вряд ли убила бы всех животных или даже всех людей, не говоря уже о жизни в целом. Даже если бы все граждане всех стран, как камикадзе, объединили усилия, чтобы уничтожить биологическую жизнь, забросав ядерными бомбами всю планету, они бы не достигли успеха. Эволюция просто начала бы все сначала. И если бы Солнце перестало светить, то микроорганизмы под поверхностью Земли выжили бы за счет тепловой и химической энергии, вырабатываемой ее недрами. Некоторые ученые даже считают, что жизнь сохранилась бы и в том случае, если бы вы разнесли планету на куски: бактерии стали бы космическими пассажирами на образовавшихся астероидах и в конечном итоге смогли бы засеять другие планеты.

Конечно, когда-нибудь в очень отдаленном будущем все звезды и планетарные процессы исчерпают свои источники энергии. Но если путь прогресса, который был таким устойчивым и надежным на Земле, типичен для обитаемых планет (что, как будет показано в следующих главах, почти наверняка верно), то к этому моменту, вполне вероятно, разумная жизнь научится использовать множество альтернативных источников свободной энергии, предлагаемых природой. Это захватывающая мысль, но мы забегаем вперед. Суть в том, что жизнь устойчива настолько, что кажется почти нелепым рассматривать ее как нечто случайное или аномальное, а не неизбежное и фундаментальное.

Чем объясняется потрясающая способность жизни оставаться далеко от равновесия в постоянно меняющейся, турбулентной среде? Как агентность позволяет жизни контролировать свою судьбу и избегать смерти и хаоса в течение миллиардов лет? Что же делает разумную жизнь столь неудержимой и (по крайней мере, на одной планете) в высшей степени преобразующей? Как бы ни казалось наивному наблюдателю, секретный ингредиент жизни – не какая-то неописуемая бестелесная сила, ингредиентами агентности являются информация и вычисления.

5
Биологическая информация и вычисления

Размышления о жизни с точки зрения термодинамики привели нас к новой истории происхождения жизни – полностью естественной, но все же волшебной. Мы называем это естественное волшебство эмерджентностью. Первая биологическая система – отдельная клетка – возникла как диссипативная структура в далеких от равновесия условиях геохимически активной Земли. Как уже говорилось, такая самоорганизующаяся структура (а равно и все прочие диссипативные структуры) имела определенную функцию – способствовать потоку энергии и производству энтропии.

Абиогенез был не случайным продуктом одного крайне аномального столкновения молекул, а статистически неизбежным результатом эволюции автокаталитических химических систем во все более сложные формы посредством диссипативной адаптации и фазовых переходов; в конечном итоге был преодолен критический порог сложности и появилась самовоспроизводящаяся единица. В соответствии с этим нарративом жизнь возникает при наличии подходящих неравновесных условий, что наводит на мысль о том, что биологические организмы есть не только на Земле. Впрочем, жизнь может быть уникальной для планет с геохимией, подобной Земной. Это объясняет многое из того, что ранее было необъяснимо, но действительно ли мы полностью раскрыли тему происхождения и природы жизни в космосе? Является ли организм в его простейшей форме всего лишь сложным химическим водоворотом и не более того?

Ответ на этот вопрос – однозначное «нет». Поскольку свойства, действительно делающие жизнь особенной, не проявляются ни в одной другой диссипативной структуре, мы можем с уверенностью сказать, что нам все еще не хватает одного кусочка головоломки. Жизнь от всех других природных явлений, включая диссипативные структуры, отличают агентность и устойчивость к энтропийному распаду. Эти особые способности – различия, имеющие принципиальное значение для Вселенной, – можно понять, только введя понятие информации. Прежде всего именно способность получать, хранить, обрабатывать и передавать информацию отделяет живую материю от неживой. Обратившись к информации для объяснения агентности и надежности, мы можем пролить свет не только на то, как возникла жизнь, но и на то, куда она движется.

Такой подход поможет нам увидеть, насколько важна жизнь в картине мира. Если объективное значение физического явления может быть измерено величиной его космического воздействия, то как велико значение жизни? Является ли она в принципе несущественной или же играет важную причинную роль в эволюции, развитии и конечной судьбе Вселенной? Чтобы начать отвечать на этот сокровенный вопрос, мы должны мыслить о жизни как о системе обработки информации, которая вычисляет решения проблем выживания, – то есть как о вычислительной системе. Это описание применимо как на индивидуальном, так и на коллективном уровне. Биосфера, частью которой мы являемся, на самом деле представляет собой интегрированную глобальную сеть машин для обработки информации, исправления ошибок и решения проблем, которые в совокупности поддерживают жизнь и удерживают ее далеко от термодинамического равновесия.

Что такое информация?

Смещение акцента в сторону информации может показаться слишком резким отходом от термодинамического нарратива, который мы до сих пор развивали, однако это вполне логичное продолжение. Биологическая информация и термодинамика переплетены так тесно, что их невозможно разделить. Информация позволяет жизни непрерывно избегать равновесия путем извлечения энергии, самовоспроизводства, адаптации и обучения. Таким образом, в некотором смысле сама информация поддерживает каналы энергетических потоков, облегчающие производство тепловой энтропии из свободной энергии планеты. Кроме того, информация имеет прямое математическое отношение к энтропии, отлично соединяя многие очень разные, но взаимосвязанные концепции в единую космическую историю. Очевидно, нам многое предстоит объяснить, но давайте для начала разберем, что подразумевается под информацией, ведь, как и энтропия, это абстрактное понятие, которое люди могут наделять разным смыслом. Интуитивно мы все знакомы с понятием информации, потому что в современном мире мы окружены ею со всех сторон. Интернет, телевидение, музыка и журналы постоянно бомбардируют нас символами и стимулами, которые мы неизбежно обрабатываем. Зрительная и звуковая информация поступает к нам по сенсорным каналам, таким как глаза и уши, передающим ее по нервным путям к конечному пункту назначения – блоку обработки информации, который мы называем мозгом.

Однако информация делала свое дело в биологии задолго до того, как в ходе эволюции появился мозг. В школе нас учат, что каждая клетка содержит генетическую информацию, хотя такой вывод можно сделать, даже не зная, что такое ДНК. Например, из наблюдения, что младенцы всегда превращаются во взрослых, а семена – в растения, очевидно, что развитие организма направляется неким набором инструкций, заложенных в нем с самого начала. Кроме того, структурное и функциональное сходство между потомством и родителями подразумевает, что размножение – это процесс, в ходе которого передается такая информация. И, наконец, раз дети всегда выглядят немного иначе, чем их родители, братья и сестры, значит генетическая информация поступает в виде дискретных блоков, которые мы могли бы назвать «битами», некоторые из которых меняются (в результате мутации) в процессе самокопирования. Эрвин Шрёдингер осознал это и довольно подробно написал об этом почти за десять лет до открытия молекулы ДНК.

Любопытный исторический факт: Фрэнсис Крик и Джеймс Уотсон, открывшие химическую структуру двойной спирали ДНК, позже рассказали, что верное направление поиска им помогла выбрать книга Шрёдингера «Что такое жизнь?». Как физик Шрёдингер смог понять истинную природу биологии раньше биологов? Его идеи вытекали из размышлений о жизни с точки зрения термодинамики и информации, и именно этого нового взгляда на биологию мы будем придерживаться сейчас и на протяжении оставшейся части книги.

Объяснение жизни в терминах информации и вычислений кажется достаточно разумным, но, чтобы подход мог считаться научным, а не просто философским, мы должны иметь возможность количественно оценивать биологическую информацию и описывать ее на объективном языке математики. К счастью, у нас есть подходящие для этого инструменты благодаря развивающейся области науки под названием «теория информации».

Мера информации по Шеннону

Информация была формализована в виде четко определенной математической концепции в 1948 году, когда инженер Клод Шеннон, работавший в Bell Labs, опубликовал знаменательную статью под названием «Математическая теория коммуникации». Эта статья послужила основой, на которой вскоре была выстроена теория информации. Поскольку Bell Labs [Лаборатории Белла. – Прим. пер.], созданные корпорацией AT&T и давшие миру телефоны, в первую очередь занимались вопросами связи, Шеннон хотел понять, как с оптимальной точностью отправлять сообщения из одного места в другое по какому-либо каналу связи. Поскольку все каналы естественным образом генерируют «шум», частично искажающий закодированное в сигнале сообщение (как мы помним, природе вообще свойственно быть шумной), получатель сообщения может ожидать некоторой доли неопределенности относительно его истинного содержания.

Шеннон, однако, обнаружил, что можно уменьшить степень неопределенности, используя несколько способов «исправления ошибок», например отправляя дубликаты сообщения. Поскольку шум обычно вызывается случайными возмущениями, он влияет на каждую копию по-разному, поэтому, когда дублирующие копии сообщения принимаются и объединяются, большая часть поврежденной информации восстанавливается, и неопределенность в отношении исходного содержимого уменьшается. Согласно теории Шеннона, информация представляет собой «уменьшение неопределенности», а количество информации в сигнале соответствует величине неопределенности, которая была уменьшена после получения сообщения. Другими словами, неопределенность – это неведение, а информация – знание.

Чтобы прояснить эту концепцию на классическом примере, представим информацию, получаемую, когда кто-то подбрасывает монетку и наблюдает за результатом. Перед подбрасыванием монеты никто не знает, выпадет ли она орлом или решкой; шансы составляют пятьдесят на пятьдесят. Когда же она падает, и вы видите результат, то вы объединяете два вероятных состояния в одно четко определенное и при этом получаете ровно один бит информации.

Теперь вместо монеты, у которой есть лишь два возможных состояния, представьте, что вы, закрыв глаза, бросаете шестигранный кубик. В этом случае неопределенность выше, поскольку кубик потенциально может находиться в большем количестве состояний. Когда вы открываете глаза и видите, на какую грань он приземлился, вы в большей степени уменьшаете неопределенность, а следовательно, получаете больше информации.

Если конкретнее, то, увидев результат броска кубика, вы получаете примерно 2,6 бита информации, но давайте пока оставим за скобками математические подробности. Важно то, что объем полученной информации пропорционален количеству возможных вариантов – или количеству возможных сообщений, которые могли быть отправлены. По этой причине получение первого символа сообщения, закодированного в двоичном формате (1 или 0), дает гораздо меньше информации, чем первый символ сообщения, закодированного английскими буквами, поскольку в английском алфавите двадцать шесть букв и, следовательно, двадцать шесть различных возможностей.

Хотя мы только начали описывать информацию, физик, знакомый со статистической термодинамикой, уже мог заметить, что она имеет некоторые любопытные сходства с энтропией. Но указывают ли эти сходства на связанность двух понятий? Что ж, математическое уравнение Шеннона для вычисления меры неопределенности информации в сообщении является тем же выражением, которое используется для вычисления статистической энтропии Больцмана – меры конфигурационного беспорядка.

Эта формальная эквивалентность, на которую Шеннону впервые указал венгерско-американский эрудит Джон фон Нейман, не простое совпадение. Как говорилось во второй главе, чем более энтропийна система, чем более случайными, перемешанными и неупорядоченными являются ее компоненты – тем меньше уверенности в точном состоянии системы (ее микросостоянии) при простом наблюдении или измерении ее коллективных свойств (ее макросостояния). Это объясняется тем, что по сравнению с организованной системой существует гораздо больше вариантов расположения компонентов неупорядоченной системы без соответствующего изменения какой-либо глобальной характеристики, например ее общего внешнего вида, температуры или давления.

Логическое сходство между статистической неупорядоченностью Больцмана и количественной мерой неопределенности Шеннона навело фон Неймана на мысль, что меру неопределенности также следует называть энтропией, что делало этот термин еще более запутанным. Но отчасти это было сделано намеренно: фон Нейман сказал Шеннону, что, поскольку «никто не знает, что такое энтропия, в дебатах у вас всегда будет преимущество»1. Итак, теперь появился третий тип энтропии, известный как энтропия Шеннона или информационная энтропия, и это мера неизвестности или неопределенности перед расшифровкой закодированного сообщения.

Связь между неизвестностью и энтропией приводит нас к важной идее. Если неопределенность математически эквивалентна беспорядку, а информация – это уменьшение неопределенности, то получение информации должно быть связано с уменьшением беспорядка. Это имеет смысл и на интуитивном уровне, поскольку знания не плавают в пространстве свободно. Значимая информация должна быть закодирована или воплощена в какой-либо физической структуре, такой как упорядоченный носитель или организованная система. В следующей части книги мы увидим, почему эта связь между информацией и энтропией действительно является ключом к пониманию происхождения жизни и ее эволюции в сторону усложнения.

Пытаясь измерить информацию, мы неизбежно сталкиваемся с проблемой: то, что мы считаем или не считаем информацией, представляется в некотором смысле субъективным или, по крайней мере, относительным. Сообщение информативно только в том случае, если оно сообщает получателям нечто такое, чего они прежде не знали. Очевидно, что руководство по выживанию содержит больше информации, чем книга такого же размера, в которой снова и снова повторяется одно единственное слово. Если сообщение насыщено избыточностью, то оно содержит не так много информации. Аналогично, если слова книги выбраны совершенно случайным образом, то ее содержание окажется всего лишь бессмысленным словесным винегретом – в нем тоже будет не так много информации. Определенно, не так много, как в руководстве по выживанию, верно?

Но что, если руководство по выживанию написано на английском языке, а взял его человек, понимающий только японский? Для него эта книга содержит не больше информации, чем если бы она была полной бессмыслицей. Или представим, что руководство по выживанию насыщено техническим жаргоном, поскольку написано для подготовленных бойскаутов? В этом случае в нем было бы больше информации, если читатель оказался бы бойскаутом, а не городским жителем без подготовки к выживанию или соответствующего образования. А что, если бойскаут еще и автор этой книги? Тогда она для него вообще неинформативна, ведь она не сообщит ему ничего такого, чего он уже не знал раньше. Как видно, классификация и измерение информации – порой нетривиальная задача.

Однако Шеннон, будучи инженером, нашел практическое решение проблемы, значительно упростившее эту задачу. Чтобы иметь возможность точно и объективно измерять информацию, он предложил просто игнорировать смысл передаваемого сообщения. Другими словами, его измерения игнорировали семантическую (значимую) информацию и фокусировались исключительно на синтаксической (символической) информации. Так, например, если закодированное сообщение было получено и декодировано без ошибок, то не имело значения, было ли это случайным набором букв или поэмой Шекспира. Покуда используется одна и та же система символов, а их количество и разнообразие в строке одинаково, так же одинаков и объем информации в сигнале.

Хотя Шеннон не предполагал объяснять биологию через информацию, ученым с междисциплинарным образованием потребовалось не так уж много времени, чтобы понять ее важность для жизни. Биологические структуры и процессы удалось точнее сформулировать и смоделировать на основе информационного подхода. Сегодня биологию трудно представить себе в отрыве от информации.

Живые системы – это информационные системы

Джон Мейнард Смит, один из великих британских биологов-эволюционистов двадцатого века, так описал влияние теории информации на биологию в интервью 1997 года, которое у него взял другой известный британский биолог-эволюционист Ричард Докинз:

В двадцатом веке биология стала все больше интересоваться именно информацией. Генетика отвечает на вопрос о том, как информация передается от поколения к поколению. Молекулярная биология занимается тем, как она преобразуется из ДНК в белок. Биология развития изучает то, как она преобразуется из набора белков в морфологическую структуру. А эволюционная теория, в сущности, посвящена тому, как информация попала туда изначально. Думаю, вы можете охарактеризовать двадцатый век в биологии как век, когда она стала наукой об информации в живых системах 2.

Однако биологическая информация категорически отличается от того типа информации, который квантифицировал Шеннон. В частности, она имеет не только синтаксический, но и семантический характер. Как некоторое время назад отметили Мейнард Смит и Ричард Докинз, биологическая информация «значима» в том смысле, что она выстраивает организм, надежную систему структурной и функциональной сложности, и наделяет его инструкциями о том, как выживать в окружающей среде. С такой точки зрения жизнь – это биологическое оборудование, работающее под управлением программного обеспечения для выживания. Можно сказать, что ДНК содержит программу развития и поведения, а программам требуются коды, которые определяют и исполняют алгоритмы. Когда рождается муха, червь или какое-либо другое простое существо, оно автоматически взрослеет по заранее определенному пути развития, и его не нужно учить, как вести себя, чтобы продлить собственное существование, – оно инстинктивно знает, что делать. Наше новое термодинамическое определение жизни позволяет утверждать, что значимая биологическая информация – это такая информация, которая удерживает организованную систему от равновесия, неупорядоченности и распада.

Как всякая значимая информация, биологическая информация имеет ценность только в контексте. Без клеточного механизма и биомолекул, считывающих и исполняющих генетический код, информация бесполезна: несведущий наблюдатель счел бы ее случайным набором символов. А если организм поместить в физическую среду, сильно отличающуюся от той, в которой он эволюционировал, то его поведенческая программа окажется такой же бесполезной, как случайные биты. Чтобы понять, какое количество значимой информации действительно содержится в генах организма, нам нужно знать, как эти гены связаны с функционированием агента и его успехом в соответствующей естественной среде.

Но, принимая во внимание многообразие усложняющих факторов, как нам измерить биологическую информацию, чтобы ответить на вопросы «накапливается ли значимая генетическая информация в результате эволюции?» и «нарастает ли этот тип информации с усложнением систем?» Это помогло бы нам определить, должна ли жизнь на планете неизбежно становиться более разумной по мере того, как естественный отбор отсекает генетические вариации. Без понимания жизни в информационных терминах невозможно точно оценить ее космическое значение – то, насколько сильное влияние она способна оказать на будущую эволюцию Вселенной.

Конечно, методами Шеннона мы могли бы измерить количество синтаксической информации в нити ДНК. Поскольку ДНК представляет собой код, состоящий из молекул-нуклеотидов, которых существует всего четыре типа (обозначаемых буквами A, C, T и G), нетрудно подсчитать, что мы имеем два бита информации на каждый декодируемый нуклеотид. Если мы знаем количество нуклеотидов в геноме вида, определяемом с помощью генетического тестирования, то мы можем просто умножить это число на два, чтобы с удовлетворительной точностью оценить количество битов синтаксической информации в ДНК организма.

Хотя это может помочь ответить на некоторые вопросы, например, сколько места на жестком диске компьютера потребуется для хранения генетической информации определенного числа индивидуумов, это, похоже, совсем не отражает объем информации, которую мы определили как значимую – информации, влияющей на выживание организма. При такой оценке случайный и бесполезный набор из трех миллиардов нуклеотидов без какой-либо кодирующей функции содержит такое же количество информации, как геном человека, кодирующий очень сложные биологические структуры, функции и поведение. Игнорируя значение, метод Шеннона не учитывает знание, то есть причинную силу информации.

К счастью, здесь нам на помощь приходит теория сложных систем. Используя математические инструменты неравновесной статистической механики и теории информации, исследователи работают над количественными критериями оценки информации, учитывающими смысл и биологическую значимость. Например, ученые из Института Санта-Фе, в частности Артемий Колчинский и выдающийся физик Дэвид Уолперт, разрабатывают меру семантической информации, основываясь на подходе, известном как телеосемантика, согласно которому анализируемая система преследует некоторую цель. Для живых систем эта цель состоит в стремлении отдалиться от равновесия, что мы также называем выживанием. Уолперт и Колчинский формально определяют семантическую информацию как «синтаксическую информацию между физической системой и ее окружением, которая каузально необходима для поддержания существования системы»3.

По Уолперту, такая мера информации позволяет выявлять агентность, отличая живые системы от неживых, таких как камни, а также неорганические диссипативные системы, например ураганы и водовороты. Семантическую информацию такого рода иногда называют интенциональной информацией, но проще, пожалуй, считать ее адаптивной информацией или знанием, поскольку она уменьшает неопределенность окружающей среды и, следовательно, незнание сложной системы. Итальянский физик-теоретик и популярный автор Карло Ровелли взялся за дальнейшее уточнение меры информации Уолперта и Колчинского, и многие физики и специалисты по информатике наверняка последуют его примеру, как только станет ясно, что объяснение агентности и намерения является (если не полностью, то, по крайней мере, частично) математической проблемой.

Ученые из Висконсинского университета в Мэдисоне, в том числе Джулио Тонони, Лариса Альбантакис и Эрик Хоэл (в настоящее время работающий в Университете Тафтса), а также физики из Университета штата Аризона, в частности Сара Уокер и Пол Дэвис, разработали и усовершенствовали дополнительные количественные критерии информации, применимые к биологическим или когнитивным системам, такие как интегрированная информация и эффективная информация. Оба этих теоретических инструмента определяют, в какой мере то или иное состояние системы влияет на ее будущее состояние. Эти меры информации и энтропии могут не только помочь обнаружить агентность, но и количественно оценить способность системы к разумной деятельности и, возможно, даже степень ее сознательности. По этой причине мы вернемся к понятию интегрированной информации во второй и третьей частях.

Хотя эти критерии находятся только на начальной стадии, они показывают нам, что количественная оценка биологических знаний – информации, способствующей выживанию в далеких от равновесия условиях, – когда-нибудь может стать выполнимой задачей. Могут ли они также использоваться для определения того, действительно ли информация и сложность, ассоциируемые с жизнью, неуклонно увеличиваются в ходе эволюции? Можно ли применить их не только к организмам, но и к другим сложным адаптивным системам, таким как экосистемы или биосфера в целом? А как насчет интернета? Теоретически это вполне возможно, и популярность исследований в этой области быстро растет, хотя их практическое применение пока остается делом будущего.

Однако живые организмы не только хранят и передают информацию. Биологические агенты постоянно обрабатывают информацию или выполняют вычисления. Это означает, что возникновение жизни можно считать появлением первого в природе компьютера. Живые агенты могут кардинально отличаться от вашего ноутбука и смартфона в том, что касается материалов, конструкции и поведения, но они тоже являются вычислительными машинами.

Внимание! Это не конец книги.

Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!

Страницы книги >> Предыдущая | 1 2 3 4 5 6 7
  • 4.3 Оценок: 4


Популярные книги за неделю


Рекомендации