Электронная библиотека » Сезар Идальго » » онлайн чтение - страница 2


  • Текст добавлен: 24 марта 2016, 12:20


Автор книги: Сезар Идальго


Жанр: Экономика, Бизнес-Книги


Возрастные ограничения: +12

сообщить о неприемлемом содержимом

Текущая страница: 2 (всего у книги 13 страниц) [доступный отрывок для чтения: 4 страниц]

Шрифт:
- 100% +

Часть I
Биты в атомах

Глава 1
Секрет путешествия во времени

Стул, на котором я ожидал рождения своей дочери, был не очень удобным. Моя жена Анна и я приехали в Главный госпиталь Массачусетса в 6:30 вечера в ту субботу. Мы оставались дома, пока развивались ее схватки, и решили направиться в больницу, когда интервал между ними сократился до нескольких минут. Ее схватки усилились во время медицинской сортировки, но обезболивающий укол, который ей сделали пару часов спустя, дал необходимый отдых. На часах было 2:00. Ночь прошла спокойно. Слышался только периодический шум прибора, измеряющего ее давление. Комнату освещали несколько дисплеев и уличные фонари, отражающиеся в реке Чарльз. В этой полутьме я видел только Анну, мирно отдыхающую на кровати. Я держал ее за руку и ждал рождения нашей дочери, сидя в кресле, которое, как я уже говорил, не было особенно удобным.

В 3:00 утра медсестра сказала нам, что Анне пора тужиться. Анна была полностью готова, и наша дочь Айрис начала одно из важнейших путешествий в своей жизни. Жене потребовалось всего двадцать шесть минут, чтобы вытолкнуть Айрис в руки нервничающего, но сосредоточенного студента-медика, который принял ее. Двадцать шесть минут кажется коротким временем для родов, и это действительно так. Тем не менее я утверждаю, что путешествие, которое Айрис проделала в ту ночь, представляло собой не просто продвижение по нескольким сантиметрам родовых путей в течение двадцати шести минут, а 100-тысячелетнее путешествие из далекого прошлого в неизвестное будущее. За двадцать шесть минут Айрис проделала путь из древности чрева своей матери в современность общества XXI века. Рождение, в сущности, представляет собой путешествие во времени.

До той ночи, за исключением нескольких звуков, мир для Айрис представлял собой тот же мир, что и для младенцев сто тысяч лет назад. Она находилась в утробе матери и слышала в основном только голоса родителей, не представляя сложности окружающего ее современного мира. В ночь ее рождения все изменилось.

Айрис родилась в 3:26 утра в комнате, освещенной не солнечными лучами, а флуоресцентными светильниками и лампами накаливания. Ее бабушка и дедушка, которые с тревогой ожидали новостей, впервые увидели ее лицо во вложении в электронном письме. Музыка, наполнившая палату после рождения Айрис, была не пением птиц и не шелестом деревьев, а лилась из динамиков планшетного компьютера, который повиновался приказам алгоритма, выбравшего для нас песню.[10]10
  Это была песня Raindrops исполнителя Cillo. Я добавил эту композицию в список воспроизведения на сервисе Pandora той ночью.


[Закрыть]
В ту ночь Айрис за несколько минут проделала путь в несколько сантиметров, однако в более глубоком смысле она совершила намного более длительное путешествие. В ночь своего рождения она переместилась из далекого прошлого в поистине фантастическое настоящее.

Несмотря на то, что путешествие Айрис имеет для меня особое значение, ее способ путешествия во времени не является редкостью. Рождение в XXI веке представляет собой чуждый опыт для большинства детей. Мир XXI века значительно отличается от того, в котором эволюционировал наш вид. Это сюрреальный мир, наполненный материальными объектами, которые до своего появления представлялись в воображении. Палата, в которой родилась Айрис, была полна материальных объектов, однако современным этот мир делали не эти объекты. Различие между миром, в котором родилась Айрис, и миром ранних гоминид заключается не в телесности материи, а в способе ее организации. Этот физический порядок представляет собой информацию. Ночному рождению Айрис способствовали не объекты, а заключенная в них информация и практическое использование знания и ноу-хау, которые неявно присутствуют в этих объектах. Палата, в которой родилась Айрис, была освещена не только лампами, но и пониманием электричества, энергии и материалов, используемых в этих лампах. В ту ночь Айрис было тепло благодаря не случайному скоплению нитей, а одеялам, сотканным из материи, знаний и воображения. Как это ни парадоксально, но Айрис родилась в реальном мире, который, хотя и является материальным, имеет свое происхождение в воображении. Этот мир отличается от того, в котором эволюционировал наш вид, только способом организации материи.

Тот факт, что объекты являются воплощением информации и воображения, может показаться очевидным. Информация – это фундаментальный аспект природы, который старше самой жизни. Кроме того, по мере развития жизни накопление информации происходило с ускорением. Рассмотрим репликацию таких информационно насыщенных молекул, как ДНК и РНК. Репликация ДНК и РНК является процессом воспроизведения не материи, а заключенной в ней информации. Живые организмы представляют собой хорошо организованные структуры, которые обрабатывают и производят информацию. Тем не менее мы сосредоточим свое внимание не на способности генерировать информацию, заключенную в наших клетках, а на той способности, которая возникла с появлением людей и общества. Люди – это особые животные в плане информации, поскольку в отличие от других видов мы развили способность кодировать большие объемы информации вне нашего тела. Наивно полагать, что речь идет об информации, закодированной в книгах, нотах, аудио– и видеозаписях. Еще до освоения письма мы воплощали информацию в артефактах или предметах, начиная со стрел и каменных топоров и заканчивая микроволновыми печами и Интернетом. Таким образом, наша способность производить стулья, компьютеры, скатерти и бокалы является простым ответом на вечный вопрос: в чем разница между нами, людьми, и всеми другими видами? Ответ заключается в том, что мы умеем создавать физические инстанциации объектов, которые мы представляем в своем воображении, в то время как другие виды ограничены тем, что создает природа.[11]11
  Еще одним важным свойством, отличающим людей от других видов, является наша способность использовать язык для придумывания историй. Интересно, что эволюция языка и сложных физических объектов имеет много общего.
  Определить время возникновения человеческого языка сложно, поскольку устные выражения в значительной степени предшествовали развитию письма. Самые ранние записи были сделаны около восьми тысяч лет назад, поэтому археологам, желающим проследить истоки разговорного языка, необходимо обратиться к другим формам доказательств, например к сложности продуктов, найденных в процессе археологических исследований. Идея о том, что сложные продукты можно использовать для определения времени возникновения человеческого языка, основана на двух линиях аргументации. Во-первых, человек, способный произвести такой сложный инструмент, как копье с каменным наконечником, понимает, как сочетаются между собой разные части, точно так же, человеческие языки позволяют нам объединять различные слова в предложения, а предложения – в рассказы. Другими словами, люди, которые способны создавать сложные инструменты, вероятнее всего, обладают внутренним способом представления каждой из частей инструмента и могут размышлять о последовательности действий, требующихся для того, чтобы собрать эти части в единое целое. Психический процесс, необходимый для того, чтобы сформировать понятия и собрать сложный продукт, можно рассматривать как примитивную грамматику, и, как показали результаты исследования, он подразумевает аналогичные модели мозговой активности. Создание сложных продуктов возможно благодаря комбинаторной способности, подобной той, которая свойственна человеческим языкам. Таким образом, несмотря на то что комбинаторная способность, связанная с созданием продукта, не обязательно подразумевает использование человеческого языка, разумно предположить, что эти две комбинаторные когнитивные способности возникли одновременно. Вторая линия аргументации, поддерживающая идею использования сложных объектов для определения времени возникновения языка, относится к распространению знаний, требуемых для создания таких сложных объектов, как стрелы и копья. Распространение стрел и копий можно рассматривать в качестве доказательства существования ранних форм человеческого языка, поскольку процесс создания стрелы отличается от использования камня для разбивания ореха. Решать простые задачи можно легко научиться путем наблюдения и подражания, в то время как производство сложных объектов подразумевает нюансы, которые гораздо легче распространить среди людей, владеющих языком. Например, люди, использующие язык, могут более эффективно передать знания о безопасном обращении с ядом, используемым при создании стрел, или о том, как прикрепить каменный топор к деревянной ручке. Последние данные археологических исследований показывают, что представители вида Гомо Сапиенс создавали сложные инструменты подобные тем, которые используются некоторыми современными охотниками и собирателями, уже 100 000–70 000 лет назад. Это свидетельствует о том, что наша способность кристаллизовать воображение сформировалась задолго до способности писать об этом, и она показывает, что язык и сложные продукты появились до того, как ранние люди покинули Африку. Это говорит о том, что наших предков отличало от других видов не использование простых инструментов, а способность создавать объекты, превосходящие по сложности те, которые возникают в окружающей среде естественным способом. См. книгу «Хозяева Земли. Социальное завоевание планеты человечеством», автор Эдвард Уилсон (Питер, 2014) и Yuval Harari, Sapiens: A Brief History of Humankind (New York: Random House, 2014).


[Закрыть]

На следующих страницах я опишу физические, социальные и экономические механизмы, которые объясняют рост объема информации в нашем мире и в нашей Вселенной. Эти механизмы отвечают за создание физического порядка, который сделал рождение Айрис как материальным, так и волшебным. С одной стороны, мы изучим физику информации. В результате мы поймем сущность информации и физические механизмы, способствующие ее появлению. Тем не менее физика информации способна объяснить лишь простейшие формы физического порядка. Чтобы объяснить порядок, пронизывающий наше современное общество, потребуется выйти за рамки физики и исследовать социальные и экономические процессы, которые позволяют группам людей производить информацию. К этим процессам относится образование социальных и профессиональных сетей, в которых заключена способность социальной обработки информации. Эта способность включает в себя накопление знаний и ноу-хау.

Знания и ноу-хау являются двумя основными способностями, которые относятся к вычислению и имеют решающее значение для накопления информации в экономике и обществе. Тем не менее знания и ноу-хау – это не одно и то же. Проще говоря, знание включает в себя отношения или связи между объектами. Эти отношения часто используются для того, чтобы спрогнозировать последствия действия, не совершая его.[12]12
  Как писали Рэндалл Дэвис, Ховард Шроуб и Питер Сзоловиц в статье «Что такое представление знаний?» («What is a knowledge representation», AI Magazine 14, no. 1 (1993): 17–33): «Во-первых, представление знания – это, по сути, суррогат, заменитель самой вещи, который используется для того, чтобы сущность могла определить последствия путем обдумывания, а не действия, то есть путем рассуждения о мире, а не путем принятия в нем активных мер».


[Закрыть]
Например, мы знаем, что употребление табака увеличивает вероятность развития рака легких, и мы можем использовать эту связь, чтобы предсказать последствия курения, не употребляя табак.

Ноу-хау отличается от знания тем, что оно включает в себя не выражаемую словами способность выполнять некоторые действия.[13]13
  Для тех, кто знаком с литературой: я буду основываться на отличии между явным и неявным знанием, идею о котором полвека назад продвигал Майкл Полани. Я буду использовать слово «ноу-хау» для описания неявного знания, так как предпочитаю использовать два разных существительных для обозначения двух различных понятий вместо использования одного и того же существительного с добавлением прилагательного (явное или неявное). Краткое изложение понятий явного и неявного знания можно найти в книге Гарри Коллинза Tacit and Explicit Knowledge (Chicago: University of Chicago Press, 2010). В ней Коллинз подразделяет неявное знание на относительное неявное знание, к которому относится то, что мы могли бы описать в принципе, но часто не способны описать; соматическое неявное знание, которое относится к тому, что мы можем делать с помощью наших тел, но не способны описать (например, езда на велосипеде); и коллективное неявное знание, к которому относится знание, значение которого обусловливается социальными взаимодействиями, к этим знаниям относятся, в частности, правила языка.


[Закрыть]
Например, большинство из нас знает, как ходить, хотя мы не знаем, как нам это удается. Большинство из нас знает, как определять и называть изображенные объекты, хотя нам неизвестно, каким образом мы выполняем эти задачи восприятия и вербализации. Большинство из нас умеет распознавать объекты с разных углов, узнавать лица, переваривать пищу и улавливать эмоции, хотя мы и не можем объяснить, как мы это делаем. Однако нам удается совершать эти действия благодаря тому, что у нас есть ноу-хау. Ноу-хау – это не выражаемая словами вычислительная способность совершать действия, которая накапливается как на уровне индивида, так и на уровне коллектива.

Невыражаемая словами природа ноу-хау кажется странной, поскольку из-за нее мы можем чувствовать себя автоматами, не осознающими своих действий. Тем не менее в этом нет ничего странного. Марвин Мински, один из отцов искусственного интеллекта, однажды сказал: «Ни один созданный компьютер не осознает того, что он делает, однако большую часть времени мы тоже этого не осознаем».[14]14
  Эту цитату можно найти в биографии Марвина Мински на веб-сайте Музея компьютерной истории: computerhistory.org/fellowawards/hall/bios/Marvin,Minsky.


[Закрыть]

Другое отличие, о котором мне следует упомянуть, заключается в разнице между информацией, являющейся чем-то, и информацией о чем-то, например информацией, передаваемой в сообщении. Возьмем в качестве примера машину. Я могу сказать вам, что у меня красная машина с шестиступенчатой механической коробкой передач и 1,6-литровым двигателем. Все это является информацией о моей машине, однако это не та информация, которая заключена в моем автомобиле. Как мы узнаем в следующих главах, моя машина состоит из информации, которая является не информацией о чем-то, а представляет собой физический порядок.

По большей части я буду использовать слово «информация», подразумевая физический порядок, воплощенный в объектах. Я подробно рассмотрю это определение в следующей главе. Я использую это определение, потому что оно помогает мне сформулировать более простую теорию роста объема информации, в которой физический порядок, независимо от того, являлась ли целью его создания необходимость в передаче значения, развивается вместе со способностью Вселенной производить вычисления. В социальном и экономическом контексте эта вычислительная способность включает в себя как знания, так и ноу-хау.

Таким образом, для объяснения роста объема информации в природе и обществе мы изучим совместную эволюцию физического порядка, знания и ноу-хау, которые позволяют нашей Вселенной порождать этот физический порядок. При этом мы перейдем от простейших физических систем, в которых информация возникает спонтанно, до сложного устройства нашего общества, где для дальнейшего накопления информации появляется необходимость в знании и ноу-хау.

Случай с обществом и экономикой является наиболее сложным, поскольку здесь накопление знаний и ноу-хау становится весьма ограниченным. Как и информация, заключенная в объектах, знания и ноу-хау всегда должны быть физически воплощены. Тем не менее, в отличие от информации, носителями знания и ноу-хау являются люди и сообщества людей, чей потенциал воплощения знания и ноу-хау является ограниченным. Конечность человека и формируемых им сообществ ограничивает нашу способность накапливать и передавать знания и ноу-хау, что приводит к скоплениям знаний и ноу-хау в определенных местах, обусловливающих глобальное неравенство. Таким образом, необходимость того, чтобы знания и ноу-хау были воплощены в людях и сообществах людей, может помочь объяснить неравномерность развития стран мира. Этим идеям посвящены части III и IV книги, и для их подтверждения я буду использовать данные о продуктах, создаваемых группами людей в разных местах, поскольку продукты, которые состоят из информации, являются выражением знания и ноу-хау, доступных в конкретном месте.

Таким образом, центральными понятиями, которые я буду использовать для описания процесса роста объема информации на нашей планете, являются физические объекты как физические воплощения информации и люди как основные носители знаний и ноу-хау. С этой фундаментальной точки зрения мы опишем экономику как систему, с помощью которой люди накапливают знания и ноу-хау для создания пакетов физического порядка или продуктов, подчеркивающих нашу способность накапливать еще больше знаний и ноу-хау, что в свою очередь способствует дальнейшему накоплению информации. В основном мы сосредоточимся на росте объема информации, знаний и ноу-хау в экономике, создав сначала теорию о продуктах в терминах физического порядка, а затем опишем социальные и экономические механизмы, которые позволяют нашему обществу накапливать знания и ноу-хау, необходимые для производства продуктов.

Однако сначала необходимо удостовериться в том, что мы одинаково понимаем физическую основу информации и ее неочевидные истоки. Я начну с объяснения того, что представляет собой информация с точки зрения математики и физики. Как мы увидим позднее, это поможет нам понять, почему Больцман и Шеннон пришли к одной и той же формуле. Кроме того, это познакомит нас с основополагающими физическими принципами, которые позволяют информации накапливаться.

Глава 2
Тело бессмысленного

Предположим, что нас попросили распределить по категориям следующие понятия: расстояние, масса, электрическая сила, энтропия, красота, мелодия. Я думаю, что существуют достаточные основания для того, чтобы поместить энтропию рядом с красотой и мелодией, а не с первыми тремя понятиями. Энтропия проявляется только там, где части рассматриваются в связи, и именно просмотр или прослушивание частей в их связи с другими частями позволяет различить красоту и мелодию.

Артур Эддингтон


Чтобы что-нибудь изобрести, необходимо хорошее воображение и куча мусора.

Томас Эдисон

Несколько месяцев назад мне на глаза попалась статья, помещенная на главной странице посвященного бизнесу раздела чилийской газеты. В этой статье говорилось о чилийце, купившем самый дорогой в мире автомобиль. Стоимость машины марки Bugatti Veyron составила более двух с половиной миллионов долларов США, и ее покупка стала одним из самых ярких примеров показного потребления, когда-либо виденных мной.

Поискав в Интернете, я оценил стоимость килограмма веса этого автомобиля, которая составила примерно одну тысячу триста долларов США (или около шестисот долларов США за фунт веса).[15]15
  Мой друг и научный руководитель Франциско Кларо предложил мне этот расчет несколько лет назад. В его примере в то время использовался реактивный истребитель.


[Закрыть]
Для сравнения возьмем стоимость килограмма золота и серебра. В некоторые дни стоимость килограмма чистого серебра составляет около одной тысячи долларов США, а килограмма золота – около пятидесяти тысяч долларов США.[16]16
  Согласно данным, взятым с сайта goldprice.org 14 января 2013 года в 16:45 по Восточному стандартному времени, точная цена составляла 53586 долларов США за килограмм.


[Закрыть]
Стоимость килограмма веса обычного автомобиля колеблется от десяти (Hyundai Accent) до шестидесяти долларов США (BMW M6). Таким образом, хотя стоимость Bugatti Veyron не превышает стоимости ее весового эквивалента в золоте, она превышает стоимость ее весового эквивалента в серебре, тогда как стоимость автомобиля Hyundai Accent соответствует стоимости его весового эквивалента в бронзе.

Вы, конечно, можете сказать, что сравнивать килограмм веса автомобиля Bugatti и килограмм серебра бессмысленно, поскольку вы мало что можете сделать с килограммом Bugatti. Тем не менее эта бессмыслица может много рассказать нам о том, как физический порядок, или информация, может быть упакована в продукте.

Представьте на секунду, что вы только что выиграли автомобиль Bugatti Veyron в лотерею. В порыве радости вы решили прокатиться на своей новой машине. Из-за своего волнения вы врезаетесь в стену. Вы не получили повреждений, но расстроились, поскольку не успели застраховать свой автомобиль, который уже не подлежит восстановлению. Сколько стоит килограмм Bugatti теперь?

Ответ на этот вопрос совершенно очевиден. Долларовая стоимость автомобиля испарилась за секунды, которые потребовались на то, чтобы разбить его об стену, в то время как его вес остался прежним. Так куда же делась ценность? Долларовая стоимость автомобиля испарилась во время аварии не потому, что в ее результате были уничтожены атомы, из которых состоял автомобиль Bugatti, а из-за того, что авария изменила порядок их расположения. Когда части, из которых состояла машина, были разъединены и деформированы, информация, которая была воплощена в Bugatti, оказалась в значительной степени уничтожена. Другими словами, два с половиной миллиона долларов США стоили не атомы автомобиля, а то, как эти атомы были организованы.[17]17
  Хорошее обсуждение этого вопроса можно найти в книге Эрика Бейнхокера The Origin of Wealth (Boston: Harvard Business School Press, 2005).


[Закрыть]
Эта организация и представляет собой информацию.[18]18
  Вы можете возразить, что стоимости Bugatti определяется далеко не только физическим порядком или информацией. Я согласен с вами и предлагаю вам продолжать чтение. Постепенно я опишу эти дополнительные аспекты.


[Закрыть]

Таким образом, стоимость автомобиля Bugatti определяется физическим порядком, которым и является информация, несмотря на продолжающиеся споры о том, что она собой представляет.[19]19
  Поскольку у слова «порядок» много значений (например, расположение предметов одежды в вашем шкафу или порядок блюд, заказываемых в ресторане), я хотел бы уточнить значение данного слова, поскольку я собираюсь использовать его в дальнейшем. Когда я использую слово «порядок», я имею в виду физический порядок – способ расположения частей системы (например, способ расположения вещей в вашем шкафу). По определению, физический порядок является информацией. Именно физический порядок отличает автомобиль Bugatti до аварии от того, что от него осталось после нее.


[Закрыть]
Клод Шеннон, отец теории информации, говорил, что информация – это мера минимального объема данных, необходимого для передачи сообщения. То есть это количество битов, требуемое для передачи данных об организации, например о порядке атомов, составляющих автомобиль Bugatti.

Тем не менее для лучшего понимания определения «информация», сформулированного Шенноном, лучше начать с чего-нибудь более простого, чем автомобиль Bugatti. Я буду использовать в качестве примера твит. Твит – это сообщение, состоящее из 140 символов, которое используется на сервисе Twitter. Твит, как и Bugatti, представляет собой небольшой пакет информации, но, в отличие от Bugatti, он создается в качестве акта коммуникации. Тем не менее с точки зрения теории Шеннона это не имеет значения. Согласно Шеннону, информация – это минимальный объем данных для передачи любого сообщения. Будь то твит, состоящий из случайных символов, или самое остроумное сообщение, которое вы когда-либо видели, все это не имеет значения с точки зрения теории информации Шеннона.

Итак, сколько же информации содержится в твите? Чтобы представить содержимое твита в количественном выражении, рассмотрим гипотетическую игру для двух пользователей сервиса Twitter, Эбби и Брайана. В этой игре Эбби и Брайан должны угадать твиты друг друга, используя только вопросы типа «да/ нет». Для игры в эту игру у них есть книга, которая содержит все возможные твиты, которые могут быть написаны. Игра начинается тогда, когда Эбби случайным образом выбирает твит из своей книги. После этого она просит Брайана угадать ее твит, используя только вопросы типа «да/нет». Шеннон учит нас тому, что объем информации, заключенной в твите, равен минимальному количеству вопросов типа «да/нет», необходимых Брайану для того, чтобы угадать твит Эбби со стопроцентной точностью.[20]20
  Это самый простой из возможных случаев, который можно использовать для иллюстрации теории Шеннона, поскольку он предполагает, что все твиты и символы равновероятны. В реальности все символы и строки символов не являются равновероятными. Сообщение с большой степенью вероятности будет содержать последовательность символов http://, чем последовательность символов qwzykq. Если Брайан знает об этих различиях, он может использовать их для того, чтобы уменьшить количество вопросов, необходимых для угадывания твита. Если вам неудобно использовать такие допущения, предположите, что Эбби и Брайан прибыли с разных планет, и что об алфавите Эбби Брайану известно только то, что он основан на тридцати двух разных символах.


[Закрыть]
Однако каково количество этих вопросов?

Для простоты будем считать, что Эбби и Брайан используют «алфавит» из тридцати двух символов: строчных латинских букв и таких дополнительных символов, как пробел (), косая черта (/), запятая (,), точка (.), а также «собака» (@) и решетка (#). Кроме того, будем считать, что у Эбби и Брайана есть таблицы, в которых каждый символ соответствует числу (a = 1, b = 2, […], @ = 31, # = 32).

Лучшим способом угадывания твита Эбби является использование Брайаном каждого вопроса для разделения пространства поиска возможных твитов пополам. Брайан может сделать это, отгадывая сообщение Эбби символ за символом. Если Брайан решит использовать данную стратегию, то его первым вопросом типа «да/нет» будет: «Число, соответствующее первому символу, больше 16?» Если Эбби ответит отрицательно, то Брайан будет знать, что первый символ в твите Эбби расположен между буквами a и p. Имея это в виду, Брайан должен будет задать второй вопрос, который разделяет пополам оставшийся набор символов: «Число, соответствующее первому символу, больше 8?» Если Эбби ответит утвердительно, то Брайан будет знать, что первый символ сообщения Эбби расположен между числами 9 и 16 (то есть между буквами i и p). Теперь вы уже можете догадаться, что следующим вопросом Брайана будет: «Число, соответствующее первому символу, больше 12?»

Каждый заданный вопрос позволяет Брайану сократить количество возможных символов в два раза. Поскольку существует тридцать два возможных символа, Брайану потребуется задать только пять вопросов, чтобы угадать каждый символ (вам нужно разделить 32 на 2 пять раз, чтобы получить только один вариант). Наконец, поскольку твит состоит из 140 символов, Брайану потребуется 140 × 5 = 700 вопросов типа «да/нет», или битов, чтобы угадать сообщение Эбби.[21]21
  Обратите внимание на то, что число 700 также присутствует в выражении 2700, которое соответствует общему количеству возможных твитов. Общей формулой в данном случае является: N log2 (S), где N – это количество символов, а S – это размер алфавита. Это эквивалентно выражению log2 (SN), где SN – это общее количество возможных твитов. В целом следует обратить внимание на то, что информационное содержание сообщения соответствует логарифму по основанию 2 от количества возможных сообщений. Это объясняется тем, что наиболее эффективный способ для нахождения сообщения или его однозначной идентификации заключается в итеративном сокращении пространства поиска в два раза.


[Закрыть]

Теория Шеннона говорит, что нам требуется 700 бит, или вопросов типа «да/нет», для передачи твита, написанного с использованием алфавита, включающего тридцать два символа. Кроме того, теория Шеннона является основой современных систем связи. Путем количественного определения числа битов, необходимых для кодирования сообщений, он помог разработать технологии цифровой связи. Тем не менее во время разработки своей формулы Шеннон не знал о том, что его формула была идентична той, которую вывел Больцман почти за полвека до него. Прислушавшись к предложению известного венгерского математика Джона фон Неймана, Шеннон решил назвать свою меру «энтропией», поскольку формула Шеннона была эквивалентна формуле энтропии, используемой в статистической физике. (Кроме того, согласно легенде, фон Нейман сказал Шеннону, что если тот назовет свою меру энтропией, то это гарантирует его победу в любом споре, поскольку никто точно не знает, что такое энтропия.)

Однако интерпретацию понятий «энтропия» и «информация», которые появились в результате работы Шеннона, было трудно примирить с традиционным толкованием слов «информация» и «энтропия», возникшим в работе Больцмана. Конфликт между определением слова «информация», используемым Шенноном, и его разговорным значением, которое широко распространено и сегодня, легко понять, используя в качестве примера компьютеры. Подумайте о своем персональном компьютере. Будь то настольный компьютер, ноутбук или смартфон, вы используете его для хранения фотографий, документов и программного обеспечения. Вы считаете эти фотографии и документы «информацией» и, конечно, хорошо понимаете то, что эта информация хранится на жестком диске вашего устройства. Тем не менее, согласно Шеннону, если бы мы случайным образом перемешали все биты на жестком диске, удалив таким образом все ваши фотографии и документы, мы бы увеличили количество информации на жестком диске. Как это может быть? Дело в том, что определение термина «информация», предложенное Шенноном, учитывает только количество битов, необходимое для передачи сообщения о состоянии системы (в данном случае речь идет о последовательности битов, которые хранятся на вашем жестком диске). Поскольку нам требуется больше битов для создания сообщения о состоянии жесткого диска, полного случайных данных, чем о состоянии жесткого диска с фотографиями и документами, содержащими корреляции, позволяющие сжимать последовательности, определение Шеннона подразумевает то, что после перемешивания битов в случайном порядке на вашем жестком диске станет больше информации. Технически Шеннон прав, говоря о том, что нам необходимо большее количество битов для передачи сообщения о содержимом жесткого диска, наполненного случайными данными, чем о содержимом жесткого диска с фотографиями и документами. Однако теорию информации Шеннона, которая, по сути, представляет собой теорию коммуникативного инжиниринга, следует расширить, чтобы примирить ее с разговорным смыслом слова «информация» и работой Больцмана. В дополнение к работе Шеннона мне сначала нужно будет объяснить определение энтропии, которое возникло из работы Больцмана, а затем вывести определение, которое мы могли бы использовать для описания информационно насыщенных состояний, ассоциирующихся с компьютером, наполненным фотографиями и документами.

Чтобы понять разницу между определениями энтропии, используемыми Больцманом и Шенноном, рассмотрим наполовину заполненный стадион.[22]22
  Слишком дотошным математикам следует рассмотреть пример стадиона, в котором количество рядов не увеличивается по мере удаления от поля, а номер ряда определяет расстояние между местом в этом ряду и полем.


[Закрыть]
Одной важной характеристикой такого стадиона является то, что существует множество способов наполнить его наполовину, и путем исследования этих способов мы можем объяснить понятие энтропии.

Сначала мы рассмотрим случай, в котором люди могут беспрепятственно передвигаться по стадиону. При этом один из способов наполовину наполнить стадион сводится к тому, чтобы рассадить людей как можно ближе к полю, оставив все верхние ряды свободными. Другой способ предполагает размещение людей на дальних рядах (при этом нижние ряды останутся незанятыми). Тем не менее люди также могут заполнить полстадиона, заняв места случайным образом.

Теперь чтобы использовать пример со стадионом для объяснения понятия энтропии, мне нужно ввести еще две идеи. Во-первых, я буду называть каждую комбинацию из сидящих на стадионе людей состоянием системы (или, выражаясь технически, микросостоянием). Во-вторых, я буду исходить из того, что мы можем определить эквивалентные конфигурации, используя некоторый критерий, который для целей данной иллюстрации может быть просто средним заполненным рядом.

В данном примере принятое в статистической физике определение энтропии соответствует просто доле всех эквивалентных состояний (на самом деле это логарифм доли, однако эта формальность не имеет отношения к тому, что я пытаюсь сказать). Таким образом, энтропия является наименьшей, когда люди сидят максимально близко или максимально далеко от поля, поскольку существует только один способ такого размещения людей.[23]23
  Существует много критериев для принятия решений, которые в итоге помогают достичь этих состояний. Замечательное введение в тему разнообразия поведений, которые могут привести к тому, чтобы люди заняли верхнюю половину стадиона или зала, можно найти в первой главе книги Томаса Шеллинга Micromotives and Macrobehavior (New York: W. W. Norton, 2006).


[Закрыть]
Энтропия является наибольшей, когда средним из занятых рядов является центральный, поскольку существует много способов размещения людей на местах, при которых средним занятым рядом будет центральный. В предложенном Больцманом определении энтропия представляет собой множество эквивалентных состояний. В случае со стадионом наибольшее число эквивалентных состояний существует тогда, когда средним из заполненных рядов является центральный.

Следует отметить, что энтропия, которая обычно ассоциируется с беспорядком, не является мерой беспорядка. Энтропия – это мера множества состояний (количества эквивалентных состояний). Тем не менее неупорядоченных состояний, как правило, бывает больше, поэтому на практике состояния высокой энтропии, скорее всего, будут неупорядоченными. Именно поэтому приравнивание беспорядка к энтропии не является таким уж неудачным упрощением. Однако увеличение энтропии может не сопровождаться увеличением беспорядка. Рассмотрим случай с расширением газа в коробке, которая удваивается в размере (или распространение людей по стадиону, увеличивающемуся в два раза). Энтропия газа увеличивается с размером коробки, поскольку в коробке большего размера существует больше вариантов организации частиц газа. Тем не менее газ в большей коробке не является более неупорядоченным, чем газ в меньшей коробке.

Шеннон был заинтересован в передаче микросостояния системы, например отдельного твита или расположения сидящих на нашем гипотетическом стадионе людей, поэтому он приравнял понятие информации к понятию энтропии, часто используя эти слова как синонимы. Передача сообщения об одном микросостоянии, в котором средним из занятых рядов является центральный, требует больше бит, так как при этом условии существует множество эквивалентных микросостояний, поэтому для передачи данных о некотором микросостоянии требуется создать очень конкретное сообщение. Таким образом, на языке Шеннона понятия информации и энтропии функционально эквивалентны, поскольку количество битов, необходимых для создания сообщения (информация по Шеннону), представляет собой функцию от числа возможных сообщений, которые могут быть переданы (множество состояний, которое мы понимаем как энтропию). Но, это не делает энтропию и информацию одним и тем же. Лауреат Нобелевской премии по химии 1967 года Манфред Эйген заметил: «Энтропия относится к среднему (физическому) состоянию, а информация – к конкретному (физическому) состоянию».[24]24
  Манфред Эйген, From Strange Simplicity to Complex Familiarity: A Treatise on Matter, Information, Life and T ought (Oxford: Oxford University Press, 2013), 310.


[Закрыть]

Однако тот факт, что нам требуется больше битов для передачи сообщения о состоянии, в котором каждый человек случайно выбрал место на стадионе или в котором биты на жестком диске были случайным образом перемешаны, не означает, что эти состояния заключают в себе больше порядка или информации. Информация подразумевает увеличение количества битов, но это еще не все. В примере со стадионом множество состояний, при которых люди выбрали места случайно, характеризуется наивысшим значением энтропии, но при этом самым низким значением упорядоченности (хотя некоторые из этих состояний могут быть весьма упорядоченными). В самом деле, в области естественных наук и среди широкой общественности давно существует традиция приравнивания понятия информации к чему-то большему, чем биты, к тому, что подразумевает порядок. Подумайте о генетиках, разговаривающих об информации, содержащейся в ДНК, или об информации, содержащейся в музыкальных партитурах, на катушке пленки или в книге. В данных примерах слово «информация» говорит о присутствии порядка, а не только о количестве битов, необходимых для передачи сообщения о генетической последовательности, книги или нот.

Однако упорядоченные состояния являются редкими и своеобразными. Сначала я объясню, что я имею в виду под словом «редкий» в данном контексте. Далее я объясню своеобразие информационно насыщенных состояний, которое подразумевает корреляции, придающие слову «информация» его широко распространенный разговорный смысл.

Чтобы объяснить редкость упорядоченных состояний, я расширю пример со стадионом до того, что описывал Больцман в контексте атомов. Предположим, что стадион наполовину полон, но люди не могут свободно передвигаться. Теперь разрешены только те состояния, в которых средним из занимаемых рядов является центральный. В случае с физической системой это равносильно фиксированию энергии системы. Тем не менее, поскольку существует много различных состояний, в которых средним из занятых рядов является центральный, система по-прежнему предоставляет на выбор множество вариантов. Большинство этих состояний являются достаточно случайными. Другие, однако, весьма своеобразны. Люди на стадионе могут действовать подобно пикселам на экране, поэтому в некоторых из этих состояний комбинации сидящих людей могут образовывать такие слова, как «информация», или изображения лица. Однако насколько часто встречаются такие своеобразные состояния?

Для определения часто встречающихся состояний нам нужно наметить множество всех возможных состояний. Один из способов заключается в том, чтобы посмотреть, как эти состояния связаны. Мы можем сказать, что два состояния связны между собой, если я могу перейти от одного к другому с помощью простого преобразования. Для простоты давайте рассмотрим все преобразования, при которых каждый зритель может пересесть на соседнее место, при условии, что новое состояние удовлетворяет ограничению, касающемуся среднего ряда. К числу этих преобразований относятся те, при которых каждый зритель пересаживается на одно место справа, а также преобразования, при которых человек на нижней половине стадиона пересаживается на одно место вверх, а человек на верхней половине стадиона пересаживается на одно место вниз.

В принципе мы можем использовать эти преобразования, чтобы прийти к любому состоянию. Однако на практике достижение какого-либо состояния не является таким уж простым делом. Если мы позволим людям на стадионе пересаживаться на соседние места, выбранные случайным образом (разумеется, допуская только те преобразования, которые удовлетворяют ограничению, касающемуся среднего ряда), мы никогда не получим комбинации, которые образуют слова или изображения. Эти состояния очень редки и труднодостижимы. Данное упражнение позволяет проиллюстрировать определение информации, подразумевающее наличие порядка. В физической системе информация представляет собой понятие, обратное энтропии, поскольку оно предполагает редкие и сильно коррелирующие конфигурации, которые трудно получить.


Страницы книги >> Предыдущая | 1 2 3 4 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации