Электронная библиотека » Мелани Митчелл » » онлайн чтение - страница 5


  • Текст добавлен: 1 февраля 2022, 14:21


Автор книги: Мелани Митчелл


Жанр: Техническая литература, Наука и Образование


Возрастные ограничения: +12

сообщить о неприемлемом содержимом

Текущая страница: 5 (всего у книги 24 страниц) [доступный отрывок для чтения: 8 страниц]

Шрифт:
- 100% +
ИИ: ограниченный и общий, слабый и сильный

Как и в любую из прошлых весен ИИ, сегодня эксперты предсказывают, что “общий ИИ” – тот, который по большинству параметров находится на одном уровне с человеческим разумом или превосходит его, – не заставит себя ждать. “ИИ человеческого уровня появится в середине 2020-х годов”, – предрек Шейн Легг, один из основателей Google DeepMind, в 2008 году[54]54
  J. Despres, “Scenario: Shane Legg”, Future, accessed Dec. 4, 2018, future.wikia.com/wiki/Scenario: _Shane_Legg.


[Закрыть]
. В 2015 году генеральный директор Facebook Марк Цукерберг заявил: “В следующие пять-десять лет мы среди прочего ставим перед собой цель превзойти возможности человека в основных областях восприятия: зрении, слухе, речи, мышлении в целом”[55]55
  Цит. по: H. McCracken, “Inside Mark Zuckerberg’s Bold Plan for the Future of Facebook”, Fast Company, Nov. 16, 2015, www.fastcompany.com/3052885/mark-zuckerberg-facebook.


[Закрыть]
. Философы ИИ Винсент Мюллер и Ник Бостром опубликовали результаты проведенного в 2013 году опроса исследователей, в котором многие заявили о пятидесятипроцентной вероятности появления ИИ человеческого уровня к 2040 году[56]56
  V. C. Müller and N. Bostrom, “Future Progress in Artificial Intelligence: A Survey of Expert Opinion”, in Fundamental Issues of Artificial Intelligence, ed. V. C. Müller (Cham, Switzerland: Springer International, 2016), 555–572.


[Закрыть]
.

Хотя этот оптимизм во многом основан на недавних успехах глубокого обучения, эти программы – как и все системы ИИ, разработанные до сих пор, – относятся к сфере так называемого ограниченного, или слабого, ИИ. Эти термины не столь уничижительны, как кажется: они просто обозначают систему, которая может выполнять лишь одну узкую задачу (или небольшой набор родственных задач). Возможно, AlphaGo лучше всех в мире играет в го, но больше она ничего не умеет: она не умеет играть ни в шашки, ни в крестики-нолики. “Google Переводчик” может перевести английскую рецензию на фильм на китайский, но не может сказать, понравился ли фильм рецензенту, и уж точно не сумеет сам посмотреть этот фильм и написать о нем отзыв.

Термины “ограниченный” и “слабый” используются в противовес “сильному”, “общему”, “полноценному”, или ИИ “человеческого уровня”, то есть искусственному интеллекту из кино, который умеет почти все, что умеют люди, или даже гораздо больше. Возможно, изначально исследователи ставили своей целью разработку общего ИИ, но создать его оказалось гораздо сложнее, чем ожидалось. Со временем работа над ИИ свелась к решению конкретных, четко определенных задач по распознаванию речи, игре в шахматы, беспилотному вождению и так далее. Создание машин, которые выполняют эти функции, полезно и часто прибыльно, и можно сказать, что при решении каждой из этих задач необходимо задействовать “разум”. Но пока еще не создана ни одна ИИ-программа, которую можно было бы назвать разумной в общем смысле. Это хорошо описано в недавней оценке состояния отрасли: “Множество ограниченных интеллектов никогда не составят в сумме общий интеллект. В общем интеллекте важно не количество навыков, а интеграция этих навыков”[57]57
  M. Loukides and B. Lorica, “What Is Artificial Intelligence?”, O’Reilly, June 20, 2016, www.oreilly.com/ideas/what-is-artificial-intelligence.


[Закрыть]
.

Постойте. Учитывая, что ограниченных интеллектов становится все больше, сколько времени должно пройти, прежде чем кто-нибудь найдет способ комбинировать их, воссоздавая широкие, глубокие и тонкие характеристики человеческого разума? Стоит ли верить когнитивисту Стивену Пинкеру, который считает, что ничего особенного не происходит? “До появления ИИ человеческого уровня по-прежнему остается от пятнадцати до двадцати пяти лет, как это было всегда, а многие его хваленые успехи поверхностны”, – отметил Пинкер[58]58
  S. Pinker, “Thinking Does Not Imply Subjugating”, in What to Think About Machines That Think, ed. J. Brockman (New York: Harper Perennial, 2015), 5–8.


[Закрыть]
. Или же нам стоит прислушаться к оптимистам ИИ, которые уверены, что на этот раз, в эту весну ИИ, все будет иначе?

Неудивительно, что в среде исследователей ИИ бытуют значительные разногласия по вопросу о том, что означает “ИИ человеческого уровня”. Как понять, удалось ли нам сконструировать “думающую машину”? Нужны ли такой системе сознание или самоосознание, которыми обладают люди? Должна ли она понимать вещи так же, как их понимает человек? Учитывая, что речь идет о машине, не будет ли корректнее говорить, что она “моделирует мышление”, или же можно утверждать, что она действительно мыслит?

Могут ли машины мыслить?

Подобные философские вопросы терзают сферу ИИ с самого ее возникновения. Британский математик Алан Тьюринг, разработавший в 1930-х годах первую концепцию программируемого компьютера, в 1950 году опубликовал статью, в которой спросил, что мы имеем в виду, когда задаем вопрос: “Могут ли машины мыслить?” Предложив свою знаменитую “имитационную игру” (которая сегодня называется тестом Тьюринга и подробнее о которой я расскажу ниже), Тьюринг перечислил девять возможных аргументов против создания действительно мыслящей машины и попытался их опровергнуть. Предполагаемые аргументы варьируются в диапазоне от теологического – “Мышление – это функция бессмертной человеческой души. Бог наделил бессмертными душами всех мужчин и женщин, но не дал их ни другим животным, ни машинам. Следовательно, ни животные, ни машины не могут мыслить”, – до экстрасенсорного, который звучит примерно так: “Люди могут телепатически общаться друг с другом, а машины не могут”. Как ни странно, Тьюринг признал последний аргумент “довольно сильным”, потому что “статистических наблюдений, по крайней мере о телепатии, несметное множество”.

По прошествии нескольких десятилетий лично я считаю самым сильным из вероятных аргументов Тьюринга “возражение с точки зрения сознания”, которое он формулирует, цитируя невролога Джеффри Джефферсона:

Пока машина не сможет написать сонет или сочинить концерт, побуждаемая мыслями и чувствами, а не случайной последовательностью символов, мы не сможем согласиться с тем, что машина тождественна мозгу, то есть что она не только пишет эти вещи, но и понимает, что это она их написала. Ни один механизм не может чувствовать (а не просто искусственно сигнализировать, что не требует сложного устройства) радость от своих успехов, печалиться при расплавлении клапанов, получать удовольствие от лести, огорчаться из-за ошибок, увлекаться противоположным полом и злиться или расстраиваться, когда ему не удается получить желаемое[59]59
  A. M. Turing, “Computing Machinery and Intelligence”, Mind 59, no. 236 (1950): 433–460.


[Закрыть]
.

Обратите внимание, что в этом аргументе говорится следующее: 1) только когда машина чувствует и сознает собственные действия и чувства – иными словами, когда она обладает сознанием, – мы можем считать, что она действительно мыслит; 2) ни одна машина никогда не будет на это способна. Следовательно, ни одна машина никогда не сможет мыслить по-настоящему.

Я считаю, это сильный аргумент, хотя и не соглашаюсь с ним. Он перекликается с нашими интуитивными представлениями о машинах и пределах их возможностей. Я обсуждала возможность создания машинного интеллекта с огромным количеством друзей, родственников и студентов, и многие из них приводили этот аргумент. Например, недавно моя мама, юрист на пенсии, прочитала в The New York Times статью об успехах “Google Переводчика”, и у нас состоялся такой разговор:

Мама: Проблема в том, что люди в сфере ИИ слишком много антропоморфизируют!

Я: Что ты имеешь в виду?

Мама: Они говорят так, словно машины могут мыслить по-настоящему, а не просто моделировать мышление.

Я: В чем разница между тем, чтобы “мыслить по-настоящему” и “моделировать мышление”?

Мама: По-настоящему мыслят при помощи мозга, а моделируют мышление при помощи компьютеров.

Я: Что особенного в мозге, что позволяет ему мыслить “по-настоящему”? Чего не хватает компьютерам?

Мама: Не знаю. Думаю, в мышлении есть нечто человеческое, что компьютеры никогда не смогут полностью воссоздать.

Так считает не только моя мама. Многим людям это кажется столь очевидным, что не требует объяснений. Как и многие из этих людей, моя мама причислила бы себя к сторонникам философского материализма: она не верит в существование нефизической “души”, или “жизненной силы”, которая наделяет живых существ разумом. Она просто считает, что машины никогда не будут в состоянии “мыслить по-настоящему”.

В научных кругах самую знаменитую версию этого аргумента предложил философ Джон Сёрл. В 1980 году Сёрл опубликовал статью “Разум, мозг и программы”[60]60
  J. R. Searle, “Minds, Brains, and Programs”, Behavioral and Brain Sciences 3, no. 3 (1980): 417–424.


[Закрыть]
, в которой заявил о своем категорическом несогласии с тем, что машины могут “мыслить по-настоящему”. В этой популярной и неоднозначной статье Сёрл ввел концепции “сильного” и “слабого” искусственного интеллекта, чтобы провести черту между двумя философскими утверждениями о программах ИИ. Хотя сегодня люди в основном называют сильным “ИИ, способный выполнять большинство задач на человеческом уровне”, а слабым – уже существующий ограниченный ИИ, Сёрл использовал эти термины иначе. В представлении Сёрла, ИИ можно назвать сильным, если “должным образом запрограммированный цифровой компьютер не просто моделирует разум, а в буквальном смысле обладает разумом”[61]61
  J. R. Searle, Mind: A Brief Introduction (Oxford: Oxford University Press, 2004), 66.


[Закрыть]
. Примерами слабого ИИ Сёрл, напротив, считал компьютеры, которые используются для моделирования человеческого разума, но не обладают разумом “в буквальном смысле”[62]62
  Термины “сильный ИИ” и “слабый ИИ” также используются в значении “общий ИИ” и “ограниченный ИИ”. Именно так их использует Рэй Курцвейл, но Сёрл изначально давал им другие определения.


[Закрыть]
. И здесь мы возвращаемся к философскому вопросу, который я обсуждала с мамой: есть ли разница между “моделированием разума” и “обладанием разумом в буквальном смысле”? Как и моя мама, Сёрл полагает, что эта разница принципиальна, и заявил, что сильный ИИ невозможен даже в теории[63]63
  Статья Сёрла воспроизводится в книге D. R. Hofstadter and D. C. Dennett, The Mind’s I: Fantasies and Reflections on Self and Soul (New York: Basic Books, 1981) и сопровождается убедительным контраргументом Хофштадтера.


[Закрыть]
.

Тест Тьюринга

Статью Сёрла отчасти вдохновила опубликованная в 1950 году статья Алана Тьюринга “Вычислительные машины и разум”, в которой Тьюринг предложил способ разрубить гордиев узел “моделированного” и “настоящего” разума. Заявив, что “исходный вопрос «Может ли машина мыслить?» лишен смысла, а потому не заслуживает обсуждения”, Тьюринг предложил практический метод, чтобы наделить его смыслом. В его “имитационной игре”, ныне называемой тестом Тьюринга, два участника: компьютер и человек. Каждому из них по отдельности задает вопросы человек-судья, который пытается определить, кто есть кто. Судья физически не взаимодействует с участниками игры, а потому не может опираться на визуальные и слуховые подсказки. Все общение происходит при помощи печатного текста.

Тьюринг предложил следующее: “Вопрос «Могут ли машины мыслить?» нужно заменить вопросом «Можно ли вообразить такой цифровой компьютер, который сможет выиграть в имитационной игре?»” Иными словами, если компьютер достаточно похож на человека, чтобы быть неотличимым от людей, когда в расчет не принимаются его внешний вид и голос (а если уж на то пошло, то не учитывается также, как он пахнет и какой он на ощупь), то почему бы нам не считать, что он мыслит по-настоящему? Почему мы готовы признать “мыслящей” лишь такую сущность, которая состоит из конкретного материала (например, биологических клеток)? Как отметил без лишних церемоний информатик Скотт Ааронсон, предложение Тьюринга стало “выпадом против мясного шовинизма”[64]64
  S. Aaronson, Quantum Computing Since Democritus (Cambridge, U. K.: Cambridge University Press, 2013), 33.


[Закрыть]
.

Но дьявол всегда в деталях, и тест Тьюринга не исключение. Тьюринг не обозначил критерии для выбора участника-человека и судьи, а также не определил, как долго должен продолжаться тест и на какие темы позволено говорить участникам. При этом он сделал удивительно специфический прогноз: “Полагаю, лет через пятьдесят появится возможность программировать компьютеры таким образом… что они станут справляться с имитационной игрой настолько успешно, что вероятность верной идентификации после пяти минут расспросов для среднего судьи не будет превышать 70 %”. Иными словами, за пять минут игры среднего судью будут обманывать в 30 % случаев.

Прогноз Тьюринга оказался довольно точным. За прошедшие годы проводилось несколько тестов Тьюринга, в которых роль компьютера выполняли чат-боты – программы, созданные специально для поддержания разговора (больше они ничего не умеют). В 2014 году в Лондонском королевском обществе состоялся тест Тьюринга с участием пяти компьютерных программ, тридцати участников-людей и тридцати судей разных возрастов и профессий, включая специалистов и неспециалистов по компьютерным технологиям, а также носителей английского языка и людей, для которых он был неродным. Каждый судья проводил несколько пятиминутных разговоров, в которых параллельно общался (печатая текст) с двумя участниками – человеком и машиной, – а затем должен был определить, кто есть кто. Чат-бот Женя Густман, созданный группой российских и украинских программистов, выиграл соревнование, обманув десять (или 33,3 %) судей. Организаторы соревнования, следуя критерию Тьюринга об “обмане более 30 % судей за пять минут”, наводнили прессу сообщениями о том, что тест Тьюринга наконец-то оказался пройден.

Чат-бот Женя Густман работает аналогично большинству других чат-ботов. Он хранит большой набор шаблонов фраз, которые заполняет на основе запрограммированных правил, применяющихся к входному тексту – реплике собеседника. Создатели чат-бота разработали для него лингвистические правила, которые позволяют ему выделять ключевую информацию из входного сигнала и сохранять ее для последующего использования. Кроме того, чат-бот хранит базу данных “здравого смысла”, созданную людьми, а также некоторые логические правила, которые, вероятно, позволяют ему отвечать на такие вопросы, как “Какого цвета небо во Владивостоке?”, вполне по-человечески, например: “Синее, наверное, если нет облаков”. Если ни одно из правил чат-бота неприменимо к входному сигналу, он просто меняет тему. Правила системы также определяют ее “личность” – в данном случае это тринадцатилетний украинский мальчик, который хорошо, но не идеально (что особенно удобно) владеет английским. Вот отрывок из беседы Жени Густмана с одним из судей, которого он обманул:

Судья: Какого ты пола

Женя: Раз уж вы спрашиваете, я мальчик. Кстати, даже не урод!

Судья: что ты знаешь в данный момент

Женя: Я предпочел бы об этом не говорить, если вы не возражаете. Можете сказать мне, кто вы? Я имею в виду, по профессии.

Судья: сколько тебе лет

Женя: Я мальчик 13 лет.

Судья: что ты умеешь

Женя: Что я умею? Я вам этого не скажу. О-ох. Еще вопросы есть?[65]65
  Turing Test Transcripts Reveal How Chatbot «Eugene» Duped the Judges”, Coventry University, June 30, 2015, www.coventry.ac.uk/primary-news/turing-test-transcripts-reveal-how-chatbot-eugene-duped-the-judges/.


[Закрыть]

После соревнования организаторы выпустили пресс-релиз, в котором объявили: “Компьютерная программа Женя Густман впервые прошла легендарный тест Тьюринга, предложенный 65 лет назад”. Они добавили: “Неслучайно такая важная веха оказалась преодолена в Лондонском королевском обществе, резиденции британской науки, которая на протяжении веков увидела немало великих прорывов человеческой мысли. Эта веха войдет в историю как одна из наиболее важных”[66]66
  “Turing Test Success Marks Milestone in Computing History”, University of Reading, June 8, 2014, www.reading.ac.uk/news-and-events/releases/PR583836.aspx.


[Закрыть]
.

Специалисты по ИИ в один голос рассмеялись над этими словами. Любому человеку, знакомому с принципом программирования чат-ботов, достаточно просмотреть записи состоявшихся на соревновании бесед, чтобы сразу понять, что Женя Густман – программа, причем не слишком сложная. Результат соревнования больше рассказал о судьях и самом тесте, чем о машинах. Учитывая пятиминутное ограничение и склонность уходить от ответа на сложные вопросы, меняя тему или отвечая вопросом на вопрос, программе было довольно легко убедить судью-неспециалиста, что он общается с живым человеком. Это демонстрировали многие чат-боты, от созданной в 1960-х годах программы “Элиза”, притворявшейся психотерапевтом, до современных вредоносных ботов в Facebook, которые в коротких текстовых беседах обманом убеждают людей раскрывать личную информацию.

Конечно, эти боты эксплуатируют склонность человека к антропоморфизации. (Мама, ты была права!) Мы спешим приписывать компьютерам понимание и сознание, имея лишь скудные доказательства.

По этим причинам большинство специалистов по ИИ ненавидит тест Тьюринга, по крайней мере в той форме, в какой он проводился до сегодняшнего дня. Они считают подобные соревнования рекламными трюками, результаты которых ничего не говорят о прогрессе в сфере ИИ. Но даже если Тьюринг переоценил способность “среднего судьи” разглядеть простые хитрости, может ли его тест оставаться полезным критерием для определения разумности, если увеличить время разговора и поднять требования к судьям?

Рэй Курцвейл, занимающий должность технического директора Google, полагает, что должным образом разработанная вариация теста Тьюринга действительно сможет обнаружить машинный интеллект. По его прогнозам, компьютер пройдет этот тест к 2029 году, что станет важной вехой на пути к предсказываемой Курцвейлом сингулярности.

Сингулярность

Рэй Курцвейл долгое время остается главным оптимистом ИИ. Он учился у Марвина Минского в MIT и стал выдающимся изобретателем: он изобрел первый синтезатор речи и один из лучших в мире музыкальных синтезаторов. За эти и другие изобретения в 1999 году президент Билл Клинтон вручил Курцвейлу Национальную медаль в области технологий и инноваций.

Но прославился Курцвейл не своими изобретениями, а своими футуристическими прогнозами – и, в частности, идеей о сингулярности как “периоде будущего, когда скорость технологических изменений станет так высока, а их влияние будет так сильно, что человеческая жизнь необратимо изменится”[67]67
  R. Kurzweil, The Singularity Is Near: When Humans Transcend Biology (New York: Viking Press, 2005), 7.


[Закрыть]
. Курцвейл использует термин “сингулярность” в значении “уникальное событие с… необычайными последствиями”, в частности, “событие, способное разорвать ткань человеческой истории”[68]68
  Ibid., 22–23.


[Закрыть]
. По мнению Курцвейла, этим событием станет достижение искусственным интеллектом превосходства над человеческим разумом.

Курцвейла вдохновили предположения математика Ирвинга Джона Гуда о потенциале интеллектуального взрыва: “Назовем ультраразумной такую машину, которая способна значительно превосходить любую интеллектуальную деятельность человека, каким бы умным он ни был. Поскольку конструирование машин также относится к сфере этой интеллектуальной деятельности, ультраразумная машина сможет конструировать еще более совершенные машины, затем, несомненно, произойдет «интеллектуальный взрыв» – и человеческий разум остается далеко позади”[69]69
  I. J. Good, “Speculations Concerning the First Ultraintelligent Machine”, Advances in Computers 6 (1966): 31–88.


[Закрыть]
.

На Курцвейла также повлиял математик и писатель-фантаст Вернор Виндж, который полагал, что это событие случится еще раньше: “Эволюция человеческого разума продолжалась миллионы лет. Мы добьемся эквивалентного прорыва за малую долю этого времени. Вскоре мы будем создавать разумы, которые будут превосходить наш собственный. Когда это случится, человеческая история достигнет некой сингулярности… и мир выйдет далеко за пределы нашего понимания”[70]70
  V. Vinge, “First Word”, Omni, Jan. 1983.


[Закрыть]
.

Курцвейл отталкивается от интеллектуального взрыва, ступает на территорию научной фантастики и переходит от ИИ к нанотехнологиям, виртуальной реальности и “загрузке сознания”, не меняя при этом спокойного, уверенного тона дельфийского оракула, который смотрит на календарь и называет конкретные даты. Чтобы получить представление о прогнозах Курцвейла, познакомьтесь с некоторыми из них:

К 2020-м годам молекулярная сборка даст инструменты, чтобы побороть бедность, очистить окружающую среду, победить болезни [и] повысить продолжительность человеческой жизни.


К концу 2030-х годов… мозговые имплантаты на базе массово производимых интеллектуальных наноботов существенно улучшат нашу память, а также все наши сенсорные и когнитивные способности и способности к распознаванию образов.


Загрузка сознания предполагает сканирование всех его значимых элементов и их установку в достаточно мощную вычислительную среду… По осторожному прогнозу, успешная загрузка [сознания] будет осуществлена в конце 2030-х годов[71]71
  Kurzweil, Singularity Is Near, 241, 317, 198–199.


[Закрыть]
.


Компьютер пройдет тест Тьюринга к 2029 году[72]72
  B. Wang, “Ray Kurzweil Responds to the Issue of Accuracy of His Predictions”, Next Big Future, Jan. 19, 2010, www.nextbigfuture.com/2010/01/ray-kurzweil-responds-to-issue-of.html.


[Закрыть]
.


В 2030-х годах искусственное сознание станет вполне возможным. Это и есть ключ к прохождению теста Тьюринга[73]73
  D. Hochman, “Reinvent Yourself: The Playboy Interview with Ray Kurzweil”, Playboy, April 19, 2016, www.playboy.com/articles/playboy-interview-ray-kurzweil.


[Закрыть]
.


Я считаю, что сингулярность наступит… в 2045 году. Небиологический разум, созданный в этом году, будет в миллиард раз мощнее всей совокупности человеческого разума сегодня[74]74
  Kurzweil, Singularity Is Near, 136.


[Закрыть]
.

Немецкий писатель Андриан Крайе иронично назвал прогноз Курцвейла о сингулярности “не более чем верой в технологическое Вознесение”[75]75
  A. Kreye, “A John Henry Moment”, in Brockman, What to Think About Machines That Think, 394–396.


[Закрыть]
.

Все прогнозы Курцвейла основаны на идее об “экспоненциальном прогрессе” во многих областях науки и технологий, особенно в сфере компьютеров. Чтобы проанализировать эту идею, давайте разберемся, как работает экспоненциальный рост.

Экспоненциальная притча

В качестве простой иллюстрации экспоненциального роста я перескажу старую притчу. Давным-давно прославленный мудрец из бедной и голодной деревни посетил далекое и богатое царство, правитель которого предложил ему сыграть в шахматы. Мудрец не спешил соглашаться, но правитель настаивал, обещая мудрецу в награду все, что он только пожелает, если он сумеет одержать победу в игре. Желая спасти свою деревню, мудрец согласился сыграть в шахматы и (как обычно случается с мудрецами) выиграл партию. Царь спросил мудреца, какую награду он хочет. Любивший математику мудрец ответил: “Я прошу, чтобы ты взял эту шахматную доску и положил два рисовых зернышка на первую клетку, четыре – на вторую, восемь – на третью и так далее, удваивая количество зернышек на каждой следующей клетке. Доходя до конца каждого ряда, складывай зерна и отправляй их в мою деревню”. Не разбиравшийся в математике правитель рассмеялся. “И это все, чего ты хочешь? Я велю своим придворным принести рис и скорейшим образом выполнить твою просьбу”.

Слуги принесли большой мешок с рисом. Через несколько минут они выложили рисовые зерна на первые восемь клеток: 2 – на первую, 4 – на вторую, 8 – на третью и так далее. На восьмой клетке оказалось 256 зерен. Они сложили все зерна (всего 511 штук) в маленький мешочек и отправили на лошади в деревню мудреца. Затем они перешли на второй ряд и положили на первую клетку 512 зерен, на вторую – 1024, на третью – 2048. Кучки риса уже не входили на клетки, поэтому зерна считали в большой миске. К концу второго ряда пересчет зерен стал занимать слишком много времени, и придворные математики стали примерно оценивать их количество по весу. Они посчитали, что на шестнадцатую клетку необходимо было положить 65 536 зерен, то есть около килограмма риса. Мешок с рисом за второй ряд клеток весил около двух килограммов.

Когда придворные перешли на третий ряд, за семнадцатую клетку они выделили мудрецу 2 килограмма риса, за восемнадцатую – 4 и так далее. К концу третьего ряда (на клетке номер 24) потребовалось 512 килограммов риса. Слугам приказали принести еще несколько огромных мешков с рисом. На второй клетке четвертого ряда (клетке номер 26) положение стало отчаянным: по подсчетам математиков, за нее мудрецу полагалось 2048 килограммов риса. Для этого нужно было отдать весь рис, запасенный в стране, но придворные не дошли еще даже до середины шахматной доски. Правитель понял, что мудрец его обхитрил, и взмолился, чтобы он простил ему долг и спас царство от голода. Решив, что его деревня получила достаточно риса, мудрец пощадил правителя.


Рис. 5. Графики, показывающие, сколько риса необходимо выделить на каждую клетку шахматной доски, чтобы выполнить просьбу мудреца: A – клетки 1–24 (на оси y показаны сотни килограммов), B – клетки 24–64 (на оси y показаны десятки триллионов килограммов)


На рис. 5A показано количество килограммов риса, выделяемых за каждую клетку до двадцать четвертой. На первой клетке лежит два зернышка, масса которых составляет жалкую долю килограмма. Меньше килограмма риса выделяется на каждую клетку до шестнадцатой включительно. Но после шестнадцатой клетки график стремительно взлетает вверх из-за эффекта удвоения. На рис. 5B показаны цифры для клеток 24–64, которые возрастают с 512 килограммов до более чем 30 триллионов килограммов.

Этот график описывается математической функцией y = 2x, где x – клетка шахматной доски (имеющая номер от 1 до 64), а y – количество рисовых зерен, соответствующих этой клетке. Такая функция называется экспоненциальной, поскольку x – это экспонента числа 2. При любом масштабе графика эта функция имеет характерную точку, в которой кривая переходит от медленного к взрывному росту.


Страницы книги >> Предыдущая | 1 2 3 4 5 6 7 8 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации