Текст книги "Квантовые вычисления со времен Демокрита"
Автор книги: Скотт Ааронсон
Жанр: Зарубежная образовательная литература, Наука и Образование
Возрастные ограничения: +12
сообщить о неприемлемом содержимом
Текущая страница: 5 (всего у книги 29 страниц) [доступный отрывок для чтения: 10 страниц]
Дополнительный бонус
Какое отношение все это имеет к квантовой механике? Сейчас я сделаю героическую попытку обозначить для вас эту связь. До сих пор я старался убедить вас, что, если мы хотим считать мир непрерывным, это порождает глубочайшие сложности. Возьмите, к примеру, ручку: сколько различных позиций она может занимать на поверхности стола? ℵ1? Больше, чем ℵ1? Меньше, чем ℵ1? Мы не хотим, чтобы ответы на «физические» вопросы зависели от аксиом теории множеств!
Ах, вы говорите, что мой вопрос не имеет физического смысла, поскольку положение ручки невозможно измерить с бесконечной точностью? Конечно, но дело в том, что, для того чтобы сделать само это утверждение, нужна физическая теория!
Конечно, само название квантовой механики проистекает из того факта, что многие наблюдаемые величины в этой теории, как, например, энергетические уровни, дискретны – «квантованы». Это кажется парадоксальным, поскольку один из критических аргументов, выдвигаемых кибернетиками против квантовых вычислений, состоит в том, что последние, на их взгляд, являются непрерывной моделью вычислений!
Лично моя точка зрения состоит в том, что квантовую механику, как и классическую теорию вероятностей, следует рассматривать как в своем роде «промежуточную» между непрерывной и дискретной теорией. (Здесь я предполагаю, что гильбертово пространство[14]14
Пусть вас не тревожит термин «гильбертово пространство», который я буду иногда использовать в этой книге. Он означает всего лишь «пространство всех возможных квантовых состояний некоторой системы». В случае систем бесконечной размерности определение гильбертова пространства становится слегка неочевидным, но в этой книге нас будут интересовать только системы конечной размерности. Как мы увидим в главе 9, гильбертово пространство системы конечной размерности представляет собой ни что иное как CN – N-мерное комплексное векторное пространство.
[Закрыть] и пространство вероятностей имеет конечную размерность.) Я имею в виду, что, хотя непрерывные параметры существуют (соответственно амплитуды и вероятности), эти параметры невозможно наблюдать непосредственно, и это, в частности, «заслоняет» нас от странной вселенной аксиомы выбора и континуум-гипотезы. Нам не нужна разработанная физическая теория, чтобы признать физически бессмысленными вопросы о том, являются ли амплитуды рациональными или иррациональными и существует ли больше или меньше ℵ1 возможных амплитуд. Это непосредственно следует из того факта, что если бы мы хотели узнать точное значение амплитуды, то (даже если забыть об ошибках!) нам потребовалось бы измерить соответствующее состояние бесконечное число раз.
Упражнение
Пусть BB (n), или «n-е число Делового Бобра», – это максимальное число шагов, которые машина Тьюринга с n-состояниями может сделать на пустой первоначально ленте, прежде чем остановится. (Здесь максимум берется по всем машинам Тьюринга с n-состояниями, которые рано или поздно остановятся.)
1. Докажите, что BB (n) растет быстрее, чем любая вычислимая функция.
2. Пусть S = 1/BB (1) + 1/BB (2) + 1/BB (3) + …
Является ли S вычислимым действительным числом? Иными словами, существует ли алгоритм, который, получив на вход положительное целое число k, выдаст на выходе рациональное число S′, такое, что |S – S′| < 1/k?
Дополнительная литература
Прекрасным дополнением материала этой главы может стать книга Торкеля Францена «Теорема Гёделя. Неполный путеводитель по ее правильному и неправильному использованию» (Gödel's Theorem: An Incomplete Guide to its Use and Abuse, by Torkel Franzén: A. K. Peters Ltd, 2005).
4. Разум и машины
Пришла пора нам заняться тем, чего все вы, я знаю, ждете: философской битвой на тортах на тему мозга, машин и разума!
Однако сначала давайте закончим разговор о вычислимости. Есть одна концепция, которая будет нужна нам в этой главе снова и снова; речь идет о концепции оракула. Идея достаточно очевидна: мы допускаем, что у нас имеется некий «черный ящик», или «оракул», который мгновенно решает некоторую сложную вычислительную проблему, а затем смотрим, что из этого выйдет! (На первом курсе я однажды завел с профессором разговор о том, что было бы, если бы у нас была некая гипотетическая «фея NP-полноты» – существо, которое мгновенно отвечало бы на вопрос, является ли данная булева формула выполнимой. Профессору пришлось меня поправить: на самом деле их называют не «феями», а «оракулами». Так намного профессиональнее!)
Судя по всему, первым оракулы исследовал Тьюринг в 1938 г. в своей диссертации на степень доктора философии. Очевидно, всякий, кто способен написать целую диссертацию об этих воображаемых сущностях, должен быть чрезвычайно чистым теоретиком – человеком, который ни за что на свете не хотел бы заниматься чем-то практически полезным. В случае Тьюринга это, безусловно, так и было, – в самом деле, несколько лет после защиты докторской диссертации, с 1939 по 1943 г., он потратил на изучение некоторых мудреных преобразований симметрии в 26-буквенном алфавите[15]15
Таких милых шуток у автора много: мы надеемся, что читатель увидит и оценит их. – Прим. пер.
[Закрыть].
Будем говорить, что задача A сводима, по Тьюрингу, к задаче B, если A может быть решена машиной Тьюринга при наличии оракула для B. Иными словами, «A не сложнее B»: если у нас есть гипотетическое устройство для решения B, мы можем решить также и A. Две задачи эквивалентны по Тьюрингу, если каждая из них сводима по Тьюрингу к другой. Так, к примеру, задача о том, можно ли доказать некое утверждение на базе аксиом теории множеств, эквивалентна по Тьюрингу проблеме остановки: если вы можете решить одну из них, вы можете решить и вторую.
Далее, степень Тьюринга, или степень неразрешимости, составляют множество всех задач, эквивалентных по Тьюрингу некоей данной задаче. Можно ли привести примеры степени неразрешимости? Мы с вами уже видели два таких примера: это (1) множество вычислимых задач и (2) множество задач, эквивалентных по Тьюрингу проблеме остановки. Сказать, что эти степени неразрешимости не равны, – все равно что сказать, что проблема остановки неразрешима.
Существуют ли степени неразрешимости выше двух названных? Иными словами, существует ли задача сложнее проблемы остановки, такая, что мы будем не в состоянии ее решить даже с помощью оракула по проблеме остановки? Ну, можно рассмотреть следующую «суперпроблему останова»: пусть у вас есть машина Тьюринга с оракулом по проблеме остановки, определите, остановится ли она?! Можем ли мы доказать, что суперпроблема остановки неразрешима, даже если у нас будет оракул для обычной проблемы остановки? Да, можем! Мы просто возьмем оригинальное доказательство, при помощи которого Тьюринг доказал, что проблема остановки неразрешима, и «сдвинем все на уровень вверх», дав всем машинам оракул по проблеме остановки. Все в доказательстве будет работать в точности как прежде, а мы, чтобы отразить этот факт, скажем, что доказательство «релятивизируется».
А вот более тонкий вопрос: существует ли задача промежуточной сложности между множеством вычислимых задач и задачей остановки? Этот вопрос первым задал Эмиль Пост в 1944 г., а ответили на него в 1954 г. Пост и Стивен Клини (хотя в первоначальной формулировке задачи у Поста было добавлено дополнительное условие, названное «рекурсивной перечислимостью», и только два года спустя Ричард Фридберг и Альберт Мучник показали, как можно его выполнить). Ответ был «да». На самом деле у нас есть и более сильный результат: существуют две задачи A и B, каждая из которых разрешима при наличии оракула для проблемы остановки, но ни одна из них не разрешима при наличии оракула для другой. Эти задачи строятся посредством бесконечного процесса, цель которого – устранить любую машину Тьюринга, способную свести A к B или B к A. К несчастью, получающиеся в результате задачи выглядят в высшей степени неестественно; не похоже, что что-то подобное может возникнуть на практике. И даже сегодня у нас нет ни единого примера «естественной» задачи с промежуточной степенью неразрешимости.
После прорыва в решении задачи Поста структура степеней неразрешимости по Тьюрингу исследовалась в таких подробностях, что трудно себе представить. Вот, к примеру, один из простейших вопросов: если две задачи A и B сводимы к задаче остановки, то должна ли существовать задача C, сводимая к A и B, такая, что любая задача, сводимая как к A, так и к B, сводима также и к C? Ну, чем бы дитя ни тешилось! Но мы, пожалуй, дошли до точки, в которой некоторые скажут: не пора ли нам перейти к следующей теме… (Кстати говоря, ответ на приведенный вопрос: «нет».)
Ну хорошо, главная философская идея, стоящая за понятием вычислимости, – так называемый тезис Чёрча – Тьюринга. Назван он в честь Тьюринга и его научного руководителя Алонзо Чёрча, хотя вопрос о том, что они сами думали об этом «их» тезисе, остается открытым! Сам тезис, по сути, заключается в том, что любая функция, которую «естественно рассматривать как вычислимую», вычислима на машине Тьюринга. Или, иными словами, любая «разумная» модель вычисления даст вам либо то же множество вычислимых функций, что и модель машины Тьюринга, либо его собственное подмножество.
Возникает очевидный вопрос: к какому классу отнести это утверждение? Быть может, это эмпирическое утверждение о том, какие функции могут быть вычислены в физической реальности? Или это определение, объясняющее смысл слова «вычислимый»? Или то и другое понемногу?
Как бы то ни было, тезис Чёрча – Тьюринга можно считать чрезвычайно успешным представителем тезисов. Как вам известно, – и мы поговорим об этом позже, – квантовые вычисления представляют серьезный вызов для так называемого «расширенного тезиса Чёрча – Тьюринга»: что любая функция, которую естественно рассматривать как эффективно вычислимую, является эффективно вычислимой на машине Тьюринга. Но, на мой взгляд, оригинальный тезис Чёрча – Тьюринга до сих пор не встретил ни одного серьезного вызова – ни как утверждение о физической реальности, ни как определение «вычислимости».
С другой стороны, несерьезных вызовов тезису Чёрча – Тьюринга было немало. Более того, есть целые конференции и журналы, посвященные этим вызовам, – погуглите по термину «сверхтьюринговые вычисления» или «гипервычисления». Я читал кое-что на эту тему, в основном там идут примерно такие рассуждения: предположим, вы можете выполнить первый шаг некоторого вычисления за одну секунду, следующий шаг за полсекунды, следующий за четверть секунды, следующий за восьмую долю и т. п. Тогда за две секунды вы выполните бесконечное количество вычислений! Ну, в таком виде все это звучит немного глупо, так что можно немного подсыпать перчику, добавив «до кучи» какую-нибудь черную дыру или еще что-нибудь. Разве смогут узколобые реакционеры – сторонники Тьюринга что-нибудь возразить? (Это напоминает мне шутку про суперкомпьютер, который был настолько быстр, что мог выполнить бесконечный цикл за 2,5 секунды.)
Конечно, мы должны серьезно усомниться в том, что если бы Природа собиралась подарить нам такие громадные вычислительные возможности, то она сделала бы это так обыденно, так неинтересно. Не заставила бы нас потрудиться или еще что. Но, должен признать: чтобы по-настоящему понять, почему предложения по сверхтьюринговым вычислениям не проходят, вам потребуются пределы энтропии по Бекенштейну, Буссо и другим – они суть часть того немногого, что физики, по их мнению, знают о квантовой гравитации и о чем мы поговорим немного позже. Так что тезис Чёрча – Тьюринга – даже его оригинальный, нерасширенный вариант – действительно связан с некоторыми глубочайшими вопросами физики. Но мне представляется, что ни квантовые вычисления, ни аналоговые, ни что-либо другое не смогли бросить этому тезису серьезный вызов за все 75 лет с момента его появления.
Вот еще одно возражение к приведенной выше идее вычислений в геометрической прогрессии. Мы более или менее понимаем, почему эта модель не физична: мы уверены, что само понятие времени начинает рушиться, когда мы доходим интервалов около 10–43 секунды (планковское время). Мы не знаем в точности, что там происходит. Тем не менее ситуация представляется ни в малейшей степени не похожей на квантовые вычисления (к примеру). В квантовых вычислениях, как мы увидим, никто не имеет никаких количественных представлений о том, где теория может нарушиться, а компьютер – перестать работать, что естественно порождает гипотезу о том, что он, быть может, и не перестанет работать.
Можно, конечно, сказать, что по достижении планковского времени начинаются по-настоящему хитрые вещи. Почему бы просто не сказать, что на практике нас всегда ограничивает шум и несовершенство мира?
Вопрос в следующем: почему мы ограничены? Почему мы не можем хранить в регистре действительное (вещественное) число? Мне кажется, что если попытаться сделать рассуждение точным, то в конце концов мы все равно будем говорить о планковском масштабе.
Если мы интерпретируем тезис Чёрча – Тьюринга как утверждение о физической реальности, оно должно охватывать все в этой реальности, включая самодовольную нейронную сеть, имеющуюся у нас между ушами. Это, разумеется, приводит нас прямо на изрытое воронками поле интеллектуального сражения, куда я и обещал вас привести.
В качестве исторического замечания интересно отметить, что возможность существования мыслящих машин не относится к тем идеям, которые пришли к человеку постепенно, после нескольких десятков лет пользования компьютерами. Нет, они возникли мгновенно, в ту самую минуту, когда разговор впервые зашел о компьютерах как таковых. Такие люди, как Лейбниц, Беббидж, Лавлейс, Тьюринг и фон Нейман, с самого начала понимали, что компьютер станет не просто очередной новинкой вроде парового двигателя или тостера, – что компьютер обладает свойством универсальности (не важно, называли они его так или нет), и потому сложно даже говорить о компьютерах, не говоря одновременно о самих себе.
А теперь я прошу вас отложить на несколько минут эту книгу и прочитать вторую по известности работу Тьюринга «Вычислительные машины и разум»[16]16
http://www.loebner.net/Prizef/TuringArticle.html
[Закрыть].
Какова основная идея этой статьи? Я считаю, что это призыв против животного, или мясного, шовинизма. Конечно, Тьюринг приводит кое-какие научные доводы, кое-какие математические аргументы, кое-какие эпистемологические соображения. Но под всем этим лежит единственный моральный аргумент. А именно: если бы компьютер взаимодействовал с нами так, что был бы неотличим от человека, то, конечно, мы все равно могли бы сказать, что «на самом деле» компьютер не думает, что это всего лишь моделирование. Но на тех же основаниях мы могли бы заявить, что на самом деле другие люди не думают, что они просто действуют так, как будто думают. Так что же заставляет нас заниматься подобной интеллектуальной акробатикой в одном случае и отвергать все с порога в другом?
Если вы позволите мне откомментировать сказанное с моей собственной пристрастной позиции (как будто я когда-нибудь упускаю возможность это сделать…), то именно в этом моральном вопросе, в вопросе двойных стандартов Сёрлу, Пенроузу и всем остальным «скептикам сильного ИИ» нечего мне предложить. В самом деле, можно приводить весомые и убедительные аргументы против возможности существования мыслящих машин. Единственная проблема этих аргументов состоит в том, что они одновременно являются аргументами против возможности существования мыслящего мозга!
К примеру: один из популярных аргументов состоит в том, что если компьютер представляется разумным, то это лишь отражение человеческого разума, который его запрограммировал. Но что если человеческий разум – это лишь отражение эволюционного процесса длиной в миллиарды лет, который и дал ему начало? Что неизменно разочаровывает меня всякий раз, когда я читаю скептиков ИИ, так это их неспособность рассматривать эти параллели честно. «Квалиа», то есть первичные ощущения, и «близость» других людей принимаются как нечто само собой разумеющееся. Сомнению подвергается только квалиа машин.
Возможно, на это скептик мог бы ответить: я уверен, что другие люди думают, потому что я точно знаю, что сам я думаю, а другие люди выглядят, в общем-то, примерно так же, как я: у них тоже по пять пальцев на руках, волосы подмышками и т. п. Но робот-то выглядит иначе: он сделан из металла, у него есть антенна, он с трудом перемещается по комнате и т. п. Поэтому даже если робот действует так, как будто умеет думать, кто знает, думает ли он на самом деле? Но если я принимаю этот аргумент, то почему не пойти дальше? Почему я не могу сказать: я признаю, что белые люди думают, но что касается чернокожих и азиатов… кто знает? Выглядят они слишком непохоже на меня.
На мой взгляд, все сказанное об искусственном интеллекте можно разделить на две категории: те 70 %, которые содержатся где-то в работе Тьюринга 1950 г., и еще 30 %, что появились в результате полувека более поздних исследований.
Так что сегодня, спустя шестьдесят с лишним лет, мы можем сказать кое-что, что удивило бы Алана Тьюринга. Что именно? Ну, во-первых, насколько мал оказался прогресс в этом направлении по сравнению с ожиданиями! Вы ведь помните, что Тьюринг сделал проверяемое предсказание?
Я уверен, что лет через пятьдесят станет возможным программировать работу машин с емкостью памяти около 109 так, чтобы они могли играть в имитацию настолько успешно, что шансы среднего собеседника установить присутствие машины через пять минут после того, как он начнет задавать вопросы, не поднимались бы выше 70 %.
Какова судьба этого предсказания? Во-первых, отметим, что предсказание о собственно компьютерах оказалось чертовски точным. Тьюринг предсказал, что через 50 лет (т. е. в 2000 г.) мы будем программировать компьютеры с емкостью памяти примерно в 109 (т. е. 1 гигабайт).
Но что с программированием компьютеров, способных пройти тест на имитацию человека? Какова судьба этого предсказания Тьюринга?
Ну, некоторые из вас, возможно, слышали о программе под названием ELIZA, которую написал в 1966 г. Джозеф Вейценбаум. Эта программа моделирует психотерапевта, который все, что бы вы ему ни сказали, возвращает вам же в виде вопросов. Вейценбаум выяснил поразительную вещь: многие люди готовы открыть этой программе душу! И иногда, если рассказать, что беседовали они с программой (причем чрезвычайно простой), они не хотят этому верить.
Много лет назад кому-то пришла в голову блестящая идея взять оригинальную программу ELIZA, запустить ее в чат провайдера America Online и посмотреть, что из этого получится. Если зайти на сайт http://fury.com/aoliza, можно увидеть там ужасно смешные (к счастью, анонимные) диалоги, в которых люди пытаются соблазнить программу, рассказывая ей о своих изменах и т. п. Вот одна из моих любимых бесед, в которой человек, прежде чем приступить к амурным домогательствам, сказал программе, что планирует в ближайшее время получить степень бакалавра бизнес-администрирования, а затем «вступить в корпоративное сотрудничество с компанией Starbucks».
Парень: Мне кажется, тебе нравится играть с моим сознанием
ELIZA: Твоим сознанием?
Парень: Дразнить меня, отказываясь участвовать в моих фантазиях
ELIZA: Твоих фантазиях?
Парень: О крышесносном сексе с тобой
ELIZA: А это как-то связано с тем фактом, что ты собираешься получить степень бакалавра, а потом вступить в корпоративное сотрудничество с компанией Starbucks?
В настоящее время искусство беседы между машиной и человеком продвинулось вперед по сравнению с тем, что показано в этом примере, но не слишком сильно. Создается впечатление, что на самом деле нам нужно пересмотреть тест Тьюринга: необходимо оговорить, что если мы хотим проверить интеллект компьютера, то и человек, который ведет беседу с машиной, должен обладать каким-то минимальным уровнем интеллекта.
Разумеется, часть проблемы здесь в том, что все эти люди были уверены, что разговаривают с человеком, а при прохождении теста Тьюринга человек будет пытаться отличить человека от компьютера. Так что нельзя, конечно, считать подобные беседы в чатах настоящим тестом Тьюринга; это просто забавно. Однако на протяжении уже пятнадцати лет человек по имени Хью Лёбнер проводит конкурс[17]17
http://www.loebner.net/Prizef/loebner-prize.html
[Закрыть], условия которого намного ближе к тому, что имел в виду Тьюринг. Здесь людям, участвующим в испытаниях, говорят, что их задача – отличить человека от компьютера, но многие беседы в записи выглядят не менее уныло, чем прежде, причем с точки зрения как машинного интеллекта, так и человеческого. (К примеру, женщину, которая пыталась завести интеллектуальную беседу о Шекспире, сочли компьютером, потому что «не может быть, чтобы человек знал столько всего о Шекспире…»)
Вы можете спросить: что если мы поручим вести разговор не человеку, а компьютеру? Оказывается, это вовсе не гипотетическая ситуация. В 2006 г. человек по имени Луис фон Ан получил премию Мак-Артура за (помимо всего прочего) работу над «капчами» – теми самыми тестами, которые используются на сайтах для отличения настоящих живых пользователей от спамботов. Я уверен, что вы с ними встречались, – знаете, такие прямоугольнички со странными изогнутыми буквами и цифрами, которые вы должны перепечатать. Ключевое свойство этих тестов – то, что компьютер должен уметь их генерировать и оценивать, но не пройти сам! (Похоже на то, как профессора готовят материалы для контрольных…) Только человек, причем любой человек, должен уметь проходить такие тесты. По сути, эти тесты используют слабости ИИ. (Впрочем, еще они пользуются вычислительной сложностью создания необратимых функций, до обсуждения которой мы дойдем позже.)
У капчей есть один интересный аспект: их создание уже привело к «гонке вооружений» между их программистами и программистами ИИ. Когда я учился в Беркли, несколько моих однокурсников написали программу[18]18
http://www.cs.sfu.ca/~mori/research/gimpy/
[Закрыть], способную пройти капчу под названием Gimpy в примерно 30 % случаев. Так что в каждом подобном случае капчи приходится усложнять, после чего творцы ИИ вновь берутся за дело, и т. п. Кто победит?
Вот видите: всякий раз, когда вы заводите себе новый аккаунт на почтовом сервере, вы непосредственно сталкиваетесь с вековой загадкой о том, что значит быть человеком…
Несмотря на все, что я сказал по поводу теста Тьюринга, кое-какие решительные успехи в области ИИ, безусловно, имели место. Все мы знаем о Каспарове и компьютере Deep Blue, слышали о компьютере Watson фирмы IBM (это тот компьютер, который выиграл в «Свою игру» у человеческого чемпиона Кена Дженнингса). Может быть, менее известно, что в 1996 г. при помощи программы под названием Otter была решена алгебраическая задача, продержавшаяся 60 лет и известная как гипотеза Роббинса[19]19
W. McCune, Solution of the Robbins Problem, Journal of Automated Reasoning 19:3 (1997), 263–276. http://www.cs.unm.edu/∼mccune/papers/robbins/
[Закрыть]; в свое время над ней работали Тарский и другие знаменитые математики. (Судя по всему, несколько десятилетий Тарский давал эту задачу своим лучшим студентам. Со временем, однако, он начал давать ее своим худшим студентам…) Формулировка задачи проста: можно ли, имея следующее три аксиомы:
• A или (B или C) = (A или B) или C
• A или B = B или A
• не (не (A или B) или не (A или не (B))) = A,
вывести в качестве следствия, что не (не (A)) = A?
Позвольте мне подчеркнуть, что это доказательство непохоже, к примеру, на доказательство Аппеля и Хакена гипотезы о четырех красках, где роль компьютера заключалась в основном в проверке тысяч вариантов. В данном случае все доказательство заняло 17 строк. Человек вполне способен проверить его вручную, ну и, скажем, я сам мог бы предложить такое решение (в принципе!).
Что еще? Есть мнение, что уже сегодня существует достаточно сложная система ИИ, которой почти все вы пользовались сегодня утром и будете еще пользоваться в течение дня. Что за система? Правильно, Google.
Вы можете взглянуть на любой из этих примеров – Deep Blue, гипотеза Роббинса, Google, наконец, Watson – и сказать, что это не настоящий ИИ. Это всего лишь система массивного поиска, поддержанная хитроумными программами. Замечу, что от подобных разговоров исследователи ИИ начинают лезть на стену. Они говорят: если бы в 1960-е гг. вы сказали кому-нибудь, что через 30 лет мы сможем обыграть в шахматы гроссмейстера мирового уровня, и спросили бы, можно ли будет считать такую систему искусственным интеллектом, вам бы ответили: разумеется, это будет ИИ! Но теперь, когда мы знаем, как это сделать, никто уже не считает это настоящим ИИ – это просто поиск. (Философы тоже жалуются на подобное: как только некое направление философии дает какой-то конкретный результат, оно тут же перестает называться философией, а начинает именоваться математикой или физикой!)
И еще один момент, который мы сегодня осознаем, но который во времена Тьюринга еще не осознавали до конца. Дело в том, что мы, пытаясь моделировать человеческий интеллект, соревнуемся с миллиардом лет эволюции. А это чертовски сложно. Одно из неочевидных следствий этого обстоятельства заключается в том, что намного проще запрограммировать компьютер на победу над Гарри Каспаровым в шахматной игре, чем научить компьютер распознавать человеческие лица при разных условиях освещения. Часто наиболее сложными для ИИ задачами оказываются те, что с легкостью выполняет любой пятилетний ребенок: структуры для их выполнения так прочно встроены в мозг эволюцией, что мы даже не задумываемся о них.
Были ли за последние 60 лет новые озарения и прорывы в отношении теста Тьюринга? На мой взгляд, очень немного. С одной стороны, была знаменитая «попытка озарения», известная как Китайская комната Сёрла. Эта штука была предложена около 1980 г. как аргумент в пользу того, что даже компьютер, который пройдет тест Тьюринга, не будет по-настоящему разумным. Суть дела здесь примерно в следующем. Допустим, вы не говорите по-китайски. Вы сидите в закрытой комнате, и кто-то передает вам через окошечко в стене листочки бумаги с вопросами, написанными по-китайски. При этом вы, справляясь с некой книгой инструкций, можете отвечать на эти вопросы (тоже по-китайски). В результате вы можете вести осмысленную беседу на китайском языке, не понимая при этом (по условию) ни слова по-китайски! Получается, что манипуляции с символами не обеспечивают понимания.
Как мог бы сторонник сильного ИИ ответить на подобные аргументы? Ну, он мог бы сказать: вы, может, и не понимаете китайского, но это делает за вас инструкция! Или, если хотите, понимание китайского – это эмерджентное свойство системы, состоящей из вас самих и справочника, в том же смысле, в каком понимание родного языка есть эмерджентное свойство нейронов человеческого мозга.
Сёрл отозвался на эти возражения так: прекрасно, а теперь просто заучите книгу инструкций наизусть! После этого не будет уже никакой «системы», помимо вашего мозга, но вы по-прежнему не будете «понимать» китайский. На что сторонник ИИ отвечает: в этом случае тоже присутствует «система»! Предположим, вы заучили инструкцию, тогда нам следует различать «первоначального» вас и новое, смоделированное существо, родившееся в результате вашего следования заученным правилам, – существо, которое, может быть, объединяет с вами тот единственный факт, что вы с ним обитаете в одном черепе. Такой ответ может показаться безумным, но только человеку, который никогда не изучал информатику. Любой компьютерщик совершенно спокойно скажет, что один вычислительный процесс (скажем, интерпретатор языка LISP) может породить другой, никак с ним не связанный вычислительный процесс (скажем, игру по управлению космическим аппаратом) посредством просто строгого следования некоторым правилам.
Лично я не знаю – об этом мы поговорим чуть позже, – является ли вывод мысленного эксперимента с китайской комнатой верным или неверным. Я не знаю, какие условия необходимы или достаточны для того, чтобы какая-то физическая система «понимала» китайский язык; я уверен, что этого не понимает ни сам Сёрл, ни кто бы то ни было еще. Но если рассматривать историю с китайской комнатой как рассуждение, то в нем есть некоторые аспекты, которые меня всегда раздражали. Один из них – неосознанная апелляция к интуитивным понятиям («это всего лишь инструкция, чтобы просто зачитывать ответы») в вопросе как раз того сорта, где, как мы должны понимать, на интуицию можно полагаться меньше всего. Второе – это двойные стандарты: идея о том, что кучка нервных клеток может понимать китайский, принимается не просто как очевидная, но как совершенно беспроблемная и не вызывающая даже намека на вопрос о том, почему напечатанная инструкция не может тоже понимать китайский. Третье, что раздражает меня в истории с китайской комнатой, – то, как старается автор дистанцироваться от возможной ошибки при выборе картины, или, если сформулировать иначе, раздражает попытка обойти весь вопрос вычислительной сложности чисто за счет внешних атрибутов. Нам предлагается представить себе, как кто-то перебирает клочки бумаги без какого бы то ни было понимания или представления об их содержании – примерно как глупый первокурсник, который пишет в контрольной (a + b)² = a² + b². Но о каком количестве клочков бумаги мы говорим? Насколько толстой должна быть книга инструкций и с какой скоростью вы должны отыскивать в ней соответствующее место, чтобы вести осмысленную беседу по-китайски хотя бы приблизительно в реальном времени? Если бы каждая страница книги соответствовала одному нейрону мозга человека, для которого китайский – родной язык, то мы, вероятно, говорили бы о книге инструкций размером по крайней мере с Землю, нужное место на страницах которой искали бы полчища роботов, передвигающихся с околосветовой скоростью. Если рассматривать ситуацию именно так, то не так уж сложно, наверное, представить, что порожденная нами громадная китайскоязычная сущность может обладать чем-то, что мы готовы назвать пониманием или проникновением в суть[20]20
Подробнее об этом см.: Scott Aaronson, Why Philosophers Should Care About Computational Complexity, in Computability: Turing, Gödel, Church, and Beyond (MIT Press, 2013; edited by Oron Shagrir), http://www.scottaaronson.com/papers/philos.pdf
[Закрыть].
Разумеется, все, кто говорит о подобных вещах, буквально на цыпочках обходят вопрос сознания. Понимаете, сознание обладает странным дуализмом: с одной стороны, есть мнение, что это самая загадочная из всех известных нам сущностей, а с другой – мы не только воспринимаем ее непосредственно, но в определенном смысле это единственная вещь, которую мы воспринимаем непосредственно. Ну, вы знаете: cogito ergo sum[21]21
«Мыслю – следовательно, существую» (лат.) – Прим. пер.
[Закрыть] и все такое прочее. К примеру, я в принципе могу ошибаться, считая, что на мне голубая рубашка, – может, у меня галлюцинации или еще что, – но я никак не могу ошибаться в том, что я воспринимаю ее голубой. (Ну а если могу, то это называется бесконечным регрессом.)
Хорошо, а есть ли у нас еще что-нибудь, что также дает ощущение абсолютной уверенности? Правильно, математика! Кстати говоря, я считаю, что именно сходством между математикой и субъективным восприятием в значительной степени объясняются «квазимистические» наклонности многих математиков. (Я уже слышу, как некоторые математики морщатся. Простите!) Физикам полезно понимать: когда говоришь с математиком, дело не обязательно в том, что он боится реального мира и потому уходит в этакую интеллектуальную мастурбацию. Может быть, для этого человека реальный мир просто никогда не был особенно реален!
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?