Электронная библиотека » Тоби Уолш » » онлайн чтение - страница 6

Текст книги "2062: время машин"


  • Текст добавлен: 10 июня 2019, 10:40


Автор книги: Тоби Уолш


Жанр: Прочая образовательная литература, Наука и Образование


Возрастные ограничения: +16

сообщить о неприемлемом содержимом

Текущая страница: 6 (всего у книги 18 страниц) [доступный отрывок для чтения: 6 страниц]

Шрифт:
- 100% +
Интеллект зомби

Люди, когда говорят об искусственном интеллекте, обычно делают акцент на слове «интеллект». В конце концов, это то, что делает нас особенными, то, чего мы пытаемся добиться, когда создаем ИИ. Однако я напоминаю людям, что слово «искусственный» имеет не меньшее значение. Возможно, в 2062 году мы придем к созданию совсем иного – очень искусственного – интеллекта, который будет существенно отличаться от нашего. Например, он может не иметь сознания.

Хорошая аналогия – полет. Мы, люди, очень успешно научились конструировать искусственный полет. Мы создали самолеты, которые летают быстрее скорости звука, пересекают океаны за несколько часов и перевозят тонны груза. Если бы мы попытались воспроизвести естественный полет, подозреваю, мы все еще стояли бы в конце взлетной полосы и махали крыльями. Однако мы подошли к проблеме с совершенно другой стороны – придумали статичные крылья и мощный двигатель. И естественный, и искусственный полет основываются на одной и той же теории аэродинамики, но предлагают разные решения проблемы. Естественное решение вовсе не обязательно самое простое[44]44
  9 октября 1903 года газета The New York Times опубликовала материал, который назывался «Летающие машины, которые не летают». Статья критиковала идею того, что люди, вероятно, скоро создадут летающие машины: «Нелепое фиаско, которое потерпела попытка воздушной навигации на летательном аппарате Лэнгли, было вполне ожидаемо всеми, кроме, может быть, прославленного секретаря Смитсоновского института, разработавшего этот аппарат, и его помощников. Можно предположить, что подобные летающие машины, которые действительно справятся со своими обязанностями, будут разработаны продолжительными совместными усилиями математиков и механиков через миллионы лет». Однако на самом деле понадобилось гораздо меньше времени. Всего спустя шестьдесят девять дней братья Райт продемонстрировали на практике возможность устойчивого полета на аппарате тяжелее воздуха над не защищенным от ветра пляжем рядом с Китти-Хок в Северной Каролине. Человечество нашло отличный от природного способ летать.


[Закрыть]
.

Искусственный интеллект тоже может оказаться совершенно другим подходом к проблеме. Например, быть неосознанной формой интеллекта. Этот феномен Дэвид Чалмерс называет интеллектом зомби. Мы можем создать разумный, даже очень разумный, но не имеющий самосознания ИИ. Такие машины уж точно будут казаться нам искусственным интеллектом. Интеллект зомби стал бы демонстрацией того, что разум и самосознание – отдельные друг от друга явления. Это был бы пример интеллекта без сознательности. Однако, если нам не удастся разработать сознание без интеллекта (что представляется маловероятным), интеллект зомби не станет доказательством раздельной природы этих двух феноменов. Один из них не может существовать без другого, но не наоборот.

Интеллект зомби был бы серьезным этическим подспорьем для человечества. В таком случае нам не пришлось бы беспокоиться по поводу наших взаимоотношений с ИИ. Мы смогли бы поручать им самые утомительные и продолжительные задания. Мы бы были уверены в том, что отключение не доставит им никаких страданий. С другой стороны, если ИИ все же не будет иметь интеллект зомби, возникнут определенные вопросы этики. Если машины будут обладать сознанием, нужны ли им права? В наше время ведутся кампании по предоставлению юридической личности большим обезьянам, таким как шимпанзе или гориллы. Получат ли ИИ подобные права при условии наличия сознания? Оставим ли мы за собой право их отключать?

Удивительный осьминог

Люди – не единственные сознательные существа на планете. Природа создала как минимум два разных варианта разума и сознания. Головоногие – особенно подкласс двужаберных, который состоит из беспозвоночных вроде осьминога, – обладают типом нервной системы, совершенно не похожей на нервную систему позвоночных. Головоногие – самые разумные из всех беспозвоночных.

Вероятно, это звучит не слишком убедительно, учитывая, что у беспозвоночных нет мозга. Однако интеллект головоногих поражает. Они используют инструменты. Они формируют группы и коммуницируют друг с другом во время охоты. Они могут открыть бутылку с отвинчивающейся крышкой. Головоногие, кажется, способны даже узнавать и запоминать людей. Отто, известный осьминог из Кобургского океанариума в Германии, смог выключить раздражающую его лампочку мощностью в две тысячи ватт, плеснув на нее водой. И это не единственный забавный пример того, как они умеют решать задачи, в том числе касающиеся побега из аквариумов.

В нескольких странах запрещено проводить тесты на головоногих как раз по причине их разумности. В Великобритании осьминог обыкновенный – единственное беспозвоночное, которое было защищено Конвенцией по защите экспериментальных животных, принятой в 1986 году. В Европе головоногие – единственные беспозвоночные, которые защищены Директивой 2010 года о защите животных, использующихся в научных целях.

Пути головоногих и людей разошлись около 600 миллионов лет назад, задолго до появления динозавров. В то время самые разумные существа на планете имели всего по несколько нейронов. Интеллект головоногих развивался совершенно в ином направлении. Три пятых от общего количества нейронов осьминога располагается в его восьми ногах. Каждая нога способна ощущать и думать самостоятельно. Можно представить, будто каждая нога имеет свой индивидуальный мозг. Трудно представить, каково это – быть осьминогом, чьи ноги действуют по собственной воле; возможно, это похоже на состояние алкогольного опьянения.

Эта странная экзотичная форма интеллекта напоминает нам, что ИИ может иметь совсем другой разум. Даже если нам удастся создать сознательный ИИ, он все равно может быть очень искусственным по сравнению с нашим. И это опять же может быть крайне полезно с этической точки зрения.

Коровы, свиньи и многие другие одомашненные животные тоже обладают определенной степенью разумности и сознательности. Однако частично потому, что они так на нас непохожи, мы предпочитаем не замечать, как неоднозначно мы с ними обходимся. Точно так же мы, возможно, будем вести себя с искусственными интеллектом. Так, как ни за что не повели бы себя по отношению к человеку.

Серьезные проблемы

Сегодняшние машины не чувствуют боли. Это не кажется удивительным, ведь они не имеют сознания, а боль тесно связана с этим свойством. Права человека можно представить как своеобразные способы не допускать причинения боли и страданий. То есть если машины не чувствуют боли, то они не должны иметь никаких прав?

С технологической точки зрения умение ощущать боль может оказаться полезным для машин в 2062 году. Должна ли это быть реальная боль или искусственная – вопрос, который остается открытым. Боль имеет внушительную эволюционную историю и, похоже, пошла на пользу не только людям, но и другим животным. Она может помочь роботам быстрее учиться на собственных ошибках. Мы убираем руку от огня не потому, что осознаём ущерб, который он нам причиняет, а потому, что нам становится очень больно. Возможно, роботам тоже не помешали бы подобные механизмы.

Однако наделение машин способностью чувствовать боль может иметь неоднозначные последствия. Они смогут страдать, а потому заслуживать прав, которые бы защищали их от этого. Это может ограничить сферу их применения, так как невозможно будет заставлять их выполнять грязную или опасную работу. К тому же, вместе со способностью ощущать боль мы должны будем дать им страх, который часто предваряет боль и не дает получить травму. Но и это еще не всё. Почему бы не наделить их другими человеческими эмоциями, такими как желание, счастье, интерес, удивление, недоумение или даже печаль?

Человек ведет эмоционально насыщенную жизнь. Эмоции, конечно же, тесно связаны с интеллектом. В большинстве случаев именно эмоции управляют нашим поведением. Именно они дают нам такое важное эволюционное преимущество: удивление помогает нам распознать нечто новое и потенциально опасное, а любопытство – совершать открытия и править миром. Хотим ли мы поделиться этими преимуществами с машинами?

Сегодня они не способны испытывать эмоции. Однако процесс ознакомления их с основами человеческих эмоций уже начался. Они могут, к примеру, определить агрессивность электронного письма. Это поможет им взаимодействовать с нами в долгосрочных отношениях.

Фильм «Она» в этом смысле попал в яблочко. В 2062 году ИИ будет действовать в качестве операционной системы. Мы постепенно придем к тому, чтобы взаимодействие между нами и ИИ велось в речевой форме. Исчезнут клавиатуры, информация начнет поступать к нему и выводиться обратно только с помощью речи. Этот диалог будет происходить везде: в разных комнатах квартиры, в машине, в офисе.

Для того чтобы сделать это общение более увлекательным, разработчики, вероятно, решат наделять машины собственной эмоциональной жизнью. Будут ли это реальные или поддельные эмоции – все еще неясно. Однако тот факт, что компьютеры, с которыми нам предстоит взаимодействовать в 2062 году, будут способны чувствовать, не вызывает сомнений.

Марвин, параноидальный робот из романа «Автостопом по галактике» Дугласа Адамса, очень здорово выразил эту мысль: «Ну и, конечно, у меня болят все диоды с левой стороны…».

Кроме болящих диодов, он также отличался некоторой депрессивностью:

Артур Дент: [Земля] была прекрасным местом.

Марвин: А там были океаны?

Артур Дент: О да! Великолепные огромные раскатистые океаны.

Марвин: Терпеть их не могу[45]45
  Адамс Д. Автостопом по галактике. М.: АСТ, 2017.


[Закрыть]
.

Эти вполне человечные черты сделали Марвина столь любимым читателями героем романа. К 2062 году мы можем рассчитывать на то, что подобные эмоции будут испытывать многие машины.

Проблема свободы воли

Даже в том случае, если сознание не станет такой большой проблемой для ИИ, нам придется обратиться к другому, не менее сложному, философскому вопросу. Это проблема свободы воли. ИИ освещает эту знакомую проблему совершенно с другого угла. Компьютеры – детерминированные машины. Они следуют четким инструкциям. Вероятно, цифровые приспособления (в частности, компьютеры) – наши самые детерминированные изобретения.

В аналоговом устройстве, таком, например, как термостат, есть погрешности и неопределенности, которые говорят нам о том, что он может повести себя непредсказуемо. Даже простейшие системы могут иметь настолько хаотичные петли обратной связи, что предсказать их поведение будет невозможно. В цифровом девайсе подобной неоднозначности нет. Либо ноль, либо единица. Нет никакого элемента непредсказуемости или случайности. Компьютеры – физическое воплощение математической логики, поэтому они точны и однозначны, как она сама. Один плюс один всегда будет равняться двум. Квадратный корень из девяти всегда будет равен трем.

Как же в таком случае ИИ, программа, запущенная на детерминированном компьютере, может обладать свободой воли? Этой темы большинство ученых старается избегать. Как ученые мы понимаем, что не вполне способны объяснить ее. Мы составляем математические уравнения для точного расчета времени, в которое произойдет вспышка нейрона. Мы определяем химические способы добиться того или иного результата. Мы обсуждаем перенос ионов, который описывается точными дифференциальными уравнениями. Есть ли среди этих моделей место для свободы воли?

Но эта проблема существует не только в области ИИ. Наука до сих пор пытается описать тот же феномен применительно к нашему собственному мозгу. Свободная воля может прятаться в лакунах, оставленных нашими научными познаниями о мозге. Квантовая неопределенность – одна из таких лакун.

Сэр Роджер Пенроуз[46]46
  Роджер Пенроуз (р. 1931) – английский физик и математик, работающий в различных областях математики, общей теории относительности и квантовой теории; автор теории твисторов. Среди наград – премия Вольфа (1988, совместно с С. Хокингом) и медаль Копли (2008).


[Закрыть]
, один из самых известных критиков идеи искусственного интеллекта, утверждал, что мозг не действует на основании алгоритмов, а потому не может быть смоделирован в цифровом виде. Он предполагал, что квантовые эффекты играют важную роль в работе нашего мозга[47]47
  Для того чтобы подробнее вникнуть в дискуссию о квантовых эффектах и человеческом мозге, см. Roger Penrose (1989) The Emperor’s New Mind: Concerning Computers, Minds, and the Laws of Physics, New York, Oxford University Press.


[Закрыть]
. Ученые пока не пришли к единому выводу относительно этого предположения. Однако даже если все действительно так, то ничего не мешает компьютеру смоделировать эти квантовые эффекты. Следовательно, встает вопрос: нашел Пенроуз то место, где прячется свободная воля?

Другим таким местом может быть сложность мира, внутри которого мы взаимодействуем. Возможно, свобода воли – это что-то, что возникает от контакта человека с окружающей средой. Как утверждал Дэниэл Деннет, свобода воли может быть иллюзией, рождающейся от этой сложности[48]48
  Дэниел Клемент Деннет – американский философ и когнитивист, чьи исследования лежат в области философии сознания, философии науки и философии биологии.


[Закрыть]
.

Мы регулярно забываем, что причины принимаемых нами решений часто обусловлены сложностью нашего мира. То, что видится как свободный выбор, на деле оказывается результатом огромной запутанной схемы, в которой мы в действительности мелкие фигурки. Искусственный интеллект может помочь решить этот вопрос и выяснить, является ли свобода воли иллюзией.

Этичные роботы

Если разумные машины все же обретут свободу воли, то нам следует задуматься об их ценностях. Используют ли они эту свободу, чтобы творить зло? Даже при отсутствии у них свободы воли мы будем ждать от них этичного поведения.

Проблема состоит не только в том, насколько умны машины. Даже не очень развитый ИИ должен вести себя этично. Например, этот вопрос поднимается в контексте разговора об автономных автомобилях. Они пока не слишком умны, но мы уже доверяем им жизненно важные функции.

В плане этичности поведения у сознательных машин будет некоторое преимущество над бессознательными. Это может отразиться на их действиях – как в прошлом, так и в настоящем и будущем. Это может отразиться и на тех, кто каким-то образом будет зависеть от этих действий. Сложно представить себе создание робота, который правильно ведет себя без исполнительного слоя, подобного в каком-то смысле человеческому сознанию.

Что же должно составить этот слой, управляющий действиями робота? Может, стоит запрограммировать туда законы робототехники, придуманные Азимовым[49]49
  Айзек Азимов (1920–1992) – американский писатель-фантаст, биохимик, популяризатор науки. Родился в России. Некоторые термины из его произведений – robotics (роботехника, роботика), positronic (позитронный), psychohistory (психоистория, наука о поведении больших групп людей) – прочно вошли в английский и другие языки. Сформировал обязательные правила поведения для роботов, известные как «Три закона робототехники». Впервые сформулированы в рассказе «Хоровод» (1942). Наиболее известные экранизации по произведениям Азимова – «Двухсотлетний человек» (1999) и «Я, робот» (2004).


[Закрыть]
? Эти три положения писатель предложил в 1942 году:

• Первый закон. Робот не может причинить вред человеку или, вследствие своего бездействия, допустить причинение человеку вреда.

• Второй закон. Робот должен выполнять все приказы человека за исключением тех, которые противоречат Первому закону.

• Третий закон. Робот должен защищать свою жизнь за исключением тех случаев, когда это противоречит Первому или Второму законам.

Азимов утверждал, что эти законы взяты из пятьдесят шестого издания «Справочника по робототехнике», опубликованного в 2058 году. Я уверен, что к 2058 году Азимов окажется прав и у нас будут четкие этические инструкции для создания роботов. Однако рассказы писателя демонстрируют ограниченность этих трех законов. Что делать в случае, когда действие навредит одному человеку, а бездействие – другому? Что делать, если два человека отдают роботу приказы, противоречащие друг другу?

Проблема вагонетки – классический пример моральной дилеммы, которая ставит под вопрос законы Азимова. Предположим, вы сидите в вашей «тесле», которая движется автономно. Вдруг двое детей выбегают на дорогу за мячом. Собьет ли «тесла» этих детей или повернет и врежется в припаркованную рядом машину? У компьютера есть миллисекунды на принятие решения. Так или иначе, дело закончится травмой или смертью. Времени на то, чтобы отдать управление в ваши руки, нет. Если не делать ничего – погибнут дети. Если свернуть в припаркованную машину – погибнете вы. Законы Азимова не помогают «тесле» принять решение.

Ограниченность этих законов подчеркивается тем, что позднее Азимову пришлось добавить к ним четвертый:

• Нулевой закон. Робот не может причинить вред человечеству или своим бездействием допустить причинение вреда человечеству.

Закон назван нулевым потому, что он первостепенен по отношению к предыдущим трем законам. Закон включает в себя ситуации, в которых причинение вреда человеку может быть правильным решением для робота. Однако это все еще не объясняет, как решить проблему вагонетки/«теслы».

Нулевой закон Азимова, вообще говоря, создает новые проблемы. На основании чего робот может понять, что нечто способно навредить человеку? И что вообще значит слово «вред»? Как, например, определить, что важнее: благополучие тех людей, которые живут на планете, или тех, которые еще не родились?

Я предполагаю, что у нас может не получиться запрограммировать вручную этику для наших ИИ. Возможно, нам придется позволить им научиться этому самостоятельно. Этот подход тоже не вполне однозначен. Люди часто ведут себя не совсем в соответствии с собственными моральными стандартами. Поэтому машинам будет трудно научиться этичному поведению у нас.

Вообще-то, нам стоило бы, наверное, задать для машин более высокие этические стандарты, чем те, которых придерживаемся мы сами. Они не подвержены человеческим слабостям. Автономный автомобиль можно запрограммировать так, чтобы он никогда не превышал скорость. Вооруженный дрон можно запрограммировать так, чтобы он соблюдал международное гуманитарное право. Робота-адвоката можно запрограммировать так, чтобы он никогда не прятал найденные улики. Это занимательный вопрос, который остается открытым: как им выучить такие нормы сверхэтики?

Конец смерти

Наше сознание напрямую зависит от того, живы ли мы. Судя по тому, что известно современной науке, наше сознание умирает вместе с нами. Это дает нам повод поговорить о проблеме смерти. И придем мы к ней через разговор о трансгуманизме.

ИИ в наши дни стал своеобразным мейнстримом. Двадцать лет назад, когда я говорил людям о том, что занимаюсь искусственным интеллектом, они смеялись и шутили о том, насколько глупы компьютеры. Теперь же, когда ИИ проник во многие сферы нашей жизни, а некоторые даже улучшил, люди обычно говорят: «Вы занимаетесь ИИ? Здорово!». Общий искусственный интеллект тем не менее остается периферийной целью. Если начать подробно интересоваться этой периферией, она может вывести вас к проблеме трансгуманизма. Ею обычно занимаются люди, которые видят в ИИ способ обмануть смерть.

Интересный факт состоит в том, что большинство тех, кто видит в ИИ экзистенциальную угрозу, являются трансгуманистами. Разумеется, это не слишком удивительно. Раз уж вы готовите себя к вечной жизни, то вам однозначно есть что терять, в случае если ИИ соберется стереть человечество с лица земли. Еще более забавно наблюдать за теми, кто с нетерпением ждет появления ИИ, который, по их мнению, поможет им осуществить трансгуманистические мечты, но в то же время боится последствий его создания.

Как же искусственный интеллект может помочь преодолеть смерть? Наши биологические оболочки – не самая надежная вещь. Вирусы и бактериальные инфекции проникают сквозь естественную человеческую защиту. Наша иммунная система сбоит, дает раку завладеть организмом, одержать победу и убить нас. Механизмы восстановления перестают работать, позволяя нам стареть и изнашиваться. После шестидесяти-семидесяти лет мы уже начинаем свой путь на кладбище. Кремний стал бы для нашего разума более достойной оболочкой. Он быстрее, вместительнее и практически не разлагается. К тому же, учитывая, что цифровую информацию можно легко скопировать, мы всегда можем загрузить себя в новую идеальную оболочку.

Выходит, что в 2062 году мы просто загрузим наш мозг в облако и продолжим виртуальное существование? Учитывая преимущества цифрового субстрата, homo digitalis будут полностью цифровыми? Или останутся наполовину физическими, наполовину цифровыми? Ответы на эти вопросы зависят от природы сознания. Если оно представляет собой биологический феномен, то, загрузив себя в облако, мы потеряем нечто важное. Наш субститут может быть похож на нас. Он будет знать то же, что и мы. Он будет говорить то, что мы обычно говорим. Но он не будет нами. С другой стороны, если ИИ станут сознательными, то, вероятно, цифровая версия нас сможет унаследовать сознание, близкое к нашему естественному. Все, однако, не так просто.

К счастью, технические ограничения могут спасти нас от этической дилеммы. Возможно, сделать цифровую копию нашего биологического разума просто-напросто невыполнимая или непрактичная задача. Человеческий мозг с его миллиардами нейронов и триллионами синапсов – самая сложная система из известных нам в этой Вселенной. Кроме того, ее создание может оказаться возможным, но деструктивным. Мы сумеем прочитать содержимое мозга, но в результате будет уничтожен оригинал. В таком случае нам удастся создать искусственную копию, но мы потеряем естественный мозг. Это избавит нас от некоторых сложных этических и моральных вопросов, связанных с нашей идентичностью.

Виртуальная жизнь

Мой прогноз состоит в том, что мы сохраним нашу биологическую оболочку, но приобретем цифровых помощников для выполнения определенных задач. Мы также обретем аватары, которые будут действовать и говорить как мы, но только в цифровом мире. К 2062 году мы окажемся полностью погружены в виртуальный мир, который будет практически невозможно отличить от реального. Наши тела продолжат жить в физическом мире, однако мозг будет думать, что он находится в цифровом.

Эти виртуальные миры будут крайне привлекательными. Все смогут быть богатыми и знаменитыми. Все смогут быть красивыми и умными. Все смогут стать успешными. Всё станет возможно.

Реальный мир будет производить намного менее приятное впечатление. Неудивительно, что многие из нас окажутся зависимыми от подобного побега из реальности, проводя все свое время в виртуальной среде. Подобные тренды намечаются уже сейчас. В течение 2000-х американские мужчины в возрасте от двадцати одного года до тридцати лет, не имеющие высшего образования, проводят на работе на 20 % меньше времени. Вместе с тем многие все больше посвящают его видеоиграм. Значимый процент предпочитает игры встречам с друзьями, спорту или другим хобби. Эта группа составляет 40 % от всего играющего населения от двадцати одного года до пятидесяти пяти лет и 10 % всего населения в этом возрастном диапазоне. Для этой группы виртуальный мир все больше становится способом уйти от реальности.

Проблема виртуального мира заключается в том, что непременно найдутся люди, для которых он станет возможностью вести себя так, как не принято в мире реальном. Общество должно будет решить, необходимо ли делать незаконным в цифровом мире то, что незаконно в аналоговом. Другой возможный вариант – предусмотреть своеобразный «предохранительный клапан». Принять это решение будет непросто, а потому, полагаю, этот вопрос станет предметом ожесточенных дискуссий.

Внимание! Это не конец книги.

Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!

Страницы книги >> Предыдущая | 1 2 3 4 5 6
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации