Электронная библиотека » Сборник » » онлайн чтение - страница 3


  • Текст добавлен: 8 апреля 2020, 10:40


Автор книги: Сборник


Жанр: Прочая образовательная литература, Наука и Образование


Возрастные ограничения: +16

сообщить о неприемлемом содержимом

Текущая страница: 3 (всего у книги 22 страниц) [доступный отрывок для чтения: 7 страниц]

Шрифт:
- 100% +

Глава 2
Ограничения «непрозрачных» обучаемых машин

Джуда Перл

профессор компьютерных наук и директор Лаборатории когнитивных систем в Калифорнийском университете (Лос-Анджелес). Последняя из опубликованных им книг, в соавторстве с Даной Маккензи, называется «Книга почему: новая наука причин и следствий».


В 1980-е годы Джуда Перл предложил новый подход к разработке искусственного интеллекта – на основании байесовских сетей. Эта вероятностная модель машинного мышления позволяла машинам функционировать – в сложном и неопределенном мире – в качестве «локомотивов доказательств», постоянно пересматривая свои убеждения в свете новых свидетельств.

Всего через несколько лет байесовские сети Перла целиком вытеснили предыдущие подходы к искусственному интеллекту, основанные на правилах. Появление методики глубинного обучения – когда компьютеры фактически самообучаются и становятся умнее, обрабатывая мириады данных, – поставило Джуду перед новым вызовом, ведь эта методика лишена прозрачности.

Признавая несомненные заслуги в области глубинного обучения таких коллег, как Майкл И. Джордан и Джеффри Хинтон[26]26
  М. Джордан – статистик и специалист по машинному обучению, профессор Калифорнийского университета в Беркли; Дж. Хинтон – британо-канадский когнитивист, ведущий научный сотрудник проекта Google Brain, где ведутся исследования ИИ на основе методов глубинного обучения.


[Закрыть]
, Перл не готов мириться с указанной непрозрачностью. Он намеревается изучить теоретические ограничения систем глубинного обучения и утверждает, что существуют базовые препятствия, которые не позволят этим системам уподобиться человеческому интеллекту, что бы мы ни делали. Используя вычислительные преимущества байесовских сетей, Джуда осознал, что комбинация простых графических моделей и данных также может применяться для репрезентации и выведения причинно-следственных связей. Значение этого открытия намного превосходит исходный контекст исследований в сфере искусственного интеллекта. Последняя книга Перла[27]27
  Judea Perl. Causal Inference in Statistics: A Primer (with Madelyn Glymour and Nicholas Jewell). NY, Wiley, 2016. – Примеч. автора.


[Закрыть]
объясняет широкой публике суть каузального мышления; можно сказать, что это своего рода учебник для начинающих, которые хотят научиться мыслить, будучи людьми.

Принципиально математический подход к причинности (каузальности) представляет собой значительный вклад Перла в сферу идей. Обращение к этому подходу уже принесло пользу практически во всех областях исследований, в первую очередь в сфере цифровой медицины (data-intensive health – букв. информационно емкого здравоохранения) и социальных наук.


Как бывший физик, я всегда интересовался кибернетикой. Пусть она не использовала в полной мере всю мощь машин Тьюринга, кибернетика – чрезвычайно прозрачная область знаний, возможно, потому, что она опирается на классическую теорию управления и теорию информации. Сегодня мы постепенно теряем эту прозрачность в связи с углублением процессов машинного обучения. По сути, налицо подгонка кривой, когда происходит корректировка значений в промежуточных слоях длинной цепочки ввода-вывода.

Мне встречались многие пользователи, сообщавшие, что «все работает хорошо, но мы не знаем, почему так». Стоит применить такой подход к большим наборам данных, и глубинное обучение приобретает собственную динамику, самостоятельно регулируется и оптимизируется – и в большинстве случаев дает правильные результаты. Но когда этого не случается, никто не понимает, где именно допущена ошибка и что именно следует исправлять. Важнее всего то, что невозможно узнать, имеется ошибка в программе или методике – или каким-то образом изменилась среда. Поэтому нам нужна иная прозрачность.

Кое-кто заявляет, что в прозрачности на самом деле нет необходимости. Мы не понимаем нейронную архитектуру человеческого мозга, но она исправно функционирует, а потому мы прощаем себе наше скудное понимание и охотно пользуемся таким удобным подспорьем. Точно так же, утверждают некоторые, нужно просто применять системы глубинного обучения и создавать машинный интеллект, даже если мы не понимаем, как все это работает. Что ж, до определенной степени я могу согласиться с этим доводом. Лично мне непрозрачность не нравится, поэтому я не стану тратить свое время на глубинное обучение, но я знаю, что оно занимает некое место в структуре интеллекта. Я знаю, что непрозрачные системы способны творить настоящие чудеса, и наш мозг является тому убедительным доказательством.

Но этот довод имеет свои ограничения. Причина, по которой мы прощаем себе наше скудное понимание принципов работы человеческого мозга, заключается в том, что у разных людей мозг работает одинаково, и это позволяет нам общаться с другими людьми, учиться у них, обучать их и мотивировать на нашем родном языке. Будь все наши роботы такими же непрозрачными, как AlphaGo[28]28
  Компьютерная программа для игры в го, разработана в 2015 г.; получила дальнейшее развитие в программах AlphaGo Master, AlphaGo Zero и AlphaZero.


[Закрыть]
, мы не сможем вести с ними содержательные беседы, что весьма печально. Нам придется переобучать их всякий раз, когда вносятся минимальные изменения в условия задачи или в операционную среду.

Потому, оставляя в стороне эксперименты с «непрозрачными» обучаемыми машинами, я пытаюсь понять их теоретические ограничения и исследовать, каким образом эти ограничения могут быть преодолены. Я изучаю этот вопрос в контексте причинно-следственных задач, которые во многом определяют воззрения ученых на мир и в то же время изобилуют примерами проявления интуиции, вследствие чего мы можем отслеживать прогресс в ходе анализа. В данном контексте мы обнаружили, что существуют некоторые базовые препятствия, которые, если их не преодолеть, не позволят создать подлинный аналог человеческого разума, что бы мы ни делали. Полагаю, подробное описание этих препятствий не менее важно, чем попытки взять их штурмом.

Современные системы машинного обучения работают почти исключительно в статистическом режиме (или режиме модельной слепоты), который во многом аналогичен помещению функции в облако элементов данных. Подобные системы не способны размышлять по принципу «что, если?», а значит, не могут выступать основанием для «сильного» ИИ, то есть для искусственного интеллекта, который имитирует человеческие мышление и компетентность. Чтобы достичь человеческой разумности, обучаемые машины должны руководствоваться своего рода калькой с реальности, моделью наподобие дорожной карты, по которой мы ориентируемся, перемещаясь по незнакомому городу.

Точнее сказать, современные обучаемые машины улучшают свою производительность, оптимизируя параметры потока сенсорных входящих данных, получаемых из окружающей среды. Это небыстрый процесс, аналогичный естественному отбору, который движет дарвиновской эволюцией. Последняя объясняет, как такие виды, как орлы и змеи, обрели превосходное зрение за миллионы лет развития. Однако она не в состоянии объяснить сверхэволюционные процессы, которые позволили людям изобрести и начать производить очки и телескопы всего за какую-то тысячу лет. Люди обладают тем, чего лишены другие виды, а именно ментальными репрезентациями окружающей среды – репрезентациями, которыми возможно манипулировать по желанию, дабы воображать различные альтернативные и гипотетические среды в целях планирования и обучения.

Историки рода Homo Sapiens, скажем Юваль Ной Харари и Стивен Митен[29]29
  Ю. Харари – израильский историк, автор научно-популярного бестселлера «Sapiens: Краткая история человечества» (2011, рус. пер. 2016); С. Митен – английский археолог и популяризатор науки, автор книги «После ледникового периода: общая история человечества» (2003).


[Закрыть]
, в целом согласны с тем, что решающим фактором, который обеспечил нашим предкам глобальное господство на планете около сорока тысяч лет назад, была способность создавать и хранить ментальные репрезентации окружающей среды, обращаться к этим репрезентациям, искажать их посредством актов воображения и, наконец, отвечать на вопросы типа «Что, если?». Примерами могут служить вопросы интервенционные («Что, если я сделаю то-то и то-то?») и ретроспективные, или контрфактивные («Что, если бы я поступил иначе?»). Ни одна обучаемая машина в наши дни не способна давать ответы на такие вопросы. Более того, большинство обучаемых машин не обладают репрезентациями, из которых можно вывести ответы на подобные вопросы.

Отталкиваясь от причинно-следственного мышления, можно сказать, что для нас почти бесполезны любые формы подгонки кривых, модельной слепоты или статистического вывода, сколь бы сложным ни был процесс подгонки. Мы также выявили теоретические рамки для структурирования указанных ограничений по иерархическому признаку.

На первом уровне находится статистическое мышление, которое способно сообщить лишь о том, как наблюдение одного события изменит ваши взгляды на другие события. Например, что симптом может рассказать о болезни?

Далее располагается второй уровень, который опирается на первый, но не наоборот. Здесь помещаются действия. «Что будет, если мы поднимем цены?» «Что, если ты меня рассмешишь?» Этот второй уровень иерархии требует информации о вмешательствах, недоступной на первом уровне. Данную информацию можно закодировать в графическую модель, которая будет уведомлять, какие переменные реагируют на другие.

Третий уровень иерархии является контрфактуальным. Это язык, употребляемый учеными. «Что, если объект будет вдвое тяжелее?» «Что, если я поступлю иначе?» «Это от аспирина у меня перестала болеть голова или все дело в том, что я пошел спать?» Контрфактуальность занимает верхний уровень с той точки зрения, что ее невозможно вывести логически, даже умей мы предсказывать и предугадывать последствия всех своих действий. Тут необходим дополнительный элемент в форме уравнений, чтобы поведать нам, как переменные реагируют на изменения других переменных.

Одним из венчающих труды достижений в исследованиях причинно-следственных связей является алгоритмизация вмешательств и контрфактуальностей, то есть двух верхних уровней нашей иерархии. Иными словами, когда мы закодировали наше научное знание в модели (пусть даже качественной), налицо алгоритмы, позволяющие изучить модель и определить, возможно ли воспринять конкретный запрос, будь то вмешательство или контрфактуальность, на основе имеющихся данных (а если возможно, то как именно). Эта возможность кардинально изменила само занятие наукой, особенно в таких наукоемких дисциплинах, как социология и эпидемиология, где каузальные модели успели стать вторым языком. Указанные дисциплины трактуют описанную лингвистическую трансформацию как каузальную революцию. Цитируя социолога из Гарварда Гэри Кинга: «За последние несколько десятилетий о причинно-следственных связях стало известно намного больше, чем за всю предшествующую историю вопроса».

Размышляя об успехах машинного обучения и пытаясь экстраполировать их на будущее ИИ, я спрашиваю себя: «Известны ли нам базовые ограничения, которые были обнаружены в области причинно-следственных связей? Готовы ли мы преодолеть теоретические препятствия, мешающие нам переходить с одного уровня иерархии на другой?»

Я рассматриваю машинное обучение как инструмент, позволяющий перейти от данных к вероятностям. Но тогда следует сделать два дополнительных шага, чтобы перейти от вероятностей к реальному пониманию, – два больших шага. Один заключается в том, чтобы предсказывать последствия действий, а второй состоит в освоении контрфактуального воображения. Мы не вправе утверждать, что постигли реальность, если не сделаем эти два шага.

В своей блестящей и проницательной работе «Предвидение и понимание» (1961) философ Стивен Тулмин определил противостояние прозрачности и непрозрачности как ключевое условие осознания сути древнего соперничества между греческими и вавилонскими науками. Согласно Тулмину, вавилонские астрономы были мастерами предсказаний по «черному ящику» и сильно превосходили своих греческих соперников по точности и последовательности небесных наблюдений. Тем не менее наука предпочла креативно-умозрительную стратегию греческих астрономов, которая изобиловала метафорическими образами: круглые трубы, полные огня; малые отверстия, сквозь которые сияет небесный огонь (звезды); полусферическая Земля на спине гигантской черепахи… Именно эта безумная стратегия моделирования, а вовсе не вавилонские экстраполяции, побудила Эратосфена (276–194 годы до н. э.) предпринять один из наиболее творческих экспериментов Античности и вычислить окружность Земли. Подобный эксперимент был попросту невозможен среди вавилонских собирателей данных.

Модельная слепота накладывает внутренние ограничения на когнитивные задачи, которые способен выполнять «сильный» ИИ. Мой общий вывод состоит в том, что сопоставимый с человеческим ИИ нельзя создать только на основе машины с модельной слепотой; он требует симбиотического сотрудничества данных и моделей.

Наука о данных является наукой лишь в той мере, в какой она облегчает интерпретацию данных, – перед нами задача двух тел, связь данных и реальности. Данные сами по себе вряд ли окажутся наукой, какими бы «большими» они ни были и насколько бы искусно ими ни манипулировали. Непрозрачные обучаемые системы могут привести нас в Вавилон, но не в Афины.

Глава 3
Цель, заложенная в машину

Стюарт Рассел

профессор компьютерных наук и профессор-стипендиат по машиностроению в Калифорнийском университете (Беркли). Он автор (вместе с Питером Норвигом) книги «Искусственный интеллект: современный подход».

Ученый-компьютерщик Стюарт Рассел, наряду с Илоном Маском, Стивеном Хокингом, Максом Тегмарком и многими другими, настаивает на том, что следует уделять повышенное внимание тем потенциальным опасностям, которые сулит создание интеллекта сверхчеловеческого (или даже человеческого) уровня – так называемого ОИИ, общего искусственного интеллекта, чьи запрограммированные цели вовсе не обязательно будут совпадать с нашими собственными.

Ранние работы Рассела были посвящены описанию гипотезы «ограниченной оптимальности» как формального операционального определения интеллекта. Он разработал метод рационального метарассуждения, «суть которого, грубо говоря, заключается в том, что вы выполняете вычисления, которые, по вашим ожиданиям, улучшат качество итогового решения в максимально короткие сроки». Также Стюарт приложил руку к комбинированию теории вероятности с логикой первого порядка, благодаря чему возникла новая и гораздо более эффективная система мониторинга соблюдения условий договора о всеобъемлющем запрещении ядерных испытаний, и к задаче принятия долгосрочных решений (сам он предпочитает давать презентациям по последней теме названия вроде «Жизнь: играть и выигрывать за 20 триллионов ходов»).

Он сильно озабочен продолжающимися разработками автономного оружия, в частности смертоносных микродронов, которые можно с легкостью превратить в оружие массового уничтожения. Рассел составил черновик письма от имени сорока ведущих мировых исследователей ИИ к президенту Обаме, и его усилия ознаменовались рядом важных совещаний по вопросам национальной безопасности.

Ныне он сосредоточился на создании, повторяя его собственные слова, «доказуемо благотворного» ИИ. Стюарт желает гарантировать безопасность от ИИ за счет «внедрения явной неопределенности» в компьютерные системы: машины, таким образом, остаются в неведении относительно истинных целей людей-программистов, и подобный подход может привести к довольно радикальному переосмыслению тематики текущих исследований в области ИИ.

При этом имя Стюарта знакомо всем, кто обучался информатике и компьютерным наукам в последние двадцать лет. Вместе с соавтором он написал «полный» учебник по искусственному интеллекту, разошедшийся тиражом около 5 миллионов экземпляров на английском языке.


Среди множества вопросов, поднимаемых Норбертом Винером в книге «Человеческое применение человеческих существ» (1950) и сохраняющих актуальность по сей день, наиболее значимым для исследователей в области ИИ является вопрос, сформулированный следующим образом: «Возможно ли, что однажды человечество уступит машинам право распоряжаться своей судьбой?»

Винер считал машины ближайшего будущего слишком ограниченными для притязаний на глобальный контроль и предполагал, что посредством таких машин и машиноподобного контроля человеческие элиты низведут огромные массы людей до статуса «винтиков системы». Стараясь заглянуть в грядущее, он указывал на проблематичность правильной постановки целей для высокопроизводительных машин:

…мы узнаем некоторые элементарные и очевидные факты жизни, например: если найдешь джинна в кувшине, лучше его не выпускать; если рыбак слишком много раз просит благ от Небес по наущению своей жены, он останется ровно с тем, с чего начинал; если вам предложили три желания, нужно формулировать их с оглядкой на последствия.

Опасности достаточно очевидны:

Горе нам, если мы позволим ей [машине] определять наше поведение, прежде чем изучим законы ее действий и не будем полностью уверены, что ее работа строится на приемлемых для нас принципах. С другой стороны, подобная джинну машина, способная к обучению и принятию решений на базе этого обучения, никоим образом не окажется обязанной принимать те решения, какие приняли бы мы сами или какие были бы приемлемы для нас.

Десять лет спустя, увидев программу игры в шашки Артура Сэмюела, научившуюся играть намного лучше своего создателя, Винер опубликовал статью «Некоторые моральные и технические последствия автоматизации» в журнале «Сайенс». В этой статье он высказался недвусмысленно:

Если мы используем для достижения наших целей механического агента, в работу которого не можем эффективно вмешиваться… следует твердо удостовериться в том, что цель, заложенная в машину, есть та цель, к которой мы действительно стремимся…

На мой взгляд, вот источник того экзистенциального риска от разработки сверхинтеллектуального ИИ, о котором в последние годы говорили такие специалисты, как Илон Маск, Билл Гейтс, Стивен Хокинг и Ник Бостром.

Постановка целей перед машинами

Исследования в области ИИ до сих пор направлялись на понимание принципов, лежащих в основе интеллектуального поведения, и на «встраивание» этих принципов в машины, которые далее смогут демонстрировать такое поведение. В 1960-х и 1970-х годах преобладающей среди теоретиков характеристикой интеллекта считалась способность к логическим рассуждениям, включая также и умение планировать действия, гарантированно ведущие к достижению определенной цели. В последнее время получила признание и распространение концепция рационального агента, который воспринимает ожидаемую полезность и действует ради ее максимизации. Такие «субполя», как логическое планирование, робототехника и понимание естественного языка, являются частными случаями общей парадигмы. Исследования в области ИИ стали учитывать теорию вероятности для обработки неопределенностей, теорию полезности для определения целей и методики статистического обучения, призванные помочь машинам адаптироваться к новым обстоятельствам. Эти разработки обеспечили прочные связи исследований ИИ с другими дисциплинами, основанными на сходных концепциях, в том числе с теорией управления, экономикой, изучением операций и статистикой.

С точки зрения как логического планирования, так и деятельности рационального агента цель машины – будь то в форме «настоящей» цели, функции полезности или функции вознаграждения (как в обучении с подкреплением) – определяется экзогенно. Цитируя Винера, это «цель, заложенная в машину». Действительно, один из исходных принципов исследований ИИ гласит, что системы искусственного интеллекта должны быть универсальными, то есть способными воспринимать некую цель в качестве начального параметра и затем ее достигать, а вовсе не специализированными, где цель подразумевается конструкцией. Например, беспилотный автомобиль должен уметь принимать задаваемые разные пункты назначения, а не прокладывать маршрут к единственному фиксированному пункту назначения. Впрочем, некоторые характеристики «целей поездки» в беспилотных автомобилях остаются фиксированными: скажем, условие не давить пешеходов. Они встраиваются непосредственно в алгоритмы управления автомобилем, без явной формулировки: ни один современный беспилотный автомобиль не «знает», что пешеходам не нравится, когда их давят.

Постановка цели перед машиной, которая оптимизирует свое поведение в соответствии с четко определенными алгоритмами, кажется замечательным подходом, гарантирующим, что поведение машины будет опираться на «принципы, приемлемые для нас». Но еще Винер предупреждал, что мы должны научиться ставить правильные цели. Можно назвать эту задачу проблемой царя Мидаса: ведь тот получил ровно то, о чем просил, а именно превращение всего, к чему он прикасался, в золото, но слишком поздно для себя выяснил, что не так-то просто утолять жажду жидким золотом или насыщаться твердым золотом. Если воспользоваться техническим термином, постановка правильных целей – это юстировка ценностей. Когда данная процедура не срабатывает, мы непреднамеренно можем задать машинам цели, противоречащие нашим собственным. Например, решая задачу скорейшего поиска лекарства от рака, система искусственного интеллекта может счесть, что разумно использовать весь человеческий род в качестве подопытных морских свинок для своих экспериментов. В ответ на просьбу снизить кислотность Мирового океана она может ликвидировать весь кислород в атмосфере в качестве побочного эффекта. Такова общая характеристика систем, которые оптимизируют свою работу: переменные, не относящиеся к достижению цели, могут доводиться до предельных значений ради оптимизации способов достижения цели.

К сожалению, ни разработка ИИ, ни научные дисциплины (экономика, статистика, теория управления, изучение операций), предусматривающие оптимизацию целей, не способны внятно излагать методики выявления целей, «к которым мы на самом деле стремимся». Вместо этого они исходят из допущения, что цели просто «имплантируются» в машину. Исследования в области ИИ в их нынешнем виде направлены на изучение способности к достижению целей, а не на постановку этих целей.

Стив Омохундро указал на другое затруднение, отметив, что разумные существа должны действовать, чтобы обеспечивать свое существование. Это обстоятельство никак не связано с инстинктом самосохранения или любым другим биологическим понятием; все дело в том, что живое существо не способно достигать целей, если оно мертво. Согласно аргументам Омохундро, сверхразумная машина с выключателем – некоторые, включая самого Алана Тьюринга, если вспомнить его выступление на «Радио Би-би-си» в 1951 году, считают, что здесь таится наше потенциальное спасение, – предпримет какие-то меры для того, чтобы так или иначе деактивировать этот выключатель[30]30
  Steve Omohundro, «The Basic AI Drives», in Proc. First ОИИ Conf., 171: «Artificial General Intelligence», eds. P. Wang, B. Goertzel, & S. Franklin (IOS press, 2008). – Примеч. автора.


[Закрыть]
. Следовательно, перед нами встает перспектива появления сверхразумных машин, причем их действия, по определению, будут непредсказуемыми для нас, их нечетко определенные цели будут противоречить нашим собственным, а их мотивация к продлению своего существования ради достижения этих целей может оказаться важнее всякой другой.

1001 причина не обращать внимания

Разумеется, на эти аргументы выдвигаются возражения, прежде всего со стороны исследователей в области ИИ. Данные возражения суть естественная защитная реакция, возможно отягощенная недостатком воображения – в частности, относительно способностей сверхразумных машин. Но при ближайшем рассмотрении эти возражения не выдерживают критики. Давайте рассмотрим те, которые звучат чаще всего.

1. Не беспокойтесь, в случае чего мы просто выключим машину[31]31
  Исследователь искусственного интеллекта Джефф Хокинс, например, пишет: «Некоторые разумные машины будут виртуальными, то есть будут существовать и действовать исключительно в компьютерных сетях… Компьютерную сеть всегда можно отключить, даже если это будет тяжело». См.: https://www.recode.net/2015/3/2/11559576/. – Примеч. автора.


[Закрыть]
. Нередко эта мысль первой приходит на ум непрофессионалу при анализе рисков создания сверхразумного ИИ. Но он как будто не предполагает, что сверхразум этого не понимает. С тем же успехом можно утверждать, что шанс проиграть DeepBlue или AlphaGo ничтожен, если человек будет делать только правильные ходы.


2. Человеческий или сверхчеловеческий уровень для ИИ недостижим[32]32
  Доклад «AI-100» (Питер Стоун и др.), подготовленный по заказу Стэнфордского университета, сообщает следующее: «В отличие от того, что показывают в кино, расы сверхразумных роботов нет и не предвидится в обозримом или отдаленном будущем». См.: https://ai100.Stanford.edu/2016-report. – Примеч. автора.


[Закрыть]
. Это необычное заявление для разработчиков и исследователей ИИ, учитывая тот факт, что со времен Тьюринга они отбиваются от аналогичных претензий со стороны философов и математиков. Данное утверждение, не подкрепленное, по-видимому, никакими доказательствами, как бы признаёт, что, если сверхинтеллект вообще возможен, он будет представлять собой немалый риск для человечества. Как если бы водитель автобуса, куда вместилось все человечество, сказал: «Да, я еду к обрыву! Мало того, я давлю педаль газа до упора! Но не сомневайтесь, бензин кончится раньше, чем мы окажемся на краю!» Это заявление выглядит безрассудной ставкой против человеческой изобретательности. Мы делали такие ставки раньше – и проигрывали. 11 сентября 1933 года знаменитый физик Эрнест Резерфорд с полной уверенностью изрек: «Любой, кто ожидает получить источник энергии из превращения этих атомов, несет чепуху». 12 сентября 1933 года Лео Силард открыл ядерную цепную реакцию под действием нейтронов. Несколько лет спустя он продемонстрировал такую реакцию в своей лаборатории в Колумбийском университете. Как он вспоминал позднее: «Мы выключили все приборы и пошли домой. Той ночью я практически уверился в том, что мир обречен на гибель».


3. Еще слишком рано беспокоиться. Когда именно начинать беспокоиться о потенциально серьезных проблемах человечества – это зависит не только от момента возникновения проблем, но и от сроков разработки и реализации решений, позволяющих с ними справиться. Например, обнаружив сегодня большой астероид, который, по расчетам, должен столкнуться с Землей в 2067 году, скажем ли мы, что беспокоиться рано? А если рассматривать глобальные катастрофические риски, которыми чревато изменение климата (как ожидается, все случится уже в текущем столетии), неужели рано принимать меры по их предотвращению? Наоборот, может быть уже поздно. Релевантные временны́е рамки для искусственного интеллекта человеческого уровня менее предсказуемы, но, как и в случае ядерной реакции, подходящие условия могут сложиться значительно раньше, чем ожидалось. Одним из вариантов данного возражения является заявление Эндрю Энга[33]33
  Американский ученый, инвестор и предприниматель, соучредитель проекта Google Brain, бывший вице-президент китайской технологической корпорации «Байду», пионер онлайн-обучения (соучредитель проекта Coursera) и т. д.


[Закрыть]
 – мол, «с тем же успехом можно беспокоиться насчет перенаселенности Марса». Что ж, перед нами обращение к вроде бы очевидной аналогии: риск видится управляемым и относится к далекому будущему, а также крайне маловероятно, что мы вообще попытаемся переселить миллиарды людей на Марс. Но аналогия вводит в заблуждение. Уже выделяются колоссальные научные и технические ресурсы на разработку все более передовых систем ИИ. Более подходящей аналогией стал бы план по переселению человечества на Марс без единой мысли о том, как мы там будем дышать, что есть и пить по прибытии.


4. В любом случае человекоподобный искусственный интеллект не обязательно возникнет. К примеру, авторы доклада «AI-100» заверяют нас: «Вопреки чрезмерно фантастическим прогнозам по поводу ИИ в популярной прессе, исследовательская группа не нашла поводов для беспокойства относительно того, что ИИ является непосредственной угрозой человечеству». Это утверждение просто-напросто маскирует причины опасений, ведь нас тревожит отнюдь не неизбежность угрозы. В своей книге «Искусственный интеллект. Этапы. Угрозы. Стратегии»[34]34
  Издание на русском языке: Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии. М.: Манн, Иванов и Фарбер, 2016.


[Закрыть]
Ник Бостром пишет: «В этой книге вовсе не утверждается, что мы стоим на пороге большого прорыва в области искусственного интеллекта или что мы можем предсказать с любой степенью точности, когда подобное может произойти».


5. Да вы просто луддиты. Довольно странное определение луддитов, включающее в себя Тьюринга, Винера, Минского, Маска и Гейтса, то есть тех людей, которые непосредственно причастны к техническому прогрессу XX и XXI столетий[35]35
  Илон Маск, Стивен Хокинг и прочие (включая, к слову, и автора этих строк) удостоились приза «Луддит года» в 2015 г. от Фонда инновационных информационных технологий: См.: https://itif.org/publications/2016/01/19/artificial-intelligence-alarmists-win-itif%E2%180%199s-annual-luddite-award. – Примеч. автора.


[Закрыть]
. Кроме того, эпитет «луддит» отражает полное непонимание природы нашей озабоченности и причин ее возникновения. Точно так же можно обвинять в луддизме инженеров-ядерщиков, когда те рассуждают о необходимости контролировать ядерные реакции. Некоторые еще употребляют термин «анти-ИИ», и, продолжая аналогию, инженеров-ядерщиков можно было бы называть «антифизиками». Цель понимания и предотвращения рисков разработки ИИ состоит в том, чтобы обеспечить реализацию всех выгод такой разработки. Бостром, например, пишет, что успехи в «подчинении» ИИ обеспечат «вступление на цивилизационную траекторию, которая ведет к лучшему исходу – на благо всего человечества»; при всем желании вряд ли возможно увидеть здесь пессимистический прогноз.


6. Любая машина, достаточно умная для причинения неприятностей, будет достаточно умной для постановки соответствующих альтруистические целей[36]36
  Родни Брукс, например, утверждает, что невозможно создать настолько умную программу, чтобы «она могла изобрести способы разрушить человеческое общество для достижения целей, поставленных перед нею людьми, не сознавая, что тем самым вредит своим создателям». См.: http://rodneybrooks.com/the-seven-deadly-sins-of-predicting-the-future-of-ai. – Примеч. автора.


[Закрыть]
. (Нередко этот довод предваряется утверждением, что по-настоящему умные люди, как правило, ставят перед собой более альтруистические цели; такая точка зрения может отражать самооценку тех, кто ее высказывает.) Этот довод связан с «гильотиной Юма» и натуралистической ошибкой Дж. Э. Мура[37]37
  Гильотина (принцип) Юма – невозможность перехода от описательных суждений к предписывающим (вида «так есть – так должно быть»); по имени шотландского философа Д. Юма, утверждавшего, что не следует выводить моральные нормы из знаний о сущем. Натуралистической ошибкой английский философ Дж. Мур считал стремление дать определение добру как таковому и желание выводить этику из внеэтических явлений.


[Закрыть]
; предполагается, что каким-то образом машина, обретя разумность, сама поймет, что правильно, исходя из опыта познания мира. Это совершенно неправдоподобно; например, по дизайну шахматной доски и шахматных фигур невозможно понять цель шаха и мата, а та же шахматная доска и те же фигуры могут быть использованы для игры в поддавки и многих других игр, которые только предстоит изобрести. Иными словами, Бостром воображает людей, истребляемых роботом, который превращает планету в море скрепок; мы, люди, воспринимаем такой исход как трагический, тогда как потребляющая железо бактерия Thiobacillus ferrooxidans пребывает в восторге от перспективы. Кто посмеет заявить, что бактерия не права? Сам факт того, что цели машинам задаются людьми, вовсе не означает, что машины автоматически оценят значимость объектов, не относящихся к цели, для людей. Максимизация цели вполне может доставить проблемы людям, но, по определению, машина не распознает эти проблемы как таковые.


7. Разумность многомерна, а потому выражение «умнее людей» лишено смысла[38]38
  Kevin Kelly, «The Myth of a Superhuman AI», Wired, Apr. 25, 2017. – Примеч. автора.


[Закрыть]
. Одна из посылок современной психологии гласит, что показатель IQ не характеризует в полной мере все богатство когнитивных навыков, присущих людям в той или иной степени. Показатель IQ дает весьма приблизительную оценку человеческому интеллекту – и совершенно бесполезен для современных систем искусственного интеллекта, поскольку их возможности в разных областях не коррелируют между собой. Как сравнивать IQ поисковой системы Google, которая не умеет играть в шахматы, и тот же показатель суперкомпьютера DeepBlue, неспособного реагировать на поисковые запросы?


Ничто из сказанного не подтверждает, будто, поскольку интеллект многомерен, мы вправе игнорировать потенциальные риски создания сверхразумных машин. Если выражение «умнее людей» лишено смысла, то таково и выражение «умнее горилл», а потому гориллам нечего опасаться людей; ясно, что этот аргумент не выдерживает критики. Логически возможно, что одно существо может оказаться способнее другого в том или ином соответствующем измерении разума, и также возможно, что один вид живых существ будет представлять экзистенциальную угрозу для другого, даже если первый не обладает пониманием музыки и литературы.

Решения


Страницы книги >> Предыдущая | 1 2 3 4 5 6 7 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации