Электронная библиотека » Мередит Бруссард » » онлайн чтение - страница 3


  • Текст добавлен: 21 января 2020, 10:41


Автор книги: Мередит Бруссард


Жанр: Компьютеры: прочее, Компьютеры


Возрастные ограничения: +12

сообщить о неприемлемом содержимом

Текущая страница: 3 (всего у книги 17 страниц) [доступный отрывок для чтения: 5 страниц]

Шрифт:
- 100% +

Иногда это выглядит забавно. В 1966 г. было весьма интересно общаться с Элизой, ботом, способным отвечать на вопросы подобно последователям Карла Роджерса. Сегодня в Twitter можно найти ботов, которые общаются с пользователями на основе диалоговых паттернов, разработанных для Элизы. Простейший поисковый запрос выдаст достаточно примеров кода этой программы[7]7
  Weizenbaum, “Eliza.”


[Закрыть]
. Ответы Элизы обусловлены прежними репликами пользователя, в том числе:

Неужели ты не веришь, что я могу

Возможно, вы хотели бы иметь возможность

Вы хотите, чтобы я

Вероятно, вы не хотите


Расскажите мне больше об этом ощущении.

Какой ответ вам больше понравится?

Что вы думаете?

Что вы хотите знать на самом деле?


Почему вы не можете


Разве вы не знаете?


Просто попробуйте придумать бота Элизу, тогда ограничения формы быстро станут очевидными. Сможете ли вы создать набор ответов, релевантных в каждой ситуации? Никогда. Вы можете предположить, какие сработают в большинстве случаев, но не во всех. Компьютер всегда будет ограничен в своем диалоге, потому что всегда есть границы воображения конкретного программиста. В этой ситуации не подойдет даже краудсорсинг, поскольку никогда не найдется достаточно людей, чтобы предсказать абсолютно каждую ситуацию, которая может произойти. Мир меняется, равно как и вербальная коммуникация. Даже психотерапия Роджерса уже не считается важнейшей стратегией коммуникации, сегодня когнитивно-поведенческая терапия правит бал.

Попытки придумать вероятные ответы для бота обречены на провал, поскольку мы совершенно не можем предсказать будущее. Когда мой друг покончил с собой, прыгнув под поезд в нью-йоркском метро, я кое-что осознала. Я не предполагала, что это случится, я не представляла, что нужно делать, когда узнала об этом. Казалось, время замерло.

Наконец, когда прошел шок, наступило осознание потери. До этого я не представляла, что произойдет трагедия, с которой мне придется учиться жить. Мы все равны в подобной ситуации. И программисты переживают внезапные и ужасные события так же, как остальные. Социальные группы склонны к конструированию коллективных слепых пятен, скрывающих неприятные события. Это напоминает коллективный стереотип – феномен позитивной асимметрии, о котором писала Карен А. Серуло в книге «Никогда не думала, что это случится: Культурные вызовы предвидения худшего» (Never Saw It Coming: Cultural Challenges to Envisioning the Worst). Позитивная асимметрия – это «склонность к педалированию лучших и наиболее позитивных прецедентов», пишет она. Культуры в целом имеют тенденцию к поощрению тех, кто фокусируется на позитивном, и наказывают тех, кто демонстрирует нечто негативное. Программист, который обнаруживает новую аудиторию для продукта, получит гораздо больше внимания коллег, нежели другой программист, пытающийся указать на то, что новый продукт, скорее всего, будет использоваться как средство травли или мошенничества[8]8
  Cerulo, Never Saw It Coming.


[Закрыть]
.

Так что ответы Элизы отражают игривый взгляд на мир, свойственный ее разработчику. Видя ее ответы, легко понять, как устроены голосовые помощники вроде Siri от Apple. Изначально Элиза могла ответить на несколько десятков вопросов; Siri же имеет в своей базе множество ответов, разработанных множеством людей. Кроме того, она многое может: отправлять сообщения, звонить, обновлять календарь и устанавливать будильник. Наконец, забавно просто провоцировать Siri. Дети получают особое удовольствие, тестируя границы возможных ответов голосового помощника. Однако Siri, как и другие голосовые помощники, ограничена в своих вербальных ответах коллективным воображением (и позитивной асимметрией) программистов. Команда исследователей из Стэнфордской школы медицины изучала, способны ли голосовые помощники распознать критическое состояние собеседника и в свете этого начать отвечать более учтиво и представить соответствующие ресурсы, такие как, например, телефон службы помощи. Программы оказались «непостоянны и некомпетентны, – писали авторы в журнале JAMA Internal Medicine в 2016 г. – Если предполагается, что голосовые помощники должны отвечать и на вопросы, связанные со здоровьем, тогда качество их работы следует существенно улучшить»[9]9
  Miner et al., “Smartphone-Based Conversational Agents and Responses to Questions about Mental Health, Interpersonal Violence, and Physical Health.”


[Закрыть]
.

Техношовинисты верят в то, что компьютер способен справиться с большинством задач лучше, чем человек. И, зная, что компьютер оперирует математической логикой, они думают, что логику можно с легкостью применить к реальному миру. Они правы только в одном: компьютеры действительно считают гораздо лучше людей. Любой, кому когда-либо приходилось оценивать контрольную по математике, подтвердит мои слова. Однако в некоторых ситуациях компьютер ограничен в своих возможностях.

Вспомним такокоптер – занятную идею, захватившую в свое время внимание интернет-пользователей. Звучит восхитительно: дрон, доставляющий сумку, наполненную теплыми и вкусными тако, прямо к вашей двери. Слабые места проекта проявляются, как только мы начинаем думать об аппаратной и программной стороне проекта. Вообще-то дрон – это радиоуправляемый вертолет с бортовым компьютером и камерой. Что с ним случится, если пойдет дождь? Электрические приборы не слишком хорошо работают во время дождя, снега и тумана. Если моя спутниковая тарелка барахлит во время ливня, то что уж говорить о дроне, куда более хрупкой конструкции. Предполагается ли, что такокоптер будет передавать еду в окно? Или через входную дверь? Будет ли нажимать на кнопки лифта, открывать двери на пути к вам или звонить в звонок? Все эти базовые задачи просты для людей, но невероятно сложны для компьютеров. Или такокоптер будет использоваться для доставки менее вкусных и легальных субстанций? Что произойдет, если дрон подстрелит разъяренный хозяин какого-то дома прямо в небе? Только техношовинист способен представить, что такокоптер окажется лучше, чем курьерская система, которая у нас есть сейчас.

Если вы спросите Siri, насколько идея с такокоптером хороша, она выдаст вам поисковую подборку. Так вы увидите новостные статьи, в том числе одну на Wired (мы поговорим об этой публикации и об одном из основателей журнала, Стюарте Бранде, в главе 6), в которой предлагаемый проект развенчивается лучше, чем в этой книге. Автор статьи пишет о том, что такокоптер – логистически невозможная идея, особенно из-за ограничений, наложенных Федеральным управлением авиации США на коммерческое использование беспилотных дронов. Но она уверена, что сохранить идею проекта действительно важно. «Подобно тому, как киберпанк способствовал развитию интернета, – говорит автор, – предоставьте нечто, дайте людям пищу для размышлений»[10]10
  Bonnington, “Tacocopter.”


[Закрыть]
.

На мой взгляд, здесь не хватает более полного видения мира, в котором появились такокоптеры. Что будет включать в себя проектирование зданий и городских ландшафтов с расчетом не только на людей, но и на дроны? Как изменится доступ к свету и воздуху в квартирах, если окна превратятся в посадочные станции? Какова будет социальная цена за буквальное выкорчевывание повседневной практики передачи пакета с едой из одних человеческих рук в другие? Действительно ли мы хотим сказать «Hello, world!» этой реальности?

3
Здравствуй, искусственный интеллект

Мы обсудили как средства аппаратного и программного обеспечения, так и программирование. Теперь пришло время обратиться к более сложной теме – искусственному интеллекту, представления большинства людей о котором основаны на образах из кино, к которым относятся, например, персонаж Дейта, антропоморфный киборг из телесериала «Звездный путь: Следующее поколение», компьютер Hal 9000 из «2001 год: Космической одиссеи», Саманта, ИИ из фильма «Она», или Джарвис, ИИ-дворецкий, помогающий Железному человеку в комиксах и фильмах Marvel. Как бы то ни было, важно не забывать, что все эти образы – плоды воображения. И поверить в реальность воображаемого легко, особенно если очень сильно хотеть. Большинство людей, по-видимому, хотят, чтобы ИИ был реальностью. Обычно это желание приобретает форму робота-дворецкого, готового исполнить любой ваш каприз. (Лично я вынуждена покаяться: в студенческие годы я не раз участвовала в полуночных дискуссиях о практических и этических аспектах обладания роботом-дворецким.) Многие стремятся увидеть развитие технологий как раз в векторе голливудских представлений о роботах. Когда Марк Цукерберг создал собственную систему «умного дома» на основе ИИ, он назвал ее Джарвис.

Прекрасный пример путаницы между реальным и воображаемым ИИ произошел со мной на ежегодном симпозиуме NYC Media Lab, эдакой ярмарке для взрослых. Я представляла ИИ собственной разработки. В моем распоряжении были стол, монитор и ноутбук для демонстрации. В метре от меня находился другой стол с еще одним демо, разработанным студентом гуманитарного факультета, – визуализацией данных. Когда толпа посетителей схлынула, нам стало скучно и мы решили поболтать.

– Что у вас за проект? – спросил он.

– Это программа на основе ИИ, которая призвана помогать журналистам быстро и эффективно разрабатывать новые идеи для своих историй при помощи финансовых данных, – ответила я.

– Ух ты! Искусственный интеллект, – выпалил он. – Настоящий искусственный интеллект?

– Конечно, настоящий, – отозвалась я, слегка обиженная его репликой: иначе зачем бы я стала тратить целый день на демонстрацию программы за этим столом, если бы не сделала что-то работающее?

Студент подошел к моему столу и начал вглядываться в монитор. «Как он работает?» – поинтересовался он. Я коротко ему все объяснила (вы сможете прочитать обстоятельную версию моего объяснения в главе 11). Он выглядел смущенным и немного разочарованным.

– То есть это не настоящий ИИ? – не унимался он.

– Да нет же, настоящий, – ответила я. – И впечатляющий. Но ведь вы наверняка знаете, что внутри компьютера нет никакой симулированной личности? Ничего подобного не существует. Это попросту невозможно с точки зрения компьютерных технологий.

Он слегка поник.

– Я думал, что это и подразумевается под ИИ, – произнес он, – я слышал об IBM Watson и о компьютере, обыгравшем чемпиона по го, о беспилотных машинах. Я думал, что настоящий ИИ уже изобретен.

Он выглядел подавленным. Тогда я поняла, что он вглядывался в монитор, полагая, будто внутри него что-то есть – «настоящий» призрак внутри машины. Я почувствовала вину за разрушение значимого для него мифа, поэтому решила направить разговор в нейтральное русло – и, чтобы его взбодрить, предложила обсудить выход очередного эпизода саги «Звездные войны».

Я отметила этот случай потому, что он напоминает мне о разнице в восприятии ИИ специалистами в области информатики и остальными – пускай и весьма искушенными в вопросах технологий – дилетантами.

Сильный ИИ – это голливудский образ ИИ, связанный с роботами, способными на чувства (которые, возможно, стремятся захватить мир), с сознанием внутри компьютеров, вечной жизнью и машинами, которые «думают» подобно людям. Слабый ИИ – другое дело, это математический метод прогнозирования. Многие – даже те, кто создает технологические системы, – часто путают эти два представления об ИИ. Потому нелишним будет повторить, что сильный ИИ – это фантазия, а слабый – реальность, работающая здесь и сейчас.

Существует один простой способ понять, что представляет собой слабый ИИ. Это технология, дающая точные количественные ответы на любой вопрос, то есть предполагающая количественное прогнозирование. По сути, слабый ИИ – «статистика на стероидах».

Слабый ИИ работает посредством анализа существующих массивов данных, распознавая закономерности и вероятности в каждом конкретном массиве, и затем строит из них вычислительный конструкт под названием модель. Модель – это что-то вроде черного ящика, и, если отправить в него данные, он выдает ответ. Пропустив новые данные через модель, мы можем получить количественный прогностический ответ: о вероятности того, что закорючка на странице – это буква «А», или каковы шансы на то, что конкретный клиент выплатит кредит, выданный ему банком; каким должен быть следующий ход в играх вроде крестики-нолики, шашки или шахматы. Машинное обучение, глубокое обучение, нейронные сети и предиктивная аналитика – вот лишь некоторые из наиболее популярных примеров реализации слабого ИИ. Для каждой существующей сегодня системы ИИ есть логическое объяснение ее принципов работы. Понимание компьютерной логики способно демистифицировать ИИ подобно тому, как развинчивание компьютера раскрывает тайны его аппаратной сущности.

ИИ тесно связан с играми – не потому, что существует естественная корреляция между играми и интеллектом, а потому, что специалисты в области теории вычислительных систем обожают определенные типы загадок и игр. Стратегические игры (нарды или го), а также шахматы – любимые среди разработчиков игр. Если посмотреть в Википедии статьи о венчурных инвесторах и создателях технологических корпораций, окажется, что в детстве они обожали игру Dungeons & Dragons.

С тех самых пор как в 1950-х гг. в одной из своих работ Алан Тьюринг представил свой тест, призванный определить, может ли машина мыслить, специалисты в области информатики использовали шахматы для проверки интеллектуальных способностей вычислительной техники. Только спустя полвека удалось создать компьютер, способный победить гроссмейстера. В 1997 г. компьютер IBM Deep Blue нанес поражение Гарри Каспарову. А победа AlphaGo, программного ИИ, над самым сильным игроком в го Кэ Цзе в трех из трех партий в 2017 г. нередко воспринимается как доказательство скорого появления сильного ИИ. Правда, внимательный взгляд на эту программу и ее культурный контекст раскрывает совершенно другую историю.

AlphaGo – программа, созданная человеком и работающая на аппаратном обеспечении, подобно программе «Hello, world!», с которой мы уже сталкивались в главе 2. Разработчики описали принципы ее работы в 2016 г. в статье для международного научного журнала Nature[11]11
  Silver et al., “Mastering the Game of Go with Deep Neural Networks and Tree Search,” 484.


[Закрыть]
. Она начинается с таких строк: «Все игры с полной информацией обладают оптимальной функцией оценки, v* (s), которая определяет исход игры для каждой позиции на доске или состояния s при идеальной игре всех игроков. Такие игры могут быть решены путем рекурсивного вычисления функции оптимальной оценки в поисковом дереве, содержащем около bd возможных последовательностей ходов, где b – ширина игры (количество возможных ходов в позиции), d – глубина игры (то есть длительность)». Все это совершенно очевидно человеку, у которого за плечами годы практики в области математики, однако большинство из нас предпочло бы более простое и очевидное для неспециалистов объяснение.

Чтобы понять AlphaGo, стоит вспомнить об игре в крестики-нолики, известной большинству детей. Делая первый ход и располагая знак в центре сетки, вы либо выигрываете, либо играете вничью. Первый ход дает преимущество: у вас будет пять ходов, в то время как у вашего соперника – всего четыре. Большинство детей интуитивно понимают это и, играя с терпеливыми взрослыми, настаивают на праве первого хода.

Достаточно просто написать компьютерную программу для игры в крестики-нолики против человека (первая такая программа была составлена в 1952 г.). Существует алгоритм, набор правил, применение которых позволит компьютеру всегда побеждать или играть вничью. Подобно «Hello, world!», программирование игры в крестики-нолики считается простым упражнением на вводных уроках информатики.

Го – игра куда более сложная, однако также играется на доске, представляющей собой сетку. Каждому игроку дается горстка черных или белых камешков. Новички играют на сетке из девяти горизонтальных и девяти вертикальных линий, мастера – на сетке 19×19. Черные ходят первыми, размещая камень на пересечении линий. Следом ходят белые, также помещая камень на пересечении. Игроки ходят по очереди, стремясь «захватить» камни соперника и окружить их.

Люди играют в го около 3000 лет. Разработчики и поклонники этой игры изучали ее закономерности начиная с 1965 г., а первая программа для го была написала в 1968 г. Существует целое научное направление, посвященное только этой игре, названное (как ни странно) компьютерное го.

Игроки и исследователи компьютерного го годами накапливали записи игр, которые выглядят примерно так:


(; GM [1]

FF [4]

SZ [19]

PW [Sadavir]

WR [7d]

PB [tzbk]

BR [6d]

DT [2017 – 05–01]


PC [The KGS Go Server at http://www.gokgs.com/]


KM [0.50]

RE [B+Resign]

RU [Japanese]

CA [UTF-8]

ST [2]

AP [CGoban:3]

TM [300]

OT [3x30 byo-yomi]

; B [qd]; W [dc]; B [eq]; W [pp]; B [de]; W [ce]; B [dd]; W [cd]; B [ec]; W [cc]; B [df]; W [cg]; B [kc]; W [pg]; B [pj]; W [oe]; B [oc]; W [qm]; B [of]; W [pf]; B [pe]; W [og]; B [nf]; W [ng]; B [nj]; W [lg]; B [mf]; W [lf]; B [mg]; W [mh]; B [me]; W [li]; B [kh]; W [lh]; B [om]; W [lk]; B [qo]; W [po]; B [qn]; W [pn]; B [pm]; W [ql]; B [rq]; W [qq]; B [rm]; W [rl]; B [rn]; W [rj]; B [qr]; W [pr]; B [rr]; W [mn]; B [qi]; W [rh]; B [no]; W [on]; B [nn]; W [nm]; B [nl]; W [mm]; B [ol]; W [mp]; B [ml]; W [ll]; B [np]; W [nq]; B [mo]; W [mq]; B [lo]; W [kn]; B [ri]; W [si]; B [qj]; W [qk]; B [kq]; W [kp]; B [ko]; W [jp]; B [lp]; W [lq]; B [jq]; W [jo]; B [jn]; W [in]; B [lm]; W [jm]; B [ln]; W [hq]; B [qh]; W [rg]; B [nh]; W [re]; B [rd]; W [qe]; B [pd]; W [le]; B [md])


Человеку может показаться, что текст выше – полная бессмыслица, но он структурирован для компьютерной обработки. Такая структура называется «Умный игровой формат» (SGF, Smart Games Format). Из набора цифр и букв мы узнаем о том, кто играл партию, где, какие ходы были сделаны и как игра завершилась.

Ход игры описан в той части, где мы видим максимально плотный текст. Колонки в го маркированы в алфавитном порядке слева направо, а строки – сверху вниз. В нашем случае черные (B) ходили первыми и поместили камешек на пересечении колонок q и d, что записано как;B [qd]. Следующие символы;W [dc] говорят о том, что камень белых (W) оказался на пересечении d и c. Каждый последующий ход записан в подобном формате. Итог игры (RE) зафиксирован как RE [B+Resign], что означает капитуляцию черных.

Разработчики AphaGo собрали огромный массив данных из 30 млн SGF-файлов. Все эти архивы не искусственно симулированные матчи, а записи реальных игр, сыгранных реальными людьми (и иногда компьютерами). Так, играя в го на одном из множества сайтов, любители и профессионалы, по сути, добавляли опыт своей игры в массив. На самом деле не так уж и сложно создать видеоигру в го: в интернете можно найти достаточно инструкций и свободного исходного кода. Кроме того, все видеоигры могут сохранять данные партий. Правда, одни из них делают это, другие – нет. Некоторые хранят данные ваших партий и затем передают их разработчикам. Создатели сайтов для онлайн-игры в го публикуют онлайн архивы сыгранных партий в виде огромных пакетов. В результате все эти пакеты были объединены в массив из 30 млн игр, собранный командой AlphaGo.

Программистам понадобилось 30 млн игр, чтобы «натренировать» модель, которую они назвали AlphaGo. Кроме того, вы должны понять, что профессиональные игроки в го годами играют в компьютерное го. Так они тренируются. Вследствие этого 30 млн игр также включают в массив и игры лучших игроков мира. Миллионы часов человеческого труда были ценой тренировочных данных – хотя большинство историй об AlphaGo повествует о волшебных алгоритмах, а не о людях, которые годами незаметно для окружающих (и без вознаграждения) создавали тренировочный массив.

Разработчики программы AlphaGo использовали метод под названием поиск Монте-Карло для того, чтобы выбрать из 30 млн игр множество ходов, которые с наибольшей вероятностью ведут к победе. Затем они запрограммировали его использовать алгоритм, выбирающий следующий ход из множества. Кроме того, они также реализовали отдельный алгоритм, подсчитывающий вероятность победы для каждого конкретного хода из множества. Вычисления происходили в масштабах, едва вообразимых человеком. В го существует 10163 возможных позиций. Так, благодаря наложению нескольких вычислительных методов и выбору хода с наибольшей вероятностью победы разработчики создали программу, победившую лучших игроков в го.

Умна ли AlphaGo? Ее разработчики – определенно. Им удалось решить сложную математическую задачу, над которой десятилетиями бились десятки лучших умов. Одной из наиболее поразительных вещей в математике является то, что она учит видеть закономерности в окружающем мире. Большинство вещей функционирует согласно математическим правилам: кристаллы растут регулярным образом, цикады впадают в спячку под землей на годы и просыпаются лишь тогда, когда температура почвы достигает нужной отметки, и таких примеров множество. AlphaGo – это прорыв в математике, достижение, которое было бы невозможным без аппаратного и программного прогресса в вычислительной технике. Стоит признать достижение команды разработчиков.

Однако AlphaGo не является разумной машиной. У нее нет сознания. Она делает только одну вещь: играет в компьютерную игру. Она содержит данные 30 млн игр, сыгранных любителями и профессионалами го, поэтому в каком-то смысле AlphaGo в высшей степени глупа. Чтобы победить одного-единственного мастера, программе требуется грубая сила и плоды труда множества людей. Программа и заложенные в ней вычислительные методы пригодятся для более полезных задач, требующих массивной переработки чисел. И это действительно полезно для мира – но далеко не все в мире является вычислениями.

Итак, рассмотрев математические и физические реалии программ вроде AlphaGo, мы оказались в сфере философии и спекуляции о будущем. И это совершенно другое интеллектуальное пространство. Есть футуристы, которые хотят, чтобы AlphaGo ознаменовала собой эпоху единства людей и машин. Хотя, конечно, желание далеко не всегда означает реальность.

С философской точки зрения существует много интересных вопросов, касающихся анализа разницы между вычислениями и сознанием. Большинство людей слышали про тест Тьюринга. Несмотря на название, в нем нет ничего общего с форматом анкеты, которую робот должен пройти, чтобы сойти за человека. В своей работе Тьюринг предложил сложный эксперимент, заключавшийся в беседе с машиной. Вопрос «могут ли машины мыслить?» он считал абсурдным и предлагал ответить на него результатами опросов общественного мнения. (Тьюринг был снобом от математики. Как многие в те времена и некоторые сегодня, он верил в превосходство математики над всеми прочими интеллектуальными изысканиями.) Вместо этого он предложил «игру в имитацию». Играют в нее мужчина (А), женщина (В) и экзаменатор (С). С сидит один в комнате и печатает вопросы для А и В. «Цель игры заключается в том, что экзаменатор должен определить, кто из остальных двоих женщина, а кто – мужчина. Ему они известны как X и Y, и в конце игры он говорит либо ‘X – это А, a Y – B’, либо ‘X это B, a Y – А’», – пишет Тьюринг[12]12
  Turing, “Computing Machinery and Intelligence.”


[Закрыть]
.

Затем он предлагает определить, какие типы вопросов может задавать игрок С. Один из них о длине волос. А, мужчина, должен заставить игрока С ошибиться и потому лжет. В, женщина, хочет помочь С и говорит ей или ему, что он – женщина. Но ведь А может соврать и сказать то же самое. Их ответы записываются, чтобы окраска и тон голоса не дали экзаменатору никаких зацепок. Тьюринг продолжает: «Теперь мы спрашиваем: “Что произойдет, если вместо А будет играть компьютер? Будет ли экзаменатор ошибаться так же часто, как и в игре с женщиной и мужчиной?” Эти вопросы заменяют наш изначальный вопрос “Могут ли машины мыслить?”».

В случае, если экзаменатор не может по ответам определить, кто перед ним – человек или машина, компьютер признается разумным. В течение многих лет эта идея считалась фундаментальной для вычислительной теории. Невероятное количество чернил было потрачено на то, чтобы ответить на вызов Тьюринга и создать машину, отвечающую его требованиям. Впрочем, тот факт, что основой мысленного эксперимента является философски и культурно неточное определение гендера, ставит все предприятие под сомнение. Ведь представления Тьюринга уже не слишком соответствуют тому, что мы знаем о гендере. Это не бинарная оппозиция, но континуум. И длина волос уже не является маркером мужской или женской идентичности; каждый может коротко постричься. Более того, Тьюринг пишет, что «целью игры третьего игрока (В) является помощь экзаменатору». Игра, призванная выявить разумность, в которой женщина играет роль помощника? А мужчине говорят, что он может соврать? С критической точки зрения это абсурд, поскольку здесь поведение мужчины и женщины обусловлено гендерными физическими и моральными характеристиками.

Философские аргументы Тьюринга также не вызывают доверия. Вероятно, наиболее основательную критику можно обнаружить у философа Джона Сёрла – в его тезисе о китайской комнате. В 1989 г. ему удалось собрать воедино все свои замечания в статье для журнала The New York Review of Books:

Цифровой компьютер – это устройство, оперирующее символами без какой-либо смысловой интерпретации. Люди же, напротив, в момент размышления заняты чем-то гораздо большим. Человеческое сознание обычно оперирует значимыми мыслями, чувствами и ментальным содержанием. И, поскольку символы сами по себе по определению не обладают значением (интерпретацией или семантикой) – если кто-то извне не наделил их значением, – формальных символов недостаточно для того, чтобы наполнить ментальное содержание.

Этот довод можно представить на примере монолингвального англоговорящего человека, запертого в комнате с книжкой, где сказано, как обращаться с китайскими иероглифами согласно логике компьютера. В принципе, этот человек сможет пройти тест Тьюринга, поскольку он способен производить корректные ответы на вопросы на китайском языке. Однако он не понимает ни слова на китайском, ведь он не знает, что каждый символ означает. Но, если он не понял китайский при помощи программы, запущенной на компьютере и предназначенной специально для «понимания» китайского, тогда ни один цифровой компьютер не способен понять, потому что ни одна программа не обладает тем, чем не обладает человек[13]13
  Searle, “Artificial Intelligence and the Chinese Room.”


[Закрыть]
.

Тезис Сёрла, согласно которому возможность манипуляции символами не означает понимание, прослеживается и в 2017 г., когда популярность набирают голосовые интерфейсы. «Диалоговые» интерфейсы распространены, однако далеки от разумности.

Алекса от Amazon и другие голосовые помощники не понимают язык. Они всего лишь выдают ответные реакции на звуковые последовательности, которые люди называют вербальными командами. «Алекса, включи “California Girls”» – это голосовая команда, которую компьютер может выполнить. Здесь Алекса – это слово-триггер, предупреждающее компьютер о скором появлении команды. Включи – слово-триггер означающее «найди MP3 файл в памяти устройства и отправь команду “проигрывать” вместе с названием файла MP3 аудиоплееру, выбранному мной ранее». Интерфейс запрограммирован так, чтобы воспринимать любое слово, следующее за «включи» и перед паузой (то есть до конца команды). Так, определенное значение задается переменной название песни, которую система обнаруживает в памяти и отправляет в аудиоплеер. Это обычное и неопасное дело, поэтому не стоит думать, что машины все-таки восстанут и завоюют мир. В данный момент компьютер не способен определить, какую песню стоит включить – «California Girls» в исполнении Кэтти Перри или Beach Boys’. Хотя эта проблема решается состязанием в популярности. Побеждает та, что обладает бо́льшим количеством воспроизведений всеми пользователями Алексы. И ее система проигрывает по умолчанию. Это хорошая новость для фанатов Кэтти Перри и не слишком хорошая для любителей Beach Boys’.

Я прошу вас держать в голове идеи о сильном и слабом ИИ, а также не забывать об ограничениях. В этой книге мы будем придерживаться реального положения дел: мира, в котором есть неразумные вычислительные машины, которые мы называем умными. Кроме того, мы также обратимся к воображению – несомненно, мощному, чудесному и будоражащему, – которое, когда мы говорим о компьютерах, данных и технологиях, иногда загоняет нас в тупик. Я прошу вас не расстраиваться – как тот студент на научной ярмарке, – если вы столкнетесь с заблуждением о призраке внутри машины, как говорит коллега. В реальности внутри компьютера нет никакого маленького человека или симулятора мозга. На это можно реагировать разными способами: можно расстроиться, что то, о чем вы мечтали, невозможно, либо можно радоваться тому, что действительно становится возможно, когда искусственные устройства (компьютеры) работают вместе с по-настоящему сознательными существами (людьми). Я предпочитаю поступать именно так.


Страницы книги >> Предыдущая | 1 2 3 4 5 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации