Электронная библиотека » Эндрю Макафи » » онлайн чтение - страница 5


  • Текст добавлен: 3 декабря 2018, 11:40


Автор книги: Эндрю Макафи


Жанр: Экономика, Бизнес-Книги


Возрастные ограничения: +16

сообщить о неприемлемом содержимом

Текущая страница: 5 (всего у книги 23 страниц) [доступный отрывок для чтения: 7 страниц]

Шрифт:
- 100% +

Кое-кто называет такой подход бесчеловечным. Некоторым кажется, что, если компьютеры станут играть главную роль в принятии решений, люди окажутся на обочине и будут выглядеть жалкими. Мы понимаем, что никого не радует мысль лишиться возможности принимать решения[158]158
  В одном эксперименте психолог Себастьян Бобадилья-Суарез и его коллеги обнаружили, что люди согласны платить, чтобы сохранить возможность принимать решения о выделении денежных средств, – даже если они знают, что получили бы больше денег, если бы согласились на принятие такого решения компьютером. Люди любят, когда у них есть власть принимать решения. См.: Sebastian Bobadilla-Suarez, Cass R. Sunstein, and Tali Sharot, “The Intrinsic Value of Control: The Propensity to Under-delegate in the Face of Potential Gains and Losses,” SSRN, February 17, 2016, https://papers.ssrn.com/sol3/papers2.cfm?abstract_id=2733142.


[Закрыть]
и чувствовать себя кем-то вроде слуги компьютера. Однако значит ли это, что нужно и дальше незаслуженно выпускать заключенных на свободу или по ошибке оставлять их в тюрьме, лишь бы только судьи и комитеты, занимающиеся досрочным освобождением, могли продолжать работать так, как для них привычно? Значит ли это, что число неверных медицинских диагнозов должно и дальше оставаться выше, чем могло бы быть, лишь бы только врачи и психологи продолжали работать так, как они привыкли? Что компании должны и дальше принимать на работу неподходящих людей, лишь бы только менеджеры, проводящие собеседования, продолжали считать себя умными?

Нам кажется, что ответ на все эти вопросы – нет. Правильные решения очень важны для нормального существования общества: они помогают делать так, чтобы нужные ресурсы (от поездок на работу до здравоохранения) попадали к нужным людям в нужном месте в нужное время. Стандартное партнерство в понимании Хаммера и Чампи, в котором компьютеры ведут документацию, а HiPPO выносят оценки и принимают решения, часто не самый лучший способ этого добиться.

Сейчас вы уже, вероятно, не особо удивитесь, если мы скажем, что люди весьма плохо предсказывают будущее. В конце концов, прогнозирование и принятие решений почти неразделимые действия. Чтобы принять хорошее решение, обычно нужен точный прогноз в отношении некоторых аспектов будущего – иначе говоря, мы должны знать, что произойдет, если мы поступим так или иначе. Соответственно, если мы плохи в чем-то одном, то, очевидно, также плохи и в другом. И правда, многие ошибки Системы 1 и ее попытки срезать углы мешают нам делать хорошие прогнозы.

В 1984 году политолог Филип Тетлок и его коллеги взялись за многолетний проект: они собирались оценить точность прогнозов во многих сферах, таких как политика, экономика и международные отношения. Результаты проведенного исследования, как и многих других, упомянутых в этой главе, поразительны и не допускают различных толкований. После проверки более 82 тысяч прогнозов Тетлок обнаружил, что по точности предсказаний «люди едва превосходят шимпанзе»[159]159
  P. Tetlock, Expert Political Judgment: How Good Is It? How Can We Know? (Princeton, NJ: Princeton University Press, 2005), P52.


[Закрыть]
, бросающего дротики в мишень.

Это серьезная причина для беспокойства, поскольку мир бизнеса построен на предсказаниях. Многие из них вполне конкретны, например, как поведут себя определенные акции; какими окажутся направление и величина изменений будущих кредитных ставок; сколько смартфонов удастся продать в определенной стране в следующем году. Во многих других случаях прогнозы неявно заложены в предполагаемый план действий. Так, смена дизайна сайта строится на неявном предположении, что посетителям больше понравится новый вариант, и то же самое касается смены оформления в офисах филиалов банка. Яркий запуск какого-либо продукта строится на важном предположении, что клиенты отдадут ему предпочтение, а маркетинговая кампания подразумевает прогнозирование того, как их можно сформировать.

Что такое хорошо?

Разумеется, не все прогнозы оказываются неверными. Тетлок установил, что некоторые люди – он называет их суперпрогнозистами – действительно регулярно делают предсказания, более точные, чем просто случайный выбор варианта. Они берут информацию из многих источников и, что может быть более важным, демонстрируют способность рассматривать ситуации с разных точек зрения. Менее точные прогнозисты обычно имеют одну точку зрения во всех своих анализах (и упрямые консерваторы, и фанатичные либералы чаще дают плохие политические прогнозы). Тетлок называет первую из упомянутых групп (более успешных, разносторонних аналитиков) «лисами», а вторую – «ежами». Эти термины он взял у древнегреческого поэта Архилоха: «Многое знает лиса, еж – одно, но важное»[160]160
  «Еж и лиса» – это также название эссе философа Исайи Берлина (точнее, «Еж и лиса. Эссе о взглядах Толстого на историю». Прим. перев.), который разделил мыслителей на две категории: тех, кто в течение карьеры развивает одну важную идею, и тех, кто развивает много разных идей.


[Закрыть]
. Он рекомендует везде, где только можно, опираться на лис, а не на ежей[161]161
  Исходный текст Архилоха утрачен; приведенная выше фраза цитировалась как поговорка еще в Античности. При этом неизвестен смысл, вложенный в строки самим поэтом. Сейчас ее обычно трактуют так: «лисы» – разносторонние или разбрасывающиеся личности, применяющие различные тактические и стратегические приемы, тогда как «ежи» ставят на одну простую и эффективную стратегию. Заметим, что такое понимание противоречит тому, как использует свои термины Тетлок: у него ежами называются неудачники. Прим. перев.


[Закрыть]
. Лис легко узнать по многоаспектным и многоплановым рассуждениям и анализам. Их можно также выявить по достигнутым результатам. Люди, которые делали много точных прогнозов (причем проверяемых), с большой вероятностью являются лисами.

МЕНЬШЕ ПРЕДСКАЗЫВАТЬ, БОЛЬШЕ ЭКСПЕРИМЕНТИРОВАТЬ

Если не принимать во внимание суперпрогнозистов, то лучше меньше опираться на всяческие предсказания. Наш мир становится все более сложным, часто бывает непредсказуемым, а события быстро сменяют друг друга. Это делает прогнозирование чем-то средним между чрезвычайно трудным и фактически невозможным, причем чем дальше, тем оно оказывается ближе ко второму.

В работе самых успешных компаний происходит фундаментальный сдвиг от долговременных прогнозов, многолетних планов и крупных ставок к краткосрочным циклам, экспериментам и тестированию. Эти организации следуют отличному совету компьютерного специалиста Алана Кэя: лучший способ предсказать будущее – изобрести его. Они делают это небольшими шагами, постоянно получая обратную связь и при необходимости внося изменения в свои действия, вместо того чтобы работать втайне, двигаясь к некому отдаленному событию с уверенно прогнозируемым результатом.

Не так уж сложно реализовать такой принцип для какого-нибудь онлайн-сервиса. Сайты обычно собирают много информации о действиях пользователей, что легко позволяет увидеть, произошли ли улучшения вследствие определенного изменения. Владельцы некоторых коммерческих сайтов очень подозрительно относятся к переменам и проверяют целесообразность любого шага. Туристический онлайн-сервис Priceline появился на первой волне интереса к интернету в конце 1990-х годов. Как и многие другие лидеры того времени, он рухнул в начале 2000-х, главным образом из-за того, что пользователи разочаровались в первоначальном подходе «назовите свою цену».

В середине последнего десятилетия руководство компании переосмыслило подход к бизнесу и перешло к модели с несколькими более традиционными туристическими сайтами. Однако главным фактором, позволившим Priceline добиться успеха, было постоянное экспериментирование на основе данных. Как выразился репортер VentureBeat Мэтт Маршалл, «часто к скачкообразному росту приводят маленькие идеи вроде улучшения накопленного опыта через крохотные победы – иными словами, небольшие изменения, скажем, в цветах, формулировках или расположении данных на веб-странице немного повышают активность пользователей. Компания обнаружила, что, если заменить “парковку” на “бесплатную парковку”, это даст улучшение на 2 процента, хотя текст располагается на темном фоне и едва заметен для среднего читателя»[162]162
  Matt Marshall, “How Travel Giant Priceline Drives Growth through a Series of A/B Tweaks– like Using a ‘Free Parking’ Button,” VentureBeat, August 13, 2015, http://venturebeat.com/2015/08/13/how-travel-giant-priceline-drives-growth-through-a-series-of-ab-tweaks-like-using-a-free-parking-button.


[Закрыть]
. Такие выгоды обнаруживаются повсюду. Проведя строгое A/B-тестирование (обычный сетевой эксперимент, когда половина посетителей видит вариант A, а другая половина – вариант B), компания Adore Me, специализирующаяся на женском нижнем белье, обнаружила, что продажи некоторых предметов удваиваются, когда модель позирует, запустив руку в волосы, а не держа ее на бедре[163]163
  Rebecca Greenfield, “This Lingerie Company A/B Tests the World’s Hottest Women to See Who Makes You Click ‘Buy’” Fast Company, November 21, 2014, https://www.fastcompany.com/3038740/most-creative-people/this-lingerie-company-a-b-tests-the-worlds-hottest-women-to-see-who-mak.


[Закрыть]
. Вместо того чтобы тратить недели, дни и даже часы на экспертный анализ и споры о предлагаемых изменениях, обычно быстрее и точнее просто протестировать варианты в сети. Часто результаты оказываются удивительными.

Экспериментирование не ограничивается только интернетом. Продуктивным оно может быть и в реальном мире. Многие крупные компании являются тем, что профессор бизнес-школы Дэвид Гарвин называет «многоэлементными предприятиями» (МЭП)[164]164
  David A. Garvin and Lynne C. Levesque, “The Multiunit Enterprise,” Harvard Business Review, June 2008, https://hbr.org/2008/06/the-multiunit-enterprise.


[Закрыть]
. Такие организации имеют множество пунктов работы с клиентами, которые в целом выглядят и действуют одинаково. Банки, сети ресторанов, магазинов или центров оказания услуг являются МЭП. По одной оценке, 20 процентов компаний из списка Fortune 100 в той или иной степени многоэлементные предприятия.

Наличие у МЭП множества отдельных пунктов предоставляет отличные возможности для эксперимента. Специалист по инновациям Стефан Томке и исследователь Джим Манци описывают[165]165
  Stefan Thomke and Jim Manzi, “The Discipline of Business Experimentation,” Harvard Business Review, December 2014, https://hbr.org/2014/12/the-discipline-of-business-experimentation.


[Закрыть]
, как универмаг Kohl’s запустил эксперимент, где было задействовано 100 торговых точек, чтобы узнать, вредит ли продажам открытие магазинов на час позже по выходным. Такое сокращение времени работы уменьшило продажи незначительно, что стало хорошей новостью для компании. Менее приятными были результаты другого эксперимента, затронувшего 70 магазинов Kohl’s, в котором исследовалось внедрение продаж мебели. Мебель занимала много пространства и располагалась вдали от остальных продуктов, поэтому общие продажи магазинов и потоки покупателей уменьшились. Хотя многие топ-менеджеры с оптимизмом смотрели на новую идею, компания решила следовать полученным результатам и отказаться от продажи мебели. Иногда бывает нереально применить новый метод одновременно во всех точках МЭП, но частичное внедрение естественным образом создает пространство для эксперимента. При минимуме планирования можно узнать очень много нового, сравнивая места, действующие по новому методу, и те, где работа идет по-старому.

Прогнозы и эксперименты нельзя автоматизировать так же просто, как это делается с принятием решений. Однако в них применяются данные и хорошо работает строгий анализ. Это основные инструменты Системы 2, а также второй эры машин. Так что Системе 1 и ее компонентам, интуиции, суждениям и личному опыту нужно отстраниться от прогнозирования как минимум настолько же, насколько, как мы выяснили ранее, это оправдано в случае с принятием хороших решений. Иными словами, HiPPO должны стать вымирающим видом в организациях.

Резюме

• Двадцать лет стандартного партнерства разума и машин показали, что мы нередко слишком сильно полагаемся на человеческие суждения, интуицию и чутье.

• Почему человеческие суждения так часто оказываются ошибочными? Потому что работа нашей быстрой, не требующей усилий Системы 1 подвержена различного рода искажениям. И самое плохое, она не осознает, что совершает ошибку, и вынуждает рациональную Систему 2 придумывать убедительные оправдания тому, что на деле является импульсивным решением.

• Есть более чем убедительные подтверждения того, что использование только данных и работающих с ними алгоритмов обычно приводит к лучшим решениям и прогнозам, нежели использование суждений даже самых квалифицированных экспертов.

• Многие решения, оценки и прогнозы, за которые сегодня отвечают люди, следует передать компьютеру. В ряде случаев для проверки действий машины здравым смыслом следует оставить человека, в прочих же случаях его нужно полностью отстранить от принятия решений.

• Впрочем, есть ситуации, когда субъективные человеческие суждения по-прежнему могут быть полезны, если перевернуть стандартное партнерство с ног на голову. В этом случае суждения нужно перевести в числовую форму и включить в количественный анализ.

• Принятие решений не должно использоваться для того, чтобы тешить самолюбие высокопоставленных персон. Его основная задача – выдавать наилучшие варианты действий, основанные на правильных целях и четких критериях.

• Алгоритмы далеки от совершенства. Если они имеют дело с неточными или искаженными данными, они будут выдавать ошибочные или контрпродуктивные решения. Эти искажения могут быть малозаметными и непреднамеренными. Алгоритмы нужно оценивать не по отсутствию в них недостатков, а по тому, превосходят ли они существующие аналоги по ключевым критериям и можно ли их со временем улучшить.

• По мере развития технологий мы откажемся от стандартного партнерства с его чрезмерным доверием высокопоставленным лицам в пользу принятия решений, основанных исключительно на данных. Факты говорят, что компании, следующие по этому пути, обычно имеют значительные преимущества перед конкурентами старого типа.

• Лучше всего работают люди, способные смотреть на проблему с нескольких точек зрения, и компании, которые предпочитают краткосрочное планирование и эффективно экспериментируют.

Вопросы

1. Отслеживаете ли вы, и если да, то насколько систематически и строго, те решения, оценки и прогнозы, за которые в вашей организации отвечают люди и компьютеры? Знаете ли вы, кто из них лучше справляется с работой?

2. В какой области вашей организации решения обычно принимают люди с высокой зарплатой? Почему?

3. Есть ли у вас возможность в какой-нибудь части организации перевернуть стандартное партнерство, чтобы субъективные оценки людей использовались в анализе на основе данных, а не наоборот?

4. Как вы думаете, у кого в целом больше необъективности – у алгоритмов или у людей?

5. Кого вы считаете более убедительным – лис или ежей?

6. Ваша организация обычно выполняет небольшое количество долгосрочных важных проектов или большое количество краткосрочных?

Глава 3. Наши почти разумные машины

Я верю, что к концу столетия словоупотребление и общественное мнение среди образованных людей изменятся настолько, что разговоры о мыслящих машинах не вызовут протеста.

Алан Тьюринг[166]166
  Алан Тьюринг (1912–1954) – английский математик, логик, криптограф, один из отцов информатики и искусственного интеллекта. В процитированной статье «Вычислительные машины и разум» дается общее представление о тесте Тьюринга. Прим. перев.


[Закрыть]
, 1950 г.

Едва разработав цифровые компьютеры, мы стали пытаться заставить их думать так, как это делаем мы. С самого начала было очевидно, что они очень полезны для выполнения шаблонных математических вычислений, но это не казалось новостью. В конце концов, люди давно знакомы с устройствами, облегчающими счет, начиная с японских и вавилонских абаков и загадочного греческого антикитерского механизма[167]167
  Этот механизм размером с часы использовался для предсказания движения Солнца, Луны и планет. Он очень загадочен, поскольку крайне сложен для своего времени. Как заметила в статье 2015 года журналистка Джо Мерчант, «со времен Античности не было открыто ничего подобного. Ничего настолько изощренного или хотя бы близкого не появлялось больше тысячи лет» (Jo Marchant, “Decoding the Antikythera Mechanism, the First Computer», Smithsonian, February 2015, http://www.smithsonianmag.com/history/decoding-antikythera-mechanism-first-computer-180953979).


[Закрыть]
, появившихся еще до нашей эры. А вот новой была возможность программировать компьютеры, то есть давать им абсолютно произвольные инструкции[168]168
  Алан Тьюринг доказал, что компьютер с программой следует рассматривать как универсальную вычислительную машину, которой в принципе можно дать инструкции по решению любой задачи, допускающей решение посредством какого-либо алгоритма.


[Закрыть]
. Как мы видели в предыдущей главе, компьютерные программы идеально подходят для алгоритмов – точных пошаговых инструкций для выполнения какой-либо задачи. Однако выдающиеся мыслители, представители самых разных дисциплин, вскоре стали пытаться заставить новые машины делать нечто большее, чем просто выполнять последовательность шагов в заранее установленном порядке. Эти первопроходцы хотели, чтобы запрограммированное «железо» стало умнее их самих – иначе говоря, чтобы машина научилась рассуждать на одном уровне с человеком и стала, таким образом, искусственным интеллектом.

Две разные дороги к искусственному интеллекту

Джон Маккарти, профессор математики в Дартмутском колледже, определял искусственный интеллект как «научные и технические методы создания разумных машин»[169]169
  Собственно говоря, Маккарти и предложил термин «искусственный интеллект». Прим. перев.


[Закрыть]
[170]170
  AISB (Society for the Study of Artificial Intelligence and Simulation of Behaviour), “What Is Artificial Intelligence?” accessed March 1, 2017, http://www.aisb.org.uk/public-engagement/what-is-ai.


[Закрыть]
. Он организовал первую конференцию по этой теме, которая состоялась в колледже в 1956 году. Всего несколько лет спустя вокруг искусственного интеллекта началась масштабная и длительная полемика. Чтобы понять ее суть, а также осознать важность этого обсуждения, давайте рассмотрим различие между тем, как ребенок изучает первый язык, и тем, как большинство взрослых изучает второй язык.

Дети в основном делают это на слух. Они воспринимают разговоры окружающих людей, усваивают некоторые слова и правила, образующие язык, и в какой-то момент начинают говорить сами. У них есть обратная связь: если они делают ошибки, их поправляют, и в итоге дети преуспевают в сложной работе – умении говорить.

Взрослые при изучении нового языка знают, насколько это трудно. Когда они задаются целью овладеть вторым языком, то немедленно сталкиваются с множеством правил: куда поставить местоимения в предложении; какой предлог использовать; как спрягать глаголы; есть ли род у существительных, и если да, каким он бывает; как различать субъект и объект (чтобы понимать, кто является действующим лицом во фразах типа «мать видит дочь») и так далее. Запоминать слова очень трудно, но большинство взрослых людей, изучающих язык, больше страдают от необходимости изучать массу сложных и иногда непоследовательных правил.

Детям не нужны уроки по правилам языка, чтобы научиться хорошо говорить. А вот большинство взрослых не может без них обойтись. Разумеется, эти подходы отчасти перекрываются – многие дети изучают родную речь в школе, а взрослые воспринимают некоторые вещи на слух, – но разница все равно существенна. Мозг ребенка специализируется на изучении языка, и работа происходит по статистическим принципам выделения языковых закономерностей[171]171
  Исследование одного трагического случая дало убедительное доказательство, что после определенного возраста дети уже не могут овладеть языком. В 1970 году власти Южной Калифорнии узнали о 13-летней девочке, получившей псевдоним «Джини», которая стала жертвой ужасного обращения. С ясельного возраста отец держал ее в постоянной и почти полной физической и социальной изоляции. Ее связывали и оставляли одну в звукоизолированном помещении, причем с ней никто не разговаривал. После того как девочку спасли, с ней работали многие исследователи и врачи. Хотя они не считали ее от природы умственно отсталой, Джини, несмотря на все усилия, так и не научилась нормально говорить. Она ограничивалась очень короткими предложениями, а сложные правила грамматики ей не давались. Сейчас она живет в центре для умственно недоразвитых людей где-то в Калифорнии.


[Закрыть]
. Например, когда мама говорит о себе как о субъекте, она использует слово «я» и ставит его в начало предложения. Когда она является объектом, она использует слово «меня» и ставит его не в начало. Поскольку мозг взрослых отличается, им приходится изучать правила в явном виде.

На ранних стадиях работы над искусственным интеллектом занимавшееся им сообщество разделилось на два лагеря. Одни сосредоточились на так называемом символическом, или основанном на правилах, искусственном интеллекте, в то время как другие строили системы статистического распознавания образов. Первые пытались разработать искусственный интеллект на тех принципах, посредством которых взрослые люди учат иностранный язык; вторые стремились сделать искусственный интеллект похожим на ребенка, осваивающего речь.

Поначалу казалось, что более успешен символический подход. Например, на Дартмутском семинаре 1956 года Аллен Ньюэлл, Джон Клиффорд Шоу и будущий нобелевский лауреат Герберт Саймон продемонстрировали свою программу Logic Theorist, которая использовала правила формальной логики для автоматического доказательства математических теорем. Она смогла доказать 38 теорем из второй части Principia Mathematica – фундаментального труда Альфреда Уайтхеда и Бертрана Рассела по логике и философии математики. Одно из доказательств программы настолько превосходило по изяществу приведенный в книге аналог, что сам Рассел отреагировал на него «с восторгом»[172]172
  Pamela McCorduck, Machines Who Think, 2nd ed. (Natick, MA: A. K. Peters, 2004), 167.


[Закрыть]
. Саймон объявил, что они с коллегами «изобрели мыслящую машину»[173]173
  Pamela McCorduck, Machines Who Think, 2nd ed. (Natick, MA: A. K. Peters, 2004), 138.


[Закрыть]
. Тем не менее оказалось, что другие задачи намного хуже решаются с помощью подхода, основанного на правилах. Десятилетия исследований в области распознавания речи, классификации изображений, перевода с одного языка на другой и прочих дали весьма неубедительные результаты. Самые лучшие из систем, работающих в этих областях, справляются со своими задачами намного хуже человека, а худшие просто чудовищны. Например, если верить сборнику баек 1979 года, исследователи предлагали для перевода с английского языка на русский фразу «The spirit is willing, but the flesh is weak»[174]174
  «Дух силен, а плоть слаба» (англ.). Поговорка, восходящая к Библии; в традиционном синодальном переводе фраза звучит так: «Дух бодр, плоть же немощна» (Мф. 26:41). Прим. перев.


[Закрыть]
[175]175
  Paul Lee Tan, Encyclopedia of 7700 Illustrations (Rockville, MD: Assurance, 1979), 717.


[Закрыть]
. Программа выдала «Виски приемлемо, но мясо испортилось». Вполне вероятно, что это вымышленная история[176]176
  В русскоязычной литературе в различных пересказах этой истории фигурирует, разумеется, водка, а не виски; чаще всего встречается такой вариант: «Водка хорошая, а мясо испортилось». Прим. перев.


[Закрыть]
, но даже если и так, она вполне правдоподобна. Символические системы искусственного интеллекта, рассматриваемые как единая группа, генерировали весьма заурядные результаты, так что к концу 1980-х в этой области наступила «зима», поскольку иссякли корпоративные и государственные источники финансирования.

СЛИШКОМ МНОГО ПРАВИЛ

Что объясняет такой масштабный провал символических подходов к искусственному интеллекту? Есть два основных препятствия. Одно представляет серьезную проблему для этой области, а второе выглядит вообще непреодолимым. Прежде всего, в мире есть масса правил – как прекрасно знают взрослые, изучающие язык, – и в целом недостаточно знать и соблюдать большинство из них. Чтобы грамотно говорить, вам нужно освоить все правила. Даже если предложение грамматически правильно на 80 процентов, оно, скорее всего, будет звучать комично или даже покажется бессмысленным.

Внутри правил есть свои правила. Так, недостаточно знать, что в английском языке прилагательное обычно ставится перед существительным. В своей книге The Elements of Eloquence («Элементы красноречия»)[177]177
  Mark Forsyth, The Elements of Eloquence: How to Turn the Perfect English Phrase. Icon Books Ltd, 2013.


[Закрыть]
Марк Форсайт пишет: «Прилагательные в английском языке должны следовать строго в таком порядке: мнение – размер – возраст – форма – цвет – происхождение – материал – предназначение, а далее идет существительное. У вас может быть любимый маленький старый прямоугольный зеленый французский серебряный перочинный ножик. Но если вы хоть чуть-чуть перепутаете порядок слов, вас посчитают безумцем. Странная штука: любой человек, говорящий на английском языке, строго придерживается этого правила, но почти никто не может его сформулировать»[178]178
  Mark Forsyth, The Elements of Eloquence: How to Turn the Perfect English Phrase (London: Icon, 2013), 46.


[Закрыть]
.

Кроме того, миры, в которых мы живем – и мир физических объектов, и мир идей и понятий, – не стремятся придерживаться единого набора правил. У табуретов есть ножки, а пуф хоть и является частным случаем табурета, ножек может не иметь. В 2002 году американские мужчины не имели права заключать брак друг с другом, а в 2015 году получили такую возможность. Белки не летают, за исключением летяг, которые способны планировать – это своего рода полет. Два отрицания могут иметь положительный смысл («она никогда не грустит»), но два положительных утверждения никогда не составляют отрицания. Ага, конечно.

Попытки систематизировать все правила для таких сложных вещей, как язык, запрограммировать их в компьютерные системы и добиться, чтобы они делали что-нибудь полезное, были большей частью безуспешными. Специалист по информатике Эрнест Дэвис и нейробиолог Гэри Маркус пишут: «В 2014 году мало какие коммерческие системы в значительной степени применяли рассуждения на основании автоматизированного здравого смысла… Никто еще не приблизился к созданию механизма, способного удовлетворительно рассуждать, опираясь на здравый смысл»[179]179
  Ernest Davis and Gary Marcus, “Commonsense Reasoning and Commonsense Knowledge in Artificial Intelligence,” Communications of the ACM 58, no. 9 (2015): 92–103, http://cacm.acm.org/magazines/2015/9/191169-commonsense-reasoning-and-commonsense-knowledge-in-artificial-intelligence/abstract.


[Закрыть]
. Огромное количество людей успешно пользуются здравым смыслом, чтобы преодолевать создаваемые миром барьеры, сложности и непоследовательность. В этом людям не мешают даже искажения и ошибки разума, речь о которых шла в предыдущей главе. Но мы все еще не смогли разработать символьные цифровые системы, способные понимать реальное устройство мира так же хорошо, как наша собственная биологическая Система 1. Компьютеры становятся все эффективнее в узких областях применения искусственного интеллекта, таких как го или распознавание образов, но мы далеки от того, что Шейн Легг, один из основателей DeepMind, назвал общим искусственным интеллектом, – системы, способной применять интеллект к множеству непредусмотренных типов проблем.

ВЕЗДЕСУЩИЙ ПАРАДОКС ПОЛАНИ

Дэвис и Маркус рассказывают, в чем состоит, возможно, самое серьезное препятствие на пути к созданию таких систем: «Рассуждая с помощью обычного здравого смысла, люди… опираются на процессы, большей частью не поддающиеся самоанализу»[180]180
  Ernest Davis and Gary Marcus, “Commonsense Reasoning and Commonsense Knowledge in Artificial Intelligence,” Communications of the ACM 58, no. 9 (2015): 92–103, http://cacm.acm.org/magazines/2015/9/191169-commonsense-reasoning-and-commonsense-knowledge-in-artificial-intelligence/abstract.


[Закрыть]
. Другими словами, когнитивная работа, которую мы делаем, легко проходя через чащобу правил, – это постоянная демонстрация парадокса Полани, утверждающего, что мы можем знать больше, чем способны рассказать. Как говорилось в главе 1, именно этот парадокс до недавнего времени мешал созданию программ, способных играть в го на одном уровне с людьми. Имейте в виду, что этот парадокс вездесущ. Во многих важных случаях мы просто не знаем и не можем знать, какие правила используем, чтобы делать что-то верно.

Этот факт кажется непреодолимым препятствием для создания любого рода автоматизации или искусственного интеллекта. Если никто в мире не знает правил, по которым люди что-то делают, включая самих людей, как же можно создать систему, основанную на правилах или любую другую, способную делать то же, что и мы? Кажется, что парадокс Полани строго ограничивает список человеческих задач, поддающихся автоматизации. Наш коллега из Массачусетского технологического института Дэвид Аутор пишет: «Рамки замены такого рода [замены людей компьютерами] ограничены, поскольку множество задач люди понимают по умолчанию и выполняют без усилий, но ни программисты, ни кто-либо другой не может сформулировать для таких задач явные “правила” или процедуры»[181]181
  David H. Autor, “Why Are There Still So Many Jobs? The History and Future of Workplace Automation,” Journal of Economic Perspectives 29, no. 3 (2015): 3–30, http://pubs.aeaweb.org/doi/pdfplus/10.1257/jep.29.3.3.


[Закрыть]
.

МОЖНО ЛИ СОЗДАТЬ САМООБУЧАЮЩИЕСЯ МАШИНЫ?

Другой лагерь исследователей искусственного интеллекта (тех, кто отказался от символического подхода) с конца 1950-х пытался преодолеть парадокс Полани, разрабатывая системы, изучающие задачи тем же способом, каким дети учат язык, – с помощью опытов, повторения и обратной связи. Эти специалисты создали область машинного обучения, суть которой в точности соответствует названию.

Одной из первых цифровых машин, способных обучаться таким образом, был перцептрон – финансируемый Военно-морскими силами США проект думающей и обучающейся машины. Руководил им Фрэнк Розенблатт, ученый из Корнелльской лаборатории аэронавтики. Назначением перцептрона, появившегося в 1957 году, была классификация объектов, которые он видит, – например, предполагалось, что он сможет отличать кошек от собак[182]182
  Daniela Hernandez, “How Computers Will Think,” Fusion, February 3, 2015, http://fusion.net/story/35648/how-computers-will-think.


[Закрыть]
. В каком-то смысле он представлялся чем-то вроде крохотной версии мозга[183]183
  Перцептрон – модель восприятия информации мозгом, в которую входят три вида элементов: рецепторы (сенсоры), ассоциативные элементы и реагирующие элементы. В 1957 году было завершено моделирование работы перцептрона на компьютере IBM 704, а в 1960 году появился первый нейрокомпьютер Mark-1. Прим. перев.


[Закрыть]
.

Примерно 100 миллиардов нейронов человеческого мозга не упорядочены по какой-то аккуратной схеме. Они сильно переплетены между собой: типичный нейрон воспринимает входящие сигналы от 10 тысяч своих соседей, а затем посылает выходящий сигнал примерно такому же количеству получателей[184]184
  John H. Byrne, “Introduction to Neurons and Neuronal Networks,” Neuroscience Online, accessed January 26, 2017, http://neuroscience.uth.tmc.edu/s1/introduction.html.


[Закрыть]
. Каждый раз, когда на определенное количество входов поступает достаточно сильный электрический сигнал, нейрон направляет собственный сигнал на все свои выходы. Величины, которые мы обозначили словами «достаточное количество» и «достаточно сильный», меняются со временем в зависимости от обратной связи, и нейрон придает каждому из своих входов важность, называемую «весом». В результате этих странных, сложных, не прекращающихся ни на мгновение процессов возникают память, умения, Система 1 и Система 2, внезапные озарения, когнитивные искажения и все остальное, что имеет отношение к нашему разуму.

Перцептрон не мог выполнять такую сложную работу. Его создали только для классификации простых изображений. В нем было 400 фотоэлементов, соединенных случайным образом (чтобы смоделировать запутанность мозга) в один слой искусственных нейронов. Первая демонстрация этой «нейронной сети» вкупе с уверенными прогнозами Розенблатта привела к тому, что газета New York Times написала в 1958 году о перцептроне как о «зародыше электронного компьютера, который, по ожиданиям [ВМС США], будет способен ходить, разговаривать, видеть, писать, воспроизводить себя и сознавать свое существование»[185]185
  Mikel Olazaran, “A Sociological Study of the Official History of the Perceptrons Controversy,” Social Studies of Science 26 (1996): 611–59, http://journals.sagepub.com/doi/pdf/10.1177/030631296026003005.


[Закрыть]
.

Однако обещанного быстрого прорыва не произошло, а в 1969 году Марвин Минский и Сеймур Пейперт опубликовали сокрушительную критическую работу под названием Perceptrons: An Introduction to Computational Geometry («Перцептроны: введение в вычислительную геометрию»)[186]186
  Издана на русском языке: Минский М., Сеймур П. Персептроны. М.: Мир, 1971. Прим. ред.


[Закрыть]
. Они математически доказали, что проект Розенблатта не способен выполнять некоторые базовые задачи классификации. Для большинства исследователей искусственного интеллекта этого было достаточно, чтобы отвернуться не только от перцептронов, но и от более широкой концепции нейронных сетей и машинного обучения в целом. Зима опустилась на оба лагеря исследователей искусственного интеллекта.

ВЕРНОСТЬ ПЕРЦЕПТРОНАМ ПРИНОСИТ РЕЗУЛЬТАТ

Несколько групп ученых все-таки продолжали заниматься машинным обучением, будучи убеждены, что правильный способ заставить компьютеры думать по образцу человека – это построить на основе модели мозга нейронные сети, способные учиться на примерах. Исследователи поняли, в чем заключались ограничения перцептрона, и преодолели их, комбинируя сложную математику, все более мощное аппаратное обеспечение и прагматичный подход, который позволял им вдохновляться тем, как работает мозг, но не ограничиваться этим. Например, в нейронах мозга электрические сигналы текут только в одну сторону, а в успешных системах машинного обучения, построенных в 1980-е годы Полом Уэрбосом[187]187
  Jürgen Schmidhuber, “Who Invented Backpropagation?” last modified 2015, http://people.idsia.ch/~juergen/who-invented-backpropagation.html.


[Закрыть]
, Джеффом Хинтоном[188]188
  David E. Rumelhart, Geoffrey E. Hinton, and Ronald J. Williams, “Learning Representations by Back-propagating Errors,” Nature 323 (1986): 533–36, http://www.nature.com/nature/journal/v323/n6088/abs/323533a0.html.


[Закрыть]
, Яном Лекуном[189]189
  Jürgen Schmidhuber, Deep Learning in Neural Networks: An Overview, Technical Report IDSIA-03-14, October 8, 2014, https://arxiv.org/pdf/1404.7828v4.pdf.


[Закрыть]
и другими, информация могла проходить по сети в обоих направлениях.

Это «обратное распространение»[190]190
  Метод обратного распространения ошибки – способ обучения перцептрона, когда сигнал ошибки идет от выходов сети к входам, то есть в направлении, противоположном тому, что используется при обычном режиме работы. Прим. перев.


[Закрыть]
обеспечило значительное улучшение работы, однако прогресс происходил безнадежно медленно. К 1990-м система машинного обучения, разработанная Лекуном для распознавания чисел, была способна прочитать до 20 процентов всех рукописных банковских чеков в США[191]191
  Yann LeCun, “Biographical Sketch,” по состоянию на 26 января 2017 года, http://yann.lecun.com/ex/bio.html.


[Закрыть]
, но другого практического применения ей не нашлось.

Как показывает недавняя победа AlphaGo, сейчас ситуация совершенно другая. Поскольку AlphaGo использовала эффективный поиск по огромному количеству возможностей – классический элемент систем искусственного интеллекта, основанных на правилах, – она, по сути, была системой машинного обучения. Как пишут ее создатели, AlphaGo – «новый подход к компьютеру, играющему в го, который использует… глубокие нейронные сети… обучаемые новаторским сочетанием контролируемого обучения с помощью игр с экспертами-людьми и обучения с подкреплением через игры с собой»[192]192
  David Silver et al., “Mastering the Game of Go with Deep Neural Networks and Search Trees,” Nature 529 (2016): 484–89, http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html.


[Закрыть]
.

AlphaGo неединичный случай. В последние годы мы видим расцвет нейронных сетей. Сейчас они, бесспорно, доминирующая форма искусственного интеллекта и, вероятно, некоторое время останутся на лидирующих позициях. Эта область искусственного интеллекта наконец выполняет хотя бы некоторые из тех обещаний, что нам когда-то давали ученые.


Страницы книги >> Предыдущая | 1 2 3 4 5 6 7 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации