Текст книги "Машина, платформа, толпа. Наше цифровое будущее"
Автор книги: Эндрю Макафи
Жанр: Экономика, Бизнес-Книги
Возрастные ограничения: +16
сообщить о неприемлемом содержимом
Текущая страница: 4 (всего у книги 23 страниц) [доступный отрывок для чтения: 8 страниц]
Как может компьютер, опирающийся только на Систему 2, то есть на вычисления, производимые с числовыми данными, быть явно лучше, чем человек, который пользуется Системой 2 и Системой 1 – глубинными, врожденными, инстинктивно используемыми возможностями мышления, которые есть у всех нас? В конце концов, Система 1 работает довольно давно, она помогла нам выжить и благополучно провела через все препятствия эволюции (ведь мы все еще существуем, и нас уже 7,5 миллиарда[117]117
Worldometers, “Current World Population,” по состоянию на 26 февраля 2017 года, http://www.worldometers.info/world-population.
[Закрыть]). Как она могла нас так подвести?!
Это слишком большой вопрос для одной книги, тем более для одной главы. Но в своей работе «Думай медленно… решай быстро» Канеман дал краткую сводку множества исследований (многие из которых провел сам):
Если говорить коротко, то Система 1 очень хороша, но склонна к ошибкам. Она часто срезает углы, не любит долгих размышлений и удивительно часто сбивается. Исследователи, работавшие в области экономической психологии и поведенческой экономики (дисциплины, которую помогал создавать Канеман), выявили большое количество искажений Системы 1 и даже дали им названия. Полный их список навел бы на вас скуку и вогнал в депрессию; в посвященной этой теме книге Рольфа Добелли «Территория заблуждений»[119]119
Добелли Р. Территория заблуждений. Какие ошибки совершают умные люди. М.: Манн, Иванов и Фербер, 2014. Прим. ред.
[Закрыть] 99 глав, а в «Списке когнитивных искажений»[120]120
См. соответствующие статьи (на английском и русском языке соответственно): https://en.wikipedia.org/wiki/List_of_cognitive_biases и https://ru.wikipedia.org/wiki/Список_когнитивных_искажений. Прим. перев.
[Закрыть] в «Википедии» было 175 пунктов, когда мы заглядывали туда в последний раз. Бастер Бенсон, менеджер по продукции софтверной компании Slack, придумал, по нашему мнению, прекрасный способ сгруппировать эти искажения и удержать в голове все связанные с ними проблемы[121]121
Бенсон пришел к этой категоризации после изучения списка когнитивных искажений «Википедии» во время отпуска по уходу за ребенком. Он опубликовал свои мысли в блоге практических подсказок Better Humans (http://betterhumans.net). Это прекрасный пример идеи, рожденной сетевой толпой, феномен которой мы детально обсудим в части III этой книги.
[Закрыть].
1. Информационная перегрузка – паршивая вещь, потому мы интенсивно фильтруем входящий поток… [Однако] часть отсеиваемой информации на самом деле полезна и важна.
2. Не понимая чего-нибудь до конца, мы путаемся, поэтому нам свойственно заполнять пробелы в знаниях… [Однако] в ходе этого возникают иллюзии. Иногда мы принимаем за истину додуманные нами подробности и конструируем концепции и истории, которых на самом деле не было[122]122
Для этого процесса есть затейливое название «апофения» (термин образован от греческого слова, которое можно перевести как «делать явным»; он означает способность человека видеть взаимосвязи, структуру и смысл в случайных данных. Прим. перев.). Модели в статистике и машинном обучении иногда допускают ту же самую ошибку, обычно называемую переподгонкой.
[Закрыть].
3. [Нам] нужно действовать быстро, чтобы не упустить свой шанс, так что мы всегда спешим с выводами… [Однако] это может иметь неприятные последствия. Некоторые из наших мгновенных реакций и принятых второпях решений оказываются вредными, эгоистичными и контрпродуктивными.
4. Запутавшись, мы пытаемся восстановить в уме важные детали… [Однако] память подкрепляет ошибки. Некоторые из вещей, что впоследствии мы считаем истинными, на самом деле лишь усугубляют вышеназванные проблемы, в результате чего нашим мыслительным процессам наносится больший вред[123]123
Buster Benson, “Cognitive Bias Cheat Sheet,” Better Humans, September 1, 2016, https://betterhumans.coach.me/cognitive-bias-cheat-sheet-55a472476b18#.qtwg334q8.
[Закрыть].
Мы хотим обратить внимание на еще одну серьезную проблему когнитивных способностей человека: мы не в силах точно узнать, когда Система 1 работает хорошо, а когда нет. Другими словами, у нас слабое представление о собственной интуиции. Мы не знаем, правильно наше мгновенное решение или вынесенное суждение или оно подверглось воздействию одного или нескольких искажений. В этом видится странная параллель с парадоксом Полани: мы также знаем меньше, чем способны сказать, в данном случае меньше о результатах работы Системы 1. Вычисления и рассуждения Системы 2 чаще всего можно проверить, но, как указывает Канеман, Систему 1 проверить сложнее, тем более самостоятельно.
Недавние исследования выявили один особо коварный сбой, связанный с парадоксом Полани: часто Система 1 выдает заключение, а затем просит Систему 2 объяснить его. Психолог Джонатан Хайдт утверждает: «Суждение и обоснование – это два разных процесса»[124]124
Jonathan Haidt, “Moral Psychology and the Law: How Intuitions Drive Reasoning, Judgment, and the Search for Evidence,” Alabama Law Review 64, no. 4 (2013): 867–80, https://www.law.ua.edu/pubs/lrarticles/Volume%2064/Issue%204/4%20Haidt%20867-880.pdf.
[Закрыть]. Вынесение суждений Системой 1 происходит почти непрерывно. Затем каждое из них подтверждается на рациональном и убедительном языке Системы 2[125]125
Джонатан Хайдт в своей книге «Гипотеза счастья» (The Happiness Hypothesis) объясняет: «Тот факт, что люди с готовностью создают причины для объяснения собственного поведения, называется конфабуляцией. (Строго говоря, конфабуляцией называются любые ложные воспоминания при расстройствах памяти, когда реальные события забываются, а пробелы заполняются вымыслом. Прим. перев.) Конфабуляция так часто встречается при работе с пациентами, перенесшими расщепление мозга, и больными, страдающими церебральными нарушениями, что [психолог Майкл] Газзанига говорит о языковых центрах в левом полушарии как о модуле-переводчике, работа которого – давать подстрочный комментарий к тому, что делает человек, хотя модуль-переводчик не имеет доступа к реальным причинам или мотивам поведения личности. Например, если для правого полушария вспыхивает слово “гулять”, пациент может встать и выйти. Если спросить, почему он поднялся, он может сказать: “Хочу взять кока-колу”. Модуль-переводчик хорошо создает такие объяснения, но не знает, что он это делает» (Jonathan Haidt, The Happiness Hypothesis: Finding Modern Truth in Ancient Wisdom (New York: Basic Books, 2006), 8).
[Закрыть]. Такая хитрость часто обманывает не только другие умы, но даже тот самый, что ее придумал. Мы часто «говорим больше, чем знаем»[126]126
Richard E. Nisbett and Timothy DeCamp Wilson, “Telling More Than We Can Know: Verbal Reports on Mental Processes,” Psychological Review 84, no. 3 (1977): 231–60, http://www.people.virginia.edu/~tdw/nisbett&wilson.pdf.
[Закрыть], как заметили психологи Ричард Несбитт и Тимоти де Камп Уилсон. Характеристики поведения, которые мы называем рационализацией и самооправданием, – не всегда упражнения в отговорках. Это также нечто более фундаментальное, это Система 1 за работой.
В 2006 году Авинаш Каушик и Ронни Кохави, два специалиста по анализу данных, которые в то время работали в Intuit и Microsoft соответственно, придумали акроним HiPPO[127]127
Experimentation Platform, “HiPPO FAQ,” по состоянию на 26 февраля 2017 года, http://www.exp-platform.com/Pages/HiPPO_explained.aspx.
[Закрыть] для обозначения доминантного стиля принятия решений в большинстве компаний. Аббревиатура означает «мнение самого высокооплачиваемого лица»[128]128
Сокращение от англ. highest-paid person’s opinion – мнение самого высокооплачиваемого лица. Одновременно слово hippo означает «бегемот». Прим. перев.
[Закрыть]. Нам нравится это сокращение, и мы часто его используем, поскольку оно ярко иллюстрирует стандартное партнерство. Даже если решения принимаются не самым высокооплачиваемым работником, они часто, слишком часто бывают основаны на мнениях, суждениях, интуиции, чутье и Системе 1. Очевидно, что такой подход во многих случаях не срабатывает и что HiPPO часто наносят ущерб.
Как использовать все, что мы узнали о несовершенстве человеческого разума? Как эта информация может привести нас к более эффективному принятию решений? Наиболее очевидный подход – позволить машинам принимать решения в тех случаях, когда они способны это делать. Пусть компьютерные аналоги человеческой Системы 2 с их экспоненциальным прогрессом по закону Мура и огромным потоком входящих данных выдают нам ответы без применения Системы 1. Именно такой подход выбирают все больше и больше компаний.
АВТОМАТИЧЕСКАЯ «НЕВИДИМАЯ ЭКОНОМИКА»
Насколько нам известно, одним из самых ранних (он появился на заре компьютеризации корпораций) примеров полностью автоматического принятия решений была разработка кредитного рейтинга, отражающего платежеспособность людей, то есть вероятность того, что они возвратят ссуду определенного размера. Ранее это весьма важное решение традиционно принимали специалисты по кредитованию в филиалах банков, которые оценивали заявления на основе собственного опыта, иногда в сочетании с директивами или инструкциями. Однако Билл Фейр и Эрл Айзек подумали, что машины справились бы лучше. В 1956 году они основали Fair Isaac Corporation и начали вычислять кредитные рейтинги FICO.
Вскоре автоматическая оценка платежеспособности для получения кредита вошла в норму. Издание American Banker сообщало, что к 1999 году «ни один сотрудник не рассматривает просьбы о кредите на сумму в 50 тысяч долларов или меньше – все делает компьютер»[129]129
P. Nadler, “Weekly Adviser: Horror at Credit Scoring Is Not Just Foot-Dragging,” American Banker, no. 211 (November 2, 1999), https://www.americanbanker.com/news/weekly-adviser-horror-at-credit-scoring-is-not-just-foot-dragging.
[Закрыть]. Было подтверждено, что рейтинг FICO и его эквиваленты весьма надежно прогнозируют возврат кредита, а поскольку в последние годы увеличилось количество и разнообразие цифровой информации о людях, эти большие данные стали использоваться для улучшения и расширения кредитных рейтингов.
Их разработчики должны быть осторожны, чтобы не перейти «красную черту» и не начать незаконно отказывать или ограничивать размер кредита людям по географическому, расовому или этническому признаку. Впрочем, в целом эти рейтинги полезны, поскольку дают возможность взять кредит большему количеству человек и позволяют заемщикам уверенно расширять свой бизнес. Есть фактические свидетельства того, что случаев пересечения «красной черты» стало действительно меньше, когда решения о выдаче кредитов стали приниматься преимущественно компьютерами. В 2007 году Федеральная резервная система сообщила, что модель кредитного рейтинга «ограничила возможность совершения незаконных дискриминирующих действий… [и] способна уменьшить вероятность того, что на решения о кредитах будут оказывать влияние личностные характеристики или другие факторы, запрещенные законом, включая расовую или национальную принадлежность»[130]130
Board of Governors of the Federal Reserve System, Report to the Congress on Credit Scoring and Its Effects on the Availability and Affordability of Credit, August 2007, pp. 36 and S-4, https://www.federalreserve.gov/boarddocs/rptcongress/creditscore/creditscore.pdf.
[Закрыть].
Сегодня можно увидеть массу примеров полезных, эффективных решений, стопроцентно принимаемых компьютерами. Amazon и другие площадки, занимающиеся торговлей в интернете, генерируют рекомендации для покупателя при каждом посещении сайта, и, хотя многие предложения не попадают в цель, некоторые оказываются вполне интересны. Amazon оценивает, что 35 процентов ее сделок становятся возможны в результате кросс-продажной деятельности, например после рекомендации других товаров[131]131
Chuck Cohn, “Beginner’s Guide to Upselling and Cross-Selling,” Entrepreneurs (blog), Forbes, May 15, 2015, http://www.forbes.com/sites/chuckcohn/2015/05/15/a-beginners-guide-to-upselling-and-cross-selling/#4c310dec572e (статья ссылается на следующую статью: http://www.the-future-of-commerce.com/2013/10/14/ecommerce-cross-sell-up-sell).
[Закрыть]. Цены на авиабилеты и номера в гостиницах постоянно меняются, реагируя на предполагаемое развитие спроса и предложения. Такой подход к ценообразованию, известный как управление доходами, жизненно важен для несметного множества компаний (в главе 8 мы вернемся к этой теме), и очень редко при автоматическом генерировании цен их перепроверяет человек – если такое вообще бывает. Цены на физические товары сейчас тоже часто меняются автоматически. В 2015 году на следующий день после Дня благодарения Amazon и Walmart изменили цены на все товары в США на 16 и 13 процентов соответственно[132]132
360pi, “360pi Cyber Monday Recap: Amazon Maintains Overall Price Leadership on Record-Setting Online Shopping Day, but Best Sellers Take Priority,” December 9, 2015, http://360pi.com/press_release/360pi-cyber-monday-recap-amazon-maintains-overall-price-leadership-record-setting-online-shopping-day-best-sellers-take-priority.
[Закрыть].
Сегодня столько решений целиком принимается компьютерами, что экономист Брайан Артур использует понятие «невидимой экономики»[133]133
W. Brian Arthur, “The Second Economy,” McKinsey Quarterly, October 2011, http://www.mckinsey.com/business-functions/strategy-and-corporate-finance/our-insights/the-second-economy.
[Закрыть], имея в виду процесс, при котором сделки происходят без человеческого участия – «масштабно, негласно, комплексно, невидимо и независимо от нас». Постепенно эта автоматическая вторая экономика вторгается в традиционную, в которой есть люди-посредники, и алгоритмы берут на себя то, что делали эксперты и лица, принимающие решения. Поскольку все больше и больше информации переходит в цифровую форму, мир представляет собой изобилие данных, помогающих улучшить принятие решений там, где интуицию можно заменить алгоритмом.
Рекламные агентства уже давно помогают клиентам не только в творческой работе над созданием роликов, но и в определении того, когда и где их нужно показывать, – во время каких телепрограмм, на каких рынках и в какое время они будут лучше соответствовать целям и бюджету рекламы. Для этой работы уже не одно десятилетие используются данные и технологии. Так, агентство в популярном телесериале «Безумцы» (Mad Men) в 1969 году применяет свой первый компьютер, IBM System/360, чтобы эффективнее размещать рекламу (и производить впечатление на клиентов)[134]134
Andrea Ovans, “That Mad Men Computer, Explained by HBR in 1969,” Harvard Business Review, May 15, 2014, https://hbr.org/2014/05/that-mad-men-computer-explained-by-hbr-in-1969.
[Закрыть], но все-таки в основном опирается на суждения и решения людей.
Будучи старшим аналитиком во время второй успешной избирательной кампании Барака Обамы в 2012 году, Дэн Вагнер видел, насколько большей точности можно добиться в работе и насколько это выгодно. Вагнер с коллегами составили реестр американских избирателей. С помощью машинного обучения, которое мы обсудим в следующей главе, аналитики создали три индивидуальные оценки для каждого избирателя в реестре: оценку поддержки, прогнозировавшую, насколько вероятна поддержка человеком Обамы (по сравнению с его противником Миттом Ромни); оценку явки, прогнозировавшую вероятность, с которой человек придет на выборы и проголосует в ноябре; оценку убежденности, или прогноз вероятности того, что он будет более благожелательно относиться к Обаме после его выступления[135]135
Dan Wagner, интервью, данное авторам в июле 2015 г.
[Закрыть].
За долгие годы накопились социально-демографические данные по каждой телепередаче – например, сколько мужчин в районе Денвера в возрасте от 18 до 24 лет смотрят повторы анимационного ситкома «Гриффины» по вторникам в 22:00. Специалисты и компании, покупающие эфирное время для рекламы, традиционно опираются на эту информацию в принятии решений. Если бы у кампании Обамы в 2012 году было намерение донести его обращение до мужчин в возрасте от 18 до 24 лет, живущих в Колорадо, множество компаний и людей посоветовали бы запускать рекламу вечером во вторник во время повтора «Гриффинов».
Подобно большинству других специалистов по закупке рекламного времени, люди в команде Обамы знали, что на такие социально-демографические данные лучше не полагаться, так как они очень неточны. Не исключено, что рекламу увидели бы преимущественно сторонники Ромни или же люди, которые уже приняли решение голосовать за Обаму (что тоже было неподходящим вариантом, поскольку средства расходовались впустую). Опираться на демографию – все равно что полагаться на суждения и оценки, которые на деле немногим лучше догадок. Кто сказал, что к мужчинам в возрасте от 18 до 24 лет можно обращаться как к единой группе или что зрители «Гриффинов» (либо мультфильмов в целом) более восприимчивы к выступлениям Обамы?
Вагнер и его коллеги поняли, что, составив всеобъемлющий реестр избирателей, они уже прошли полпути к более эффективной покупке эфирного времени. С его помощью можно было бы вычислить людей, находящихся в тех двух группах, до которых желательнее всего достучаться: сторонников Обамы, не собирающихся идти голосовать, и колеблющихся избирателей, которых нужно уговорить поддержать Обаму. Первая группа получила название «идите голосовать» (GOTV, get out the vote), вторая – «поддающиеся убеждению». Команда аналитиков обнаружила, что участники этих групп принадлежат к самым разным категориям, поэтому выбор телепередач только на основе демографических сведений не позволил бы обратиться к целевой аудитории. Команда также узнала из более ранних экспериментов, что эти две группы реагируют на разные виды агитации, так что при покупке времени на телевидении необходимо было их дифференцировать.
К 2012 году некоторые рейтинговые компании вышли далеко за рамки использования одних только демографических данных и были в состоянии указать, какие отдельные люди их смотрят[136]136
Эта информация поступает от абонентских приставок, которые люди соглашаются подключить в своих домах.
[Закрыть]. Этих-то данных и не хватало Вагнеру и его коллегам. Они предоставили таким компаниям списки GOTV («идите голосовать») и «поддающихся убеждению», а взамен получили информацию о том, сколько людей в каждой группе смотрят ту или иную телепередачу[137]137
Чтобы сохранить тайну личной информации, сопоставлением занималась третья сторона, так что ни специалисты Обамы, ни рейтинговая компания не видели поименных списков.
[Закрыть]. Это позволило легко определить наилучшее эфирное время – то есть те телепрограммы, которые собирают у экранов больше всего GOTV и «поддающихся убеждению» в расчете на доллар рекламных расходов. Вагнер рассказывал: «Мы пришли к мысли покупать время поздних вечерних программ вроде тех, что крутят на TV Land, хотя это и казалось странным. Они считались в целом невыгодными и потому были дешевы. Но их смотрело множество избирателей, поддающихся убеждению, так что мы купили время»[138]138
Dan Wagner, интервью, данное авторам в июле 2015 г.
[Закрыть].
После выборов Вагнер основал компанию под названием Civis Analytics, которая трансформировала этот подход к покупке эфирного времени в готовый продукт и стала предлагать его рекламодателям. По мнению Вагнера, сейчас самое время продавать такие услуги – в основном по той причине, что у многих компаний есть огромные списки отдельных людей: перспективных клиентов, активных клиентов, людей, возможно, склонных к дополнительным покупкам, и прочих. Он говорил нам: «Если вы продаете дорогие шины, то существует сколько-то людей, желающих потратить уйму денег на дорогие шины, и 90 процентов тех, кому на них наплевать, потому что они не водят машину или склонны экономить. У вас есть вполне пригодное представление о вашей целевой аудитории, но раньше вы не знали наверняка, какие телепередачи она смотрит. Что ж, теперь вам это известно»[139]139
Dan Wagner, интервью, данное авторам в июле 2015 г.
[Закрыть]. Для рекламодателей размещение роликов в телеэфире – важное решение, оно принимается на основе определенных данных, но на него также сильно влияют человеческие суждения. Компания Civis стремится изменить эту ситуацию и сделать покупку рекламного времени в меньшей степени интуитивной и в большей степени рациональной.
Разумеется, даже прекрасно отлаженная система, основанная на данных, далека от совершенства, особенно если она имеет дело с неточной информацией. В 2016 году во время кампании Хиллари Клинтон применялись аналогичные методы, но Клинтон проиграла выборы, в частности, потому, что данные опросов ошибочно показали, что у нее будет большой отрыв в трех штатах Среднего Запада, где она в итоге немного уступила.
Еще одна проблема состоит в том, что лица, принимающие решение, не всегда правильно ставят конечную цель; Ронни Кохави (один из авторов термина HiPPO) называет это явление критерием общей оценки[140]140
Ron Kohavi, Randal M. Henne, and Dan Sommerfield, “Practical Guide to Controlled Experiments on the Web: Listen to Your Customers Not to the HiPPO,” 2007, https://ai.stanford.edu/~ronnyk/2007GuideControlledExperiments.pdf.
[Закрыть]. Даже если бы группа Вагнера смогла максимально точно выявить преимущество Клинтон в разных штатах, такая цель не была бы правильной. Президент США избирается коллегией выборщиков, а не прямым народным голосованием, следовательно, здесь требуется более тонкая стратегия, зависящая от штата. Аналогичным образом легко измерить количество просмотров страницы сайта или количество кликов, которые обеспечила сетевая рекламная кампания, однако бизнес больше интересуют долговременные продажи, которые обычно максимизируют иначе. Способность тщательно отбирать входные данные и определять правильные показатели работы – ключевой навык для лиц, принимающих решения на основе данных.
КОГДА АЛГОРИТМЫ ВЕДУТ СЕБЯ ПЛОХО
У передачи решений машинам есть вполне реальное неприятное следствие: ошибки и недочеты в алгоритмах могут закрепить или даже усилить некоторые из вредных предрассудков нашего общества. Например, Латания Суини, известный профессор из Гарварда, встревожилась, после того как ввела свое имя в Google. Вместе с результатами появилось объявление:
Латания Суини. Арестована? 1. Введите имя и штат. 2. Получите доступ ко всей информации. Мгновенные проверки – www.instantcheckmate.com[141]141
“Racism Is Poisoning Online Ad Delivery, Says Harvard Professor,” MIT Technology Review, February 4, 2013, https://www.technologyreview.com/s/510646/racism-is-poisoning-online-ad-delivery-says-harvard-professor.
[Закрыть]
Такое объявление предполагало, что у нее криминальное прошлое, хотя она никогда не подвергалась задержанию.
Решив исследовать это явление, Суини обнаружила, что поиск по именам, более распространенным среди афроамериканцев (например, Тревон, Лакиша или – да, Латания), с гораздо большей вероятностью приводил к появлению сообщения «Арестована?», чем по именам, чаще ассоциирующимся с белыми (например, Лори или Брендан)[142]142
Latanya Sweeney. “Discrimination in Online Ad Delivery,” Queue 11, no. 3 (2013): 10.
[Закрыть]. О причинах этого феномена нельзя сказать ничего точно, но Суини дала ему такое объяснение: алгоритм Google, обеспечивающий показ рекламы, заметил, что клики более вероятны, когда объявления связаны с именами, характерными для чернокожих. Это не отражение сознательных дискриминирующих действий людей, размещающих объявления или работающих в Google. Просто алгоритм отражает и усиливает распространенный в обществе расовый предрассудок, проявляющийся в решениях миллионов людей кликнуть по определенным объявлениям. Аналогичным образом по словам «ученый» и «бабушка», набранным в январе 2017 года в сервисе поиска изображений Google, выдавалось ошеломляющее количество фотографий белых людей.
В статье в Nature Кейт Кроуфорд и Райан Кало отмечали опасность того, «что в ряде контекстов недостатки систем искусственного интеллекта чрезвычайно влияют на группы, которые и без того находятся в невыгодном положении из-за таких факторов, как расовая принадлежность, пол или социально-экономические условия», и подчеркивали, насколько важно при проектировании таких систем учитывать социальные воздействия – как намеренные, так и непреднамеренные[143]143
Kate Crawford and Ryan Calo, “There Is a Blind Spot in AI Research,” Nature 538, no. 7625 (2016): 311. Подходит также диссертация Даны Бойд: “The Networked Nature of Algorithmic Discrimination” (PhD diss., Fordham University, 2014).
[Закрыть].
Мы разделяем эту озабоченность и видим в тенденции к алгоритмическому принятию решений как вероятные проблемы, так и благоприятные возможности. Проблемы состоят в том, что такой подход способен укоренить и закрепить несправедливые, опасные и нежелательные искажения. Хуже того, такие искажения могут возникать, несмотря на искреннее желание разработчиков создавать по-настоящему беспристрастные системы, и, вероятно, их будет трудно обнаружить без масштабного тестирования. Любой проект обязательно столкнется с такой проблемой.
Благоприятные возможности состоят в том, что компьютерные системы, как правило, легко поддаются тестированию и улучшению. И если какую-то ошибку однажды исправить, то маловероятно, что она проявится снова. Людям, напротив, крайне трудно разобраться в своих предрассудках (сколько явных расистов и сексистов вы знаете?), не говоря уже о том, сколько труда нужно для их преодоления. Если смотреть на ситуацию реалистично, то для систем, принимающих решение, идеальным не будет ни один стандарт – хоть на основе компьютера, хоть на основе человека, хоть на их сочетании. Любая система, скорее всего, будет содержать искажения и делать ошибки. Так что лучше поставить цель выработать такой подход, который сведет их к минимуму и позволит легко и быстро их исправлять.
ИСПОЛЬЗУЙТЕ РАЗУМ ДЛЯ ПРИНЯТИЯ РЕШЕНИЙ – НО ДЕЛАЙТЕ ЭТО РАЗУМНО
Какую роль в принятии решений должны играть люди (и должны ли вообще)? Мы уже знаем об искажениях и ошибках Системы 1, у нас есть океаны данных и растущие с каждым годом вычислительные мощности, так что можно сделать вывод, что «невидимая экономика» вот-вот вытеснит традиционную, а цифровые аналоги Системы 2 вскоре станут принимать большинство решений. Есть такая старая шутка: в будущем на каждом заводе останется всего два работника – человек и собака. Обязанностью человека будет кормить собаку, а обязанностью собаки – следить, чтобы человек не касался машин[144]144
Mark Fisher, The Millionaire’s Book of Quotations (New York: Thorsons, 1991), quoted in Barry Popik, “The Factory of the Future Will Have Only Two Employees, a Man and a Dog,” Barrypopik.com (blog), December 2, 2015, http://www.barrypopik.com/index.php/new_york_city/entry/the_factory_of_the_future.
[Закрыть]. А может, действительно компании завтрашнего станут такими?
Мы так не думаем. Да, у нас есть предрассудки, которых нет у компьютеров. Но у нас есть и сильные стороны, которых лишены машины. Начнем с того, что мы постоянно получаем от своих органов чувств невообразимое количество данных и при этом не занимаемся предварительным отбором – просто вбираем их целиком по мере поступления. Нам трудно слышать только некоторые звуки или видеть только некоторые вещи – даже в течение короткого времени. Компьютеры ведут себя наоборот: они испытывают огромные трудности в сборе разнородных данных или данных, отличных от тех, с которыми им позволили работать конструкторы и программисты.
Эта разница приводит к появлению важной работы для людей – Мил назвал ее «ролью сломанной ноги»[145]145
Paul E. Meehl, Clinical versus Statistical Prediction (Minneapolis: University of Minnesota Press, 1954).
[Закрыть]. Для иллюстрации своей идеи он придумал такой пример. Некий профессор каждый вторник в течение нескольких лет ходит в кино. Разумеется, компьютер спрогнозирует, что он снова пойдет туда и на следующей неделе. И вдруг в ближайший вторник утром профессор ломает ногу, и гипс на бедре не позволяет ему втиснуться в кресло кинотеатра (пример был придуман в 1954 году). Любой человек мгновенно поймет, что вечер у профессора не задался, но такую догадливость непросто включить в алгоритм компьютера. Существует слишком много различных непредвиденных факторов, влияющих на поведение профессора[146]146
Paul E. Meehl, Clinical versus Statistical Prediction (Minneapolis: University of Minnesota Press, 1954).
[Закрыть]. Кто бы ни разрабатывал компьютерную систему, он не в силах собрать достаточно данных обо всех факторах, чтобы программа могла их учесть. Единственный способ сделать это – иметь всеобъемлющую модель мира, в отличие от той, что есть у компьютера.
Еще одно огромное преимущество человека – старый добрый здравый смысл. У одних его меньше, чем у других, но у любого из нас здравого смысла неизмеримо больше, чем у самых совершенных компьютеров. Как только мы рождаемся, мы начинаем изучать важные вещи о том, как устроен мир, и исследуем его уверенно и быстро. Однако, несмотря на десятилетия экспериментов, мы всё еще слишком мало знаем о том, как приобретается здравый смысл, и наши попытки привить его компьютерам до сих пор заканчивались грандиозными провалами (мы поговорим о них в следующей главе).
Таким образом, во многих случаях хорошо иметь под рукой человека, который будет проверять решения компьютера, чтобы убедиться, что они имеют смысл. Томас Дэвенпорт, специалист по аналитике и технологиям, называет такой надзор «взглядом из окна»[147]147
Stuart Lauchlan, “SPSS Directions: Thomas Davenport on Competing through Analytics,” MyCustomer, May 14, 2007, http://www.mycustomer.com/marketing/strategy/spss-directions-thomas-davenport-on-competing-through-analytics.
[Закрыть]. Это не просто выразительная метафора. Эти слова произнес его знакомый пилот, который рассказывал, что вполне полагается на приборы самолета, но считает важным иногда самому взглянуть на линию горизонта. Такой подход может быть в высшей степени полезным не только для предотвращения ошибок, но и для сохранения репутации компании.
Сервис Uber познал это на горьком опыте в конце 2014 года. Тогда компания была хорошо известна тем, что временно повышала тарифы в часы интенсивного спроса, хотя многие пользователи считали подобную тактику неприемлемой. Руководство Uber полагало (и мы с ним согласны), что такое ценообразование полезно для баланса спроса и предложения. Алгоритмы компании подталкивали цены вверх, чтобы привлечь к участию больше водителей в те моменты, когда реальное или ожидаемое число свободных автомобилей не соответствовало спросу клиентов.
Практика привела к негативным отзывам о компании, когда в декабре 2014 года в Сиднее выходец из Ирана взял в заложники восемнадцать человек в кафе[148]148
“Uber ‘Truly Sorry’ for Price Surge during Sydney Siege,” BBC News, December 24, 2014, http://www.bbc.com/news/technology-30595406.
[Закрыть]. Множество людей спешили покинуть опасное место, и некоторые пытались уехать на такси Uber. Компьютерные системы компании в ответ на внезапный рост спроса повысили цены. Многим людям это показалось совершенно неадекватной реакцией на ситуацию, и компанию стали активно критиковать.
Uber обнародовала заявление: «Мы не могли немедленно остановить повышение цен [во время инцидента в Сиднее]. Это наша ошибка»[149]149
“Uber ‘Truly Sorry’ for Hiking Prices during Sydney Siege,” Telegraph, December 24, 2014, http://www.telegraph.co.uk/news/worldnews/australiaandthepacific/australia/11312238/Uber-truly-sorry-for-hiking-prices-during-Sydney-siege.html.
[Закрыть]. После того случая компания добавила в программу возможность заблокировать автоматическое повышение цен при некоторых обстоятельствах. Вечером 13 ноября 2015 года исламские террористы произвели серию терактов в Париже. В течение 30 минут после первого из них Uber отменила повышение цен в городе[150]150
Andrew J. Hawkings, “Tracing the Spread of Uber Rumors during Paris Terrorist Attacks,” Verge, November 16, 2015, http://www.theverge.com/2015/11/16/9745782/uber-paris-terrorism-rumors-twitter-facebook.
[Закрыть], предупредив об опасности всех своих пользователей[151]151
Тем не менее широко распространялись слухи, что повышение цен на такси Uber во время терактов в Париже продолжалось.
[Закрыть].
Примеры наподобие описанного показывают действенность совместного использования человеческого разума и алгоритмов. Однако если бизнес решится на такое, ему придется быть внимательным. Поскольку мы, люди, так зависим от своих суждений, так уверены в них и столь самонадеянны, многие из нас (если не большинство) поспешат заблокировать принятое компьютером решение, даже если оно будет лучшим. Но Крис Снейдерс, который исследовал прогнозы о закупках (мы рассказывали о нем ранее в этой главе), обнаружил, что «обычно по правильности решений эксперты, имеющие вспомогательные средства, находятся где-то между компьютерной моделью и экспертами без вспомогательных средств. Поэтому люди действуют эффективнее, если вы даете им модель. Но сама по себе модель все равно работает лучше»[152]152
Ian Ayres, Super Crunchers: Why Thinking-by-Numbers Is the New Way to Be Smart (New York: Random House, 2007), Kindle ed., loc. 1801.
[Закрыть].
Мы поддерживаем идею о том, что человек должен участвовать в принятии решений, по тем причинам, что описали Мил и Дэвенпорт, но также выступаем за то, чтобы компании «следили за счетом» везде, где возможно. Им следует все время сравнивать эффективность решений компьютера и людей. Если блокирующие действия человека правильнее, чем поведение алгоритма по умолчанию, все идет хорошо. Если же дела обстоят не так, значит, нужно что-то менять, и первым делом стоит уведомить людей об их низком коэффициенте эффективности.
Обратная связь крайне важна, поскольку именно так обучается и улучшается Система 1. Вот что пишут Канеман и психолог Гэри Кляйн: «Вам не следует верить своему чутью. Нужно рассматривать его как важный ориентир, но всегда осознанно и обдуманно оценивать эти предположения, чтобы понять, имеют ли они смысл в данном контексте»[153]153
Daniel Kahneman and Gary Klein, “Strategic Decisions: When Can You Trust Your Gut?” McKinsey Quarterly, March 2010, http://www.mckinsey.com/business-functions/strategy-and-corporate-finance/our-insights/strategic-decisions-when-can-you-trust-your-gut.
[Закрыть]. Лучший способ сделать Систему 1 точнее и свести к минимуму ее искажения – показывать ей много примеров и давать обратную связь настолько быстро и часто, насколько это возможно.
ПЕРЕВЕРНИТЕ СТАНДАРТНОЕ ПАРТНЕРСТВО ДЛЯ БОЛЬШЕЙ ЯСНОСТИ
Самый современный метод принятия решений (его только начинают использовать некоторые компании) заключается в переворачивании обычного порядка с ног на голову: не машины предоставляют данные, чтобы человек на их основании принял решение, а суждение человека используется в качестве данных для работы компьютера. Компания Google стала пионером в применении такого метода к найму сотрудников. Это была важнейшая область для компании, поскольку обычный подход там давал плохие результаты.
Когда Ласло Бок был главой отдела по работе с персоналом в Google, он понял, что большая часть методов, используемых для отбора новых сотрудников, бесполезна. Его команда стала думать, чем объясняется разница в фактической производительности людей, и обнаружила, что от предварительной проверки рекомендаций она зависит примерно на 7 процентов, от прошлого опыта – на 3 процента, а от результатов бессистемных собеседований, которые по-прежнему широко распространены и начинаются типичными вопросами «Каковы ваши сильные стороны?» и «Пройдемся по вашему резюме?» – всего на 14 процентов. Бок говорил, что проблема с этими собеседованиями состояла в следующем:
Сложилась ситуация, когда собеседования проводились для того, чтобы подтвердить наше мнение о людях, а не для их истинного оценивания. Психологи называют это предвзятостью подтверждения. На основании ничтожно малого взаимодействия мы неосознанно выносим скоропалительное суждение, на которое значительно влияют наши собственные предрассудки и убеждения. Не сознавая этого, мы переходим от оценивания кандидата к выискиванию подтверждений того, что он соответствует нашему первоначальному впечатлению[154]154
Laszlo Bock, “Here’s Google’s Secret to Hiring the Best People,” Wired, April 7, 2015, https://www.wired.com/2015/04/hire-like-google.
[Закрыть].
В этом случае в действие снова вступает Система 1, которая вносит в принятие важного решения искажения и ошибки.
Итак, как лучше нанимать сотрудников? Компания Google стала в значительной степени опираться на структурированные, формализованные собеседования, которые объясняют более 25 процентов дальнейшей фактической производительности. Процедура состоит из набора заранее определенных вопросов, предназначенных для оценивания, например, общей когнитивной способности человека. Все люди, проводящие собеседования в Google, используют этот подход и в целом задают одни и те же вопросы. Как объяснял Бок, «в итоге мы получили собеседование с согласованными критериями… Интервьюер должен указывать, как действовал кандидат в том или ином случае, каждый уровень выполнения задания четко установлен… Такие четкие критерии… изменили прежде путаные, размытые и сложные процедуры, сведя их к ряду задач с измеримыми результатами»[155]155
Laszlo Bock, “Here’s Google’s Secret to Hiring the Best People,” Wired, April 7, 2015, https://www.wired.com/2015/04/hire-like-google.
[Закрыть].
При таком подходе суждения отдельных людей, проводящих собеседование, по-прежнему остаются ценными, однако они оцениваются количественно и используются для того, чтобы присвоить кандидатам какие-то численные оценки. Бок считает, что этот подход не обезличивает собеседование, не превращает его в формальность, а наоборот. Люди, устраивающиеся на работу в Google, ценят то, что с ними обращаются объективно и справедливо (80 процентов отвергнутых кандидатов, которые прошли собеседование по новой форме, сказали, что они рекомендовали бы друзьям подать заявление в Google), а решения о найме стали проще. Как заметил Бок: «Это позволяет увидеть четкую границу между превосходным и средним уровнем»[156]156
Laszlo Bock, “Here’s Google’s Secret to Hiring the Best People,” Wired, April 7, 2015, https://www.wired.com/2015/04/hire-like-google.
[Закрыть].
РЕШЕНИЯ – СЛИШКОМ СЕРЬЕЗНОЕ ДЕЛО, ЧТОБЫ ДОВЕРЯТЬ ЕГО ЛЮДЯМ, ПРИНИМАЮЩИМ РЕШЕНИЯ[157]157
Отсылка к фразе Талейрана: «Война слишком серьезное дело, чтобы доверять ее военным». Прим. перев.
[Закрыть]
Мысль о предстоящих изменениях в привычном взаимодействии разума и машины, в некоторых случаях даже переставляющих их местами, заставляет многих людей чувствовать себя неуютно. Большинство из нас верят в человеческую интуицию, в способность выносить суждения и принимать решения, особенно если речь идет не о ком-то постороннем, а именно о нас (мы обсуждали эту тему в разных аудиториях и практически не встречали человека, который бы признал, что его интуиция или рассудительность ниже среднего). Однако доказательства обратного настолько очевидны, что просто ошеломляют: в большинстве случаев, когда есть возможность сравнивать оба варианта, решения компьютерного аналога Системы 2 оказываются лучше, чем решения, принятые нами на основе обеих систем в нашем мозге. Но не стоит думать, что наши суждения бесполезны. Нет, просто их стоит улучшить. Это можно сделать с помощью рассмотренных нами подходов: позволить алгоритмам и компьютерным системам принимать решения, иногда используя в качестве входных данных человеческие суждения, а также разрешить людям в случае необходимости нажимать кнопку «стоп».
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?