Текст книги "Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта"
Автор книги: Фрэнк Паскуале
Жанр: О бизнесе популярно, Бизнес-Книги
сообщить о неприемлемом содержимом
Текущая страница: 2 (всего у книги 26 страниц) [доступный отрывок для чтения: 9 страниц]
В качестве примера применения этого принципа рассмотрим чат-бота, который постепенно обучается определенным паттернам диалога, используя для этого общение в сети Twitter. Если верить некоторым новостным аккаунтам, чат-бот компании Microsoft, Tay, оснащенный ИИ, быстро усвоил речевые паттерны отъявленных нацистов, проведя лишь несколько часов в Twitter[25]25
Helena Horton, “Microsoft Deletes ‘Teen Girl’ Al after It Became a Hitler-Loving Sex Robot,” Telegraph, March 24, 2017, https://www.telegraph. co.uk/technology/2016/o3/24/microsofts-teen-girl-ai-turns-into-a-hitler-loving-sex-robot-wit/.
[Закрыть]. Microsoft не программировала такой результат, но компания должна была знать, что опасно размещать бота на платформе, известной плохой модерацией преследований и ненавистнических высказываний. Кроме того, если бы чат-бот вел дневник дурных воздействий, он мог бы сообщить о них в сети Twitter, которая, если бы работала лучше, могла бы предпринять определенные действия, чтобы приостановить или замедлить поток оскорблений, исходящих от аккаунтов троллей, а может, и кого похуже.
Регулирующие ведомства должны будут требовать запроектированной ответственности (дополняющей обширные модели запроектированной безопасности и конфиденциальности). Для этого, возможно, придется запрограммировать на аппаратном уровне обязательные контрольные журналы или ввести практики лицензирования, в которых специально оговариваются проблемные исходы[26]26
Различие между закрытой и открытой робототехникой см. в: M. Ryan Calo, “Open Robotics,” Maryland Law Review 70 (2011): 571, 583–591; Diana Marina Cooper, “The Application of a ‘Sufficiently and Selectively Open License’ to Limit Liability and Ethical Concerns Associated with Open Robotics,” in Robot Law, eds. Ryan Calo, A. Michael Froomkin, and Ian Kerr (Cheltenham, UK: Edward Elgar, 2016), 163, 164–165.
[Закрыть]. Подобные инициативы будут не просто регулировать робототехнику и ИИ post hoc, но и влиять на развитие систем, закрывая одни возможности 27 проектирования и поощряя другие[27]27
Staff of the US Securities and Exchange Commission and Staff of the US Commodity Futures Trading Commission, Joint Study on the Feasibility of Mandating Algorithmic Descriptions for Derivatives (April 2011), 16, 16П77, 24, https://www.sec.gov/news/studies/2011/719b-study.pdf.
[Закрыть].
* * *
Каждый из этих новых законов робототехники, требующих дополнительности, аутентичности, сотрудничества и атрибуции, основывается на теме, которая будет служить ориентиром для всего нашего исследования, а именно на ключевом различии между технологией, которая заменяет людей, и технологией, которая позволяет им лучше делать свою работу. Смысл новых законов в том, чтобы развивать программы, которые делают ставку на силы человека в таких областях, как здравоохранение и образование, и чтобы воспользоваться человеческими ограничениями для сужения масштаба и снижения интенсивности конфликта и зарегулированности в нашей социальной жизни.
Исследователи в области ИИ давно стремятся создать компьютеры, которые могли бы чувствовать, мыслить и действовать как люди. Еще в 1960-е гг. специалисты по робототехнике в MIT разрабатывали роботов-часовых, способных освободить солдат от утомительной и опасной обязанности стоять на посту в местах, которые могут подвергнуться атаке[28]28
John Markoff, “The Creature That Lives in Pittsburgh,” New York Times, April 21, 1991, http://www.nytimes.com/1991/04/21/business/ the-creature-that-lives-in-pittsburgh.html?pagewanted=all; Rodney Brooks, Flesh and Machines: Ноъо Robots Will Change Us (New York: Pantheon, 2002).
[Закрыть]. Однако есть и другое понимание робота-часового – его можно расценивать не в качестве ИИ, заменяющего воинский состав, а в качестве еще одного средства, повышающего эффективность солдат-охранников. Если внедрить такой ИИ, армии, возможно, не нужно будет призывать дополнительных солдат для контроля все новых и новых угроз. Можно разработать сенсоры и компьютеры, которые будут работать в качестве дополнительного набора ушей и глаз, быстро оценивая уровни угрозы и другие данные, чтобы помочь солдатам с выбором действий. Эта цель, которая определяется как «усиление интеллекта» (УИ), определила проекты многих первопроходцев интернета[29]29
См.: Джон Маркофф, Homo Roboticus?Люди и машины в поисках взаимопонимания (Москва: Альпина нон-фикшн, 2017), где описывается первопроходческая работа в области ИИ Дага Энгельбарта и многих его последователей. См. также: Doug Engelbart, Augmenting Human Intellect: A Conceptual Framework (Washington, DC: Air Force Office of Scientific Research, 1962).
[Закрыть]. Также она является основой современного военного дела, то есть когда пилоты дронов работают с обширным комплексом данных, поступающих от сенсоров, и от их решений о воздушных бомбардировках зависят вопросы жизни и смерти.
Различие между ИИ и УИ, хотя порой оно и стирается, критически важно для определения направления инноваций. Большинство родителей не готовы отправить своих детей к учителям-роботам. Также детей не нужно учить тому, что их учителей со временем заменят машины, отлично подогнанные под их манеру обучения. В образовании есть много более гуманных концепций роботов. Например, школы уже успешно экспериментировали с «роботами-компаньонами», помогающими ученикам зубрить списки слов. Они способны задавать вопросы о том, что ученики только что выучили. Эти роботы, которые выглядят как животные или вымышленные создания, но не люди, не ставят под вопрос уникальность человека.
Исследователи постепенно приходят к выводу, что во многих контекстах УИ дает лучшие результаты и приносит больше пользы, чем искусственный или человеческий интеллект, когда они работают порознь. УИ и роботы, выполняющие функцию ассистентов, могут стать настоящим подарком для работников, высвобождая время для отдыха или досуга. Но в любой современной экономике действуют законы, которые заставляют выбирать ИИ, а не УИ.
Робот не просит отгулов, справедливой заработной платы, ему не нужна медицинская страховка. Когда труд рассматривается прежде всего в качестве издержек, справедливая оплата становится проблемой, которую как раз и должны решить роботы. Роботы привели к революции в промышленном производстве, заменив рабочих на конвейере. Сегодня многие бизнес-эксперты требуют похожего технологического развития, которое позволит роботам взять на себя более сложные задачи, начиная с медицины и заканчивая армией.
Слишком многие журналисты, увлеченные этим управленческим энтузиазмом, обсуждали «роботов-юристов» и «роботов-врачей» так, словно они уже существуют. В этой книге будет показано, что подобные описания нереалистичны. В той мере, в какой технология действительно меняет профессии, она обычно действует методами УИ, а не ИИ. За головокружительными заголовками о «программах, которые съедают мир», скрываются десятки менее громких случаев применения вычислений, помогающих адвокатам, врачам или учителям работать лучше и быстрее[30]30
Marc Andreessen, “Why Software Is Eating the World,” Wall Street Journal, August 20, 2011, https://www.wsj.com/articles/SB1ooo1424053111903480904576512250915629460..
[Закрыть]. Вопрос программ инноваций теперь в том, как сохранить преобладание УИ и где развивать ИИ. Эту проблему мы проанализируем применительно к разным секторам, не пытаясь придумать одну на все случаи модель технологического развития.
В разговорах о роботах обычно два полюса – утопический («машины будут делать всю грязную, опасную или сложную работу») и дистонический («да и всю остальную, а потому создадут массовую безработицу»). Однако будущее автоматизации рабочих мест (и не только) будет определяться миллионами небольших решений о том, как развивать ИИ.
В какой мере можно довериться машинам и передать им задачи, которые раньше выполняли люди? Что приобретается и теряется, когда они берут их решение на себя? Каково оптимальное сочетание роботизированных и человеческих взаимодействий? И как различные правила – начиная с кодексов профессиональной этики и заканчивая страховыми программами и уставами – влияют на объем и скорость роботизации повседневной жизни? Ответы на эти вопросы могут в значительной мере определять то, к чему приведет автоматизация – к революции роботов или к медленному и осторожному улучшению того, как выполняется та или иная работа.
* * *
Почему нас должны особенно волновать роботы и ИИ, если сравнить их с повсеместно распространившимися экранами и программами, которые уже колонизировали значительную часть нашего времени? Есть две практические причины. Во-первых, физическое присутствие робота может быть намного более навязчивым, чем любого планшета, смартфона или сенсора; собственно, сами эти технологии могут встраиваться в роботов[31]31
Ryan Calo, “Robotics and the Lessons of Cyberlaw,” California Law Review 103, no. 3 (2015): 513–563.
[Закрыть]. Никакой плоский экран не может протянуть руку, остановить ребенка-хулигана или непокорного заключенного, меняя тем самым актуальную технологию контроля толпы и вырабатывая новые формы дисциплины. Но робот все это может.
Даже если внедрение роботов идет медленно или в ограниченном масштабе, ИИ грозит дать новый толчок техникам завлечения и убеждения, встроенным в различные технологии, начиная с мобильных приложений и заканчивая видеопокером[32]32
Ian Kerr, “Bots, Babes and the Californication of Commerce,” Ottawa Law and Technology Journal 1 (2004): 285–325.
[Закрыть]. Исследователь взаимодействий человека и компьютера Джули Карпентер отмечает: «Даже если вам известно, что у робота очень мало автономии, но когда нечто движется в вашем пространстве и при этом кажется, что это движение происходит с какой-то определенной целью, мы приписываем такой вещи внутреннее сознание или цели»[33]33
Rachel Lerman, “Be Wary of Robot Emotions; ‘Simulated Love Is Never Love,’ ” Phys.org, April 26, 2019, https://phys.org/news/2019-04-wary-r0b0t-em0ti0ns-simulated.html.
[Закрыть]. К примеру, и такой не слишком одушевленный аппарат, как робот-пылесос, может вызвать эмоциональную реакцию. Чем больше сенсоров записывают наши реакции, тем богаче залежи эмоциональных данных, в которых могут копаться все более сложные компьютеры[34]34
Natasha Dow Schull, Addiction by Design: Machine Gambling in Las Vegas (Princeton: Princeton University Press, 2014); Ryan Calo, “Digital Market Manipulation,” George Washington Law Review 82 (2014): 995; Neil Richards, “The Dangers of Surveillance,” Harvard Law Review 126 (2019): 1934.
[Закрыть]. Каждый «лайк» – это сигнал, указывающий на то, что нас привлекает; каждое зависание на экране – это положительное подкрепление для определенной базы данных о манипуляциях. Миниатюрные сенсоры делают наблюдение мобильным, подрывая наши попытки скрыться. Действительно, решение скрыться от сенсоров может быть основой для действий, которые очень много расскажут об окружающем нас мире. Более того, вычислительные мощности и хранилища данных могут завести нас на путь дистопии, где все имеет значение, так что все, что делает ученик, может записываться и сохраняться для оценок в будущем[35]35
Mark Andrejevic, “Automating Surveillance,” Surveillance and Society 17 (2019): 7.
[Закрыть]. И наоборот, в обычной школе ученик каждый год встречается с новыми учителями, что позволяет ему начинать с относительно чистого листа[36]36
Neil Selwyn, Distrusting Educational Technology: Critical Questions for Changing Times (New York: Routledge, 2014).
[Закрыть].
Нельзя сказать, что какой-либо из этих тревожных прогнозов наверняка сбудется, и это вторая причина, заставляющая сосредоточиться на современных программах развития робототехники. Когда роботы проникают в хорошо регулируемые сферы, у нас появляется отличная возможность определить их развитие, применяя разумные правовые стандарты защиты неприкосновенности личной жизни и защиты потребителей. Мы можем определять направление развития технологии правом[37]37
Laurence H. Tribe, Channeling Technology through Law (Chicago: Bracton, 1973).
[Закрыть]. Роботов не обязательно проектировать так, чтобы они записывали каждый момент жизни того, кого они сопровождают или за кем следят. Действительно, сам надзор за роботами может показаться достаточно угнетающим, чтобы мы требовали некоторого человеческого контроля за любой подобной системой (что и стало правилом в одной роботизированной южнокорейской тюрьме, где человек следит за механическими охранниками). Когда роботы становятся частью системы наказания, любое решение по их применению должно определяться открытой и содержательной дискуссией об управлении тюрьмами и относительных достоинствах возмездия и реабилитации. Ведь одна из основных целей новых законов робототехники – заставить политиков и чиновников не рассматривать столкновение позиций по вопросам ИИ и робототехники в качестве всего лишь части общей «программы развития технологии» и привлечь их к подлинному сотрудничеству с экспертами-профессионалами, обязанностью которых является защита важных ценностей в хорошо структурированных областях деятельности.
Циники могут посмеяться над такими ценностями, объявив их всецело субъективными, а потому обреченными на устаревание в обществе, которое становится все более технологическим. Однако сообщества ученых и консультантов, занимающихся наукой, технологией и человеческими ценностями, показали, что прогностическая этика может определять проектирование технологий и влиять на него[38]38
Deborah G. Johnson, “The Role of Ethics in Science and Technology,” Cell 29 (2010): 589–590; Deborah G.Johnson, “Software Agents, Anticipatory Ethics, and Accountability,” in “The Growing Gap between Emerging Technologies and Legal-Ethical Oversight, eds. Gary E. Marchant, Braden R. Allenby, and Joseph R. Herkert (New York: Spring, 2011), 61–76; Ari Ezra Waldman, Privacy as Trust (Oxford: Oxford University Press, 2018).
[Закрыть]. Ценности сами встраиваются в технологию[39]39
Mary Flanagan and Helen Nissenbaum, Values at Play in Digital Games (Cambridge, MA: MIT Press, 2014).
[Закрыть]. Канадские, европейские и американские регулирующие ведомства в качестве принципа, на который обязаны ориентироваться разработчики, ввели «запроектированную конфиденциальность»[40]40
См., например: Ann Cavoukian, “Privacy by Design: The 7 Foundational Principles,” Office of the Information and Privacy Commissioner of Canada (2009).
[Закрыть]. Подобные правила в еще большей степени должны относиться к технологии, опирающейся на массовое использование сенсоров, которая может свободно наращивать свои способности к записи изображения и звука. Например, у многих видеокамер есть красная лампочка, включение которой показывает, что они записывают видео, и точно так же у роботов должен быть эквивалентный индикатор, показывающий, что они записывают людей, находящихся рядом с ними. Данные, основанные на ИИ, должны стать предметом строгих ограничений, определяющих их сбор, анализ и применение[41]41
Дополнительную информацию по вопросам конфиденциальности, возникающим в связи с роботами и предсказательной аналитикой, см. в: Drew Simshaw, Nicolas Terry, Kris Hauser, and M. L. Cummings, “Regulating Healthcare Robots: Maximizing Opportunities while Minimizing Risks,” Richmond Journal of Law and Technology 27, no. 3 (2016): 1-38, 3. Об интеграции права и принципов проектирования с целью эффективного извещения см.: Ari Ezra Waldman, “Privacy, Notice, and Design,” Stanford Technology Law Review 21, no. 1 (2018): 129–184.
[Закрыть].
Адепты технологий, возможно, возразят, сказав, что регулировать робототехнику пока еще слишком рано. Пусть проблема оформится, и тогда с ней можно будет что-то сделать, считают сторонники laissez-faire. Но такой квиетизм неуместен. Слишком часто в области высоких технологий индустрия демонстрирует тот факт, что подходящего момента для регулирования не бывает никогда. Когда возникают новые бизнес-практики, вызывающие опасения, регуляторов, готовых приступить к действиям, обвиняют в том, что они душат «индустрию в зародыше». Когда же подобные практики получают широкое распространение, сам факт их повсеместности демонстрируется в качестве доказательства того, что потребители уже свыклись с ними. На любой аргумент в пользу правового воздействия найдется заранее заготовленная стратегия отвлечения, основанная на успокоительных заверениях и трюизмах. «А есть ли проблема на самом деле?», «Давайте подождем и посмотрим», «Потребители хотят этого» – все это преподносится в качестве годного на любой случай, козырного обоснования бездействия[42]42
Эту стратегию аргументации Хуфнегл называет «карточной колодой отрицателей». См.: Christopher Jay Hoofnagle, “The Denialists’ Deck of Cards: An Illustrated Taxonomy of Rhetoric Used to Frustrate Consumer Protection Efforts,” ScienceBlogs, February 9, 2007, https:// scienceblogs.com/denialism/the– denialists– deck– of– cards.
[Закрыть].
Позиция «подождем – посмотрим» игнорирует то, что технология, не будучи ни в коем смысле независимой от ценностей, сама начинает их формировать[43]43
Frank Pasquale, “Technology, Competition, and Values,” Minnesota Journal of Law, Science, and Technology 8 (2007): 607–622; Peter Asaro, “Jus Nascendi, Robotic Weapons and the Martens Clause,” in Robot Law, eds. Ryan Calo, A. Michael Froomkin, and Ian Kerr (Cheltenham, UK: Edward Elgar, 2016), 367–386.
[Закрыть]. Роботы – компаньоны детей в сетевых чартерных школах не просто отражают (или искажают) существующие ценности, определяющие то, какая именно социализация нужна детям, они еще и формируют ценности этих поколений, прививая им понимание того, какие моменты являются приватными, а какие могут легко постоянно записываться. Подобные обычаи не должны проистекать просто из того, что наиболее выгодно поставщикам технологизированного образования. Они требуют демократического управления и участия экспертов, работающих не только в сфере технологии[44]44
Frank Pasquale, “Technology, Competition, and Values,” Minnesota Journal of Law, Science, and Technology 8 (2007): 607–622.
[Закрыть].
* * *
Эта роль технологии в оформлении ценностей представляется очевидной опасностью в военном деле, где роботы могут существенно поменять наше понимание параметров честного конфликта. С точки зрения некоторых футуристов, автоматизация военного конфликта – дело решенное. Ни одна военная держава не может позволить себя слишком сильно отстать от конкурентов в разработке страшного флота «роботов-убийц»[45]45
См., например: Kenneth Anderson and Matthew C. Waxman, “Law and Ethics for Autonomous Weapon Systems: Why a Ban Won’t Work and How the Laws of War Can,” Hoover Institution Stanford University Task Force on XationalSecurity and Law (2013), где дается ответ на кампанию «Остановить роботов-убийц» (Campaign to Stop Killer Robots).
[Закрыть]. Если мы «запрограммированы на войну», значит, мы будем развивать смертоносные роботизированные силы[46]46
P. W. Singer, Wiredfor War: The Robotics Revolution and Conflict in the 21st Century (New York: Penguin, 2009), 435.
[Закрыть]. С такой точки зрения человеческая природа сама диктует определенное направление технологического развития, как и, возможно, свое собственное устаревание, которое приведет к появлению сверхчеловеческих роботизированных систем[47]47
Ray Kurzweil, The Age of Spiritual Machines (New York: Penguin, 1999).
[Закрыть].
Подобный реализм может быть благоразумным, однако он рискует стать опасным самоисполняющимся пророчеством, то есть ускорить гонку вооружений, а не просто ее предсказать. Чем менее дорогостоящим кажется военное вмешательство, тем с большей вероятностью оно привлечет политиков и государства. Кроме того, чем с большей точностью можно использовать силы, тем больше друг с другом начинают сливаться язык войны и язык правоприменения, создавая этические серые зоны. Рассмотрим почти уже реальную возможность: США могут дополнить своих воздушных дронов, присутствующих в зонах военных действий, наземными роботами и более мелкими дронами, проникающими в помещения. Кем в таком случае считать людей, отслеживаемых такими дронами, – комбатантами или подозреваемыми? И международные, и национальные правовые прецеденты указывают на разное обращение с теми и другими. Подобное обращение нельзя легко автоматизировать или, может быть, вообще нельзя. Следовательно, военное право (или простая уголовная процедура) могут стать непреодолимым барьером для роботов-солдат или, о по крайней мере, для их законного применения[48]48
Rebecca Crootof, “A Meaningful F100r for Meaningful Human Control,” Temple International and Comparative Law Journal 30 (2016): 53–62; Paul Scharre, “Centaur Warfighting: The False Choice of Humans vs. Automation,” Temple International and Comparative Law Journal 30 (2016): 151–166.
[Закрыть].
И академики, и государственные чиновники уже приступили к анализу сценариев роботизированной войны и правоприменения[49]49
Jeffrey L. Caton, Autonomous Weapon Systems: A Brief Survey of Developmental, Operational, Legal, and Ethical Issues (Carlisle, PA: US Army War College Press, 2015); Liang Qiao and Xiangsui Wang, Unrestricted Warfare: China’s Master Plan to Destroy America, trans. Al Santoli (Panama City: Pan American Publishing, 2000).
[Закрыть]. Следует ожидать дальнейшего слияния двух этих областей под общей рубрикой «внутренней безопасности» и все большего применения роботов с целью поддержания общественного порядка. В конечном счете нам обещают появление сверхчеловеческого интеллекта, который будет выявлять угрозы, то есть ИИ, способного просеивать миллионы потоков данных для быстрого выявления и предотвращения будущего преступления.
Но прежде чем воодушевляться подобной технологией, надо привести некоторые отрезвляющие примеры, показывающие, насколько бесчеловечным может быть искусственный интеллект. Исследователи использовали машинное обучение для предсказания криминальных наклонностей на основе таких скудных данных, как черты лица. Должны ли будущие роботы-полицейские учитывать эти данные о криминальных чертах лица при принятии решений о том, за какими людьми следить внимательнее, а каких игнорировать? Или любые данные и выводы на их основе запрещены для машин и техник, которые в будущем могут стать еще более важной частью охраны общественного порядка, например, таких, как предиктивный анализ, ныне пользующийся популярностью в некоторых отделениях полиции? Есть ли у нас право инспектировать и обсуждать подобные данные? Должны ли эти исследования вообще проводиться?[50]50
Проекты по анализу лиц, упомянутые в этом абзаце, критикуются в работе: Frank Pasquale, “When Machine Learning is Facially Invalid,” Communications of the ACM 61, no. 9 (2018): 25–27.
[Закрыть]
Соотнесение черт лица с криминальными наклонностями может показаться довольно экзотическим или необычным применением ИИ. Однако базовая логика развитых вычислительных решений остается непроницаемой для обычных форм объяснения. Некоторые специалисты по робототехнике превозносят такую необъяснимость, представляя ее в качестве альтернативы человеческому интеллекту, выходящей далеко за его пределы. «В какой-то момент это все равно что объяснять Шекспира собаке», – заметил Ход Липсон из Колумбийского университета, когда его попросили оценить необходимость потребовать от ИИ большей прозрачности[51]51
David Castlevecchi, “Can We Open the Black Box of Al?” Scientific American, October 5, 2016, https://www.scientificamerican.com/ article/can-we-open-the-black-box-of-ai/.
[Закрыть]. Если речь идет об уничтожении раковых клеток или предсказании погоды, Липсон, возможно, в чем-то и прав: нам не нужно понимать точный механизм ИИ, чтобы дать ему возможность решать наши проблемы. Но когда дело касается важных человеческих решений, необъяснимое становится неприемлемым. Как показывает постепенно складывающееся в ЕС «право на объяснение», необъяснимое может быть ограничено и заменено более гуманным подходом.
Некоторые крупнейшие сражения вокруг роботов и ИИ будут сосредоточены на аналитической силе машин. Какие данные им позволено собирать и применять? И как такие данные будут обрабатываться? Эти вопросы жизненно важны для будущего демократии и коммуникаций. Подумаем о том, как и когда расцветает дезинформация[52]52
Jennifer Kavanagh and Michael D. Rich, Truth Decay: An Initial Exploration of the Diminishing Role of Facts and Analysis in American Public Life, Santa Monica, CA: RAND Corporation, 2018, https://www.rand. org/pubs/research_reports/RR23i4.html; Alice Marwick and Rebecca Lewis, Media Manipulation and Disinformation Online (New York: Data and Society, 2017), https://datasociety.net/pubs/oh/DataAndSocie-ty_MediaManipulationAndDisinformationOnline.pdf.
[Закрыть]. Хотя недобросовестная пропаганда давно преследует медиа, автоматизированная в значительной мере публичная сфера дала ей новый толчок, допустив вирусное распространение ложных заявлений и фейков. Некоторые властные структуры уже начали вмешиваться, блокируя распространение разжигания ненависти и лжи. Это первый шаг на пути к восстановлению сетевой публичной сферы, но потребуется намного больше – в частности, журналисты, соблюдающие традиционные нормы своего ремесла, должны будут играть более важную роль.
Киберлибертарианцы будут доказывать, что искусственные интеллекты должны обладать «свободой мысли», подразумевающей обработку любых данных, которые они только могут найти или которые их собственники решат им «скормить». В области чистых вычислений, не связанной с социальными последствиями, это право может соблюдаться. Ради свободы слова можно позволить любую неуважительную речь; программисты могут утвердить подобное право на ввод в программы данных независимо от их социальных последствий. Но как только алгоритмы – и особенно роботы – начинают оказывать определенное воздействие на мир, они должны регулироваться, а программисты должны нести этическую и правовую ответственность за причиненный ими вред[53]53
О различии между речью и поведении см., например: Claudia Haupt, “Professional Speech,” Yale Law Journal 125, no. 5 (2016): 1238–1303.
[Закрыть].
Профессионализм и экспертные знания
Кто должен решать, что включается в такую ответственность? Мягкий и ровный переход потребует старых и в то же время новых форм профессионализма в нескольких ключевых областях. Понятие экспертных знаний обычно указывает на владение определенным корпусом информации, но его реальное применение требует намного большего[54]54
Как показывает Джил Эйал, экспертные знания вполне могут существовать вне эксперта, не только в виде набора пропозиционально выраженных знаний, но и в качестве институтов. См.: Gil Eyal, The Crisis of Expertise (Medford, MA: Polity Press, 2019).
[Закрыть]. Будущее трудовой занятости покажется довольно мрачным тем, кто путает профессиональные обязанности с простым знанием. Способность компьютеров хранить и обрабатывать информацию выросла по экспоненте, и постоянно накапливается все больше данных о том, что люди делают на рабочем месте[55]55
Alex (Sandy) Pentland, Honest Signals: How They Shape Our World (Cambridge, MA: MIT Press, 2008), где обсуждаются социометрические индикаторы.
[Закрыть]. Однако профессионализм включает в себя и нечто более сложное – постоянную необходимость решать конфликты ценностей и обязанностей, а также противоречивость описаний фактов[56]56
См.: Andrew Abbott, The System of Professions: An Essay on the Division of Expert Labor (Chicago: University of Chicago Press, 2014); Eliot Freidson, Professionalism, The Third Logic: On the Practice of Knowledge (Chicago: University of Chicago Press, 2001).
[Закрыть]. И это имеет большое значение для будущего состояния рынка труда.
Представим, например, что вы едете домой со скоростью сорок пять миль в час по дороге с двумя полосами движения. Впереди, на расстоянии сотни ярдов, вы замечаете группу детей, которые идут домой после школы. Но именно в тот момент, когда вы вот-вот проедете мимо них, встречная фура виляет и выезжает со своей полосы, направляясь вам прямо в лоб. У вас лишь пара секунд, чтобы решить: пожертвовать собой или наехать на детей, чтобы уклониться от грузовика.
Мне хочется думать, что большинство выберет более благородный вариант. По мере развития автоматизации вождения подобные ценности самопожертвования могут быть закодированы непосредственно в транспортные средства[57]57
Подробное обсуждение «автоматизации добродетели» см. в: Ian Kerr, “Digital Locks and the Automation of Virtue,” in From Radical Extremism to Balanced Copyright: Canadian Copyright and the Digital Agenda, ed. Michael Geist (Toronto: Irwin Law, 2010), 247–303.
[Закрыть]. Многие автомобили уже сегодня заметят малыша на дороге, которого может задавить водитель, если в поле его зрения есть слепое пятно. Они даже подают сигнал, когда есть риск столкновения с другими автомобилями. Технически возможно перейти от системы оповещения к остановке, которая будет закодирована на аппаратном уровне[58]58
Hope Reese, “Updated: Autonomous Driving Levels о to 5: Understanding the Differences,” TechRepublic, January 20, 2016, http:// www.techrepublic.com/article/autonomous-driving-levels-o-to-5-understanding-the-differences/.
[Закрыть]. А если это возможно, следовательно, возможно и автоматическое торможение, не позволяющее водителю вильнуть в сторону ради самосохранения, которое будет во вред другим.
Но такое решение можно закодировать и иначе – поставить интересы пассажиров машины выше интересов всех остальных. И хотя я не думаю, что это правильный подход, его правильность для нас сейчас не важна. Главный вопрос в том, как инженеры, регуляторы, маркетологи, а также специалисты по связям с государственными органами и продажам должны работать вместе, определяя такие взаимодействия человека и компьютера, при которых соблюдались бы интересы всех, кого затрагивает автоматизация, но при этом учитывались коммерческие требования. В проектировании, маркетинге и безопасности не так много проблем, которые надо решить всего один раз. По мере развития технологий пользователи адаптируются, рынки меняются и постоянно возникают новые требования.
Медицина как профессия давно сталкивается с подобными дилеммами. Работа врачей никогда не ограничивается лечением болезней, с которыми они имеют дело непосредственно. Врачи, обязанные понимать и отслеживать постоянно меняющиеся риски и возможности, должны не упускать из виду направление развития медицины в целом, учитывая актуальные исследования, которые либо подтверждают, либо ставят под вопрос общепринятые медицинские знания. Рассмотрим такое, на первый взгляд тривиальное, решение – давать пациенту с синуситом антибиотик или нет? Хороший терапевт должен сначала решить, есть ли клинические показания для данного лекарства. Позиции врачей касательно того, насколько сильна их обязанность ограничивать предписания антибиотиков с целью замедления эволюции резистентных бактерий, могут несколько разниться. Они могут учитывать и значение возможных побочных эффектов антибиотиков, таких как весьма опасные инфекционные болезни, вызываемые в некоторых случаях бактерией Clostridium difficile, а также вероятность последствий для пациентов разных типов. Когда пациенты приходят к терапевту, у них есть некоторое представление о подобных вещах, однако они не несут ответственности за правильное решение, и точно так же они не обязаны объединять все субъективные суждения в конкретные рекомендации. Это задача профессионала.
С точки зрения адептов всемогущества больших данных, предсказательной аналитики, алгоритмов и ИИ, «мозги» роботов могут найти путь, чтобы обойти все эти проблемы. Это весьма привлекательное представление, которое обещает быстрое развитие технологии, сопровождаемое ростом уровня жизни. Но является ли оно реалистическим? Даже системы, работающие в чисто цифровой сфере, такие как поисковые алгоритмы, высокочастотный трейдинг и таргетированная реклама, во многих случаях оказывались предвзятыми, нечестными, неточными или неэффективными[59]59
Кэти О’Нил, Убийственные большие данные: как математика превратилась в оружие массового поражения (Москва: ACT, 2018); Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (Cambridge, MA: Harvard University Press, 2015); Da-nah Boyd and Kate Crawford, “Critical Questions for Big Data: Provocations for a Cultural, Technological, and Scholarly Phenomenon.” Information, Communication, and Society 15, no. 5 (2012): 662–679.
[Закрыть]. Гораздо сложнее собирать информацию в полевых условиях, да и вообще спорно то, что следует измерять в первую очередь. Ставки значительно выше, когда алгоритмические системы переходят на новый уровень, реализуясь в мозгах роботов, которые могут воспринимать свою среду и воздействовать на нее. Существенное значение в таком случае приобретает осмысленный человеческий контроль.
Подобный человеческий контроль необходим не только в таких областях, как медицина с ее историей профессионального самоуправления. Даже в сфере транспорта у профессионалов еще многие десятилетия будут сохраняться критически важные роли. Каким бы быстрым ни был прогресс в техниках роботизированного вождения, фирмы, его развивающие, не могут автоматизировать социальную апробацию дронов-доставщиков, переходных тележек или автомобилей. Как заметил эксперт по праву Брайант Смит, юристы, маркетологи, инженеры-строители и законодатели должны работать сообща, чтобы помочь обществу подготовится к широкому применению подобных технологий[60]60
Bryant Walker Smith, “How Governments Can Promote Automated Driving,” New Mexico Law Review 47 (2017): 99-138.
[Закрыть]. Государствам следует изменить политику обеспечения как в области транспорта, так и инфраструктуры. Локальные сообщества должны принять сложные решения о том, как управлять переходами, поскольку светофоры и дорожные знаки, оптимизированные для водителей-людей, возможно, не будут достаточно хорошо работать для роботизированных транспортных средств, и наоборот. Как отмечает Смит, «необходимо пересмотреть долгосрочные принципы планов землепользования, инфраструктурных проектов, строительных кодексов, ценных бумаг и бюджетов»[61]61
Ibid., 114.
[Закрыть].
Для этого перехода понадобится выполнить большую и многостороннюю работу[62]62
Я привожу здесь лишь очевидные примеры. Подробное описание будущей работы, сосредоточенное в основном на приспособлении к новой технологии, см. в: Thomas Frey, “55 Jobs of the Future,” Futurist Speaker, November 11, 2011, http://www.futu-ristspeaker.com/business-trends/55-jobs-of-the-future/.
[Закрыть]. Эксперты по безопасности будут моделировать то, создают ли транспортные средства без людей-пассажиров особые риски для критически важной инфраструктуры или для толп. Террористам не нужен самоубийца-подрывник, если можно начинить взрывчаткой беспилотный автомобиль. Эксперты по здравоохранению будут моделировать распространение инфекционных заболеваний в той ситуации, когда в транспортных средствах перевозятся незнакомые друг с другом люди. Законодатели уже мучаются с вопросом о том, следует ли обязать такие транспортные средства возвращать контроль человеку по его запросу или предоставлять контроль полиции, если она его требует[63]63
US Department of Transportation, Federal Automated Vehicles Policy: Accelerating the Next Revolution in Roadway Safety (September 2016), 9, https://www.transportation.gov/AV/federal-automated-vehicles-policy-september-2016.
[Закрыть]. Я использовал в последнем предложении двусмысленный термин «человек», поскольку у нас все еще нет хорошего термина для того, кто находится в полуавтоматическом транспортном средстве. И право, и нормы постепенно определят, что представляет собой подобная идентичность[64]64
Критическую роль будут играть правила, определяющие ответственность. См.: Marc Canellas and Rachel Haga, “Unsafe at Any Level: The U. S. NHTSA’s Levels of Automation Are a Liability for Automated Vehicles,” Communications of the ACM 63, no. 3 (2020): 31–34.
[Закрыть].
Ни одно из таких решений не должно приниматься исключительно – или даже в первую очередь – программистами и корпорациями, разрабатывающими алгоритмы беспилотных автомобилей. Для них требуется участие властей и значительно более широкого спектра экспертов, начиная со специалистов по урбанистке и заканчивая регулирующими ведомствами, полицией и адвокатами. Переговоры всех этих заинтересованных сторон, скорее всего, будут длительными, но такова цена демократического, инклюзивного перехода к новой и более качественной технологии. И это только немногие из этических, правовых и социальных составляющих масштабного перехода к беспилотным автомобилям[65]65
Чисто технологические проблемы тоже не так-то просто решить. См.: Roberto Baldwin, “Self-Driving Cars are Taking Longer to Build Than Everyone Thought,” Car and Driver, May 10, 2020, https://www.caranddriver.com/features/a32266303/self-driving-cars-are-taking-longer-to-build-than-everyone-thought/.
[Закрыть].
Тем не менее некоторые футуристы утверждают, что ИИ обходит саму необходимость наличия профессий. По их мнению, если у нас есть достаточный массив данных для обучения, практически любую человеческую функцию можно заменить роботом. В этой книге мы исходим из прямо противоположного взгляда: в той мере, в какой наша повседневная жизнь оформляется ИИ и машинным обучением (которыми часто управляют далекие крупные корпорации), нам нужно больше профессионалов, причем профессионалов более квалифицированных. Это вопрос утверждения и расширения схем образования и лицензирования, которые у нас уже имеются в таких областях, как медицина и право. Также может потребоваться создание новых профессиональных идентичностей в других критически важных секторах, где существенную роль играет широкое участие общества и в то же время экспертные знания.
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?