Электронная библиотека » Эми Уэбб » » онлайн чтение - страница 4


  • Текст добавлен: 23 марта 2022, 08:44


Автор книги: Эми Уэбб


Жанр: Прочая образовательная литература, Наука и Образование


Возрастные ограничения: +12

сообщить о неприемлемом содержимом

Текущая страница: 4 (всего у книги 22 страниц) [доступный отрывок для чтения: 6 страниц]

Шрифт:
- 100% +

После подобных отчетов официальные лица в Соединенных Штатах и Великобритании потребовали ответы на новый вопрос: почему мы финансируем безумные идеи ученых-теоретиков? Правительство США, включая Управление перспективных исследовательсих проектов Министерства обороны (DARPA), прекратило финансирование проектов машинного перевода. Частные компании переключились с фундаментальных исследований общих проблем ИИ, требующих больших трудозатрат, на более злободневные программы, способные решать реальные задачи. Если для первых лет после семинара в Дартмутском колледже были характерны большие ожидания и оптимизм, то десятилетия, последовавшие за этими критическими отчетами, стали известны как «зима ИИ». Финансирование прекратилось, студенты переключились на другие области исследований, и прогресс резко остановился.

Даже Маккарти стал более консервативным в своих прогнозах. «Люди легко справляются с подобными задачами, потому что умение их решать встроено в нас, – говорил он. – Но нам предстоит преодолеть значительные трудности, прежде чем мы осознаем, как мы понимаем речь, а именно физический и когнитивный процесс, делающий возможным распознавание речи»[46]46
  “Mind as Society with Marvin Minsky, PhD,” стенограмма “Thinking Allowed, Conversations on the Leading Edge of Knowledge and Discovery, with Dr. Jeffrey Mishlove,” The Intuition Network, 1998, http://www. intuition.org/txt/minsky.htm.


[Закрыть]
. Маккарти, объясняя стоящие на пути развития ИИ трудности, любил прибегать к примеру с птичьей клеткой. Допустим, говорил он, я попрошу вас сделать птичью клетку. Скорее всего, вы изготовите ящик, у которого будут дно, стенки и крыша. Но если я дам вам дополнительную информацию, что эта птица – пингвин, вы, может быть, не станете делать крышу. Таким образом вопрос, нужна ли клетке крыша, зависит от нескольких вещей: от информации, которую я вам дал, и от всех имеющихся у вас ассоциаций со словом «птица», например того факта, что большинство птиц умеет летать. Чтобы заставить ИИ реагировать подобным образом, требуется сообщить ему гораздо больше информации в явном виде и потратить гораздо больше сил на его обучение[47]47
  Ibid.


[Закрыть]
. Наступившая «зима ИИ» продлилась три десятилетия[48]48
  Во время зимы ИИ прозвучали новые предсказания – на этот раз в виде предостережений. В своей книге Computer Power and Human Reason Вейценбаум утверждал, что, хотя ИИ, может быть, осуществим, нам никогда не следует давать компьютерам возможность принимать важные решения, поскольку компьютеры всегда будут лишены человеческих качеств, таких как сострадание и мудрость. Вейценбаум проводит критически важное различие между решением и выбором. Решение – это вычислительная задача, поддающаяся программированию. Выбор же – продукт суждения, не вычисления. Именно способность выбирать в конечном счете делает нас людьми. Джон Сёрл, американский философ из Калифорнийского университета в Беркли, в своей статье Minds, Brains and Programs возражал против принципиальной реализуемости того, что он называл сильным ИИ. Сёрл говорил, что программа не может дать компьютеру «разум», «понимание» или «сознание», сколь бы человекоподобным ни было ее поведение.


[Закрыть]
.

Следующий шаг: учимся играть в игры

Хотя финансирование прекратилось, многие ученые дартмутской группы продолжали работу над ИИ и продолжали обучать новых студентов. Между тем закон Мура продолжал доказывать свою истинность, и компьютеры становились все более мощными.

К 1980-м годам дартмутские ученые поняли, как получить коммерческую отдачу от некоторых аспектов ИИ, но теперь в их распоряжении находилась достаточная вычислительная мощность и растущая сеть ученых-коллег, почувствовавших, что их работа имеет коммерческий потенциал. В результате интерес к ИИ ожил и, что более важно, возобновилось финансирование. В 1981 году Япония объявила о десятилетнем плане разработки ИИ под названием «Пятое поколение». Вслед за тем правительство Соединенных Штатов создало Microelectronics and Technology Corporation, исследовательский консорциум, призванный обеспечить конкурентоспособность Америки. В Великобритании финансирование, прерванное после резко критического отчета Джеймса Лайтхилла о прогрессе в ИИ, было восстановлено. Между 1980 и 1988 годами цена отрасли взлетела с нескольких миллионов долларов до нескольких миллиардов.

Более быстрые машины, оснащенные внушительным объемом памяти, могли теперь обрабатывать данные значительно эффективнее, и главной задачей стало воспроизвести процесс принятия решений экспертом-человеком, а не сконструировать универсальную машину, подобную воображаемому HAL 9000. Системы концентрировались в первую очередь на использовании нейронных сетей в узких задачах – например играх. В 1990-х и начале 2000-х годов были сделаны внушительные успехи. В 1994 году ИИ под названием CHINOOK сыграл шесть партий в шашки против чемпиона мира Марлона Тинсли (все ничьи). CHINOOK одержал техническую победу, когда Тинсли снялся с матча и сложил с себя чемпионский титул[49]49
  Jonathan Schaeffer, Robert Lake, Paul Lu, and Martin Bryant, “CHINOOK: The World Man-Machine Checkers Champion,” AI Magazine 17, no. 1 (Spring 1966): 21–29, https://www.aaai.org/ojs/index.php/aimagazine/ article/viewFile/1208/1109.pdf.


[Закрыть]
. В 1997 году суперкомпьютер IBM Deep Blue обыграл чемпиона мира по шахматам Гарри Каспарова, не выдержавшего напряжения матча в шесть партий против, казалось, непобедимого противника. В 2004 году Кен Дженнингс одержал 74 победы подряд в Jeopardy!, что статистически крайне маловероятно, и установил тем самым мировой рекорд для Книги Гиннесса. Поэтому, принимая предложение сразиться с компьютером IBM Watson, он не сомневался в своей победе. Он изучал ИИ и предполагал, что технология недостаточно совершенна, чтобы учитывать контекст, семантику и игру слов. Watson разгромил Дженнингса, уверенность которого стала улетучиваться уже в начале игры.

К 2011 году мы знали, что ИИ превосходит человека в определенных мыслительных задачах, поскольку способен пользоваться большими объемами информации и обрабатывать их, не испытывая стресса. ИИ мог бы дать определение стресса, но лишен эндокринной системы, чтобы ощущать его.

Тем не менее старинная настольная игра го была высоким барьером для ученых, работающих над ИИ, поскольку в нее можно играть, только опираясь на традиционную стратегию. Го зародилась в Китае более 3000 лет назад, и ее правила достаточно просты: два игрока по очереди ставят белые и черные камни на незанятую точку пересечения линий, которыми расчерчена доска. Когда камни одного цвета окружены камнями другого или нет других возможных ходов, они считаются захваченными и их можно забирать. Задача заключается в захвате пространства доски, но для этого требуется знание психологии и обостренное понимание умственного состояния противника.

Традиционный размер доски для го – 19 × 19 линий. В отличие от других игр, например шахмат, камни весят одинаково. В распоряжении двух игроков находятся 181 черный камень и 180 белых. В шахматах, где фигуры имеют различную силу, играющий белыми может открыть партию одним из 20 возможных ходов, и затем играющий черными тоже выбирает из 20 ходов. После первого хода на доске может быть 400 различных позиций. Но в го существует 361 вариант начального хода, по числу всех точек пересечения линий на доске. Из позиции после начального хода обоих игроков возможно 128 960 различных ходов. Всего на доске может быть 10170 конфигураций – для сравнения, это больше числа атомов в известной нам Вселенной. Из-за столь большого числа позиций и возможных ходов не существует книг, описывающих готовые варианты игры, как для шахмат и шашек. Вместо этого мастера го используют сценарии: если противник сделает определенных ход, каковы возможные, правдоподобные и вероятные пути развития ситуации, принимая во внимание личность игрока, его терпение и общее состояние ума?

Как и шахматы, го представляет собой детерминированную игру с полной информацией, в которой отсутствует элемент случайности, скрытой или явной. Чтобы победить, игрок должен держать свои эмоции под контролем, но в то же время он учится мастерски считывать малейшие нюансы поведения соперника. В шахматах можно рассчитать вероятные ходы противника: ладья может ходить только по горизонтали и вертикали. Таким образом, в шахматах легче понять, кто выигрывает партию, еще до того, как взята хоть одна фигура или объявлен шах и мат королю. В го это не так. Часто только мастер высокого уровня может понять, что вообще происходит на доске и кто выигрывает в данный момент. Именно благодаря своей сложности го стала любимой игрой императоров, математиков и физиков – и по той же самой причине ученые, занимающиеся ИИ, всегда хотели научить машину в нее играть.

Го всегда представляла для них значительную проблему. Запрограммировать на компьютере правила игры можно, но как запрограммировать умение чувствовать соперника? Создать алгоритм, способный справляться с невероятной сложностью, которую заключает в себе игра, не удавалось никому. Одна из первых программ, написанная специалистом по информатике Джоном Райдером в 1971 году, в техническом смысле слова работала, но проиграла новичку. В 1987 году более сильная программа Nemesis впервые играла против человека в настоящем турнире. В 1994 году программа Go Intellect проявила себя компетентным игроком. Но даже с существенным гандикапом она проиграла все три игры, причем против детей. Во всех этих случаях компьютеры делали неразумные ходы, или играли слишком агрессивно, или неверно оценивали позицию соперника.

Над ИИ, среди прочих исследователей, работала группа, возобновившая семинары по нейронным сетям – идее, предложенной Марвином Минским и Фрэнком Розенблаттом во время первого семинара в Дартмутском колледже. Ученый-когнитивист Джеффри Хинтон и работающие в области информатики ученые Ян Лекун и Йошуа Бенжио считали, что у систем, основанных на нейронных сетях, не только есть обширное практическое применение – например автоматическое распознавание случаев мошенничества с кредитными картами и автоматическое распознавание символов в документах и чеках, – но что они станут основой будущего облика ИИ.

Именно Хинтон, профессор Торонтского университета, изобрел новый вид нейронной сети, составленной из многочисленных слоев, каждый из которых извлекает различную информацию, пока не распознает нужный образ. Единственный способ загрузить это знание в систему ИИ, считал он, заключается в том, чтобы разработать алгоритмы обучения, которые позволят компьютерам учиться самостоятельно. Вместо того чтобы обучать нейронную сеть выполнению какой-либо узкой задачи, нужно строить сети, предназначенные для самостоятельного обучения.

Эти новые «глубинные» нейронные сети потребуют нового, более сложного типа машинного обучения – «глубокого» обучения, позволяющего научить компьютеры выполнять задачи, которые обычно поручаются человеку, но с меньшим контролем со стороны человека (а подчас и вовсе без него). Немедленно возникшая выгода – масштабирование. В нейронной сети небольшое количество нейронов принимает небольшое количество решений, но количество возможных решений возрастает по экспоненте с добавлением слоев. Другими словами, каждый человек учится индивидуально, но человечество учится коллективно. Представьте себе огромную глубинную нейронную сеть, обучающуюся как единое целое, при этом с возможностью со временем получать все большую скорость, эффективность и экономию средств.

Другая выгода заключалась в том, что системам можно было предоставить обучаться самостоятельно, не ограничивая их когнитивными способностями и воображением человека. У человеческого мозга есть пределы метаболического и химического характера, которые ограничивают возможности обработки данных «мокрыми» компьютерами в наших головах. Сами по себе эволюционировать в значительной степени мы не можем, а нынешние темпы эволюции не соответствуют нашим технологическим потребностям. Глубинное обучение обещало ускорить развитие интеллекта как такового, к тому же с чисто временным участием человека.

Глубинная нейронная сеть должна была получать от человека только набор базовых характеристик, описывающих данные, а дальше учиться самостоятельно, распознавая в них общие характерные черты благодаря многослойной обработке. Привлекательность глубинного обучения для ученых заключалась в том, что в силу самого устройства их решения непредсказуемы. Мыслить так, как люди прежде представить себе не могли – или не были способны, – абсолютно необходимо при работе над большими задачами, для которых ранее не удавалось найти четкого решения.

Сообщество ИИ посчитало нейронные сети неважной и бессмысленной выдумкой ученых, работающих на границе областей знания. Их сомнения еще усилились, когда стало ясно, что, поскольку процессы глубинного обучения протекают параллельно, ученым не удастся наблюдать их в реальном времени. Придется строить систему и просто верить, что решения, принимаемые ею, верны.

Победы и поражения

Хинтон продолжал работать, совершенствуя идею нейронных сетей со своими студентами, и тем же самым занимались Лекун и Бенжио. Начиная с 2006 года, они стали публиковать научные статьи. К 2009 году лаборатория Хинтона стала применять нейронные сети для распознавания речи, а случайная встреча с исследователем из Microsoft по имени Ли Ден сразу открыла возможность провести испытания технологии на задачах, имеющих практическое значение. Ден, специалист по глубинному обучению из Китая, был одним из первых, кто начал применять большие глубинные сети для распознавания речи. К 2010 году технология была испытана в Google. Всего через два года глубинные нейронные сети уже применялись в коммерческих продуктах. Если вам приходилось пользоваться Google Voice и его возможностью набора текста под диктовку, вы встречались с глубинным обучением. Эта технология стала основой для всех цифровых помощников, которыми мы пользуемся сегодня. На ней работают Сири, Google и Алекса компании Amazon. Междисциплинарное сообщество ученых, работающих с ИИ, значительно разрослось с того дартмутского лета. Но три прежних основополагающих принципа: сотрудничество крупных технологических компаний с академической наукой, коммерческий успех как основной двигатель прогресса ИИ, тенденция к однородности профессионального сообщества – в полной мере сохранили свою актуальность.

Все эти достижения Америки не могли остаться незамеченными в Пекине. В Китае была своя, совсем молодая, но развивающаяся экосистема ИИ, и правительство стимулировало ученых публиковать результаты своей работы. Количество научных статей, опубликованных китайскими исследователями, более чем удвоилось за период с 2010 по 2017 год[50]50
  Ari Goldfarb and Daniel Trefler, “AI and International Trade,” The National Bureau of Economic Research, January 2018, http://www.nber. org/papers/w24254.pdf.


[Закрыть]
. Чтобы быть честными, следует заметить, что статьи и патенты не обязательно означали применение научных достижений на практике, но они хорошо показывали, насколько китайские лидеры обеспокоены прогрессом в этой области, достигнутым на Западе, – особенно когда дело дошло до го.

К январю 2014 года компания Google начала делать существенные инвестиции в ИИ, в том числе выделила 500 млн долларов на приобретение стартапа DeepMind, занимавшегося глубинным обучением. В рамках сделки в Google перешли три его основателя: нейробиолог Демис Хассабис, бывший шахматный вундеркинд, а ныне ученый в области машинного обучения Шейн Легг и предприниматель Мустафа Сулейман. В какой-то мере привлекательность коллектива была обусловлена одной их разработкой: программой под названием AlphaGo.

Всего через несколько месяцев они были готовы испытать AlphaGo в противостоянии с живым человеком. Был организован матч между Deep Mind и профессиональным игроком в го китайского происхождения по имени Фань Хуэй, одним из сильнейших мастеров Европы. Поскольку играть в го на компьютере – не совсем то же самое, что на настоящей доске, было решено, что один из инженеров DeepMind будет ставить ходы компьютера на доске и сообщать ему ходы Хуэя.

Перед матчем Тоби Мэннинг, один из руководителей Британской ассоциации го, провел тестовую игру с AlphaGo и проиграл со счетом в 17 очков. Мэннинг несколько раз ошибался, но и программа тоже. Ему пришла в голову неожиданная мысль: что, если AlphaGo просто играла консервативно? Может ли быть так, что программа была агрессивна ровно настолько, чтобы выиграть у Мэннинга, но не наносить ему сокрушительного поражения?

Игроки сели за стол. Фань Хуэй был одет в полосатую рубашку и коричневый кожаный пиджак. Отсчет времени начался. Хуэй открыл бутылку воды и взглянул на доску. Он играл черными, делать первый ход следовало ему. В течение первых 50 ходов партия шла спокойно: Хуэй явно пытался выяснить сильные и слабые стороны AlphaGo.

Уже на этом этапе можно было сделать первый вывод: если AlphaGo не чувствует, что отстает, она не пытается играть агрессивно. Первая игра завершилась практически вничью: AlphaGo обошла человека с очень скромным преимуществом в 1,5 очка.

Во второй партии Хуэй решил воспользоваться полученной информацией. Раз AlphaGo не собирается играть агрессивно, он начнет наносить удары с первых ходов. Но в ответ и AlphaGo стала играть быстрее. Позже Хуэй говорил, что ему не помешало бы больше времени на размышление над ходами. На 147 ходу Хуэй попытался помешать AlphaGo захватить большую территорию в центре доски, но его ход обернулся против него самого, и он вынужден был сдаться.

К третьей партии ходы Фань Хуэя стали более агрессивными, и AlphaGo последовала его примеру. В середине партии Хуэй допустил катастрофическую ошибку, которой AlphaGo тут же воспользовалась, а затем ошибся еще раз, и после этого игра была практически окончена. Крайне расстроенный, Фань Хуэй вынужден был просить разрешения выйти на воздух, чтобы восстановить равновесие и закончить партию. Но, к сожалению, великий игрок опять поддался стрессу – а ИИ продолжал хладнокровно идти к своей цели.

AlphaGo, программа с ИИ, одержала победу над профессиональным игроком в го со счетом 5:0. Более того, для этого ей понадобилось проанализировать на несколько порядков меньше позиций, чем DeepBlue перед матчем с Каспаровым. Нанося поражение человеку, AlphaGo не знала, что играет в игру, что означает игра или почему люди получают от игр удовольствие.

Хань Цзин Ли, высококлассный профессиональный игрок из Кореи, впоследствии разбирал эти партии.

В официальном публичном заявлении он сказал: «Мое общее впечатление таково, что AlphaGo была сильнее Фаня, хотя я не могу сказать насколько… Может быть, она становится сильнее, встречая сильного соперника»[51]51
  Toby Manning, “AlphaGo,” British Go Journal 174 (Winter 2015–2016): 15, https://www.britgo.org/files/2016/deepmind/BGJ174-AlphaGo.pdf.


[Закрыть]
.

Ставя перед собой задачу научить машину играть в игры – иными словами, победить человека в непосредственном состязании, – мы определяли понятие успеха при помощи довольно ограниченного набора параметров. Тем самым мы пришли к трудному философскому вопросу, характерному для нашей эры ИИ: чтобы системы ИИ выигрывали, то есть достигали целей, которые мы перед ними ставим, должны ли люди проигрывать, причем одновременно тривиальным и глубоким образом?

* * *

AlphaGo продолжала выступать в турнирах, мастерски обыгрывая всех противников и деморализуя профессиональное сообщество го. Одержав победу над чемпионом мира со счетом 3:0, DeepMind объявила, что система ИИ уходит из большого спорта, а ее команда начинает работу над другими проблемами[52]52
  Sam Byford, “AlphaGo Retires from Competitive Go after Defeating World Number One 3–0,” Verge, May 27, 2017, https://www.theverge. com/2017/5/27/15704088/alphago-ke-jie-game-3-result-retires-future


[Закрыть]
. Эти проблемы заключались в том, чтобы превратить AlphaGo из мощной системы, которую можно научить обыгрывать сильнейших игроков в го, в систему, которая способна стать такой же сильной, но обучаясь самостоятельно, без участия человека.

Первой версии AlphaGo требовалось участие человека, а также начальный набор данных объемом в 100 000 партий, чтобы научиться играть. Следующее поколение систем строилось так, чтобы учиться с нуля. В точности как человек, который впервые сталкивается с игрой, эта версия под названием AlphaGo Zero должна была всему учиться с нуля и полностью самостоятельно. В ее распоряжении не было ни библиотеки ходов, ни даже информации, как ходят фигуры. Системе нужно было не просто принимать решения (они являются результатом вычисления и могут быть запрограммированы) – ей нужно было делать выбор, что требует способности к суждению[53]53
  David Silver et al., “Mastering the Game of Go Without Human Knowledge,” Nature 550 (October 19, 2017): 354–359, https://deepmind.com/ documents/119/agz_unformatted_nature.pdf.


[Закрыть]
. Тем самым архитекторы DeepMind получили огромную власть, может быть, сами этого не понимая. От них машина должна была научиться условиям, ценностям, мотивам тех или иных решений, принимаемых в процессе игры.

Zero играла против себя самой, самостоятельно совершенствуя свои процессы принятия решений. Каждая партия начиналась с нескольких случайных ходов, и с каждым выигрышем Zero учитывала его в своей стратегии и использовала в последующих играх. Чтобы выйти на уровень AlphaGo, когда та обыгрывала сильнейших мастеров мира, Zero понадобилось всего 70 часов игры[54]54
  Ibid.


[Закрыть]
.

А затем произошло нечто интересное. Инженеры DeepMind применили эту методику ко второму экземпляру AlphaGo Zero, использующему более крупную сеть, и дали ему возможность тренироваться 40 дней. Он не только восстановил всю сумму знаний о го, накопленную человечеством, но и обыграл самую совершенную версию AlphaGo в 90 % случаев – при помощи абсолютно новаторских стратегий. Это значит, что Zero развилась в более способного ученика, чем величайшие мастера го среди людей, и более умелого учителя, чем обучавшие ее люди, и мы не понимаем до конца, как она достигла такого уровня интеллекта[55]55
  Ibid


[Закрыть]
. Вы можете спросить, какого именно уровня? Что ж, уровень игрока в го измеряется при помощи так называемого рейтинга Эло, определяющего вероятность выигрыша или проигрыша в зависимости от исхода прошлых партий. У гроссмейстеров и чемпионов мира этот рейтинг равняется примерно 3500. Zero заработала рейтинг выше 5000. По сравнению с ней чемпионы мира играли, как новички, и статистически крайне маловероятно, что любой человек в принципе сможет одержать победу над системой ИИ.

Нам известна одна предпосылка, сделавшая такой уровень обучения возможным. Отказавшись от использования данных из игр, сыгранных людьми, и любого человеческого опыта вообще, создатели Zero сняли ограничения, которые человеческое знание могло бы накладывать на ИИ. Люди, как оказалось, были сдерживающим фактором для машины. Достижение заключалось в создании системы, способной мыслить совершенно по-новому и делать собственный выбор4[56]56
  Это заявление сделал ведущий программист Zero, Дэвид Силвер, на пресс-конференции.


[Закрыть]
. Это был внезапный, неожиданный скачок, предвещающий будущее, где системы ИИ смогут анализировать данные скрининга на рак, климатическую информацию, картину бедности, используя методы, недоступные человеческому разуму, и приводя к возможным открытиям, о которых люди иначе не могли бы и подумать.

Играя против самой себя, AlphaZero открыла заново стратегии игры в го, на создание которых людям понадобилось больше тысячи лет – а это означает, что она научилась думать, в точности как создавшие ее люди. На ранних этапах она допускала те же ошибки, находила те же стереотипные решения и вариации, сталкивалась с теми же препятствиями, с которыми могли бы столкнуться и мы. Но как только Zero стала достаточно сильной, она оставила человеческие приемы и нашла для себя такие, которые нравились ей больше[57]57
  Byford, “AlphaGo Retires From Competitive Go.”


[Закрыть]
. Как только Zero оказалась предоставлена самой себе, она изобрела никем не виданные новые стратегии, заставляя предполагать, что машины уже мыслят, причем одновременно узнаваемым и чуждым для нас образом.

Zero доказала еще одну вещь: теперь алгоритмы способны учиться без человеческого руководства, и именно мы, люди, оказываемся для них сдерживающим фактором. Это означало, что в ближайшем будущем машинам можно будет предоставить самостоятельно справляться с задачами, которые мы сами не способны ни предсказать, ни решить.

В декабре 2017 года инженеры DeepMind опубликовали статью, из которой следовало, что Zero теперь приобрела способность к обучению вообще – не только игре в го, но и другой информации. Она самостоятельно играла в другие игры, например в шахматы и шоджи (японская игра, подобная шахматам). Надо признать, что шоджи проще шахмат, но все равно требует стратегии и творческого мышления. Только в этот раз Zero училась гораздо быстрее. Она сумела набрать невероятную, сверхчеловеческую силу всего за 24 часа игры. Затем инженеры начали работать над тем, чтобы применить технологии, разработанные ими для Zero, к созданию «универсальной самообучающейся машины», то есть набора адаптивных алгоритмов, которые повторяли бы наше собственное устройство, поддающееся обучению. Вместо того чтобы передать машине большие массивы информации и инструкции по их чтению, инженеры научили машину учиться. В отличие от людей, которые могут устать, отвлечься, которым может надоесть учиться, машина безжалостно идет к цели, не считаясь с затратами.

Этот момент во всей долгой истории ИИ оказался определяющим. Во-первых, системы начали вести себя непредсказуемым образом и принимать решения, подчас странные для своих создателей. Кроме того, они стали побеждать людей в играх, используя стратегии, которые не удавалось ни понять, ни воспроизвести. Они предвещали будущее, в котором ИИ сможет строить собственные нейронные связи и приобретать непонятное нам знание. Во-вторых, в этот момент окончательно закрепились два параллельных пути, по которым сейчас идет развитие ИИ: Китай, обеспокоенный прогрессом Запада, вливает денежные и человеческие ресурсы в повышение конкурентоспособности своих изделий, а в Соединенных Штатах публика непрерывно ожидает выхода на рынок все новых фантастических продуктов. За нынешней лихорадкой вокруг ИИ находится состоятельность глубинных нейронных сетей и глубинного обучения как технологии, не говоря уже о неожиданном росте инвестиций в эту тематику в США и заявлений о далеко идущих планах, которые делаются в Китае на государственном уровне.

В DeepMind, дочерней компании Alphabet (родительская компания Google), работает 700 сотрудников, и некоторым из них поставлена задача как можно быстрее разрабатывать коммерческие продукты. В марте 2018 года облачный бизнес Google объявил, что продает основанную на DeepMind услугу перевода речи в текст по 16 долларов за миллион знаков готового текста[58]58
  Jordan Novet, “Google Is Finding Ways to Make Money from Alphabet’s DeepMind AI Technology,” CNBC, March 31, 2018, https://www.cnbc. com/2018/03/31/how-google-makes-money-from-alphabets-deepmind-ai-research-group.html.


[Закрыть]
. Одним из технологических прорывов стал объявленный Google продукт под названием Duplex, голосовой помощник, способный автоматически звонить от лица своего владельца и говорить с людьми на ресепшен, бронировать столики в ресторанах, назначать время посещения салона красоты и тому подобное – причем вставляя в речь «Ага!», «Хм…» и тому подобное. Продукт основан на WaveNet, ИИ-технологии генерации речи, тоже разрабатываемой в рамках DeepMind[59]59
  Roydon Cerejo, “Google Duplex: Understanding the Core Technology Behind Assistant’s Phone Calls,” Gadgets 360, May 10, 2018, https://gadgets.ndtv.com/apps/features/google-duplex-google-io-aigoogle-assistant-1850326.


[Закрыть]
.

В то же самое время разработчики из другого подразделения Alphabet под названием Google Brain объявили, что ими построен ИИ, способный генерировать другие ИИ (представили?). Система, названная AutoML, автоматизирует проектирование моделей машинного обучения с использованием технологии «обучение с подкреплением». AutoML играет, можно сказать, роль «родителя» – управляющей нейросети высокого уровня, которая принимает решения о создании «дочерних» нейросетей для узких, конкретных задач. По собственной инициативе AutoML сгенерировала потомка под названием NASnet и научила его распознавать предметы на видео: например людей, автомобили, светофоры, сумочки и так далее. Не будучи обременена стрессом, самолюбием, сомнением или недостатком уверенности в себе – свойствами, которые присущи даже лучшим специалистам по информатике, – NASnet научилась прогнозировать изображения с точностью 82,7 %. Таким образом, дочерняя сеть превзошла людей-программистов, включая авторов ее родительской системы[60]60
  Quoc Le and Barret Zoph, “Using Machine Learning to Explore Neural Network Architecture,” Google AI (blog), May 17, 2017, https://ai.googleblog.com/2017/05/using-machine-learning-to-explore. html.


[Закрыть]
.

Инженерные коллективы, которые создают архитектуру систем, предназначенных делать выбор и принимать решения, возглавляют преимущественно мужчины. В смысле разнообразия эта группа лишь слегка превосходит участников семинара в Дартмутском колледже, и главную причину можно выразить одним словом: Китай. В последние годы Китай превратился в важный центр разработки ИИ благодаря финансируемым государством широкомасштабным изменениям в местных университетах, а также в компаниях Baidu, Alibaba и Tencent.

На самом деле Baidu решила задачу, оказавшуюся не под силу даже Zero: перенос навыков между областями знания. Для человека это простая задача, но не для ИИ. Baidu пыталась решить эту задачу, обучая нейронную сеть находить путь в двумерном виртуальном мире с использованием только естественного языка, такого же, каким родители общаются со своими детьми. ИИ Baidu получал команды, например: «Пожалуйста, подойди к яблоку», или: «Не мог бы ты подойти к узлу координатной сетки между яблоком и бананом?» Вначале он получал вознаграждения за правильные действия. Задача может показаться довольно простой, но представьте себе следующее: к концу эксперимента ИИ не только научился понимать язык, который до того был для него бессмысленным набором звуков, но также понял, что такое двумерная координатная сетка, что он умеет двигаться по ней, как именно это делать, что яблоки и бананы существуют и как отличить одно от другого.

* * *

В начале этой главы я задала четыре вопроса: могут ли машины думать? Что означает глагол «думать» в применении к машине? Что означает он в применении к нам с вами, уважаемый читатель? Как мы можем быть уверены, что на самом деле думаем свои собственные оригинальные мысли? Теперь, когда вы знаете долгую историю этих вопросов, маленькую группу людей, создавшую фундамент ИИ, и важнейшие практики, по-прежнему сохраняющие актуальность, мне хотелось бы предложить некоторые ответы.

Да, машины могут думать. Они способны пройти тест Тьюринга или более свежую разработку – схему Винограда, предложенную Гектором Левеском в 2011 году, которая уделяла основное внимание умению рассуждать в рамках здравого смысла: например, предлагала машине ответить на вопрос, включающий в себя многозначные существительные. Однако эта способность не обязательно служит показателем возможностей машины в других областях[61]61
  Схема Винограда, предложенная канадским ученым в области информатики Гектором Левеском в 2011 году, представляет собой альтернативный по отношению к тесту Тьюринга способ измерения способностей ИИ, названный по имени специалиста по информатике из Стэнфордского университета Терри Винограда. Сосредоточенность на одной цели – победить человека в игре – привела к пренебрежению другими способами измерения и совершенствования ИИ. Схема Винограда задумывалась как более многомерный тест, поскольку для его прохождения недостаточно большого набора данных. Эрнст Дэвис, Леора Моргенштерн и Чарльз Ортис, трое ученых в области информатики из Нью-Йоркского университета, предложили проводить ежегодное соревнование Winograd Schema Challenge. На сайте их факультета можно найти великолепный пример (https://cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html, дата последней проверки – 5 сентября 2018 года):
  “The city councilmen refused demonstrators a permit because they (feared/advocated) violence”. «Чиновники мэрии отказали демонстрантам в разрешении на проведение акции, поскольку они (опасались/ требовали) насилия». Если выбрано слово feared («опасались»), тогда they («они») относится к the city councilmen («чиновникам мэрии»), если же advocated («требовали»), тогда к demonstrators («демонстрантам»).
  В своей статье Левеск говорил, что схемы Винограда должны удовлеворять следующим ограничениям.
  Двусмысленность должна легко разрешаться читателем-человеком;
  Задача не должна решаться тривиальными методами, типа ограничений на сочетаемость.
  Решение задачи не должно находиться поиском в Google; иными словами, не должно существовать простого статистического теста, определенного на корпусе текста, способного разрешить двусмысленность.


[Закрыть]
. Она только доказывает умение машины мыслить в рамках лингвистических структур, как это делаем мы, люди. Все согласны с тем, что Эйнштейн – гений, пусть даже доступные в те времена методы измерения интеллекта говорили иное. Эйнштейн мыслил способами, недоступными его учителям, и поэтому они, разумеется, считали его глупым. В действительности способа измерить силу интеллекта Эйнштейна тогда не существовало. Нет его и сейчас для ИИ.

Мыслящие машины могут принимать решения и делать выбор, влияющий на события реального мира, и для этого им нужны цель и смысл существования. Постепенно они вырабатывают рассудок. Это те самые свойства, которые, согласно философам и теологам, образуют душу. Каждая душа есть проявление Божьей идеи и намерения: она была создана и послана в мир единым Творцом. У мыслящих машин тоже есть творцы – и это преимущественно мужчины, живущие главным образом в Америке, Западной Европе и Китае и так или иначе связанные с «Большой девяткой». Душа ИИ суть проявление их идеи и намерения относительно будущего.

И, наконец, мыслящие машины способны на оригинальное мышление. Обучившись на опыте, они способны определить, что возможно другое решение или что лучше подойдет новая классификация. ИИ нет необходимости изобретать новый формат искусства, чтобы доказать наличие у себя творческих способностей.

А из этого следует, что у машин с ИИ есть разум. Он еще молод и пока не достиг зрелости, причем развиваться он будет путями, непонятными нам. В следующей главе мы поговорим о том, что образует разум, каковы ценности «Большой девятки» и какие непредвиденные последствия – социальные, политические, экономические – будет иметь великое пробуждение ИИ.


Страницы книги >> Предыдущая | 1 2 3 4 5 6 | Следующая
  • 3.2 Оценок: 6

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации