Автор книги: Элисон Джордж
Жанр: Прочая образовательная литература, Наука и Образование
Возрастные ограничения: +12
сообщить о неприемлемом содержимом
Текущая страница: 5 (всего у книги 16 страниц) [доступный отрывок для чтения: 5 страниц]
Телесный интеллект
Это очевидно настолько, что часто забывается: мы не бестелесные умы. Существуют веские основания полагать, что наш интеллект связан с тем, как мы чувствуем и взаимодействуем с миром. Вот почему некоторые исследователи ИИ постоянно настаивали на том, что разумным машинам нужны тела.
В январе 2011 года Макс Версаче и Хизер Эймс заботились о двух новорожденных: сыне Габриэле и виртуальной крысе по имени Animat. При рождении мозг Габриэля, как и всех детей, позволял ему выполнять только простейшие движения: хватать, сосать и видеть нечеткие изображения своих родителей. Все остальное зависело от самого ребенка.
Animat также не отличался явной запрограммированностью. Но взаимодействие с виртуальным миром вскоре научило его различать цвета и определять окружающее пространство. Версаче и Эймс из Бостонского университета надеются, что их подход доведет машинный интеллект до той стадии, в которой роботы научатся мыслить более человечно.
Вера в правильность данного подхода для развития ИИ уходит корнями в десятилетия назад. В 1980-е годы Родни Брукс из Массачусетского технологического института утверждал, что работа над ИИ велась «задом наперед». Ученые пытались запрограммировать сложные способности, хотя не знали даже, как создать элементарный интеллект, способный не врезаться в стены. По его словам, нам следовало подражать природе – она наделяет нас чувствами, позволяющими самостоятельно выживать в мире без заданного сценария.
Идея Брукса сработала. В 1989 году он создал Genghis – шестиногого робота-насекомого, способного передвигаться без центральной системы управления. Его датчики в режиме реального времени реагировали на сигналы, получаемые от взаимодействия с окружающей средой. Например, при хождении входные усилия робота менялись. Эти изменения, в свою очередь, управляли его дальнейшими движениями и помогали преодолевать препятствия, которые не были четко запрограммированы в системе.
В течение следующего десятилетия исследования в области нейробиологии, когнитивистики и философии показали, что идеи Брукса нашли более широкое применение. В конце 1990-х годов Джордж Лакофф, ученый-когнитивист из Калифорнийского университета в Беркли, предположил, что человеческий интеллект неразрывно связан с тем, как именно наши чувства и тела взаимодействуют с окружающей средой. По словам Лакоффа и его единомышленников, наш «телесный интеллект» объясняет не только элементарную разумность (например, как мы учимся визуальному распознаванию объектов), но даже более сложное, абстрактное мышление. Здесь, наконец, и был сокрыт ключ к созданию сложного человекоподобного интеллекта.
Существовала лишь одна проблема: сложность с модернизацией телесного ИИ. Улучшение корпуса робота, напичканного различными сенсорами, требует не только программирования дополнительных функций, но и кропотливой сборки-разборки самих сенсоров.
Несмотря на все эти сложности, многие исследователи находят данную идею чрезвычайно привлекательной и не готовы от нее отказаться. В 2009 году Оуэн Холланд из Сассекского университета в Брайтоне создал человекоподобного робота Eccerobot, смоделированного по принципам, которые лежали в основе Genghis. Однако Eccerobot не демонстрировал никаких признаков разумности. Поэтому, несмотря на то, что возрастающая вычислительная мощность и подход, основанный на больших данных, смогли «модернизировать» традиционную модель ИИ, развитие телесного ИИ происходит все еще медленно.
Со временем Версаче, Эймс и их команда стали приходить к выводу о том, что у теории телесности все еще есть шанс, если мы сможем забыть о физическом теле. Благодаря новым мощным видеокартам дизайнеры видеоигр могут имитировать все что угодно, включая тело робота, среду, в которой он живет, и даже сложную физику, лежащую в основе взаимодействия робота и окружающей среды.
Команда ухватилась за эти новшества с целью «обойти» фактическую телесность. Вместо того, чтобы трудиться над созданием реального тела, ученые разработали его виртуальный аналог, синтетические датчики которого могли взаимодействовать с подробно визуализированной виртуальной средой. Так, по их мнению, можно было пользоваться всеми плюсами телесного ИИ без сопутствующих недостатков. При успешном результате ученые смогли бы быстро перейти к развитию телесного интеллекта.
Интеллект животных
Animat появился на свет в тот день, когда команда Версаче подключила мозг робота, состоящий из сотен нейронных моделей, наделив его, среди прочего, цветовым зрением, моторными функциями, тревожностью и т. д., которые являлись точной имитацией биологических моделей. Это означало, что у робота отсутствовал запрограммированный список явных команд. Точно так же, например, мозг Габриэля не мог просчитать размеры кроватки, чтобы определить, оттуда лучше потянуться за игрушкой. Как и Genghis, Animat в процессе своего обучения и передвижения зависел от обратной связи, которую получал от виртуального тела, снабженного сенсорами. Данные сенсоры были схожи с теми, что находятся в сетчатке и на коже. Но в отличие от Genghis, любую часть Animat можно было усовершенствовать в мгновение ока.
Окружающая среда робота подчинялась законам физики реального мира, включая гравитацию, благодаря чему Animat получал реалистичную сенсорную информацию. К примеру, свет попадает на виртуальную сетчатку Animat, отвечающую за цветное зрение. А правильно откалиброванная сила (вода и давление воздуха) воздействует на его искусственную кожу. Различные комбинации входящих значений стимулируют реакции Animat.
Виртуальный мир Animat – это гигантский голубой бассейн, окруженный множеством шестов различных цветов (см. рис. 2.2). Animat, как и настоящие крысы, ненавидит воду. Этому способствует ощущение тревожности, которое исследователи заложили в нейронные модели робота. Единственный способ избежать воды – это найти небольшой «островок», спрятанный где-то под поверхностью воды. Проверка разумности Animat сводится к тому, как быстро он научится отыскивать безопасные платформы для облегчения тревожности. Первый эксперимент оказался провальным: Animat целый час суматошно проплавал без каких-либо четких шаблонов. Затем исследователи сдались и завершили испытание. При повторном погружении Animat в воду шаблон плавания изменился. На этот раз после 45 минут плавания по новой схеме Animat смог обнаружить платформу. При выходе из воды уровень тревожности робота резко снизился, что лишь укрепило цепочку связей, приведших к достижению цели. Теперь Animat знал цвета шестов рядом с платформой и примерный путь, по которому до нее можно добраться.
Рис. 2.2. Виртуальный Animat запрограммирован так, что обладает реальным цветовым зрением крысы, ее навигационными способностями и ненавистью к воде. Единственный способ выйти из воды – найти скрытую платформу у белого шеста
В третий раз, когда Animat бросили в воду, он потратил куда меньше времени на обнаружение платформы – теперь робот искал шесты правильного цвета. На четвертой попытке Animat без колебаний поплыл прямо к платформе.
Несмотря на многообещающие результаты ранних экспериментов, виртуальный мир является лишь тренировочным пространством. Настоящее тестирование наступит в тот момент, когда мозг, натренированный в виртуальной оболочке, будет пересажен в настоящее тело. Ведь, в конце концов, самоцелью исследований является робот, который сможет самостоятельно передвигаться в реальном мире.
Марсианская крыса
Возможности машинного интеллекта объясняют скорый визит NASA. Марсоход с биологическим интеллектом смог бы использовать свои нейронные сети для зрения, равновесия, обхода препятствий на местности и избавления от необходимости в постоянном контроле со стороны человека. Так что команда исследователей подготовила для Animat виртуальный Марс, дополненный кратерами.
Поскольку по задумке Animat обучался так же, как и его биологические сородичи, возник ряд закономерных вопросов, например: может ли Animat чувствовать боль? Ведь, в конце концов, Animat начинает с отрицательного подкрепления в качестве сильного беспокойства, а затем, по достижении скрытой платформы, получает положительную награду в форме мгновенного облегчения.
Ни Версаче, ни Эймс не верили, что Animat способен к самосознанию, и все же робот был не так глуп, как кажется. Чувства могли стать тем самым связующим звеном между разумом и самосознанием. Некоторые ученые-когнитивисты были уверены, что развитию самосознания у людей способствовали основные механизмы подкрепления: беспокойство и облегчение. «Чувство» самосознания (внутреннее переживание ярости или ощущение боли) порождается не более высоким уровнем познания, а простым взаимодействием с миром.
За пределами теста Тьюринга
В тесте Тьюринга есть одна проблема – исследователи не могут договориться, что считать успешным прохождением теста. В своих работах 1950-х годов Тьюринг высказывал предположение о том, что к XXI веку компьютеры смогут проходить тест в 30 % случаев. Кто-то видит в этой цифре процент экспертов, которых сможет ввести в заблуждение машина, что привело к появлению в 2014 году заголовков газет, утверждающих, что чат-бот Лондонского королевского общества смог пройти тест. Другие же считают успешным прохождением теста правильное выполнение его на 50 %.
Тем не менее даже если чат-боту удастся обмануть всех экспертов, это ничего не скажет о разумности системы по той причине, что оценка теста зависит от уровня технических знаний экспертов и выбора вопросов. Все это влияет на оценку.
В результате большинство исследователей ИИ уже давно отказались от теста Тьюринга в пользу более надежных способов проверки машин. За последние несколько лет алгоритмы научились соответствовать и даже превосходить человеческие показатели в задачах, выходящих за рамки повседневного общения.
– Я трачу время на то, чтобы научить компьютеры понимать виртуальный мир, а не проходить тест Тьюринга. Мне кажется, это более быстрый путь к разумности, – говорит Эрик Лернд-Миллер из Массачусетского университета в Амхерсте. Он является одним их основателей набора данных Labeled Faces in the Wild (LFW). Коллекция, состоящая из более чем 13 000 изображений лиц и имен, взятых из Интернета, стала фактическим стандартом для тестирования алгоритмов распознавания лиц.
Значительные улучшения в развитии отрасли были обусловлены аппаратными и программными достижениями в области глубокого обучения и нейронных сетей. В 2014 году Facebook опубликовал подробную информацию о своем алгоритме DeepFace, который смог набрать точность в 97,25 % в наборе данных LFW, что лишь немного уступало среднему показателю человека (97,50 %).
– Получив такие показатели, люди поняли, что идут по правильному пути, – говорит Лернд-Миллер. По его словам, это стало началом настоящей гонки вооружений среди крупнейших имен в технологической сфере. В 2015 году система FaceNet от Google достигла результата в 99,63 %. На первый взгляд данная цифра кажется больше «человеческой».
– Однако это не совсем так, поскольку довольно трудно точно измерить производительность человека, – добавляет Лернд-Миллер. Но можно справедливо утверждать, что машины теперь сравнимы с людьми.
Крупные компании также тестируют свои алгоритмы на наборе данных под названием ImageNet (более обобщенная коллекция размеченных изображений) и соревнуются в Large Scale Visual Recognition Challenge – ежегодном конкурсе, связанном с распознаванием изображений ImageNet. У Microsoft есть собственный алгоритм, результативность которого оценивается немного выше, чем при выполнении тех же операций людьми.
Что произойдет дальше?
Один из организаторов конкурса, Ольга Руссаковски из Университета Карнеги – Меллона в Питтсбурге, штат Пенсильвания, отмечает, что алгоритмы должны классифицировать изображения по принадлежности к одной категории из тысячи. Это ничтожно мало по сравнению с тем, чего могут достичь люди. По словам Руссаковски, для демонстрации истинной разумности машины должны будут формулировать выводы о более широком контексте изображения и о происходящем на снимке через секунду после создания кадра. Последнее поколение систем распознавания изображений уже начинает это делать.
При принятии решений на основе неполной информации мы стараемся подумать, что бы сделали на нашем месте другие. Некоторые исследователи полагают, что нам стоит присмотреться к покеру и прочим играм, включающим в себя создание рассуждений в условиях полной неопределенности. Такая игра для машин окажется в разы сложнее, чем шахматы.
Современные покерные боты уже научились побеждать профессиональных игроков-людей в безлимитном холдеме один на один (Heads-Up No-Limit Texas Hold ’Em) в Техасе – сложнейшей форме игры. «Мне нравится использовать покер для тестирования, ведь здесь мы не стараемся придумать имитацию искусственного разума, – говорит Туомас Сандхольм, также работающий в Университете Карнеги – Меллона. – Для победы игроков-людей требуется настоящая разумность».
Осталась ли жизнь в тесте Тьюринга? Берти Мюллер из Общества по изучению искусственного интеллекта и симуляции поведения (оно присуждает премию Лебнера) уверен, что конкурс проводится лишь как дань традиции. По его словам, будь Тьюринг жив в наши дни, он бы сам перестал считать данный тест лучшим способом для проверки разумности.
Мюллер считает, что наблюдение за ИИ в различных средах справится с этим лучше, как если бы ребенка поместили в комнату, заваленную игрушками, и стали бы изучать его поведение. Все же мы еще слишком далеки от создания машин, способных перехитрить ребенка в его стихии.
Главный отличник в классе
Стремительно завоевывает популярность оценка знаний по школьной программе. В 2015 году система искусственного интеллекта под названием ConceptNet пошла тест на IQ, разработанный для детей дошкольного возраста и содержащий такие вопросы, как «Почему мы наносим солнцезащитный крем летом?». Результаты ИИ не превышали средний показатель четырехлетнего ребенка. В 2016 году система To-Robo успешно прошла аттестацию по английскому языку на основе вступительных экзаменов в национальный колледж Японии. Питер Кларк с коллегами тестировал искусственный интеллект по имени Aristo в Институте искусственного интеллекта Аллена в Сиэтле, штат Вашингтон, на теоретических экзаменах в государственных школах штата Нью-Йорк.
Однако это убедило не всех. Эрнест Дэвис, ученый из Нью-Йоркского университета, отмечает, что довольно часто ИИ испытывает трудности с тем, что мы считаем здравым смыслом. Исходя из этого, традиционные экзамены могут оказаться не самым лучшим способом для оценки «успеваемости» машины. Вместо этого он предлагает перейти на письменные экзамены, созданные специально для машин. Вопросы в нем будут тривиальными для людей, но слишком странными или очевидными, чтобы искать ответы на них в сети. Например: «Можно ли согнуть арбуз?»
3. Все, что вы можете делать
Как ИИ перехитрил людей
Все, что вы можете делать, машина способна сделать лучше. И пусть это не совсем так, но впечатление создается именно такое. Стремительные успехи в глубоком обучении привели к появлению компьютеров, возможности которых конкурируют с нашими или даже превосходят их в различных задачах, начиная от прохождения игры и заканчивая распознаванием образов на картинках. Такие машины выполняют задачи быстрее и масштабнее, даже большой группе людей не под силу с ними тягаться. И чем чаще машины выполняют новые задачи, тем больше они узнают об устройстве нашего мира.
В игре: ИИ играет в го, покер и многое другое
Одно из самых знаменитых достижений машинного обучения пришлось на 2016 год, когда алгоритм под названием AlphaGo победил южнокорейского мастера Ли Седоля в игре го. Большинство наблюдателей были уверены, что до появления ИИ такого масштаба должно пройти целое десятилетие. Игры издавна считались эталоном по оценке производительности ИИ. Победу Deep Blue от IBM над чемпионом по шахматам Гарри Каспаровым в 1997 году провозгласили первым шагом в революции ИИ.
На сей раз все происходило точно так же. Впервые AlphaGo попал в заголовки новостей несколькими месяцами ранее, когда DeepMind (компания, работающая в сфере искусственного интеллекта, которую Google купила в 2014 году) объявила, что ее ИИ победил чемпиона Европы по шахматам Фан Хуэя со счетом 5:0. Это побудило DeepMind бросить вызов Ли, считавшемуся одним из сильнейших игроков последнего времени.
В то время как игра с Фаном проходила в атмосфере секретности, второй турнир сопровождался десятками камер и сотнями репортеров, стекающихся к месту событий – отелю Four Seasons в самом центре Сеула. Пока AlphaGo от Google играл партию с Ли Седолем, пресса заполнила два отдельных конференц-зала: один с английским комментатором, а второй – с корейским. И игра захватила внимание публики.
В итоге AlphaGo обыграл Ли со счетом 4:1, чем поверг в шок сообщество го и вызвал изрядную шумиху в мире. Но причиной обсуждений стал не столько сам факт поражения, сколько то, как именно шел к победе AlphaGo.
«AlphaGo действительно обладает интуицией, – заявил New Scientist соучредитель Google Сергей Брин через пару часов после третьей победы своей компании. – Ходы бота были прекрасны. Он смог придумать такие изящные комбинации, о которых большинство из нас даже не догадывалось».
Корейский афтершок
С поражением приходит решимость. После своей победы AlphaGo стал настоящей звездой Кремниевой долины. Но в Южной Корее царили другие настроения. Там трансляция игры в го по телевизору привлекает рекламные контракты и корпоративных спонсоров. Студенты корпят над изучением различных ходов в академиях. Наблюдение за тем, как искусственный разум от Google AlphaGo разгромил корейского гроссмейстера Ли Седоля, повергло страну в шок, особенно после того, как национальный герой уверенно предсказал свою победу над ботом. Однако реальный результат продемонстрировал всю мощь ИИ.
– Прошлая ночь была очень печальной, и многие люди топили горе в бутылке, – рассказал в своем утреннем выступлении после первого поражения Ли Чжон Ахрам, ведущий корреспондент по го из Joongang Ilbo, одной из крупнейших ежедневных газет Южной Кореи. – Корейцы боятся, что ИИ разрушит человеческую историю и культуру. Это очень эмоциональный момент.
Но, пожалуй, сильнее всего людей задела изящность действий AlphaGo.
– Это колоссальный по своей значимости эпизод в истории эволюции человека: машина смогла отточить собственную интуицию, изобретательность и коммуникацию – все то, что ранее считалось прерогативой человека, – сказал Чон Дэ-Ик, научный философ Сеульского национального университета. – До этого мы даже не думали о том, что искусственный интеллект может обладать творческими способностями. Теперь мы знаем, что творчество у ботов есть – чем больше мозгов, тем они умнее.
Южнокорейскую прессу заполонили заголовки: «"Ужасающая эволюция" искусственного интеллекта» и «Победа AlphaGo… боязнь искусственного интеллекта прогрессирует». Некоторые люди настроены оптимистично и надеются, что последствия проигрыша Ли ознаменуют революцию в сфере южнокорейского образования. «Мы очень слабы в ИИ, – говорит Ли Сок-бонг, журналист южнокорейского научного портала HelloDD.com. – До этого момента корейцы мало что знали об искусственном интеллекте. Но сейчас, после этой игры, каждый кореец узнал о нем».
Завоевание территории
Игра в го сводится к тому, что два игрока размещают черные и белые камни для захвата поля соперника. Она ведется на доске 19 × 19, что дает в сумме 10171 возможных комбинаций. Для сравнения, стандартная шахматная доска 8 × 8 имеет максимум 1050 возможных конфигураций. А чтобы вы еще лучше поняли масштаб: всего во Вселенной насчитывается 1080 атомов. «Пожалуй, го – это самая сложная игра из когда-либо придуманных человеком», – говорит сооснователь DeepMind Демис Хассабис.
Для успешного прохождения игры AlphaGo от DeepMind использует несколько нейронных сетей. Его «стратегическая» нейронная сеть изучает игру по базе данных, содержащей порядка 30 миллионов ходов, которые совершались опытными игроками-людьми. Эта база данных учит программу предсказывать дальнейшие ходы. Затем сеть совершенствуется, отыгрывая тысячи партий с различными версиями себя. В дальнейшем она передается в «целевую» сеть, которая оценивает шансы на победу с учетом текущей позиции на доске. После обе сети добавляются в метод Монте-Карло для поиска по «дереву» – это симуляция, которая просматривает все «дерево» возможных шагов для обнаружения путей с наивысшими шансами на победу. Сети служат для сужения выбора путем исключения безнадежных или малоперспективных шагов и ускорения поиска по Монте-Карло. Именно это «сокращение» и дает AlphaGo основное преимущество.
Подход AlphaGo заметно отличается от подхода Deep Blue, поскольку, по сравнению с шахматным приложением, в каждом ходе он оценивает на тысячи позиций меньше. Другими словами, AlphaGo лучше понимает, какие ходы из огромного массива всех возможных комбинаций имеют больше шансов на победу, и фокусируется на них. Также AlphaGo способен поразить своей находчивостью, делая такие шаги, о которых люди-игроки даже не догадываются. Взять, например, 37-й ход во второй партии против Ли.
По прошествии 2500 лет, в течение которых люди играли в го, AlphaGo сделал что-то совершенно невероятное. Бот оставил группу камней в одном углу доски, чтобы играть в другом. Даная стратегия шла вразрез со всем, что мог бы сделать игрок-человек. Подобный ход вызвал негодование Ли, который на несколько минут даже покинул комнату, а затем четверть часа раздумывал о своем следующем ходе. Некоторые комментаторы сначала подумали, будто AlphaGo допустил ошибку. Но данный ход обеспечил победу ИИ.
Ход 37 использовался как доказательство того, что AlphaGo способен на то, что мы называем интуицией.
После знаменательной победы AlphaGo продолжил самосовершенствоваться, соревнуясь с лучшими игроками, включая побежденного чемпиона Европы Фан Хуэя. В мае 2017 года AlphaGo выиграл все три партии в игре против Ке Цзе, нынешнего игрока с самым высоким рейтингом в мире. Китайская ассоциация го присудила ИИ от DeepMind профессиональный статус 9 дана. Но свои навыки оттачивала не только машина. Фань Хуэй сказал, что изучение нечеловеческого стиля ИИ сделало его еще более сильным игроком. После нескольких месяцев спарринга с ИИ он перешел с 500 до 300 строчки в мировом рейтинге.
Теперь DeepMind занята поисками новых задач. «Мы надеемся, что однажды сможем расширить методы алгоритма для решения ряда самых сложных и острых проблем общества, начиная от климатического моделирования и заканчивая комплексной диагностикой болезней», – говорит Хассабис. Примерно то же самое IBM в свое время говорила о Deep Blue. Но победа в шахматной игре не вызвала революции ИИ. Единственная разница в данном случае состоит в том, что метод обучения AlphaGo делает его более универсальным, и это может сыграть людям на руку. Базовые методы AlphaGo, в отличие от техник Deep Blue, обладают большей применимостью к другим областям.
Интервью. Каково это – действовать от имени ИИ?
В 2016 году Аджа Хуанг из DeepMind (Google) перемещал фигуры за AlphaGo в пяти играх против Ли Седоля.
– Каково это быть телесным воплощение ИИ?
– Я настроен очень серьезно. Не хочу ошибиться, потому как все это – кропотливая работа команды. Кроме того, я очень стараюсь проявить уважение к Ли Седолю. Он – мастер.
– Вы и Ли поклонились друг другу перед первой партией, хотя вы и не являетесь AlphaGo.
– Это официальная игра, и мы проявляем уважение друг к другу. Я кланяюсь от имени AlphaGo.
– Удивляют ли вас действия AlphaGo?
– О да, конечно. Как?! Играть здесь? Особенно тот выдающийся 37-й ход во второй партии. Его показали на экране, и я такой: «Вау!»
– Отличается ли ваша манера расставлять камни?
– Если AlphaGo уверен в своих движениях, то и я буду играть уверенно. В ряде шагов, которые лично мне кажутся очень хорошими, я играю в полную силу. Мол, отличный ход!
– Как все это выглядит для Ли?
– Мне кажется, для него это тоже новый опыт. Такая игра отличается от игры человека. Компьютер равнодушен. У него нет эмоций. Поэтому, думаю, Ли было не очень комфортно.
– Сопереживаете ли вы ему?
– Я всегда на стороне AlphaGo. Но чувство сопереживания у меня все-таки есть. Я тоже чувствую давление на Ли. Он пообещал, что сможет сокрушить AlphaGo со счетом 5:0. А на деле все оказалось совершенно иначе. Тем не менее я уважаю его как мастера.
Лучшие результаты
Перед ИИ не устояли не только настольные игры. В 2015 году DeepMind объявила о разработке ИИ, который способен научиться играть в видеоигры путем наблюдения за ними на экране. Изначально алгоритм научился играть в 49 различных видеоигр на Atari 2600. ИИ смог побить рекорд профессиональных игроков-людей в 23 играх из 49.
Программе не рассказывались правила игры. Она пользовалась алгоритмом под названием «глубокая нейронная сеть» для исследования состояния игры и определения набора действий, дающих в сумме наибольшее количество очков. Лучше всего ИИ проявил себя в простых играх на тему бокса и пинбола. Тем не менее он также получил высокие оценки в классической аркадной игре Breakout, в которой нужно отбивать мяч и разбивать ряды блоков. ИИ даже научился прокладывать туннель через один ярус блоков и отбивать мяч от внутренней стены – этим трюком пользуются лишь опытные игроки в Breakout. «Для нас это стало большой неожиданностью, – рассказывает Хассабис. – Такую стратегию придумала сама система».
Наблюдение за игрой Atari равносильно обработке порядка 2 миллионов пикселей данных в секунду. Это говорит о том, что Google заинтересован в использовании своего ИИ для анализа собственных больших наборов данных. И поскольку ИИ обучается путем наблюдения за экраном, а не получает данные из кода игры, то можно предположить, что данным алгоритмом планируют пользоваться для анализа изображений и видеоматериалов.
В какую игру сыграть ИИ дальше?
Вот каким, по мнению экспертов, должен быть список.
Diplomacy
Марк Бишоп из Голдсмитского колледжа Лондонского университета предлагает стратегическую настольную игру Diplomacy, в которой игроки примеряют на себя роль европейских держав, борющихся за землю и ресурсы. Бишоп говорит, что AlphaGo «не понимает значения символов, которыми так виртуозно оперирует. Алгоритм даже не осознает, что играет в го». Diplomacy олицетворяет собой многие трудности, стоящие на пути развития современного ИИ к истинной разумности. «Интересно, что это игра, в которую, чисто теоретически, компьютер может играть на очень высоком уровне, поскольку ходы в ней передаются в письменной форме», – рассказывает Бишоп. Но сначала алгоритму придется пройти тест Тьюринга – если люди поймут, каким персонажем играет ИИ, они смогут объединиться против него.
StarCraft
Одновременно в го существует порядка 300 возможных ходов. В стратегической видеоигре StarCraft, которая состоит из сотен частей, ходов может быть 10300. «Вы не сможете изучить все возможные ходы даже в текущем отрезке времени, не говоря уже о будущем», – говорит Стюарт Рассел из Калифорнийского университета в Беркли. Наоборот, ИИ должен будет оценить свои действия и цели на более высоком уровне, а затем придумать план для достижения желаемого. Здесь потребуются методы рассуждения, применимые к более широкому кругу реальных проблем.
Dungeons & Dragons
Джули Карпентер из Калифорнийского политехнического государственного университета в Сан-Луис-Обиспо говорит, что «AlphaGo не пытается доказать или опровергнуть человеческое чувство реальности или правдоподобности. Наоборот, он целиком и полностью сосредоточен на достижении цели – победить в игре». Она считает, что было бы интересно привлечь ИИ к ролевым играм. Цели игры в данном случае не будут казаться машинам столь очевидными, и для достижения успеха ИИ придется полагаться на такие навыки, как социальное общение и ситуационная осведомленность более высокого уровня.
Мошенничество
Игроки-люди могут предугадать по лицу и языку тела оппонента его следующий шаг. Для достижения своей цели они также могут пользоваться тактиками введения в заблуждение (например, дезориентация). Но сможет ли робот определить притворное поведение или ввести кого-то в заблуждение, не будучи разоблаченным? «Подобные сложности в игре выходят за масштабные рамки математических проблем, которые смог решить современный ИИ», – говорит Рональд Аркин из Технологического института Джорджии в Атланте.
Реальный мир
Мюррей Шанахан из Имперского колледжа Лондона утверждает следующее: «Я не особо заинтересован в том, чтобы ИИ осваивался в других играх. Это полезно для тестирования алгоритма или новых методов обучения, но по-настоящему новой областью является реальный мир. Мы сможем приблизиться к общему человекоподобному искусственному интеллекту только тогда, когда машинное обучение научится понимать повседневный мир так же хорошо, как и стратегии в го».
Фишки на исходе
В январе 2017 года компьютеры одержали очередную победу над людьми, выиграв 20-дневный турнир по покеру. ИИ Libratus обыграл четырех лучших в мире игроков в техасский холдем в казино Пенсильвании. После 120 000 раскладов Libratus фишки составляли порядка 1,7 миллионов долларов.
Мастерски играющий в покер ИИ примечателен тем, что освоил игру с «неполной информацией»: игроки не знают, какие карты раздали их оппонентам, поэтому не имеют полного представления о состоянии игры. Это означает, что ИИ приходится следить за техникой игры оппонента и корректировать собственный подход, чтобы не выдать свой блеф или хороший расклад карт.
Победа является еще одной важной вехой для ИИ. Алгоритмы Libratus не создавались специально для покера или других игр. ИИ не обучали стратегиям. Наоборот, он должен был вырабатывать собственный способ игры, в зависимости от предоставленной информации (в данном случае – в соответствие с правилами покера). Это говорит о том, что Libratus можно применять к любой ситуации, которая требует ответа на основании несовершенной информации.
Повседневный мир богат неполной информацией. Создатели ИИ из Университета Карнеги – Меллона считают, что алгоритм можно применять в сфере кибербезопасности, переговорах, военных условиях, аукционах и многом другом. Также они рассмотрели возможность использования ИИ для усиления борьбы с инфекциями, представляя планы лечения в виде игровых стратегий.
Libratus состоит из трех основных частей. Первая часть вычисляет длинный список стратегий, которые ИИ может использовать в начале игры. За первые минуты турнира Libratus тратил порядка 15 миллионов часов вычислений, оттачивая свои стратегии. Вторая часть, называемая «вывод завершающей фазы», учитывает ошибки, допущенные оппонентами ИИ: случаи, когда они «открывались» и можно было предсказать результат каждого хода. Третья часть ИИ искала собственные стратегические слабости, чтобы изменить свои способы игры перед следующей сессией. Алгоритм стремился определить методы, которыми пользовались оппоненты. Например, «подсказки», которые мог заметить другой игрок. Это было очень важно, поскольку в последнем турнире человеческие игроки смогли вычислить, как именно играл ИИ при различных раскладах, и стали подстраивать под это порядок ставок.
Внимание! Это не конец книги.
Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?