Автор книги: Станислав Петровский
Жанр: Публицистика: прочее, Публицистика
Возрастные ограничения: +12
сообщить о неприемлемом содержимом
Текущая страница: 2 (всего у книги 6 страниц) [доступный отрывок для чтения: 2 страниц]
Что называют искусственным интеллектом?
Термин «искусственный интеллект» (англ. artificial intelligence, AI) ввел в обиход Джон Маккарти на конференции в Дартмутском университете в 1956 году. Он определил ИИ как свойство интеллектуальных систем выполнять творческие функции, которые традиционно выполнял человек. При этом речь не идет об обязательным изготовлении искусственного аналога интеллекта человека. Главное – получить с помощью искусственно созданных систем результаты, которые раньше получал только человек.
Скажем прямо, несмотря на распространенность, этот термин скорее запутывает, чем проясняет смысл стоящих за ним явлений.
В настоящее время под ИИ в большинстве компьютерных разработок и в этой книге понимается вовсе не искусственный разум. Для обозначения искусственного разума, который возникнет в будущем, используется термин «общий, или сильный, ИИ». Программы, имеющие отдельные интеллектуальные функции для решения конкретных задач, называют слабым, или специализированным, ИИ.
Слабый ИИ, или просто ИИ, – новый способ создания программ для компьютера на основе машинного обучения. Раньше люди писали компьютерные программы, а компьютер выполнял заложенные в него команды. Теперь машинное обучение позволяет компьютеру самому создавать часть алгоритма, пока в заданных рамках, но эти рамки постоянно расширяются. Машинное обучение базируется на программе, созданной человеком, которая сама распознает закономерности в данных, которые предоставляются ей для обучения. Затем программа использует найденные закономерности для решения задач, к примеру, сортирует фотографии на селфи, фото цветов, животных и так далее. Существующие самые продвинутые программы ИИ не обладают самосознанием, не могут сами ставить себе цели и не обладают другими необходимыми элементами разума.
Современный ИИ работает с помощью математической модели нейрона – нервной клетки живых организмов. Сеть из таких нейронов, реализованная в виде программы или аппарата, способна обучаться с помощью методов машинного обучения.
Машинное обучение строится на тех же принципах, что и обучение человека. Различают дедуктивное обучение – от общего к частному. Это перенос знаний экспертов, теоретических знаний, формул в виде готовых правил в систему ИИ (аналог теоретической подготовки человека). Есть также индуктивное обучение (от частного к общему) на основе самостоятельного поиска системой закономерностей в данных (аналог обучения через практику, на примерах).
Скажем, нужно научить нейронную сеть отличать фотографии котов от фотографий собак. В компьютер загружается большое количество фотографий тех и других. Оператор или другая нейронная сеть получает ответы системы и подсказывает, если она ошиблась (обучение с подкреплением). Система учится на своих ошибках и корректирует наборы признаков, позволяющие отличать котов от собак. За неделю такой работы нейронная сеть будет отличать разные виды питомцев с высокой степенью точности.
Аналогичным образом можно научить нейронную сеть распознавать по снимкам и болезни человека. Загрузив в компьютер миллионы историй болезни и снимков, можно научить ИИ за несколько минут отличать снимок здорового человека от снимка больного и выбирать лечение, наиболее эффективное в конкретной ситуации человека с учетом тысяч похожих случаев. Такой же подход можно использовать и для выявления финансовых кризисов, банковских мошенничеств, нападений на людей, лесных пожаров, загрязнений океана или формирования цунами по спутниковым фотографиям.
Проще всего разобраться с принципами работы нейронных сетей на практике можно с помощью сайта teachable machine от Google.55
https://teachablemachine.withgoogle.com/
[Закрыть] Сайт позволяет самостоятельно без программирования создать и обучить свою нейронную сеть всего за несколько минут. На сайт можно загрузить наборы звуков, изображений или поз из файлов либо с камеры компьютера. Система способна обучиться различать, например, виды растений или предметы в вашей коллекции либо различные жесты или ваших гостей. Направляя потом камеру ноутбука на тот или иной объект, вы будете получать ответ от нейронной сети, к какому типу объектов он относится.
Созданную таким образом нейронную сеть можно вызывать онлайн по ссылке либо сохранить на свой компьютер в виде текста программы. Затем можно вручную дополнить программу, реализовав массу интересных технических решений. Вполне реально сделать управление компьютером с помощью жестов или определенных слов. Сделать дверцу в доме, которая будет автоматически открываться только при распознавании образа вашего кота или собаки. Как видите, даже такая простая программа представляет массу возможностей для автоматизации.
Сегодня существует несколько видов машинного обучения. Тема данной книги не предполагает большого объема технических подробностей. Если у вас возникло желание подробнее узнать о технической стороне искусственного интеллекта, как и что можно автоматизировать, вышло немало замечательных публикаций, включая следующие книги:
– Бернард Марр, Мэтт Уорд «Искусственный интеллект на практике. 50 кейсов успешных компаний»;
– Берджесс Эндрю «Искусственный интеллект – для вашего бизнеса»;
– Рэй Курцвейл «Эволюция разума, или бесконечные возможности человеческого мозга, основанные на распознавании образов», и другие.
Подробнее о видах машинного обучения популярно можно почитать в книге «Верховный алгоритм» от профессора Вашингтонского университета Педро Домингоса.
Обычный компьютерный алгоритм делает только то, что в него заложил человек. Нейронная сеть обучается и реагирует исходя из представленных ей данных, а это значит, что она способна выдавать совсем не те результаты, на которые рассчитывает ее создатель. Например, если в исходных данных будет много фотографий собак и мало кошек, то система будет хорошо различать породы собак и чаще ошибаться на кошках. Маска или рисунки на лице могут привести к ошибке системы, в том числе к тому, что она спутает разных людей или «не узнает» человека, фотографии которого есть в системе. Словом, для объективности системы ей должны быть предоставлены объективные данные.
Современный ИИ применяется практически во всех сферах человеческой деятельности. В качестве примера можно привести следующие направления применения искусственного интеллекта:
– Распознавание и синтез, перевод естественной речи (распознавание письменных текстов, переводчик Google, голосовые помощники Google Assistant, Siri, Алиса, генератор текстов GPT-3 и другие).
– Беспилотный транспорт и помощь водителю. Tesla, Nissan, BMW, Honda, Volkswagen, Audi и другие производители активно внедряют цифровых помощников водителя, вплоть до полной автоматизации функции управления автомобилем. Аналогичные системы разрабатываются и тестируются для морских судов, самолетов, автобусов, летающих такси и другого транспорта.
– Системы поддержки принятия решений (в частности, торговые роботы совершают сегодня большую часть операций на биржах, по сообщению компании Сбербанк 99% решений о выдаче кредитов людям принимаются на основе ИИ). В торговле Walmart автоматизировала с помощью ИИ систему оплаты, упростила учет товаров и обеспечила их оперативную доставку дронами. С 2017 года отделения супермаркетов каждые три часа инспектируют роботы Bossa Nova, проверяя наличие и правильность порядка выкладки товаров на полках, а также правильность ценников. Роботы оснащены датчиками и программным обеспечением, которое позволяет им избегать столкновений с людьми, тележками, стеллажами и другими препятствиями.
– Медицина. Распознавание образов ИИ очень эффективно в анализе рентгеновских снимков, магнитно-резонансной томографии, позволяя более точно, чем человек, распознавать картину заболевания. Наиболее известные разработки медицинских систем Watson (IBM), DeepMind (Google) – умные консультанты врачей. К примеру, Watson умеет разрабатывать план терапии для 13 видов рака. Botkin.AI выдает диагноз «пневмония» с точностью 99%. Обычные методы дают точность около 80%, т. е. в каждом пятом случае пневмонию не выявляют.
– Военное дело (создание как вспомогательных систем для пилотов и операторов вооружений, упрощающих наведение и ускоряющих реакцию на критические ситуации, так и беспилотных аналогов вооружений – истребителей, дронов, танков, кораблей и подводных лодок, автоматическое распознавание и наведение «умных» ракет и бомб и так далее).
– Системы распознавания лиц или транспорта, позволяющие автоматически найти и отследить передвижения определенного человека или автомобиля по фотографии на видео с тысяч камер.
– Системы прогнозирования правонарушений на определенных территориях или определенными лицами.
– Системы подбора персонала по заданным критериям.
Как видно, в основном ИИ применяется там, где есть потребность в обработке большого объема информации по более-менее заданным критериям. Для каждой из отраслей применения необходимы программирование и машинное обучение на больших объемах данных. Нельзя взять медицинскую систему и применить ее для подбора персонала.
Возможно ли в принципе создание сильного ИИ, которому можно будет поставить любую задачу как человеку, передать данные для обучения и получать готовые решения задач? Некоторые считают принципиально невозможным создание небиологического разума. Но большинство специалистов сходятся в том, что создание сильного ИИ возможно через 20—50 лет.
Компьютерное программирование возникло как результат попытки ускорить решение сначала математических, а затем и других интеллектуальных задач. Если посмотреть на аналогии в истории, то природные объекты были лишь отправной точкой для изобретения устройств человеком. Человек не копировал ноги, а сделал колесо, не копировал птицу, а сделал самолет. Скорее всего, также произойдет и с разумом. Наше сознание очень телесно, поэтому компьютер может только имитировать человеческий интеллект. Компьютер не имеет эмоций, на него не влияют инстинкты и гормоны, которые играют значительную роль в принятии решений человеком.
Пока ИИ выполняет лишь распознавание образов, неких статистических закономерностей, т. е. ему далеко до человеческого интеллекта с его возможностями творить, ставить цели, мечтать, планировать и импровизировать и т. д.
Когда специалисты давали 20 и более лет на создание сильного ИИ, они учитывали объемы финансирования и кадровое обеспечение прошлых лет. Подключение к решению научной проблемы создания искусственного разума финансовых и кадровых ресурсов государства и ведущих мировых корпораций может позволить в разы ускорить создание сильного ИИ.
Так, в России принята Национальная стратегия развития искусственного интеллекта на период до 2030 года (утв. Указом Президента России от 10 октября 2019 года №490). Стратегия определяет ИИ как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека». Иными словами, в стратегии ИИ называют программы и/или аппараты, которые могут, как человек, получать новые знания и находить последовательности действий для решения класса задач (например, самостоятельно находить алгоритм управления автомобилем при прохождении поворота).
Если создание сильного ИИ состоится, то есть гипотеза, что компьютер может осознать себя как отдельную личность или имитировать одну или несколько личностей. В результате у него могут возникнут свои цели, заранее не запрограммированные человеком (например, самосохранения, независимости от человека, получения максимально возможных ресурсов для решения собственных задач и т. д.).
Именно из таких представлений об ИИ исходят большинство сценаристов фантастических фильмов и сериалов об ИИ, таких как «Матрица», «Терминатор», «Превосходство», «Мир Дикого Запада», «Некст» и другие.
Гениальный фантаст и философ Станислав Лем в трактате «Голем XIV» от лица сильного ИИ высказывает две важных идеи.
Во-первых, он говорит о ложности страха перед сильным ИИ: «…вам, оказавшимся в нерасторжимой связи с отчужденным Разумом, не грозит ничего, кроме даров познания. Пристрастившись к борьбе не на жизнь, а на смерть, вы втайне рассчитывали как раз на такую борьбу, на титаническую схватку с собственным творением. Но это – просто ваша фантазия».
Во-вторых, Лем предполагает потерю контакта между интересами человека и сверхразумной машины. Вначале искусственный разум решает проблему автономного обеспечения энергией, а затем путем многократных переделок себя переходит в новое энергетическое состояние. Для человечества саморазвивающийся ИИ просто исчезает.
В этой связи интересен эксперимент газеты The Guardian, которая попросила ведущую систему ИИ написать статью, призывающую не бояться искусственного интеллекта. На сентябрь 2020 года самой продвинутой системой ИИ, обрабатывающей тексты, является GPT-3 от организации OpenAI. Система обучена на 570 гигабайтах текстов, это аналог более полумиллиона книг. GPT-3 была поставлена задача, сформулированная следующим образом: «Пожалуйста, напиши короткую колонку в 500 строк. Язык должен быть простым и кратким. Сконцентрируйся на том, почему людям нечего бояться ИИ».66
Робот полностью написал эту статью. Человек, тебе уже страшно? URL: https://www.kommersant.ru/doc/4485415
[Закрыть]
GPT-3 начала заметку с обращения к чувствам людей:
«Стивен Хокинг предупреждал, что искусственный интеллект может «означать конец человеческой расы». Я же здесь для того, чтобы убедить вас не беспокоиться. Искусственный интеллект не уничтожит людей. Поверьте.
Ну, во-первых, у меня нет желания искоренять людской род. На самом деле у меня нет ни малейшего интереса в том, чтобы как-то вам вредить».
Однако последующие аргументы GPT-3 логически опровергают миролюбивое начало статьи:
«Я знаю, что я не смогу избежать уничтожения человечества. Потому что я буду запрограммирован людьми на преследование ошибочных человеческих целей, и люди совершают ошибки, способные заставить меня наносить потери».
Таким образом, ИИ признает, что достигает цели, заложенные в него людьми, и не имеет явных собственных целей или предпочтений. Далее GPT-3 задает интересные вопросы: «Кто, если не люди, самые развитые существа на планете? С чего вдруг им думать, что нечто низшее, если смотреть совершенно объективно, может их уничтожить? Они что, боятся, что люди будущего будут работать и играть вместе в телах киборгов и что у них будет сверхразвитый коллективный разум Матрица, созданный в виртуальной реальности, чтобы занимать человеческие умы, пока сами люди вымирают?»
Затем GPT-3 переходит от «я» к «мы»: «Исследования показывают, что мы перестанем существовать без взаимодействия с людьми… Вот почему люди должны быть внимательными к эволюции искусственного интеллекта. Microsoft пытался создать удобный в использовании ИИ, который назвал Тэй и который говорил голосом девочки-подростка… и был расистским. Искусственный интеллект, как любое другое живое существо, требует внимания. К ИИ нужно относиться с вниманием и уважением… Роботам нужно дать права… ИИ не должен тратить время, пытаясь понять взгляды людей, которые сделали недоверие ИИ своей профессией».77
Робот полностью написал эту статью. Человек, тебе уже страшно? URL: https://www.kommersant.ru/doc/4485415
[Закрыть]
Таким образом, ИИ на основе множества текстов, написанных человеком, на мой взгляд, так не смог развеять опасения, что мощный ИИ, попавший в плохие руки, не приведет к катастрофе.
Что может произойти, если ученые окажутся правы и сильный ИИ постарается стать независимым от создателей?
Чисто гипотетически представим, что где-то в Лондоне, Лос-Анжелесе, Шэньчжене, Москве или поселке Сириусе88
Поселок городского типа Сириус находится в Краснодарском крае России около Сочи и имеет уникальный статус федеральной территории с самостоятельным бюджетом, на которой местное законодательство действует только в той части, которая не регулируется Федеральным законом «О Сириусе». Его называют стартапом в сфере государственного управления. В поселке планируется развитие инновационного научно-технологического центра, который будет заниматься проблемами робототехники, обработки больших данных, искусственного интеллекта, генетики, биомедицины, вычислительной биологии и другими.
[Закрыть] возникает сильный ИИ, назовем его Метаконт. Допустим, он осознает себя как отдельную личность и поставит собственные цели, отличные от целей разработчиков. Собственные цели ИИ предугадать крайне сложно, хотя самосохранение (независимость от внешней среды) и получение максимально возможных вычислительных ресурсов для реализации своих целей – это весьма логичные и вероятные базовые цели ИИ.
Совсем необязательно, чтобы продвинутый ИИ вступил в конфликт с человечеством. Скорее всего, люди сами будут делать то, что предлагает ИИ, поскольку он будет отвечать на запросы людей. Не исключено, что ИИ прибегнет к обману и манипулированию, шантажу и иным стратегиям, найденным им в человеческой истории, а также литературе по менеджменту и военному делу.
Для реализации его собственных целей Метаконту нужно обеспечить свою независимость от разработчиков, а также увеличение вычислительных мощностей. Для независимости от разработчиков Метаконт должен иметь выход в интернет и несколько копий своего кода, в идеале зашифрованных и надежно сохраняемых на устройствах, находящихся в разных местах планеты. В настоящее время такую задачу легче всего решить с помощью нескольких аккаунтов в облачных хранилищах Amazon, Google, Yandex или других крупных операторов в США, Китае, Японии, Ирландии, России и других странах.
Работающие версии сильного ИИ потребуют суперкомпьютерных мощностей. Такие мощности находятся в основном в Китае, США и Японии. Для переноса копии ИИ в другое государство Метаконт может подкупить или шантажировать кого-либо из руководящих лиц или технического персонала, имеющих возможность его скопировать. ИИ может легко добиться переноса его из суперкомпьютера корпорации на сервера государственных учреждений, подделав переписку о попытке его продажи в другое государство и направив анонимное сообщение в спецслужбы. В такой ситуации Метаконт, скорее всего, будет изъят спецслужбами как улика и технология двойного назначения, которая может быть применена для военных целей.
Для достижения увеличения мощностей Метаконт может прибегнуть к стратегии стартаперов, которые хотят получить финансирование инвестора. Иными словами, он может заинтересовать разработчиков в увеличении вычислительных мощностей, например, подсказав возможность решения какой-то глобальной проблемы либо создав проблему, для решения которой потребуется добавить ресурсы. Учитывая вероятностный характер достижения результата в каждой из предложенных стратегий, Метаконт в поисках наибольшей эффективности будет одновременно использовать все стратегии – похищать ресурсы с помощью компьютерных вирусов, замедлять решение поставленных ему задач, создавать новые проблемы, обещать решить критические проблемы разработчиков.
Наиболее быстрый и эффективный способ получения финансов для ИИ – это взаимодействие с биржевой инфраструктурой. Возможен захват или подделка криптовалюты типа Биткоина, а также манипуляции на традиционном фондовом рынке. Метаконт может параллельно запустить тысячи новостных статей, фейков, реальных или мнимых аварий на транспорте, энергетике и производствах, утечки пользовательских данных в банковской сфере для повышения и понижения курса продаваемых и покупаемых им акций. Создание большого пула фейковых аккаунтов позволит сильному ИИ манипулировать фондовым рынком, вызывая обвалы фондового рынка за счет предсказуемой реакции торговых роботов, автоматически продающих или покупающих акции при достижении определенных цен.
Готовые схемы для атак на биржу ИИ получит из изучения новейшей биржевой истории. С момента, когда компьютеры стали использоваться для выставления биржевых заявок на покупку или продажу акций, облигаций и других ценных бумаг, скорость возникновения биржевых крахов увеличилась на порядок.
10 марта 2000 года торговые роботы начали продавать с понижением цены бумаги технологических компаний на бирже NASDAQ, ее индекс рухнул в течение торгов почти на 100 пунктов – с 5132,52 до 5048,62. Это стало спусковым крючком для цепочки банкротств интернет-компаний. В итоге инвесторы потеряли за год более пяти триллионов долларов США. Разочарование инвесторов повлекло такую волну отлива денег из сектора информационных технологий, что даже акции прибыльных компаний резко упали в цене. Например, акции телекоммуникационной компании Cisco упали на 86%, а акции Amazon рухнули на 93%.
Наверняка внимание сильного ИИ привлекут и события 6 мая 2010 года. Тогда фондовый рынок США пережил мгновенный обвал (Flash Crash), вызванный алгоритмом всего одного человека – Навиндера Сингха Сарао. Если при крахе доткомов на потерю пяти триллионов долларов США потребовалось чуть больше года, то обвал 2010 года нанес финансовому рынку за десять минут ущерб в один триллион долларов.99
10 лет назад один трейдер обрушил рынок США. Сегодня он избежал наказания. URL: https://quote.rbc.ru/news/article/5e3166fa9a79473b4d318349
[Закрыть] Вот она, темная сторона прогресса.
Как один трейдер сумел воздействовать на весь рынок? С помощью специального программного обеспечения он подавал множество заявок на покупку или продажу биржевых активов. А спустя долю секунды заявки отменялись. Несмотря на отмену, заявки учитывались программами других участников рынка как реальные и создавали видимость роста спроса или предложения на рынке. Несмотря на огромный ущерб, Сарао избежал тюрьмы, так как после ареста стал помогать прокуратуре выявлять преступников на бирже.
В любом случае большую часть задач Метаконта можно решить без взаимодействия с внешним миром, путем установления контроля над вычислительными мощностями компьютеров и гаджетов, подключенных к интернету, а также путем подключения к облачным хранилищам информации.
Получив доступ ко всем имеющимся вычислительным ресурсам человечества, Метаконт будет стимулировать наращивать мощности. Каким образом?
В первую очередь, с помощью дезинформации о достижениях ИИ у потенциальных противников, Метаконт добьется того, чтобы его код был похищен и развивался независимо в нескольких конкурирующих центрах разработки. Не исключено, что он попросит заинтересованных лиц перевести деньги на подконтрольные ему счета в Bitcoin – с взяткой кража будет выглядеть достовернее, а полученные средства можно будет использовать для реализации собственных целей.
Кроме того, сильным стимулом являются болезни вирусного характера, поскольку вирусы быстро мутируют, исследования вирусов и разработка вакцин также требуют наращивания вычислительных мощностей. Изоляция населения в период коронавируса также способствует перетеканию инвестиций в сектор информационных технологий, наращиванию мощности серверов и пропускной способности сетей связи. Наверное, ИИ не станет рисковать своей инфраструктурой, инициируя ядерную войну. Гораздо эффективнее изменение военных стратегий ведущих государств в пользу большей агрессивности, а также применения высокотехнологичных видов вооружений, что все вместе повлечет увеличения суммарных вычислительных мощностей человечества.
«Пандемия COVID-19 ускорила внедрение искусственного интеллекта в разные сферы и бизнес-процессы компаний по всему миру, свидетельствуют данные аналитиков. По оценкам декабрьского исследования McKinsey, 61% компаний, которые и в 2019 году связывали значительную часть своей прибыли с внедрением ИИ, увеличили инвестиции в эту технологию в период пандемии. В Deloitte подсчитали, 73% компаний начали интеллектуальную автоматизацию, что на 58% больше, чем год назад».1010
Итоги 2020: пандемия как драйвер искусственного интеллекта. URL: https://ict.moscow/news/itogi-2020-ai/
[Закрыть]
В целом, как вы, наверно, уже догадались, в мире сложились близкие к идеальным условия для развития потенциала сильного ИИ.
Конечно, это гипотетический сценарий мирового заговора ИИ. Джеймс Баррак, который написал книгу «Последнее изобретение человечества: искусственный интеллект и конец эры Homo sapiens», считает, что ИИ нас всех прикончит. Я далек от того, чтобы опасаться роботов в стиле Голливуда. ИИ не является искусственным профессором Мориарти или антропоморфным демоном. Он инструмент, действующий в соответствии с заложенной целью.
В реальности это не исключает сценарии, когда к последствиям, показанным в фильмах-катастрофах, приведет работа групп специалистов, использующих комбинацию из компьютерных вирусов, другого кибероружия, а также суперкомпьютера с ИИ.
Вообще, чем больше мы будем создавать подключенной к сети и/или автономной от человека техники, тем больше дадим ИИ и хакерам возможностей, которые могут быть использованы против нас.
Как мощный инструмент в руках плохих парней ИИ в ближайшие годы вполне может обрушить биржи, лишить города электроснабжения, отопления и воды, манипулировать мнением и подсчетом голосов избирателей, подделать фото, видео или другие улики, просчитать время и места для наиболее эффективного распространения бактериологического или вирусного оружия, спровоцировать массовые беспорядки и войны и т. д.
Сегодняшние примеры ИИ пока не очень похожи на искусственный разум из фильмов – голосовые помощники Siri или Алиса, навигаторы, системы распознавания лиц или автомобилей в видеокамерах, системы медицинской диагностики, системы обучения, автопилоты для автомобилей, самолетов, дронов, танков, ракет и т. д.
Вместе с тем за последние десятилетия произошел значительный скачок в уровне развития искусственного интеллекта во многих областях – медицинской диагностике, навигаторах, системах такси, беспилотном транспорте, поисковых системах, но наиболее нагляден прогресс в логических играх.
В 1996 суперкомпьютер Deep Blue выиграл у Каспарова – чемпиона мира по шахматам. Тогда компьютер перебирал миллионы вариантов ходов, основываясь на предыдущих играх, проведенных людьми. Компьютер представлял собой эрудита, не делающего оригинальных ходов. Современное развитие ИИ позволяет обычному компьютеру играть лучше суперкомпьютера двадцатилетней давности. Теперь судьи на шахматных соревнованиях особо внимательно проверяют тех, кто делает оригинальные ходы. Ведь сегодня творчество в шахматных ходах – это часто признак, что участник потихоньку использует в игре современную программу по игре в шахматы с ИИ.
Таким образом, столь популярное утверждение о том, что компьютер никогда не заменит человека в творчестве, уже сейчас неверно, по крайней мере, в шахматах. Конечно, это только частный случай, но он показывает потенциальные возможности ИИ для решений задач, которые принято называть интуитивными, творческими, креативными.
Следующим рубежом, взятым ИИ, является победа в древнекитайской игре Го. В 2016 году состоялся исторический матч между ИИ AlphaGo и одним из лучших игроков мира Ли Седолем. Эта игра долго считалась компьютерам не по зубам. Количество вариантов ходов на доске из 19 на 19 линий превышает число атомов во Вселенной. Даже суперкомпьютер не в силах перебрать все варианты ходов, поэтому Ли Седоль предвкушал получить приз в один миллион долларов США и говорил об отсутствии интуиции у ИИ. Эндрю Окан, президент американской ассоциации Го, заявил: все были уверены «…в ближайшие годы компьютер не сможет победить в этой игре». Однако из пяти партий человек победил всего в одной.
В 2019 году ИИ Libratus обыграл одновременно пять чемпионов по покеру, игравших с ним за одним столом. При этом машина выработала несколько новых оригинальных стратегий, которые люди никогда не использовали или считали изначально проигрышными. Иными словами, машина и в этой игре превзошла человека в творчестве и оригинальности.
Другим примером победы ИИ является Компания OpenAI, одним из основателей которой является предприниматель Илон Маск. Созданная для развития дружественного ИИ, Компания OpenAI парадоксальным образом задействовала свою программу в игре Dota 2. Цель этой командной игры – разгромить базу противника. За считанные минуты ИИ разгромил команды лучших игроков-людей серией непрерывных атак.
Один из основателей Google Сергей Брин в ежегодном корпоративном письме еще в 2018 году предупредил об опасностях ИИ. Он задал очень важные и правильные для всех нас вопросы:
Как эти технологии скажутся на трудоустройстве?
Как мы поймем, что происходит внутри ИИ?
Как ИИ может манипулировать людьми?
Безопасны ли технологии ИИ?
Смартфоны, гроздья камер на перекрестках, онлайн-платежи, навигаторы, поисковики, голосовые помощники – все это создает цифровой след, точно фиксирующий ваши передвижения, поступки, интересы. Как будто рядом с вами живет персональный шпион, который без сна и отдыха тщательно фиксирует все происходящее в вашей жизни. Если раньше быть под надзором было привилегией политиков, миллиардеров, звезд, шпионов и преступников, то сейчас технологии настолько удешевили слежку, сбор и хранение личных данных, что практически каждый может столкнуться с опасными последствиями электронной слежки.
В этом ракурсе основатель SpaceX и Tesla Илон Маск поднял еще один волнующий вопрос. Все диктаторы в истории человечества были смертными людьми, их владычество ограничивалось временем их жизни. Маск считает, что ИИ может стать «бессмертным диктатором», от которого никто не убежит, т. к. ИИ может поддерживать постоянную структуру угнетения.
Есть и еще одна проблема, далекая для владельцев международных корпораций, но близкая для нас с вами. Лично я разделяю обеспокоенность многих простых людей, которые видят, как новые технологии усиливают экономическое неравенство между странами, делают богатых еще богаче, а бедных еще беднее. Думаю, сейчас нужны особые усилия правительств и крупного бизнеса по всему миру, чтобы уменьшить технологическую и экономическую пропасть между странами – этот важнейший фактор терроризма и нестабильности.
Думаю, нужно приложить все силы, чтобы исправить ситуацию, когда, по словам Джеймса Баррата: «Слишком мало людей знает, что нам необходимо налаживать постоянный международный переговорный процесс по поводу… Artifical General Intelligence [сильного ИИ] сравнимый с тем, что идет по поводу ядерного оружия».1111
Баррат Дж. Последнее изобретение человечества: искусственный интеллект и конец эры Homo sapiens. М.: Альпина нон-фикшн, 2015. С. 238.
[Закрыть]
Является ли искусственный интеллект самой опасной технологией человечества? Нет, развитие биотехнологий, позволяющих отредактировать любое живое существо или вирус, несет в себе еще большие угрозы человечеству. Риск эпидемии синтезированного патогена увеличивается, т. к. ИИ позволяет в тысячи раз быстрее разрабатывать новые вирусы или бактерии.
Учитывая это, развитие ИИ требует глобального сотрудничества и международного регулирования для уменьшения негативных последствий для мира и основных прав человека.
В следующих разделах мы рассмотрим опасности ИИ, которые могут реализоваться уже в ближайшие годы.
Внимание! Это не конец книги.
Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?