Текст книги "Что мы думаем о машинах, которые думают: Ведущие мировые ученые об искусственном интеллекте"
Автор книги: Джон Брокман
Жанр: Зарубежная образовательная литература, Наука и Образование
сообщить о неприемлемом содержимом
Текущая страница: 10 (всего у книги 39 страниц) [доступный отрывок для чтения: 13 страниц]
Три замечания об искусственном интеллекте
Фрэнк Вильчек
Профессор физики Массачусетского технологического института; один из обладателей Нобелевской премии по физике за 2004 год; автор книги «Красота физики: Постигая устройство природы» (A Beautiful Question: Finding Nature’s Deep Design)[38]38
Вильчек Ф. Красота физики. Постигая устройство природы. – М.: Альпина нон-фикшн, 2017.
[Закрыть]
1. Мы – это они
Фрэнсис Крик назвал «удивительной гипотезой» то, что сознание, также известное как мышление, является эмерджентным свойством материи. По мере развития нейронаук, не встречающего каких-либо преград, и воспроизведения компьютерами все большего числа действий, которые мы называем разумом у людей, эта гипотеза выглядит все более непреложной. Если так, то любой интеллект – искусственный. Естественный интеллект от искусственного отличается не тем, что́ он есть на самом деле, а только тем, как он создан.
Безусловно, что короткое слово «только» несет здесь довольно большую нагрузку. Мозг используют высокопараллельную архитектуру и задействует множество «шумных» аналоговых блоков (то eсть нейронов), активизируемых одновременно, в то время как большинство компьютеров использует фоннеймановскую архитектуру с последовательной работой намного более быстрых цифровых блоков. Эти различия, однако, размываются, причем с обеих сторон. Архитектура нейронных сетей основана на кремнии, а мозг взаимодействует с внешними цифровыми органами все более эффективно. Я уже чувствую, что мой ноутбук – это часть меня самого, например, он является хранилищем и визуальной, и повествовательной памяти, сенсорным порталом во внешний мир и значительной частью моей математико-пищеварительной системы.
2. Они – это мы
Искусственный интеллект появился не в результате вторжения пришельцев. Это артефакт конкретной человеческой культуры, и он отражает ее ценности.
3. Разум – раб страстей
Яркое утверждение Дэвида Юма: «Разум есть и должен быть только рабом страстей» – записано в 1738 году, задолго до того, как что-то похожее на современный искусственный интеллект появилось на горизонте. Имелись в виду, конечно, человеческий разум и человеческие страсти (причем Юм использовал слово «страсти» в очень широком смысле, в значении, близком к «нерациональным мотивациям»). Но логический/философский вывод Юма остается в силе и для искусственного интеллекта. Проще говоря, стимулы, а не абстрактная логика, определяют поведение.
Вот почему искусственный интеллект, который меня больше всего тревожит, воплощен в автономных сущностях военного назначения: искусственных солдатах, разнообразных беспилотных аппаратах и тому подобных системах. Ценности, которые мы можем пожелать привить таким сущностям, – боеготовность и эффективное уничтожение живой силы противника. Но эти положительные ценности, если что-то пойдет немного не так, способны превратиться в одержимость и агрессивность. Не проявив надлежащей сдержанности и здравомыслия, исследователи могут вдруг обнаружить, что помогли создать армию сильных, умных, злобных параноиков.
В отличие от ситуации с ядерным оружием, тут нет никаких ясных и понятных «красных линий». Со стимулами, которые движут сильным искусственным интеллектом, может произойти множество разных неправильных вещей, и такая угроза кажется мне наиболее реальной не в последнюю очередь потому, что военные обладают огромными ресурсами, много вкладывают в исследования в области ИИ и считают, что обязаны состязаться друг с другом (иначе говоря, они оценивают потенциальные угрозы и повышают боеготовность).
Как избежать этой опасности, не отказываясь от всех благ, которые сулит нам искусственный интеллект? Я думаю, что важнее всего – прозрачность и открытое обсуждение. «Википедия» и сообщества программистов, работающие над приложениями с открытым исходным кодом, – это впечатляющие примеры открытости в совместной работе для достижения общей цели. Их успех демонстрирует, что очень сложные проекты могут прекрасно работать в открытой среде, где множество людей внимательно следят за тем, что именно происходит с проектом, и поддерживают единые стандарты. Если бы специалисты в области искусственного интеллекта приняли на себя коллективное обязательство воздерживаться от секретных исследований, это стало бы важным шагом для развития отрасли.
Когда я говорю «Бруно Латур» я имею в виду вовсе не «баран ли тур?»
Джон Нотон
Вице-президент Вулфсон-колледжа, Кембридж; почетный профессор общественного понимания технологий Открытого университета; автор книги «От Гутенберга до Цукерберга: Что вам очень нужно знать об Интернете» (From Gutenberg to Zuckerberg: What You Really Need to Know About the Internet)
Что я думаю о машинах, которые думают? Ну, это зависит от того, о чем и насколько хорошо они думают. В течение многих десятилетий я был помощником Дага Энгельбарта, который считал, что компьютеры – это машины, призванные дополнить человеческий интеллект. Электроусилитель разума, если угодно. Он посвятил всю свою жизнь осуществлению этой мечты, но она постоянно ускользала от него, потому что технологии всегда были слишком несовершенными, слишком неразвитыми, слишком негибкими.
Они до сих пор остаются такими, несмотря на закон Мура и все прочее. Улучшения есть, но происходят они очень медленно. Поисковые системы, например, в определенных ситуациях стали вполне годным средством протезирования памяти для некоторых из нас. Но они все еще довольно глупые. Так что я очень жду того момента, когда я смогу сказать своему компьютеру: «Эй, как ты думаешь: не является ли идея Роберта Нозика о развитии государства крайним случаем действия сетевых эффектов?» – и получить ответ, который будет хотя бы приблизительно так же хорош, как ответ обычного аспиранта.
Но до этого, увы, еще далеко. Прямо сейчас мне довольно сложно убедить программу, преобразующую то, что я диктую, в текст, и когда я говорю «Бруно Латур», то имею в виду вовсе не «баран ли тур?». Но, по крайней мере, приложение «Персональный помощник» в моем смартфоне знает, что когда я прошу показать прогноз погоды, то мне нужен прогноз для британского Кембриджа, а не для одноименного города в Массачусетсе.
Но приложение «Персональный помощник» на самом деле довольно убого. Вот что мне и вправду хотелось бы получить, так это машину, которая будет функционировать подобно настоящему личному помощнику, что-то, что позволит мне работать эффективнее. Иначе говоря, машину, которая может думать самостоятельно. Как узнать, когда технологии будут достаточно развитыми для этого? Очень просто: когда мой личный помощник, обладающий искусственным разумом, сможет придумать нормальную отговорку, позволяющую не делать того, чего мне делать не хочется.
Стоит ли мне беспокоиться по поводу возможного появления мыслящих машин? Вероятно, стоит. Ник Бостром определенно считает, что стоит. Он утверждает, что наша зацикленность на желании сделать компьютер, который продемонстрировал бы интеллект человеческого уровня, – результат заблуждения. Мы рассматриваем машины, которые могут пройти тест Тьюринга, как конечную цель научных поисков Дага Энгельбарта. Но Бостром считает, что прохождение теста – лишь полустанок на пути к чему-то намного более тревожному. «Этот поезд, – говорит он, – может проскочить станцию “Человеково”, не останавливаясь и даже не снижая ход». Скорее всего, он со свистом пронесется мимо»{4}4
Nick Bostrom, Superintelligence: Paths, Dangers, Strategies (New York: Oxford University Press, 2014). [Ник Бостром. Сверхинтеллект: Пути, угрозы, стратегии]
[Закрыть]. И Бостром прав. Так что мне стоит быть осторожнее с желаниями.
Мы пока что стоим в самом начале пути
Ник Бостром
Профессор Оксфордского университета; директор Института будущего человечества, Школа Мартина, Оксфорд; автор книги «Искусственный интеллект: Этапы. Угрозы. Стратегии» (Superintelligence: Paths, Dangers, Strategies)[39]39
Бостром Н. Искусственный интеллект: Этапы. Угрозы. Стратегии. – М.: Манн, Иванов и Фербер, 2016.
[Закрыть]
Прежде чем говорить о том, что я думаю по поводу мыслящих машин, я скажу вот что: мы по большей части слишком поспешно стремимся сформировать мнение по этой сложной теме. Многие пожилые ученые до сих пор не знают о новом корпусе научных идей, который появился на основе допущения о появлении сверхразума. Существует тенденция приспосабливать любую сложную новую идею под знакомый шаблон. И по какой-то странной причине многие считают, что надо обсуждать события, описанные в различных научно-фантастических романах и фильмах, когда заходит разговор о будущем искусственного интеллекта (хотя предостережение Джона Брокмана, высказанное комментаторам Edge, о том, что не следует так поступать, можно считать смягчающим фактором).
Что ж, я снял эту тяжесть с груди и теперь выскажусь по поводу мыслящих машин: машины на данный момент очень плохо думают, за исключением определенных узких областей. Возможно, когда-нибудь они научатся делать это лучше нас, точно так же, как уже сейчас они стали намного сильнее и быстрее, чем любое биологическое существо.
У нас мало информации о том, как далеки мы от этой точки, так что в попытках определить возможное время появления сверхразума нам надо использовать широкое вероятностное распределение. Переход от искусственного интеллекта уровня человеческого к сверхразуму, скорее всего, произойдет быстрее, чем переход от нынешнего уровня ИИ до уровня человеческого (хотя в зависимости от архитектуры понятие «человеческого уровня» может и не иметь особого смысла в этом контексте). Сверхразум запросто способен оказаться лучшим или худшим, что когда-либо случалось в истории человечества, по причинам, которые я описал в других своих работах.
Вероятность благоприятного исхода в основном определяется внутренней сложностью проблемы – тем, каковы ее основные движущие силы и насколько трудно ими управлять. Последние исследования указывают на то, что она сложнее, чем можно было предположить. Однако мы пока что стоим в самом начале пути, и есть вероятность, что у проблемы имеется какое-то простое решение или же все сложится хорошо и без особых усилий с нашей стороны.
Тем не менее то, насколько хорошо мы подготовимся, способно повлиять на распределение вероятностей. Самое полезное, что мы можем сделать на данном этапе, – это форсировать развитие крошечной, но растущей области исследований, которая разрабатывает проблему сверхразума и его управляемости, а также такие вопросы, как перенос человеческих ценностей в программное обеспечение. Причина развивать данное направление прямо сейчас отчасти состоит в том, чтобы скорее получить первые результаты по проблеме управляемости, отчасти в том, чтобы привлечь к этой работе величайшие умы современности, – и тогда, когда природа проблемы станет более ясной, они уже будут в курсе дела. Похоже, что математика, теория вычислительных систем и, возможно, философия – сейчас самые важные дисциплины. Вот почему уже предпринимаются значительные усилия, чтобы привлечь в эту область талантливых ученых и финансирование, а также начать разрабатывать план действий.
Эволюционирующий искусственный интеллект
Дональд Хоффман
Когнитивист, Калифорнийский университет в Ирвайне; автор книги «Визуальный интеллект» (Visual Intelligence)
Разве научится искусственный интеллект думать, чувствовать, предполагать, сопереживать, дружить, общаться, извлекать мораль? На самом деле он способен делать это любым из способов, которые мы могли бы представить себе, и множеством других, совершенно невообразимых способов. Чтобы встряхнуть воображение, можно рассмотреть различные формы естественного интеллекта, которые встречаются в современных биологических системах, и поразмышлять о вариантах, которыми обладали 99 процентов всех видов, когда-либо живших на Земле, но давно исчезнувших, – благодаря информации, донесенной до нас теми немногими счастливчиками, что завещали свои окаменелые останки пантеону истории эволюции. У нас есть право стимулировать наше воображение подобным образом, потому что, согласно нашим лучшим теориям, интеллект – это функциональное свойство сложных систем, а эволюция, помимо прочего, является алгоритмом поиска, который находит такие функции. Таким образом, формы интеллекта, обнаруженные до настоящего времени естественным отбором, уменьшают нижнюю границу оценки разнообразия возможных вариантов. Эволюционная теория игр предполагает, что верхней границы нет: достаточно всего четырех конкурирующих стратегий для хаотической динамики и странных аттракторов.
Когда мы рассматриваем естественные формы интеллекта, полученные эволюционным путем, то обнаруживаем неоднородность, предполагающую разумоцентрическое представление об интеллекте, которое так же правдоподобно, как геоцентрическое представление о космосе. Интеллект, что мы считаем эталонным, – всего лишь одна из многих точек (притом бесконечно малая) во вселенной чужих разумов, во вселенной, которая не крутится вокруг нашего вида, а большей частью игнорирует его.
Например, самка богомола Pseudomantis albofimbriata, когда бывает голодна, использует сексуальные уловки, чтобы добыть пищу. Она испускает феромон, который привлекает самцов, а затем поедает тех, кто явился на свидание. Старший птенец в выводке голубоногой олуши, когда бывает голоден, прибегает к факультативному каинизму. Он убивает младшего птенца, заклевывая его до смерти или выбрасывая из гнезда, где тот погибает от переохлаждения. Мать смотрит на это не вмешиваясь. Вот вам варианты естественного интеллекта, варианты, которые мы готовы назвать одновременно чужими и подозрительно знакомыми. Они нарушают привычные нам каноны сочувствия, сосуществования и морали, но все же и в переменчивой истории человечества есть примеры людоедства и братоубийства.
Наше исследование обнаруживает другую важнейшую особенность естественного интеллекта: у каждого примера свои пределы применимости – те точки, где интеллект передает эстафету глупости. Самка серого гуся нежно заботится о кладке – но только если поблизости нет волейбольного мяча. Она оставит свой выводок в безнадежной погоне за необычайным яйцом. Самец жука-златки Julodimorpha bakewelli летает в поисках самки для спаривания – если только не приметит подходящую пивную бутылку. Тогда он оставит самку ради бутылки и будет пытаться спариться с холодным стеклом, пока смерть не разлучит их.
Человеческий интеллект тоже передает эстафету. Эйнштейну приписывают такую цитату: «Есть только две бесконечные вещи: Вселенная и человеческая глупость. Хотя насчет Вселенной я не вполне уверен». Некоторые пределы человеческого интеллекта вызывают замешательство. Например, набор функций целых чисел к целым числам неисчислим, тогда как набор вычислимых функций является счетным. Следовательно почти все функции невычислимы. Но попробуйте придумать хоть одну! Оказывается, нужен гений вроде Алана Тьюринга, чтобы найти пример, подобный проблеме остановки[40]40
Классическая проблема в теории алгоритмов, сформулированная в 1936 году Аланом Тьюрингом. Это первый пример задачи, результат которой невозможно вычислить с помощью алгоритма. – Прим. ред.
[Закрыть]. А чтобы понять такой пример, нужен исключительный ум, совсем чуть-чуть не дотягивающий до гениальности.
Другие пределы попадают ближе к цели: диабетики, которые не могут отказаться от десерта, алкоголики, которые не могут отказаться от выпивки, игроки, которые не могут отказаться от игры. Но дело не только в тех, у кого есть пагубные пристрастия. Специалисты по поведенческой экономике считают, что все мы принимаем «предсказуемо иррациональные» экономические решения. Специалисты по когнитивной психологи считают, что все мы страдаем от «функциональной фиксированности» – неспособности решить определенные тривиальные задачи, такие как «Свеча Дункера»[41]41
Задача, придуманная психологом Карлом Дункером и демонстрирующая феномен функциональной закрепленности – склонности человека использовать предметы в одном-единственном качестве. Дано: стол, свеча, коробка канцелярских кнопок и упаковка спичек; требуется зажечь свечу и закрепить ее на стене так, чтобы воск не капал на стол. Несмотря на то что решение задачи простое – приколоть коробку из-под кнопок к стене и поставить в неё свечу, – оно предполагает нестандартное использование предметов, и на его поиски у испытуемых обычно уходит довольно много времени. – Прим. ред.
[Закрыть], – потому что не можем мыслить вне шаблонов. Хорошая новость, однако, состоит в том, что бесконечное разнообразие наших ограничений обеспечивает работой психотерапевтов.
Но вот ключевой момент. Ограничения каждого вида интеллекта – это движущая сила эволюции. Мимикрия, камуфляж, обман, паразитизм – все они являются эффектами эволюционной гонки вооружений между различными формами интеллекта, обладающими своими преимуществами и своими ограничениями.
Площадка, обеспечивающая искусственному интеллекту возможность поучаствовать в этой гонке, была подготовлена совсем недавно. По мере расширения и улучшения связи между нашими вычислительными ресурсами, станет появляться все больше ниш, в которых формы ИИ смогут воспроизводиться, конкурировать и видоизменяться. Хаотическая природа эволюции не позволяет нам точно спрогнозировать, какими именно будут новые формы ИИ. Однако мы можем с уверенностью сказать, что нас ждут неожиданности, тайны, преимущества там, где у нас самих есть недостатки, и недостатки там, где у нас есть преимущества.
Но должно ли это быть причиной для беспокойства? Я думаю, что нет. Эволюция искусственных интеллектов открывает для нас возможности, но и представляет опасность. То же самое делает биологическая эволюция естественного интеллекта. Мы выяснили, что лучший способ сладить с разнообразием естественных форм интеллекта – это не тревожность, а благоразумие. Не тискайте гремучих змей, не дразните медведей-гризли, пользуйтесь средством от комаров. Чтобы справиться с эволюционирующими стратегиями вирусов и бактерий, мойте руки, избегайте контактов с теми, кто чихает, делайте прививки от гриппа. Иногда, как в случае с вирусом Эбола, бывает нужно принять дальнейшие меры. Но опять же благоразумие, а не тревожность оказывается эффективнее. Эволюция естественных форм интеллекта может быть источником трепета и вдохновения, если мы примем ее с благоразумием, а не отвергнем в тревоге.
Все виды исчезают. Homo sapiens не будет исключением. Мы не знаем, как это произойдет – вирус, вторжение пришельцев, ядерная война, супервулкан, астероид, солнце, превратившееся в красного гиганта. Да, нашей смертью может оказаться и искусственный интеллект, но я готов поспорить, что вероятность такого события очень невелика. Наоборот, я бы ставил на то, что ИИ будет источником восхищения, новых идей, вдохновения и прибыли в течение многих лет.
Мыслящие машины есть в кино
Роджер Шенк
Психолог и специалист по теории вычислительных систем; Engines for Education, Inc.; автор книги «Обучающие умы: Как когнитивистика может спасти наши школы» (Teaching Minds: How Cognitive Science Can Save Our Schools)
Машины не умеют думать. И в ближайшее время они думать не будут. Они могут делать все более и более интересные вещи, но представление о том, что нам надо из-за них беспокоиться, законодательно регулировать их «мышление» или предоставлять им гражданские права, – это просто глупость.
Так и не ставшие реальностью обещания разработать «экспертные системы»[42]42
Компьютерные системы, заменяющие людей-экспертов и помогающие найти решение проблемы в определенной области. – Прим. ред.
[Закрыть] в 1980-х годах свели на нет серьезное финансирование, прежде выделявшееся на создание «виртуальных людей». Очень немногие специалисты работают сегодня в этой области. Но, если верить средствам массовой информации, мы должны очень сильно бояться.
Все мы смотрели слишком много фильмов.
Если вы работаете с искусственным интеллектом, то есть два пути. Первый: «Давайте скопируем человека». Второй: «Давайте сделаем очень быструю статистическую вычислительную модель». Пример второго подхода – старые шахматные программы, которые пытались «перевычислять» тех, против кого они играли, но у игроков-людей есть свои стратегии, а прогнозирование решений противника – тоже часть игры в шахматы. Когда метод «перевычисления» не сработал, специалисты по ИИ начали наблюдать за тем, что делают опытные игроки, и подражать их действиям. «Перевычисление» больше не в моде. Мы можем назвать оба этих метода «искусственным интеллектом», если захотим, но ни один не приведет к появлению машин, способных создать новое общество.
Стратегия «перевычисления» нам совсем не страшна, потому что компьютер в действительности понятия не имеет, что делает. Он может быстро что-то посчитать, не сознавая, что именно считает. Здесь есть алгоритмы подсчета – и всё. Что нам и продемонстрировал IBM Watson в Jeopardy!
Один из вопросов в Jeopardy! выглядел следующим образом: «Такой была анатомическая особенность американского гимнаста Джорджа Эйсера, который завоевал золотую медаль в упражнениях на параллельных брусьях в 1904 году».
Игрок-человек ответил, что у Эйсера не было руки (неверно). А Watson спросил: «Что такое нога?» Он тоже проиграл, поскольку не смог сказать, что ноги «не было».
Попробуйте поискать в Google «гимнаст Эйсер». Первой в выдаче будет «Википедия» с длинной статьей о нем. Watson зависит от Google. Если бы участники Jeopardy! имели право использовать Google, то справились бы лучше, чем компьютер[43]43
Следует отметить, что на время игры суперкомпьютер был отключен от интернета и пользовался только собственной базой данных, что не помешало ему выиграть у обоих противников-людей. – Прим. ред.
[Закрыть]. Watson может перевести слово «анатомическая» в «часть тела» и знает названия частей тела. Однако ему неизвестно, что такое «особенность». Watson оказался не в курсе, что гимнаст без ноги – это довольно необычно. Если бы вопрос звучал так: «Что необычного было в Эйсере?», люди отлично справились бы с ответом. Watson же не нашел бы слова «необычного» в «Википедии», равно как не понял бы ни того, чем занимаются гимнасты, ни почему кому-то есть до этого дело. Попробуйте погуглить раздельно по словам «необычное» и «Эйсер» и посмотрите, что получится. Поисковый алгоритм не думает, он не делает ничего даже отдаленно похожего на мышление.
Если бы мы поинтересовались у Watson, почему человек с ограниченными возможностями выступает на Олимпийских играх, то компьютер вообще не понял бы, что у него спрашивают. Он не понял бы вопроса, не говоря уже о том, чтобы найти ответ. Перемалывание чисел может дать вам только числовой результат. Интеллект, искусственный или какой-то другой, требует знания того, почему что-то происходит и какие эмоции это вызывает, а также способности предсказать возможные последствия определенных действий. Watson такого не умеет. Мышление и поиск в тексте – не одно и то же.
Человеческий разум сложен. Те из нас, кому по душе стратегия «давайте скопируем людей», проводят много времени за размышлениями о том, на что мы способны. Многие ученые рассуждают об этом, но вообще-то нам почти неизвестно, как работает разум. Специалисты по искусственному интеллекту пытаются создать модели тех частей, которые мы понимаем. О том, как обрабатывается язык или как устроены механизмы обучения, мы кое-что уже выяснили, а вот о сознании или работе памяти – почти ничего.
Вот вам пример: я работаю над компьютером, который имитирует то, как организована память человека. Я хочу создать компьютер, который мог бы, подобно настоящему другу, рассказать вам нужную историю в нужный момент. Для этого мы с коллегами собрали тысячи историй в видеоформате – о защите, об исследовании лекарственных препаратов, о медицине, о программировании и т. д. Когда кто-то пытается что-то сделать или о чем-то узнать, наша программа может завести разговор и рассказать вспомнившуюся ей историю. Это искусственный интеллект? Конечно, да. Это мыслящий компьютер? Не совсем.
Почему нет?
Чтобы выполнить нашу задачу, мы должны опросить экспертов, а затем проиндексировать смысл рассказанных ими историй согласно идеям, которые они высказывают и опровергают, целям, о достижении которых говорят, и проблемам, которые они испытывали при достижении этих целей. Такое способны проделать только люди. Машина может сопоставить один индекс с другими, например с теми, которые можно найти в какой-то еще истории, имеющейся в компьютере, с индексами пользовательских запросов или с данными анализа ситуации, в которой, как известно машине, находится пользователь в данный момент. Компьютер может вспомнить очень хорошую историю в самый подходящий момент. Но он, конечно, не знает, о чем говорит. Он просто способен найти лучшую историю для конкретной ситуации.
Это искусственный интеллект? Я думаю, что да. Повторяет ли он то, как люди индексируют истории в своей памяти? Мы долго изучали, как они это делают, и думаем, что наш компьютер умеет так же. Надо ли нам опасаться такой «разумной» машины?
Вот тут я перестаю понимать тех, кто боится искусственного интеллекта. В том, что мы можем сделать, нет ничего угрожающего. Если бы мы на самом деле сумели построить мобильную разумную машину и научили бы ее ходить, говорить и жевать резинку, то использовалось бы наше творение, скорее всего, отнюдь не для завоевания мирового господства и не формирования нового общества роботов. Гораздо больше пользы от нее было бы в работе по дому. Все хотят иметь персонального лакея. Роботов-слуг часто изображают в фильмах (хотя обычно довольно глупо), потому что они смешные, и обладать чем-то таким было бы круто.
Почему у нас их нет? Потому что хороший слуга – это некто, понимающий вас, когда вы что-то говорите, учащийся на своих ошибках, способный передвигаться по дому, не ломая вещи, не раздражая окружающих и т. д. (любой пункт из этого списка находится за пределами возможностей машин, которые мы на данный момент умеем строить). Не стоит волноваться по поводу того, что он поболтает с другими роботами-слугами и решит учредить профсоюз. Нет причин встраивать такую способность в слугу. Настоящие слуги иногда бывают надоедливы, потому что они люди и обладают человеческими потребностями. У компьютеров таких потребностей нет.
Нам еще очень далеко до создания подобных машин. Чтобы это сделать, нам понадобится глубокое понимание взаимодействий между людьми. Электронному лакею пришлось бы понимать фразы: «Робот, ты опять пережарил это блюдо» и: «Робот, детям очень не понравилась твоя песня». Так что нам всем надо перестать волноваться и начать пользоваться теми классными штуками, которые нам действительно способен дать искусственный интеллект.
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?