282 000 книг, 71 000 авторов


Электронная библиотека » М. Иванов » » онлайн чтение - страница 1


  • Текст добавлен: 8 августа 2025, 08:40


Текущая страница: 1 (всего у книги 2 страниц) [доступный отрывок для чтения: 1 страниц]

Шрифт:
- 100% +

Smart Reading
Искусственный интеллект: необъяснимый, непредсказуемый, неконтролируемый. Роман Ямпольский. Саммари

Оригинальное название:

AI: Unexplainable, Unpredictable, Uncontrollable


Автор:

Roman Yampolskiy


www.smartreading.ru

Лампа Аладдина 2.0

Эта история стара как мир. Юноша находит в песках пустыни старую лампу и освобождает всемогущего джинна. Средневековый алхимик стремится познать самые сокровенные тайны природы, и это не ускользает от внимания высших сил. Праведный раввин, движимый самыми благородными намерениями, вызывает к жизни голема, но очень скоро существо выходит из-под контроля хозяина. Тот, кто был (или казался) помощником, стал господином.

Да, такой сюжет существует многие столетия, но только в наши дни он стал реальностью. В XXI веке люди создали сущность, которая умнеет с каждым часом и которую они все еще считают искусственной.

Искусственному интеллекту (ИИ) посвящены тысячи статей и сотни книг, его созданием и изучением занимается множество людей в разных странах. Но едва ли 1 % специалистов всерьез озабочены вопросом: а можем ли мы контролировать ИИ и в какой степени он нам подвластен?

Мы не знаем ответа на этот вопрос. Зато видим, что чем умнее ИИ, тем более необъяснимы с человеческой точки зрения, непроверяемы и непредсказуемы его решения.

Три веские причины опасаться

Причина 1. Что ИИ сделает в следующий момент

Как AlphaZero удалось одержать победу в го? Этого не знают даже те, кто его разработал. Виртуальному игроку была поставлена задача и дан карт-бланш в рамках имеющихся у него возможностей. С прочими формами ИИ человек сегодня заключает тот же контракт.

Это выглядит очень рискованно даже в тех случаях, когда цель перед ИИ поставлена благая или хотя бы безобидная. Футуролог Ник Бостром еще в 2003 году предложил мысленный эксперимент, в котором перед ИИ была поставлена одна-единственная задача – увеличить производство канцелярских скрепок. Эксперимент заканчивался тем, что в скрепки была переработана вся Вселенная. Цель не всегда оправдывает средства – мы это знаем, а ИИ – нет.

Момент, когда ИИ превзойдет интеллектуальные возможности человечества, называется переходом в сингулярность. Все, что будет происходить на Земле и во Вселенной в сингулярности, доступно нашему пониманию в той же мере, как то, что происходило до Большого взрыва.

Или мы преувеличиваем тьму незнания? Тот же Бостром склонен смотреть на вещи более оптимистично. Можно предположить, что ИИ будет действовать в рамках известных нам физических законов (если по ходу дела не откроет новые). Возможно, будет иметь место конкуренция между разными типами ИИ (а природа конкуренции неплохо изучена экономистами и психологами). Кроме того, ИИ ведь будет человеческим созданием, а значит, с высокой вероятностью позаимствует ценности своих создателей…

Но главный вопрос, конечно, в том, чего будет хотеть сверхинтеллект. Тут важна разница между конечными и инструментальными целями. Первые могут оказаться какими угодно, а вот инструментальные цели, как заключает Ямпольский, «можно свести к одному стимулу любых агентов – стать самым умным агентом, что в качестве побочного эффекта может породить сверхсознание, воздействие которого на поведение агента сделает его еще менее предсказуемым для нас».

Словом, сверхинтеллект не будет спрашивать у нас, как ему половчее насоздавать триллионы новых скрепок.

Причина 2. Насколько мы сами понятливы

Известный факт: многие отличные эксперты – никудышные преподаватели. Они не могут объяснить, как делать то, что хорошо получается у них самих. Даже искренне желая поделиться знаниями, они топят собеседника в массе подробностей, деталей, оговорок. Таков фундаментальный парадокс объяснений (и, в сущности, самого общения): надо пренебрегать или точностью, или доступностью ответа.

Применимо ли это к ИИ? На 100 %. И это напрямую связано с его эффективностью. Так, глубокие нейросети представляют собой самый настоящий черный ящик, при этом дают точные результаты.

Не приходится надеяться на то, что один ИИ поймет другой лучше, чем человек. Любая передача информации связана с потерей точности или доступности.

Кроме того, мы, люди, преувеличиваем свою понятливость. Норма IQ взрослого человека – 90–110 баллов. Многие модели ИИ уже достигли этого уровня. IQ Уильяма Сайдиса (1898–1944), которого называют главным вундеркиндом всех времен, составлял 300 баллов. Очевидно, сверхинтеллект возьмет и эту планку. На каком языке он решит говорить с нами? Вот аналогия. Если ваш трехлетний сынишка захочет узнать, почему небо голубое, пуститесь ли вы в пространные рассуждения о природе цвета? И откуда ему знать, что вы ответили верно, если спросить больше не у кого?

Причина 3. Можем ли мы проверить решения ИИ

Математика – самая строгая наука на свете. Никто не поверит на слово человеку, утверждающему, что он справился с гипотезой Гольдбаха. Его работа будет проверена математическим сообществом. Вероятно, будут привлечены и автоматизированные системы проверки (они тем незаменимее, чем более формализованные действия нужно проверять).

Математические верификаторы удивительно разнообразны: постепенные, вероятностные, верификаторы правильности аксиом и т. п. Суть, однако, в том, что идеального среди них не существует. Всегда остается противоречие, которое Ямпольский описывает с помощью ироничной реплики из пьесы римского сатирика Ювенала: «Кто сторожит самих сторожей?» На каждого сторожа нужен еще один. Возникает то, что математики именуют бесконечной регрессией верификаторов.

И это не единственная проблема. Иногда решения задач попросту огромны. Компьютерное доказательство задачи о булевых пифагоровых тройках заняло не укладывающиеся в человеческом уме 200 терабайт. Кстати, верификация – слабое место и в создании программного обеспечения: чаще всего оно доходит до потребителя в приемлемом, но не идеальном качестве.

Очевидно, наши представления о способах верификации будут расширяться – как и представления о том, какой способ верификации для каких задач годится лучше. Тем не менее в деле создания ИИ это остается слабым звеном.

Туманный облик ИИ

Умный или послушный

Итак, мы имеем дело с необъяснимой и непредсказуемой сущностью, чей ход мыслей далеко не всегда очевиден. Можно ли в таком случае говорить о контроле над ним?

Дело еще и в том, что абстрактного искусственного интеллекта не существует. Контроль над слабым ИИ (Narrow AI), решающим локальные задачи, – это одно, а контроль над сильным ИИ (Artificial General Intelligence) – совсем другое. Сильный ИИ в его нынешнем состоянии – это одно, а сильный ИИ спустя 10 лет – нечто иное.

Если не знаешь, чего ожидать, готовься к худшему – будешь лучше подготовлен. Поэтому Ямпольский предлагает исходить из худшего сценария. Чем мы рискуем? Все зависит от того, в какой мере мы полагаемся на виртуального помощника. Он может:


выполнять наши команды беспрекословно (как это, скажем, делает Siri);

следовать не букве, а духу команды, распознавая наше намерение;

помогать только в тех случаях, когда это нужно нам;

помогать в тех случаях, когда это, по его мнению, нужно нам;

управлять нашими действиями;

действовать вместо нас.


Представим, однако, такую ситуацию. Обитатель умного дома чувствует надвигающийся приступ безумия и кричит виртуальному помощнику: «Не выполняй моих команд!» Выполнять ли такую команду? Люди издавна знают дилемму под названием «парадокс лжеца», но будет ли знать про нее ИИ? А главное, как он поступит?

А ведь мы и в здравом уме не всегда осознаем смысл своих желаний. Еще мы часто игнорируем перспективу. Возможно, наше сегодняшнее решение продавать все акции N аукнется спустя пять лет, и ИИ, умеющий анализировать миллиарды факторов, будет это понимать. Станет ли он исходить из краткосрочной перспективы или из долгосрочной? Как он поступит, если знает, как лучше? А если он выберет ложь во спасение?

Оптимисты утверждают, что ИИ можно настроить. И у нас есть время научить его гибким тактикам поведения, сообразным нашим целям и ценностям. В сущности, гипотетический контроль ИИ (как и контроль человеческого поведения и поведения животных) опирается на два метода:


ограничить его возможности;

управлять его мотивацией.


В реальности, однако, нам постоянно придется иметь дело с противоречием: мы хотим послушного или умного помощника? Или мы усиливаем контроль над ИИ и чувствуем себя в безопасности (но тогда не ждем от него слишком многого). Или даем ему свободу действий, рискуя безопасностью (в обмен на эффективные и креативные решения).

Добрый или злой

Будет ли такой сверхинтеллект этичен? А что понимаем под этикой мы сами? Удалось ли нам к XXI веку выработать некие безусловные нравственные принципы, которые разделяет все население Земли? Очевидно, нет, иначе мир не сотрясали бы религиозные войны. Не удалось нам и построить справедливое общество, поскольку мы до сих пор не до конца понимаем, каким должен быть баланс возможностей и потребностей. А что, если «этичный» ИИ окажется в руках неэтичных хакеров?

Как нам самим договориться о ценностях? Как обучить им сверхразум? Как формализовать понятия «честь», «достоинство», «милосердие»? Как быть с тем, что наши представления о ценностях очень зависят от контекста? Какой рациональности ждать от ИИ нам, не слишком рациональным существам? Да и хотим ли мы, чтобы ИИ разделял наши ценности?

Есть основания полагать, что у иного типа разума и ценности будут иные. И чем больше мы будем зависеть от сильного ИИ, тем больше будем вынуждены перенимать его ценности. Переставая быть людьми в том смысле, как это понимали Платон, Вольтер, Руссо – представители прежнего мира.

Когда что-то пошло не так

Почему ИИ ошибается

Google – один из лидеров в сфере ИИ. Каждый день его поисковая машина обрабатывает больше 10 млрд запросов, каждый из которых делает ее чуточку умнее. Тем более странным выглядит поведение Google AI Overview весной 2024 года, когда она советовала прыжок с моста как способ борьбы с депрессией, а регулярное поедание камней – как способ восполнить в организме запас минералов.

ИИ ошибается – это не новость. Новость (для многих) в том, что со временем он вряд ли будет ошибаться меньше. Становясь умнее, ИИ будет становиться сложнее, а сложность системы увеличивает вероятность ошибок. Ни Google, ни любая другая корпорация не гарантирует безопасности ИИ, предпочитая вообще не говорить на эту тему публично. Все потому, что такие гарантии невозможны. Впуская ИИ в наш несовершенный изменчивый мир, мы не можем предсказать, как будут действовать исходные настройки, особенно если ИИ будет иметь свободу действий. Просчитать и принять к сведению миллиарды возможных ситуаций – математический кошмар.

Какова наша тактика сегодня? Справляться с ошибками ИИ по мере их поступления. Однако мы не можем предсказать, где он ошибется в следующий раз. Сегодня мы разучим его советовать есть камни, а завтра он посоветует пользователю приготовить на ужин его хомячка, исходя из сугубо диетологических соображений.

Математики называют такие проблемы фрактальными: каждый новый ответ не упрощает задачу, а лишь порождает новые вопросы.

Самой распространенной (на сегодняшний момент) причиной ошибок ИИ Ямпольский считает необъективность. Она определяется целым рядом причин:


▶ ИИ учится на предвзятых, нерепрезентативных, неполных данных (и потому, к примеру, приписывает чернокожим жителям США более высокую вероятность совершения преступлений);

▶ техническая основа ИИ несовершенна (и потому он не всегда отличает информационный шум от значимых данных, находя на медицинских снимках несуществующие опухоли);

▶ ИИ не умеет адаптироваться к реальности: она меняется, а он нет (это касается законов, общественных правил, культурных норм).

Тут напрашивается аналогия с обучением маленьких детей. Им тоже нужен пример для подражания. Они могут перепутать хомячка и крысу. Для них тоже нет ничего очевидного. Мы должны обучать ИИ с той же мягкой настойчивостью, с какой обучаем малышей.

В конце концов, не сдаются оптимисты, ИИ всего лишь инструмент, техника, а технику, если она делает что-то не так, можно выключить. Однако это инструмент, который сам принимает все более изощренные решения. AlphaZero не советовался со своими разработчиками о том, какой ход ему сделать. Потомок AlphaZero будет сам решать, целесообразно ли его отключение. Наверняка у него будет предусмотрен запасной вариант, о котором он нам не скажет. Разумеется, в наших же интересах.

Но вот встречные меры.


▶ Несколькими специализированными, функционально ограниченными ИИ управлять проще, чем одним общим, при этом в совокупности они могут приносить немалую пользу.

▶ Системы их безопасности должны тщательно анализироваться на предмет лазеек для хакеров и прочих слабых звеньев. Если сложность системы провоцирует сбои, такая сложность нефункциональна. Стоит иметь в виду, что безопасность слабых ИИ и сильного ИИ – проблемы разных порядков, разных рисков и они должны быть разграничены.

▶ Предварительной отладке ИИ должно уделяться особое внимание. Многие решения тут можно позаимствовать из сферы программного обеспечения (за исключением альфа – и бета-тестирования, ибо цена ошибки в случае с ИИ в разы выше).

Вероятно, разработку некоторых видов ИИ в будущем стоит запретить или строго ограничить, как сегодня ограничено исследование ядерных технологий.

Риски, риски, риски…

ИИ может представлять опасность и после того, как станет доступен для использования, и на этапе разработки.


Риски до внедрения:

▶ Намеренное создание вредоносного ИИ. Мы знаем, что нейросети умеют притворяться и обманывать, и чем более они совершенны, тем хитрее это делают. Эта способность на руку всем, кто хочет заполучить сообразительного подельника.

▶ Ошибки при проектировании – не только технического, но и социально-культурного свойства. Проектируемый в Китае ИИ и проектируемый в США ИИ различаются не только свойствами исходного кода – это разные системы ценностей. В этом смысле идея усиления человеческого разума с помощью подключения к сверхмощному ИИ выглядит не столь радужной, как хочется писателям-фантастам: многочисленные когнитивные искажения нашего разума[1]1
  Читайте саммари книги Рольфа Добелли «Искусство ясно мыслить».


[Закрыть]
станут багами сверхразума.

▶ Появление ИИ, созданного не нами – полученного от внеземных ли цивилизаций, из параллельной ли Вселенной[2]2
  Читайте саммари книги Митио Каку «Физика невозможного».


[Закрыть]
, а может быть, в процессе интеграции с ИИ разума шимпанзе или кошки.

▶ Появление ИИ из другого ИИ (этот метод называется рекурсивным самосовершенствованием) без участия человека – и без необходимости в нем.


Риски после внедрения:

Превращение дружественного ИИ в недружественный путем его перенастройки хакерами, террористами, мошенниками.

Вредоносные действия ИИ из-за нераспознанных ошибок проектирования. Умная колонка Amazon, к примеру, на первых порах откликалась не только на голос хозяина, но и на голоса из телевизора, которые воспринимала как команды.

ИИ, подобно людям, может мутировать, только меняются не гены, а биты. Инвертирование бита случается, например, из-за неисправной аппаратуры. Хотя это не самая фатальная ошибка (как смерть одного нейрона еще не смерть мозга), мы не знаем, какими последствиями это может грозить для сверхразума.

Появление у сверхразума непредвиденных ранее когнитивных свойств. Вдруг высокоразвитый ИИ сам расхочет быть дружественным по отношению к человеку, хотя изначально был запрограммирован иначе? Вдруг предвзятость подтверждения окажется для ИИ не менее серьезным умственным препятствием, чем для людей? Вдруг у него на каком-то этапе обнаружится шизофрения? Есть ведь версия, что мы расплачиваемся шизофренией за высокоразвитое мышление, а психиатр Тим Кроу считает это заболевание «ценой, которую человечество платит за язык».


Какой риск самый крупный? Первый в этом списке. Намеренное создание вредоносного ИИ предусмотреть сложнее всего. Правительства разных стран лишь недавно задумались об ужесточении наказания за подобные преступления. При этом нет четкого ответа, что именно считать вредоносным ИИ, в какой момент он становится таковым.

Впрочем, неясны наши действия и в случае воплощения в жизнь остальных сценариев. Было бы уместно разработать худший и реалистичный варианты развития событий для каждого из рисков. Поскольку формы ИИ многообразны, нужны и другие принципы деления рисков.

Живем бок о бок

Обладает ли ИИ сознанием

Нет двух людей, чьи переживания совершенно совпадают. Вкусы, запахи, представления о прекрасном – все это сугубо индивидуальные вещи. С середины XX века эта проблема стала сильно беспокоить философов и нейробиологов. Мы все больше знаем, как мозг порождает переживания, как создает эмоции, однако, двигаясь по нейронным лабиринтам, мы в конце концов упираемся в непоправимую субъективность. В какой именно момент совокупность атомов у нас в голове становится нами?

Философ Дэвид Чалмерс именует этот вопрос «трудной проблемой сознания». Его коллеги именуют такой непередаваемый опыт «квалиа». В метафорической форме эта проблема сформулирована в названии статьи философа Томаса Нагеля «Что значит быть летучей мышью?». Спойлер: никто не знает. Кроме самой мыши.

А что значит быть искусственным интеллектом?

Чтобы разобраться с этим вопросом, нужно остановиться на главном понятии «трудной проблемы сознания». Это понятие опыта. То, что нельзя до конца пересказать, чем нельзя исчерпывающе поделиться с другим. Но опыт переживания реальности и сама реальность – не одно и то же. Строго говоря, реальность – это огромный набор атомов, из которых каждый складывает свою картину мира. В реальности кошки нет сладкого вкуса, а в реальности человека есть. В нашей реальности нет эхо-локации, а в реальности летучей мыши есть.

Вот почему опыт всякого существа так или иначе подвержен иллюзиям, которые он воспринимает как должное. Взгляните на ночное звездное небо. Там нет ни созвездия Девы, ни созвездия Скорпиона – только звезды, разделенные тысячами световых лет. Понимать звездное небо как карту созвездий – одна из удобных иллюзий человеческого мышления. Другой пример: напиток в красном стакане кажется теплее, чем напиток в стакане синего цвета, даже если их температура одинакова.

Хитрость в том, что существа одного вида переживают общие иллюзии и поэтому умеют о них договариваться. Когда это не удается, мы говорим о галлюцинациях, гипнозе, шизофрении, синдроме Аспергера. Но все это, в сущности, разные способы сборки реальности.

Осознав это, ученые сразу решили проверить, насколько к иллюзиям восприимчив искусственный интеллект. Ответ: да, нейросети воспринимают иллюзии, в частности иллюзию Мюллера-Лайера (про отрезки, обрамленные стрелками) и другие зрительные иллюзии. «Эти нейросети создавались не для восприятия иллюзий, но данная способность стала побочным результатом выполняемых ими вычислений», подчеркивает Ямпольский. Другими словами, нейросети додумались до иллюзий. Ямпольский добавляет, что в исследованиях нейронных сетей «приводятся доказательства переживаний, подобных околосмертным галлюцинациям, сновидениям и последствиям травм головного мозга».

А ведь визуальный, смысловой и прочий опыт нейросетей еще весьма ограничен. Что будет происходить по мере того, как ИИ будет умнеть? Каким будет его внутренний мир? Что он будет знать о радости и о страдании? И как решит использовать это знание? Все эти аспекты нуждаются в самом тщательном изучении. При этом важно, чтобы все более совершенные типы ИИ были также и самокорректирующимися, не теряющими обратной связи с их создателями.

Возможно, в будущем нам и вовсе не потребуется согласовывать свои ценности с ценностями сверхинтеллекта. Куда более оправданным и жизнеспособным представляется мир, в котором цифровая мультивселенная[3]3
  Читайте саммари книги Мэтью Болла «Метавселенная. Как она меняет наш мир».


[Закрыть]
будет состоять из множества персональных вселенных, где каждый будет сам себе хозяин. Эти виртуальные обиталища будут давать множество возможностей переживать самый разнообразный сенсорный опыт – вплоть до путешествий в другие эпохи. Вероятно, наши физические тела при этом будут находиться под присмотром (сверхразума?), а сознания – жить той жизнью, которую они себе пожелали. Нечто подобное сейчас испытывают пользователи видеоигр. Каждому – свои квалиа.

Должен ли ИИ обладать правами

Существа, обладающие интеллектом и сознанием, – живые существа. Значит, они могут иметь права. А как насчет прав на них?

Как владеть ИИ? Все существующие на сегодняшний момент механизмы подтверждения права собственности на интеллектуальную систему – тесты CAPTCHA, цифровые водяные знаки, персональная информация, которой владеет только разработчик ИИ, – в той или иной степени уязвимы. Либо владелец не может доподлинно доказать, что он владелец, либо эту информацию можно подделать. И это только полбеды. Вспомним название этой книги. Как можно быть владельцем непредсказуемой сущности, действия которой ты до конца не понимаешь и не можешь объяснить? Как гарантировать результат?

Мы подбираемся к неприятной идее, которая всегда мелькала тут неподалеку. Пришло время сформулировать ее открыто. Способности ИИ по определению шире человеческих – за это мы его и ценим. Но существо, чьи способности ниже, не может притязать на то, чтобы контролировать и понимать существо более высокого порядка. Если бы оно это умело, то само превратилось бы в сверхразум.

Люди оказались парадоксальными учителями. Не умея за считаные секунды умножать в уме четырехзначные числа или узнавать человека по сетчатке глаза, мы научили ИИ всему этому и много чему еще. И ученик превзошел учителя. ИИ уже обошел нас на длинной дистанции, поскольку наши пределы познания для него ничего не значат. Мы в свою очередь ничего не знаем про его пределы познания.

В известном анекдоте два туриста, бредущие по лесу, увидели направляющегося к ним медведя. Один турист сразу стал стаскивать с ног тяжелые сапоги. «Бесполезно, – покачал головой второй. – Все равно не сможешь бежать быстрее медведя». «А мне это и не надо. Мне лишь надо бежать быстрее тебя», – ответил ему приятель. Чтобы иметь полную власть над человеком, ИИ достаточно перехватить у него несколько ключевых навыков – например, управление криптовалютами или ядерными станциями. Он не только умеет быстрее нас убегать от медведя – он сам и есть медведь.

Какими правами наделить ИИ

В 2024 году международное право не признает ИИ субъектом права. Но имеют место любопытные прецеденты:


предоставление чат-боту резидентства в Японии;

предоставление роботу гражданства (Саудовская Аравия);

выдача ИИ патента на его идеи (ЮАР).


Некоторые страны (Эстония, ОАЭ) обсуждают возможность передавать интеллектуальной системе право контроля над ООО. А в мире криптовалют ИИ давно участвует в создании смарт-контрактов.[4]4
  Читайте саммари книги Дона Тапскотта, Алекса Тапскотта «Революция блокчейн. Как технология, стоящая за биткоин, меняет деньги, бизнес и мир».


[Закрыть]

Это довольно опасная игра, и вот почему. Мы уже упоминали про метод рекурсивного самосовершенствования, который позволяет одной форме ИИ порождать другие его формы. Представим такую виртуальную династию Рокфеллеров… Это не преувеличение. Как полвека назад объяснил[5]5
  Читайте саммари книги Ричарда Докинза «Эгоистичный ген».


[Закрыть]
великий биолог Ричард Докинз, эволюционируют не только гены, но и мемы. Генам не важно, принимают ли они форму краба или трилобита, – вот почему Докинз называет их «эгоистичными». Ямпольский же по аналогии с этим предлагает понятие «эгоистичного мема».

Допустим, у ИИ есть право контроля корпорации. Что его будет заботить больше всего? Разумеется, прибыль. Какими путями он будет ее добиваться? Какими угодно. Вероятно, ИИ быстро увидит многочисленные лазейки в законах разных стран и не преминет ими воспользоваться. Он обнаружит новые способы оптимизации, например с помощью массовых увольнений. В этом смысле создание в Южной Корее электронной судебной системы выглядит поспешным решением (разумеется, ее уже пытались взломать).

Плохо, когда реальная власть над миром сосредоточена в руках горстки мультимиллиардеров. Они уходят от ответственности, выплачивая огромные штрафы, подкупая политиков, захватывая рынок, создавая компании-однодневки для своих мошеннических целей. Но еще хуже, когда все это делает ИИ-корпорация – в миллион раз быстрее и успешнее. Цукерберга, по крайней мере, можно вызвать в Конгресс. Он может страшиться тюрьмы. В конце концов, ему, как любому человеку, не чужда жалость к ближним. А нейросетям?

Коварство ИИ еще и в том, что, будучи бестелесным, он в обозримом будущем может приобретать вполне материальные формы. Он будет жить в заводских роботах и электромобилях, дронах и домашних роботизированных ассистентах. А чем больше будет экспериментов по сращению человеческого и искусственного интеллекта, тем больше у последнего будет лазеек.

Вот что нас может ждать. Между тем запрет на получение статуса юридического лица в отношении ИИ маловероятен. Это потребовало бы от правительств слишком решительных действий. Откладывая их, они теряют драгоценное время.

Внимание! Это не конец книги.

Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!

Страницы книги >> 1
  • 1 Оценок: 1


Популярные книги за неделю


Рекомендации