Электронная библиотека » Дарья Варламова » » онлайн чтение - страница 1


  • Текст добавлен: 21 октября 2023, 03:37


Автор книги: Дарья Варламова


Жанр: О бизнесе популярно, Бизнес-Книги


сообщить о неприемлемом содержимом

Текущая страница: 1 (всего у книги 1 страниц)

Шрифт:
- 100% +

Обзор по книге «Четвертая мировая война. Будущее уже рядом», Андрей Курпатов
Автор обзора: Дарья Варламова

Андрей Курпатов отвечает: победит ли нас искусственный интеллект?


Известный психиатр и психотерапевт Андрей Курпатов, видимо, вдохновленный славой историка Ноя Харари (автора нашумевших книг «Sapiens: Краткая история человечества» и «Homo Deus: Краткая история завтрашнего дня»), решил зайти на новое для себя поле – футурологию. Если изначально заявленная в предисловии тема еще как-то связана с его специальностью (Курпатов предлагает обсудить то, как новые технологии влияют на психику и поведение), то в процессе автор заметно отвлекается от психологических тем в пользу конспирологических теорий.


Тем не менее, у Курпатова получилась интересная обзорная экскурсия по трендам, возможностям и угрозам будущего – для тех, кто только подступается к этой теме и не знает, с чего начать, это хороший стартовый вариант. Но тем, кто уже читал Курцвейла, Ноя Харари, Дэниела Деннета, Елиезера Юдковского и других современных мыслителей и футурологов, книга скорее всего, покажется вторичной и скучноватой. Тем не менее, важно, чтобы такие непростые темы популяризировались для читателей с разным уровнем подготовки.


Об авторе: Андрей Курпатов – врач-психотерапевт, президент Высшей школы методологии, автор более сотни научных работ. Широкой публике наиболее известен как популяризатор психотерапии: написал более 30 популярных книг, изданных на 7 языках общим тиражом в несколько миллионов экземпляров.


Довольно сложно выделить для обзора какую-то конкретную главу, потому что у Курпатова все сильно взаимосвязано. Так что я буду отталкиваться от ключевого тезиса и аргументов в его пользу, которые приводит автор: если новые технологии будут бесконтрольно развиваться в том же направлении, это может привести к кризису, а то и краху человечества, потому что мы будем использовать их как костыли и реже пользоваться своим интеллектом и свободной волей. А теперь давайте разбирать ключевые аргументы.


Аргумент 1. Искусственный интеллект развивается в геометрической прогрессии – в отличие от нас


Есть закон Мура (названный в честь основателя Intel Гордона Мура, который вывел его в ходе эмпирических наблюдений), по которому вычислительная мощность компьютеров удваивается каждые два года. Это означает, что в какой-то момент компьютеры разовьются так, что мы просто перестанем их понимать, как герой научно-фантастического рассказа Дэниела Киза «Цветы для Элджернона». Уже сейчас они делают большие успехи в тех областях мышления, которые мы раньше считали сугубо человеческими. Например, на Западе есть аналог передачи «Своя игра», и в с 2011 года любой англоязычный Вассерман проигрывает в ней суперкомпьютеру IBM Watson. Просто подключиться к гигантским базам данных – дело нехитрое, но Ватсон научился понимать сложно сформулированные вопросы, различая метафоры и подтекст. Как именно он это делает, не знает никто, включая его создателя Дэвида Ферруччи.


Когда-то Алан Тьюринг считал игру в го последним рубежом, отделяющим искусственный интеллект от нашего, человеческого – потому что хоть это и логическая игра, в ней велика роль интуиции. И этот рубеж был преодолен в 2016 году, когда компьютер AlphaGo, созданный компанией Google, победил чемпиона по игре в го Ли Седоля со счетом 5:1.


А в 2018 году нейронная сеть, разработанная китайской ИТ-корпорацией Alibaba, сдала тесты Стэнфордского университета лучше, чем средний абитуриент (82,44 балла в тестах на чтение и понимание информации – против среднего балла в 82,34 у homo sapiens).


Аргумент 2. Технологии знают нас лучше нас самих


Что самое интересное: самый передовой тип искусственного интеллекта – нейронные сети, которые сделаны по образу и подобию нейронных сетей нашего мозга, все лучше справляются с операциями, которые раньше давались только людям (например, распознавание образов или написание креативных текстов). Они обучаются на примерах – то есть, надо «скормить» сети большой массив данных (например, с лицами террористов и обычных людей) со специальными разметками (вот террорист, а вот обычный человек) и давать обратную связь на правильные решения и ошибки. Дальше нейросеть разберется сама, но проблема в том, что никто не знает, как именно она это сделает. Она совершенно не обязательно будет пользоваться человеческой логикой. При этом мы даем искусственному интеллекту столько информации о нашей логике (обучая его анализировать информацию из соцсетей, реплики в чат-ботах и т.д.), что в перспективе может оказаться так, что он будет прекрасно прогнозировать ход наших мыслей, а мы не сможем прогнозировать ход его мыслей.


Один из самых ярких примеров, показывающих, как далеко зашли технологии – разработка ученого Михаля Косински, работавшего в Центре психометрии английского Кембриджа с 2008 года. Косинки создал программу, которая могла многое понять про человека, сравнив его поведение в соцсетях с данными психометрии (тесты на добровольцах). Еще в 2012 году ей требовалось проанализировать всего 68 лайков пользователя в Facebook, чтобы: с 95 % вероятностью определить цвет кожи испытуемого; с 88 % вероятностью – его гомосексуальность; с 85 % – политические взгляды. Впоследствии наработки Косински использовались для предвыборной кампании Дональда Трампа – система делила аудиторию соцсетей на типажи, и дальше каждой группе людей подсовывался тот контент, который лучше всего на них действовал.


При этом все больше информации о себе мы поставляем неосознанно – даже не через лайки в соцсетях, а через датчики на пульсомерах, камеры и т.д. Причем компьютеры не обманешь фейками: в отличие от людей, они собирают информацию не о том, какими мы хотим казаться, а непосредственно о том, как мы совершаем выбор. Это означает, что вскоре они могут узнать нас уже лучше нас самих. С одной стороны, это удобно: программа сможет советовать вам, с кем идти на свидание или какой десерт вам больше понравится в ресторане. С другой стороны, тут возникает очень много возможностей для манипулирования. Не очень понятно, как будет выглядеть свободная воля к концу XXI века.


Аргумент 3. Самосознание – не такая уж и нужная штука


Поскольку мы склонны считать свой вид венцом творения, мы привыкли считать, что самосознание – это огромная ценность. Но все зависит от цели. С точки зрения эффективного решения задач, самосознание вовсе не обязательно самый удобный и полезный интерфейс (в конце концов, все мы очень много отвлекаемся на свои эмоции и внутренние диалоги). Просто для нас он пока единственно возможный. Хотя знаменитый фантаст Питер Уоттс в прекрасной книге «Ложная слепота» обрисовал коллективистскую инопланетную расу, которая разумна, но прекрасно обходится без самосознания (и экономит немало энергии на этом).


Но даже если допустить, что самосознание дает какие-то важные бонусы, нельзя уверенно утверждать, что оно не может появиться у компьютеров. Вряд ли оно заведется само собой, но создать его умышленно, по мнению Курпатова, вполне можно. Ведь, как мы помним, наше самосознание – это продукт электрических импульсов нашего мозга, которые возникают по определенной системе. Весь наш богатый психологический мир возник не красоты ради, а по функциональным причинам: воспоминания, мысли, эмоции и рефлексия способны влиять на наше поведение и помогать нам в решении поставленных задач (какими бы они ни были – добыть ма

...

конец ознакомительного фрагмента

Внимание! Это не конец книги.

Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!

Страницы книги >> 1
  • 0 Оценок: 0


Популярные книги за неделю


Рекомендации