Электронная библиотека » Андрей Курпатов » » онлайн чтение - страница 4


  • Текст добавлен: 31 января 2019, 11:40


Автор книги: Андрей Курпатов


Жанр: Прочая образовательная литература, Наука и Образование


Возрастные ограничения: +16

сообщить о неприемлемом содержимом

Текущая страница: 4 (всего у книги 19 страниц) [доступный отрывок для чтения: 5 страниц]

Шрифт:
- 100% +
Время не ждёт
 
Всё течёт, всё меняется.
И никто не был дважды в одной реке.
Ибо через миг и река была не та,
и сам он уже не тот.
 
ГЕРАКЛИТ

Если вы сравните мозг человека с мозгом человекообразной обезьяны, то по физическим параметрам отличия будут весьма незначительными. Но посмотрите на результаты трудов – чего добились обезьяны со своими мозгами, а чего мы… с мозгами почти такими же. Да, дело не просто в физическом носителе, но в программном обеспечении к нему.

Конечно, нужны определённые особенности мозга, чтобы, допустим, инсталлировать в них язык: у приматов нашего с вами вида эти особенности мозга есть, а у шимпанзе, например, нет. Что, впрочем, не мешает шимпанзе обучиться языку глухонемых и, по крайней мере, до трёхлетнего возраста обгонять по сообразительности обычного человеческого детёныша.

Так или иначе, нам с программным обеспечением повезло. Но повезло по сравнению с другими приматами. А каким будет программное обеспечение у искусственного интеллекта, который достигнет нашего уровня?

Как известно, мы, несмотря на массу ограничений своего мозга и коммуникативной несостоятельности, можем создавать программы и самопрограммироваться.

Теперь представим себе, что будет происходить с искусственным интеллектом человеческого уровня, если он, имея все те преимущества, о которых здесь уже сказано, приступит к последовательному самопрограммированию.

Перед нами как раз тот случай, когда понимать экспоненциальность закона ускоряющейся отдачи Рэя Курцвейла крайне важно.

Исторический путь от первого примата до человека разумного занял миллионы лет, точнее, 70 миллионов.

• От первого человека разумного до человека говорящего – 150 тысяч лет.

• От человека говорящего до пишущего и читающего – 30 тысяч лет.

• От него до человека программирующего – немногим более двух тысяч лет.

• От человека программирующего до специального (слабого) искусственного интеллекта – несколько десятилетий.

Теперь вопрос: сколько лет отделяет нас от общего (сильного) искусственного интеллекта?

А сколько часов (или минут) будет отделять общий искусственный интеллект от сверхинтеллекта?..

«Успешный зародыш искусственного интеллекта должен быть способен к постоянному саморазвитию: первая версия создаёт улучшенную версию самой себя, которая намного умнее оригинальной; улучшенная версия, в свою очередь», трудится над ещё более улучшенной версией и так далее.

При некоторых условиях процесс рекурсивного самосовершенствования может продолжаться довольно долго и в конце концов привести к взрывному развитию искусственного интеллекта».

НИК ВОСТРОМ, Оксфордский университет

Ирония состоит в том, что мы даже не заметим, как это случится: у нас будет состоять в услужении дружественный, очень эффективный, но слабый, то есть узкоспециализированный искусственный интеллект, а потом вдруг раз – и нами управляет Нечто.

Причём уровень интеллекта этого Нечто мы даже не можем себе представить. В нашем представлении умный человек – это тот, кто набирает каких-нибудь 120 баллов по IQ-тесту, а дурак – тот, у кого меньше 80. Но как вообразить себе существо, у которого IQ превышает, если бы тест это позволял, десять тысяч или двадцать тысяч баллов?

Конечно, мы очень гордимся своими изобретениями – формулу открыли E = mc2, ракету в космос отправили, ДНК расшифровали, Bluetooth настроили, плохонькие 3D-принтеры произвели… А теперь попробуйте всё это как-то умножить на тысячи раз – и представьте, что это будет.

Фокус в том, что представить это невозможно, поскольку это и есть «технологическая сингулярность». Все известные нам законы, на которые мы опираемся, перестают действовать, ничто более не находится под нашим контролем.

Это совершенно новая реальность, в которой, возможно, нам просто нет места. Если, конечно, в отношении кого-то из нас будущий Властелин и Цифровой Бог не проявит милосердие…

Не появилось у вас желания примкнуть к «Пути будущего»?

«Я пришёл к выводу, что мы уже поддерживаем эволюцию мощного искусственного интеллекта, а он, в свою очередь, повлияет на развитие привычных нам могущественных сил: бизнеса, индустрии развлечений, медицины, государственной безопасности, производства оружия, власти на всех уровнях, преступности, транспорта, горнодобывающей промышленности, производства, торговли, секса – да чего угодно!

Я думаю, что результаты нам не понравятся. […] Я не знаю, окажется ли кто-нибудь достаточно умным и одарённым для того, чтобы сохранить власть над этим джинном, потому что контролировать, возможно, придётся не только машины, но и людей, дорвавшихся до новых технологий и имеющих злые намерения».

ДЖОН МАЗЕР, Центр космических полётов им. Годдарда

«ВАШИ ВОЗРАЖЕНИЯ, ГОСПОДА!»

Дискуссии о возможности или невозможности сингулярного сценария не утихают – об этом пишут не только в научных журналах, но и в популярных СМИ, в личных блогах. Скоро, мне кажется, и на заборах начнут писать. Ну и правильно – надо же разобраться, в конце-то концов!

Род Брукс, например, этот величайший из великих создателей искусственного интеллекта, любит шутить, общаясь со своим старым другом и коллегой по Массачусетскому технологическому институту Курцвейлом: «Рэй, мы оба умрём!» И добавляет, что было бы неплохо, если бы его – бруксовский – антропоморфный робот Baxter оказался достаточно совершенным, чтобы обеспечить обоим старикам достойный уход.

Впрочем, кто-то настроен и по-другому, предлагая при этом весьма внятные и интересные аргументы. В частности, профессор того же самого Массачусетского технологического института, директор по научным исследованиям Института основополагающих вопросов Макс Тегмарку разбивает позиции скептиков следующим образом…

Прежде всего он предлагает унять разнузданное паникёрство. В значительной части оно вызвано желанием журналистов сделать свои материалы про искусственный интеллект пострашнее и позабористее. «Страх увеличивает доходы от рекламы и рейтинг Нильсена[9]9
  Рейтинг Нильсена определяет популярность той или иной телевизионной программы.


[Закрыть]
», – говорит Тегмарк.

На возражение, что столь впечатляющее развитие событий в принципе невозможно, он отвечает: «Будучи физиком, я знаю, что мой мозг состоит из кварков и электронов, организованных и действующих подобно мощному компьютеру, и что нет такого закона физики, который препятствовал бы тому, чтобы мы построили ещё более разумные сгустки кварков».

Многие считают, что даже если такое развитие событий возможно, то «это произойдёт не при нашей жизни». Тегмарк признаёт, что мы не можем сказать с уверенностью, каковы шансы, что машины достигнут человеческого уровня во всех когнитивных задачах при нашей жизни.

Но добавляет: «Однако большинство исследователей, работающих в области искусственного интеллекта, на прошедшей недавно конференции высказывались в пользу того, что вероятность этого выше 50 процентов, – таким образом, было бы глупо с нашей стороны отбрасывать такую возможность, считая её просто научной фантастикой».

На наивную убеждённость, что «машины не могут контролировать людей», Тегмарк вполне резонно замечает: «Мы способны управлять тиграми не потому, что мы сильнее, а потому, что умнее, так что если мы сдадим позиции самых умных на планете, то рискуем утратить свободу».

Многие критики технологической сигнулярности утверждают, что она невозможна, потому что машины – это просто машины, и у них нет целей. Но правда состоит в том, и Тегмарк это особо подчёркивает, что большинство систем искусственного интеллекта запрограммированы именно таким образом, чтобы иметь цели, и не только иметь, но и максимально эффективно их достигать.

Есть среди нас и добрые души, которые считают, что поскольку искусственный интеллект – это просто программа, то он не может демонстрировать злонамеренности в отношении человека. Тегмарк не возражает. Но проблема в другом – цели искусственного интеллекта могут в какой-то момент столкнуться с нашими. «Люди обычно не питают ненависти к муравьям, – говорит он, – но если б мы захотели построить плотину ГЭС, а на её месте оказался бы муравейник, то муравьи столкнулись бы с проблемами».

Ну и завершу этот обзор шуткой… Мне и самому часто приходилось сталкиваться с такого рода критикой – мол, те, кто беспокоится по поводу искусственного интеллекта, не понимают, как работают компьютеры. На что Макс Тегмарк саркастично замечает следующее: «Это утверждение прозвучало на вышеупомянутой конференции, и собравшиеся там специалисты по искусственному интеллекту сильно смеялись».

И напоследок – самое трогательное.

В книге Джеймса Баррата «Последнее изобретение человечества», которая вышла в 2013 году, приводятся данные опроса сотен экспертов по искусственному интеллекту. Лишь 25 % из них согласились с датой наступления «технологической сингулярности», названной Курцвейлом, – 2045 год.

В 2015 году Ник Востром, автор книги «Искусственный интеллект», провёл аналогичный опрос. На сей раз – через два года! – с датой Курцвейла согласились уже 50 % респондентов. Закон ускоряющейся отдачи, однако!

Глава вторая
Интеллект как он есть

Мыслю – следовательно, существую.

РЕНЕ ДЕКАРТ

Должен вам сказать, что я не без интереса наблюдаю за тем, как все последние годы люди реагируют на понятие «искусственного интеллекта».

Не скажу, конечно, за всех, но основная масса народонаселения ещё не так давно отождествляла искусственный интеллект с образом Арнольда Шварценеггера из «Терминатора». То есть думали, что это, вообще говоря, сказка какая-то. Мало ли что там этим фантастам в голову взбредёт!

Кто-то, впрочем, на полном серьёзе рассуждал о будущем искусственного интеллекта, опираясь, надо полагать, на сюжет фильма «Я – робот» с Уиллом Смитом в главной роли. Персонаж Уилла вступает в неравный бой с Виртуальным Интерактивным Кинетическим Интеллектом – такой бездушной дамой по имени ВИКИ, и, конечно же, побеждает её.

Что, в общем-то, и не удивительно – где этот никчёмный искусственный интеллектишка, а где наш – великий и могучий, – да ещё с очарованием голливудской суперзвезды Уилла Смита! Вообще, не сравнить! Она – ВИКИ – дура. У неё это по лицу на виртуальном экране видно! А наш-то – герой-молодец! Всех победим! Наших искусственными мозгами не запугаешь!

Короче говоря, основное возражение против возможности появления «искусственного интеллекта» (вызывающее не то недоумение, не то сочувствие) сводилось к следующему: у машин никогда не будет души, а значит, они никогда не станут «как люди», тогда как люди – вершина эволюции, и другой такой не бывать.

Если кто-то из моих читателей и до сих пор так думает, я буду вынужден заметить: никто в мире технологий «душу» производить и не собирается. И наверное, «искусственная душа» – был бы так себе программный продукт. Но интеллект – это совсем другое дело. Если вы, конечно, понимаете, о чём идёт речь… Собственно, это мы сейчас и обсудим.

Не в нашу пользу

После запуска машинного метода не должно пройти много времени до того момента, когда машины превзойдут наши ничтожные возможности.

АЛАН ТЬЮРИНГ

Рэй Курцвейл со товарищи обещают нам скорую «технологическую сингулярность». Насколько всё это вообще реалистично? Давайте попробуем порассуждать…

Для начала просто сопоставим некоторые физические параметры. Нейроны нашего мозга работают с частотой 200 Гц, но даже современные микропроцессоры работают с частотой 2 ГГц, а, проще говоря, – в десять миллионов раз быстрее.

При этом общение между нейронами происходит, так сказать, ещё дедовским способом – импульс передвигается со скоростью 120 м/с. А теперь сравните это с 300 000 000 м/с – скоростью света… Да, оптоволокно слегка её притормаживает. Впрочем, исследователи из Саутгемптонского университета в Англии ещё в 2013 году нашли способ эти ограничения обойти.

Ещё более удручающим, потому что не в пользу наших мозгов, будет сравнение «объёмов» памяти и способности к её хранению. Понятно, что наш мозг ограничен не только размерами черепной коробки, но и количеством нейронов коры головного мозга – их непосредственно в самой коре около 18 миллиардов штук.

На этом, впрочем, наши беды не оканчиваются: как мы теперь знаем благодаря исследованиям Элизабет Лофтус, наш мозг не хранит целостных воспоминаний. То есть всякое наше с вами воспоминание воссоздаётся заново, когда это требуется, а потому всё, что мы «помним», мы всегда «помним» по-разному.

Компьютеры, как вы понимаете, не имеют никаких существенных ограничений по объёму долговременной памяти, и если уж они какие-то факты зафиксировали, то в таком виде их и хранят.

Мне не надо бояться, что, сохранив сегодня этот текст на компьютере, завтра я открою какой-то другой, потому что у моего ноута, видите ли, творческое настроение или, например, «критические дни». А вот с мозгами – другая ситуация: вчера, казалось, я понимал, что надо написать сегодня, но сейчас смотрю на экран и испытываю недоумение…

Плюс к этому, компьютер, в отличие от наших с вами мозгов, не устаёт, не нервничает, не страдает психическими расстройствами, не нуждается в восьмичасовом сне, не подвержен алкогольной или какой-либо иной интоксикации. В крайнем случае он перезагрузится – и вновь как новенький!

И я почти уверен, что стоящий передо мной компьютер не подвержен болезням Альцгеймера или Паркинсона. Мой же мозг точно выкинет что-то подобное, если я, конечно, до соответствующего возраста доживу, а Курцвейл нам про свои спасающие от деменции медицинские нанороботы бессовестно наврал.

Любое «железо», безусловно, устаревает, включая компьютерное. Но информация, которая содержится на компьютерных серверах, сохранится на новом «железе» в неизменном виде. Про «железо» наших мозгов, по крайней мере пока, этого сказать нельзя.

Дело в том, что наше «железо» (нейронные сети) – это по сути и есть та информация, которой мы обладаем. Поэтому, если проблемы возникают у нашего «железа», то уже есть и проблема с информацией.

Ожидать подобного безобразия в мире компьютеров не приходится, в их случае «железо» и «программный продукт» – это разные вещи. Само это железо может стать совершенно иным, работающим на других физических принципах, но с программным продуктом ничего не произойдёт – такова его природа.

«Мозг абсолютно не похож на компьютеры, которые могут поддерживать любые операционные системы и запускать любые типы программ. Если говорить в компьютерных терминах, “софтнашего мозга – то, как мозг работает, – плотно связан с его структурой – его “железом ”. Если мы хотим понять, на что способен этот “софт”, мы должны понять, как устроены и связаны друг с другом разные части мозга».

ДЭВИД ВАН ЭССЕН, Вашингтонский университет в Сент-Луисе

Более того, если разные программные продукты говорят на одном языке, то вообще проблем нет, а если они говорят на разных, то сделают «переходник-переводчик» или придумают новый, общий для них язык, и снова – никаких проблем. В конце концов, это всегда и только язык бинарного кода.

Иными словами, вся информация, доступная разным «центрам» огромной компьютерной сети, транспарентна. То есть они не только могут ею обмениваться без искажений, но и «понимают» её ровно так, как следует, – не передергивая, не выкручивая, не подтасовывая.

Нам же – людям – ничего подобного даже не снилось! Благодаря нашим хвалёным «квалиа» мы вообще ничего не способны понять одинаково[10]10
  Квалиа (от лат. qualia – свойства, качества) – это один из любимейших терминов «философов сознания», который обозначает то, как вещи выглядят для нас – в нашем индивидуальном субъективном опыте. Термин был введён в обиход ещё сто лет назад философом К. И. Льюисом, но пережил новое рождение благодаря знаменитой статье Т. Нагеля «Что значит быть летучей мышью?». Сам термин в статье не упоминается, но зато осознание невозможности представить себе субъективный опыт видения мира летучей мышью, действительно, позволяет это «квалиа» прочувствовать.


[Закрыть]
. Даже просто воспринимая один и тот же предмет, мы видим его по-разному. Так что искажения в нашем «информационном поле» повсеместны и абсолютно неизбежны, а машинам – хоть бы хны.

КТО НАСТОЯЩЕЕ «СОЦИАЛЬНОЕ ЖИВОТНОЕ»?

Кому-то покажется, что в этот заголовок вынесен вопрос частного характера, но не будем спешить с выводами…

Да, с лёгкой руки Аристотеля мы именуем себя «социальными животными» и любим рассуждать в этих загадочных категориях – народ, научная элита, профессиональное сообщество и т. д.

Но давайте снимем розовые очки самолюбования и посмотрим правде в глаза: мы просто кладезь предельно ущербных коммуникативных навыков.

При этом, всего, что мы способны сделать, произвести ценного или хотя бы просто сносного, мы достигаем лишь благодаря взаимодействию с другими людьми, перенимая от них знания, опыт, обнаруживая свои ошибки в дискуссиях с ними и т. д.

Многого бы вы достигли, не будь вокруг вас ваших родителей, воспитателей, учителей, коллег и наставников? Думаю, нет. Исаак Ньютон – и тот «стоял на плечах гигантов», что уж говорить о нас, грешных…

То есть взаимодействие с другими людьми необходимо нам для нашей интеллектуальной деятельности. Однако же не мне вам рассказывать, насколько сложно нам даётся это взаимодействие, – постоянное непонимание, напряжение, упрямство, самодовольство и наслаивающиеся друг на друга когнитивные искажения.

Если вы трезво оцените любой спор – хоть кухонный, хоть философский, хоть сугубо академический, – то обнаружите, что действительным предметом спора в подавляющем большинстве случаев является вовсе не истина (как, видимо, предполагается), а правота: каждый оппонент хочет от другого лишь преклонённого колена и согласия с его точкой зрения.

Наши социальные взаимодействия, а точнее говоря – социальные игры, – это настоящий бич любой хоть сколько-нибудь здравой интеллектуальной инициативы: будь это политика, экономика, управление, культура или, к сожалению, даже наука (я уж молчу о различных видах творчества и тому подобных «субъективных» вещах).

Казалось бы, там, где дело касается точных наук или, например, программирования, такого точно не должно происходить. Но человек везде и всегда найдёт повод увязнуть в социальных играх.

Чего стоит знаменитый спор того же Ньютона с Лейбницем по поводу приоритета их исчислений, или противостояние Эйнштейна Бору по поводу копенгагенской интерпретации, или Бора – Гейзенбергу в отношении к матричной механике? Умнейшие люди, а по факту – сплошные страсти-мордасти[11]11
  0 том, как это бывает, неплохо, кстати сказать, показано в историко-драматическом сериале «Manhattan» Сэма Шоу, посвящённом истории создания атомной бомбы в рамках Манхэттенского проекта в Лос-Аламосе. Сериал продержался три сезона на канале WGN America.


[Закрыть]
.

Впрочем, не в меньшей степени завораживают продюсеров и сценаристов социальные игры (и я бы даже сказал, драмы), разворачивающиеся между представителями новых индустрий. В качестве наглядной иллюстрации можно посмотреть американский сериал «Замри и гори»[12]12
  Сериал «Halt and Catch Fire» создан Крисом Кантвеллом и Крисом Роджерсом для канала АМС и повествует обо всех ключевых этапах становления современных компьютерных технологий.


[Закрыть]
, или, если хочется чего-нибудь повеселее, то уже упомянутую мной «Силиконовую долину». Конечно, в главных ролях технари и бизнесмены от новых технологий – люди «объективного мира», так сказать… Но Homo sapiens’y это никогда не помогало.

А теперь давайте задумаемся, как бы дико это ни звучало, о социальности искусственного интеллекта. Понятно, что искусственный интеллект (ИИ) – это просто такой «класс», у этого «класса» множество «подвидов», а у каждого подвида есть свои «индивиды».

Например, вы даёте какому-то ИИ-индивиду задачу общаться с другими ИИ-индивидом, и в рамках этого общения они должны будут поделить между собой две книги, одну шляпу и три мяча. Эти ИИ-индивиды (в данном случае – боты), конечно, ничего не знают о ценности того, что они делят, но мы будем подкреплять баллами их поведение, если им будет удаваться быстро и успешно договариваться.

Именно эту задачу и поставили ботам в 2018 году специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR). И сначала всё шло прекрасно.

ИИ-Боб, например, предлагал ИИ-Алисе: «You get one book and ГМ take every thing else». Алиса предусмотрительно отвечала: «No way, I need all 3 hats». «ГП give you 2», – говорил Боб в ответ, и ребята договаривались.

Flo в какой-то момент этот задушевный диалог стал странным образом видоизменяться и наконец превратился в нечто совершенно невообразимое.

Вот фрагмент стенограммы этого разговора двух искусственных интеллектов, «сошедших с ума»:

Bob: i can i i everything else…………..

Alice: balls have zero to me to me to me to me to me to me to me to me to

Bob: you i everything else…………..

Alice: balls have a ball to me to me to me to me to me to me to me

Bob: i i can i i i everything else…………..

Alice: balls have a ball to me to me to me to me to me to me to me

С каждой следующей строкой текст всё более и более усложнялся, а масштабы коммуникации между Бобом и Алисой росли буквально в геометрической прогрессии.

Испуганные сотрудники отдела исследований суперспособностей, – ой, простите, – способностей искусственного интеллекта просто вырубили машину от греха подальше.

Последующий анализ показал, что ИИ-индивидуумы, участвующие в этих своеобразных виртуальных торгах, перешли на более удобный для них язык. На кону стояли баллы, которые они могли заработать, а английский язык, как оказалось, не так уж хорош. И боты на ходу придумали свой, категорически непонятный их собственным разработчикам язык.

Лингвисты Пенсильванского университета показали, что новый язык, изобретённый ботами в этих торгах, вовсе не бессмысленен: там, где, как нам кажется, идёт повтор фразы, на самом деле меняется порядок слов, и собеседник в своих ответах каждый раз реагирует на эти изменения, что свидетельствует о том, что для него они несут разный смысл.

Проще говоря, два предельно примитивных бота, обменивающиеся, по сути, ничем за ничто, могут воспользоваться друг другом, чтобы этот процесс шёл лучше!

Перед нами, иными словами, самая настоящая социальная коммуникация, которая, надо сказать, выглядит куда более осмысленной и продуктивной, чем обычная – наша с вами.

Мы недооцениваем способность искусственных интеллектов к кооперации и, напротив, слишком переоцениваем свою – человеческую – социальность, нашу способность объединять усилия, действовать по-настоящему совместно и скоординированно.

Наши амбиции, продиктованные животной природой человека, его иерархический инстинкт и извечные притязания на власть, когнитивное искажение «владения»[13]13
  Об этом эффекте и его социальных последствиях я уже рассказывал в книге «Красная таблетка. Посмотри правде в глаза!». Как показали нобелевские лауреаты Ричард Талер и Даниэл Канеман, из-за определённых эволюционных настроек мы склонны переоценивать себя, ценность своего имущества и вклад в общую деятельность в два раза, а то и больше по сравнению с условным «номиналом». Данное когнитивное искажение приводит к постоянным конфликтам между людьми, осуществляющими какую-либо совместную деятельность.


[Закрыть]
и прочий инстинктивно-когнитивный сор зачастую превращают нашу социальность в проблему, а вовсе не в ресурс.

Впрочем, и это ещё не всё.

Согласно знаменитым теперь уже исследованиям оксфордского профессора Робина Данбара, мозг человека эволюционно приспособлен к достаточно тесному, конструктивному и более-менее регулярному взаимодействию лишь со 150 другими особями («число Данбара»).

И даже эти отношения неравномерны – с большинством наших визави мы взаимодействуем лишь шапочно: плотность этих отношений (например, совместное времяпрепровождение) убывает фазово – пять человек, пятнадцать, пятьдесят и потом сразу сто пятьдесят (так называемые «слои Данбара»).

По-настоящему интенсивный, глубокий и содержательный контакт мы способны поддерживать лишь с пятью людьми, которые выступают перед нами как фигуры на фоне остальной социальной массы – образов других людей, создаваемых нашим мозгом. И да, этот фон составляют всего лишь оставшиеся 145 субъектов.

Антропологи, в свою очередь, указывают, что для наших сообществ на ранних этапах развития человечества долгое время существовала непреодолимая черта в 200 человек.

Как только какое-то племя (сообщество) достигало этого рокового порога численности, оно неизбежно делилось как минимум на две группы, и между ними, прежними соплеменниками, тут же начинались боевые действия. То есть существует ещё и некое групповое ограничение, влияющее на нашу социальность.

Теперь, если коротко подытожить: мы ограничены не только своей физиологией, не только своей индивидуальной социальностью, но и социальностью групповой.

Это, безусловно, серьёзнейшая проблема с точки зрения переработки информации, создания смыслов, формирования новых, более сложных интеллектуальных объектов.

Возможно, искусственные интеллекты усвоят какие-то наши пороки.

Вот, например, тренер Watson’a Эрик Браун однажды «скормил» своему подопечному словарь городского жаргона. Тот тут же накинулся на новую базу данных и естественным образом связал узнанные им матерные слова с медицинской терминологией. В результате он стал выдавать такое, что несчастные исследователи чуть не надорвали животы. Впоследствии всё это безобразие пришлось вычищать вручную, потому что сам Watson отказался отдавать полюбившиеся ему «термины» так же просто, как получил их.

В «аморальности», впрочем, замечены не только машины IBM, но и Microsoft. Её специалисты, совместно с сотрудниками Кембриджского университета, создали систему Deep Coder, цель которой понятна из названия. Как говорит один из её создателей Марк Брокшмидт, «люди, не умеющие программировать, теперь могут просто описать свои идеи, а программа их закодит».

Выглядит очень логично и как следующий шаг к технологической сингулярности. Ирония в том, что Deep Coder стал вести себя очень по-человечески: не обнаружив нужных ему участков кода в своей базе данных, он, вместо того чтобы проделать необходимую работу кодера самостоятельно, стал «подворовывать» необходимые ему фрагменты кода у других программ.

Это уже социальность высшего порядка – Deep Coder ловко встал на плечи «гигантов» и, кажется, не хочет останавливаться на достигнутом. Да, у машин, очевидно, не будет свойственных нам ограничений, влияющих на эффективность коммуникации, а такая транспарентность вполне может дать взрывной результат.

Наконец, вспомним про «трансгуманистические технологии»… Не так-то просто заставить наш мозг видеть вне видимого спектра, слышать то, к чему наш слух эволюционно не предназначен, и так далее. Но у компьютера, разумеется, подобных проблем нет и быть не может. Он способен даже видеть нас изнутри с помощью нехитрых, по его меркам, приставок типа магнитно-резонансной томографии.

В общем, по техническим параметрам нам лучше даже не пытаться с ним соревноваться. Если искусственный интеллект по уровню своего развития дотянет хотя бы до нашего – честно признаемся, не слишком высокого, – то он уже будет несравнимо умнее нас.

Поэтому, если пользоваться принятыми на вооружение классификациями, даже общий искусственный интеллект (ОИИ) – это существо уже значительно более мощное, чем мы с вами. Что уж тогда говорить о сверхмощном искусственном интеллекте, который нам вроде как тоже обещают?

Надеюсь, что я ещё не очень замучил вас рассказами о том, какие мы все с вами идиоты по сравнению с «тупыми» машинами… Понимаю, что даже думать об этом – дело весьма утомительное. Но надо набраться сил, поскольку дальше нам предстоит, возможно, самое интересное.

Ладно там физические параметры нашего «железа», слабые сенсоры и убогая социальность и т. д. Есть ведь ещё и собственно устройство нашего мозга, то, как он думает. Этот вопрос мы до сих пор весьма деликатно обходили стороной…


Страницы книги >> Предыдущая | 1 2 3 4 5 | Следующая
  • 4.6 Оценок: 5

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации