Текст книги "Со всеми и ни с кем: книга о нас – последнем поколении, которое помнит жизнь до интернета"
Автор книги: Майкл Харрис
Жанр: Зарубежная публицистика, Публицистика
Возрастные ограничения: +12
сообщить о неприемлемом содержимом
Текущая страница: 4 (всего у книги 13 страниц) [доступный отрывок для чтения: 4 страниц]
Глава 3
Исповедь
Самая возвышенная и наиболее прекрасная вещь в жизни – это не быть у всех на слуху, не попасть в книги, не быть центром всеобщего внимания, короче, если угодно, это возможность жить.
Серен Кьеркегор
В 2012 году третье место по числу запросов ее имени в Google заняла пятнадцатилетняя девочка из Порт-Кокитлама (заштатного канадского города, замечательного разве что магазинами складского типа, парковками и подростками, которым абсолютно нечего делать). Ее имя – Аманда Тодд. С самого детства она была очень активной – ей, как, наверное, всем маленьким и хрупким девочкам, хотелось попасть на вершину славы. Она очень любила петь. Она пела на камеру, а потом отправляла видео на YouTube под ником SomeoneToKnow. Такая деятельность типична для современных подростков. Но неожиданная известность обрушилась на эту ничем не примечательную жизнь после того, как в среду 10 октября Аманда Тодд свела счеты с жизнью. В течение нескольких дней в СМИ появились ужасающие подробности самой жестокой сетевой травли за всю историю интернета.
Я не стану описывать долгие годы этой травли, которая в конце концов довела девушку до самоубийства (эта история есть в интернете в сопровождении циничных и злобных комментариев). Достаточно сказать, что, когда девочка училась в седьмом классе, неизвестный мужчина убедил ее сфотографироваться на веб-камеру топлесс. После этого он принялся шантажировать ее. Шантаж продолжался несколько лет. («Устрой для меня стрип-шоу», – настаивал шантажист). У Тодд появился профиль в Facebook, где в качестве аватара фигурировала ее обнаженная грудь. В течение года девочке пришлось поменять три школы, чтобы избавиться от издевательств одноклассников. В конце концов ее избила группа девочек, эту акцию сняли на телефон и выложили в интернет. Аманда чувствовала себя настолько затравленной, что боялась выходить из дома. Она попыталась покончить с собой, выпив отбеливатель, но осталась жива. Это привело лишь к усилению травли.
За месяц до своей смерти Тодд отправила на YouTube видео со своей трагической историей. На этот раз она не пела, а рассказала зрителям о своих страданиях (у девочки были нарушения речи). Естественно, это вызвало новую волну циничных отзывов со стороны сетевых «комментаторов». Вступая в жужжащие ульи интернет-форумов, мы рискуем оказаться объектом невероятной жестокости. Пока Аманда была жива, град насмешек заставлял ее исповедоваться еще больше. Она обращалась к той самой аудитории через то самое технологическое средство, которое усугубляло ее несчастье. После смерти Аманда превратилась в мем и хештег, став персонажем анекдотов о самоубийстве, а на ее памятной странице постоянно появлялись сетевые вандалы. Ее начали порочить еще сильнее, чем при жизни.
Больше, чем история о сетевой жестокости, меня поражает средство, которым, как бальзамом от нанесенных ей ран, пользовалась Аманда. В последнем творческом порыве она стала рассылать видео в своих постах. Вопреки рассудку, а возможно, подчиняясь логике почти наркотической зависимости, она обратилась к средству, послужившему источником ее страданий, – сетевому вещанию в интернете. Когда я впервые прочел об этой несчастной девочке, я удивился, насколько легко мы доверяем нашу эмоциональную жизнь новым технологиям. Меня поразило, что мы перестали облегчать наши страдания и боль традиционными способами (через дневники, друзей, психологов). Мы хватаемся за социальные сети, которые якобы сулят нам утешение.
Через две недели после самоубийства Аманды ее мать Кэрол Тодд, сидя на черном диване, давала интервью. «Речь идет не о ребенке, который… просто сидел в своей комнате за компьютером, – говорила она тихим, надломленным голосом, не глядя в камеру и стараясь описать душевное состояние дочери в дни, предшествовавшие самоубийству. – Она понимала, что совершила ошибку, но не смогла ее стереть… Она старалась забыть, избавиться от нее. Она пыталась менять школы, но везде, куда бы она ни приходила, эта ошибка продолжала ее преследовать». Эти кадры было очень тяжело смотреть. Кэрол была раздражена вниманием прессы. В конце интервью, кусая губы, она отвечает тем, кто обвинял ее, называя «плохой матерью»: «Аманда воспитывалась в хорошей семье». После этого она попросила выключить камеру.
Когда несколько месяцев спустя я пытался поговорить с Кэрол Тодд, она либо отказывалась, либо в последний момент отменяла встречу. Так повторилось несколько раз. В конце концов я прекратил попытки, но Кэрол, видимо, передумала, позвонила и назначила встречу. Я поехал в Порт-Кокитлам, мы встретились в ее любимом ресторане «Эрл». Молоденькие девушки, ровесницы Аманды, принесли нам сэндвичи и кофе.
В массивных очках, в черной куртке с капюшоном, Кэрол Тодд производила впечатление уравновешенного, но решительного человека. Поначалу она держалась настороженно, так как репортеры, осаждавшие ее после смерти дочери, доставили ей много горя. Кроме того, в результате этой истории она и сама стала объектом сетевой травли. Некоторые чересчур активные личности продолжают слать ей сообщения со всего мира, обвиняя ее и ее дочь. Эти люди беспощадны. В нескольких электронных письмах Кэрол делилась со мной своей тревогой из-за «ненавистников», которые не оставляют ее в покое.
Так же как ее дочь, Кэрол отвечает на оскорбления не уходом в себя, а, наоборот, ростом активностью в сети. Она завела блог, где призывает к административной и школьной реформе. Она учредила фонд для поддержки этих реформ, рассказывает политикам и директорам переполненных гимназий о своем опыте. Она даже наладила производство одежды и браслетов, на которых напечатано имя ее дочери. Кэрол пополняет свой фонд за счет продажи этих вещей. Когда YouTube через несколько дней после смерти Аманды убрал ее видеоролик, Кэрол попросила вернуть его, потому что это стоит смотреть многим.
Она сказала мне, что в мире что-то сдвинулось с мертвой точки после гибели ее дочери. «Аманда сама поставила себя в тяжелое положение. Я хочу сказать, что она не была ангелом, и я первая признаю это. Но она сделала то, что сделала, и мне кажется, что это пробудило людей от спячки». Среди СМИ, распространивших по миру историю Аманды, можно назвать New Yorker, Anderson Cooper 360° и Dateline. В тридцати восьми странах прошли ночные акции в память Аманды.
– Аманда – не первая, с кем такое случилось, – сказал я. – Почему именно ее история стала толчком, движущей силой?
– Очевидно, все дело в видео, только в нем. Если бы она не сняла тот ролик, то вы не сидели бы сейчас здесь.
Конечно, она права. Мы все давно стали участниками массового вещания, на которое провоцирует нас сетевая жизнь. Но иногда какой-нибудь человек – обычно такой цифровой абориген, как Аманда, – вдруг пробуждает нас, превратив столь банальную вещь, как YouTube, в трибуну обжигающей исповеди.
Каждый человек явно или тайно любит исповеди. Вечером, в день смерти Аманды, ее мать смотрела видео и заметила, что за день набралось 2800 просмотров. На следующее утро их было уже десять тысяч. Через две недели – семнадцать миллионов.
Видео было загружено в YouTube 7 сентября 2012 года. Кадры черно-белые. Аманда Тодд стоит перед камерой, она видна до пояса. Молча она поднимает и показывает зрителям плакаты с надписями, повествующими обо всех ее мучениях за последние годы. Я до сих пор помню свои мучения и страхи, которыми я никогда и ни с кем не делился. Поэтому мне было неловко наблюдать за признаниями девочки в YouTube. Звуковым фоном видео служила песня ансамбля Jimmy Eat World под названием Hear You Me. Тодд, неподвижно стоя перед камерой, один за другим поднимает плакаты. Надписи на них просты и трогательны, может быть, чересчур сентиментальны, на взгляд взрослого человека. Это был отчаянный крик о помощи, на который YouTube отреагировал бесполезными похвалами и холодным презрением. А девочки, бившие Аманду, через несколько часов после того, как Тодд загрузила свой ролик, выложили в сеть видео с ее избиением.
* * *
При всей трагичности судьбы Аманды Тодд мы должны отметить: эта непоправимая реакция на сетевую травлю и оскорбления не является аномалией. Недавно проведенное в Университете штата Мичиган исследование доказало, что, например, сингапурские дети, которых травили в сети, столь же часто задумывались о самоубийстве, как и те, кого травили в реальной жизни. Ученые выяснили: сетевая травля чаще доводит подростков до самоубийства. 22 процента подростков, подвергавшихся издевкам в реальной жизни, говорили, что у них возникали мысли о суициде. Доля потенциальных самоубийц среди тех, кто подвергался травле в сети, достигала 28 процентов.
В этом Аманда Тодд едва ли была одинока. Истории о бессердечном сетевом мире множатся ежедневно. Недавно я прочел о двадцатилетнем студенте из Университета Гвельфа, который решил транслировать в сети свое самосожжение, воспользовавшись скандально известной доской электронных объявлений 4chan. (Парню не дали сгореть до конца, его вытащили из комнаты общежития и доставили в госпиталь.) Вот его обращение к зрителям: «Думаю, что мне наконец удастся вернуть долги сообществу, рассчитаться с ним наилучшим образом: для всех вас я покончу с собой перед камерой». Другой пользователь 4chan поделился с ним своей «комнатой для сетевых бесед». Двести человек (комната не вмещает больше) смотрели, как самоубийца принял снотворные таблетки, запил их водкой, поджег комнату и залез под одеяло. Когда огонь добрался до кровати, парень написал из-под одеяла зрителям: #omgimonfire («О боже, я горю!»). Некоторые зрители принялись поучать его, уговаривая выбрать более поэтичный способ самоубийства. Конечно, это экстремальные, исключительные случаи, но думаю, что они обращены к какому-то чувству, общему для всех нас. В большинстве своем мы не хотим отдавать свои жизни анонимному интернету, но присутствует какое-то маниакальное желание саморекламы в сети, которой мы уже привыкли восхищаться.
В какой-то степени все мы проживаем эмоциональную жизнь при помощи технологий. Мы срослись с нашими гаджетами именно потому, что наш мозг одержим страстью к общению, ежеминутным контактам, а новые технологии предлагают великолепные инструменты для удовлетворения этих устремлений. Многие мои друзья спят в обнимку со своими телефонами и смотрят почту, прежде чем встать с постели. Создается впечатление, что телефон – это возлюбленная, требующая своего утреннего поцелуя. Сообщения и твиты могут быть неприятными, страшными или скучными, но сам аппарат безупречен и воспринимается как надежный и верный товарищ. Узы, связывающие нас с нашими «дружественными к пользователю» машинами, настолько прочны, что мы доверяем то, чего не доверили бы ни одному человеку.
Тем не менее каждый раз, когда мы используем технологию, чтобы избавиться от элементов хаоса в нашей жизни, и пытаемся справиться с неприятностями, демонстрируя себя в видеороликах и записях на Facebook, мы непроизвольно меняем отношение к той части нашей жизни, которую стараемся взять под контроль. Мы всегда пытаемся дистанцироваться от какой-то части окружающего нас мира. Но поскольку мы навсегда к нему привязаны, то в конечном счете дистанцируемся и от какой-то части нашей жизни. Результат такого отчуждения может быть абсолютно банальным (я слышал от многих молоденьких девушек, что они всерьез обеспокоены тем, добавят ли одноклассники их в друзья или удалят). А может обернуться непоправимой трагедией.
Вероятно, нам не стоит удивляться, что аборигены цифрового мира ищут утешения в той самой среде, которая мучает и терзает их. Что еще, собственно говоря, могут они придумать? Как подчеркивает Евгений Морозов в книге The Net Delusion: The Dark Side of Internet Freedom, если единственный молоток, который у вас есть, – это интернет, то «нет ничего удивительного, что каждая из возможных социальных и политических проблем представляется в виде сетевого гвоздя». К этой же аналогии Морозов прибегает в своей более поздней книге To Save Everything, Click Here, где он пишет: «Это очень мощный набор молотков, и масса людей – большая часть их обретается в Кремниевой долине – просто жаждут услышать ваш крик: “Гвоздь!” независимо от того, на что вы в этот момент смотрите». Другими словами, людей очень легко убедить в том, что решение обусловленных технологиями проблем заключается в самих технологиях. В особенности это легко, когда технология захватила все поле нашего зрения. Несмотря на то что некоторые представители моего поколения думают, будто интернет не исчерпывает весь набор доступных нам инструментов, для Аманды Тодд и ее ровесников отключение интернета или даже отказ от него как от рупора кажется немыслимым.
Для тех, кто не помнит времена, когда мир не был подключен к сети, подчинение человеческих эмоций системам сетевого управления представляется самым лучшим, удобным и, безусловно, самым легким способом решения всех проблем.
В конечном счете мы хотим получить такую машину, которая смогла бы вполне понимать наши чувства и даже направлять и формировать их за нас.
Однако в наших отношениях с «социальными» сетями заключена ирония. Социальные сети скрадывают расстояния, но делают нас одинокими. Они держат нас «на связи», но порождают тревожность по отношению к физическому взаимодействию. Шерри Теркл из Массачусетского технологического института сформулировала это емко и кратко: «Мы с нашим новым одиночеством поклоняемся неодушевленному предмету». Молодые люди, с которыми она обсуждала использование технологий вместо реального общения с людьми, регулярно утверждали, будто общение с живыми людьми «рискованно», а технология абсолютно «надежна». Вот одно из самых показательных интервью. С молодым человеком по имени Говард обсуждаются возможности робота-опекуна:
Есть вещи, которые невозможно рассказать ни друзьям, ни родителям. Их можно рассказать ИИ (искусственному интеллекту). Он даст совет, в котором ты можешь быть уверен… Я думаю, что такого робота стоит запрограммировать предыдущим знанием о такой ситуации и о том, как из нее выбраться. Это могут быть ваши знания, знания ваших друзей, которые помогут найти правильное решение. Я знаю многих подростков, запутавшихся в своих эмоциях и поэтому делающих серьезные ошибки.
Правда, такого робота для Говарда пока не создали.
* * *
Почти библейские попытки снабдить компьютеры эмоционально окрашенным разумом – «вытащить» их из тьмы – давно занимали человеческое воображение и делятся на две переплетающиеся между собой категории. В одной, описанной, например, Мэри Шелли в романе «Франкенштейн, или Современный Прометей»[37]37
М.: Эксмо, 2013.
[Закрыть], появление искусственного интеллекта имеет страшные последствия вопреки благим намерениям его создателей. Во второй категории мы сталкиваемся с роботом как со спасителем или бескорыстным помощником, таким, например, как механический рыцарь, спроектированный в 1495 году Леонардо да Винчи. Однако в большинстве случаев обе категории пересекались – искусственное существо является одновременно и спасителем, и злодеем.
Известно, что Адам и Ева согрешили и разочаровали Бога. И наши писатели-фантасты считают, что интеллектуальный робот, начав с благородных намерений, в дальнейшем неизбежно совершит грехопадение. Такая двойственность просматривается в пьесе чешского драматурга Карела Чапека «Р.У.Р.» («Россумские универсальные роботы»). Предложенное Чапеком слово «робот» прижилось, им стали обозначать искусственный интеллект. В пьесе роботы – безропотные и умелые слуги и работники – в конце концов перерождаются, восстают и убивают всех людей.
Полки книжных магазинов и частных собраний ломятся от подобных антиутопий. Но никакая фантастика не способна уничтожить надежду, что нашим творениям будет ведомо то, что недоступно нам самим, и поэтому они смогут облегчить наши страдания. Мы тянемся к этим обещаниям искусственного интеллекта, повинуясь инстинкту потерявшегося ребенка. Мы просим искусственный разум придать смысл нашей жизни, помочь избежать мертвящей тишины одиночества. Поэтому неудивительно, что первым роботом, созданным в реальной действительности и заговорившим с человеческими интонациями, стал бесконечно терпеливый и снисходительный психотерапевт по имени Элиза.
В середине шестидесятых годов специалист по вычислительной технике из Массачусетского технологического института Джозеф Вейценбаум написал уникальную программу. Она позволяла компьютеру после прочтения текста породить новый фрагмент текста, который невероятным образом напоминал некое подобие продолжения диалога. Нового робота назвали в честь Элизы Дулитл, главной героини пьесы Бернарда Шоу «Пигмалион». (В ней профессор Генри Хиггинс делает из цветочницы Элизы Дулитл, болтающей на типичном кокни[38]38
Один из самых известных типов лондонского просторечия, назван по пренебрежительно-насмешливому прозвищу уроженцев Лондона из средних и низших слоев населения. Прим. ред.
[Закрыть], великосветскую даму, говорящую на безупречном английском.) Попытка такого общения при помощи компьютера выглядела примитивно, а сами диалоги поразительно напоминали беседы с клиентами психотерапевтов школы Карла Роджерса[39]39
Карл Роджерс (1902–1987) – американский психолог, один из создателей и лидеров гуманистической психологии. Внес большой вклад в создание недирективной психотерапии, которую он называл «личностно ориентированной психотерапией». Прим. ред.
[Закрыть]. Скажите «Элизе»: «Я не люблю ходить в школу», и она спросит: «Скажите мне, почему вы не любите ходить в школу?» Сообщите «Элизе», что в комнате темно, и она поинтересуется, действительно ли вы думаете, что в комнате темно.
Я воспользовался программой «Элиза», думая, что так лучше пойму принципы, по которым она работает. Вот протокол нашей первой беседы:
Привет, меня зовут Элиза. Чем я могу вам помочь?
Я хочу написать о вас книгу.
О?..
Да, я пишу книгу, и в ней есть глава, в которой я упоминаю о вас.
Как долго вы пишете книгу, где есть глава, в которой вы упоминаете меня?
Уже несколько месяцев.
Не уверена, что я вполне вас понимаю.
Я тоже в этом не уверен.
Вы считаете, что это нормально, что вы не вполне меня понимаете?
Думаю, что это нормальный ответ на ваши ответы.
Почему вас так занимают мои ответы?
Главным образом потому, что они совершенно бессмысленны.
Это очень интересно.
Вы так думаете?
Вы говорите не обо мне, не так ли?
Такое общение очень скоро становится невыносимым. Но, возможно, подумал я, эксперимент поставлен некорректно. «Элизу» создавали не для рефлексии и самокопания. Она хотела помочь мне решить мои проблемы и не собиралась раскрывать свои секреты. Я сделал вторую попытку, постаравшись проявить максимум эмоциональности.
Привет, меня зовут Элиза. Чем я могу вам помочь?
У меня стресс, потому что я пишу книгу.
Как давно у вас стресс из-за того, что вы пишете книгу?
Несколько месяцев.
Отлично… «У меня стресс, потому что я пишу книгу». Поясните подробнее.
Что именно?
Вас интересует этот вопрос?
Ох, отвяжись.
Расскажите мне больше…
Отвяжись, отвяжись, отвяжись.
Почему вы повторяетесь?
Отвяжись, отвяжись, отвяжись.
Прошу вас, поясните свою мысль.
Отстань, иди к черту.
Скажите, у вас есть психологические проблемы?
Вторая попытка коммуникации со старомодной программой оказалась не лучше первой. Но меня поразило, насколько я был эмоционально захвачен этим уродливым общением.
Когда Вейценбаум допустил своих студентов к общению с «Элизой», он и сам был удивлен, насколько глубоко они погружались в него. Многие из них находили подход «Элизы» приятным и полезным. В какой-то степени она действительно была идеальным собеседником: повторяла ваше мнение, а потом бесконечно спрашивала, как вы себя чувствуете и почему вы себя чувствуете именно так, а не иначе. Некоторые психотерапевты (видимо, забыв о своей выгоде) заговорили, что «Элиза» могла бы стать дешевой альтернативой дорогостоящим психоаналитическим сеансам. Какой бы утомительной и скучной ни была «Элиза», она давала людям то, чего они хотят от слушателя, – механическое подтверждение своим мыслям. «Необычайно короткий сеанс работы с простой компьютерной программой, – писал позже Вейценбаум, – может индуцировать бредовое мышление у абсолютно нормального человека».
Сегодня мы на каждом шагу наблюдаем такую бредовую индукцию. Иногда в довольно забавной форме. Фирма BMW была вынуждена отозвать партию навигаторов GPS, потому что немецкие мужчины не терпят указаний, произнесенных женским голосом. Когда армия США разрабатывала свою систему Sergeant Star (бота, беседующего с потенциальными рекрутами на сайте goarmy.com), военные компьютерщики, естественно, постарались синтезировать мужественный голос старого вояки из компьютерной игры-стрелялки «Чувство долга». Одурачивание людей и вовлечение их в эмоциональное общение с неодушевленным предметом (часто сделанным по заказу крупной корпорации или государства) – это новый, многообещающий и очень опасный рубеж. Однако первооткрыватель этого рубежа, Колумб неодушевленной эмоциональности, поднял свои паруса больше полувека назад.
* * *
Знаменитый и не слишком счастливый английский математик Алан Тьюринг, крестный отец компьютера, твердо верил, что неизбежно наступит будущее, населенное эмоциональными и общительными компьютерами. Он утверждал: «Наступит время, когда дамы будут брать на прогулку в парк свои компьютеры, а потом рассказывать друг другу: “Мой малыш сказал мне, что сегодня чудесное утро”». Тьюринг настаивал, что машину можно назвать разумной только в том случае, если человек, обменявшийся с ней письмами, не сможет отличить ее от человека. (Я знаю нескольких человек, которые едва ли выдержат такой тест, но это уже другая история.)
Этот вызов – который до сих пор называют «тестом Тьюринга» – продолжает жить в виде ежегодного конкурса на приз Лебнера (литая золотая медаль плюс сто тысяч долларов наличными). Этот приз получит любой компьютер, беседа которого окажется настолько беглой и достоверной, что его невозможно будет отличить от живого собеседника[40]40
Пока ни одна программа не выиграла золотую медаль. Тем не менее на конкурсах ежегодно присуждаются более мелкие призы за «самый гуманный компьютер».
[Закрыть]. На этом конкурсе (учрежденном в 1990 году нью-йоркским филантропом Хью Лебнером) группа судей, сидя перед экраном монитора, вступает в краткую переписку с людьми и компьютерами. Судьи не знают, с кем именно они переписываются в данный момент. Потом голосованием решается, кто это был – человек или компьютер. Такие программы, как Clevervbot (самый гуманный компьютер 2005 и 2006 годов), содержат огромную базу данных из типичных высказываний, которые произносятся в ответ на самые разнообразные предложения. Такие фрагменты программа связывает в достаточно внятные (хотя и несколько причудливые) диалоги. Другие программы, например Chip Vivant – победитель 2012 года, не имели больших баз данных, но пытались сами синтезировать нечто напоминающее человеческие рассуждения. Иногда случалось, что людей, участвовавших в конкурсе, принимали за машины. Участница по имени Синтия Клей – специалист по творчеству Шекспира – тремя судьями была названа компьютером, когда завела разговор о бардах. Судьям показалось, что она «слишком много знает». (Брайан Крисчен писал в книге The Most Human Human, что Клей восприняла эту ошибку как комплимент.)
Все компьютеры, включая «Элизу», не прошли тест Тьюринга. Бесконечное разнообразие нюансов человеческого общения пока не поддается программированию. Проще говоря, компьютеры еще не обладают чувствами, необходимыми, чтобы подняться на эмоциональный уровень человеческого общения.
Мы очень медленно ползем к этой цели. Существует огромная трудность на пути обучения компьютеров даже поверхностному сопереживанию. Наша эмоциональная экспрессия бесконечно сложна и включает в себя огромное количество выражений и эмоций: усталое выражение лица неудачно запрограммированный компьютер может прочитать как выражение «несчастья».
То, что воображал себе Тьюринг (интеллигентный компьютер, способный играть в человеческие игры хотя бы приблизительно как реальный человек), сейчас называют «аффективной технологией». Эти технологии активно разрабатываются. «Аффективный» – любопытное словечко, но в данном случае оно подходит как нельзя лучше. Слово напоминает нам об аффектации[41]41
Аффектация – 1) необычное, искусственное возбуждение; 2) неестественность в жестах, чрезмерная патетичность речи. Прим. ред.
[Закрыть], о настроении и чувствах, но надо помнить, что происходит это слово от латинского afficere – «влиять» или (звучит зловеще) «навести болезнь».
Совсем недавно группа ученых Массачусетского технологического института приблизилась к Святому Граалю[42]42
Святой Грааль – загадочный христианский артефакт, обретенный и утерянный. Слова «Святой Грааль» часто используются в переносном смысле как обозначение какой-либо заветной цели, обычно недостижимой или труднодостижимой. Прим. ред.
[Закрыть] afficere – перевела целый спектр человеческих эмоций в двоичный компьютерный код.
* * *
Помимо роботов, способных поддерживать компьютерный чат, мы располагаем программами, умеющими прослеживать положение 24 точек лица, что позволяет идентифицировать эмоциональное состояние человека и порождать соответствующие реакции машины. Кроме того, существуют Q-сенсоры – браслеты, измеряющие уровень «эмоционального возбуждения» по температуре и электропроводности кожи.
Главная проблема, однако, остается нерешенной. Говорим ли мы об «аффективных компьютерах» или о «компьютерном сопереживании», на базовом уровне мы все равно обсуждаем технологии, распознавание образов и более сложную сферу глубинного анализа данных. Тем не менее цель – «гуманизация» интерфейса. А ее невозможно достичь, не решив грандиозную задачу пропуска массы живого опыта через мелкую программную сеть.
Многие умы, работающие на переднем крае этой отрасли, собрались в Массачусетском технологическом институте, на факультете Media Lab, где они (по их собственным словам) «изобретают будущее». Я познакомился с одним из сотрудников Media Lab Картиком Динакаром, который по совместительству работает в «Майкрософт», помогая фирме усовершенствовать поисковую систему Bing. («Каждый раз, когда я набираю имя Хиллари Клинтон, – говорит он, – ответ вы получаете благодаря мне».)
Динакар – симпатичный и улыбчивый молодой человек двадцати восьми лет с густой копной черных волос. Как и Аманда Тодд, он не понаслышке знаком с травлей в детском коллективе. Его не любили, когда он был подростком, так как он был ботаником и считался помешанным на компьютерах. От травли он прятался в сети. «Я писал посты в блог и… да, знаете, мне становилось легче. Я думаю, что именно поэтому люди продолжают этим заниматься, поэтому они пишут в Twitter и подобные места. Думаю, что в сети люди ищут сочувствия».
Чувство непохожести у Картика усиливается его синестезиями. Синестезия – это способность органов чувств наряду со специфическими для них ощущениями воспринимать и ощущения, соответствующие другим органам чувств[43]43
Примеры синестезии – «цветной» слух (способность человека испытывать ассоциацию слышимого звука с каким-либо цветом), вкусовая синестезия (появление вкусовых ассоциаций от каких-либо слов, образов), «шелест» запахов и т. д. Прим. ред.
[Закрыть]. В какой-то степени мы все подвержены этому явлению. Мозг младенца в наибольшей степени склонен к синестезии. Дети в возрасте двух-трех месяцев обладают способностью к смешанным ощущениям. Однако в редких случаях такое состояние сохраняется и в более старшем возрасте. Если вы назовете Динакару число семь, он увидит определенный цвет. Пятница всегда окрашена в темно-зеленые тона. Воскресенье неизменно связано с черным цветом.
Естественно, эта особенность делает Динакара идеальным членом команды Media Lab. Так называемый компьютерный ботаник с мозгом, в котором образовались и сохранились нетипичные связи, – это как раз то, что нужно бастиону междисциплинарного научного подхода.
Когда осенью 2010 года Картик начал работать над докторской диссертацией, у него, как он вспоминает, «едва не лопнули мозги». Докторантам предложили представить самостоятельные проекты, но ему ничего не приходило в голову. «Меня совершенно не занимало то, что интересовало других. Не было никаких идей. Я уже думал, что меня отчислят».
Но однажды вечером, сидя дома, Динакар по телевизору услышал сообщение Андерсона Купера о Тайлере Клементи, восемнадцатилетнем студенте-скрипаче. Клементи бросился с моста Джорджа Вашингтона и утонул в реке Гудзон. Сокурсник Клементи, живший с ним в одной комнате в общежитии, показал своим друзьям запись того, как Клементи целуется с каким-то парнем. В программе выступил вездесущий доктор Фил, который поговорил с Купером о тяжелых последствиях кибертравли, которые не исчезают так же быстро, как последствия травли «в реальной жизни»: «Такой человек, объект травли, думает: ”Я опозорен и уничтожен – навсегда и непоправимо”. Это такое глубокое отчаяние, что оно может довести человека до самоубийства… Самое главное для жертвы и самое тяжелое – это то, что его позор и унижение видел весь мир. Жертва уверена, что все, кто это видел, отреагируют так же, как человек, который выставил его на всеобщее обозрение». Динакар смотрел программу и думал, что должен найтись способ пресекать такую жестокость, отслеживать неприемлемое сетевое поведение и устранять записи и посты его носителей.
Большинство социальных сайтов оставляют эту проблему на усмотрение сетевого сообщества. В Facebook, Twitter и подобных сетях есть кнопка, которая позволяет «пометить это как неприемлемое», если пользователь не одобряет контент. В нашу эпоху краудсорсинга, апофеозом которого стала «Википедия», такая общественная модерация не лишена здравого смысла, и, возможно, иногда это соответствует действительности[44]44
С таким контентом, несомненно, лучше удастся справиться в будущем. Возможно, этим должно озаботиться государство. Перефразируя исследователя из «Майкрософт» с сетевым псевдонимом danah boyd, можно сказать: «Facebook – это прикладная программа, а программа поддается регулированию».
[Закрыть]. «Но на самом деле происходит следующее: все эти отметки сливаются в один поток и направляются в команду модераторов, – объяснял мне Динакар, – которые должны их просмотреть. Никого в сети не банят автоматически, поэтому возникает большая проблема: каким образом справиться с восемьюстами миллионами пользователей, которые помечают флажками посты друг друга?» (В самом деле, у Facebook более миллиарда пользователей, действиями которых надо как-то управлять.) «Правда заключается в том, что команды модераторов смехотворно малы в сравнении с объемом контента, который подлежит модерированию. Понятно, что такая задача им не под силу. Я понял, что модераторам должна помочь технология. Мне даже показалось странным, что никто не работает над этой проблемой».
Самый элементарный алгоритм, который ищет признаки оскорбительного поведения, может отмечать такие слова, как «педик» или «шлюха». Но он не в состоянии поместить это слово в надлежащий контекст. Например, такой алгоритм способен пометить данный абзац как оскорбительный просто потому, что в нем содержатся эти слова. Однако наш мозг и наш рассудок не работают по принципу «вкл. – выкл.» Постижение смысла требует тонкого понимания контекста, а с этим у компьютера всегда возникают проблемы. Динакар решил создать способ идентифицировать темы. «Мозг, – сказал он, – это полином[45]45
То же, что многочлен. Алгебраическое выражение, представляющее собою сумму нескольких одночленов. Прим. ред.
[Закрыть]. Другими словами, мы мыслим, комбинируя несколько понятий в определенном порядке и последовательности, а не распознавая отдельные слова. Если, например, я скажу парню, что ему пойдет губная помада, то компьютер не расценит это как оскорбление. Но человек поймет, что это издевка». Динакар захотел научить компьютер такому распознаванию.
Решение пришло в форме латентного размещения Дирихле (latent Dirichlet allocation, LDA), сложной модели семантического анализа текстов, разработанной в 2003 году. Модель позволяет обнаруживать темы внутри бесконечного числа словесных комбинаций, выбрасываемых мозгом. LDA полиномиально, как и наш мозг, и работает «с мешком неявных ассоциаций», как выразился Динакар. Он начал с простого допущения о том, что такой мешок существует: «Если нам удастся уловить дифференциал силы между людьми, то нам удастся искоренить и случаи травли».
Внимание! Это не конец книги.
Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?