Текст книги "Машина хаоса. Как социальные сети перепрограммировали наше сознание и наш мир. Макс Фишер. Саммари"
Автор книги: М. Иванов
Жанр: Социальная психология, Книги по психологии
Возрастные ограничения: +16
сообщить о неприемлемом содержимом
Текущая страница: 1 (всего у книги 2 страниц) [доступный отрывок для чтения: 1 страниц]
Smart Reading
Машина хаоса. Как социальные сети перепрограммировали наше сознание и наш мир. Макс Фишер. Саммари
Оригинальное название:
The Chaos Machine: The Inside Story of How Social Media Rewired Our Minds and Our World
Автор:
Max Fisher
www.smartreading.ru
Социальные сети и психика
Тот факт, что социальные сети способствуют повышению популярности сенсационных материалов и, как следствие, росту общественного негодования, уже давно не новость. Но по итогам своего журналистского расследования Макс Фишер утверждает, что мы значительно преуменьшаем масштаб и силу этого воздействия.
Постоянно растущий массив доказательств, собранных учеными, репортерами, описанных инсайдерскими информаторами, показывает, что влияние социальных сетей на нас гораздо глубже, чем мы думаем. Эти технологии оказывают мощнейшее воздействие на человеческую психику и идентичность. Они настолько глубоко проникают в нашу жизнь, что полностью меняют наш образ мышления, поведение и отношение друг к другу. Этот эффект, умноженный на миллиарды пользователей, уже изменил общество в масштабах планеты. Так какие же психические механизмы здесь задействованы?
Дофамин
Это гормон, который наш мозг выделяет при каждом действии, удовлетворяющем базовую потребность. Дофамин создает положительную ассоциацию с любым поведением, которое вызвало его выброс. Он учит нас повторять такие действия. Но когда система вознаграждения взломана, она может заставить нас повторять разрушительное поведение: сделать еще одну ставку, выпить еще бокал алкоголя или проводить часы в приложениях, даже если они делают нас несчастными.
Социальные сети – своего рода игровые автоматы, устроенные так, чтобы отвечать на каждое наше действие визуальной, слуховой и тактильной стимуляцией. Звоночек, когда мы вставляем монету. Приятный звук, когда мы тянем рычаг, и цветная вспышка, когда отпускаем. Так же разработаны интерфейсы социальных сетей – чтобы стимулировать выброс дофамина, как в игре.
Прерывистое подкрепление
Эта концепция принадлежит психологу Берресу Фредерику Скиннеру и лежит в основе «психологии» игровых автоматов. Вознаграждение или положительное подкрепление дается время от времени непредсказуемым образом, а не последовательно. Это заставляет нас все активнее повторять поведение.
Социальные сети делают то же самое. Публикация в социальной сети Twitter (сейчас – Х), например, может принести большую социальную отдачу в виде лайков, ретвитов и ответов. Или не принести ничего. Мы не знаем результат заранее, и это заставляет нас продолжать «дергать рычаг».
Прерывистое подкрепление – определяющая черта не только азартных игр и зависимостей, но и абьюзивных отношений. Абьюзер непредсказуемо для жертвы колеблется между добротой и жестокостью, наказывая за поведение, которое ранее вознаграждал. Это может привести к так называемой травматической зависимости. Пострадавший партнер обнаруживает, что навязчиво ищет позитивный ответ, как игрок, кормящий игровой автомат, или человек, зависимый от Facebook[1]1
Здесь и далее – Facebook принадлежит компании Meta, деятельность которой признана в России экстремистской и запрещена.
[Закрыть], неспособный надолго выйти из приложения.
Социометр
Эта концепция возникла из вопроса, заданного психологом Марком Лири: в чем смысл самооценки? Вроде бы мучения, которые мы испытываем из-за низкой самооценки, полностью порождены нами самими. Лири предположил, что мы не развили бы такую необычную и болезненную уязвимость, если бы она не приносила какую-то пользу. Его теория, которая сейчас широко распространена, заключается в том, что самооценка – «психологический показатель степени, в которой, по мнению человека, он ценен в отношениях и социально принят другими людьми».
Люди эволюционировали, чтобы жить в более крупных, чем у наших собратьев-приматов, коллективах: примерно до 150 членов. Наше благополучие зависело от того, насколько хорошо мы управляли отношениями в нашем окружении. Если группа ценила нас, мы могли рассчитывать на поддержку, ресурсы и, возможно, на партнера. Если нет, мы могли не получить ничего и подвергнуть свою жизнь опасности. Умение «отращивать» собственную ценность для общества, быть чувствительным к мнению коллектива и оптимизировать свое положение в нем – вопрос выживания, физического и генетического.
Антрополог Брайан Хэйр назвал это «выживанием дружелюбных». Результатом стало развитие так называемого социометра: способности бессознательно отслеживать, как нас воспринимают другие в нашем сообществе. Мы обрабатываем эту информацию и принимаем ее в виде самооценки и таких связанных с ней эмоций, как гордость, стыд или неуверенность. Эти эмоции заставляют нас делать больше того, за что наше сообщество ценит нас, и меньше того, за что не ценит. При этом создается ощущение, что эта мотивация исходит изнутри.
Кнопка «лайк» – эквивалент аккумулятора, подключенного к социометру. Она дает огромную власть над нашим поведением. Дело не только в том, что лайк обеспечивает подтверждение нашей социальной значимости, на которую мы тратим так много энергии. Дело в том, что это подтверждение происходит быстро и в масштабе, ранее не встречавшемся в человеческом опыте. Как часто в реальной жизни вам аплодируют 60 человек? Может быть, раз в несколько лет, если вообще когда-либо? В социальных сетях это обычное утро.
Идентичность
Это то, как мы связываем себя с группой, а группа – себя с нами.
Вот почему многим американцам приятно повесить флаг перед своим домом, надеть футболку своего университета, прилепить наклейку «USA» на бампер своей машины. Это говорит группе, что мы ценим свою принадлежность как продолжение себя и, следовательно, нам можно доверять, мы послужим общему благу.
Наше стремление развивать общую идентичность настолько сильно, что мы иногда создаем ее из ничего. В десятках экспериментов и реальных ситуациях люди использовали любой повод для разделения на «мы» и «они». И демонстрировали недоверие и враждебность по отношению к тем, кто был в другой группе.
Во время обеденных перерывов на съемках фильма «Планета обезьян» 1968 года статисты спонтанно рассаживались за столы в зависимости от того, играли ли они шимпанзе или горилл. Чарлтон Хестон, актер фильма, рассказывал об этой «инстинктивной сегрегации» как о «довольно жуткой». Когда снимали продолжение, другой набор статистов в точности повторил это поведение.
Это глубокий социальный инстинкт, и социальные сети, превращая каждое нажатие или свайп в социальный акт, выводят его на поверхность. И поскольку платформы приоритизируют любые чувства, привлекающие внимание, они часто заставляют нас проявлять этот инстинкт разделения в самой крайней форме. Результатом может стать искусственная реальность, в которой своя группа всегда добродетельна, а чужая всегда представляет собой угрозу и практически все, что происходит, выглядит как «они» против «нас».
Число Данбара
Как утверждает британский антрополог Робин Данбар, количество постоянных социальных связей, которые может поддерживать человек, лежит в диапазоне от 100 до 230. Средним принято считать значение 150 контактов (вспомним древние сообщества). Эта величина получила название по имени автора исследования – число Данбара.
В начале 2010-х Facebook преследовал дерзкую цель: превзойти когнитивные пределы человеческой социализации. Среднестатистический пользователь платформы имел около 130 друзей, и у компании возникла проблема: рост количества пользователей и времени, проведенного онлайн, застопорился.
В любой другой отрасли ограничение в 90 млн клиентов могло бы стать поводом предлагать новые или более качественные продукты. Но в веб-экономике статичная пользовательская база представляет опасность для бизнеса. Facebook, в надежде на повышение вовлеченности и увеличение пользовательской базы, начал экспериментировать с преодолением числа Данбара.
Платформа стала подталкивать пользователей к тому, что в Facebook называют «слабыми связями»: друзья друзей, контакты контактов, кузены кузенов. Схема сработала: Facebook втянул пользователей в постоянно расширяющиеся круги полунезнакомцев, превзойдя предел Данбара. Twitter сделал то же самое, показывая пользователям твиты от незнакомцев и подталкивая их подписываться на друзей друзей. Компании не проявляли особой заботы о последствиях обхода наших запрограммированных природой ограничений.
Исследования макак, которые, подобно людям, живут в сообществах до 150 особей, показали, что, когда макаки оказывались в более крупных группах, они становились более агрессивными, недоверчивыми и жестокими. Все опасности жизни в сообществе как будто усиливались, а удовольствия уменьшались. Казалось, обезьяны чувствовали, что безопасное существование в неестественно большой группе выходит за рамки их возможностей. И это запускало социальную реакцию «бей или беги», которая никогда полностью не отключалась. Также, казалось, макаки стали больше фокусироваться на формировании и поддержании социальных иерархий, как на своего рода защитном механизме.
Вскоре Facebook нашел еще более мощный метод расширения сообществ пользователей: платформа начала вовлекать нас в группы – автономные сообщества по темам или интересам – в десять раз большего размера. Это дало алгоритмам еще больше власти.
Интернализация консенсуса
Когда мы оказываемся в некоем сообществе, мы неизменно сталкиваемся с новыми для нас мнениями и суждениями. И психологи обнаружили, что, если люди предполагают, что какое-то мнение стало консенсусом в обществе или в их кругу, они не только соглашаются с этим мнением, но и начинают воспринимать его как собственное.
Таким образом, участие в социальных сетях подпитывается дофаминовыми выбросами и прерывистым подкреплением, то есть вызывает зависимость. Оно также усиливает работу биологического социометра, заставляя нас все больше стремиться к публичному одобрению, от которого зависит наша самооценка и, как считает наш инстинкт, выживание.
Социальные сети позволяют нам почувствовать или выстроить с нуля свою идентичность, противопоставляя себя другим людям и группам, объединяясь и усваивая понятия, которые выглядят как консенсус. И наконец, мы оказываемся в среде, которая нарушает наше биологическое ограничение размера социальной группы. И это делает нас более агрессивными и жестокими.
Алгоритмы
Платформы научились использовать наш праведный гнев, отдав на откуп алгоритмам функцию выдачи постов в ленте. Самые популярные посты – те, что вызывают наибольший эмоциональный отклик. И чаще всего это гнев.
Гнев и возмущение приносят пользователям социальных сетей прилив чувств: ощущения достижения цели, моральной ясности, социальной солидарности. Это стимулирует нас вступать в конфликты – чем яростнее, тем лучше. Мы делаем это, чтобы показать сообществу, что мы свои, и заработать социальный капитал.
Разжигающие посты вызывают ощущение, что наша группа единомышленников, сама наша идентичность в опасности и мы должны остановить эту опасность, то есть другую группу людей с иными мнениями. Другими словами, социальные сети радикализируют нас и делают все более непримиримыми к другому мнению.
«Платформы не предназначены для вдумчивого разговора, – говорила Брианна Ву – независимый разработчик игр, которая первой подверглась массовой травле онлайн. – Twitter, Facebook и платформы социальных сетей предназначены для разговора в стиле: ”Мы правы. Они не правы. Давайте уничтожим этого человека очень быстро и очень жестко”. И это просто усиливает все наши разногласия».
Логика алгоритмов была разумной, даже блестящей. Радикализация – навязчивый, поглощающий всю жизнь процесс. Адепты какой-либо идеологии возвращаются снова и снова, их одержимость становится идентичностью, а платформы социальных сетей – центром их повседневной жизни. Радикалы вербуют новых радикалов. Это позволяет построить машину гнева, в которой люди непрерывно создают разжигающий контент.
Одновременно такой алгоритм повышает вовлеченность пользователей: сначала минуты, проведенные онлайн, превысили минуты, которые мы проводили в реальном общении с людьми, а потом и другие мыслимые и немыслимые пороги. А чем больше времени мы проводим в соцсетях, тем больше рекламы мы видим и тем больше денег получают платформы. Они оказались заложниками собственной бизнесмодели, а мы – жертвами безжалостно эксплуатируемых инстинктов.
Но ведь время не резиновое. Представим, что соцсеть производит 200 постов в день, из которых мы успеваем прочитать только 100. Алгоритмы сделают так, что мы увидим самую эмоционально нагруженную половину своей ленты. В следующем году, когда 200 вырастет до 400, мы увидим максимально эмоциональную четверть. Через год после этого – еще более концентрированную восьмую. С каждым годом мир будет казаться нам все более гневным, жестоким и страшным – и мы будем отвечать ему тем же.
Истории из реального мира
Даже в своей самой элементарной форме структура социальных сетей усиливает поляризацию общества. Так, один эксперимент показал, что чтение статьи, а затем комментариев под ней приводит к тому, что люди приобретают экстремальные взгляды на тему статьи. Контрольные группы, которые читали статью без комментариев, оставались более умеренными и открытыми к другим мнениям. Причем дело не в том, что комментарии были убедительными. Дело в наличии комментариев как таковых. Исследователи обнаружили, что читатели новостей, находясь в социальной среде, обрабатывают информацию иначе: социальные инстинкты подавляют разум, заставляя людей искать подтверждение собственной правоте.
Группы Facebook еще больше усиливают этот эффект. Помещая пользователей в однородное социальное пространство, группы повышают их чувствительность к социальным сигналам и конформизму. Это подавляет критическое мышление, способность распознавать ложные утверждения и увеличивает тягу к любым мнениям, подтверждающим идентичность. Так люди становятся склонны делиться дезинформацией и везде видеть заговоры.
Социолог Зейнеп Туфекчи писала: «Когда мы сталкиваемся с противоположными взглядами в эпоху и в контексте социальных сетей, это не то же самое, что читать их в газете, сидя в одиночестве. Это то же самое, что слышать их от команды соперников, сидя с нашими товарищамиболельщиками на футбольном стадионе. Мы сближаемся с нашей командой, когда кричим на фанатов другой».
Выборы в США 2016 года и трампизм
Так, радикализация и поляризация американского общества, по мнению Макса Фишера, привели к победе Дональда Трампа на выборах в 2016 году. Не последнюю роль в этом сыграли многочисленные скандалы вокруг другого кандидата – Хиллари Клинтон. Тогда пользователи самой радикальной социальной сети 4chan искусственно раздули скандал о том, что Клинтон и известные демократы вовлечены в тайную группировку, занимающуюся сексуальной эксплуатацией детей.
В публичное пространство утекла частная переписка коллег Клинтон. Но о детях в ней не было ни слова. Однако кто из избирателей мог полностью погрузиться в контекст десятков, если не сотен страниц этой переписки? Пользователи 4chan, обладая достаточным временем и желанием, ради смеха присвоили слову «пицца» значение «порно» и вложили в тексты переписки собственные смыслы. Их домыслы, призванные «потроллить мир», выплыли в мейнстримные социальные сети, такие как Facebook, распространились там клик за кликом и были выведены в топ алгоритмами. Этот скандал получил название «пиццагейт».
Когда объявили результаты выборов, один сотрудник Facebook написал во внутренних чатах коллегам: «Результаты выборов 2016 года в США показывают, что Facebook не справился со своей миссией». Другой: «К сожалению, новостная лента оптимизирована на вовлечение. Как мы узнали на этих выборах, самая адская чушь оказывается очень вовлекающей». Третий написал: «Facebook сломан».
Штурм Капитолия
Те же пользователи 4chan стали затем с азартом расшифровывать загадочные и порой бессмысленные анонимные сообщения некоего Q, что привело к появлению движения QAnon. Как и пиццагейт, QAnon просочился в мейнстримные медиа и тут же нашел последователей. Адепты этого движения верили, что Дональд Трамп вот-вот арестует всех демократов, занимающих видные государственные посты, введет в стране военное положение и будет нуждаться в массовой поддержке своих последователей. Эти же люди 6 января 2021 года пришли вооруженными на митинг и штурмовали Капитолий. Когда кажется, что та или иная идея исходит изнутри твоего сообщества, она становится гораздо более убедительной, чем любая отдельная публикация.
Впоследствии, когда сотни людей были арестованы и Трампу во второй раз был объявлен импичмент, шок отдавался эхом в течение многих месяцев. Но еще до этого, пока осада продолжалась, в то самое время, как разъяренная толпа транслировала видео изнутри Капитолия во все социальные сети, эти волны шока уже докатились до Кремниевой долины. «Можем ли мы быть смелее и как-то отреагировать на происходящее?» – написал сотрудник Facebook во внутреннем чате компании, когда разгорался бунт. «Ваше молчание как минимум разочаровывает, а в худшем случае – преступно», – написал другой руководству Facebook.
Инцелы
Форумы инцелов начинались как места для обмена историями о чувстве одиночества. Пользователи обсуждали, как справиться с жизнью, когда им не хватает объятий. Но алгоритмы и в этой – казалось бы, самой безобидной – теме усиливали громкие голоса. Взгляды становились все более экстремальными. Возобладавший гнев переплавил индивидуальные страдания в племенную борьбу. Инцелы приняли радикализирующее убеждение: «Феминистки сговорились поработить и кастрировать наш класс мужчин с низким статусом».
К 2021 году самопровозглашенные инцелы совершили 50 убийств. Один человек застрелил четырех женщин в студии йоги во Флориде. Суперпользователь Reddit въехал на фургоне в толпу пешеходов в Торонто. На 4chan один пользователь транслировал в прямом эфире, как он убил 17-летнюю девушку, под одобрительные возгласы других пользователей, а затем попытался покончить с собой.
Теории заговоров говорят нам, что события не неконтролируемые или безличные, а представляют собой часть некоего скрытого плана, секреты которого мы можем расшифровать. Это позволяет переосмыслить хаос как порядок и сообщает адептам, что только они владеют истиной. Тогда их чувство автономии и контроля восстанавливается. Вот почему приверженцы QAnon часто повторяют друг другу свою успокаивающую мантру: «Доверяй плану».
Остановить алгоритм
Макс Фишер пишет: все, с кем он общался в Facebook, выражали полную уверенность в том, что продукт изначально не был вредным. По мнению многих, и сейчас нет веских доказательств того, что алгоритмы или другие функции соцсетей подталкивают пользователей к экстремизму или ненависти.
Однако это сродни мнению, что наука до сих пор не знает, действительно ли сигареты вызывают привыкание и рак. Так же как Philip Morris игнорировала исследования о вреде табака, исследователи Facebook искали доказательства нейтральности своих алгоритмов в кипах внутренних отчетов, не пытаясь открытыми глазами посмотреть на происходящее. И даже после шокирующей истории с выборами президента США все, на что решился топ-менеджмент Facebook, – признание факта, что «механизмы платформы не нейтральны».
Вопросы Макса Фишера о последствиях работы алгоритма «максимизации вовлеченности» вызывали у менеджеров Facebook только непонимающий взгляд. Руководители, которые всего несколько минут назад обсуждали проблемы терроризма или иностранного регулирования, моргали и меняли тему, как будто не понимали вопроса.
Дебаты в Кремниевой долине о том, как использовать свою власть – больше или меньше подчиняться правительствам, подчеркивать нейтралитет или социальное благо, – редко обращали внимание на тот факт, что у платформ вообще не должно быть такой власти. Что сама консолидация информации и социальных отношений в руках компаний, максимизирующих прибыль, в корне противоречит общественному благу.
Спустя несколько недель после осады Капитолия наконец-то появилось широкое понимание влияния социальных сетей. Переосмысление функционирования платформ казалось необходимым. Кремниевая долина была ошеломлена.
Технические эксперты и журналисты обсуждали новые варианты. Может быть, сервисы на основе подписки, когда пользователи ежемесячно платят за вход, могли бы сломать зависимость отрасли от рекламных доходов, а значит, от гонки за вовлеченностью. А может быть, ужесточение законов подтолкнуло бы их пересмотреть свои стимулы.
Но эта дискуссия быстро свернулась. Техногиганты слишком сильно зависят от финансовых показателей и своего статус-кво. На вопрос, что эффективнее всего реформирует как платформы, так и компании, которые ими владеют, Фрэнсис Хауген, бывшая сотрудница Facebook, дала простой ответ: отключить алгоритм. «Мы не хотим, чтобы компьютеры решали, на чем нам фокусировать внимание».
Макс Фишер не дает советов, как нам избежать негативного влияния алгоритмов, пока они все еще действуют. Однако осознание силы их воздействия на психику должно нам отчасти помочь. Лучшая защита от манипуляции – это критическое мышление и понимание механизмов этой манипуляции.
Внимание! Это не конец книги.
Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!