Текст книги "Полный бред! Скептицизм в мире больших данных"
Автор книги: Джевин Уэст
Жанр: Прочая образовательная литература, Наука и Образование
Возрастные ограничения: +16
сообщить о неприемлемом содержимом
Текущая страница: 3 (всего у книги 21 страниц) [доступный отрывок для чтения: 7 страниц]
Коммуникация – то, как мы создаем, укрепляем и поощряем наш общий способ описания мира. Вообразите церковную службу или структурированную, заранее продуманную последовательность вечерних новостей. Коммуникации в социальных сетях очень похожи: они формируют и структурируют социальные группы. Отправляя твит, публикуя пост в Facebook◆, загружая фото в Instagram◆[28]28
◆ Здесь и далее: название социальной сети, принадлежащей Meta Platforms Inc., признанной экстремистской организацией на территории РФ.
[Закрыть], мы подтверждаем нашу приверженность ценностям и убеждениям определенного онлайн-сообщества. Сообщество реагирует, и эти общие ценности еще раз укрепляются с помощью лайков, репостов, комментариев и ретвитов.
Если я прыгну в бассейн с завязанными глазами, крикну «Марко!» и сделаю это правильно, то моя сеть знакомых откликнется одобрительным хором: «Поло! Поло! Поло!»[29]29
«Марко Поло» – в США вариант игры в жмурки в бассейне: ведущий должен с завязанными глазами найти игроков, которые на слово «Марко» откликаются словом «Поло». Прим. пер.
[Закрыть] Обмен новой информацией – вторичная цель при вступлении в социальные сети. В первую очередь они созданы для поддержания и укрепления общих связей. Опасность заключается в том, что в процессе общественный диалог настолько распадается на фрагменты, что восстановлению уже не подлежит. Люди скатываются к племенной эпистемологии, в которой истинность сообщения зависит не столько от фактов и эмпирических наблюдений, сколько от того, кто доносит его до других и насколько оно соответствует мировоззрению сообщества.
Алгоритмы только ухудшают ситуацию. Facebook◆, Twitter и другие социальные платформы используют алгоритмы, чтобы искать для вас «подходящие» публикации, персонализируя вашу ленту новостей. Эти алгоритмы разработаны не затем, чтобы вы были в курсе событий, – они созданы для того, чтобы вы оставались активными участниками платформы. Их задача – скормить вам информацию, которая достаточно привлекательна, чтобы вы не отправились бродить по другим сайтам или, упаси господь, не легли спать пораньше. Проблема в том, что алгоритмы запускают порочный цикл, предлагая вам всё больше того, что, с точки зрения программы, вы хотите получить, и ограничивая доступ к другим точкам зрения. Как именно устроены алгоритмы, вам не показывают, но ваши лайки, прочитанные вами посты, список друзей, ваши геолокация и политические предпочтения – всё влияет на то, что вам покажут дальше. Алгоритмы выделяют информацию, которая соответствует их представлению о вашей социополитической ориентации, и подавляют альтернативные точки зрения.
Во Всемирной сети мы все подопытные кролики. Коммерческие сайты постоянно ставят крупномасштабные эксперименты, чтобы узнать, что удерживает нас онлайн и повышает вовлеченность. Медиакомпании в интернете экспериментируют с разными видами заголовков, сопутствующими изображениями, даже со шрифтами и с вариантами кнопки «Читать дальше». И в то же время Facebook◆ и другие платформы предлагают рекламодателям – включая и политиков – функцию обращения к конкретным группам пользователей с сообщениями, составленными так, чтобы учесть их интересы. И эти сообщения даже не всегда явно помечаются как рекламные.
Подумайте о том, чему может научиться YouTube, экспериментируя с рекомендациями различных видео и наблюдая за тем, что выбирают пользователи. Благодаря миллиардам видео, которые смотрят каждый день, и огромным вычислительным ресурсам компания может узнать о человеческой психологии за день больше, чем ученый – за всю жизнь. Проблема в том, что их компьютерным алгоритмам известен лишь один способ удерживать зрителей – рекомендовать им с каждым разом все более экстремальные материалы. Пользователи, которые смотрели ролики левого содержания, будут быстро перенаправлены к экстремально левым конспирологическим теориям. Пользователи, которые предпочитали материалы правой направленности, скоро получат рекомендации посмотреть на белых шовинистов или отрицателей холокоста. Мы столкнулись с этим лично. Пока Джевин и его шестилетний сын в режиме реального времени смотрели видео с Международной космической станции, летающей в 254 милях от шарообразной Земли, YouTube заполнял боковое меню, предлагая ролики о том, что Земля на самом деле плоская.
Перефразируя Аллена Гинзберга[30]30
Аллен Гинзберг (1926–1997) – ключевая фигура американской контркультуры 1960–70-х гг., поэт, наряду с Уильямом Берроузом и Джеком Керуаком сыграл ключевую роль в формировании бит-поколения. Прим. ред.
[Закрыть], предприниматель в области технологий Джефф Хаммербахер пожаловался в 2011 году: «Я вижу, как цвет моего поколения думает о том, как заставить людей кликать по рекламным ссылкам. Вот отстой». Дело не только в том, что этот «цвет поколения» мог бы работать на благо творческого и научного прогресса. Вся эта интеллектуальная мощь уходит на то, чтобы привлечь наше драгоценное внимание и потратить впустую заодно и нашу интеллектуальную энергию, – вот в чем проблема. Интернет, социальные медиа, смартфоны – мы открываемся все более изощренным способам отвлечь наше внимание. Мы зарабатываем зависимость от наших связей, от бездумного обновления страниц, от жизни, в которой наше внимание разбросано по мириадам потоков цифровой информации. Короче говоря, алгоритмы, управляющие содержанием социальных медиа, – те еще брехуны. Им не важно, что именно они нам передают. Они лишь хотят захватить наше внимание и будут подсовывать что угодно, лишь бы только его удержать.
ДЕЗИНФОРМАЦИЯ И НЕДОСТОВЕРНАЯ ИНФОРМАЦИЯ
Социальные медиа облегчают распространение недостоверной информации – ложных утверждений, создатели которых не обязательно ставят себе задачу вас обмануть. В социальных сетях тот, кто первым опубликовал новость, собирает основной трафик. В гонке за лидерство издатели часто выбрасывают проверку фактов из издательского цикла. Вы не можете победить своих конкурентов, если будете останавливаться, чтобы тщательно проверять правдивость истории. Осторожность – это замечательно, но она не продает рекламу.
Социальные сети создают плодотворную почву и для дезинформации, то есть лжи, распространяемой намеренно.
Исследование 2018 года показало, что около 2,6 % всех новостных статей в США были лживыми. Эта доля кажется небольшой, но, если каждый американец читает одну статью в день, значит, почти восемь миллионов людей каждый день получали искаженные сведения.
Иногда недостоверная информация вызывает лишь досаду. На одном сатирическом новостном сайте написали, что певица Тейлор Свифт встречается с небезызвестным борцом с коммунизмом, сенатором Джозефом Маккарти, который на самом деле умер за тридцать два года до ее рождения. Разумеется, некоторые фанаты не поняли абсурдности истории и были глубоко возмущены. Но это не принесло никому убытков, ничью жизнь не поставили на кон, и репутации мисс Свифт вряд ли был нанесен серьезный ущерб.
Однако дезинформация и недостоверная информация могут быть куда страшнее. Чем больше людей в Сети, тем серьезнее проблема. Например, почти полмиллиарда жителей Индии впервые получили доступ к интернету между 2010 и 2020 годами. В целом скоростное расширение связей полезно и для тех, кто только приобщается к онлайну, и для тех, кто уже здесь. К сожалению, новые пользователи интернета, как правило, более наивны.
Приложение WhatsApp работает не только как мессенджер, но и как источник новостей для своих почти полутора миллиардов пользователей во всем мире. В нем также полным ходом распространяется недостоверная информация. В начале 2018 года индийские пользователи активно делились серией поддельных видео о том, что некие организованные группировки похищают детей. Страх перед незнакомцами распространялся и привел к ужасным последствиям. По пути к храму в штате Тамилнад одна семья остановилась, чтобы спросить дорогу. Местные жители заподозрили, что это те самые похитители, которых они видели в WhatsApp. Собралась толпа. Людей вытащили из машины. Толпа сорвала с них одежду и жестоко избила железными прутьями и палками. Один человек был убит, а остальные искалечены. Под воздействием тех же лживых историй толпы атаковали десятки других невинных, избивая их – зачастую до смерти.
Полиция пыталась бороться с распространением недостоверной информации онлайн и остановить убийства. Но слухи расходились слишком быстро. В некоторых регионах властям пришлось полностью отключить интернет, чтобы замедлить этот процесс. Владельцы WhatsApp пытались принимать собственные меры, изменив правила о том, сколько раз можно поделиться сообщением. Изначально сообщение можно было переслать 250 раз, это число снизили до 5 раз. Но нападения продолжались.
Однако не только новичков удается запутать. В декабре 2016 года сайт под названием AWD News опубликовал статью с пугающим заголовком «Министр обороны Израиля: если Пакистан отправят войска в Сирию под любым предлогом, мы уничтожим эту страну с помощью ядерного оружия».
Несколько деталей должны были бы насторожить внимательного читателя. В заголовке были грамматические ошибки («отправят» вместо «отправит»). В тексте новости министром обороны Израиля назвали не того человека[31]31
Министром обороны в то время был Авигдор Либерман, но история приписывала цитату Моше Яалону, который находился на этом посту до Либермана. Прим. авт.
[Закрыть]. Статью разместили рядом с другими нелепыми выдумками типа «Клинтон затевает путч против Трампа». Но на удочку попался самый неподходящий для этого человек – Хаваджа Мухаммад Асиф, министр обороны Пакистана. Он со своей стороны ответил в Twitter: «Министр обороны Израиля угрожает ядерным возмездием, намекая на роль пакистанцев в Сирии в отношении ИГИЛ…[32]32
Запрещенная в России террористическая организация. Прим. ред.
[Закрыть] Израиль забывает, что Пакистан тоже ядерная держава».
Хватило одной-единственной фейковой новости, чтобы целое государство пригрозило другому ядерной атакой. Одно дело подшутить над доверчивыми людьми, рассказывая о последнем романе Тейлор Свифт. Другое – подтолкнуть планету к ядерной войне.
А ведь есть еще и политическая пропаганда. И здесь социальные медиа куда более эффективны, чем сброшенные с самолетов листовки или радиопередачи на вражеской территории. Публикации в социальных сетях преодолевают большинство границ. И они распространяются естественным путем. Когда интернет-пользователи делятся пропагандистской информацией, с которой они столкнулись, они используют собственный социальный капитал, придавая вес чьей-то лжи. Если я найду на улице политическую агитку или увижу плакат, я, конечно, отнесусь к ним скептически. Если же мой любимый дядюшка пришлет мне ссылку на историю в Facebook◆, которую он узнал «от друга своего друга», то я утрачу бдительность. Дезинформация мчится по сети надежных контактов, и ее не приходится внедрять извне в скептически настроенное сообщество.
В 2017 году Facebook◆ признал, что в течение прошедших двух лет 126 миллионов пользователей из США – половина взрослого населения и около трех четвертей всей пользовательской базы в Америке – подвергались на платформе российской пропаганде. Было создано более 130 тысяч сообщений, чтобы усилить существующие идеологические расхождения внутри США и посеять недоверие между людьми. Публикации фокусировались на эмоционально заряженных темах, таких как расовые отношения, право на ношение оружия, безопасность границ, социальное обеспечение, аборты. Участники поддерживали обе стороны каждого конфликта, чтобы охватить как можно большую аудиторию. Задачей было усилить самые громкие и экстремальные голоса в каждом политическом лагере, одновременно подавив наиболее разумных и продуктивных участников дискуссии. Когда водораздел между политическими фракциями становится слишком широким, диалог прекращается. Мы утрачиваем веру в людей и институции. Сомневаемся в своей способности принимать коллективные решения. И наконец, перестаем верить в сам политический процесс.
Обычно мы считаем, что пропаганда пытается привить людям определенные ложные идеи, но в наши дни она по большей части нацелена на иное. Суть «стратегии пожарного шланга» заключается в том, чтобы дезориентировать общественность и чтобы люди в принципе отчаялись, пытаясь отделить ложь от правды. Социальные медиа позволяют легко транслировать впечатляющие объемы дезинформации с большой частотой и через множество каналов связи. Мощный поток дезинформации льется, как из пожарного шланга. Еще одна ее часть – избегать последовательности. Вместо того чтобы дотошно излагать одну непротиворечивую версию событий, пропаганда стремится сбивать читателей с толку большим количеством взаимно противоречащих историй. В 2016 году шахматный гроссмейстер Гарри Каспаров[33]33
Гарри Каспаров (р. 1963) – 13-й чемпион мира по шахматам, политический деятель и публицист, глава Совета Фонда защиты прав человека. Прим. ред.
[Закрыть] описал этот подход у себя в Twitter: «Цель современной пропаганды заключается не только в том, чтобы сбить вас с толку или убедить в какой-либо идее. Она состоит в том, чтобы истощить ваше критическое мышление, уничтожить правду».
Тем временем многие авторитарные правительства признали социальные медиа. Изначально они опасались этого источника информации и стремились ограничивать его использование, но в последнее время они обнаружили, что социальные медиа представляют собой идеальную платформу для отслеживания инакомыслия и настроений в обществе и подспудной манипуляции общественным мнением.
Тем не менее фейковые новости в первую очередь не пропагандистский инструмент. Большинство фейковых и сверхпристрастных новостей создаются по иной причине: чтобы создать рекламный доход. Этим может заниматься кто угодно и где угодно. В конце избирательной кампании 2016 года Барак Обама не раз упоминал о фабриках дезинформации в Македонии. Управляющие ими люди, часто подростки, за время выборов создали как минимум 140 популярных сайтов с фейковыми новостями. Когда история становилась вирусной, она приносила владельцам интернет-ресурсов солидный доход от рекламы. Некоторые из них зарабатывали по 5000 долларов в месяц – сравните эту сумму со средним заработком в Македонии (371 доллар). Подростков, которые сочиняли всякую чушь, не интересовало, кто выиграет – Трамп или Клинтон. Их волновали только клики. Самой популярной фейковой новостью за всю кампанию стала следующая: «Папа Франциск шокировал мир, поддержав Дональда Трампа в борьбе за пост президента». Историю придумала группа подростков в Македонии, ее опубликовал сайт WT05 News, и она получила на Facebook◆ почти миллионный охват. Для сравнения: самая популярная статья The New York Times в тот же период имела охват в 370 тысяч.
Папа Франциск был не в восторге от этой байки. Он сделал заявление о непристойной журналистике в целом и о фейковых новостях в частности: «Я считаю, что СМИ должны писать ясно, прозрачно и не погрязать – без обид – в копрофилии, вечно роясь в скандалах и выискивая грязные подробности, даже если они существуют… Поскольку у людей есть тяга к копрофагии, вред может быть огромным».
Любители фейковых новостей, обратите внимание. Если папа римский лично указал на то, что вы потребляете фекалии, возможно, вам стоит пересмотреть жизненные принципы.
НОВЫЕ ФАЛЬШИВОМОНЕТЧИКИ
Стоило появиться деньгам, как правительствам пришлось иметь дело с фальшивомонетчиками. Монеты из ценного металла начали использовать в Средиземноморье в VI веке до нашей эры[34]34
Одни из древнейших монет стали чеканить в малоазийском государстве Лидии примерно в VII веке до н. э. Прим. науч. ред.
[Закрыть], и вскоре мошенники стали создавать копии из дешевых металлов, покрытых сверху золотом или серебром. С тех пор преступники не останавливаются. При достаточно мощном притоке фальшивых денег можно подорвать доверие к государственной валюте, обесценить ее и привести к росту инфляции. Поэтому фальшивомонетчики зачастую процветали во время войн. В качестве примеров можно привести британцев в годы американской Войны за независимость, Союз во время Гражданской войны в США, нацистов в ходе Второй мировой войны.
В мире интернета правительствам приходится беспокоиться о новом виде подделок – не денег, а людей. Исследователи установили, что около половины трафика в интернете создают не настоящие пользователи, а боты – компьютерные программы, разработанные для их имитации. Проблема эта невероятно серьезна. К 2018 году в Facebook◆ было около двух миллиардов реальных пользователей, но в том же году с платформы удалили еще больше фейковых аккаунтов – почти три миллиарда. Некоторые боты выступают в роли создателей информации, публикуют свои сообщения – обычно ради рекламы, но иногда и с пропагандистскими целями. Другие изображают потребителей информации. «Фермы кликов» используют обширные базы номеров мобильных телефонов, чтобы за деньги накручивать просмотры страниц или видео на YouTube.
Чтобы представительная демократия существовала, избиратели должны делиться своими взглядами с избранными представителями. Возможность подделывать людей угрожает заменить реальные голоса фейковыми. В середине 2017 года Федеральная комиссия по связи (FCC) собирала мнения общественности по поводу идеи отменить сетевой нейтралитет – гарантию того, чтобы провайдеры в интернете относились ко всей информации, которую они передают, одинаково, независимо от источника или содержания. В ответ на комиссию хлынул вал (более 21,7 миллиона) отзывов граждан, но большая часть из них оказалась мусором. Более половины пришло с одноразовых или распространяющих спам адресов электронной почты. Характерная примета активности ботов – одновременная передача большого числа сообщений. В 02:57 19 июля 2017 года в одну секунду было получено полмиллиона одинаковых комментариев. Один бот отправил более миллиона возражений против сетевого нейтралитета, имевших одинаковую структуру, примерно как в игре в «Чепуху». Чтобы составлять отличающиеся с виду тексты, использовались словари синонимов. Половина комментариев по поводу сетевого нейтралитета пришла с российских адресов электронной почты. Генеральный прокурор Нью-Йорка установил, что около 10 миллионов комментариев прислали, пользуясь похищенной личной информацией людей, которые понятия не имели, что их имена используют. В итоге большинство мнений, поступивших в комиссию, были против сетевого нейтралитета. Но есть основания подозревать, что мнение общественности скорее склоняется в иную сторону.
Самые влиятельные фейковые аккаунты ведут не боты, а реальные люди, притворяющиеся кем-то еще. Простая американская девчонка Дженна Абрамс была сетевой знаменитостью и занималась тем, что комментировала явления популярной культуры, но она делилась со своей аудиторией из 70 тысяч подписчиков Twitter и провокационными правыми взглядами. Проблема в том, что Дженны не существует. Ее создала российская пропагандистская контора, известная как Агентство интернет-исследований[35]35
Документов, подтверждающих связь аккаунта @Jenn_Abrams с российскими властями, в заметке The Daily Beast нет. Прим. ред.
[Закрыть]. Но аккаунт оказался очень продуктивным. Твиты с него широко расходились, их цитировали ведущие новостные издания, включая The New York Times и The Washington Post. Дженна смогла убедить журнал Variety разместить фейковую новость о том, что CNN транслирует порнографию. После того как ее разоблачили, она в ответ высмеяла процитировавшие ее медиа: «Не вините СМИ за то, что они включают мои цитаты в свои статьи. Если вы потянете за нужные веревочки, кукла будет плясать, как вы захотите».
До сих пор создание фальшивых персон в интернете было рискованным делом, потому что в мире социальных медиа мы хотим видеть лица людей, которых читаем. Аккаунт без фотографии может принадлежать кому угодно. Специалист по компьютерной безопасности, публикующийся на профессиональном форуме, может быть ребенком и писать из комнаты мамы. Четырнадцатилетняя девочка в чате, возможно, коп под прикрытием. Ну а наследница нефтяного барона, приславшая вам письмо, – уж точно мошенник. Но, видя лицо, мы становимся менее подозрительными. Фейковые аккаунты иногда используют стоковые или сворованные в интернете фотографии, однако продвинутым пользователям легко их вычислить, используя такие инструменты, как поиск Google по фото.
Увы, теперь всё не так просто. Новый класс алгоритмов под общим названием «состязательное машинное обучение» способен создавать реалистичные портреты несуществующих людей с нуля. Фальшивые лица изумительно хороши. Для технологии настал опасный период. Она широко доступна, но мало кто в курсе, что она уже используется. Чтобы повысить бдительность пользователей, мы создали сайт под названием WhichFaceIsReal.com. На нем фотографии реальных людей сопоставляются со сгенерированными компьютером портретами тех, кого никогда не существовало. Ваша цель – угадать, кто есть кто. Более миллиона человек сыграли в эту игру, и результаты показали, насколько качественны фальшивки. Вначале люди угадывают немногим чаще, чем если бы выбирали наугад, и, даже попрактиковавшись, все равно обманываются один раз из пяти.
Сходные алгоритмы машинного обучения – настоящие фабрики по изготовлению фальшивых аудио и видео, почти неотличимых от реальных. Синтезируя аудио из старых записей и накладывая записи мимики людей, работающих моделями, на лица своих жертв, можно создать так называемый дипфейк[36]36
Дипфейк (англ. deepfake) – синтез фраз «глубинное обучение» (англ. deep learning) и «подделка» (англ. fake), методика синтеза изображения, основанная на искусственном интеллекте, используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. Прим. ред.
[Закрыть] – видео, на котором кто угодно говорит или делает что угодно.
Режиссер и комедиант Джордан Пил создал публичное обращение по поводу фейковых новостей, используя эту технологию. В своем видео он изображает президента Обаму, обращаясь к американскому народу по поводу фейковых новостей, дезинформации и нехватки надежных новостных источников. На середине ролика лицо Джордана Пила возникает рядом с Обамой, комик произносит те же слова, что и президент, и становится понятно, кто был моделью для движений и мимики фальшивого президента. В финале Обама произносит слова Пила собственным голосом, говоря, что то, «как мы будем жить дальше в век информации, зависит от того, выживем мы или превратимся в какую-то чокнутую антиутопию».
Столкнувшись со всеми этими технологиями имитации реальности, можно отчаяться узнать правду о чем-либо. Но мы не такие пессимисты. Наше общество приспособилось к анонимности, подаренной интернетом, в котором «никто не знает, что ты кот». Точно так же мы приспособились и к миру Photoshop, в котором фотографии лгут. Как? Мы используем триангуляцию. Мы больше не доверяем одному сообщению, одному изображению, одному заявлению. Мы ищем несколько снимков, сделанных с разных точек. Мы ищем независимых свидетелей, которые могут подтвердить показания. Аналогичным образом общество приспособится и к миру дипфейков, и к будущим технологиям искажения реальности.
Существует три базовых подхода к защите от дезинформации и недостоверной информации в интернете.
Первый – технологический. Технологические компании должны быть способны использовать машинное обучение, чтобы вычислять дезинформацию и недостоверную информацию. Это многообещающая, прогрессивная отрасль исследований, но мы не склонны к излишнему оптимизму. Технологические компании пытаются продвинуться в этой сфере годами, и не похоже, чтобы проблема отступила. Microsoft, Facebook◆ и другие недавно стали выпускать большие базы данных для ученых и исследователей, работающих над этой задачей. Судя по всему, они поняли, что без помощи не обойтись. И с точки зрения экономики очевидно, что интернет-компании вряд ли мотивированы. В конце концов, экстремальный контент очень эффективен для привлечения и удержания пользователей на платформе. С точки зрения технологий те же методы, с помощью которых удастся вычислять фейковые новости, можно будет приспособить и для того, чтобы избежать разоблачения, что приведет к гонке вооружений в сфере фейков, которую разоблачители вряд ли выиграют.
Второй подход – государственное регулирование. Некоторые страны уже выпустили законы против создания или распространения фейковых новостей. Но нас, по двум причинам, этот подход тревожит. Во-первых, он противоречит Первой поправке к Конституции США, которая гарантирует свободу слова. Во-вторых, кто будет решать, какие новости считать лживыми? Если политическому лидеру не понравится публикация, он может объявить ее фейком и грозить авторам уголовной ответственностью. Такое уже случалось в некоторых уголках планеты. Менее суровый правовой подход может и помочь. Мы давно выступаем за запрет таргетированной политической рекламы, и нас радует, что Twitter самостоятельно наложил на нее мораторий. Мы бы хотели, чтобы пользователи сами контролировали информацию, которая попадает в их ленты, и не были вынуждены полагаться на безнадежно запутанный алгоритм. Причиной принятия в США «Доктрины справедливости» была необходимость поддержки демократии. Чтобы демократия могла функционировать, стране нужно образованное население с доступом к надежной информации. Государственное регулирование социальных медиа можно обосновать сходным образом.
Третий и самый мощный способ защиты – это образование. Если мы сумеем научить людей медиаграмотности и критическому мышлению, проблема дезинформации и недостоверной информации будет сведена к нулю. В этом и заключается цель нашей книги и большей части нашей работы.
Каждое поколение оглядывается назад с ностальгией, вспоминая более простые и честные времена. Возможно, наши причины тосковать о прошлом более обоснованны. Интернет принес глобальные перемены в области создания, сортировки, исследования, распространения и потребления информации. И эта демократизация далась нам дорого. Чушь куда легче распространяется в тесно связанных, зависящих от кликов социальных медиа, чем в любой другой среде прошлого. Будем готовы столкнуться с чушью в любом тексте, который мы читаем.
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?