Электронная библиотека » Алия Сарманова » » онлайн чтение - страница 14


  • Текст добавлен: 2 декабря 2024, 08:21


Автор книги: Алия Сарманова


Жанр: Здоровье, Дом и Семья


Возрастные ограничения: +16

сообщить о неприемлемом содержимом

Текущая страница: 14 (всего у книги 43 страниц)

Шрифт:
- 100% +
2.2 Можно ли верить сказанному

Сравните два отрывка из первой статьи.

«Исследования научных сотрудников Университета Буффало, проведенные на протяжении последних лет, показали: апельсиновый сок на завтрак насыщает организм массой полезных витаминов и нормализует уровень сахара в крови. Исследуемая группа имела возраст 20–40 лет».

«Но существует строгое правило: свежевыжатый фреш нельзя пить на голодный желудок. Сок раздражает слизистую и при регулярном употреблении натощак может привести к гастриту».

В первом отрывке упоминается научное исследование, хотя прямой ссылки на первоисточник автор не приводит. Во втором отрывке источник информации не упоминается вовсе. Если не заметили – перечитайте еще раз. И помните: мы даже не знаем, кто автор статьи и можно ли ему доверять.

Чтобы убедить читателей, что новость не придумана из головы, а взята из авторитетного источника, каждый факт или аргумент должен подтверждаться ссылками на первоисточник, где факт упоминался впервые.

Когда мы говорим о здоровье и медицине, первоисточником может быть научная статья, интервью и комментарии экспертов, клинические рекомендации для врачей, законы и официальные постановления. Бывает, в статье вы видите фразы: «Как сообщает…», «По данным…», «…указано в сообщении…», – хорошо, если после них следует ссылка на первоисточник в виде гиперссылки или текстовой сноски, а в конце статьи или в примечаниях можете найти детали.

Например, как в этой книге ссылки на источники информации помечены цифрами в квадратных скобках, перейдя по которым в конец книги можно найти информацию о первоисточнике.

Иногда ссылки ведут не на конкретную новость от первоисточника, а просто на сайт онлайн-журнала, форум или страницу в соцсети. В них тоже стоит заглянуть – возможно, там есть ссылка на первоисточник или авторская интерпретация новости, которая может быть далека от оригинала.

Чтобы понять, как может отличаться информация в первоисточнике от последующих упоминаний, сравните три примера ниже (все примеры выдуманные).

Как выглядит новость в первоисточнике:

«Частое употребление рыбы связано с 50 %-ным снижением относительного риска смерти от сердечного приступа».

Пересказ новости в источнике № 2:

«Женщины, которые ели рыбу пять раз в неделю, в два раза реже умирали от сердечного приступа».

Интерпретация новости № 3:

«Ешьте рыбу – она спасает от инфаркта!»

В чем разница между первым и третьим сообщением?

Первое говорит вам о том, что увидели ученые, а третье – призыв к действию, о котором даже не говорилось в первом источнике. Сообщение стало проще и короче, но при этом произошла непреднамеренная подмена смысла. Действительно ли из-за потребления рыбы снизился риск сердечных приступов или дело в другом? И уменьшится ли риск, если начнете есть рыбу прямо сейчас? Неизвестно. Поэтому к любым пересказам и интерпретациям нужно относиться внимательно и по возможности находить, что говорилось в оригинале. Корректной альтернативой могло бы быть: «У людей, которые ели больше рыбы, было меньше сердечных приступов. Однако, чтобы связать это наблюдение с потреблением рыбы, а не с каким‐либо другим фактором в их жизни, требуются дальнейшие исследования». Но для СМИ это ужасно длинно и скучно, не так ли?

Ссылки на первоисточник – большая редкость в коротких видео в соцсетях. Как раз сегодня мне прислали одно видео с секретами здоровья без лекарств, о которых «ни один врач вам не расскажет», – что курица и морковь для иммунитета, хлеб с сыром для здоровых костей, а яйца с помидорами для молодости. Короткие видео – отличная идея в простой и развлекательной форме донести сообщение, но в таком формате бывает сложно найти имя автора ролика, особенно если ролик пересылается через другие аккаунты или скачивается и пересылается в мессенджерах. Приводимая информация не объясняется, а просто дается веселым списком, и, значит, ее нужно проверить, прежде чем применять на себе.

Важно также обращать внимание на дату публикации. В медицине с появлением новых данных взгляды и подходы к диагностике и лечению меняются, улучшаются и эволюционируют. Поэтому надежные сайты регулярно обновляют информацию и обязательно подмечают это в сносках. А если статья написана больше 3–5 лет назад, стоит поискать более свежую.

2.3 Кто распространяет некорректную информацию

В 2015 году вспышка инфекции, вызванной вирусом Зика, заставила поволноваться весь мир. Первые случаи были зарегистрированы в Бразилии, и в течение нескольких месяцев инфекция распространилась в 20 странах, включая США, страны Южной Америки, Африки, Азии и островов Тихого океана. Отсутствие лечения, высокие риски (инфекция у беременных может вызвать врожденные дефекты у плода) и быстрое распространение через укусы москитов и половые контакты вызвало панику и волну некорректной информации.

Годом позже ученые решили изучить посты и видео из соцсетей, которые распространялись в тот период [53]. Бо́льшая часть контента (81 %) была полезна и соответствовала официальной информации, но именно посты и видео с некорректной информацией получили больше реакций: лайков, комментариев и репостов. Например, пресс-релиз от ВОЗ набрал 43 000 просмотров и 964 репоста. Много, но совершенно несравнимо с реакциями на вводящее в заблуждение видео под названием «10 причин, почему вирус Зика – это мошеннический медицинский обман»: 530 000 просмотров и более 19 600 репостов! Без каких бы то ни было доказательств и ссылок на достоверные источники, зато с применением работающей стратегии убеждения, что вирус Зика – это еще одна теория заговора правительств и фармацевтической промышленности, такого же, как с вакцинами.

Другое исследование показало, что люди делились некорректной информацией о вирусе Зика в три раза чаще, чем проверенными постами, – а половина топ‐10 постов по этой теме были некорректными [54]. Еще одно исследование 126 000 постов со слухами о вирусе Зика в Twitter подтвердило: фальшивая информация распространялась быстрее, имела бо́льшие охваты и бо́льшую вовлеченность аудитории, чем правда [55]. В исследовании о связи альтернативной медицины и прогрессированием рака, о котором мы говорили в начале главы, посты с некорректной информацией тоже получили гораздо больше внимания читателей в виде лайков, комментариев и репостов, чем статьи с правдивой информацией [56].

Разные люди с разными целями могут распространять неправду и полуправду в интернете и медиа: квалифицированные врачи и ученые, поддерживающие антинаучные теории; журналисты в поисках взрывающих общественное мнение статей; блогеры в погоне за вирусным контентом; политики, лоббирующие чьи‐то интересы; продавцы и поставщики альтернативной медицины, БАДов и витаминов; и эксперты, получающие процент с этих продаж. Причем денежная заинтересованность может быть не только от прямых продаж: многие лидеры конспиративных теорий получают огромные деньги от продаж книг, лекций и своих услуг.

В распространении некорректной информации принимаем участие и мы с вами – обычные люди, осознанно или нет распространяющие разную информацию в соцсетях, желая поделиться чем‐то, на наш взгляд, интересным [52]. Любимые средства коммуникации: соцсети, WhatsApp и другие мессенджеры – к сожалению, оказались очень уязвимыми в плане распространения мифов. Например, люди делятся некачественной информацией с другими и пишут комментарии, если она вызывает сильные эмоции: страх, отвращение, удивление или восторг [56, 57]. Эмоции, которые сопровождают наши сообщения в соцсетях, неизбежно передаются тем, кто эти сообщения читает, и влияют на их мышление. Ученые называют данный феномен эмоциональным заражением. Если человек, на которого вы подписаны и которого регулярно читаете, фокусируется только на негативных аспектах заболевания или если в группе худеющих все только и жалуются на то, как сложно худеть, это скажется и на вашем отношении к проблеме. Эмоции перенаправляют наше внимание на те или иные аспекты ситуации.

Чтобы противостоять убеждению со стороны, нужно постараться отделять эмоции от фактов и смещать фокус внимания с того, что автор сообщения старается выделить и усилить, на то, что действительно значимо.

Другая причина, почему некорректная информация так легко завладевает нашим вниманием в соцсетях, – мы заходим в соцсети для развлечения, и скучные видео с научными фактами редко привлекают внимание. Хочется что‐то попроще, покороче и поинтереснее. Так, в одном исследовании видеороликов о раке простаты на YouTube ученые четко проследили эту закономерность – чем ниже качество информации, тем выше вовлеченность зрителей [58].

Согласно Докладу Reuters Digital News в 2019 году [59], 14 % взрослого населения в Великобритании, 39 % в Аргентине, 53 % в Бразилии, 50 % в Малайзии, 49 % в Южно-Африканской республике используют WhatsApp в качестве источника новостей, где они не только узнают последние новости, но и могут их обсуждать и делиться ими. Во-первых, в таких сообщениях мы вообще редко видим какие‐то весомые аргументы или ссылки на первоисточники. Во-вторых, нахождение в группе других людей, реальных или виртуальных, сказывается на нашей способности принимать объективные и взвешенные решения и увеличивается вероятность поддаться предвзятости подтверждения. Группа людей – это всегда нечто большее, чем простая сумма составляющих его участников.

«Наша склонность зависеть от других умов лишь усугубляет негативный эффект некорректной информации в соцсетях», – считают Стивен Сломан, профессор Университета Брауна, и Филип Фернбах, профессор Университета Колорадо, авторы книги «Иллюзия знания: почему мы никогда не думаем в одиночку» [61]. Например, если наше мнение по поводу того, нужно ли идти на скрининг или нет, не имеет под собой четких и весомых аргументов, его можно считать безосновательным. Если мы сможем убедить в этом нашего соседа или друга, оно продолжает быть безосновательным, но вдвоем мы гораздо более уверены в нашей точке зрения. Так и в интернете: единомышленники часто объединяются в группы и сообщества, которые укрепляют их уверенность в правоте. Даже если они заблуждаются. А еще в закрытой группе людей с определенным мнением слухи начинают казаться общепринятой истиной, и складывается «иллюзия большинства» [60].

Да, мы склонны верить информации, которую слышим снова и снова. Результаты одного исследования, проведенного в США, показали: в регионах, где сообщения в соцсетях чаще упоминали вакцинацию от гриппа в положительном контексте, больше людей приходило вакцинироваться. Тогда как в регионах с множеством негативных сообщений уровень вакцинации был гораздо ниже. Это то, что психологи называют «эффектом иллюзорной правды» [52], когда мы считаем правдой то, с чем чаще встречаемся или что чаще слышим. Если прибавить к этому алгоритмы соцсетей, которые дают нам то, на что мы обращаем внимание, и информационный пузырь, получится, мы все больше и больше убеждаемся в том, что уже знали, даже если это ошибочно.

2.4 Модерация соцсетей

А почему бы соцсетям не проверять посты и не удалять те, которые не прошли фактчекинг, наподобие того, как Google делает рейтинг страниц в поиске?

Во многих соцсетях посты проходят обязательную проверку, или модерацию. В первую очередь удаляется контент, который может быть социально опасным, например призывы к терроризму и насилию. Отдельные посты тоже анализируются по ключевым словам и некоторые проверяются фактчекерами компании или независимыми организациями. Результаты такой модерации, я думаю, многие из вас заметили в период пандемии COVID‐19, когда посты с любой информацией о вирусе отображались со ссылкой на наиболее актуальные новости на сайте Всемирной организации здравоохранения. Некоторые посты имеют отметку с результатами фактчекинга, а наиболее сомнительные становятся малозаметными и реже появляются в новостной ленте.

Таким образом, соцсети тоже предпринимают шаги в борьбе с некорректной информацией в интернете. Однако часто этого недостаточно. Ведь, кроме упоминания самих фактов, важно то, как эти факты интерпретируются и используются с целью убеждения или манипуляции общественным мнением.

Взять, к примеру, конфликт между «Британским медицинским журналом» (The BMJ) и компанией Meta/Facebook [1]1
  Запрещенные в РФ компания и соц. сеть.


[Закрыть]
, который произошел в ноябре 2021 года.

«Британский медицинский журнал» – один из самых старых и авторитетных журналов по медицине в мире. Каждый месяц сайт журнала посещают 2 700 000 врачей и медицинских работников, его статьи читают, делятся ими и применяют в клинической практике. Помимо научных статей «Британский медицинский журнал» также публикует собственные журналистские расследования, экспертные мнения и комментарии. Одно такое расследование под названием «Covid‐19: ученый предупредил о проблемах с целостностью данных в исследовании вакцины Pfizer» раскрывало подробности серьезных нарушений, зарегистрированных во время тестирования вакцины одной из контрактных организаций, сотрудничавшей с Pfizer [31].

«Компания фальсифицировала данные, расслепляла пациентов (сообщала участникам исследования, получили они реальную вакцину или плацебо. – Примеч. ред.), использовала недостаточно обученных вакцинаторов и медленно отслеживала нежелательные явления, о которых сообщалось во время основного исследования 3‐й фазы», – сообщает РИА Новости [32].

Звучит ужасающе, особенно тогда, в период всеобщей паники и недоверия к вакцинам, которые разработали в рекордно короткие сроки. И это действительно было правдой, но только частично. Нарушения в проводимых испытаниях были обнаружены только в трех из 153 центров по исследованию вакцин. Как только появилась эта информация, FDA организовало надлежащую проверку, и других нарушений выявлено не было. Так же как и не было оснований сомневаться в эффективности и безопасности вакцины. Но об этом статья в «Британском медицинском журнале» умалчивала. Поэтому неудивительно, что новость тут же подхватили как противники прививок, так и те, кто сомневался в необходимости вакцинации, и начали использовать как доказательство опасности вакцин от коронавируса [33].

Статья тут же по заказу Facebook [2]2
  Запрещенная в РФ соцсеть.


[Закрыть]
была проверена фактчекерами из Lead Stories:

«Выявил ли новостной блог Британской медицинской ассоциации недостатки, которые дискредитируют результаты испытаний вакцины Pfizer против COVID‐19, проведенных подрядчиком, и были ли проблемы проигнорированы Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов и компанией Pfizer? Нет, это неправда: Pfizer и FDA были проинформированы об обвинениях в отношении подрядчика в 2020 году. Медицинские эксперты говорят, что претензии недостаточно серьезны, чтобы дискредитировать данные клинических испытаний, о чем также говорят Pfizer и FDA. Заключение FDA неизменно: преимущества вакцины Pfizer намного перевешивают редкие побочные эффекты, а данные клинических испытаний надежны».

То есть факт нарушения действительно был. Но использовать его в качестве доказательства небезопасности или отсутствия эффективности вакцины было неправильно. Пометка с заключением фактчекеров: «Отсутствие контекста. независимые фактчекеры предупреждают, что информация может ввести вас в заблуждение», – появилась во всех постах, упоминающих статью из BMJ или ссылающихся на нее.

Заключение было справедливым, однако многие остались недовольны этим заключением. Противники вакцинации требовали убрать пометки из их постов. Сторонники «Британского медицинского журнала» требовали, чтобы Facebook [3]3
  Запрещенная в РФ соцсеть.


[Закрыть]
вообще убрал из ленты все посты, ссылающиеся на эту статью. И то и другое было бы неправильным и даже незаконным во многих странах. Соцсети могут помочь нам распознать некорректную информацию или ту, которая может потенциально использоваться, чтобы ввести нас в заблуждение, но не вправе устанавливать полную цензуру. Иначе в наших новостных лентах останутся только посты ВОЗ и Министерства здравоохранения. Не думаю, что нам это понравится. Поэтому окончательное решение, верить ли информации в интернете и как ее применять, остается на пользователях, то есть на нас с вами.

2.5 Слона‐то я и не приметил

Наше внимание ограничено и в чем‐то очень напоминает фонарик, который освещает лишь небольшую часть пространства. Даже если вы можете делать несколько дел одновременно, ваш мозг способен по-настоящему удерживать внимание только на нескольких предметах, и если одно из заданий поглощает все наше внимание, мы пропускаем очевидные вещи. Поэтому мы не обращаем внимания на время, когда заглядываем в телефон, а потом минуту спустя смотрим снова, чтобы узнать, который час. Мы пропускаем назначенную встречу, когда у нас горит проект. Забываем задать врачу вопросы, с которыми пришли, поскольку увлеклись разговором. Увидев в соцсетях что‐то веселое и увлекательное, не задумываемся, стоит ли нам вообще делиться этой информацией.

Так проявляется слепота невнимания – когда мы фокусируемся на приоритетной задаче настолько, что обрабатывать второстепенные факторы становится сложно – так называемый эффект невидимой гориллы в честь одноименного эксперимента, проведенного Дэниелом Симонсом из Университета Иллинойса и Кристофером Шабри из Гарварда. В этом эксперименте добровольцев попросили посмотреть видеозапись баскетбольного матча и посчитать количество передач, которое сделают игроки одной из команд (этот видеоролик доступен на YouTube, вы тоже можете проверить себя). Примерно в середине ролика в кадре появляется женщина в костюме гориллы, которая пересекает площадку, стучит себя по груди и уходит. Она находится в кадре в течение 9 секунд. Половина людей этого не заметили и даже не могли поверить в то, что пропустили подобное событие, пока не посмотрели ролик повторно. Мало того что мы можем быть слепы к очевидному, так еще и не замечаем собственной слепоты.

Однако у ограниченного внимания есть и свои плюсы: избирательно направляя внимание на то, что для нас важно, мы можем направить туда свои мысли и действия. Сейчас стало очень популярно ставить цели и давать себе обещания на Новый год. Один из механизмов того, как это может нам помочь, как раз заключается в том, что, имея перед собой цель, мозг осознанно и неосознанно начинает отбирать информацию и находить ресурсы для ее достижения.

В 2013 году в Гарварде провели похожий эксперимент, но уже с участием рентгенологов [63]. В течение 3‐х минут им нужно было просмотреть снимки компьютерной томографии легких 5 пациентов на наличие легочных узелков. На последний из 5 снимков поместили четко очерченное изображение гориллы, которое было в 48 раз больше, чем среднее подозрительное новообразование в легких (примерно 153 мм3). Когда после испытания у рентгенологов спросили «Отличалось ли чем‐то заключительное испытание от других?», «Заметили ли вы что‐нибудь необычное в последнем испытании?» и, наконец, «Вы видели гориллу на последнем снимке?» – 20 из 24 рентгенологов ответили отрицательно. После чего им снова показали снимок, и все заметили там гориллу. Вероятно, врачи сфокусировали свое внимание на поиске признаков заболевания в условиях ограниченного времени. Как думаете, если бы ученые задали вопрос иначе – не просто оценить снимок, а найти что‐то конкретное, могло бы это изменить результаты эксперимента?


Рисунок 3. КТ-изображение грудной клетки, на котором находится горилла [63]


Чтобы это узнать, ученые из Университета Юты попросили 50 рентгенологов взглянуть на результаты компьютерной томографии грудного отдела и оценить, есть ли у пациентки признаки рака легких или нет [64]. Только вместо изображения гориллы на одном из предложенных снимков была 9‐сантиметровая опухоль молочной железы и увеличенные лимфоузлы. Возможно, в первом эксперименте мозг рентгенологов совершенно игнорировал изображение гориллы на рентген-снимке, потому что это не имело отношения к здоровью пациента. Гораздо сложнее врачу пропустить важную диагностическую информацию на снимке, даже если он фокусирует внимание на другом органе. Например, когда на снимке, снятом по подозрению на перелом кости, могут обнаружить признаки опухоли. Такие случаи называют диагностическими находками, и они встречаются в клинической практике довольно часто – на каждом четвертом снимке.

Как и ожидалось, в этом эксперименте две трети докторов пропустили новообразование в груди и треть докторов пропустили увеличенные лимфоузлы. Причем ошибались и молодые, и опытные врачи, которые специализируются на компьютерной томографии грудного отдела и в среднем оценивают по 40 снимков в неделю.

Тогда ученые решили изменить вопрос и просто попросили взглянуть на снимки и сказать, что не так с пациентом. Результаты были поразительны: только 3 % пропустили образование в груди и 10 % – увеличенные лимфоузлы. То есть врачам было легче обнаружить дополнительные изменения, когда внимание направляется более широко.

Какой из этого можно сделать вывод?

Мы хорошо замечаем то, на что направлено внимание. Если вы натренируете свое внимание и мышление на выявление информации, не подкрепленной ссылками и доказательствами, на выборочное цитирование и перемешивание правдивых и ложных, подтвержденных и неподтвержденных аргументов, на эмоциональную составляющую истории – вы станете замечать некорректную и ложную информацию вокруг: в соцсетях, новостях и, конечно, в рекламе. А чтобы не пропустить другие объекты, как в эксперименте с рентгенологами, которые, сконцентрировав внимание на поиске рака легких, пропускали опухоль груди, также важно научиться смещать внимание от частного к общему и наоборот.

Это еще раз подтвердило недавнее исследование, в котором 853 участникам показали 30 постов в соцсетях, половина из которых содержала правдивую информацию, половина – некорректную или фальшивую [62]. Участников разделили на две группы. Одних попросили поразмышлять над тем, насколько они верят информации в постах, других – насколько вероятно они бы поделились этой информацией. Помните, в 1-й главе мы говорили о системе быстрого и медленного мышления? Так вот, способность критически оценивать информацию согласно тесту когнитивной рефлексии была обратно пропорциональна вере в ложные заголовки и частоте распространения как ложных, так и правдивых постов, то есть участники могли успешно отделить правдивые посты от ложных и реже делились постами с другими. Когда мы концентрируемся на каком‐либо задании, включается система медленного мышления, которая лучше анализирует, обдумывает и взвешивает информацию. Во второй же группе сработала система быстрого мышления, и 32,4 % участников были готовы поделиться ложной информацией, даже не задумываясь, правда это или нет.

Давайте посмотрим, как проверяют информацию профессиональные фактчекеры.


Страницы книги >> Предыдущая | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 | Следующая
  • 0 Оценок: 0

Правообладателям!

Это произведение, предположительно, находится в статусе 'public domain'. Если это не так и размещение материала нарушает чьи-либо права, то сообщите нам об этом.


Популярные книги за неделю


Рекомендации