Автор книги: Елена Ларина
Жанр: Публицистика: прочее, Публицистика
Возрастные ограничения: +16
сообщить о неприемлемом содержимом
Текущая страница: 44 (всего у книги 46 страниц)
Бумажный экземпляр вашей любимой газеты не знает, какие новости вы предпочитаете читать, но ваш планшет или компьютер знает. Реклама, которую вы видели в газете, не знает, что вы пошли в магазин, чтобы купить то, что рекламировалось, но ваш смартфон знает. Передовая статья, которую вы читаете, не знает, что вы с энтузиазмом поделились ею с некоторыми из ваших ближайших друзей, но ваша социальная сеть знает.
Приложения для социальных сетей отслеживают то, что нам нравится и во что мы верим; смартфоны отслеживают, куда мы идем и с кем проводим время; социальные сети отслеживают, с кем мы связаны, а кого исключаем. Платформы поиска и электронной коммерции используют эти данные отслеживания, чтобы претворять в жизнь наши предпочтения и убеждения, предлагая стимулы, побуждающие покупать вещи, которые мы иначе не купили бы.
Пока что общества потребителей видели и принимали выгоды. Планшет или компьютер предлагает нам новости, которые, как он знает, нам понравятся, потому что он хочет, чтобы мы были вовлечены. Отображаются рекламные объявления, которые соответствуют нашим вкусам, основанным на наших предыдущих покупках. Купоны появляются на нашем смартфоне, чтобы побудить нас остановиться в магазине, который по некоторому очевидному совпадению уже находится на нашем текущем маршруте. В социальных сетях представлены мнения, с которыми мы полностью согласны. Друзья в ближних кругах в социальных сетях также разделяют это мнение, поскольку те, кто этого не делает, тихо «не дружат» или уходят сами.
Короче говоря, мы все чаще оказываемся в удобных пузырях, из которых быстро исключаются неприятные или тревожные новости, мнения, предложения и лица – если они вообще появляются. Опасность состоит в том, что общество в целом может распасться на множество таких пузырей, каждый из которых будет блаженно отделен от других. И, поскольку они расходятся, каждый с большей вероятностью будет потревожен или шокирован всякий раз, когда они соприкоснутся. То, что когда-то было динамичным открытым обществом, становится совокупностью множества закрытых микросообществ, сожительствующих на одной и той же территории, подверженных расколам и беспорядкам.
Когнитивные способности также могут быть ослаблены социальными сетями и интеллектуальными устройствами. Использование социальных сетей может усилить когнитивные предубеждения и врожденные ошибки принятия решений, описанные в книге «Думай медленно… Решай быстро» лауреата Нобелевской премии Дэниела Канемана.
Новостные ленты и поисковые системы, которые предоставляют результаты, соответствующие нашим предпочтениям, увеличивают предвзятость подтверждения. В результате мы интерпретируем новую информацию, чтобы подтвердить наши предвзятые мнения. Приложения для обмена сообщениями в социальных сетях быстро снабжают пользователей новой информацией, вызывая предвзятость новизны. В результате мы переоцениваем важность недавних событий над событиями прошлого. В социальных сетях мы имитируем и подтверждаем действия и убеждения других, чтобы соответствовать нашим социальным группам, которые становятся отголосками конформизма и группового мышления.
Быстрый темп обмена сообщениями и выпусками новостей, а также осознанная необходимость быстро реагировать на них побуждают «думать быстро» (рефлексивно и эмоционально) в отличие от «медленного мышления» (рационально и рассудительно). Даже авторитетные новостные агентства теперь публикуют эмоциональные заголовки, чтобы поощрять вирусное распространение своих новостных статей.
Люди тратят меньше времени на чтение своего контента, даже если они чаще делятся им. Системы обмена сообщениями в соцсетях оптимизированы под распространение коротких фрагментов, в которых часто упускается важный контекст и нюансы. Это может способствовать распространению как преднамеренно, так и непреднамеренно неверно истолкованной информации. Краткость сообщений в социальных сетях в сочетании с яркими визуальными образами может помешать читателям понять мотивы и ценности других.
Преимущество в когнитивной войне получает тот, кто ходит первым и выбирает время, место и средства наступления. Когнитивная война может вестись с использованием множества векторов и средств массовой информации. Открытость платформ социальных сетей позволяет злоумышленникам легко нацеливаться на отдельных лиц, избранные группы и сообщества, используя обмен сообщениями в социальных сетях, влияние в социальных сетях, выборочную публикацию документов, обмен видео и т. д.
Надлежащая защита требует, как минимум осознания того, что ведется кампания когнитивной войны. Прежде чем лица, принимающие решения, примут решение действовать, требуется способность наблюдать и ориентироваться. Технологические решения могут дать ответы на некоторые ключевые вопросы: идёт ли кампания? Кто ее ведет? Каковы могут быть ее цели? Наше исследование показывает, что существуют шаблоны таких кампаний, которые повторяются и могут быть классифицированы. Они могут даже выявлять «подписи», уникальные для конкретных субъектов, которые могут помочь их идентифицировать.
Особенно полезным технологическим решением может быть система мониторинга и оповещения о когнитивной войне. Такая система могла бы помочь выявлять кампании когнитивной войны по мере их возникновения и отслеживать их по мере развития. Она может включать в себя информационную панель, которая объединяет данные из широкого спектра социальных сетей и вещательных СМИ. Система будет отображать географические карты и карты социальных сетей, которые показывают развитие подозрительных кампаний в течение определенного времени.
Определяя как географические, так и виртуальные местоположения, в которых появляются сообщения и новостные статьи в социальных сетях, обсуждаемые темы, тональность и лингвистические идентификаторы, время выпуска релизов и другие факторы, панель управления может выявить связи и повторяющиеся закономерности. Можно было бы наблюдать связи между учетными записями в социальных сетях (например, репосты, комментарии, взаимодействия) и временем публикаций. Использование алгоритмов машинного обучения и распознавания образов может помочь быстро идентифицировать и классифицировать появляющиеся кампании без вмешательства человека.
Такая система позволила бы осуществлять мониторинг в реальном времени и своевременно предупреждать лиц. принимающих решения в НАТО и Североатлантическом союзе, помогая им формулировать соответствующие ответы на кампании по мере их появления и развития.
С первых дней существования Североатлантического союза НАТО играет важную роль в продвижении и повышении гражданской готовности среди его государств-членов. Статья 3 учредительного договора НАТО устанавливает принцип устойчивости, который требует от всех государств-членов Североатлантического союза «поддерживать и развивать свою индивидуальную и коллективную способность противостоять вооруженному нападению».
Некоторые ключевые задачи для НАТО в настоящее время заключаются в том, как лучше всего взять на себя ведущую роль в определении когнитивных атак, как помочь членам Североатлантического союза поддерживать осведомленность и как поддерживать более надежные инфраструктуры гражданской связи и системы просвещения общественности, чтобы повысить способность противостоять и отвечать на удары.
Противодействие дезинформации: повышение цифровой устойчивости Североатлантического союзаУниверситет Джона Хопкинса, Имперский колледж Лондона и Технологический институт Джорджии, 12 августа 2021 г.
Североатлантическому союзу нужна в целом эффективная стратегия противодействия растущей угрозе дезинформации. Инструменты искусственного интеллекта (ИИ) могут помочь выявлять и замедлять распространение ложного и вредоносного контента, поддерживая при этом ценности плюралистических и открытых обществ.
Ложная информация и вводящие в заблуждение рассказы были инструментами конфликтов и государственного управления с тех пор, как легендарный город Троя пал перед древними греками, а возможно и раньше. Сегодня у нас есть фальшивые новости, фальшивые профили в социальных сетях и сфабрикованные рассказы, созданные для введения в заблуждение – иногда как часть скоординированных кампаний когнитивной войны.
Социальные сети и Интернет привели к революции в дезинформации. Мы живем в мире недорогих цифровых инструментов и средств массовой информации с радикально расширенным охватом, масштабами и воздействием. Обеспокоенность заключается в том, что эти инструменты доступны не только государственным субъектам, но и негосударственным, частным лицам, а также всем, кто находится между ними.
Ложные сообщения и подстрекательские нарративы иногда попадают в заголовки газет, особенно на Западных Балканах и в некоторых странах-союзниках. Опасность заключается в ущербе, который они могут нанести вере граждан в институты демократического управления и ресурсы общественной информации и дискуссий. В последние годы мы стали свидетелями растущей политической поляризации, исторически низкого уровня доверия к правительственным институтам, а также все более частых случаев беспорядков и насилия, которым частично способствовала ложная информация.
Глобальные компании, работающие в социальных сетях, взяли на себя задачу уменьшить количество ложной информации на своих платформах. Большинство из них использует штатных сотрудников, проверяющих факты в целях отслеживания распространения ложной информации. Некоторые полагаются на сторонние инструменты проверки фактов или модерации. Несколько популярных платформ, включая Facebook, YouTube и Twitter, предоставляют своим пользователям возможность сообщать о других пользователях, подозреваемых в распространении ложной информации, сознательно или неосознанно. В попытке нивелировать ущерб, причиненный ложной информацией, подавляющее большинство платформ социальных сетей использовали массовое удаление контента, идентифицированного как вредный или вводящий в заблуждение.
В лучшем случае этого оказалось слишком мало и слишком поздно. В худшем случае это привело к обвинениям в цензуре и к удалению информации или мнений, которые впоследствии оказались достоверными или заслуживающими общественного обсуждения.
Только Facebook имеет около трех миллиардов активных пользователей в месяц, каждый из которых способен опубликовать в Интернете что-то провокационное. Twitter имеет более 350 миллионов активных пользователей, включая известных людей, популярных лидеров общественного мнения, а также умных и находчивых влиятельных лиц.
Текущий подход к борьбе с дезинформацией в основном основан на ручной проверке фактов, удалении контента и борьбе с ущербом, наносимым им. Хотя вмешательство человека может быть полезным в случаях, требующих тонкого понимания нюансов или учета культурных особенностей, оно плохо согласуется с большими объемами информации, создаваемыми каждый день. Маловероятно, что привлечение дополнительных сотрудников – это реальный вариант для упреждающего выявления ложного или вредоносного контента до того, как он получит шанс широко распространиться. Проверка фактов, проводимая людьми, сама по себе подвержена ошибкам, неверной интерпретации или предвзятости.
Ежемесячно миллиарды активных пользователей социальных сетей могут опубликовать в Интернете что-то провокационное. Это огромный объем информации для проверяющих факты вручную людей.
«Ложь летит, а истина хромает вслед за ней», – писал сатирик Джонатан Свифт в XVII веке. Недавнее исследование Массачусетского технологического института показало, что в Твиттере ложные новости с большей вероятностью станут вирусными, и за их повторное распространение понесут ответственность обычные пользователи, а не автоматизированные «боты». Люди также «ретвитят» эти ложные новости с чувством удивления и отвращения. Напротив, правдивые истории вызывают чувство печали, ожидания и доверия (и делятся ими гораздо реже).
Это порождает вопрос: следует ли нам сосредоточиться не на фактах, а на эмоциях? И можно ли обучить этому компьютеры?
Анализ настроений с использованием ИИ представляет собой совершенно другой подход к смягчению дезинформации путем обучения компьютеров распознаванию сообщений и публикаций, содержащих элементы удивления, отвращения и других эмоциональных предикторов. Они чаще связаны с ложной информацией и разжигают страсти пользователей социальных сетей.
Алгоритмы обработки естественного языка позволяют идентифицировать лингвистические индикаторы рассматриваемых эмоций. Они полностью избегают проверки фактов вручную, снижая предвзятость, а также увеличивая скорость обработки. Команда студентов Университета Джона Хопкинса создала многообещающий рабочий прототип, а их товарищи по команде из Технологического института Джорджии и Имперского колледжа Лондона разработали технико-экономические обоснования и возможные подходы к регулированию.
Но что делать после обнаружения очень вирусного (и, вероятно, ложного) сообщения или публикации? Аналогия с финансовыми рынками предлагает решение: автоматический выключатель, который временно приостанавливает или замедляет распространение эмоционально окрашенного контента.
Фондовые рынки избегают панических продаж, временно приостанавливая торговлю акциями, которые упали на определенный процентный порог. На Нью-Йоркской фондовой бирже продажа акций, которые падают в цене более чем на 7 %, сначала приостанавливается на 15 минут. Идея состоит в том, чтобы замедлить ход событий и позволить более холодным головам подумать. Последующее снижение цен может вызвать дополнительные приостановки торговли.
Эффект охлаждения от замедления может быть значительным. На сайте обмена сообщениями в социальных сетях сообщение, которое удваивается каждые 15 минут, может гипотетически достигнуть одного миллиона просмотров за пять часов и 16 миллионов просмотров за шесть часов. Но если его замедлить до удвоения каждые 30 минут, оно достигнет только одной тысячи просмотров за пять часов и четырех тысяч за шесть часов. Небольшие задержки в распространении вирусного контента приводят к огромным различиям в воздействии.
Такой механизм будет работать не за счет предотвращения распространения, а за счет замедления взаимодействия;
например, устанавливая периоды охлаждения между комментариями или предлагая пользователям подумать о возможных последствиях перед повторной отправкой сообщения. Механизм основан на центральном тезисе из книги лауреата Нобелевской премии Даниэля Канемана «Думай медленно… Решай быстро». Медленное мышление рационально и позволяет избежать эмоциональности быстрой реакции на неожиданные и шокирующие новости или события. Это могло бы уменьшить опасения по поводу цензуры или произвольных ограничений на свободное распространение идей. Сообщения и посты не удаляются, они остаются доступными для просмотра и обсуждения, только в более медленном темпе. Это упрощает работу того, кто выносит решение о «разрешенных высказываниях», и защищает свободы выражения мнений и публичного дискурса. Такой подход может быть реализован с помощью стимулов или регулирования на различных уровнях инфраструктуры связи: в самих компаниях-источниках, шлюзах-посредниках (или платформах промежуточного программного обеспечения), на уровне передачи сообщений (каналы связи) или даже на уровне устройства (смартфона или планшета).
Дезинформация – одна из нескольких цифровых угроз, с которыми сталкивается Североатлантический союз. Недавние информационные кампании и кибератаки показали, что даже технологически развитые государства-члены должны делать больше, чтобы подготовиться к текущим и будущим цифровым вызовам. Необходим больший прогресс в создании успешных механизмов устойчивости и нормативно-правовой базы.
Тем не менее, эти угрозы, похоже, возрастают с каждым днем, и у Североатлантического союза остается мало времени. Использование преимуществ существующих технологий и их инновационное применение должно сэкономить время и ресурсы. Минимально инвазивные концепции смягчения последствий, такие как замедление – но не окончательное удаление – потенциально вредных сообщений в социальных сетях, могут быть наиболее многообещающим первым шагом к борьбе с угрозой дезинформации. Тогда Альянс сможет в будущем уделять больше времени развитию дополнительных технологий и более комплексным подходам к регулированию.
Исторически стойкость и сила открытых и плюралистических обществ заключались в их способности новаторски адаптироваться к возникающим вызовам и обстоятельствам.
Основным механизмом для этого является свободный поток идей и информации, а также открытое общественное обсуждение и изучение вариантов, политик и планов. Любое решение по дезинформации должно защищать этот механизм, если мы хотим сохранить это преимущество.
Более того, принятие решений государствами-членами будет зависеть от признания их обществом в целом и вряд ли увенчается успехом, если внутренние группы будут считать себя маргинализированными или исключенными из общественного диалога.
НАТО могла бы попытаться содействовать принятию таких подходов, предоставив государствам-членам возможность определять свои собственные национальные стратегии цифровой безопасности. Это обеспечит правительствам государств-членов гибкость в реализации механизмов по своему усмотрению, соответствующую их местным уровням внедрения социальных сетей и общественным ожиданиям свободы слова.
Контур инноваций НАТО определен Четвёртой промышленной революцией. Он примерно одинаков во всех странах и организациях. Другое дело его наполнение и реализация в конкретных военных разработках. Здесь процесс взаимодополняющий. Иногда инновации встраиваются в военную технику, но, одновременно, сами инновации могут определять развитие вооружений.
Для России в условиях современной жесткой конфронтации с НАТО важно понимать, на что обращено главное внимание, какие принципы закладываются в развитие инноваций.
Полагаем, что представленные выше положения экспертов НАТО дают возможность прогнозировать конкретное приложение инноваций в развитие военных инструментов Альянса.
5.7. Хрупкий мир и политика сдерживания
НЕ так давно многие мировые научные центры перечисляли возможные очаги конфликтов в мире в 2022 году. Наиболее вероятным большинство считает военное столкновение на Украине. Другой возможный конфликт – между Китаем и США по поводу Тайваня. Называют также удар Израиля по Ирану.
К этому списку можно добавить еще несколько горячих и тлеющих точек.
Противостояние с участием крупных держав выглядит все более опасным. Более того, государства яростно соревнуются, даже если они не воюют напрямую. Они борются с кампаниями по дезинформации, вмешательством в выборы, экономическим принуждением и использованием мигрантов. Крупные и региональные державы соперничают за влияние, часто через местных союзников, в зонах боевых действий.
На фоне столь высокой напряженности в мире нельзя не упомянуть еще одно из полей противоборств – кибер-пространство. Уязвимости в кибербезопасности представляют собой постоянную угрозу. То, как государства воспринимают и интерпретируют риск и неопределенность в киберпространстве, сильно различается. Хотя перспективы неконтролируемой эскалации или опасения по поводу «кибер-Перл-Харбора» могут быть преувеличением, реальность по-прежнему заключается в том, что лица, принимающие решения на уровне государства, оценивающие условия и действия, предпринимаемые в киберпространстве, в настоящее время способствуют нестабильности и поощряют рискованное поведение.
В январе 2022 г. был опубликован отчет Исследовательской группы Конгресса США «Кибербезопасность: политика сдерживания», в котором рассматривается политика сдерживания, способы ее реализации и варианты для Конгресса. Автор доклада – Крис Джайкаран, аналитик в области кибербезопасности Исследовательской службы Конгресса США – отмечает, что многие директивные органы рассматривают сдерживание как движущую политическую позицию для противодействия атакам в киберпространстве. Тем не менее, сдерживание нападений остается недостижимой целью, поскольку страны расходятся во мнениях относительно приемлемого поведения, а преступные группы множатся.
Политика сдерживания опирается на установленные правила поведения, способность обнаруживать их нарушения и возможность применения санкций против нарушителей.
Киберпространство бросает вызов устоявшейся стратегии сдерживания. Традиционно сдерживание опирается на несколько известных субъектов, обладающих ресурсами для развития и поддержания потенциала (а также на намерение его использовать), и на историю применения известных санкций в случае нарушения норм.
Комиссия по киберпространству (Cyberspace Solarium Commission, которая была учреждена Конгрессом в 2019 г. и названа по аналогии с проектом «Солярий», созданным президентом Д. Эйзенхауэром в 1953 г. для определения согласованной стратегии военно-политического сообщества США по противодействию Советскому Союзу – прим. авторов) продвигала стратегический подход «многоуровневого киберсдерживания» угроз в киберпространстве. Этот подход в виде концепции был представлен в отчете Комиссии и повторен в последующих официальных документах, в которых было сделано 109 рекомендаций для Конгресса и президента Соединенных Штатов.
Что касается норм, то две рабочие группы ООН согласовали 11 норм ответственного поведения государств в киберпространстве. Однако эти нормы находятся в зачаточном состоянии, и еще предстоит увидеть, как страны будут придерживаться и следовать этим нормам. Чтобы усилить возможности реагирования на атаки, Европейский Союз разработал «Инструментарий кибердипломатии», описывающий действия, которые могут ожидать преступники, если они проводят кибератаки против государств-членов ЕС.
Наконец, чтобы лучше структурировать федеральное управление киберсдерживанием, Конгресс и исполнительная власть Соединенных Штатов добивались создания в Государственном департаменте бюро, ответственного за дипломатию в киберпространстве. Такое бюро могло бы возглавить усилия, связанные с установлением норм, иностранной помощью, и меры укрепления доверия. Однако у политиков остаются нерешенными вопросы, в том числе о том, как бюро будет координировать свои действия с другими федеральными агентствами, многие из которых обладают значительными техническими возможностями и уже участвуют в международных форумах, и в какой степени бюро будет нести ответственность за представление Соединенных Штатов на многосторонних форумы для решения вопросов кибербезопасности.
В докладе отмечается, что правительство Соединенных Штатов уже давно стремится эффективно сдерживать (или останавливать) кибератаки и реагировать на атаки таким образом, чтобы предотвратить негативные последствия. Эти цели кажутся труднодостижимыми, поскольку частота кибератак, от мелких до значительных, со временем увеличивается. Атаки показывают, что сдерживание в киберпространстве труднодостижимо. Существуют нюансы, связанные с кибератаками, которые переворачивают прежние представления о политике сдерживания. Несмотря на проблемы, многие рассматривают сдерживание как необходимый шаг к установлению порядка в киберпространстве и как основу для будущих действий. Политики продолжают следовать стратегии сдерживания киберпространства и кибератак.
Правообладателям!
Это произведение, предположительно, находится в статусе 'public domain'. Если это не так и размещение материала нарушает чьи-либо права, то сообщите нам об этом.