Электронная библиотека » Коллектив авторов » » онлайн чтение - страница 7


  • Текст добавлен: 27 мая 2022, 21:08


Автор книги: Коллектив авторов


Жанр: Социология, Наука и Образование


сообщить о неприемлемом содержимом

Текущая страница: 7 (всего у книги 21 страниц) [доступный отрывок для чтения: 7 страниц]

Шрифт:
- 100% +

Во‐вторых, только что указанная сложность усугубляется тем, что теория Инглхарта и Вельцеля плохо совместима с теорией Асемоглу и Робинсона; причина состоит в том, что для Инглхарта и Вельцеля переход к демократии происходит из-за давления на политические элиты «снизу», двигатель перехода – народные массы, предпринимающие успешные коллективные действия, направленные на демократизацию. В теориях, разработанных в парадигме политической экономии, напротив, демократизация случается потому, что на нее соглашается элита, отказываясь от стратегии репрессий. Возможно, это различие в теориях еще не ведет к логическому противоречию и их полной несовместимости, но оно определенно ставит проблемы на пути к их согласованию.

Второй источник структурной недодетерминированности (тот, что связан с множественностью интерпретаций операционализации абстрактных и общих явлений) удобно рассмотреть на примере теории Карлеса Боша [Boix, 2003]. Его теория предсказывает, в частности, что экономическое развитие увеличивает долю в экономике мобильного капитала, а те элиты, которые владеют мобильным капиталом, могут, в случае установления демократии и, как следствие этого, более равномерного экономического распределения, переместить свои активы за рубеж и тем самым сократить ущерб для себя от бремени, порождаемого более равномерным распределением. Вследствие этого сопротивление демократии со стороны элит, владеющих мобильным капиталом, будет слабее, чем сопротивление элит, чей капитал немобилен; значит, чем более развита экономика и чем большая доля приходится в ней на мобильный капитал, тем меньше сопротивляемость элит демократии и тем вероятнее ее установление [Boix, 2003, p. 12–13].

Однако нас интересует не теория сама по себе, а то, как операционализируются ключевые переменные. Бош использует следующие способы операционализации переменной мобильности капитала: доля в ВВП страны, которая приходится на сельское хозяйство; доля сырьевого экспорта в совокупном экспорте; среднее число лет обучения (в предположении о том, что число лет обучения формирует человеческий капитал, который мобильнее физического) [Geddes, 2007, p. 323–324].

Все три способа операционализации подвержены широким интерпретациям. Доля, которая приходится на сельское хозяйство в ВВП страны, может рассматриваться не только как показатель мобильности капитала, но и как показатель инновационности экономики или даже как степень «традиционности» общества; при достаточной изобретательности можно предложить еще немало интерпретаций. Доля сырьевого экспорта в совокупном экспорте может рассматриваться как мера «свободных» денег у правительства, способных вести к ресурсному проклятию. Среднее число лет обучения выступает показателем образованности населения, которое, в свою очередь, может трактоваться в духе гипотезы Мартина Липсета или исследований Рональда Инглхарта о ценностных продемократических предпочтениях, свойственных более образованным гражданам. Каждая из этих интерпретаций указывает на новую теорию, посредством которой может объясняться переход к демократии. Таким образом, мы сталкиваемся с проблемой эмпирической эквивалентности: проводя анализ, подобный тому, что проделал Карлес Бош, мы не можем проверить ни одну из этих теорий в изоляции от других; следовательно, положительные результаты эмпирических тестов ни на йоту не добавят нам уверенности в том, что какая‐то из этих теорий верна2424
  На амбивалентность выводов К. Боша указывает, например, Барбара Геддес в упомянутой главе: [Geddes, op. cit.].


[Закрыть]
; в более широком смысле мы вновь сталкиваемся с недодетерминированностью каузальной структуры явления демократизации.

Нет сомнения, что с обоими источниками структурной недодетерминированности бороться чрезвычайно тяжело, хотя бы потому, что многие общественные процессы сильно коррелируют друг с другом, а мы ограничены в своих возможностях собирать те или иные данные для формирования все новых операционализаций переменных. Тем не менее не исключено, что в некоторых случаях полезно было бы работать не на уровне очень общих и абстрактных явлений, а на более «низком» уровне переменных, которые в каузальной цепи достаточно близки к эффекту. В этом смысле идея поиска «microfoundations» весьма резонна, но она не играет большой роли, если касается лишь придумывания новых теорий, а не попытки их прямого тестирования.

Кроме того, продуктивным может оказаться использование более узких, менее подверженных разным интерпретациям операционализаций. Однако сложно найти какой-либо хороший критерий или признак, которым можно руководствоваться при выборе таких операционализаций. Вероятно, в каждом отдельном случае нужно полагаться на уже имеющееся представление о каузальной сложности явления и на опыт и проницательность исследователя.

Заметим еще, что освещенный в этом разделе сюжет тесно связан с предыдущим: анализ масштабных явлений часто проводится в контексте каузальной неоднородности наблюдений. Потому стратегия сокращения этой неоднородности тоже может оказаться полезной.

Заключение

Выше я попытался показать, как в конвенциональных методах количественного анализа воспроизводятся и усугубляются эпистемологические проблемы, связанные с тезисом Дюэма-Куайна. Особенное внимание было уделено трем распространенным в рамках количественного подхода исследовательским практикам: 1) использование тестов значимости как самодовлеющего аналитического инструмента; 2) невнимание к каузальной неоднородности явлений в больших выборках; 3) применение операционализаций переменных (представляемых как «данные», т.е. факты), подверженных большому числу интерпретаций. Эти практики значительно усугубляют проблему структурной недодетерминированности теорий: исследователь оказывается в ситуации, когда разные факторы, в том числе такие, которые плохо совместимы друг с другом, претендуют на объяснение данных, а строгий метод предпочтения одних теорий перед другими неочевиден.

На предполагаемое отсутствие надежного критерия выбора теорий нужно обратить особенно внимание. Об обманчивой эффективности тестов значимости, которые часто выступают в роли волшебной палочки, позволяя легко отвергать гипотезы, говорилось выше. Преимущества квазиэкспериментального дизайна, основанного на идее «контрольных переменных», теоретически несостоятельны [Clarke, 2005]. Большие выборки, нацеленные на выявление универсальных закономерностей, имеют оборотную сторону медали (казуальная неоднородность явлений), а потому выводы, сделанные на их основании, нельзя по умолчанию признать более надежными, чем заключения, полученные на меньших выборках.

Все это означает, что в рамках конвенциональных количественных методов вопрос о критерии предпочтения одних теорий перед другими стоит весьма остро. Более того, на первый взгляд вовсе неочевидно и то, каким мог бы быть хотя бы прагматический критерий выбора теорий (именно прагматический характер научных теорий защищал Куайн).

В действительности пресловутая проблема эндогенности – частный случай структурной недодетерминированности: мы не можем корректно оценить, как соотносятся между собой две (в случае «классической» проблемы эндогенности, когда есть сомнения о том, в какую сторону и с какой силой направлена каузальная связь) не исключающие друг друга теории. Но если этой проблеме справедливо уделяется столь большое внимание, то ее обобщение бросает политической науке еще более серьезный вызов.

Кроме того, разработка новых теорий, «проверяемых» на давно известных и многократно использованных данных, часто несет в себе мало смысла, потому что можно придумать десятки правдоподобных, но эмпирически эквивалентных теорий, и в результате нельзя будет по-настоящему проверить ни одну из них.

Нередко в политической науке речь идет о попытке выяснить, влияет ли одна переменная на другую, но довольно редко прилагаются усилия к тому, чтобы понять, насколько сильно это влияние и в какой мере оно сильнее или слабее влияния прочих факторов, одинаково ли оно для наблюдений разных классов, необходимое оно или достаточное, может ли оно компенсировать слабость влияния других переменных и т.д. Иными словами, ученые-политологи редко стремятся составить обоснованное представление о каузальной структуре явления в ее целостности. Но без такого представления простой вывод о влиянии одной переменной на другую зачастую оказывается совершенно тривиальным: политика настолько сложная область, что почти все коррелирует почти со всем, и при достаточном воображении исследователь может вычленить многие десятки факторов, имеющих причинное воздействие на изучаемый процесс в тех или иных обстоятельствах. Но какие‐то из этих факторов будут иметь большой объяснительный вес или по иным причинам окажутся важными, а какие‐то, напротив, будут играть лишь маргинальную роль.

Несомненно, задача составления целостного представления о каузальной структуре явления чрезвычайно сложна. В этом смысле неудивительно, что Джон Герринг, рассматривающий в одной из своих статей сюжеты, близкие к настоящему рассуждению2525
  Предмет размышлений Дж. Герринга – проблемы, проистекающие из стремления эмпирически тестировать каузальные механизмы; многие выводы, к которым он приходит, имеют немало общего с положениями настоящей статьи, но Герринг рассматривает каузальные механизмы без привлечения тезиса Дюэма-Куайна.


[Закрыть]
, призывает к снижению строгости стандартов, когда речь заходит об эмпирическом тестировании каузальных механизмов [Gerring, 2010, p. 1518]. Хотя такая идея по ряду причин может показаться сомнительной, она вскрывает сложности, заложенные в стремлении как можно более полно учесть каузальную структуру исследуемых явлений.

Однако можно поставить под вопрос даже и саму задачу о выяснении каузальной структуры явления, потому что она сформулирована в предположении, что исследователь заинтересован в выявлении причинных эффектов всех важных (в каком бы то ни было смысле этого слова) факторов изучаемого явления. Использование стратегии явного учета размера причинных эффектов – это и есть то, что ранее мы назвали «общей логикой» конвенциональных количественных методов. Но эта стратегия чревата большими трудностями.

Одна из явных альтернатив ей – оценка размера только одного причинного эффекта при изоляции всех остальных. Это и есть идея, стоящая за экспериментальным дизайном. В связи с этим можно сформулировать такую методологическую дилемму:

а) явный учет размеров причинных эффектов технически легко осуществим (если только речь не идет о попытке оценить эффекты всех важных факторов; это и делается в рамках конвенциональных количественных методов), но приводит к проблемам, которым посвящена настоящая статья;

б) явный учет лишь одного причинного эффекта – в котором более всего заинтересован исследователь – при изоляции всех остальных (что и происходит в эксперименте) технически тяжело осуществить, но, по-видимому, эта стратегия свободна от многих проблем, выявляемых в связи с тезисом Дюэма-Куайна.

Разумеется, эта дилемма не нова для общественных наук вообще и для политологии в частности. Но в настоящей статье я попытался продемонстрировать, что тезис Дюэма-Куайна позволяет: а) выявить ряд серьезных недостатков первой стратегии и явно их сформулировать; б) «укоренить» эти формулировки в философии науки и таким образом придать им более точный и ясный характер.

Как бы то ни было, несомненно, что методологический спор (Methodenstreit) в политической науке будет продолжен, но также несомненно и то, что соответствие строгим научным стандартам и самим целям науки требует дальнейшего совершенствования альтернативных методологических подходов и более аккуратного применения конвенциональных количественных методов.

Список литературы

Алмонд Г. Политическая наука: история дисциплины // Политическая наука: новые направления / Под ред. Гудин Р., Клингеманн Х.-Д. – М., 1999. – С. 69–112.

Мельвиль А.Ю., Стукал Д.К. Условия демократии и пределы демократизации // Полис: Политические исследования. – М., 2011. – № 3. – С. 164–183.

Acemoglu D., Robinson J. Economic origins of dictatorship and democracy. – Cambridge: Cambridge univ. press, 2006. – 434 p.

Achen C. Toward a new political methodology: microfoundations and ART // Annual review of political science. – 2002. – N 5. – P. 423–450.

Bakan D. The test of ignificance in psychological research // Psychological bulletin. –1966. – Vol. 66, N 6. – P. 423–437.

Berk R., Western B., Weiss R. Statistical influence for apparent populations // Sociological methodology. – 1995. – Vol. 25. – P. 421–458.

Boix C. Democracy and redistirbution. – Cambridge: Cambridge univ. press, 2003. – 284 p.

Chernoff F. The impact of duhemian principles on social science testing and progress. // Oxford handbook of philosophy of social science / Ed. by Harold Kincaid. – New York: Oxford univ. press, 2012. – P. 229–258.

Clarke K. The Phantom menace: Omitted variable bias in econometric research // Conflict management and peace science. – 2005. – N 22. – P. 341–352.

Cohen J. Things I have learned (So Far) // American psychologist. – 1990. – Vol. 45, N 12. – P. 1304–1312.

Cohen J. A power primer // Psychological bulletin. – 1992. – Vol. 112, N 1. – P. 155–159.

Cohen J. The Earth Is round (p < 0.05) // American psychologist. – 1994. – Vol. 49, N 12. – P. 997–1003.

Cross R. The Duhem-Quine thesis, Lakatos and the Appraisal of theories in macroeconomics // The economic journal. – 1982. – Vol. 92. – P. 320–340.

Duhem P. La theorie physique. Son objet et sa structure. – Paris, 1906. – 450 p.

Geddes B. What causes democratization? // The Oxford handbook of comparative politics / Ed. by Carles Boix, Susan C. Stokes. – Oxford: Oxford univ. press. – 2007. – P. 317–339.

Gerring J. Causal mechanisms: Yes, But… // Comparative political studies. – 2010. – Vol. 43, N 11. – P. 1499–1526.

Gerring J. Social science methodology: A unified framework. – Cambridge, Cambridge univ. press, 2012. – 522 p.

Gill J. The insignificance of null hypothesis significance testing // Political research quarterly. – 1999. – Vol. 52, N 3. – P. 647–654.

Hay C. Political ontology. // The Oxford handbook of contextual political analysis / Ed. by Robert E. Goodin, Charles Tilly. – Oxford: Oxford univ. press., 2006. – P. 78–96.

Hoover K., Siegler M. Sound and fury: McCloskey and significance testing in economics // Journal of economic methodology. – 2008. – Vol. 15, N 1. – P. 1–37.

King G., Keohane R., Verba S. Designing social inquiry: Scientific inference in qualitative research. – Princeton: Princeton univ. press, 1994. – 300 p.

McCloskey D. The loss function has been mislaid: The rhetoric of significance tests // American economic review. – 1985. – Vol. 75, N 2. – P. 201–205.

Meehl P. Testing Theories in psychology and physics: A methodological paradox // Philosophy of science. – 1967. – Vol. 34, N 2. – P. 103–115.

Meehl P. Appraising and amending theories: The strategy of Lakatosian defence and two principles what warrant it // Psychological inquiry. – 1990. – Vol. 1, N 2. – P. 108–141.

Meehl P. Why summaries of research on psychological theories are often uninterpretable // Psychological reports. – 1990. – Vol. 66. – P. 195–244.

Mill J. A System of logic ratiocinative and inductive. – Toronto, Toronto univ. press, 1974. – 1254 p.

Quine W. Main trends in recent philosophy: Two dogmas of empiricism // The philosophical review. – 1951. – Vol. 60, N 1. – P. 20–43.

Rainey C. Testing hypotheses of no meaningful effect // The society for political methodology. – 2014. – 31 p. – Mode of access: http://www.polmeth.wustl.edu/media/Paper/nme.pdf (Дата посещения: 23.08.2014.)

Rethinking social inquiry: diverse tools, shared standards / Eds. Brady H., Collier D. – L.: Rowman and Littlefield publishers, 2004. – 428 p.

Rosato S. The flawed logic of democratic peace rheory // American political science review. – 2003. – Vol. 97, N 4. – P. 585–602.

Ross M. Does oil hinder democracy? // World politics. – 2001. – Vol. 53. – P. 325–361.

Rozeboom W. The fallacy of the null-hypothesis significance test // Psychological bulletin. – 1960. – Vol. 57, N 5. – P. 416–428.

Sawyer K., Beed C., Sankey H. Underdetermination in economics. The duhem-quine thesis // Economic and philosophy. – 1997. – Vol. 13, N 1. – P. 1–23.

Schrodt P. Seven deadly sins of contemporary quantitative political analysis // Journal of peace research. – 2014. – Vol. 51, N 2. – P. 287–300.

Stanford K. Underdetermination of scientific theory // Stanford encyclopedia of philosophy. – 2009. – 12 August. – Mode of access: http://plato.stanford.edu/entries/scientific-underdetermination/ (Дата посещения: 08.03.2014.)

Ward M., Greenhill B., Bakke K. The perils of policy by p-value // Journal of peace research. – 2010. – Vol. 47, N 4. – P. 363–375.

Welzel C. Theories of democratization // Democratization / Ed. by Christian Haerpfer, Patrick Bernhagen, Ronald Inglehart, Christian Welzel. – Oxford: Oxford univ. press, 2009. – P. 74–90.

Welzel C., Inglehart R. The role of ordinary people in democratization // Journal of democracy. – 2008. – Vol. 19, N 1. – P. 126–140.

Western B., Jackman S. Bayesian inference for comparative research // The American political science review. – 1994. – Vol. 88, N 2. – P. 412–423.

Методы анализа текста в смешанном 2626
  В российской практике сочетание качественного и количественного подходов называют «комплексными» исследованиями. Мы хотим внести корректировку в понятийное обозначение этого направления исследований, предложив термин, согласующийся с международной практикой. Таким образом, слово «комплексный», скорее, обозначает сложность, многокомпонентность составных частей исследования, а не идею сочетания методов. Понятие «смешивание» представляется адекватным с точки зрения деятельности, которая происходит в исследовательском процессе. Термин «смешивание» подходит, во‐первых, когда необходимо формально соединить методы в одном исследовании, оставив сущностную уникальность качественного или количественного характера исследования, следуя прагматическому подходу; во‐вторых, «перемешать до однородности», интегрировать, создать полуформализованный, полустандартизованный метод, находящийся на середине методического континуума (по степени формализации / стандартизации).


[Закрыть]
дизайне исследования 2727
  Статья написана в рамках научного проекта «Смешанные стратегии исследования: потребности, дизайн и процедуры воплощения» (№ 15-05-0012), выполненного при поддержке Программы «Научный фонд НИУ ВШЭ» в 2015 г.


[Закрыть]
Е.В. Полухина, Д.В. Просянюк
Смешанный дизайн как современная исследовательская практика

Стратегия «смешивания» методов (mixed methods research) [Tashakkori, Teddlie, 1998; Creswell, 2003; Morgan, 2013] получила широкое распространение в западной практике [Полухина, Савинская, 2014]. В самом общем виде – это «способ проведения исследования, в котором сочетаются элементы качественных и количественных исследовательских подходов (оптики, процедур сбора и анализа данных, методов и пр.) для всестороннего и глубокого анализа и решения широкого круга задач» [Burke, Onwuegbuzie, 2004, p. 15]. Современные отечественные исследователи осознают необходимость данного подхода и отмечают, что «…поворот социологии к текстуальности и визуальности способствует увеличению множественности и разнородности данных о социальном мире, что, соответственно, должно вести к многовидовому подходу (микс-методу) (курсив авт.) при изучении социальных феноменов, что видится как интеграция или одновременное использование качественной и количественной стратегии при изучении социальных объектов» [Семенова, 2014, с. 8].

Основные характеристики традиционных количественных исследований – дедуктивный подход, подтверждение теорий / гипотез, стандартизированный, формализованный сбор данных и статистический анализ. Качественные исследования же опираются на индуктивную логику, непрерывный поиск, разведку, выдвижение гипотез / теорий, неформализованность, неразрывность сбора и анализа данных. Исследователь выступает в качестве основного инструмента, где его субъективность выступает основой познавательных возможностей.

Принципиальным моментом «смешанного» дизайна исследования является комбинация сильных сторон каждого из методов. Таким образом, результаты исследования будут превосходить данные, полученные с помощью одного из методов.

Гносеологической платформой стратегии смешивания методов является классический прагматизм, представленный, в первую очередь, идеями Ч. Пирса, У. Джеймса и Дж. Дьюи. Прагматизм, как версия позитивизма, возник в Америке в конце XIX в. Прагматизм позволяет понять, каким образом может быть достигнута наибольшая эффективность, полезность от объединения различных способов действия. Приверженцы школы прагматизма полагают, что научные методы должны применяться для поиска ответа, «наилучшего» из всех возможных. Сторонники школы стремятся рассматривать различные точки зрения, перспективы и взгляды, используя оптику качественных и количественных исследований. Прагматический подход предполагает взаимный интерес качественного и количественного подходов. Его не интересуют природа изучаемой реальности и вопросы «истины». Прагматизм подчеркивает приоритетность действия как основы знания, где акцент делается, скорее, на полезности получаемого знания. С прагматической точки зрения исследование является одной из форм действия по достижению цели, в основе которой лежит решение исследовательских задач [Morgan, 2013, p. 42–43].

Методы анализа текста: Формализованный vs неформализованный подход

Контент-анализ является главным методом текстового анализа. Он выступает одним из наиболее интересных методов в социальных науках. Контент-анализ – это метод как сбора данных, так и анализа содержания текста, который может быть реализован в рамках качественного («неформализованного») и количественного («формализованного») подходов. Слово «контент» («содержание» – в переводе с англ.) относится к широкому кругу данных – словам, рисункам, символам, которые могут быть объектом коммуникации. Слово «текст» предполагает определенные рамки и означает нечто написанное, видимое или произнесенное, которое выступает как пространство коммуникации и репрезентации. Это пространство может включать в себя книги, газетные или журнальные статьи, объявления, выступления, официальные документы, кино– и видеозаписи, песни, фотографии, этикетки или произведения искусства [Ньюман, 1998].

Контент-анализ используется как исследовательский инструмент более 100 лет. Сфера его применения междисциплинарна и включает такие науки, как история, журналистика, политические науки, психология и т.д. Так, на первом заседании Германского социологического общества в 1910 г. Макс Вебер предлагал использовать его для анализа газетных текстов [Krippendorf, 1980].

Спектр современных методов формализованного анализа текстов значительно расширился и помимо контент-анализа включает кластерный анализ, тематическое моделирование, анализ тональности и пр. В нашей работе формализованный подход представлен методом кластерного анализа, базирующегося на представлении текста в виде «мешка слов» (bag of words). Основные допущения данного подхода: a) порядок следования слов / документов в корпусе не имеет значения в тексте; б) текст рассматривается как неупорядоченная совокупность слов (вектор, состоящий из частот слов), где каждое слово имеет равный «вес»; в) слова, встречающиеся часто, исключаются из анализа; г) разные формы слов приравниваются к одному значению.

К формализованным подходам также относится анализ тональности, который нацелен на выявление эмоциональной «окраски» текста. Этот подход разрабатывается в работах Б. Лью, Б. Панга, Л. Ли и С. Вайтинатан и др. [Bing, 2012]. Преимущество формализованного подхода к анализу текста состоит в возможности обработки больших массивов. Не менее важной чертой подхода является «объективность» кодирования – нивелирование субъективности исследователя на этапе обработки данных. Основное ограничение – технические возможности компьютеров, а также учет «прямого» значения слов, безразличие к жанрам, скрытым смыслам, коннотациям. Один из недостатков формализованного подхода – определение темы как совокупности слов в тексте, однако их семантика не эксплицирована. Этот недостаток призван компенсировать альтернативный метод – неформализованный анализ, где процедуру кодирования совершает исследователь «вручную», самостоятельно («эвристическое» кодирование).

Неформализованный анализ рассматривает текст как совокупность смыслов. Текст трактуется как авторское описание, реализуемое с помощью целенаправленного конструирования значений. Исследователя интересуют выявление и толкование смыслов, явно и неявно транслируемых автором, а также интерпретация, реконструкция позиций и типов аргументации, способ преподнесения и видение автором социальной реальности. Этот анализ вытекает из теории аргументации [Attride-Stirling, 2005], он основан на индуктивном подходе, имеет описательный характер и решает поисковые аналитические задачи [Guest, MacQueen, Namey, 2012]. Неформализованный анализ требует активного участия со стороны исследователя. Этот подход выходит за рамки подсчета слов / фраз и сосредоточивается на выявлении и описании значений. В результате такого анализа происходит определение семантической структуры текста. Исследователем разрабатываются коды – «маркеры» тем, используемые в дальнейшем анализе. Существуют две точки зрения на сущность этого анализа и его соотношение с другими подходами к анализу текста. Ряд исследователей [Braun, Clarke, 2006] полагают, что неформализованный (или «тематический», «качественный» контент-анализ) анализ является интегральным методом: включает процедуры, заимствованные у таких методов, как обоснованная теория, дискурс-анализ и др. Метод перенимает преимущества других в рамках теоретического и методологического арсенала и адаптирован к прикладным исследованиям. С другой стороны, некоторые авторы отмечают [Boyatzis, 1998], что данный вид анализа не является самодостаточным методом, а, скорее, представлен алгоритмом – кодированием, который используется также и другими методами.

Образ современной России в текстах газеты «Нью-Йорк таймс»: Процедура работы с текстами

Цель проведенного эмпирического исследования – выявление и описание образа Российской Федерации в американском издании – «Нью-Йорк таймс». Политические и социальные события последних десятилетий, динамика взаимоотношений двух «империй» свидетельствуют об актуальности вопросов, связанных с изучением образа РФ в американских средствах массовой информации.

Эмпирическую базу исследования составляет корпус статей «Нью-Йорк таймс» о России за период августа 2011 г. – июля 2012 г. В это время уровень информационного внимания к событиям в России был достаточно высок, так как проходили думские и президентские выборы, а также был назначен новый состав кабинета министров. Пики публикационной активности приходятся на периоды думских и президентских выборов декабря 2011 г. – марта 2012 г. В исследовании были использованы различные методы анализа текста в зависимости от степени формализации – формализованные (кластерный анализ и сентимент-анализ (метод определения тональности текста) и неформализованный (тематический) анализ.


Рис.

Динамика количества публикаций о России в издании «Нью-Йорк таймс», август 2011 г. – июль 2012 г.


Было сформулировано рабочее определение образа России (интегральный конструкт, состоящий из совокупности характеристик России, транслируемых СМИ). Каждый элемент образа соотносится с темой, в контексте которой описывается Россия. Для индуктивного выделения и описания интегрального образа России было необходимо: а) определение тематической структуры и профиля изучаемых текстов; б) последующий анализ каждой из тем, сфокусированный на характеристиках России [Просянюк, 2014]. Алгоритм проведения исследования включает шесть последовательных этапов (см. табл. 1).


Таблица 1

Алгоритм проведения исследования



Этап 1. Определение источника / источников текстовых данных. Эмпирическим источником был выбран «Нью-Йорк таймс» – издание, наиболее предпочитаемое элитой и имеющее значительное влияние на общественное мнение. Газета уделяет особое внимание иностранным новостям. Издание «Нью-Йорк таймс» публикует как «жесткие» (критические / политические), так и «мягкие» (нейтральные) новости. «Нью-Йорк таймс» традиционно относится к «качественной» прессе как ориентированной на аудиторию с высоким экономическим и образовательным статусом.

Этап 2. Отбор публикаций. При работе с большими корпусами текстов начальный этап – отбор источников – исключительно важен. Результат, полученный на данном этапе, предопределяет дальнейший ход исследования и качество данных. Основные способы отбора текстов соотносятся с типами выборок и достаточно разработаны в контент-анализе [Krippendorff, 1980; Krippendorff, 2004].

В ходе исследования был использован многоступенчатый отбор, включающий процедуры сплошной выборки2828
  Публикации «Нью-Йорк таймс» за период 01.08.20011 – 31.07.2012 по всем разделам («Политика», «Общество», «Культура» и пр.). Поиск проводился по ключевым словам «Russia», «Russian Federation». Поиск осуществлялся с помощью информационной базы данных LexisNexis.


[Закрыть]
(отобрана 2041 статья) и последующего экспертного отбора релевантных статей2929
  При первом ознакомлении с материалом стало очевидно, что далеко не все статьи отвечают задачам исследования. Так, статья может содержать ключевое слово «Russia» единожды – в расшифровке аббревиатуры BRIC. Данная статья формально является релевантной, но не отвечает информационной потребности исследователя, так как не содержит в себе эксплицированных в тексте индикаторов предмета исследования – мнений, оценок России и пр. С другой стороны, статья может быть посвящена нарушению прав человека в российском обществе, т.е. очевидным образом соответствовать информационной потребности исследователя, но также содержать ключевое слово «Russia» в единственной фразе. Такие статьи будем называть «пертинентными» (релевантыми, т.е. соответствующими информационной потребности).


[Закрыть]
(411 статей). Фактически оказалось, что 80% исходной выборки (формированных с помощью указания ключевых слов) является «шумом» для настоящего исследования. Полученный результат свидетельствует о необходимости верификации корпуса текстов исследования, отобранных с помощью применения формализованных методов. Соотношение нерелевантных и релевантных статей 100 к 20% (5/1) соответственно свидетельствует, что интеграция формализованных и неформализованных процедур отбора является приоритетной.

Этап 3. Определение единицы анализа. Определение единиц анализа при работе с большими массивами текстов является неоднозначным вопросом. С одной стороны, в сложившейся практике принято отождествлять текстовый массив и единицу анализа. Процедура рассмотрения текста как единицы анализа отвечает прагматическим соображениям – при работе с корпусами размером в несколько сотен / тысяч документов разделение текстов на единицы анализа трудозатрано. С другой стороны, лингвистические дисциплины рассматривают газетные статьи как особый вид текста. Следуя за Т. Ван Дейком, особого внимания заслуживает анализ как отдельных структурных элементов, так и макроструктурных характеристик (тематической структуры текста). У каждого структурного элемента статьи свои социально-коммуникативная функция, строение, лексико-семантические особенности. Ввиду специфики каждого элемента / сегмента текста статьи целесообразно, на наш взгляд, рассматривать их как отдельные единицы анализа. Применительно к нашему исследованию отдельные элементы формирования образа России содержательно должны рассматриваться в комплексе.

В журналистике подробно изучена структурная организация текстов разных жанров. М.Н. Ким [Ким, 2001] отмечает, что в аналитической статье главная роль отводится: а) выдвижению основного тезиса для доказательства; б) построению системы аргументации, раскрывающей суть выдвинутого тезиса; в) выводам из системы доказательства [ibid]. Данные структурные элементы создают трехчленную структуру статьи: начало (основной тезис) – основная часть (аргументы) – заключение (вывод). Как правило, основная цель аналитической статьи заключается в демонстрации различных точек зрения, мнений, оценок. Представляется возможным использовать укрупненные единицы, а именно две основные части статьи, имеющие принципиально различные цели и структуру: заголовок (для привлечения внимания, описания основной идеи статьи) и «тело» статьи (включая заключение).

Этап 4. Определение тональности заголовков: автоматическое и неавтоматическое («ручное»). СМИ используют как средства рационального (аргументированного), так и эмоционального воздействия. Было решено определять тональность заголовков (уровень предложений) по нескольким причинам. Во‐первых, заголовок представляет главную тему статьи. Как правило, тема в заголовке традиционно одна. Последнее дает основание полагать, что возможно адекватно определить именно тональность заголовка. Во‐вторых, текст статьи, как правило, содержит спектр тем и аргументов, следовательно, однозначно определить его тональность затруднительно. Напомним, что метод оценки тональности исходит из допущения, что каждый документ выражает мнение об одном объекте. Таким образом, анализ не применим к документам, которые оценивают или сравнивают несколько объектов. В‐третьих, специфика новостного жанра допускает, что получатель сообщения в ряде случаев ограничивается прочтением заголовка из всего текста новости.

Внимание! Это не конец книги.

Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!

Страницы книги >> Предыдущая | 1 2 3 4 5 6 7
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации