Электронная библиотека » Ив Жэнгра » » онлайн чтение - страница 1


  • Текст добавлен: 15 августа 2018, 16:40


Автор книги: Ив Жэнгра


Жанр: Техническая литература, Наука и Образование


Возрастные ограничения: +16

сообщить о неприемлемом содержимом

Текущая страница: 1 (всего у книги 10 страниц) [доступный отрывок для чтения: 3 страниц]

Шрифт:
- 100% +

Ив Жэнгра
Ошибки в оценке науки, или как правильно использовать библиометрию

Благодарности

Эта книга обязана своим появлением Катрин Доннар, в июне 2011 года пригласившей меня прочитать лекцию об использовании библиометрии в Национальном институте агрономических исследований (Institut National de la Recherche Agronomique, INRA). Это приглашение убедило меня в том, что настало время разобраться с многочисленными и зачастую бессодержательными дебатами по поводу использования библиометрии в оценке научных исследований. За последние пятнадцать лет мне неоднократно приходилось выступать на эту тему на разных публичных площадках. Здесь я воспроизвожу и отчасти подробнее развиваю некоторые из этих выступлений, чтобы нарисовать как можно более полную картину того, как следует и как не следует использовать библиометрию[1]1
  Я здесь частично использую материалы моих предыдущих публикаций: Yves Gingras, “Les systèmes d’évaluation de la recherche,” Documentaliste-Science de l’information, 4, novembre 2009, pp. 34–35; “Du mauvais usage de faux indicateurs,” Revue d’histoire moderne et contemporaine, 5 (4 bis), supplt annuel, 2008, pp. 67–79; “Le classement de Shanghai n’est pas scientifique,” La Recherche, mai 2009, pp. 46–50; “Criteria for Evaluating Indicators,” in Blaise Cronin & Cassidy Sugimoto (dir.), Bibliometrics and Beyond: Metrics-Based Evaluation of Scholarly Research (Cambridge, MA, MIT Press, 2014).


[Закрыть]
. Мне хотелось бы поблагодарить коллег, которые прочитали этот текст и сделали полезные замечания: Жерома Бурдье, Мишеля Гроссетти, Йохана Хейлброна, Камий Лимож, Венсана Ларивьера, Франка Пупо, Виктора Штоцковски и Жан-Филиппа Уаррена. Я также признателен Жан-Пьеру Робитаю и Филиппу Монжону за подготовку графиков. Разумеется, я несу полную ответственность как за содержание этой книги, так и за ошибки, которые могут в ней обнаружиться.

Введение

«Оценка»… Это слово вот уже несколько лет сотрясает академический и университетский мир. Особенно это ощущается в Европе, где с начала 2000-х годов идет процесс реформирования высшего образования[2]2
  См.: Abélard, Universitas calamitatum. Le Livre noir des réformes universitaires, Broissieux, éd. du Croquant, 2003; Christophe Charle et Charles Soulié (dir.), Les Ravages de la «modernisation» universitaire en Europe, Paris, Syllepse, 2007; Franz Schultheis, Marta Roca i Escoda et Paul-Frantz Cousin (dir.), Le Cauchemar de Humboldt. Les réformes de l’enseignement supérieur européen, Paris, Raisons d’agir, 2008; Claire-Akiko Brisset (dir.), L’Université et la recherche en colère. Un mouvement social inédit, Broissieux, éd. du Croquant, 2009.


[Закрыть]
. Оценивать стремятся всех и вся: преподавателей, профессоров, исследователей, учебные программы и сами университеты. Показателей превосходства (excellence) и качества становится все больше, однако не всегда понятно, на каких основаниях эти показатели сконструированы.

Среди инструментов, используемых для создания многочисленных индикаторов превосходства, которые менеджерский подход к высшему образованию и науке повсеместно навязывает как некую очевидность, одно из почетных мест принадлежит сегодня библиометрии. В качестве критериев оценки научной продукции и ее различных применений этот исследовательский метод использует научные публикации и их цитирование. Подсчет числа публикаций и ссылок, производимый с целью рейтингования университетов, лабораторий или исследователей, часто выдается за объективную меру ценности тех или иных научных результатов.

Реагируя на распространение этих количественных показателей, многие исследователи критикуют библиометрию, ее изъяны и побочные эффекты, связанные с тем, что количество публикаций, а главное, число ссылок на них стали показателем качества и импакта их работ. Однако, как ни парадоксально, зачастую сами исследователи, принадлежащие к разным дисциплинам, спешат упомянуть об импакт-факторе журналов, в которых они публикуются, и кичатся своим индексом Хирша, как будто это гарантия их ценности и успеха. При этом они не всегда указывают на источник этих цифр и даже не вполне понимают реальное значение подобных показателей. Иными словами, невозможно всерьез вменять в вину одним лишь бюрократам всю эту «измерительную лихорадку». Ее сопровождает бешеная гонка к вершинам многочисленных рейтингов университетов, тогда как – и мы это покажем – эти рейтинги не имеют под собой ни малейшего научного основания.

Во Франции в результате принятия закона 2007 года об автономии университетов и попыток реформирования организации научных исследований возникла повышенная чувствительность к вопросам оценивания, которые прежде мало обсуждались во французских академических кругах. Под влиянием этого контекста и несмотря на то что использование библиометрии редко является единственным критерием оценки, утвердилось ложное и опасное представление о тождестве между библиометрией и оцениванием, как если бы библиометрия была нужна лишь для оценки исследователей. А ведь именно отсутствие серьезной методологической рефлексии дает простор для хаотического, если не сказать дикого использования библиометрии. Например, на страницах журналов Nature, Science или в блогах полным-полно писем, опубликованных учеными, которые записались в «оценщики»… в основном своих конкурентов. Пока исследователи занимаются вычислением своего h-индекса в базах данных, не особо понимая, что он в действительности означает, профессора разглядывают под лупой многочисленные мировые рейтинги, чтобы выбрать из них тот самый, в котором их университет займет наилучшее место. Как отмечается в отчете Жоэля Бурдена, сенатора департамента Ер (Eure), в разных рейтингах почему-то систематически оказываются на первых позициях университеты разных стран: «Шанхайский рейтинг очень благоволит американским университетам… английский же рейтинг подчеркивает достижения вузов Соединенного королевства… а по Лейденскому рейтингу на лучших местах оказываются нидерландские университеты»[3]3
  Информационный доклад от лица комиссии Сената по планированию: Sur le défi des classements dans l’enseignement supérieur. Annexe au procès-verbal de la séance du 2 juillet 2008 [О трудностях рейтингования в высшем образовании. Приложение к стенограмме заседания от 2 июля 2008 года]. Известен под названием «rapport Bourdin» [доклад Бурдена] по имени сенатора Жоэля Бурдена. Доступен на сайте: http://www.senat.fr/rap/r07-442/r07-4421.pdf, цитата со с. 53.


[Закрыть]
. Автор мог бы еще добавить, что рейтинг парижской Горной школы (Ecole des mines) отдает предпочтение французским высшим школам (grandes écoles)…[4]4
  См.: http://www.mines-paristech.fr/Ecole/Classements/.


[Закрыть]

Хотя самые известные рейтинги университетов (включая Шанхайский) часто основываются и на библиометрических данных, проблемы, которые они поднимают, относятся не только к оценке научных исследований. Несмотря на частую критику в адрес этих рейтингов, большинство их защитников довольствуются тем, что указывают на их ограничения, не поднимая вопроса об их эпистемологических основаниях: действительно ли выбранные для рейтингования показатели обладают тем значением, которое им приписывается? В этой связи необходимо всерьез задуматься о компетентности многих руководителей вузов. Так, во Франции 61 % из них заявляют о том, что хотят повысить позицию своего университета в Шанхайском рейтинге, хотя можно с большой долей уверенности предполагать, что они не знают, что именно он измеряет![5]5
  Доклад Бурдена, там же, с. 98.


[Закрыть]

С середины 2000-х годов проходят многочисленные конференции и появляется множество публикаций об оценке научных исследований. В них постоянно всплывают одни и те же вопросы по поводу применения библиометрии, которые свидетельствуют о сложности в определении способов оценки науки[6]6
  См., например, специальные номера по оценке научных исследований следующих журналов: Le Débat, 156, 2009; L’Homme et la Société, 178, 2010; Communication et organisation, 38, 2010; Connexions, 93, 2010; Quaderni, 77, 2012; Esprit, juillet 2012; Mouvements, 71, 2013; см. также: Albert Ogien, Désacraliser le chiffre dans l’évaluation du secteur public, Versailles, éd. Quae, 2013.


[Закрыть]
. Эти вопросы часто возникают, с одной стороны, из-за непрозрачности используемых концептов и показателей, а с другой стороны, из-за несогласия по поводу того, на каком уровне они могут применяться с пользой. По моему мнению, ясное понимание специфических характеристик самых распространенных библиометрических показателей и сфер их применения важно постольку, поскольку оценки избежать невозможно (да и едва ли желательно). Однако при этом не обойтись и без строго обоснованной критики плохо сконструированных показателей, использование которых чревато негативными последствиями.

Таким образом, цель этой работы – не только представить в обобщенном виде методы библиометрического исследования и различные области их применения, но также показать, что у них есть гораздо более широкое поле приложения, чем оценка научных исследований, представляющая собой относительно недавний и еще не отрефлексированный феномен. Выявив происхождение библиометрии (глава I) и рассмотрев, каким образом она может служить инструментом для анализа развития науки (глава II), мы обрисуем все разнообразие оценок, которым уже давно подвергается мир высшего образования и научных исследований, а также то, как с середины 1970-х годов постепенно вводились в обиход библиометрические методы (глава III). Наконец, в последней главе представлен анализ показателей, наиболее часто используемых для оценки исследователей, а также критика тех злоупотреблений, к которым может приводить такое их применение.

Глава I. Истоки библиометрии

Прежде чем начать разговор о библиометрии, стоит прояснить терминологию, используемую в этой области. Термин «наукометрия» обычно связывается с именем физика Василия Васильевича Налимова, опубликовавшего в 1969 году книгу с таким названием. Наукометрия включает в себя количественное измерение разных видов научной деятельности в самых разных дисциплинах[7]7
  Yuri V. Granosky, “Is It Possible to Measure Science? V. V. Nalimov’s Research in Scientometrics,” in Scientometrics 52 (2), 2001, pp. 127–150.


[Закрыть]
. Ее данные содержат суммы инвестиций в исследования и разработки (Research and Development, R&D), обучение научного персонала и производство статей и патентов. «Библиометрия», термин, введенный в обращение в том же 1969 году Аланом Причардом, означает подраздел наукометрии. Она ограничивается анализом публикаций и их характеристик[8]8
  Alan Pritchard, “Statistical Bibliography or Bibliometrics?”, in Journal of Documentation 24, 1969, pp. 348–349.


[Закрыть]
. И наконец, если в анализ включаются также патенты, часто используется термин «технометрия».

При слове «публикации» первыми приходят на ум научные статьи, однако публикации могут быть самого разного рода. Они включают как книги, так и диссертации, а также так называемую «серую» литературу – отчеты и аналитические записки. Возможность для более или менее тонкого анализа этих различных источников зависит лишь от степени их доступности в форме баз данных. Когда автоматической обработки данных при помощи компьютеров еще не существовало, библиометрический анализ осуществлялся вручную, ограничиваясь несколькими десятками публикаций в отдельных областях науки, таких как химия или социология.

Несмотря на четкие различия между наукометрией и библиометрией, использование библиометрических данных в исследовании научной динамики отныне настолько вошло в привычку, что оба термина быстро стали взаимозаменяемыми.

Анализ ссылок как инструмент управления журнальными фондами

Появление библиометрии обычно относят к середине 1920-х годов, когда было опубликовано статистическое исследование Альфреда Лотки о распределении продуктивности ученых. В этой статье Лотка вывел закон, носящий теперь его имя: число авторов, публикующих N статей, обратно пропорционально числу N в квадрате[9]9
  Alfred J. Lotka, “The frequency distribution of scientific productivity,” in Journal of the Washington Academy of Sciences, 16, 1926, pp. 317–324.


[Закрыть]
. Но как показал Бенуа Годен[10]10
  См.: Benoît Godin, “On the origins of bibliometrics,” in Scientometrics, 68, 2006, pp. 109–133.


[Закрыть]
, первыми, кто еще в начале XX века проанализировал динамику публикаций в своей области, стали психологи. Однако в отличие от анализа Лотки, психологи в своих наблюдениях не задавались целью открыть общие законы. Они провели библиометрическое исследование для того, чтобы проанализировать рост своей новой дисциплины и способствовать ее популяризации. В ту же эпоху исследователи из другой области, сравнительной анатомии, также прибегли к анализу публикаций, чтобы проследить историю своей дисциплины с XVI до середины XIX века[11]11
  См.: F. J. Cole & N. B. Eales, “The history of comparative anatomy. Part I: A statistical analysis of the literature,” in Science Progress, 11, 1917, pp. 578–596.


[Закрыть]
. Но как ни датировать возникновение библиометрических исследований, настоящий их подъем начался в 1920–1930-е годы, по мере того как развивалось и систематизировалось управление фондами научных журналов в библиотеках. Специализированные журналы становились все более многочисленными и дорогими, поэтому библиотечные работники стремились найти объективные методы для отбора наиболее полезных для исследователей наименований. Именно в этом контексте управления журнальными фондами и возникла идея систематического анализа уже не самих публикаций, а содержащихся в них ссылок (цитат).

Проанализировав, какие журналы чаще всего цитировались, например, в области химии за данный период времени, библиотекари могли принять обоснованное решение, какие из них продолжали оставаться полезными, а какие устаревали, поскольку реже цитировались. Так, исследование, опубликованное в журнале Science в 1927 году, показало, что для получения представления о реальном использовании журналов вместо отбора журналов по принципу субъективного интереса со стороны некоторых исследователей следует искать объективный и более общий показатель. Анализируя содержание главного американского журнала по химии за 1926 год, авторы, два химика, обнаружили, что несмотря на то, что в нем цитируются 247 разных журналов, большинство из них (более 130) упоминались менее трех раз[12]12
  См.: P. L. K. Gross & E. M. Gross, “College libraries and chemical education,” in Science, 66, 1927, pp. 385–389.


[Закрыть]
. Обращая внимание на ведущие позиции немецких журналов, авторы попутно подчеркивали, насколько важно для молодых химиков владеть этим языком[13]13
  См.: Oden E. Shepard, “The chemistry student still needs a reading knowledge of German,” in Journal of Chemical Education, 12, 1935, pp. 472–473.


[Закрыть]
. А исследование цитирования в химических журналах середины 1950-х годов наглядно продемонстрировало резкое падение количества ссылок американских химиков на немецкие журналы, что отражало радикально переменившуюся конъюнктуру после Второй мировой войны[14]14
  См.: Richard L. Barrett & Mildred A. Barrett, “Journals most cited by chemists and chemical engineers,” in Journal of Chemical Education, 34, 1957, pp. 35–38.


[Закрыть]
.

Такого рода описательный анализ, осуществлявшийся вручную на небольших по объему выборках, находил затем применение и в различных областях гуманитарных и социальных наук[15]15
  См.: Robert N. Broadus, “An analysis of literature cited in the American Sociological Review,” in American Sociological Review, 17, 1952, pp. 355–357.


[Закрыть]
. Из этих исследований вырастут основные понятия новой дисциплины – библиометрии. Так, идея о том, что количество обращений к публикации падает с течением времени, в начале 1960-х годов найдет отражение в понятии «время полужизни» научной литературы по аналогии с радиоактивным распадом элементов. Анализируя распределение ссылок в журналах в зависимости от их давности, можно заметить, что оно уменьшается экспоненциально. Эта кривая позволяет выявить своего рода время полужизни статьи, подсчитав количество лет, на которые приходится 50 % от общего числа ссылок, полученных с момента публикации. Этот отрезок и становится показателем продолжительности полезной жизни научных статей в той или иной области (ил. 1а). На графике видно, что в истории гораздо чаще, чем в химии, встречаются отсылки к документам более чем двадцатилетней давности. Первые исследования также показали, например, что в математике половина цитируемых публикаций имеет возраст примерно десять лет, тогда как в физике это число следует разделить на два. Иначе говоря, у статей по математике более высокая продолжительность жизни, чем у статей по физике[16]16
  См.: Robert E. Burton & W. W. Kebler, “The ‘half-life’ of some scientific and technical literatures,” in American Documentation, 11, 1960, pp. 18–22.


[Закрыть]
. Можно также выявить время полужизни ссылок в будущем, то есть количество лет, которое должно пройти, прежде чем будет достигнута половина от общего числа полученных ссылок (ил. 1б).


Ил. 1a. Типичное распределение возраста ссылок, содержащихся в статьях по химии и истории, опубликованных в 1980 году


Ил. 1б. Типичная временная динамика ссылок, полученных статьями по химии и истории после их публикации в 1980 году (общее число ссылок равняется 100 %)


Индекс цитирования: информатизация библиографического исследования

По причине резкого роста числа публикуемых статей после Второй мировой войны ученые уже не успевали следить за результатами исследований даже в своей узкоспециализированной области. Этому уже не помогало и регулярное издание аннотаций новых публикаций частными фирмами и учеными обществами. И тогда возникла идея создать систему, которая индексировала бы все статьи, включая библиографические ссылки. За образец был принят индекс Шепарда, с помощью которого каталогизируются все решения суда в США. Он позволяет быстро выяснить, составляет ли еще данное судебное решение прецедент с учетом всех более поздних решений, которые на него ссылаются. В 1955 году специалист по библиотековедению Юджин Гарфилд, занимавший в то время пост замредактора журнала American Documentation, попросил замдиректора компании, издававшей индекс Шепарда, Уильяма С. Адэйра написать статью, в которой бы описывалось, как работает этот юридический инструмент, и указывались способы его адаптации к научной литературе. Через несколько месяцев в журнале Science Гарфилд представил проект информатизированной базы данных ссылок, содержащихся в статьях из научных журналов[17]17
  Eugene Garfield, “Citation indexes for science. A new dimension in documentation through association of ideas,” in Science, 122, 1955, pp. 108–111.


[Закрыть]
. Его цель состояла в том, чтобы облегчить библиографический поиск, используя цитируемые статьи для нахождения других статей на ту же тему. Изначальное предположение здесь состояло в том, что цитирование того или иного текста обязательно указывает на концептуальную связь между цитирующей и цитируемой статьями (иными словами, в научных статьях, известных своей строгостью, цитаты не бывают случайными). Доступ к информации о статьях, цитируемых в том или ином тексте, помогает быстро составить релевантную библиографию. Действительно, если, например, статья цитирует книгу «Социология науки» (The Sociology of Science) Роберта К. Мертона, то велик шанс, что речь в ней идет о социологии науки. Точно так же исследователь, обнаруживая статьи авторов, в которых цитируются его работы, может таким образом ознакомиться с трудами коллег, работающих по той же теме, но при этом публикующихся не только в журналах, которые он знает и регулярно просматривает.

Убежденный в пользе своего проекта, в 1959 году Гарфилд основал в Филадельфии Институт научной информации (Institute for Scientific Information, ISI). В 1961 году он получил грант в 300 000 долларов от Национального научного фонда (National Science Foundation, NSF) и от Национальных институтов здравоохранения (National Institutes of Health, NIH) на изучение возможностей по созданию автоматизированного индекса цитирования. Как только прототип был готов, Институт научной информации (ISI) с 1963 года запустил на рынок Индекс научного цитирования (Science Citation Index, далее ИНЦ). Интерес NSF и NIH к проекту Гарфилда говорит о том, что они придавали большую важность вопросу доступа к научной литературе в условиях быстрорастущих объемов информации[18]18
  Более подробно о создании ИНЦ см.: Paul Wouters, “The citation culture,” диссертация, Амстердамский университет, 1999, доступна в формате PDF на сайте: http://garfield.library.upenn.edu/wouters/wouters.pdf.


[Закрыть]
.

Итак, появление Индекса научного цитирования было связано с задачами управления научной информацией и не имело прямого отношения к оценке исследований. Тогда эта тема еще не стояла на повестке дня[19]19
  См.: Paul Wouters, “Aux origines de la scientométrie,” in Actes de la recherche en sciences sociales, 164, 2006, pp. 10–21.


[Закрыть]
. ИНЦ – это прежде всего инструмент библиографического поиска, с помощью которого ученые могут находить среди множества публикаций те, которые их интересуют в связи с конкретной темой. И в настоящее время Web of Science (WoS), в котором объединены индексы цитирования по разным группам наук (ИНЦ, SSCI и AHCI), представляет собой уникальный инструмент для быстрого составления библиографии по заданной теме. Речь идет об индексе постольку, поскольку финальным продуктом являлась книга, в которой имена цитируемых авторов располагались в алфавитном порядке (ил. 2). Благодаря информационным технологиям этот индекс из печатной книги трансформировался в настоящую базу данных, содержащую все библиографические ссылки из индексируемых в этой базе статей, доступ к которой обеспечивается через интернет. Однако термин «индекс» цитирования продолжает использоваться по привычке.

Библиометрия как инструмент научной политики

Ключевой фигурой в становлении наукометрии стал видный историк науки Дерек де Солла Прайс. Физик по образованию, он предложил анализировать науку так же, как статистическая физика анализирует газы, то есть следить за развитием всей совокупности ученых и их публикаций, а не ограничиваться отдельными фигурами, даже такими крупными, как Эйнштейн. Прайс стремился к созданию того, что он называл наукой о науке, основанной на количественном анализе развития областей научного знания. В 1950 году он опубликовал свое первое исследование, показавшее, что наука как система растет в геометрической прогрессии начиная примерно с 1700 года. Так, и число научных журналов, и число публикаций удваивается примерно каждые пятнадцать лет[20]20
  См.: Derek J. de Solla Price, “Quantitative measures of the development of science,” in Archives internationales d’histoire des sciences, 4 (14), 1951, pp. 86–93. Два его основных труда: Science since Babylon (New Haven, Yale University Press, 1961) и Little Science, Big Science (New York, Columbia University Press, 1963).


[Закрыть]
. И хотя в зависимости от используемого метода и отобранных данных точный темп роста может варьироваться, интенсивный рост науки – это факт, с тех пор подтвержденный во многих исследованиях[21]21
  См.: Kenneth O. May, “Quantitative growth of the mathematical literature,” in Science, 154, 1966, pp. 1672–1673.


[Закрыть]
. И кстати, Прайс первым использовал новый индекс цитирования в социологических, а не только библиографических целях. В статье 1965 года, анализирующей сети цитирования, он показал крайне неравномерное распределение ссылок (цитат). Это столь же сильный закон, что и выведенная Лоткой закономерность распределения продуктивности среди ученых[22]22
  Derek J. de Solla Price, “Networks of scientific papers,” in Science, 149, 1965, pp. 510–515.


[Закрыть]
.

Несмотря на накопленные знания о цитировании в библиотечной сфере и вопреки всем усилиям Прайса по популяризации науки о науке, библиометрические исследования надолго останутся уделом небольшого сообщества исследователей, состоящего из ученых-естественников, библиотекарей, социологов и историков, имевших разные мотивы для изучения свойств научных публикаций и содержащихся в них ссылок. И только в 1970-е годы библиометрия как сфера академических исследований переживает настоящий подъем в связи с новым запросом со стороны научной политики.

Вторая половина 1960-х годов отмечена важным поворотом в организации науки, поскольку в странах Запада научной политике стало уделяться повышенное внимание. В связи с необходимостью стимулировать развитие науки возникла потребность в разработке показателей в сфере науки и инноваций, точно так же как раньше были разработаны показатели экономического и социального развития[23]23
  По истории статистики и исследований и разработок (R&D) см.: Benoît Godin, Measurement and Statistics on Science and Technology (London, Routledge, 2005).


[Закрыть]
. Организация экономического сотрудничества и развития (ОЭСР) запустила тогда целую серию исследований по научной политике разных стран. В 1962 году по инициативе этой организации было опубликовано первое издание «Руководства Фраскати», предложившего стандартную методику статистического измерения исследований и разработок (R&D)[24]24
  ОЭСР (1963), “Méthode type proposée pour les enquêtes sur la recherche et le développement expérimental. La mesure des activité́s scientifiques et techniques,” DAS/PD/62.47, Direction des affaires scientifiques, Paris. В настоящее время этот труд циркулирует в шестом издании.


[Закрыть]
. К тому же времени относится публикация в журнале Nature статьи Прайса о научных основаниях научной политики[25]25
  Derek J. de Solla Price, “The scientific foundations of science policy,” in Nature, 206, 17 avril 1965, pp. 233–238.


[Закрыть]
.

В этом контексте Американский конгресс поручил Национальному научному фонду (ННФ, помогшему Гарфилду в создании ИНЦ) задачу создания индикаторов, с помощью которых можно было бы отслеживать развитие и измерять состояние науки и технологий. Так в 1972 году был издан первый статистический сборник «Индикаторы науки» (Science Indicators), затем выходивший с периодичностью раз в два года. В 1987 году он был переименован в «Индикаторы науки и техники» (Science and Engineering Indicators). Также в начале 1970-х годов Национальный научный фонд поручил Фрэнсису Нарину и его фирме Computer Horizons изучить возможности применения библиометрии в целях оценки научных исследований и разработок. Нарин составил объемный отчет, заложивший основы оценочной библиометрии[26]26
  Francis Narin, Evaluative Bibliometrics. The Use of Publication and Citation Analysis in the Evaluation of Scientific Activity (Cherry Hill, N. J.: Computer Horizons Inc., 1976).


[Закрыть]
. Если ОЭСР, руководствуясь прежде всего экономическим видением научного развития, интересовалась лишь показателями вложенных инвестиций и выпущенных патентов (используемых для измерения инноваций), ННФ, более близкий к академическому миру, производил также библиометрические данные при помощи ИНЦ. Таким образом, данные по публикациям и цитированию впервые были включены в совокупность показателей научного развития в дополнение к обычным данным по научным сотрудникам и инвестициям в сфере исследований и разработок. Эти сборники впоследствии послужили образцом и для других стран. Например, французская Обсерватория науки и техники (OST) публикует серию похожих показателей с начала 1990-х годов[27]27
  Ghislaine Filliatreau (dir.), Indicateurs de sciences et de technologies, rapport de l’Observatoire des sciences et techniques (Paris: Économica, 2010).


[Закрыть]
.

Запрос со стороны государства на индикаторы, с помощью которых можно измерять уровень научно-технического прогресса и тем самым получать знания, необходимые для проектирования государственной политики и принятия решений, стимулирует развитие и организацию прежде разнородной сферы исследований. В академических кругах на этот запрос откликнулись запуском журнала Research Policy в 1971 году, а два года спустя начал выходить и Science and Public Policy. Оба журнала посвящены обсуждению научной политики и факторов научно-технического развития, а также их анализу. В 1974 году на конференции с участием отцов-основателей библиометрии (Дерека де Солла Прайса, Юджина Гарфилда и его сотрудника Генри Смолла, социологов Стивена и Джонатана Коулов, а также Роберта К. Мертона, одного из ее организаторов) была впервые предложена обобщающая работа под названием «О наукометрии: возникновение показателей развития науки»[28]28
  Yehuda Elkana, Joshua Lederberg, Robert K. Merton, Arnold Thackray & Harriet Zuckerman (éd.), Toward a Metric of Science. The Advent of Science Indicators (New York: John Wiley & Sons, 1978).


[Закрыть]
. В ней анализируются исторические, социологические и экономические аспекты измерения науки в целях выработки цельной системы показателей ее развития. Историк науки Джеральд Холтон при этом задается вопросом, действительно ли науку можно измерять, а братья Коул рассуждают об измерении когнитивных аспектов научных дисциплин. Со своей стороны, Гарфилд и его коллеги подчеркивают важность цитат как инструмента картирования концептуальной структуры научных дисциплин и специальностей, а также их развития во времени при использовании таких количественных методов, как библиографическое сопряжение и совместное цитирование документов[29]29
  Gerald Holton, “Can science be measured?”, in Y. Elkana et al., op. cit., pp. 39–68; Stephen Cole, Jonathan R. Cole & Lorraine Dietrich, “Measuring the cognitive state of scientific disciplines,” idem, ibidem, pp. 209–252; Eugene Garfield, Morton V. Malin et Henry Small, “Citation data as science indicators,” idem, ibidem, pp. 179–207.


[Закрыть]
.

В следующей главе мы рассмотрим различные применения этих библиометрических методов и показателей. Сейчас же отметим лишь, что рост числа библиометрических работ привел к созданию в 1978 году первого журнала, целиком специализирующегося по данной теме, Scientometrics. По мере развития этой специальности с 1987 года стали проводиться международные конференции, а в 1993 году было создано Международное общество наукометрии и инфометрии (International Society for Scientometrics and Informetrics).

Помимо запроса, связанного с научной политикой разных стран, само наличие информатизированной базы данных ИНЦ, покрывающей все более протяженный период времени, также стимулировало проведение исследований с использованием библиометрических данных. 1970-е годы стали в целом временем развития социологии науки как отдельной специальности. В 1971 году был создан журнал Social Studies of Science, где было опубликовано несколько исследований, использующих библиометрию для анализа развития научных дисциплин[30]30
  См.: Y. Gingras, Sociologie des sciences (Paris: PUF, 2013), pp. 5–6.


[Закрыть]
.


Страницы книги >> 1 2 3 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации