Добавить в цитаты Настройки чтения

Страница 5 из 9

В бумажную эпоху поиск в ИНЦ был возможен лишь по фамилии первого автора, несмотря на то что у большинства публикаций уже тогда было более одного автора. Первые пользователи, социологи науки, подмечали это ограничение и предлагали включать также другие фамилии или по крайней мере фамилию последнего автора, который в больших исследовательских коллективах, типичных для «Большой науки», часто является руководителем. Однако Гарфилд, осознавая затратность подобного изменения в базе данных, в ответ напомнил, что ИНЦ – это прежде всего инструмент библиографического поиска, а не измерения эффективности исследователей[36]. В связи с усовершенствованием компьютерной техники современные библиометрические базы данных позволяют найти упоминания всех соавторов той или иной публикации.

Ил. 3. Типичный вид метаданных статьи в индексе цитирования

Инструмент для историков и социологов науки

С самого начала ИНЦ воспринимался как важный ресурс для историков и социологов науки. Еще до публикации первой версии в 1963 году Гарфилд заручился поддержкой отца социологии науки, Роберта К. Мертона, а также историка науки, ратовавшего за продвижение библиометрии, Дерека де Солла Прайса. Сам Гарфилд серьезно интересовался историей науки и в течение всей своей карьеры работал над совершенствованием программ, предназначенных для автоматической визуализации сетей цитирования между статьями[37]. Благодаря интересу к истории науки со стороны Гарфилда директор исследовательской службы в ISI Генри Смолл, сам по образованию историк науки, в 1981 году взял на себя руководство созданием индекса цитирования по физике за период с 1920 по 1929 год при финансовой поддержке Национального научного фонда. Это был период развития квантовой физики, что позволило детально изучить научную революцию с точки зрения библиометрии[38]. Этот интерес к историческому использованию ИНЦ в результате привел к созданию ретроспективной базы данных, включившей ведущие научные журналы с 1900 года в сфере социальных и естественных наук[39].

Ил. 4a. Динамика среднего числа ссылок, содержащихся в статьях, по крупным дисциплинарным направлениям, 1900 – начало 2010-х годов (источник: WoS)

Ил. 4б. Динамика среднего числа ссылок (цитат), полученных статьей через два года после ее публикации, по крупным дисциплинарным направлениям, 1900 – начало 2010-х годов (источник: WoS)

По мере накопления исследований по библиометрии были обнаружены характеристики публикаций и ссылок, которые необходимо учитывать при конструировании показателей, позволяющих адекватно описывать динамику науки на разных уровнях. Так, среднее количество ссылок на одного автора в значительной мере зависит от размера дисциплин и специальностей. Например, в математике исследователей гораздо меньше, чем в медицине. В целом, при прочих равных условиях среднее количество ссылок на ту или иную статью зависит от размеров содержащихся в статьях библиографий, то есть от числа статей в этих библиографиях. Чем выше это число, тем больше у автора шансов, что его процитируют. Среднее число ссылок в статьях по всем дисциплинарным направлениям со временем существенно возросло, что отражает резкий рост числа исследователей и публикуемых статей (ил. 4a). Иначе говоря, рост среднего числа ссылок на одну статью, как показано на ил. 4б, является простым следствием демографических изменений в науке. Из этого следует, что абсолютное число ссылок мало что означает само по себе и что сравнения между разными научными областями по этому показателю некорректны. Его всегда нужно рассматривать в контексте дисциплины, к которой принадлежит исследователь, и за определенный период.

Помимо этого, уже первые исследования показали, что процент самоцитирования в целом невелик (8 %), что ссылки на собственные публикации в журналах составляют примерно 20 % от их общего числа и что распределение цитирования отличается высокой концентрацией[40]. И наконец, как показывает ил. 5, неравномерно распределены не только ссылки, но также сами публикации и гранты, получаемые исследователями[41]. Речь идет о распределениях типа Парето, подчиняющихся так называемому правилу 20/80: на 20 % исследователей приходится, в общем и целом, 80 % цитат и грантов. У публикаций концентрация несколько ниже: на 20 % исследователей приходится не более 60 % статей.

Ил. 5. Распределение грантов, публикаций и ссылок среди квебекских исследователей (источник: OST)

С середины 1960-х годов ведется поиск корреляций между числом ссылок и различными переменными, характеризующими исследователей, с тем чтобы выявить детерминанты производительности ученых и влияния научных исследований. Так, в исследовании, опубликованном в 1966 году, установлено, что нет корреляции между коэффициентом интеллекта исследователей (IQ) и числом ссылок на их работы! Зато это число коррелирует с местом университета, в котором они защитили диссертацию, на шкале престижа, установленной экспертами[42]. Используя свой первый индекс (за 1961 год), Гарфилд выявил, что лауреаты Нобелевской премии за 1962 и 1963 годы цитируются в тридцать раз чаще, чем в среднем работы их коллег[43]. Другие исследования впоследствии подтвердили, что существует связь между уровнем цитируемости, производительностью, заслугами и степенью признания исследователей[44].

Ил. 6. Сферы применения библиометрии

Базы данных Web of Science уникальны тем, что охватывают длительный временной промежуток и включают, хотя и в неравной мере, все области знаний. Они позволяют всесторонне изучать социальные и когнитивные трансформации различных научных дисциплин на всем протяжении XX века. Некоторые исследователи прибегают к ним для анализа развития наук под определенным – историческим, социологическим, экономическими или политическим – углом (ил. 6). Рассмотрим несколько примеров.

Уровни измерения

В своем простейшем виде библиометрия занимается подсчетом документов. Документы могут анализироваться на разных уровнях агрегирования по таким параметрам, как фамилия автора, его институциональная принадлежность, включая название организации (кафедра, университет, лаборатория), регион и страну, в которой она располагается. В плане содержания можно также ассоциировать документ с той или иной дисциплиной или специальностью. Простые вычислительные операции позволяют составить первое представление о сравнительном развитии различных областей науки в разных организациях и странах, а также помогают понять различные аспекты структуры и динамики наук.

Еще задолго до создания в начале 1960-х годов Индекса научного цитирования некоторые ученые стали анализировать количественную динамику публикаций в своих дисциплинах. В 1935 году, изучая кривую роста числа публикаций, посвященных фиксации азота растениями, ученые-агрономы вывели простую, но впоследствии востребованную математическую модель: логистическая кривая, характеризующаяся резким ростом с последующим насыщением[45]. Другой пример использования библиометрии относится к институциональному уровню: сотрудники исследовательской лаборатории компании «Дженерал электрик» в Нью-Йорке показали, что анализ публикаций является полезным методом для идентификации самых активных центров в той или иной научной области[46], а также для оценки уровня фундаментальных научных исследований в научно-производственных лабораториях[47].

36

См. переписку между Гарфилдом и социологом Гарриет Цукерман (Harriet Zuckerman) в: P. Wouters, “The citation culture,” op. cit., p. 102.

37

Eugene Garfield, Irving H. Sher & Richard J. Torpie, “The use of citation data in writing the history of science,” in Institute for Scientific Information, décembre 1964; Eugene Garfield, “From the science of science to scientometrics: visualizing the history of science with HistCite software,” in Journal of Informetrics, 3, 2009, pp. 173–179.

38





Henry Small, Physics Citation Index, 1920–1929, Philadelphie, ISI, 2 vols, 1981; “Recapturing physics in the 1920s through citation analysis,” in Czechoslovak Journal of Physics, 36, 1986, pp. 142–147.

39

http://wokinfo.com/products_tools/backfiles/coss/, http://wokinfo.com/products_tools/backfiles/cos/.

40

См.: Eugene Garfield & Irving H. Sher, “New factors in the evaluation of scientific literature through citation indexing,” in American Documentation, 14, 1963, pp. 195–201.

41

См.: Vincent Larivière, Benoît Macaluso, Éric Archambault & Yves Gingras, “Which scientific elites? On the concentration of research funds, publications and citations,” in Research Evaluation, 19, 2010, pp. 45–53.

42

См.: Alan E. Bayer & John K. Folger, “Some correlates of a citation measure of productivity in science,” in Sociology of Education, 39, 1966, pp. 381–390.

43

Eugene Garfield, Irving H. Sher, “New tools for improving and evaluating the effectiveness of research,” in M. C. Yovits, D. M. Gilford, R. H. Wilcox, E. Staveley and H. D. Lemer (dir.), Research Program Effectiveness, Proceedings of the Conference Sponsored by the Office of Naval Research Washington, D. C., July 27–29, 1965 (New York: Gordon and Breach, 1966), pp. 135–146. Текст доступен в интернете: http://www.garfield.library.upe

44

Jonathan R. Cole, Stephen Cole, Social Stratification in Science (Chicago: University of Chicago Press, 1973).

45

См.: Perry W. Wilson et Edwin B. Fred, “The growth curve of a scientific literature,” in Scientific Monthly, 41, 1935, pp. 240–250.

46

См.: Jack H. Westbrook, “Identifying significant research,” in Science, 132, 28 October, 1960, pp. 1229–1234.

47

J. C. Fisher, “Basic research in industry,” in Science, 129, 19 June, 1959, pp. 1653–1657.