Добавить в цитаты Настройки чтения

Страница 2 из 9

Глава I. Истоки библиометрии

Прежде чем начать разговор о библиометрии, стоит прояснить терминологию, используемую в этой области. Термин «наукометрия» обычно связывается с именем физика Василия Васильевича Налимова, опубликовавшего в 1969 году книгу с таким названием. Наукометрия включает в себя количественное измерение разных видов научной деятельности в самых разных дисциплинах[7]. Ее данные содержат суммы инвестиций в исследования и разработки (Research and Development, R&D), обучение научного персонала и производство статей и патентов. «Библиометрия», термин, введенный в обращение в том же 1969 году Аланом Причардом, означает подраздел наукометрии. Она ограничивается анализом публикаций и их характеристик[8]. И наконец, если в анализ включаются также патенты, часто используется термин «технометрия».

При слове «публикации» первыми приходят на ум научные статьи, однако публикации могут быть самого разного рода. Они включают как книги, так и диссертации, а также так называемую «серую» литературу – отчеты и аналитические записки. Возможность для более или менее тонкого анализа этих различных источников зависит лишь от степени их доступности в форме баз данных. Когда автоматической обработки данных при помощи компьютеров еще не существовало, библиометрический анализ осуществлялся вручную, ограничиваясь несколькими десятками публикаций в отдельных областях науки, таких как химия или социология.

Несмотря на четкие различия между наукометрией и библиометрией, использование библиометрических данных в исследовании научной динамики отныне настолько вошло в привычку, что оба термина быстро стали взаимозаменяемыми.

Анализ ссылок как инструмент управления журнальными фондами

Появление библиометрии обычно относят к середине 1920-х годов, когда было опубликовано статистическое исследование Альфреда Лотки о распределении продуктивности ученых. В этой статье Лотка вывел закон, носящий теперь его имя: число авторов, публикующих N статей, обратно пропорционально числу N в квадрате[9]. Но как показал Бенуа Годен[10], первыми, кто еще в начале XX века проанализировал динамику публикаций в своей области, стали психологи. Однако в отличие от анализа Лотки, психологи в своих наблюдениях не задавались целью открыть общие законы. Они провели библиометрическое исследование для того, чтобы проанализировать рост своей новой дисциплины и способствовать ее популяризации. В ту же эпоху исследователи из другой области, сравнительной анатомии, также прибегли к анализу публикаций, чтобы проследить историю своей дисциплины с XVI до середины XIX века[11]. Но как ни датировать возникновение библиометрических исследований, настоящий их подъем начался в 1920–1930-е годы, по мере того как развивалось и систематизировалось управление фондами научных журналов в библиотеках. Специализированные журналы становились все более многочисленными и дорогими, поэтому библиотечные работники стремились найти объективные методы для отбора наиболее полезных для исследователей наименований. Именно в этом контексте управления журнальными фондами и возникла идея систематического анализа уже не самих публикаций, а содержащихся в них ссылок (цитат).

Проанализировав, какие журналы чаще всего цитировались, например, в области химии за данный период времени, библиотекари могли принять обоснованное решение, какие из них продолжали оставаться полезными, а какие устаревали, поскольку реже цитировались. Так, исследование, опубликованное в журнале Science в 1927 году, показало, что для получения представления о реальном использовании журналов вместо отбора журналов по принципу субъективного интереса со стороны некоторых исследователей следует искать объективный и более общий показатель. Анализируя содержание главного американского журнала по химии за 1926 год, авторы, два химика, обнаружили, что несмотря на то, что в нем цитируются 247 разных журналов, большинство из них (более 130) упоминались менее трех раз[12]. Обращая внимание на ведущие позиции немецких журналов, авторы попутно подчеркивали, насколько важно для молодых химиков владеть этим языком[13]. А исследование цитирования в химических журналах середины 1950-х годов наглядно продемонстрировало резкое падение количества ссылок американских химиков на немецкие журналы, что отражало радикально переменившуюся конъюнктуру после Второй мировой войны[14].

Такого рода описательный анализ, осуществлявшийся вручную на небольших по объему выборках, находил затем применение и в различных областях гуманитарных и социальных наук[15]. Из этих исследований вырастут основные понятия новой дисциплины – библиометрии. Так, идея о том, что количество обращений к публикации падает с течением времени, в начале 1960-х годов найдет отражение в понятии «время полужизни» научной литературы по аналогии с радиоактивным распадом элементов. Анализируя распределение ссылок в журналах в зависимости от их давности, можно заметить, что оно уменьшается экспоненциально. Эта кривая позволяет выявить своего рода время полужизни статьи, подсчитав количество лет, на которые приходится 50 % от общего числа ссылок, полученных с момента публикации. Этот отрезок и становится показателем продолжительности полезной жизни научных статей в той или иной области (ил. 1а). На графике видно, что в истории гораздо чаще, чем в химии, встречаются отсылки к документам более чем двадцатилетней давности. Первые исследования также показали, например, что в математике половина цитируемых публикаций имеет возраст примерно десять лет, тогда как в физике это число следует разделить на два. Иначе говоря, у статей по математике более высокая продолжительность жизни, чем у статей по физике[16]. Можно также выявить время полужизни ссылок в будущем, то есть количество лет, которое должно пройти, прежде чем будет достигнута половина от общего числа полученных ссылок (ил. 1б).

Ил. 1a. Типичное распределение возраста ссылок, содержащихся в статьях по химии и истории, опубликованных в 1980 году

Ил. 1б. Типичная временная динамика ссылок, полученных статьями по химии и истории после их публикации в 1980 году (общее число ссылок равняется 100 %)

Индекс цитирования: информатизация библиографического исследования

По причине резкого роста числа публикуемых статей после Второй мировой войны ученые уже не успевали следить за результатами исследований даже в своей узкоспециализированной области. Этому уже не помогало и регулярное издание аннотаций новых публикаций частными фирмами и учеными обществами. И тогда возникла идея создать систему, которая индексировала бы все статьи, включая библиографические ссылки. За образец был принят индекс Шепарда, с помощью которого каталогизируются все решения суда в США. Он позволяет быстро выяснить, составляет ли еще данное судебное решение прецедент с учетом всех более поздних решений, которые на него ссылаются. В 1955 году специалист по библиотековедению Юджин Гарфилд, занимавший в то время пост замредактора журнала American Documentation, попросил замдиректора компании, издававшей индекс Шепарда, Уильяма С. Адэйра написать статью, в которой бы описывалось, как работает этот юридический инструмент, и указывались способы его адаптации к научной литературе. Через несколько месяцев в журнале Science Гарфилд представил проект информатизированной базы данных ссылок, содержащихся в статьях из научных журналов[17]. Его цель состояла в том, чтобы облегчить библиографический поиск, используя цитируемые статьи для нахождения других статей на ту же тему. Изначальное предположение здесь состояло в том, что цитирование того или иного текста обязательно указывает на концептуальную связь между цитирующей и цитируемой статьями (иными словами, в научных статьях, известных своей строгостью, цитаты не бывают случайными). Доступ к информации о статьях, цитируемых в том или ином тексте, помогает быстро составить релевантную библиографию. Действительно, если, например, статья цитирует книгу «Социология науки» (The Sociology of Science) Роберта К. Мертона, то велик шанс, что речь в ней идет о социологии науки. Точно так же исследователь, обнаруживая статьи авторов, в которых цитируются его работы, может таким образом ознакомиться с трудами коллег, работающих по той же теме, но при этом публикующихся не только в журналах, которые он знает и регулярно просматривает.

7

Yuri V. Granosky, “Is It Possible to Measure Science? V. V. Nalimov’s Research in Scientometrics,” in Scientometrics 52 (2), 2001, pp. 127–150.

8

Alan Pritchard, “Statistical Bibliography or Bibliometrics?”, in Journal of Documentation 24, 1969, pp. 348–349.

9

Alfred J. Lotka, “The frequency distribution of scientific productivity,” in Journal of the Washington Academy of Sciences, 16, 1926, pp. 317–324.





10

См.: Benoît Godin, “On the origins of bibliometrics,” in Scientometrics, 68, 2006, pp. 109–133.

11

См.: F. J. Cole & N. B. Eales, “The history of comparative anatomy. Part I: A statistical analysis of the literature,” in Science Progress, 11, 1917, pp. 578–596.

12

См.: P. L. K. Gross & E. M. Gross, “College libraries and chemical education,” in Science, 66, 1927, pp. 385–389.

13

См.: Oden E. Shepard, “The chemistry student still needs a reading knowledge of German,” in Journal of Chemical Education, 12, 1935, pp. 472–473.

14

См.: Richard L. Barrett & Mildred A. Barrett, “Journals most cited by chemists and chemical engineers,” in Journal of Chemical Education, 34, 1957, pp. 35–38.

15

См.: Robert N. Broadus, “An analysis of literature cited in the American Sociological Review,” in American Sociological Review, 17, 1952, pp. 355–357.

16

См.: Robert E. Burton & W. W. Kebler, “The ‘half-life’ of some scientific and technical literatures,” in American Documentation, 11, 1960, pp. 18–22.

17

Eugene Garfield, “Citation indexes for science. A new dimension in documentation through association of ideas,” in Science, 122, 1955, pp. 108–111.