пʼятницю, 7 червня 2013 р.

Як використовують міжнародні наукометричні бази

Схоже, що багато людей розуміють наукометричні бази як впорядковані списки "схвалених" кимось статей.

Насправді, факт включення журналу чи статті до такої бази не означає її якості, "схваленості", наявності чи якості рецензування чи ще чогось - крім власне включення до цієї бази та "видимості" (Visibility) для користувачів цієї бази.

Якщо стаття опублікована у збірнику чи журналі, який є "невидимим" - це не означає її неякісності, це означає, що з точки зору інформаційного простору вона просто не існує в природі. Публікація у збірнику-віснику-мурзилці з точки зору інформаційного простору практично еквівалентна підготовці статті і розміщенні її у власному комп'ютері чи столі. Я знаю багато прикладів, коли результат, опублікований в мурзилці, пізніше був перевідкритий або просто скопійований з мурзилки без посилання, і опублікований в нормальному журналі. Нещодавно ми були дуже вражені, побачивши посилання одного білоруського вченого на статтю іншого білоруського вченого 70-х років - цей результат ми добре знали з статті західних вчених кінця 70-х з сотнями цитувань, без посилання на цього білоруського вченого. Тобто результат публікації в мурзилці - невідомість справжнього автора.

Зараз світ сильно змінився, і пріоритет разом з видимістю для фізико-математичних статей забезпечується публікацією на препрінтному сервері arXiv.org. Для інших наук ситуація може бути іншою, але, у будь-якому випадку, публікація в мурзилці фактично не закріплює пріоритет автора.

Вчені використовують наукометричні бази для пошуку за прізвищами, ключовими словами, посиланнями (цікаво, хто ще посилається на статтю яка вас цікавить - так можна побачити, чи хтось ще пропонував розвиток цієї теми). Деякі бази надають для конкретної статті списки подібних статей чи статей з тими ж ключовими словами.

Редактори журналів використовують ці бази для пошуку можливих рецензентів (авторів подібних статей, авторів цитованих статей).

Рецензенти використовують наукометричні бази для того, щоб визначити, чи процитовані всі адекватні джерела, чи отримав хтось такі ж результати раніше (публікації, яких не видно в цих базах, вони не побачать, і повторений результат з "мурзилки" буде опублікований як новий), чи не є стаття "самоплагіатом" (чи не публікували автори ці ж результати раніше).

Виконання вимог наказу МОН №1112 2012 року автоматичної "видимості" (Visibility) досягнень дисертантів не дає - для дисертації достатньо публікацій у будь-яких "невидимих" зарубіжних журналах. Тобто його мета, схоже, зовсім не видимість результатів українських вчених для міжнародної наукової спільноти, а забезпечення потоку публікацій і грошей аспірантів до платних російських мурзилок, і унеможливлення вчасного захисту для багатьох (тобто в результаті - платний захист). До речі, українські ВАКівські журнали цілком "видимі" для  Google Scholar (та і є вимога наявності сайтів та резюме і назви англійською).

Наукометричні бази використовуються також для наукометричних досліджень. Наведемо кілька
цікавих прикладів наукометричних досліджень на основі наукометричної бази Web of Science

Найбільш популярні галузі дослідження у 2013 році

Research Fronts 2013

Звіт "100 найбільш пріоритетних галузей науки та гуманітарних досліджень"
http://img.en25.com/Web/ThomsonReutersScience/1002571.pdf
(посилання взяте з http://forum.maidanua.org/T-Research-Fronts-2013)

Для кожної з 100 галузей наведені списки найбільш цитованих статей.
"Thomson Reuters generates data on “research fronts.” these specialties are defined
when scientists undertake the fundamental scholarly act of citing one another’s work, reflecting
a specific commonality in their research — sometimes experimental data, sometimes a
method, or perhaps a concept or hypothesis. As part of its ongoing mission to track the world’s
most significant scientific and scholarly literature, Thomson Reuters surveys patterns and groupings
of how papers are cited—in particular, clusters of papers that are frequently cited together.
when such a grouping attains a certain level of activity and coherence (detected by quantitative
analysis), a research front is formed, with the cocited papers serving as the front’s foundational
“core.”
Research front data reveal links among researchers working on related threads of
scientific inquiry, but whose backgrounds might not suggest that they belong to the
same “invisible college.” for example, within this report, you’ll read about how one of the
highlighted research fronts, representing the combined fields of mathematics, computer
science, and engineering, came together because of its underlying problem set, which required
interdisciplinary input."
Українських публікацій в переліку публікацій в "передових галузях" немає. (Але Молдова згадується).

Вплив розвалу СРСР на математику в США

http://www.nber.org/papers/w17800.pdf
THE COLLAPSE OF THE SOVIET UNION AND THE PRODUCTIVITY OF AMERICAN
MATHEMATICIANS
George J. Borjas, Kirk B. Doran

Навіть якщо ви зовсім не знаєте англійської, рекомендую подивитись - там багато графіків. Та й можна оцінити масштаб можливих досліджень з застосуванням наукометричних баз.

Висновки:
"Our empirical analysis unambiguously documents that the typical American mathematician whose research agenda most overlapped with that of the Soviets suffered a reduction in productivity after the collapse of the Soviet Union. Based solely on the pre-1992 age-output profile of American mathematicians, we find that the actual post-1992 output of mathematicians whose work most overlapped with that of the Soviets and hence could have benefited more from the influx of Soviet ideas is far below what would have been expected. The data also reveal that these American mathematicians became much more likely to switch institutions; that the switch entailed a move to a lower quality institution; that many of these American mathematicians ceased publishing relatively early in their career; and that they became much less likely to publish a “home run” after the arrival of the Soviet émigrés. Although total output declined for the pre-existing group of American mathematicians, the gap was “filled in” by the contribution of Soviet émigrés."
Дослідження було проведене для "традиційно радянських" та "традиційно американських" галузей математики.

How are new citation-based journal indicators adding to the bibliometric toolbox? Як нові показники на основі цитувань впливають на набір бібліометричних інструментів?


The launching of Scopus and Google Scholar, and methodological developments in Social Network Analysis have made many more indicators for evaluating journals available than the traditional Impact Factor, Cited Half-life, and Immediacy Index of the ISI. In this study, these new indicators are compared with one another and with the older ones. Do the various indicators measure new dimensions of the citation networks, or are they highly correlated among them? Are they robust and relatively stable over time? Two main dimensions are distinguished -- size and impact -- which together shape influence. The H-index combines the two dimensions and can also be considered as an indicator of reach (like Indegree). PageRank is mainly an indicator of size, but has important interactions with centrality measures. The Scimago Journal Ranking (SJR) indicator provides an alternative to the Journal Impact Factor, but the computation is less easy.
Порівнюються наукометричні показники бази Web of Science (імпакт-фактор та інші) з показниками Scimago Journal Ranking, Scopus та Google Scholar.

*******************
Приклад пропозиції щодо нового наукометричного показника

http://arxiv.org/ftp/arxiv/papers/1305/1305.6026.pdf

Немає коментарів:

Дописати коментар