szukaj
Naukowcy polemizują z prof. Tumańskim. Krytyka "listy filadelfijskiej" bezpodstawna?
Polityka

 

PUBLIKUJMY W DOBRYCH PISMACH

W Polityce 23/2013 ukazał się artykuł Profesora Sławomira Tumańskiego pt. „Segregacja prasowa”. Tumański, redaktor naczelny czasopisma „Przegląd Elektrotechniczny”, przedstawia niedawne skreślenie tego miesięcznika z list filadelfijskiej jako wielki cios dla rozwoju nauki (nie tylko w Polsce) i kreśli czarno-białą wizję świata nauki, w której poszukiwaczom prawdy publikującym w „Przeglądzie Elektrotechnicznym” swoje rzetelne (choć mało cytowane) prace przeciwstawia nieuczciwych twórców Journal Citation Reports (JCR), niemądrych urzędników Ministerstwa Nauki, którzy dali się omamić oszustom z Filadelfii oraz naukowców publikujących w czasopismach, których z listy nie wyrzucono, bo zarówno autorzy jak i redaktorzy tych czasopism zrobili z cytowań “chodliwy towar” i narzędzie manipulacji. Profesor Tumański sugeruje, że wypowiada się w imieniu większości zdrowo myślących naukowców. Obaj jesteśmy przeciwnikami bezkrytycznego stosowania wskaźników bibliometrycznych do oceny naukowców, uczelni i czasopism, czemu wyraz dawaliśmy w naszych artykułach i w publicznych dyskusjach, natomiast uważamy, że w swoim artykule Profesor Tumański wielokrotnie mija się z prawdą.

Artykuł Tumańskiego podyktowany jest głównie jego emocjami spowodowanymi usunięciem miesięcznika “Przegląd Elektrotechniczny” z listy filadelfijskiej. Jego wypowiedź byłaby bardziej wiarygodna, gdyby zaraz po przyjęciu miesięcznika na tę listę napisał, że instytut z Filadelfii “zamiast pomagać nauce deprawuje ją”. Sam przecież o umieszczenie „Przeglądu Elektrotechnicznego” na tej deprawującej liście zabiegał. Skoro lista filadelfijska jest tak mało ważna i wiarygodna, jak to przedstawiono w artykule, to przyjęcie czasopisma lub jego skreślenie w ogóle nie powinno mieć znaczenia. Skreślenie “Przeglądu Elektrotechnicznego” z listy filadelfijskiej nie ma żadnego wpływu na rozwój nauki światowej, jest to przecież tylko jeden z kilkunastu tysięcy indeksowanych przez instytut periodyków, zaś polskiej nauce bardziej pomoże niż zaszkodzi. Co roku taki los spotyka wiele czasopism z listy, jednak pojawiają się nowe i ogólna liczba czasopism indeksowanych ciągle rośnie. Liczba polskich czasopism na liście filadelfijskiej oscyluje, ale w perspektywie wieloletniej też ma tendencję wzrostową.

Jednym z grzechów współczesnej nauki jest zbyt wielka liczba czasopism i publikacji. Nawet w dość wąskich dziedzinach ukazuje się zbyt dużo prac, by pojedynczy naukowiec był w stanie się z nimi zapoznać. Wiele czasu traci się na czytanie (i recenzowanie) zupełnie niepotrzebnych artykułów. Naukowcy powinni publikować powściągliwie i starać się umieszczać swoje prace w prestiżowych czasopismach, gdzie łatwiej mogą zostać dostrzeżone przez społeczność naukową. Za prestiżowe można uznać co najwyżej 10 % czasopism o najwyższym IF (impact factor), z danej dziedziny a za niezłe – 30 % najwyżej sklasyfikowanych. Szanujący się naukowiec nie zniży się do publikowania w czasopismach z dolnych 10 % listy filadelfijskiej. W tym kontekście nie ma wielkiej różnicy pomiędzy nieobecnością na liście, a zajęciem na niej jednego z ostatnich miejsc, jak to było w przypadku “Przeglądu Elektrotechnicznego”, który z IF równym 0,244 (0,054 po korekcie na cytowania w tym samym piśmie) znalazł się w 2012 roku w dolnych 7 %. Z tych powodów został on z listy automatycznie usunięty przez program komputerowy, podobnie jak wiele innych czasopism chińskich, hinduskich, polskich…

Pomijając kwestię prestiżu, publikowanie w najsłabszych czasopismach jest niepraktyczne, gdyż to właśnie one są kandydatami do wyrzucenia z listy, a może się to stać zanim artykuł ujrzy światło dzienne. To prawda, że Thomson Institute posługuje się arbitralnymi kryteriami przy umieszczaniu czasopism na swej liście, jednak redaktorzy przez właściwą selekcję nadsyłanych artykułów mogą znacząco zwiększyć szanse redagowanych przez nich periodyków na pozostanie na liście. Trzeba po prostu być bardziej surowym redaktorem.

Jednym z najważniejszych współczynników bibliometrycznych, charakteryzujących poziom nauki w danym kraju jest liczba cytowań przypadających na jeden artykuł. W przeciwieństwie do ogólnej liczby cytowań i ogólnej liczby publikacji, pozwala ona porównywać duże państwa z małymi. Raporty podające liczbę cytowań, przypadających na jeden artykuł opublikowany w ciągu ostatnich 10 lat są aktualizowane co kilka miesięcy. Jeszcze niedawno Polska zajmowała w tej dziedzinie 89 miejsce na 148 sklasyfikowanych państw. Teraz spadliśmy na setne miejsce (na 149), ze średnią cytowalnością równą połowie średniej światowej. Nawet nasza drużyna piłkarska, regularnie przegrywająca ważne mecze, nie stoi w rankingach tak nisko. To żenująco kiepskie miejsce wynika po części ze struktury nauki w Polsce, która nie sprzyja dużej liczbie cytowań. Omawiał to wielokrotnie profesor Andrzej Kajetan Wróblewski w swoich wnikliwych artykułach. Główną przyczyną tej słabej pozycji jest jednak publikowanie przez polskich naukowców zbyt dużej liczby artykułów w periodykach o kiepskiej reputacji.

Przyczynił się do tego również „Przegląd Elektrotechniczny”. W latach 2009-2012 aż 3% (sic!) wszystkich publikacji z polską afiliacją, indeksowanych przez Thomson Institute, ukazało się właśnie w “Przeglądzie Elektrotechnicznym” (więcej niż w jakimkolwiek innym periodyku naukowym zarówno polskim jak i zagranicznym). Jeśli zaś ograniczymy się do artykułów i pominiemy inne typy publikacji, to udział “Przeglądu Elektrotechnicznego” wzrasta do 4%. Następnych dziewięć czasopism, w których najczęściej umieszczali prace polscy naukowcy, to periodyki nieznacznie tylko lepsze od „Przeglądu Elektrotechnicznego”. Na 11 miejscu pojawia się czasopismo przyzwoite („Physical Review B”), a potem znowu znajdujemy sporą liczbę periodyków o znaczeniu marginalnym. W efekcie zbyt duża liczba polskich prac opublikowana jest w czasopismach, których nikt nie czyta i nie cytuje. Te właśnie periodyki, (z „Przeglądem Elektrotechnicznym” na czele) mają największy wpływ na średnią cytowalność polskich artykułów i w dużej mierze odpowiadają za katastrofalnie słaby wynik. Naukowcy polscy powinni więc publikować bardziej powściągliwie wybierając tylko takie czasopisma, gdzie ich praca może być dostrzeżona. Wzorem powściągliwości są tacy wybitni chemicy jak Zbigniew R. Grabowski, Bogumił Jeziorski czy Janusz Lewiński.

Każdy z nas przepracował wiele lat w USA i Zachodniej Europie (Francja, Niemcy, Finlandia) i uważamy, że wpływ liczby cytowań i publikacji w czasopismach o wysokim IF na kariery naukowe w tych krajach jest znacznie większy niż w Polsce, przeciwnie do tego co pisze prof. Tumański. Nie zauważyliśmy również pozytywnej korelacji między wyborem do PAN, a indeksem Hirscha (h) kandydatów, przynajmniej jeśli chodzi o Wydział III.

Plotki o rzekomych, powszechnie występujących spółdzielniach cytowań i innych manipulacjach indeksami bibliograficznymi są wymyślane przez naukowców, których prace są mało dostrzegane lub wręcz niedostrzegane. Manipulacje są patologicznym marginesem. Są zresztą niebezpieczne, bo jednym z pytań, na które muszą odpowiadać recenzenci jest pytanie czy cytowane odnośniki są właściwe. Nie ma też dowodu, że w “Przeglądzie Elektrotechnicznym” manipulacji jest mniej niż w czasopismach z listy filadelfijskiej.

Prof. dr hab Marek Kosmulski, Politechnika Lubelska i Abo Akademi (Turku, Finlandia), członek komitetu redakcyjnego „Colloids and Surfaces A” (Elsevier).

Prof. dr hab. Adam Proń , Politechnika Warszawska, redaktor regionalny czasopisma „Synthetic Metals” (Elsevier).

 

JAK OCENIAĆ NAUKOWCÓW

W artykule „Segregacja prasowa” prof. Sławomir Tumański odniósł się do ocen czasopism naukowych zwracając uwagę na niezrozumiałe uprzywilejowanie w Polsce naukometrycznej bazy danych Thompson Reuters z Filadelfii w stosunku do innych baz danych takich jak np. Scholar. Niewątpliwie istnieje problem z jednoznaczna oceną dorobku naukowego. Wobec ogromnego zalewu publikacji nie sposób jest śledzić na bieżąco wszystkie publikacje z danej dyscypliny. Tymczasem dopiero dobra znajomość literatury naukowej daje szanse na zaplanowanie własnych badań na wysokim poziomie. Prace przełomowe pojawiają się rzadko i nie ma problemu z ich oceną. Ogromna większość to prace przyczynkarskie i właśnie z oceną tych prac jest problem. Od pewnego czasu zaczęto posługiwać się parametrami naukometrycznymi takimi jak liczba cytowań i współczynnik Hirscha. Co by nie powiedzieć o tych naukometrycznych parametrach, dają one jednak obraz aktywności naukowej naukowca. Liczba cytowań świadczy o tym, że opublikowane praca zawierała informacje przydatne dla cytującego autora, współczynnik Hirscha z kolei pozwala na stwierdzenie czy oceniany naukowiec ma w swoim dorobku prace wyróżniające się, to jest takie, które są cytowane wielokrotnie.

Z tym, że te parametry można porównać w obrębie tych samych dyscyplin, gdyż  liczba cytowań zależy m.in. od liczby naukowców pracujących w danej dziedzinie oraz od międzynarodowego charakteru badań. Z tego względu prace z dziedziny nauk humanistycznych nie są tak często cytowane jak prace z nauk przyrodniczych.

Z reguły łatwiej uzyskać lepsze parametry naukowcom z krajów anglosaskich i z uwagi na to, czasopisma  z tego obszaru mają większy, uwarunkowany językowo i historycznie zasięg.

Oddzielnym problemem jest ranking czasopism. Ogromna presja na liczbę publikacji sprawie, że lawinowo rośnie liczb czasopism naukowych. Złośliwi mówią, że niektórzy naukowcy więcej piszą niż czytają, a szereg prac ma często nie więcej jak dwóch czytelników: autora i recenzenta i już nie zawsze redaktora czasopisma.

Tak zwana lista filadelfijska została utworzona przez prywatną instytucję jaką jest Thompson Reuters  z Filadelfii, za dostęp do której trzeba sporo zapłacić.

Aby czasopismo dostało się na listę filadelfijską należało wykazać, że czasopismo wychodzi regularnie przez 2 lata. To zaś świadczy jedynie o regularności publikowania czasopisma, a nie o jego jakości. Thomson Reuters nigdy nie prowadził oceny  jakości publikowanych prac – co oznacza, że znalezienie się czasopisma na liście filadelfijskiej nie świadczy o jego jakości. Na liście umieszczane były i są czasopisma o średniej liczbie cytowań przypadających na jedną  opublikowaną  pracę od 0,01 do kilkudziesięciu. Nie znam przypadku, aby czasopismo regularnie wychodzące przez 2 lata, którego kolejne numery były wysyłane do Filadelfii nie znalazło się na liście.

W Polsce i niektórych innych krajach znalezienie się na liście filadelfijskiej  zaczęto traktować jako dowód na wysoką jakość czasopisma. I to jest błąd, bowiem jakość publikowanych prac nie jest przez firmę Thompson Reuters oceniana.

W międzyczasie pojawiły się inne bazy danych m. in. Scholar, które są bezpłatne. Co prawda nie publikują one listy czasopism, ale dokładnie charakteryzują liczbę cytowań, współczynnik Hirscha, czy umiędzynarodowienie zespołu autorskich – są to podstawowe parametry, w oparciu o które można dokonać oceny czasopisma.

Istnieje jeszcze inna ważna różnica, mianowicie twórcy tzw. listy filadelfijskiej indeksują tylko czasopisma przyjęte do ich bazy, natomiast bazy Scholar starają się indeksować wszystkie publikacje, do których maja dostęp. To spowodowało, że w rozsądniejszych krajach zaczęto posługiwać się innymi bazami, a tzw. lista filadelfijska zaczęła tracić na znaczeniu. To tłumaczy ostatnią akcję skreślania czasopism, co dotknęło czasopismo wydawane przez prof.  Tumańskiego. Przy czym powód jest mało poważny. Z przyczyn etycznych należy cytować wszystkie prace, z których autor korzystał przy opracowaniu artykułu. Nie sadzę, aby było coś złego w cytowaniu  artykułów wcześniejszych opublikowanych we własnym czasopiśmie, pod warunkiem, że cytaty odnoszą się do danych wykorzystywanych w artykule. Wręcz jest to konieczne, aby nie być posądzonym o plagiat.

Liczba autocytowań jest z reguły większa w czasopismach o mniejszym obiegu, a z takim mamy do czynienia w przypadku czasopism wydawanych przez mniejsze kraje. Można zgodzić się, że ten rodzaj cytowań nie musi świadczyć o jakości czasopisma, bo redakcje mogą stosunkowo łatwo wpływać na wzrost liczby takich cytowań. Istnieje jednak bardziej uczciwe rozwiązanie tego problemu od skreślenia z listy. Po prostu należy rankingować czasopismo według cytowań w innych czasopismach z pominięciem autocytowań.

Takimi danymi Thompson Reuters dysponuje. Nic nie stało zatem na przeszkodzie, aby przy obliczaniu impact factora posługiwać się tylko cytowaniami z innych czasopism. Zgadzam się z prof. Tumańskim, że ostatnie działania Thomsona Reutersa mają na celu stworzenie wrażenia, że podnosi się kryteria jakościowe oceny czasopism, a w rzeczywistości chodzi o marginalizację czasopism wydawanych przez małe organizacje. W tej sytuacji należy pilnie zrezygnować z faworyzowania tzw. listy filadelfijskiej i ranking czasopism oprzeć na impact factorach publikowanych przez niekomercyjne bazy takie jak np. Scholar, który - jak już wspomniałem - indeksuje wszystkie dostępne czasopisma naukowe. Przecież o jakości czasopisma naukowego nie świadczy znalezienie się na liście tworzonej przez prywatną, komercyjną firmę, ale rzeczywista liczba cytowań opublikowanych artykułów. Przyjęcie w ocenie parametrycznej jednostek naukowych tylko i wyłącznie tzw. listy filadelfijskiej jest, delikatnie mówiąc, niezrozumiałe.  Przy okazji zaoszczędzimy sporo pieniędzy na zakupie bazy  z firmy Thompson Reuters.

Prof. Lucjan Pawłowski, członek PAN

Zastępca Przewodniczącego Rady Kuratorów

 

Czytaj także

Aktualności, komentarze

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj