Nauka

Segregacja prasowa

Jak oceniać dorobek naukowców

Naukowcy nie godzą się na biurokratyzm urzędniczej oceny i protestują przeciwko biurokratyzacji nauki. Naukowcy nie godzą się na biurokratyzm urzędniczej oceny i protestują przeciwko biurokratyzacji nauki. Galina Peshkowa / PantherMedia
Jak oceniać dorobek pracowników nauki? Czy ich podstawą powinna być liczba publikacji w fachowych periodykach i rezonans, który wywołują w naukowym świecie? Jeśli nawet przyjąć to kryterium, to dlaczego mają się liczyć tylko czasopisma z tzw. listy filadelfijskiej?
Na liście filadelfijskiej jest 8336 tytułów czasopism, w tym z Polski 126.materiały prasowe Na liście filadelfijskiej jest 8336 tytułów czasopism, w tym z Polski 126.

Nie wiadomo, kto wymyślił pojęcie listy filadelfijskiej, ale podobnie jak fasolka po bretońsku, jest ono znane jedynie w Polsce. Nie znają go nawet twórcy tej listy – agencja Thomson Reuters z Filadelfii (dawniej: Instytut Informacji Naukowej, ang. ISI). Lista filadelfijska obejmuje czasopisma naukowe, w których publikowanie jest podstawą oceny dorobku uczonych. Obecność na niej jest ambicją każdego polskiego periodyku naukowego, a publikowanie na łamach pism z tej listy stało się niemal obowiązkiem każdego polskiego naukowca.

Na pomysł indeksowania pism naukowych wpadł filadelfijski Instytut Informacji Naukowej. Amerykanie wybrali najlepsze swoje pisma, dodali do tego najlepsze z całego świata i nazwali to Listą Mistrzowską – Master Journal List. Ocena tych czasopism polega na komputerowej analizie cytowań (spisu literatury). Jak napisał do mnie kiedyś jeden z edytorów ISI: „My nie oceniamy jakości naukowej pisma, ale jego znaczenie dla międzynarodowej społeczności naukowej – kto was cytuje i kogo wy cytujecie”. Thomson analizuje cytowania i raz do roku publikuje JCR – Journal Citation Report, a w nim Impact Factor – stosunek liczby cytowań do liczby publikacji. Ostatnio wykreowany został nowy produkt: h-index (w Polsce nazywany indeksem Hirscha), który w dość skomplikowany sposób obrazuje cytowania autorów.

Któż nie chciałby być na Liście Mistrzowskiej? Instytut przeprowadza więc bardzo surową ocenę kandydatów do listy z całego świata i od czasu do czasu przyjmuje nowych – kryteria tego doboru są niezupełnie jasne, ale Instytut twierdzi, że jest jednostką niezależną (niektórzy twierdzą, że niekontrolowaną). Jak ekskluzywny jest to klub, może świadczyć fakt, że pisma techniczne z Polski na tej liście można policzyć na palcach jednej ręki.

Indeksowanie przez Filadelfię jest niezupełnie uczciwe, ponieważ obciążone jest grzechem pierworodnym – podlegają tej procedurze tylko pisma z listy. W ten sposób, mimo deklaracji, że celem Instytutu jest wspieranie wymiany naukowej, świat został podzielony na dwie części – ich wspaniały świat, gdzie wszystkie pisma są master, a artykuły the best, oraz świat zewnętrzny, gdzie z definicji nic godnego indeksowania nie może się zdarzyć. Działalność Instytutu pośrednio służy więc utrwalaniu dominacji wybranych czasopism naukowych i podziałowi społeczności naukowej na gorszą i lepszą.

Instytut utrzymuje się ze sprzedaży swoich baz jako Web of Science. Interes okazał się na tyle dobry, że w jego ślady poszła europejska baza danych Scopus (powiązana z firmą Elsevier) oraz Google Scholar. Obie te instytucje publikują podobne współczynniki, a więc pojawiła się wreszcie konkurencja przełamująca monopol Filadelfii i działająca bardziej fair, bo indeksowaniu podlegają wszystkie zarejestrowane w bazie czasopisma, a nie tylko arbitralnie wybrane.

Indeksowanie czasopism i pośrednio naukowców znalazło swoich największych admiratorów w administracji nauki jako tzw. parametryzacja nauki. Urzędnicy otrzymali doskonałe narzędzie – po co robić konkursy i uciążliwe opiniowania, jeśli za kliknięciem myszki wyskakuje im gotowa ocena punktowa. Choroba filadelfijska się rozprzestrzenia, ale jej przebieg jest na ogół łagodny – jedynie w Polsce, Turcji i Chinach weszła ona w stan gorączkowy.

Filadelfijski dyktat

Chińczycy zupełnie sfiksowali na punkcie listy – tam żadna inna publikacja naukowa się nie liczy. Na dodatek otrzymanie grantu czy awansu naukowego nie jest możliwe bez obecności na liście. Przedziwne, że tak duże mocarstwo uzależniło się od werdyktów jednej komercyjnej agencji amerykańskiej. Inne kraje traktują listę z większym dystansem. Czesi i Słowacy jednakowo JCR i Scopus, dla Hiszpanów i Włochów ważniejszy jest Scopus. Duże kraje, jak Francja czy Niemcy, mają swoje listy rankingowe, na których wysoko oceniane są ich pisma krajowe. Co ciekawe, nawet Amerykanie patrzą ze zdziwieniem na naszą egzaltację listą – u nich jest to jedna z baz, a bardziej doceniana jest na przykład baza IEEEXplore.

W Polsce artykuły w pismach spoza listy mogą od Ministerstwa Nauki otrzymać ocenę do 9 pkt, artykuły w pismach z listy od 12 do 50 pkt. Ma to zmusić polskich naukowców do wyjścia z zaścianka i publikowania w pismach światowych. Problem w tym, że na wielu uczelniach tylko i wyłącznie lista filadelfijska stała się oficjalną wykładnią jakości nauki. Profesorowie, którzy mają już swój dorobek na liście i względną łatwość dostępu do niej, forsują uchwały typu „Filadelfia albo śmierć”, w myśl których nie wolno awansować młodych naukowców bez publikacji w czasopiśmie z listy filadelfijskiej. Ostatnie wybory do PAN zostały niemal całkowicie zdominowane przez indeks Hirscha, który stał się wyrocznią kwalifikacji kandydata. Opublikowany tydzień temu w POLITYCE naukowy ranking polskich uczelni też opiera się na indeksie Hirscha. Autorzy co prawda zastrzegają, że jest to jedna z metod oceny, ale – moim zdaniem – wymaga ona bardziej subtelnych narzędzi niż tylko sumowanie punktów.

Koncepcja, żeby oceniać artykuły naukowe tylko na podstawie cytowań, nie jest pozbawiona sensu. Faktycznie – artykuł, którego nikt nie zacytował, robi wrażenie nikomu niepotrzebnego. Poza tym cytowania może łatwo obliczać obiektywny komputer, podczas gdy ocena na podstawie opinii jest uciążliwa i nie zawsze obiektywna. Naukowcy jednak też są mądrzy i szybko potrafią się dostosować. Na świecie powstał cały przemysł cytowań, zwany u nas spółdzielniami. Poszczególne redakcje i instytucje umawiają się na wzajemne cytowania i dziś cytowanie nie ma nic wspólnego z powołaniem się na źródła. System jest już zdegenerowany – cytowania oderwały się od treści artykułu i stały się chodliwym towarem. Ostatnio opublikowałem w prestiżowym piśmie angielskim artykuł o czujnikach. Otrzymałem od pisma dyplom za najczęściej ściągany artykuł roku. Tymczasem cytowania miał marne. Po co cytować prawdziwe źródło informacji, skoro zamiast tego mogę zacytować swojego kolegę i wspomóc go w ten sposób w awansie?

Skok jakościowy

Naukowcy nie godzą się na automatyzm urzędniczej oceny i protestują przeciwko biurokratyzacji nauki. Ministerstwo Nauki z kolei odbiera to jako opór środowiska przeciwko zmianom. Faktycznie, nie uciekniemy od systemu ocen – przyjęły go w różnym stopniu niemal wszystkie kraje. Łatwość i transparentność oceny ma swoje zalety. Dziś każdy student może kliknąć w Google Scholar, gdzie okaże się, że jego profesor nie ma żadnego dorobku. Ale też główną chorobą systemu jest jego demoralizacja – naukowcy przystosowali się i zamiast szukać prawdy w badaniach naukowych, głównie zajęci są szukaniem punktów. Jako redaktor naczelny miesięcznika naukowego zawsze uważałem, że moim posłannictwem jest pomoc w wymianie naukowej i dokumentacji osiągnięć. Tymczasem teraz zostałem sprowadzony do roli dostawcy punktów niezbędnych do awansu.

Nasze pismo miało to szczęście, że zostało przyjęte na listę. Przekonałem edytorów z Filadelfii, że ich lista bez naszego pisma jest ułomna. Jesteśmy jednym z najstarszych czasopism technicznych w Europie – istniejemy od blisko stu lat. Ponadto nie reprezentujemy tylko Polski, ale cały duży region Europy – publikują u nas autorzy z Rosji, Ukrainy, Czech, Słowacji, Węgier, Macedonii czy Serbii. Bez nas w bazie filadelfijskiej ten region Europy jest białą plamą.

Przyjęcie nas na listę w 2008 r. oznaczało dla pisma skok jakościowy – mogliśmy przebierać w zgłaszanych artykułach, a tytuł „Przegląd Elektrotechniczny” stał się znany i rozpoznawalny w tak egzotycznych krajach, jak Tajlandia, Malezja czy Brazylia. Wszyscy autorzy z tych krajów zgłaszali swoje artykuły, zaznaczając, że czują się zaszczyceni publikowaniem w tak renomowanym czasopiśmie. Nie byliśmy jednak aż tak naiwni – wiadomo, że chodziło o publikację w czasopiśmie z listy.

Piszę o tym w czasie przeszłym, bo w tym roku zostaliśmy z listy skreśleni. Powód niezupełnie jest jasny, bo nasze wszystkie parametry, choć nie błyskotliwe, to jednak stale się poprawiały i na pewno były lepsze niż w momencie przyjęcia nas na listę. Podobno w przypadku Filadelfii regułą jest wcześniejsze ostrzeżenie pisma o niespełnianiu wymogów – dla nas jednak była to decyzja niespodziewana. Okazało się, że przestaliśmy być na liście od 1 stycznia, o czym Thomson nie raczył nas nawet poinformować. Komunikat o zaprzestaniu indeksowania został opublikowany dopiero pod koniec marca. Był to dramat dla wielu autorów chińskich – na podstawie publikacji w pierwszym kwartale (i przekonaniu o indeksowaniu) otrzymali granty i dofinansowania. Gdy okazało się, że nie ma nas już na liście, muszą teraz zwracać pieniądze, a winą obciążają także nas.

Oficjalną przyczyną usunięcia nas z listy był zbyt duży procent własnych cytowań, czyli tzw. samocytowań. Trudno dyskutować z faktami, ale małe cytowania w innych pismach mają w przypadku pism polskich wiele przyczyn obiektywnych, w praktyce nie do przezwyciężenia. Dla większości autorów nasze pismo było pierwszym i jedynym z listy, w którym udało im się umieścić artykuł. Nie mieli więc żadnej możliwości cytowania nas w innych pismach listy. Naszą misją było reprezentowanie nie tylko polskich autorów, ale i autorów z naszego regionu, którzy wciąż są ofiarami długoletniej izolacji ich krajów. Często nie znają biegle angielskiego i mają słabe kontakty zagraniczne. Co nie znaczy, że nie są w stanie publikować wartościowych artykułów. Czy mieliśmy zrezygnować z artykułów ukraińskich czy białoruskich tylko dlatego, że nie dadzą cytowań?

Jaka jest wartość listy

Pojawiło się wiele teorii na temat naszego skreślenia z listy. Teorie spiskowe mówiły, że staliśmy się zbyt dużym graczem na rynku. Teorie pragmatyczne, że dla potwierdzenia swojej wiarygodności Thomson musi od czasu do czasu kogoś spektakularnie usunąć – a przecież nie usunie pisma Springera czy IEEE. Ale też trzeba przyznać, że sami daliśmy pretekst. Przeprowadzona później analiza wykazała, że polscy autorzy często wstydzą się cytowania artykułów z polskich pism i uważają, że nie jest to trendy. Zamiast zacytować wartościowy polski artykuł (i wspomóc w ten sposób polskie pismo i polskiego kolegę autora), wolą zacytować byle jakie pismo zagraniczne, bo wydaje im się, że w ten sposób są bardziej światowi. Jeśli więc sami się nie szanujemy, nie oczekujmy, że będą nas szanować inni.

Napisał do mnie jeden z profesorów, od lat osiadły w Wielkiej Brytanii: „W UK do cytowań, impact factorów, h-indeksów itp. podchodzi się rozsądnie, to znaczy nie są one zupełnie ignorowane, ale na pewno nie są najważniejsze (są gdzieś tam w tle). W formalnych ocenach pracowników, na przykład, w ogóle nie są brane pod uwagę”.

Na świecie narasta krytyka instytutu z Filadelfii, którego działalność zamiast pomagać nauce, deprawuje ją. Instytut broni się, stwierdzając, że przecież nie każe nikomu oceniać pracowników na podstawie swoich analiz. Nie wiem, dlaczego polska administracja naukowa dała się tak zauroczyć Filadelfii. Dlaczego wzorem wielu krajów europejskich nie bierze także pod uwagę innych kryteriów? Może warto pomyśleć o polskim instytucie oceniającym naukę i polskiej liście rankingowej? Pole do popisu mają też polscy europosłowie – dlaczego by nie powołać obiektywnego instytutu europejskiego, podobnego do amerykańskiego?

Jako pismo z wielkimi tradycjami nie mamy na szczęście problemów z drukowaniem artykułów sławnych autorów. Uznają oni za swój obowiązek publikowanie w piśmie, w którym drukowali wcześniej swoje prace najwięksi polscy elektrycy – Mieczysław Pożaryski, Stanisław Fryze, Kazimierz Drewnowski czy Janusz Groszkowski. Ale mogą oni sobie pozwolić na ten luksus, gdyż ich pozycja jest na tyle silna, że nie muszą zabiegać o punkty. Inni autorzy chłodno kalkulują – czy dać artykuł do polskiego pisma i otrzymać od polskiego ministerstwa za ten artykuł do 9 pkt, czy przesłać ten artykuł np. do pisma estońskiego z listy i otrzymać 20 pkt?

System oceny naukowców, stawiający na piedestał pisma z listy filadelfijskiej, miał w zamyśle podwyższać poprzeczkę i stymulować rozwój nauki. Może tak i jest, ale produktem ubocznym tego systemu jest demoralizacja, szczególnie młodych naukowców, którzy widzą, że tylko punkty są ważne. Elita naukowa jest może dowartościowana, ale przeciętna naszej nauki będzie coraz słabsza, gdyż autorzy piszący do innych pism stają się automatycznie naukowcami drugiej kategorii. Bez odpowiedniej liczby punktów nie mają szansy na granty i awans naukowy. Choroba filadelfijska ma więc swoją polską odmianę – jest zadowolona z siebie grupa mistrzowska i sfrustrowana, bez szans na rozwój naukowy, reszta środowiska.

Autor jest profesorem Politechniki Warszawskiej i redaktorem naczelnym miesięcznika „Przegląd Elektrotechniczny”.

Więcej na ten temat
Reklama

Czytaj także

Ja My Oni

Inteligencja emocjonalna w życiu zawodowym

Jakie pożytki niesie bycie emocjonalnie inteligentnym pracownikiem i szefem.

Grzegorz Gustaw
14.05.2019
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną