Jakie są cele polityki naukowej w Polsce?
Kilka słów o stosowaniu wskaźników naukometrycznych.

Po lipcowym rozporządzeniu Ministra Nauki w sprawie oceny jednostek naukowych w Polsce, we wrześniowej prasie ukazały się dwa artykuły, jeden krytykujący zasady rankingu jednostek (prof. Andrzej K. Wróblewski - Gazeta Wyborcza) i drugi krytycznie oceniający ogólny poziom naszych badań naukowych (prof. Grzegorz Gorzelak - Polityka). Oba opierają się na bezkrytycznie zastosowanych przez MNiSzW (oraz jego agend NCN i NCBiR) wskaźnikach naukometrycznych: tzw. współczynniku cytowalności - oceniającym poziom czasopism, w których publikuje się prace naukowe na podstawie średniej liczby referencji w literaturze oraz współczynniku Hirsha, który ocenia poziom cytowania prac określonego badacza.  Zgadzając się w części z niektórymi tezami obu autorów chciałbym jednak zasadniczo polemizować z przyjęciem zasady wskaźników jako remedium na bolączki polskiej nauki i sugerować, że forsowany przez Ministerstwo system ocen opartych wyłącznie na tych wskaźnikach prowadzi politykę naukową w Polsce na manowce. Stanowisko podobne do mojego ma w Polsce swoich zwolenników (m.in. prof. Mirosław Soroka, Politechnika Wrocławska), ale ich głos nie przebija się do świadomości decydentów.

System oceny wskaźnikami naukometrycznymi nie dotyczy tylko nauki polskiej i jest w ostatnich latach ostro krytykowany w światowych czasopismach naukowych najwyższej rangi (Nature 2010, 465: 870-872 i 860-866; oraz 466: 179; PNAS 2010, 107: 21233; TIEE 2012, 27:473) oraz przez profesjonalnych statystyków, którzy dowodzą nieadekwatności jego założeń (Statistical Science 2009, 24: 1–14). Stosunkowo najlepszy system oceny pracy naukowej stosuje się m.in. w USA, W. Brytanii i Szwecji, gdzie oprócz wskaźników wyniki badań są oceniane merytorycznie przez niezależnych recenzentów. Dlatego też reakcja amerykańskich profesorów: Z. Dautera, W. Minora i A. Włodawera na artykuł prof. Gorzelaka w Polityce (patrz strona internetowa TP) nie osądza polskich osiągnięć naukowych tak surowo jak prof. Gorzelak. Zresztą sposoby mierzenia sukcesu na Zachodzie są częściowo weryfikowane przez rynek - jeżeli coś jest innowacyjne, to jest kupowane.

Głównym argumentem przeciwko używaniu wskaźników naukometrycznych do oceny wartości prac naukowych jest fakt, że zostały one  przygotowane do porównywania jakości czasopism naukowych, a nie badań w nich publikowanych. Statystycy udowodnili, że liczba niekontrolowanych parametrów takiej oceny dyskwalifikuje ją m.in. przy porównywaniu wyników w subdyscyplinach dziedzin naukowych (w moim przypadku - biologii) czy między grupami badawczymi różnej wielkości. Oczywiście, wskaźniki te są wygodne dla administratorów nauki, ponieważ w jakiś sposób "klasyfikują" badaczy i osiągane przez nich wyniki. Pozostaje pytanie: ile w tak określonym sukcesie naukowym jest szczęścia (wynikającego na przykład z faktu dostania się do lepszego zespołu badawczego, który więcej publikuje) lub pasji do "modnego tematu" czyli pracy w dyscyplinie, która ma większy współczynnik cytowalności (np. w tej chwili biologia molekularna, a nie etologia)? Na dodatek ważne są autocytowania w modnych dziedzinach i w wybranych przez akademików pismach! Wikipedia podaje 10 zastrzeżeń do używania współczynnika Hirsha w celu porównania jakości publikacji naukowych badaczy - prawie żaden z nich nie został uwzględniony w rozporządzeniu Ministra Nauki. Nie mówiąc o tym, że czwarta najczęściej cytowana praca w Google Schoolar jest opublikowana w czasopiśmie, które w ogóle nie znajduje się na liście współczynników cytowalności!

Czytaj także

Aktualności, komentarze

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną