W 2019 roku cała redakcja wpływowego pisma „Journal of Informetrics” zrezygnowała z dalszej współpracy z jego wydawcą. Tym wydawcą był – i wciąż jest – międzynarodowy koncern Elsevier. Odchodzący ogłosili, że nie chcą już dłużej działać na jego warunkach, i założyli własne czasopismo: „Quantitative Science Studies”.
Nowe pismo to nie w kij dmuchał. Jest oficjalnym organem Międzynarodowego Towarzystwa na rzecz Scjentometrii i Informetrii, które obchodzi obecnie trzydziestą rocznicę. Wydawcą QSS jest jedna z najważniejszych oficyn naukowych na świecie, MIT Press. Wszystkie artykuły są dostępne bezpłatnie (open access) na stronie pisma (pobiera ono opłaty publikacyjne od instytucji, które reprezentują autorzy i autorki, ale prowadzi też fundusz wspierający osoby pozbawione instytucjonalnego finansowania). Jeżeli zaś chcecie przeczytać tekst w elsevierowym „Journal of Informetrics”, niejednokrotnie zobaczycie cenę 25 dolarów za artykuł. No, chyba że skorzystacie z dróg nieoficjalnych, w rodzaju serwisu Sci-Hub.
Wydawałoby się, że publikacja w tego rodzaju piśmie powinna być ceniona. A tymczasem niekoniecznie.
*
W Polsce oficjalną oceną czasopism zajmuje się Ministerstwo Edukacji i Nauki – nieregularnie publikuje wykazy, w których przyznaje różnym pismom różną liczbę punktów, od 20 do 200. W najnowszym wykazie QSS otrzymał jedynie 20 punktów [1]. Oznacza to, że osoby publikujące tam teksty nie pomogą swoim uczelniom uzyskać wysokiej kategorii w ocenie ministerialnej (przeprowadzanej co kilka lat). Dlatego władze uczelniane będą raczej zachęcać pracowników naukowych, by wysyłali artykuły do innych pism – takich jak „Journal of Informetrics”, oceniony na 140 punktów.
Dość podobnie przedstawiają się sprawy w innej bliskiej mi dziedzinie wiedzy: badaniach nad grami. Środowisko naukowe jest zgodne, że jedno z najważniejszych pism w tym obszarze to „Game Studies”. Wydaje je powołana specjalnie w tym celu fundacja, wspierana przez kilka publicznych instytucji naukowych z państw nordyckich. Artykuły są rygorystycznie recenzowane (pismo przyjmuje jedynie kilka do kilkunastu procent zgłaszanych tekstów) i publikowane w trybie open access. Mimo to wartość oficjalnie przypisana w polskim wykazie do „Game Studies” to raptem 40 punktów na 200.
Oto więc hipoteza: nasz system punktowy sprzyja globalnym korporacjom wydawniczym, czerpiącym duże zyski z wydawania pism naukowych. Takie pisma często są rzeczywiście znaczące i cieszą się zasłużonym prestiżem, publikowanie w nich bywa najlepszym sposobem na dotarcie do fachowej publiczności, ale polski system uprzywilejowuje je ponad miarę. Konkurujące z nimi periodyki non profit, wydawane przez uczelnie bądź towarzystwa naukowe, w wielu wypadkach nie otrzymują należytej liczby punktów. To jeszcze bardziej skłania naszych badaczy i badaczki do publikowania tekstów w obiegu kontrolowanym przez koncerny.
Czemu istotne czasopisma non profit uzyskują mało punktów w oficjalnej polskiej ocenie? Może jest tak, że nasze kryteria punktowe zostały opracowane z myślą o modelu korporacyjnym, który w wielu dziedzinach nauki (w obiegu anglojęzycznym) jest rzeczywiście dominujący. Redakcje pism niekomercyjnych, wyłamując się z tego modelu, nie dbają – bo i dlaczego by miały – o spełnianie wymogów obowiązujących akurat w Polsce. I tak dochodzimy do paradoksalnej sytuacji: jeśli zgłoszę artykuł do ważnego pisma „Game Studies”, postąpię wbrew interesom uczelni, na której pracuję. Podobnie z pismem „The Journal for Critical Education Policy Studies” (40 pkt). I kto wie z iloma jeszcze.
Naturalnie to, co ma miejsce akurat w naszym kraju, dla największych koncernów nie jest kwestią kluczową. Ale to jedna z rozlicznych przeszkód sprawiających, że niełatwo uwolnić naukę od dominacji logiki zysku. Kwestia polska prowadzi nas do szerszego problemu: być może całkiem dużo jest państw, które w swoich systemach oceniania nauki mają zaszyte mechanizmy sprzyjające korporacjom? Być może ruch otwartej nauki będzie mógł w pełni osiągnąć swoje cele dopiero wtedy, gdy te systemy się zmienią? Być może.
*
Podkreślę znowu: to hipotezy, do weryfikacji. Nie zastąpią systematycznych badań nad większą liczbą czasopism. Co więcej, system punktowania zagranicznych pism naukowych pełni rozmaite funkcje, ukryte i jawne; tu omówiłem tylko jedną z nich. Do tego nie zajmowałem się punktacją czasopism polskich, która również jest złożonym zagadnieniem.
Czemu więc służy ten wpis? Poszerzeniu pola dyskusji. W polskich sporach o naukę niewiele widzę takiej krytyki, która cały system punktowy obejmowałaby pytaniem: cui bono? Decyzje Przemysława Czarnka z 2021 roku spotkały się z ostrymi reakcjami części środowiska akademickiego [2], ale ówczesne zarzuty – także moje – dotyczyły głównie tego, które pisma konkretnie otrzymały zbyt dużo punktów. A jeśli już padają stwierdzenia, że system punktowy należy w całości odrzucić, to z reguły nie zawierają refleksji nad miejscem tego systemu w globalnych układach władzy.
Za ideą punktowania czasopism naukowych stoi założenie, że jakieś ilościowe wskaźniki są potrzebne, by w niekończącym się labiryncie publikacji odnajdować te najbardziej wartościowe. Na tej podstawie podejmowane mają być na przykład decyzje o podziale publicznych środków na naukę. Czy założenie to jest trafne, a idea punktacji – słuszna? Na ten temat dyskutowaliśmy już w Polsce długo i namiętnie. Czas na kolejne pytania.
*
[1] Punktację czasopism można sprawdzać między innymi na tej stronie i w oficjalnych wykazach ministerialnych (komunikaty z 1 i 21 grudnia 2021 roku). Liczba 20 punktów wydaje się wynikać stąd, że pismo jest zarejestrowane w ważnych bazach danych, takich jak Scopus, lecz nie ma wyliczonej wartości tzw. wskaźników wpływu (zob. odpowiednie rozporządzenie).
[2] Przykładowe omówienia tutaj i tutaj. Mówiąc w skrócie – minister Czarnek parę razy podnosił punktację polskich czasopism. W pewnych przypadkach mógł mieć słuszność, dowartościowując obieg krajowy, zarazem jednak szczególnie wsparł pisma, w których sam publikował, periodyki związane z KUL czy też pisma kościelno-teologiczne.