Warning: unlink(online_g/18.232.88.17) [function.unlink]: No such file or directory in /home/nfadddij/www/main.php on line 802

Warning: file(online_g/34.238.143.70) [function.file]: failed to open stream: No such file or directory in /home/nfadddij/www/main.php on line 799
Niezależne Forum Akademickie

www.nfa.pl/

:: "Układ” w polskiej nauce
Artykuł dodany przez: nfa (2007-01-30 13:41:19)

Józef Kalisz
"Układ” w polskiej nauce


Podobnie jak w innych dziedzinach, również w nauce Polska jest zacofana. Kiepskie prawo, demoralizacja środowiska i ubogie finansowanie powodują, że rozwój polskiej nauki jest – w porównaniu z innymi krajami UE – znacznie wolniejszy. Ilustruje to bardzo niska pozycja Polski w międzynarodowym zestawieniu najczęściej cytowanych naukowców http://hcr3.isiknowledge.com
W latach 2005 i 2006 w tym doborowym towarzystwie ok. 6300 naukowców znalazło się tylko dwóch z Polski (prof. Ryszard Gryglewski - farmakologia i prof. Grzegorz Grynkiewicz - biochemia). Dla porównania, w grudniu 2006 roku Dania miała ich 29 (28) , Izrael - 47 (44) , Włochy - 71 (61) , Holandia - 91 (79), Niemcy - 236 (215), Anglia - 355 (346) i USA - 3779 (3492). Liczby w nawiasach ilustrują stan z 2005 roku.

Zbyt mało jest w Polsce liczących się na świecie osiągnięć naukowych. Jest to skutkiem nie tylko ubogiego finansowania, ale również słabego poziomu naukowego wielu polskich pracowników naukowych oraz kierowników jednostek naukowych i zespołów badawczych. Obserwuje się nieefektywne planowanie i wykorzystanie środków finansowych oraz deformację procesów awansowych. Najlepsi polscy naukowcy często emigrują do innych krajów.

Nowe polskie ustawy i rozporządzenia dotyczące nauki są pisane w duchu minionej epoki, kładąc nacisk na dużą liczbę i drobiazgowość nieudolnych przepisów oraz wszechwładny centralizm ministerialnego kierownictwa. Za tworzenie tego prawa jest odpowiedzialny automatycznie podtrzymujący się, konserwatywny „układ” personalny, który jest zdominowany przez wieloletnich działaczy naukowych. Działalność i kariera naukowa niemal wszystkich tych osób miała swe początki jeszcze w czasach PRL lub niedługo później. Miało to ogromny wpływ na ukształtowanie się typowych dla tamtej epoki postaw i przyzwyczajeń. Doskonałą diagnozę tej sytuacji przedstawił M. Narkiewicz (Forum Akademickie 10/2006). M. Żylicz (FA 6/2006) trafnie zauważa: "odziedziczona struktura nauki polskiej, z czasów „tak zwanych minionych”, pełna jest nadal pseudonaukowców, którzy jak ognia boją się jakichkolwiek konkursów, rankingów oraz porównań, które obnażyłyby ich słabość".

Behawioralne cechy tego „układu” są znane: dbałość o zachowanie status quo, niedopuszczanie do istotnych zmian lub ich pozorowanie, wyciszanie i deprecjacja propozycji reform.


W „układzie” uczestniczy również pewna liczba naukowców o uznanym w świecie dorobku naukowym i dostrzegających wady obecnego systemu, ale nie mają oni wystarczającej siły przebicia do wprowadzenia koniecznych zmian. Pozostają narzekania w rozmowach prywatnych, szlachetne deklaracje i rozkładanie rąk.

Analiza tych zjawisk pozwala na sformułowanie wniosku, że najcięższą chorobą polskiej nauki jest nagminnie spotykane pozoranctwo naukowe. Obok licznej grupy rzetelnych naukowców istnieje również liczna grupa osób, których 'dorobek naukowy' jest tworzony sztucznie.

Nierzadko stosuje się sztuczne rozdymanie dorobku publikacyjnego, zwłaszcza występujące przed wszelkiego rodzaju awansami naukowymi: liczne, praktycznie nie recenzowane referaty na środowiskowych konferencjach krajowych, takież artykuły w wewnętrznych periodykach uczelnianych lub instytutowych (czasem nawet o anglojęzycznych tytułach), powtarzanie tych samych treści w różnych, czasem licznych publikacjach o zmienionych tytułach, "monografie" wydawane przez uczelniane oficyny wydawnicze o praktycznie zerowym zasięgu czytelnictwa i podobnej użyteczności, a jednocześnie brak publikacji z czasopism i konferencji międzynarodowych o uznanym prestiżu. Nieliczne periodyki i konferencje krajowe o znaczącej randze naukowej generalnie nie zmieniają tej sytuacji. Nierzadko płytkości dorobku publikacyjnego usiłuje się nadawać etykiety doniosłości. Ustawowe wymagania "znaczącego dorobku" okazują się w praktyce niezwykle rozciągliwe.

Opisane negatywne zjawiska są wynikiem braku dostępu do narzędzi informatycznych, umożliwiających uzyskanie obiektywnych miar dorobku naukowego. Nie są również ogólnie przyjęte zasady postępowania, które implikują stosowanie takich miar.

Podstawowym, wszechstronnym i ogólnie uznanym na świecie narzędziem informatycznym, służącym do planowania, realizacji i oceny badań naukowych jest platforma Web of Knowledge (WoK) firmy Thomson Scientific. Wykorzystuje ona znaną bazę cytowań Web of Science (WoS) i zapewnia łatwy dostęp do wyczerpujących informacji naukowych z całego świata, oddzielnie dla nauk społecznych i humanistycznych. W połączeniu z bazą Essential Science Indicators (ESI) stanowi niezastąpioną pomoc przy analizie i planowaniu rozwoju badań naukowych w kraju i na świecie. Umożliwia również szybkie tworzenie obiektywnych ocen i porównań wyników naukowych w odniesieniu do poszczególnych jednostek naukowych i indywidualnych naukowców.


Rząd Hiszpanii zakupił centralnie licencję na WoK dla wszystkich uczelni publicznych w tym kraju. W Polsce znacznie ograniczone licencje na dostęp do WoS mają wykupione tylko niektóre uczelnie i PAN, co jest dalece niewystarczające. Jest rzeczą zdumiewającą, że dostępu do WoK i ESI nie ma nawet Biblioteka Ministerstwa Nauki i Szkolnictwa Wyższego!

Ministerstwo Nauki i Szkolnictwa Wyższego powinno jak najszybciej centralnie zakupić licencję na pełną wersję WoK i ESI dla wszystkich uczelni publicznych. To jest podstawa. W tym celu należy wykorzystać fundusze z Unii Europejskiej.

Bez tych narzędzi informatycznych planowanie badań w Polsce kuleje, ubogie finansowanie jest rozproszone, a wobec braku obiektywnych ocen nadal kwitnie demoralizujące pozoranctwo naukowe.

Obecnie obowiązująca „Karta oceny” jednostek naukowych, dokument o podstawowym znaczeniu przy określaniu finansowania jednostek naukowych przez Ministerstwo, jest wyjątkowo źle sformułowana i zawiera zdumiewające kryteria punktacji. Na przykład, w p. 4.c jednakowo (50 pkt) oceniane są nagrody Prezydenta RP, jak i nagrody krajowych izb gospodarczych oraz medale i wyróżnienia na targach krajowych i zagranicznych. Czyli byle wyróżnienie na byle targach krajowych daje 50 pkt - więcej niż habilitacja i profesura razem wzięte! Takich „kwiatków” jest tam więcej. Widać, jak nieudolny jest ten „układ”.

Ocenę jednostek naukowych wykonuje się m.in. w oparciu o liczbę publikacji z czasopism ujętych przez "Master Journal List" – MJL (czyli z tzw. „Listy Filadelfijskiej” - LF) i wymienionych w „części A” rozporządzenia o finansowaniu nauki (Dz. U. Nr 161 poz. 1359). Jest to najprostszy, lecz mało reprezentatywny wskaźnik działalności naukowej. Ponadto wykaz czasopism naukowych i punktacji przypisanych do publikacji w nich budzi wątpliwości.

Punktacja w części A (czasopisma z MJL) została przygotowana w oparciu o Journal Citation Reports, odpowiednio do wielkości Impact Factor z 2004 roku i operuje arbitralnie przyjętymi czterema liczbami: 10, 15, 20 i 24 pkt. Zarówno wybór tych liczb, jak i oparcie punktacji czasopism łącznie ze wszystkich dziedzin w oparciu o te same miary IF budzi zastrzeżenia. Na przykład, pewne czasopisma, które w wykazie IF za 2004 rok mają wartość 0 (zero), w części A mają 10 pkt. Natomiast czasopisma o najwyższych wartościach IF (nawet powyżej 50), w części A mają 24 pkt. Jak widać, w części A dokonano bardzo silnego spłaszczenia punktacji, co prowadzi do zniekształcenia wyników. Ponadto nie uwzględniono liczby cytowań, łatwo uzyskiwanej z bazy WoK dla każdego naukowca.

Punktacja w części B (obejmująca inne czasopisma) listy ministerialnej jest wyraźnie zawyżona, deprecjonując wartość publikacji z części A. „Układ” zadziałał? W rezultacie publikowanie w czasopismach B materiałów z wszelkiego typu konferencji krajowych - co przynosi pożądane punkty - stało się już powszechnie stosowaną praktyką. Redakcje tych czasopism są zadowolone, ponieważ otrzymują – jako warunek – odpowiednie „dofinansowanie” od organizatorów konferencji. Jeśli za trudną publikację w A uzyskuje się 10 - 24 pkt, a za łatwą "konferencyjną" publikację w B 4 - 6 pkt, to trudno się dziwić, że produkcja takich publikacji rozkwita. Są to jednak pozoranckie naukowo manipulacje punktami, a nie rzeczywiste osiągnięcia naukowe. Mimo to nacisk na zwiększanie części B jest znaczny (Ministerstwo stale przyjmuje propozycje) i należy się spodziewać, że po pewnym czasie może ona skutecznie zniwelować wpływ części A. Aby uzdrowić tę sytuację, wystarczyłoby ustalić punktację B w zakresie 0,05 - 0,1 pkt lub całkowicie z niej zrezygnować.

Obecny system oceny parametrycznej jest wadliwy pod wieloma względami i powinien być odrzucony. Nie ma potrzeby tworzenia własnych, 'polskich' metod oceny działalności naukowej.

Bardzo dobrą miarą jest indeks (wskaźnik) H, zaproponowany przez J.E. Hirscha ("Index aims for fair ranking of scientists", Nature, 2005 Aug 18) i określany także jako "liczba Hirscha". Jest to liczba H publikacji, których liczba cytowań C jest nie mniejsza od H. Należy ją stosować wyłącznie w odniesieniu do publikacji w czasopismach z MJL. Można również wykorzystać iloczyn P liczby A publikacji z MJL i liczby C cytowań tych publikacji, zawartych w czasopismach z MJL. Miary te można łatwo uzyskać korzystając z platformy WoK i stosować do celów ewaluacyjnych odrębnie dla każdej dziedziny lub dyscypliny naukowej.

Nie liczba profesorów, lecz liczba publikacji i ich cytowań w czasopismach z MJL stanowią o wartości jednostki naukowej. Te same miary odnoszą się również do naukowców. Wprowadzenie w Polsce na szeroką skalę platformy WoK i bazy ESI sprawi, że wartościowy dorobek polskich naukowców stanie się jawny i oddzielony od „plew”. Trzeba odkryć prawdę.

Wykorzystując indeks H oraz liczby A, C i P będzie można tworzyć również porównawcze oceny dorobku polskich naukowców, wykonywane oddzielnie w każdej dziedzinie lub dyscyplinie naukowej. Jak wspomniano wcześniej, niektóre dziedziny naukowe są bowiem uprzywilejowane, jeśli chodzi o liczbę publikacji i cytowań. Sprawiedliwość w globalnej ocenie osiągnięć naukowych (łącznie we wszystkich dziedzinach nauki) jest w praktyce nieosiągalna.

Wymienione miary liczbowe nie muszą być stosowane do ustalania barier ustawowych, np. w awansach, typu: „aby uzyskać stanowisko X w dyscyplinie Y, kandydat powinien mieć H > 4”, choć pewne zalecenia mogą powstać. Z drugiej strony, porównywanie tych miar dla konkretnych kandydatów rozpatrywanych w konkursach jest celowe. Uczelnie powinny również uwzględniać te miary przy formułowaniu warunków awansowych w swych statutach, co powinno być oceniane podczas akredytacji.

Dysponując dostępem do WoK i ESI byłoby celowe ograniczenie oceny działalności naukowej jednostek do prostych wskaźników publikacyjnych uzyskanych przy pomocy WoK: sumy indeksów H (w nieograniczonym przedziale czasowym) oraz sumy liczb A i sumy liczb C (w przedziale ostatnich 10 lat) dla wszystkich pracowników n-b jednostki (dodatkowo po unormowaniu, czyli podzieleniu tych sum przez liczbę pracowników n-b). Dodatkowe punkty należy przydzielać jednostkom, których pracownicy zostali uwzględnieni w elitarnych rankingach ESI. Do celów informacyjnych pożądana jest także suma wszystkich przychodów jednostki, niezależnie od źródła (dodatkowo po unormowaniu, czyli podzieleniu przez liczbę wszystkich pracowników). Nie powinno się premiować liczby patentów, ponieważ w praktyce liczy się nie liczba patentów, lecz sprzedaż licencji patentowych, a te przychody byłyby uwzględnione. Zamiast tworzyć kontrowersyjne "kategorie" jednostek, można utworzyć na podstawie wymienionych wyżej wskaźników obiektywne rankingi jednostek osobno dla każdej dyscypliny i finansować na przykład najlepsze 70 % z nich z odpowiednimi wagami, choćby liniowo. Rozwój jednostki można oceniać w okresach czteroletnich, wykonując analizę zmian wartości tych wskaźników.

Przestarzałe tryby awansów naukowych i organizacyjnych są w Polsce hamulcem rozwoju nauki i łącznie z mizerią wynagrodzeń stanowią główne przyczyny emigracji z Polski wielu młodych naukowców. Trzeba wreszcie zlikwidować tytuł profesora „belwederskiego”, habilitację i post-PRLowską Centralną Komisję.

Trzeba jednocześnie zwiększyć wymagania – głównie w zakresie publikacji naukowych – do uzyskania stopnia doktora i w szczególności do wyróżnienia rozprawy. Prezentacje na zagranicznych konferencjach naukowych, pisanie rozpraw doktorskich w języku angielskim, udostępnianie ich w Internecie i recenzje zagraniczne (zgodnie z obecnym, ułomnym prawem, recenzję nierzadko pisze kolega promotora z tego samego zespołu lub nawet jego podwładny!).

Podobnie jak w USA, celowa jest trzystopniowa gradacja stanowisk profesorskich. Powinna obowiązywać żelazna zasada: profesorowie (zwłaszcza o wyższej randze) muszą mieć wyraźny dorobek naukowy w skali międzynarodowej (co można obiektywnie ustalić przy pomocy wskaźników H, A i C uzyskiwanych z WoK) oraz rekomendacje od profesorów z uczelni zagranicznych. W przeciwnym razie dalej będzie się krzewić naukowe pozoranctwo. Ale czy „układ” pozwoli na zmiany?

"Demokratyczne wybory" w polskiej nauce to często tylko piękna idea. Większość głosujących stanowią zazwyczaj osoby o niewielkim dorobku, więc w głosowaniach preferują podobnych kandydatów, którzy mogą być łagodni w ocenach i konserwujący „układ”. Nierzadko stosuje się zabiegi lobbystyczne i uzgadnianie rekomendacji w celu wyboru „przychylnych” kandydatów. Takie „wybory” bywają również uzupełniane arbitralną kooptacją. To jest chore. W celu uzdrowienia tej sytuacji trzeba pomocniczo wprowadzić punktację rankingową naukowców w obrębie każdej dyscypliny (indeks H oraz liczby A i C z WoK; informacje z ESI) oraz jawne procedury, zapewniające elitarność gremiów naukowych.

Obecny ułomny „układ” dobrze ilustrują wybory do „Centralnej Komisji” w grudniu 2006. Łatwo można sprawdzić (np. przy użyciu bazy Google Scholar) liczbę i rodzaj publikacji oraz liczbę ich cytowań dla osób wysuniętych jako kandydatów. Dysproporcje są ogromne, czyli dorobek naukowy kandydatów jest w tych wyborach mało istotny, tak jak i w przeszłości.

Trzeba zmienić „Ustawę o szkolnictwie wyższym” i zapewnić znacznie więcej swobody i samodzielności uczelniom. Zbyteczne są znormalizowane „standardy kształcenia”, które wydają się sensowne laikom i urzędnikom, ale w środowisku akademickim budzą śmiech. Przecież nie formalnie napisany program jest najważniejszy, lecz treść i poziom realnych zajęć akademickich. Rektorzy i dziekani powinni być wybierani w wyniku otwartych, ogólnopolskich konkursów, z których należy wykluczyć kandydatów, którzy magisterium, doktorat i habilitację (tytuł profesora) uzyskali na tej samej uczelni. Pewien zakres mobilności jest niezbędny, aby zneutralizować lokalne „układy”. Feudalne hierarchie organizacyjne powinny zostać spłaszczone na rzecz swobodnie formowanych zespołów badawczych. Ministerialna czapka powinna być skupiona głównie na działalności Komisji Akredytacyjnej i finansowaniu uczelni publicznych. Można rozważyć, czy Rada Główna Szkolnictwa Wyższego, Konferencje Rektorów i inne podobne organizacje nie powinny działać jako organy samorządne poza Ministerstwem i być finansowane przez zainteresowane uczelnie. W ten sposób zapewniłoby się pożądaną niezależność tych gremiów od nacisków ze strony Ministerstwa (art. 54, p.4 Prawa o Szkolnictwie Wyższym).

Trzeba podjąć prace w kierunku wprowadzenia płatnych studiów wyższych na uczelniach publicznych, na przykład przez wprowadzenie systemu talonów, zaproponowanego przez nieodżałowanego Miltona Friedmana, laureata Nagrody Nobla, w książce „Wolny wybór”. Pisany więcej niż ćwierć wieku temu rozdział 7 („Co złego dzieje się z naszymi szkołami?”) tej książki zaskakująco dobrze odpowiada również obecnej sytuacji w polskim szkolnictwie wyższym.

Uczelnie powinny autonomicznie wprowadzić odpowiednio wysokie wynagrodzenia dla najlepszych naukowców w rankingach, aby pracowali oni wyłącznie w jednej uczelni. Nie ma potrzeby wprowadzania ustawowych zakazów pracy równoległej w różnych jednostkach. Wystarczą konkurencyjne wynagrodzenia, nacisk na wyniki naukowe i odpowiednie uregulowania statutowe. Osoby, które znają zasady pracy w zachodnich uczelniach wiedzą, że obowiązuje w nich generalnie obowiązek obecności w uczelni w każdym dniu pracy, w pełnym wymiarze godzinowym. Dotyczy to również profesorów. Równoległa praca w konkurencyjnej uczelni jest nie do pomyślenia. Te same zasady trzeba wprowadzić w Polsce.

Amerykański system organizacji nauki nie jest idealny, ale jest najlepszy z obecnie stosowanych w różnych krajach. Po prostu daje najlepsze wyniki. Do opracowania nowego prawa należałoby więc zaprosić również najlepszych polskich naukowców z USA. W Europie warto brać przykład z dynamicznej Finlandii. Ale czy pozwoli na to „układ”?

Józef Kalisz
http://www.kali.enter.net.pl/nauka.html

(nowa wersja tekstu z dnia 20.01.2007)



adres tego artykułu: www.nfa.pl//articles.php?id=338