Zasady oceny projektów badawczych w Polsce

Main Article Content

Julita Jabłecka

Abstrakt

Artykuł rozpoczyna opis różnorodnych wymagań stawianych wobec procesu peer review oraz wyników oceny projektów badawczych, trafności, rzetelności, efektywności, sprawiedliwości, wydajności i odpowiedzialności. Przedstawiono przyczyny krytycyzmu wobec działania systemu peer review oraz zróżnicowane układy odniesienia dla oceny tego procesu. Następnie zaprezentowano modele peer review stosowane w różnych krajach i radach badawczych lub fundacjach i na tym tle - cechy polskiego modelu. W części przedstawiającej działanie systemu polskiego ukazano rozwiązania stosowane przez poszczególne sekcje Komitetu Badań Naukowych: dobór recenzentów, kwestionariusz oceny, organizację spotkań paneli, rozwiązywanie problemu braku consensusu, procedury rangowania i głosowania. Na zakończenie opisano zewnętrzny kontekst decydujący o przyjętych rozwiązaniach i efektywności systemu - warunki polityczne, kulturowe i finansowe funkcjonowania nauki w Polsce oraz powiązania strukturalne wpływające na proces alokacji środków między poszczególne projekty i dyscypliny nauki.

Downloads

Download data is not yet available.

Article Details

Dział
Oryginalny artykuł naukowy
Biogram autora

Julita Jabłecka, Uniwersytet Warszawski

Julita Jabłecka - absolwentka Szkoły Głównej Handlowej, tam także obroniła pracę doktorską na temat reformy instytutowej w szkołach wyższych. Pracuje w Centrum Badań Polityki Naukowej i Szkolnictwa Wyższego Uniwersytetu Warszawskiego, poprzednio zatrudniona w Instytucie Polityki Naukowej i Szkolnictwa Wyższego. W roku 1990 uczestniczyła w pracach nad reformą struktur kierowania i finansowania nauką w Polsce. Obecne zainteresowania badawcze to: konsekwencje regulacji prawnych dla funkcjonowania szkolnictwa wyższego i nauki, decyzje w polityce naukowej oraz problematyka oceny badań naukowych, a zwłaszcza projektów badawczych. Jest członkiem Komitetu Naukoznawstwa PAN.

Referencje

  1. Abrams P. 1991 The Predictive Ability ofPeer Review o f Grant Proposals: the Case ofEcology at the National Science Foundation, „Social Studies of Science”, vol. 21, nr 1, February.
  2. Cole J., Cole S., Simon G. 1981 A Chance and Consensus in Peer Review, „Science”, vol. 214, November 20.
  3. Chubin D., HackettE. 1990 Peerless Science. Peer Review and the US Science Policy, Albany, New York: Sunny Press.
  4. Evaluation... 1991 Evaluation o f Research. A Selection o f Current Practices, Paris: OECD.
  5. HackettE. 1992 More to Do about Peer Review. Annual Meeting ofthe Society for Social Studies o f Science, Gothenburg, Sweden.
  6. Harnad S. 1985 Rational Disagreement in Peer Review, „Science, Technology and Humań Values”, vol. 10, issue 3, Summer.
  7. MertonT. 1968 The Mathew Effect in Science, „Science”, vol. 185, January 5.
  8. Mitroff I., Chubin D., 1979 Peer Review at the National Science Foundation. A Dialectical Policy Analysis, „Social Studies of Science”, nr 9.
  9. Noble J. 1974 Peer Review: Quality Control o f Applied Social Research, „Science”, vol. 185, September 13.
  10. Percentiling... 1990 Percentiling of Priority Scores Assigned by NIH Initial Review Group. Background, NIH, May.
  11. Roy R. 1984 Alternatives to Peer Review, a Contribution to Theory ofScientific Choice, „Minerva”, vol. XXII, nr 3-4, Autumn-Winter.
  12. Roy R. 1985 Funding Science, the Real Defects o j Peer Review and an Alternative to It, „Science, Technology and Human Values”, vol. 10, nr 3, Summer.
  13. Travis G., Collins H. 1991 New Light on Old Boys: Cognitive and Institutional Particularism in the Peer Review System, „Science, Technology and Humań Values”, vol. 16, nr 3, Summer.