Debatt

Publisering, telling og forskningsformidling

«Såkalte 'minste publiserbare enhet'-artikler er blitt en stående vits blant akademikere.»

PUBLISERING Det har alltid vært et fokus på å publisere i vitenskapen. Dette har derimot blitt forsterket etter at stadig flere forskningsmiljøer er omfattet av ulike typer av målstyringsregimer. Når man belønner på bakgrunn av antall publiserte artikler, vil man naturligvis få publisert stadig flere artikler. Spørsmålet er om mengden artikler er et godt mål for mengden forskning, eller mengden utviklet kunnskap, slik Erik Boye problematiserer i Morgenbladet 20. mars.

Såkalte «minste publiserbare enhet»-artikler er blitt en stående vits blant akademikere. Når man har et forskningsresultat klart, er ikke det første spørsmålet «Hvordan kan vi presentere dette på en faglig sett best mulig måte?», men heller «Hvor mange artikler kan vi få ut av dette?»

Alper med flere har i artikkelen «How much effort is needed to keep up with the literature relevant for primary care?», forsøkt å finne ut hvor mye tid en allmennlege må bruke for å holde seg oppdatert på forskningen som er relevant for feltet sitt. Forskerne samlet inn relevante akademiske artikler publisert i løpet av en måned. Selv om man bare bruker få minutter på hver artikkel, beregnet de at det ville ta en lege omtrent 29 timer hver ukedag å skumme igjennom alle.

Man har altså laget et system hvor måten forskningsresultater presenteres på, gjør at de blir utilgjengelige for dem som burde kunne nyttiggjøre seg dem.

Måten de fagfellevurderte vitenskapelige tidsskriftene opererer på, er også problematisk. Mange er eid av store private forlag som mottar artikler og får fagfellevurdering utført helt gratis samtidig som abonnementene er svært dyre. Dette gjør at svært mye potensielt viktig kunnskap stenges inne bak høye betalingsmurer.

Et svar på dette har vært såkalt åpen publisering, men der har kvalitetssikringen så langt vært svært svak, og det har dukket opp en lang rekke såkalte «predatory publishers». Disse tjener penger på å kreve høye publiseringsavgifter fra akademiske institusjoner og har fagfellevurdering i navnet, men ikke i gavnet. Jeffrey Beall fra University of Colorado har dokumentert en eksplosjon i slike utgivere fra 18 i 2011 til 477 i 2014. Den stadig økte (og innimellom institusjonaliserte) bruken av databasen Google Scholar, som i liten grad filtrerer ut slike publikasjoner, forsterker dette problemet.

Det er lett å være enig med Erik Boyes resept: «Stopp å telle artikler». Det er likevel en betydelig fare for at politikere, byråkrater og ansatte ledere i sektoren som er godt skolerte i «balansert målstyring» med tilhørende indikatorer og ressursallokering basert på disse, kan velge å telle mer heller enn mindre. Statssekretær Haugstads innlegg om publiseringer i Morgenbladet 27. mars, samt regjeringens strukturmelding, hvor en rekke nye indikatorer skal utredes med en ambisjon om å øke budsjettposten som tildeles på bakgrunn av disse, minker ikke denne bekymringen.

Bruk av siteringer er den mest vanlige «kvalitetsindikatoren» på publikasjoner. Dessverre er heller ikke denne uten fallgruver. En ting er å skille ut siteringer «til skrekk og advarsel» eller basert på ren nyhetsverdi opp mot de faglig anerkjennende. En annen ting er at det allerede er avdekket «siteringsringer» og forsøk fra tidsskrifter på å presse forfattere til å sitere fra deres publikasjoner. Også her får altså tellingen svært uheldige konsekvenser.

Disse svakhetene i måten forskning formidles på vil kunne få store konsekvenser for de beslutninger som tas på bakgrunn av forskning, noe som samfunnsmessig er svært uheldig. Når skal beslutningstagere ta innover seg at vitenskapen er for kompleks til å styres etter enkle indikatormodeller? Forhåpentligvis før det er for sent.

Ronny Kjelsberg
Høgskolelektor og hovedtillitsvalgt NTL HiST

Mer fra Debatt