Evidensbasering af beskæftigelsespolitikken - et eksempel til efterfølgelse

Rigsrevisionen offentliggjorde i slutningen af 2010 en rapport om effekterne af den aktive indsats overfor de svageste ledige, som indeholdt en række kritikpunkter mod Beskæftigelsesministeriet (BM) og Arbejdsmarkedsstyrelsen (AMS). Denne rapport fik efterfølgende statsrevisorerne til at rette en skarp kritik mod BM, fordi indsatsen overfor de svageste kontanthjælpsmodtagere ikke var effektiv. Statsrevisorerne skriver:


” Statsrevisorerne kritiserer, at Beskæftigelsesministeriet ikke kan dokumentere, at aktivering af ikke-arbejdsmarkedsparate virker efter hensigten.”


Formålet med indlægget her er ikke at vurdere validiteten af de bagved liggende analyser, som efter min vurdering er af den bedste kvalitet. Det er formentlig indiskutabelt at den nuværende aktivering af de svageste kontanthjælpsmodtagere gennemsnitligt ikke hjælper dem i beskæftigelse, og det er naturligvis trist. Men det er jo gavnlig viden, som er en nødvendig forudsætning for at videreudvikle arbejdsmarkedspolitikken, og i parentes må det vel lige bemærkes at det faktisk er lykkedes at reducere den strukturelle ledighed fra omkring 9 til knap 4 % over en periode fra 1994 og frem til i dag. Noget må man vel have gjort rigtigt?


Formålet med indlægget er imidlertid indirekte at give lidt opbakning til embedsværket i AMS og BM, som, mig bekendt, er blandt de meget få i hele den statslige forvaltning, som systematisk arbejder seriøst med kvantitativt at måle effekterne af den indsats, de er sat i verden til at levere. Dette har ført til en lang række erkendelser af, hvad der virker, og naturligvis er det i processen også blevet afsløret, hvad der ikke virker.

Mere direkte er formålet med indlægget at opfordre Rigsrevisionen og Statsrevisorerne til at rette skytset mod stort set alle andre dele af den offentlige administration og klandre dem for en eklatant mangel på interesse for at finde ud af, hvad der virker.


Den nylige PISA rapport leverer en sørgelig illustration af dette. Her har man, på basis af en international undersøgelse, fundet frem til, at danske skole-elever scorer meget dårligt på en række udfald, især når udgiften der anvendes på området tages i betragtning.


Man kunne så forvente, at der i den situation fra ministerielt hold var sat gang i et stort kvantitativt analyse-arbejde for systematisk at undersøge virkningerne af forskellige indsatser rettet mod at forbedre elevernes kundskaber på de relevante områder. Efter som det ikke er første gang PISA undersøgelserne udpeger Danmark som klassens rod kunne man endog have forventet at man var nået et langt stykke vej med systematiske effektmålinger af indsatser på området. Mig bekendt er der imidlertid ikke sket meget, og vor kvantitative viden om hvad der virker i Danmark på dette område er sørgeligt fraværende. Forskerne, som jo er vældigt interesserede i sådanne effektmålinger af skoleindsatser, har end ikke kunnet få adgang til at analysere landsdækkende data fra de nationale tests, som jo kunne bidrage til at belyse nogle af disse ting.


En tilsvarende kritik kunne formentlig rettes mod en lang række statslige, regionale, og kommunale institutioner. I stedet har man valgt at rette kritikken mod en af de meget få institutioner, som faktisk forsøger at måle effekten af sine indsatser (og lære heraf), fordi man finder at dele af indsatsen ikke virker.


Hvor er logikken i det?


Se statsrevisorernes beretning her: http://www.ft.dk/statsrevisor/20101/beretning/SB1/902087.PDF

Se Rigsrevisionens rapport her: http://www.rigsrevisionen.dk/media(1651,1030)/01-2010.pdf

Michael Rosholm

Altinget.dk, februar 2011