1 af
28
TALE
Talens overskrift:
Åbent samråd om PISA, UDU alm. del spm. A -E den 30. marts 2005
Antal sider foruden denne: 27
2 af
28
Tale ved åbent samråd, UDU alm. del spm. A -E den 15. marts
2005.
Spm. A
Vil ministeren redegøre for de metoder, som man benytter sig af i
PISA-undersøgelserne, og hvordan forholder ministeren sig til den
kritik, der er blevet rejst af de anvendte metoder, jf. f.eks.
S.J. Prais: Cautions on OECD's Recent Educational Survey
(PISA), Oxford Review of Education, Vol. 29, no. 2, 2003.
Nina Bonnerup Dohn: Læsekompetence – praksis og
testsituationer, Dansk Pædagogisk Tidsskrift, nr. 3, 2003,
Pisa giver ingen mening, interview med Nina Bonnerup Dohn,
Fagbladet Folkeskolen den 13. august 2004,
Erik Jørgen Hansen: Pisa – en skævert, Politiken den 26.
oktober 2004 og
Brug af test griber om sig, interview med Nina Bonderup
Dohn, Dagbladet Arbejderen den 3. december 2004?
Svar:
Indledningsvis kan jeg oplyse, at de metoder, der benyttes i PISA-
undersøgelserne, er meget grundigt beskrevet i de forskellige
PISA-rapporter. Dels er de beskrevet i hovedtræk i såvel de
internationale PISA-rapporter som i de danske, og dels er de
beskrevet meget detaljeret i særlige metode-publikationer udgivet
af OECD. Der er derfor gode muligheder for at orientere sig om
3 af
28
emnet i offentligt tilgængeligt materiale.
Betegnelsen ”PISA” står for ”Programme for International Student
Assessment”, og det er et program, der er iværksat af OECD i
samarbejde med de deltagende landes regeringer.
Undersøgelsens samlede koncept og metode er udformet af det
internationale PISA-konsortium under ledelse af The Australian
Educational Research Institute (ACER) og med inddragelse af et stort
antal forskere og eksperter fra deltagerlandene, eksperter på hvert
undersøgelsesområde, det vil sige primært læsning, matematik og
naturfag.
Det internationale PISA-konsortium under ledelse af ACER har
deltagerlandene valgt til at forestå opgaven på baggrund af en
international licitation.
PISA-konceptet som helhed bygger blandt andet på erfaringer fra
et meget stort antal tilsvarende internationale undersøgelser, der er
gennemført over de seneste 25-30 år af den internationale
sammenslutning af forskningsinstitutioner på uddannelses-
området, der går under betegnelsen IEA, ”The International
Association for the Evaluation of Educational Achievement ”. Selv om det
4 af
28
ikke er præcis samme metode, der benyttes i PISA som i IEA-
undersøgelserne, er den grundlæggende fremgangsmåde velkendt
og velafprøvet. IEA er den organisation, som gennemførte den
undersøgelse, der i starten af 90-erne viste os, at vore børn og
unge var langt bagud i læsefærdigheder.
Sagt generelt, er målet med PISA-undersøgelsen at vurdere og
sammenligne unge 15-16-åriges kompetencer i forskellige lande
med hensyn, til hvor godt de er forberedt på at møde
vidensamfundets udfordringer. Det betyder, at PISA lægger vægt
på at undersøge ikke blot viden og færdigheder på centrale
fagområder, det vil sige læsning, matematik og naturfag, men der
fokuseres også på de unges evne til at anvende viden og
færdigheder i realistiske sammenhænge – i den udstrækning, dette
er muligt med skriftlige opgaver. Det betegner man i den danske
PISA-rapport som ”faglige kompetencer”. På engelsk benyttes
termen ”literacy”, det vil sige reading literacy, mathematical
literacy og science literacy.
Dette fremadrettede fokus med vægt på de faglige kompetencer er
valgt frem for at forsøge at måle, i hvilken udstrækning de unge
behersker et bestemt skolepensum, som meget let kunne blive
laveste fællesnævner for de mange deltagerlande.
5 af
28
Dette valg er truffet meget bevidst. Undersøgelsen er dermed
formodentlig i overensstemmelse med den internationale tendens,
der synes at være i udviklingen af læreplaner i retning af øget vægt
på elevernes anvendelse af det lærte frem for vægt på evnen til
blot at reproducere det lærte.
Sammenligner man PISA med IEA-undersøgelserne er én af
forskellene, at IEA i højere grad end PISA satser på at måle
curriculum-baseret viden og færdigheder. En anden forskel er, at
IEA typisk kun tester ét fagområde af gangen, hvorimod PISA
dækker flere.
Ud over, at PISA lægger vægt på faglige kompetencer inden for
nøgleområderne læsning, matematik og naturfag, indgår der også i
PISA 2003 en test i tværgående anvendelse af fagområderne til
problemløsning. I både læsning, matematik, naturfag og problem-
løsning er undersøgelsen af elevernes færdigheder, viden og
kompetencer baseret på løsning af de opgaver, der er udarbejdet
til dette formål.
Desuden udfylder eleverne et spørgeskema, hvor de giver
oplysninger om egen baggrund, for eksempel om forældrenes
uddannelse og job samt oplysninger om motivation,
læringsstrategier, selvopfattelse, oplevelse af skolen og lærerne.
6 af
28
Også skolelederne fra de skoler, der deltager i PISA, udfylder et
spørgeskema med en række baggrundsoplysninger om skolen og
undervisningen.
Før det internationale PISA-konsortium kan udarbejde den
opgavesamling, der skal benyttes som testmateriale i læsning,
matematik og naturvidenskab - samt i problemløsning, skal der ske
en afgrænsning af den viden og de færdigheder og kompetencer,
som skal undersøges. Denne afgrænsning er for hvert område
udformet i et såkaldt ”framework”, det vil sige en teoretisk
rammebeskrivelse. Disse rammebeskrivelser er offentliggjort i
deres fulde ordlyd på PISA’s hjemmeside (www.pisa.oecd.org) og
på Danmarks Pædagogiske Universitets hjemmeside
(www.dpu.dk/pisa). Desuden er der i kort form redegjort for
rammebeskrivelserne i de danske PISA-rapporter fra PISA 2000
og PISA 2003.
Denne definition og afgrænsning af hvilke kompetencer, der
kræves i fremtidens uddannelses-, erhvervs- og fritidsliv, er i
PISA-projektet forestået af faglige ekspertgrupper for henholdsvis
læsning, matematik, naturfag og problemløsning.
Disse ekspertgrupper er sammensat af nogle af de internationalt
set mest kompetente og respekterede forskere inden for de fire
7 af
28
felter. Fra Danmark er der én deltager i én af ekspertgrupperne,
professor Mogens Niss fra Roskilde Universitetscenter, som er
med i ekspertgruppen i matematik. Udkast til disse beskrivelser er
blevet kommenteret af en stor kreds af personer i hvert af
deltagerlandene, og det er således gennem en meget omfattende
proces, man når frem til den endelige afgrænsning.
Når disse rammebeskrivelser er udarbejdet bliver næste led i
processen at få udarbejdet de konkrete test-opgaver (items), som
dækker kompetencebeskrivelsens forskellige områder og de
niveauer, kompetencerne kan beherskes på. Samtidig skal
opgaverne være relevante og anvendelige i samtlige deltagerlande.
Alle deltagerlande i PISA har haft mulighed for at indsende forslag
til disse test-opgaver. Også Danmark har deltaget i denne proces.
De indkomne opgaver behandles af de faglige ekspertgrupper,
hvorpå ekspertgrupperne og testdesignere, primært fra det
hollandske evalueringsinstitut (Netherlands National Institute for
Educational Measurement), udarbejder forslag til en meget
omfattende række af test-opgaver – tre gange så mange, som der
har skullet anvendes i PISA-testningen.
Disse forslag til opgaver bliver i engelsk og fransk version sendt til
vurdering i de deltagende lande, og hvert enkelt land skal vurdere
8 af
28
hver enkelt test-opgaves brugbarhed i en national sammenhæng,
deres relevans i forhold til landenes læseplaner og eventuelle
kulturelle skævhed.
I Danmark er disse opgaveforslag vurderet af DPU’s fageksperter
inden for læsning, matematik, naturfag og problemløsning,
ligesom Undervisningsministeriets fagkonsulenter på disse
fagområder har vurderet testenes brugbarhed og relevans.
De internationale ekspertgrupper har derefter modtaget landenes
vurdering. Test, der har vist sig uegnede i et eller flere lande, er
blevet kasseret. Det har drejet sig om cirka en tredjedel. Der er
derefter foretaget en pilotafprøvning af testene på ca. 1.250 elever
i hvert deltagende land. Det skete i 1999 og i 2002 – og netop nu i
marts 2005 er det danske PISA-konsortium på vej med
gennemførelsen af pilotundersøgelsen til PISA 2006.
Landene modtager testforlæggene i en engelsk og fransk version,
hvorefter der sker en oversættelse til det eller de nationale sprog
fra både engelsk og fransk. Oversættelserne sammenlignes, og de
nationale faglige eksperter vælger den rette formulering, som
derefter sendes til verifikation i det internationale konsortium.
Herefter indgår den i pilotafprøvningen.
På baggrund af pilotprøvens resultater undersøges testene for
9 af
28
national skævhed, konsistens og evne til differentiering gennem de
såkaldte item-analyser, hvorefter det endelige sæt af test-opgaver
udvælges. De bedste af de frasorterede opgaver bliver
offentliggjort som eksempler. Disse kan findes på såvel PISA’s
som på Danmarks Pædagogiske Universitets hjemmesider - og
som udvalgte eksempler i PISA-rapporterne.
Efter hver PISA-test frigiver det internationale PISA-konsortium
de opgaver, som ikke skal benyttes igen ved senere test.
Når ikke alle opgaver kan frigives, skyldes det, at et vist antal af
opgaverne skal bruges igen i de kommende PISA-undersøgelser.
Grunden hertil er, at det er en del af PISA-konceptet, at man skal
kunne vurdere udviklingen i resultaterne over tid.
Flere af de frigivne opgaver har været præsenteret i danske medier
i forbindelse med offentliggørelsen af PISA 2003. En enkelt
læseopgave blev for nogen tid siden (21/2 2005) beskrevet over en
½ side i Politiken sammen med en kritik af betegnelsen
”funktionel analfabet”. Den valgte opgave hørte næppe til de
bedste, og der har siden været en del PISA-kritiske indlæg i
Politiken, også en kritik af den pågældende opgave. Hvad man
ikke har kunnet se af Politikens artikler er, at denne opgave var én
af de opgaver, som blev frasorteret efter afprøvningen i
10 af 28
pilotundersøgelsen forud for PISA 2000, og som derfor aldrig er
blevet benyttet i de egentlige PISA-undersøgelser. Men opgaven
indgår i den samling af opgaver, som OECD og PISA-konsortiet
har offentliggjort for at illustrere, hvordan en opgave kunne se ud.
Det er proceduren – beskrevet i meget grove træk – for udarbej-
delse af testopgaverne. Tilsvarende er der udarbejdet detaljerede
procedurer for samtlige øvrige led i undersøgelsen, herunder fx for
udvælgelsen af deltagende elever og skoler, for retning og
”scoring” af elevernes besvarelser og for behandlingen af de
indkomne data. Som sagt er disse procedurer beskrevet i offentligt
tilgængeligt materiale fra OECD, samt i hovedtræk i de danske
PISA-rapporter.
Kritikken af proceduren
Den kritik, der er rettet imod PISA af S.J. Prais i en artikel i
Oxford Review of Education, Vol. 29, no. 2, 2003 er besvaret og
imødegået i en artikel udarbejdet af det internationale PISA-
konsortium og offentliggjort i det efterfølgende nummer af
Oxford Review of Education, et svar, som ingen af de danske
kritikere forholder sig til.
Hos såvel det internationale PISA-konsortium som det danske er
det opfattelsen, at den kritik, Prais har rejst mod den metode, der
11 af 28
benyttes i PISA, er besvaret med den pågældende artikel.
Kritikken bliver således ikke mere rigtig eller relevant af at blive
gentaget af Erik Jørgen Hansen og andre i danske medier nu 1½
år senere. Når Erik Jørgen Hansen kritiserer PISA for mangel på
videnskabelighed kunne man vel med rimelighed forvente, at
samme Erik Jørgen Hansen udviste den hæderlighed også at
omtale svaret på den kritiske artikel. Det gør Erik Jørgen Hansen
ikke.
Et af kritikpunkterne, der har været nævnt i de danske medier,
blandt andet af Erik Jørgen Hansen, har drejet sig om det
urimelige i at sammenligne landene indbyrdes, da der hævdes at
være forskellige vilkår for specialskoleelevers deltagelse.
Hertil vil jeg blot sige, at det er en afgørende vigtig del af PISA-
metoderne, at skoler og elever i hver enkelt deltagerland udvælges
således, at der ikke opstår skævheder i sammenligningsgrundlaget,
heller ikke når det drejer sig om specialskoleelever. Der er i
rapporterne anført nøjagtige oplysninger om, hvor mange elever,
der ikke indgår på grund af handicap, og ved hjælp af vægtninger
af resultaterne tages der højde for indflydelsen fra sådanne
forhold. Samtlige lande er således underlagt et krav om, at man
maximalt må udelukke 5 procent af den årgang af 15-årige, som
indgår i undersøgelsen. Hvis man har 5 procent af eleverne samlet
12 af 28
på specialskoler, så kan man udelukke disse skoler. Har et land
ingen eller færre elever på specialskoler, kan man her udelade 5
procent af eleverne fra de ordinære skoler i testen.
Der er i PISA undersøgelsen udarbejdet nøje fastlagte kriterier for,
hvordan eleverne udvælges og for svarprocenternes størrelse i
hver af de deltagende lande. Skoler og lande, som ikke kan opfylde
disse krav, udelukkes af undersøgelsen. Kriterierne er endog mere
rigoristiske i PISA end ved tidligere tilsvarende internationale
sammenligninger.
Af samme grund blev resultaterne fra Holland i PISA 2000 taget
ud af sammenligningerne, og resultaterne fra USA blev forsynet
med så vide statistiske sikkerhedsgrænser, at en simpel
sammenligning med USA’s gennemsnitstal bliver meningsløs,
hvilket alt sammen er beskrevet i rapporten fra PISA 2000.
Tilsvarende er tallene fra Storbritannien taget ud af
sammenligningerne i PISA 2003.
Et andet kritikpunkt (blandt andet fremført af Erik Jørgen
Hansen) vedrører, i hvilken grad vi kan stole på undersøgelsens
oplysninger om sammenhængen mellem elevernes sociale
baggrund og de opnåede resultater. Hertil kan jeg oplyse, at man i
PISA beregner den sociale baggrunds betydning ved brug af flere
13 af 28
variable. Blandt andet indgår forældrenes individuelle
uddannelsesmæssige baggrund og forældrenes erhvervsmæssige
status. Desuden inddrages forhold som sprog talt i hjemmet, enlig
forsørger samt oplysninger om forskellige aktiviteter i familien og
uden for familien. Gennem disse oplysninger søger man at
afdække både kulturelle, økonomiske og sociale baggrundsforhold.
Det er eleverne selv, der er kilden til disse oplysninger, og det vil
give en vis usikkerhedsmargin – i alle lande. Dette er ikke nogen
hemmelighed, og det står klart i såvel den danske som i de inter-
nationale rapporter. Men uanset hvilke sociale baggrundskriterier
der anvendes, kan der konstateres forskelle i den sociale kompen-
sation, som skolerne i forskellige lande er i stand til at levere, her-
under især i Finland, hvor variationen i læsefærdigheder over
samtlige sociale kategorier er mindre end i Danmark. Med andre
ord er der klare tegn på, at man i Finland er bedre, end vi er i
Danmark, til at få fornuftige resultater også for de socialt dårligst
stillede elever.
Om den kritik af PISA’s læsetest, der fremføres i det materiale, der
henvises til i det stillede spørgsmål (fra Nina Bonderup Dohn),
skal man notere sig, at kritikken her tilsyneladende ikke specielt er
rettet mod PISA-undersøgelsen, men lige så meget mod test og
prøver generelt. Et af Nina Bonderup Dohns hovedargumenter
14 af 28
imod PISA, og tilsyneladende også mod andre test, er, at PISA-
resultaterne i højere grad afspejler, i hvilken grad eleverne er
testvante end elevernes kompetencer inden for testens
genstandsområde.
Jeg kan ikke finde belæg for påstanden, og jeg må derfor betragte
det som en påstand. Men det er klart, at alle der arbejder med
prøver og test, må have den problemstilling for øje. I PISA-testen
indgår der forskellige opgavetyper, og derfor er risikoen for, at der
opstår væsentlige skævheder af denne grund næppe stor.
Hvis påstanden var korrekt, at fortroligheden med brug af test i
sig selv skulle være en væsentlig forklaringsfaktor, så skulle man
forvente, at de mindre testvante finske elever klarede sig dårligere.
I det mindste forklares forskellen på finske og danske elever ikke
med forskelle i testerfaring.
Frem for at fokusere på den form for kritik af metoden, finder jeg
det langt mere konstruktivt at se på, hvordan vi kan løse
problemerne for den alt for store gruppe elever, som
tilsyneladende har alvorlige læsevanskeligheder.
Men selvfølgelig er jeg ikke blind for, at der er begrænsninger ved
enhver form for test og prøver, men det ændrer jo ikke på, at vi
15 af 28
kan benytte dem som de indikatorer, de rent faktisk er. Derfor er
det også vigtigt, at vi udvikler vore prøver og test, så de fungerer
bedst muligt. Det, er jeg sikker på, sker også i PISA-projektet.
Alt i alt er det mit indtryk, at PISA er et særdeles godt redskab,
som opfylder sit formål, en opfattelse jeg deler med dem, der
arbejder med undersøgelsen. Hvis det ikke forholdt sig sådan, ville
nogle af verdens ypperste eksperter inden for såvel de faglige som
de sociale områder næppe medvirke.
Selvfølgelig kan ting blive bedre, og der foretages også løbende
justeringer af PISA. Men hvis ikke PISA var et godt redskab, var
der næppe så mange lande, der gerne vil være med – også en lang
række lande uden for OECD. I PISA 2000 var der 32 lande med. I
PISA 2003 var der 41, hvorefter alle verdensdele er repræsenteret.
I PISA 2006 forventes 58 lande at deltage.
Sammenfattende om kritikken af PISA’s metode i de artikler,
udvalget har henvist til, vil jeg sige, at der ikke er noget i det
fremførte, som får mig til at anfægte grundlaget for PISA’s
resultater, som de er præsenteret i de rapporter, vi har modtaget
fra OECD og fra det danske PISA-konsortium.
Spm. B
Hvad kan der udledes af PISA-undersøgelserne, og hvordan
16 af 28
forholder ministeren sig til den kritik, der er blevet rejst den måde
som PISA-undersøgelserne blandt andet er blevet udlagt på, jf.
f.eks.
Nina Bonderup Dohn: Læsekompetence – praksis og
testsituationer, Dansk Pædagogisk Tidsskrift, nr. 3, 2003,
Pisa giver ingen mening, interview med Nina Bonderup Dohn
i Fagbladet Folkeskolen den 13. august 2004,
Christen Sørensen: Undervisningsministeriet dumpede,
Berlingske Tidende den 4. januar 2005 og
Christen Sørensen: PISA-2003: Hvad nu?, Folkeskolens
internetside den 4. januar 2005?
Svar:
Resultaterne fra PISA 2003 er velbeskrevet i de udgivne rapporter
og i den sammenfatning af centrale resultater, som
Undervisningsministeriet har udarbejdet. Hovedresultaterne er, at
de danske resultater gennemgående er uændret siden PISA 2000.
Det betyder – formuleret kort ud fra gennemsnitsresultaterne for
de danske elever,
1) at matematikkompetencerne ligger over middel for OECD-
landene, det vil sige uændret pænt, men ikke imponerende
og klart dårligere end resultaterne for de bedste lande,
2) at læsekompetencerne ligger på OECD-middelniveau,
3) at kompetencerne i naturfag ligger klart under middel, og
4) at kompetencerne i problemløsning ligger over middel, det
vil sige - som i matematik – pænt, men ikke imponerende
17 af 28
og klart dårligere end de bedste.
Frem for alt er der grund til at hæfte sig ved, at vi fortsat har en
meget stor gruppe elever, som ved slutningen af grundskolen har
helt utilfredsstillende læseresultater. Det er ikke tilfredsstillende, at
vi har ca. 17 procent af de unge, som ved afslutningen af
grundskolen har så dårlige læsefærdigheder, at de indplaceres på
eller under PISA-skalaens laveste niveau. Om betegnelsen
”funktionelle analfabeter”, som ikke er en undervisningsministeriel
opfindelse, men en betegnelse, der stammer fra danske
læseforskere, er den bedste, skal jeg ikke kunne sige. Men
resultatet er det samme: At vi har alt for mange elever med for
dårlige læsefærdigheder, mange med så dårlige læsefærdigheder, at
de har vanskeligheder med at klare en ungdomsuddannelse.
Specielt er det foruroligende, at gruppen i den dårligste ende af
PISA-læseskalaen er meget stor blandt de tosprogede.
Endvidere er det værd at bemærke, at det er en meget lille del af
de danske elever, som klarer sig rigtig godt i læsning.
Også i matematik er det bekymrende, at der er ganske mange, som
ligger på eller under det laveste niveau. Ca.15 procent har
problemer med de grundlæggende færdigheder i matematik.
18 af 28
De klart dårligste resultater har vi i naturfag, hvor vi er dårligst
placeret blandt de nordiske lande. Vi har 23 procent af eleverne i
den svage gruppe, mod Finlands 6 procent, og vi ligger meget
svagt med hensyn til andel elever blandt de dygtigste i naturfag.
Kort sagt, så kan man ud af disse PISA-resultater udlede, at der er
mange uudnyttede potentialer blandt de danske elever, og at vi
tilsyneladende ikke er gode nok til at sikre, at alle elever får
udnyttet de faglige potentialer fuldt ud.
PISA-undersøgelsen angiver ikke årsagerne til de opnåede
resultater, men den kortlægger mulige statistiske sammenhænge
mellem forskellige variabler. Her er det tankevækkende, at der
tilsyneladende er en statistisk sammenhæng mellem opnåede
resultater og elevernes oplysning om disciplin og moral i timerne.
Det er i sig selv bemærkelsesværdigt, at en meget stor andel af
eleverne – over 1/3 – rapporterer om dårlig disciplin og moral i
timerne.
Samtidig kan vi også notere os, at de danske elever føler sig godt
hjemme i skolen, har positive holdninger til læring, og at de har et
positivt selvbillede af egne faglige kompetencer. Disse holdninger
skulle gerne kunne kombineres med, at eleverne får udnyttet deres
19 af 28
faglige potentialer langt bedre.
En del af den kritik, der har været rettet mod udlægningen af
resultaterne, drejer sig om, at kritikerne fejlagtigt påstår, at
regeringens forslag om indførelse af obligatoriske test, nærmest pr.
automatik og med videnskabelig dokumentation kan udledes af
PISA. Det kan de ikke, og det er jeg fuldstændig klar over.
Regeringens kritikere mener, at vi har handlet for hurtigt i stedet
for først at lave tilbundsgående analyser. Men pointen er, at der
gennem de seneste år, blandt andet som opfølgning på de
gennemgående uændrede resultater fra PISA 2000, er foretaget et
omfattende udredningsarbejde, som har givet en række bud på,
hvordan fagligheden kan styrkes: OECD gennemførte i 2003-2004
et omfattende review af den danske grundskole, hvor man blandt
andet påpegede en manglende evalueringskultur. Dette review er
fulgt op af drøftelser med skolens mange parter i løbet af efteråret
2004.
Jeg kan også nævne, at Danmarks Evalueringsinstitut i december
2004 afleverede en kritisk rapport om skolens løbende evaluering,
og at AKF, DPU og SFI i november 2004 offentliggjorde et
forskningsprojekt om 'Gode eksempler', der viser, hvad der
kendetegner skoler, der er gode til at bryde negativ social arv.
20 af 28
Set på den baggrund, at der år efter år er et meget stort antal unge
mennesker, som ikke opnår de allermest basale færdigheder, så er
der al mulig grund til, at vi træffer de politiske beslutninger, der
skal til for at løse problemerne frem for at afvente yderligere
udredningsarbejder. Især når vi samtidig ved, at uanset hvor
mange udredningsarbejder, der iværksættes, så finder vi aldrig en
videnskabelig sand opskrift, som alle kan tilslutte sig.
Spm. C
Hvad kan der med baggrund i PISA-undersøgelserne udlægges
som årsagerne til undersøgelsernes resultater, og hvordan
forholder ministeren sig til den kritik, som er rejst i den
forbindelse, jf. f.eks.
Erik Jørgen Hansen: Pisa – en skævert, Politiken den 26.
oktober 2004 og
Christen Sørensen: PISA-2003: Hvad nu?, Folkeskolens
internetside den 4. januar 2005?
Svar:
Som nævnt i svaret på spørgsmål B, angiver PISA-undersøgelsen
ikke årsagerne til de opnåede resultater.
Om den fremførte kritik set i relation til årsagerne vil jeg ud over
det, jeg allerede har været ind på som svar på de to foregående
spørgsmål, blot tilføje følgende: Jeg finder det helt misvisende, når
21 af 28
kritikerne fokuserer på undersøgelsens metode i et forsøg på at
finde svagheder og mangler, som kan bidrage til at bortforklare de
reelle svagheder, vi har i grundskolen.
Jeg finder, som nævnt, ikke noget sagligt grundlag for den
fremførte kritik, og jeg finder det langt mere påkrævet at fokusere
på de ændringer, der skal til, for at vore børn og unge kan udnytte
deres potentialer til at opnå langt bedre faglige resultater. Det
gælder ikke mindst for den alt for store gruppe af elever, som
forlader grundskolen uden tilstrækkelige læsefærdigheder.
Spm. D
Hvilke løsningsforslag er relevante til forbedring af folkeskolen, og
hvordan forholder ministeren sig til den kritik, der er rejst af
blandt andet ministerens forslag, jf. f.eks. Christen Sørensen:
PISA-2003: Hvad nu?, Folkeskolens internetside den 4. januar
2005?
Svar:
Regeringen fremlagde samtidig med offentliggørelsen af rapporten
om PISA-2003 den 6. december sidste år en lang række forslag til
styrkelse af folkeskolens undervisning. Disse initiativer er nu
indarbejdet i regeringsgrundlaget.
Jeg vil her nævne nogle af dem:
22 af 28
National handlingsplan for læsning
Styrket danskundervisning
Styrkelse af det faglige niveau i naturfag
Styrkelse af det faglige niveau i matematik
Obligatorisk afgangsprøve i folkeskolen
Dokumentation af folkeskolens resultater
Styrket kommunalt tilsyn med skoler
og
Fremme af evalueringskultur
Det sidste punkt vil jeg gerne konkretisere lidt nærmere:
Undersøgelser viser, at der trods lovkrav om evaluering i
folkeskolen mangler en stærk evalueringskultur. Eleverne får
derfor et utilstrækkeligt tilbagespil i forhold til deres præstationer,
og forældrene har svært ved at vurdere børnenes fremskridt.
Regeringen vil styrke evaluering i folkeskolen ved at give skolerne
pligt til at evaluere elevens udbytte med udgangspunkt i de
bindende mål for undervisningen, som blev indført i 2003.
Regeringen vil fra og med skoleåret 2005/06 påbegynde indførelse
af nationale, obligatoriske test i læsning i 2., 4., 6. og 8. klasse,
matematik i 3. og 6. klasse, engelsk i 7. klasse og naturfagene i 8.
klasse. Testene skal være et værktøj til at sikre faglige fremskridt
23 af 28
for den enkelte elev ved at målrette undervisningen til den enkelte
elevs særlige evner. Testene skal hverken bruges til offentliggørelse
af resultater eller til at rangordne skoler og elever.
Til den del af spørgsmålet, som vedrører kritikken af disse
løsningsforslag, vil jeg henvise til svarene på de foregående
spørgsmål. Desuden kan jeg tilføje, at jeg har noteret mig
synspunkterne fra Christen Sørensen både på Danmarks
Lærerforenings medlemsblads hjemmesider og i hans kronik i
Berlingske Tidende den 4. januar i år samt et par andre mindre
indlæg. Fra min forgænger i embedet er der givet et svar i
Berlingske Tidende den 9. januar.
Jeg er enig i en række af de synspunkter, som økonomiprofessoren
lægger frem om det tekniske i PISA-undersøgelsen, hvad det er
PISA undersøger og for den sags skyld hans beskrivelse af
resultaterne. Jeg er også enig i, at man ikke alene med afsæt i
PISA-undersøgelsen automatisk kan konkludere, at der skal
indføres test – eller for den sags skyld, at der skal følges op med
helt bestemte midler.
Det er og bliver et politisk spørgsmål at vurdere, hvordan der skal
følges op.
24 af 28
Regeringen har som sit grundlag for opfølgningen på PISA-2003,
som nævnt, valgt at fæstne lid til den lange række af undersøgelser
af skolen, som er gennemført i de senere år. Det drejer sig, som
jeg allerede har været inde på, om en række evalueringer af
folkeskolen gennemført af Evalueringsinstituttet og et
forskningsprojekt om ”De gode eksempler”, som er gennemført i
efteråret 2004. Men ikke mindst har vi ladet os inspirere af
OECD’s review om grundskolen i Danmark, som blev
gennemført i 2003.
Hovedtrækket i alle disse rapporter og redegørelser er behovet for
at styrke evalueringskulturen i skolen.
Det er helt åbenlyst, at skolen og den enkelte lærer har behov for
langt mere nøjagtigt at vide, hvad det enkelte barn kan og hvor,
der skal sættes særligt ind. Derfor vil vi forbedre lærernes
evalueringsværktøjer ved at give dem de muligheder, der ligger i en
række obligatoriske test. Men det er selvfølgelig ikke nok.
Det er, som professor Peter Mortimore, der er hovedforfatter på
OECD’s review, siger, helt afgørende, hvordan man følger op på
den viden, man får om barnet. Derfor er lærernes viden om
undervisning og deres fag det afgørende element for, at de kan
tilrettelægge undervisningen, så de børn, der ikke er nået så langt,