1 af 28 TALE Talens overskrift: Åbent samråd om PISA, UDU alm. del spm. A   -E den 30. marts 2005 Antal sider foruden denne: 27
2 af 28 Tale ved åbent samråd, UDU alm. del spm. A  -E den 15. marts 2005. Spm. A Vil ministeren redegøre for de metoder, som man benytter sig af i PISA-undersøgelserne, og hvordan forholder ministeren sig til den kritik, der er blevet rejst af de anvendte metoder, jf. f.eks. S.J. Prais: Cautions on OECD's Recent Educational Survey (PISA), Oxford Review of Education, Vol. 29, no. 2, 2003. Nina Bonnerup Dohn: Læsekompetence – praksis og testsituationer, Dansk Pædagogisk Tidsskrift, nr. 3, 2003, Pisa giver ingen mening, interview med Nina Bonnerup Dohn, Fagbladet Folkeskolen den 13. august 2004, Erik Jørgen Hansen: Pisa – en skævert, Politiken den 26. oktober 2004 og Brug af test griber om sig, interview med Nina Bonderup Dohn, Dagbladet Arbejderen den 3. december 2004? Svar:   Indledningsvis kan jeg oplyse, at de metoder, der benyttes i PISA- undersøgelserne, er meget grundigt beskrevet i de forskellige PISA-rapporter. Dels er de beskrevet i hovedtræk i såvel de internationale PISA-rapporter som i de danske, og dels er de beskrevet meget detaljeret i særlige metode-publikationer udgivet af OECD. Der er derfor gode muligheder for at orientere sig om
3 af 28 emnet i offentligt tilgængeligt materiale. Betegnelsen ”PISA” står for ”Programme for International Student Assessment”, og det er et program, der er iværksat af OECD i samarbejde med de deltagende landes regeringer.   Undersøgelsens samlede koncept og metode er udformet af det internationale PISA-konsortium under ledelse af The Australian Educational Research Institute (ACER) og med inddragelse af et stort antal forskere og eksperter fra deltagerlandene, eksperter på hvert undersøgelsesområde, det vil sige primært læsning, matematik og naturfag.   Det internationale PISA-konsortium under ledelse af ACER har deltagerlandene valgt til at forestå opgaven på baggrund af en international licitation. PISA-konceptet som helhed bygger blandt andet på erfaringer fra et meget stort antal tilsvarende internationale undersøgelser, der er gennemført over de seneste 25-30 år af den internationale sammenslutning af forskningsinstitutioner på uddannelses- området, der går under betegnelsen IEA, ”The International Association for the Evaluation of Educational Achievement ”. Selv om det
4 af 28 ikke er præcis samme metode, der benyttes i PISA som i IEA- undersøgelserne, er den grundlæggende fremgangsmåde velkendt og velafprøvet. IEA er den organisation, som gennemførte den undersøgelse, der i starten af 90-erne viste os, at vore børn og unge var langt bagud i læsefærdigheder.   Sagt generelt, er målet med PISA-undersøgelsen at vurdere og sammenligne unge 15-16-åriges kompetencer i forskellige lande med hensyn, til hvor godt de er forberedt på at møde vidensamfundets udfordringer. Det betyder, at PISA lægger vægt på at undersøge ikke blot viden og færdigheder på centrale fagområder, det vil sige læsning, matematik og naturfag, men der fokuseres også på de unges evne til at anvende viden og færdigheder i realistiske sammenhænge – i den udstrækning, dette er muligt med skriftlige opgaver. Det betegner man i den danske PISA-rapport som ”faglige kompetencer”. På engelsk benyttes termen ”literacy”, det vil sige reading literacy, mathematical literacy og science literacy.   Dette fremadrettede fokus med vægt på de faglige kompetencer er valgt frem for at forsøge at måle, i hvilken udstrækning de unge behersker et bestemt skolepensum, som meget let kunne blive laveste fællesnævner for de mange deltagerlande.  
5 af 28 Dette valg er truffet meget bevidst. Undersøgelsen er dermed formodentlig i overensstemmelse med den internationale tendens, der synes at være i udviklingen af læreplaner i retning af øget vægt på elevernes anvendelse af det lærte frem for vægt på evnen til blot at reproducere det lærte.   Sammenligner man PISA med IEA-undersøgelserne er én af forskellene, at IEA i højere grad end PISA satser på at måle curriculum-baseret viden og færdigheder. En anden forskel er, at IEA typisk kun tester ét fagområde af gangen, hvorimod PISA dækker flere. Ud over, at PISA lægger vægt på faglige kompetencer inden for nøgleområderne læsning, matematik og naturfag, indgår der også i PISA 2003 en test i tværgående anvendelse af fagområderne til problemløsning. I både læsning, matematik, naturfag og problem- løsning er undersøgelsen af elevernes færdigheder, viden og kompetencer baseret på løsning af de opgaver, der er udarbejdet til dette formål. Desuden udfylder eleverne et spørgeskema, hvor de giver oplysninger om egen baggrund, for eksempel om forældrenes uddannelse og job samt oplysninger om motivation, læringsstrategier, selvopfattelse, oplevelse af skolen og lærerne.  
6 af 28 Også skolelederne fra de skoler, der deltager i PISA, udfylder et spørgeskema med en række baggrundsoplysninger om skolen og undervisningen. Før det internationale PISA-konsortium kan udarbejde den opgavesamling, der skal benyttes som testmateriale i læsning, matematik og naturvidenskab - samt i problemløsning, skal der ske en afgrænsning af den viden og de færdigheder og kompetencer, som skal undersøges. Denne afgrænsning er for hvert område udformet i et såkaldt ”framework”, det vil sige en teoretisk rammebeskrivelse. Disse rammebeskrivelser er offentliggjort i deres fulde ordlyd på PISA’s hjemmeside (www.pisa.oecd.org) og på Danmarks Pædagogiske Universitets hjemmeside (www.dpu.dk/pisa). Desuden er der i kort form redegjort for rammebeskrivelserne i de danske PISA-rapporter fra PISA 2000 og PISA 2003.   Denne definition og afgrænsning af hvilke kompetencer, der kræves i fremtidens uddannelses-, erhvervs- og fritidsliv, er i PISA-projektet forestået af faglige ekspertgrupper for henholdsvis læsning, matematik, naturfag og problemløsning.   Disse ekspertgrupper er sammensat af nogle af de internationalt set mest kompetente og respekterede forskere inden for de fire
7 af 28 felter. Fra Danmark er der én deltager i én af ekspertgrupperne, professor Mogens Niss fra Roskilde Universitetscenter, som er med i ekspertgruppen i matematik. Udkast til disse beskrivelser er blevet kommenteret af en stor kreds af personer i hvert af deltagerlandene, og det er således gennem en meget omfattende proces, man når frem til den endelige afgrænsning. Når disse rammebeskrivelser er udarbejdet bliver næste led i processen at få udarbejdet de konkrete test-opgaver (items), som dækker kompetencebeskrivelsens forskellige områder og de niveauer, kompetencerne kan beherskes på. Samtidig skal opgaverne være relevante og anvendelige i samtlige deltagerlande. Alle deltagerlande i PISA har haft mulighed for at indsende forslag til disse test-opgaver. Også Danmark har deltaget i denne proces. De indkomne opgaver behandles af de faglige ekspertgrupper, hvorpå ekspertgrupperne og testdesignere, primært fra det hollandske evalueringsinstitut (Netherlands National Institute for Educational Measurement), udarbejder forslag til en meget omfattende række af test-opgaver – tre gange så mange, som der har skullet anvendes i PISA-testningen.   Disse forslag til opgaver bliver i engelsk og fransk version sendt til vurdering i de deltagende lande, og hvert enkelt land skal vurdere
8 af 28 hver enkelt test-opgaves brugbarhed i en national sammenhæng, deres relevans i forhold til landenes læseplaner og eventuelle kulturelle skævhed.   I Danmark er disse opgaveforslag vurderet af DPU’s fageksperter inden for læsning, matematik, naturfag og problemløsning, ligesom Undervisningsministeriets fagkonsulenter på disse fagområder har vurderet testenes brugbarhed og relevans. De internationale ekspertgrupper har derefter modtaget landenes vurdering. Test, der har vist sig uegnede i et eller flere lande, er blevet kasseret. Det har drejet sig om cirka en tredjedel. Der er derefter foretaget en pilotafprøvning af testene på ca. 1.250 elever i hvert deltagende land. Det skete i 1999 og i 2002 – og netop nu i marts 2005 er det danske PISA-konsortium på vej med gennemførelsen af pilotundersøgelsen til PISA 2006. Landene modtager testforlæggene i en engelsk og fransk version, hvorefter der sker en oversættelse til det eller de nationale sprog fra både engelsk og fransk. Oversættelserne sammenlignes, og de nationale faglige eksperter vælger den rette formulering, som derefter sendes til verifikation i det internationale konsortium. Herefter indgår den i pilotafprøvningen.   På baggrund af pilotprøvens resultater undersøges testene for
9 af 28 national skævhed, konsistens og evne til differentiering gennem de såkaldte item-analyser, hvorefter det endelige sæt af test-opgaver udvælges. De bedste af de frasorterede opgaver bliver offentliggjort som eksempler. Disse kan findes på såvel PISA’s som på Danmarks Pædagogiske Universitets hjemmesider - og som udvalgte eksempler i PISA-rapporterne. Efter hver PISA-test frigiver det internationale PISA-konsortium de opgaver, som ikke skal benyttes igen ved senere test.   Når ikke alle opgaver kan frigives, skyldes det, at et vist antal af opgaverne skal bruges igen i de kommende PISA-undersøgelser.   Grunden hertil er, at det er en del af PISA-konceptet, at man skal kunne vurdere udviklingen i resultaterne over tid.   Flere af de frigivne opgaver har været præsenteret i danske medier i forbindelse med offentliggørelsen af PISA 2003. En enkelt læseopgave blev for nogen tid siden (21/2 2005) beskrevet over en ½  side i Politiken sammen med en kritik af betegnelsen ”funktionel analfabet”. Den valgte opgave hørte næppe til de bedste, og der har siden været en del PISA-kritiske indlæg i Politiken, også en kritik af den pågældende opgave. Hvad man ikke har kunnet se af Politikens artikler er, at denne opgave var én af de opgaver, som blev frasorteret efter afprøvningen i
10 af 28 pilotundersøgelsen forud for PISA 2000, og som derfor aldrig er blevet benyttet i de egentlige PISA-undersøgelser. Men opgaven indgår i den samling af opgaver, som OECD og PISA-konsortiet har offentliggjort for at illustrere, hvordan en opgave kunne se ud. Det er proceduren – beskrevet i meget grove træk – for udarbej- delse af testopgaverne. Tilsvarende er der udarbejdet detaljerede procedurer for samtlige øvrige led i undersøgelsen, herunder fx for udvælgelsen af deltagende elever og skoler, for retning og ”scoring” af elevernes besvarelser og for behandlingen af de indkomne data. Som sagt er disse procedurer beskrevet i offentligt tilgængeligt materiale fra OECD, samt i hovedtræk i de danske PISA-rapporter. Kritikken af proceduren Den kritik, der er rettet imod PISA af  S.J. Prais i en artikel  i Oxford Review of Education, Vol. 29, no. 2, 2003 er besvaret og imødegået i en artikel udarbejdet af det internationale PISA- konsortium og offentliggjort i det efterfølgende nummer af Oxford Review of Education, et svar, som ingen af de danske kritikere forholder sig til. Hos såvel det internationale PISA-konsortium som det danske er det opfattelsen, at den kritik, Prais har rejst mod den metode, der
11 af 28 benyttes i PISA, er besvaret med den pågældende artikel. Kritikken bliver således ikke mere rigtig eller relevant af at blive gentaget af Erik Jørgen Hansen og andre i danske medier nu 1½ år senere. Når Erik Jørgen Hansen kritiserer PISA for mangel på videnskabelighed kunne man vel med rimelighed forvente, at samme Erik Jørgen Hansen udviste den hæderlighed også at omtale svaret på den kritiske artikel. Det gør Erik Jørgen Hansen ikke. Et af kritikpunkterne, der har været nævnt i de danske medier, blandt andet af Erik Jørgen Hansen, har drejet sig om det urimelige i at sammenligne landene indbyrdes, da der hævdes at være forskellige vilkår for specialskoleelevers deltagelse.   Hertil vil jeg blot sige, at det er en afgørende vigtig del af PISA- metoderne, at skoler og elever i hver enkelt deltagerland udvælges således, at der ikke opstår skævheder i sammenligningsgrundlaget, heller ikke når det drejer sig om specialskoleelever. Der er i rapporterne anført nøjagtige oplysninger om, hvor mange elever, der ikke indgår på grund af handicap, og ved hjælp af vægtninger af resultaterne tages der højde for indflydelsen fra sådanne forhold. Samtlige lande er således underlagt et krav om, at man maximalt må udelukke 5 procent af den årgang af 15-årige, som indgår i undersøgelsen. Hvis man har 5 procent af eleverne samlet
12 af 28 på specialskoler, så kan man udelukke disse skoler. Har et land ingen eller færre elever på specialskoler, kan man her udelade 5 procent af eleverne fra de ordinære skoler i testen.   Der er i PISA undersøgelsen udarbejdet nøje fastlagte kriterier for, hvordan eleverne udvælges og for svarprocenternes størrelse i hver af de deltagende lande. Skoler og lande, som ikke kan opfylde disse krav, udelukkes af undersøgelsen. Kriterierne er endog mere rigoristiske i PISA end ved tidligere tilsvarende internationale sammenligninger.   Af samme grund blev resultaterne fra Holland i PISA 2000 taget ud af sammenligningerne, og resultaterne fra USA blev forsynet med så vide statistiske sikkerhedsgrænser, at en simpel sammenligning med USA’s gennemsnitstal bliver meningsløs, hvilket alt sammen er beskrevet i rapporten fra PISA 2000.   Tilsvarende er tallene fra Storbritannien taget ud af sammenligningerne i PISA 2003.   Et andet kritikpunkt (blandt andet fremført af Erik Jørgen Hansen) vedrører, i hvilken grad vi kan stole på undersøgelsens oplysninger om sammenhængen mellem elevernes sociale baggrund og de opnåede resultater. Hertil kan jeg oplyse, at man i PISA beregner den sociale baggrunds betydning ved brug af flere
13 af 28 variable. Blandt andet indgår forældrenes individuelle uddannelsesmæssige baggrund og forældrenes erhvervsmæssige status. Desuden inddrages forhold som sprog talt i hjemmet, enlig forsørger samt oplysninger om forskellige aktiviteter i familien og uden for familien. Gennem disse oplysninger søger man at afdække både kulturelle, økonomiske og sociale baggrundsforhold. Det er eleverne selv, der er kilden til disse oplysninger, og det vil give en vis usikkerhedsmargin – i alle lande. Dette er ikke nogen hemmelighed, og det står klart i såvel den danske som i de inter- nationale rapporter. Men uanset hvilke sociale baggrundskriterier der anvendes, kan der konstateres forskelle i den sociale kompen- sation, som skolerne i forskellige lande er i stand til at levere, her- under især i Finland, hvor variationen i læsefærdigheder over samtlige sociale kategorier er mindre end i Danmark. Med andre ord er der klare tegn på, at man i Finland er bedre, end vi er i Danmark, til at få fornuftige resultater også for de socialt dårligst stillede elever.   Om den kritik af PISA’s læsetest, der fremføres i det materiale, der henvises til i det stillede spørgsmål (fra Nina Bonderup Dohn), skal man notere sig, at kritikken her tilsyneladende ikke specielt er rettet mod PISA-undersøgelsen, men lige så meget mod test og prøver generelt. Et af Nina Bonderup Dohns hovedargumenter
14 af 28 imod PISA, og tilsyneladende også mod andre test, er, at PISA- resultaterne i højere grad afspejler, i hvilken grad eleverne er testvante end elevernes kompetencer inden for testens genstandsområde.   Jeg kan ikke finde belæg for påstanden, og jeg må derfor betragte det som en påstand. Men det er klart, at alle der arbejder med prøver og test, må have den problemstilling for øje. I PISA-testen indgår der forskellige opgavetyper, og derfor er risikoen for, at der opstår væsentlige skævheder af denne grund næppe stor.   Hvis påstanden var korrekt, at fortroligheden med brug af test i sig selv skulle være en væsentlig forklaringsfaktor, så skulle man forvente, at de mindre testvante finske elever klarede sig dårligere. I det mindste forklares forskellen på finske og danske elever ikke med forskelle i testerfaring. Frem for at fokusere på den form for kritik af metoden, finder jeg det langt mere konstruktivt at se på, hvordan vi kan løse problemerne for den alt for store gruppe elever, som tilsyneladende har alvorlige læsevanskeligheder. Men selvfølgelig er jeg ikke blind for, at der er begrænsninger ved enhver form for test og prøver, men det ændrer jo ikke på, at vi
15 af 28 kan benytte dem som de indikatorer, de rent faktisk er. Derfor er det også vigtigt, at vi udvikler vore prøver og test, så de fungerer bedst muligt. Det, er jeg sikker på, sker også i PISA-projektet.   Alt i alt er det mit indtryk, at PISA er et særdeles godt redskab, som opfylder sit formål, en opfattelse jeg deler med dem, der arbejder med undersøgelsen. Hvis det ikke forholdt sig sådan, ville nogle af verdens ypperste eksperter inden for såvel de faglige som de sociale områder næppe medvirke.   Selvfølgelig kan ting blive bedre, og der foretages også løbende justeringer af PISA. Men hvis ikke PISA var et godt redskab, var der næppe så mange lande, der gerne vil være med – også en lang række lande uden for OECD. I PISA 2000 var der 32 lande med. I PISA 2003 var der 41, hvorefter alle verdensdele er repræsenteret. I PISA 2006 forventes 58 lande at deltage. Sammenfattende om kritikken af PISA’s metode i de artikler, udvalget har henvist til, vil jeg sige, at der ikke er noget i det fremførte, som får mig til at anfægte grundlaget for PISA’s resultater, som de er præsenteret i de rapporter, vi har modtaget fra OECD og fra det danske PISA-konsortium.   Spm. B Hvad kan der udledes af PISA-undersøgelserne, og hvordan
16 af 28 forholder ministeren sig til den kritik, der er blevet rejst den måde som PISA-undersøgelserne blandt andet er blevet udlagt på, jf. f.eks. Nina Bonderup Dohn: Læsekompetence – praksis og testsituationer, Dansk Pædagogisk Tidsskrift, nr. 3, 2003, Pisa giver ingen mening, interview med Nina Bonderup Dohn i Fagbladet Folkeskolen den 13. august 2004, Christen Sørensen: Undervisningsministeriet dumpede, Berlingske Tidende den 4. januar 2005 og Christen Sørensen: PISA-2003: Hvad nu?, Folkeskolens internetside den 4. januar 2005? Svar: Resultaterne fra PISA 2003 er velbeskrevet i de udgivne rapporter og i den sammenfatning af centrale resultater, som Undervisningsministeriet har udarbejdet. Hovedresultaterne er, at de danske resultater gennemgående er uændret siden PISA 2000. Det betyder – formuleret kort ud fra gennemsnitsresultaterne for de danske elever, 1)  at matematikkompetencerne ligger over middel for OECD- landene, det vil sige uændret pænt, men ikke imponerende og klart dårligere end resultaterne for de bedste lande, 2)  at læsekompetencerne ligger på OECD-middelniveau, 3)  at kompetencerne i naturfag ligger klart under middel, og 4)  at kompetencerne i problemløsning ligger over middel, det vil sige - som i matematik – pænt, men ikke imponerende
17 af 28 og klart dårligere end de bedste.   Frem for alt er der grund til at hæfte sig ved, at vi fortsat har en meget stor gruppe elever, som ved slutningen af grundskolen har   helt utilfredsstillende læseresultater. Det er ikke tilfredsstillende, at vi har ca. 17 procent af de unge, som ved afslutningen af grundskolen har så dårlige læsefærdigheder, at de indplaceres på eller under PISA-skalaens laveste niveau. Om betegnelsen ”funktionelle analfabeter”, som ikke er en undervisningsministeriel opfindelse, men en betegnelse, der stammer fra danske læseforskere, er den bedste, skal jeg ikke kunne sige. Men resultatet er det samme: At vi har alt for mange elever med for dårlige læsefærdigheder, mange med så dårlige læsefærdigheder, at de har vanskeligheder med at klare en ungdomsuddannelse.   Specielt er det foruroligende, at gruppen i den dårligste ende af PISA-læseskalaen er meget stor blandt de tosprogede.   Endvidere er det værd at bemærke, at det er en meget lille del af de danske elever, som klarer sig rigtig godt i læsning. Også i matematik er det bekymrende, at der er ganske mange, som ligger på eller under det laveste niveau. Ca.15 procent har problemer med de grundlæggende færdigheder i matematik.   
18 af 28 De klart dårligste resultater har vi i naturfag, hvor vi er dårligst placeret blandt de nordiske lande. Vi har 23 procent af eleverne i den svage gruppe, mod Finlands 6 procent, og vi ligger meget svagt med hensyn til andel elever blandt de dygtigste i naturfag.   Kort sagt, så kan man ud af disse PISA-resultater udlede, at der er mange uudnyttede potentialer blandt de danske elever, og at vi tilsyneladende ikke er gode nok til at sikre, at alle elever får udnyttet de faglige potentialer fuldt ud.   PISA-undersøgelsen angiver ikke årsagerne til de opnåede resultater, men den kortlægger mulige statistiske sammenhænge mellem forskellige variabler. Her er det tankevækkende, at der tilsyneladende er en statistisk sammenhæng mellem opnåede resultater og elevernes oplysning om disciplin og moral i timerne. Det er i sig selv bemærkelsesværdigt, at en meget stor andel af eleverne – over 1/3 – rapporterer om dårlig disciplin og moral i timerne.   Samtidig kan vi også notere os, at de danske elever føler sig godt hjemme i skolen, har positive holdninger til læring, og at de har et positivt selvbillede af egne faglige kompetencer. Disse holdninger skulle gerne kunne kombineres med, at eleverne får udnyttet deres
19 af 28 faglige potentialer langt bedre. En del af den kritik, der har været rettet mod udlægningen af resultaterne, drejer sig om, at kritikerne fejlagtigt påstår, at regeringens forslag om indførelse af obligatoriske test, nærmest pr. automatik og med videnskabelig dokumentation kan udledes af PISA. Det kan de ikke, og det er jeg fuldstændig klar over.   Regeringens kritikere mener, at vi har handlet for hurtigt i stedet for først at lave tilbundsgående analyser. Men pointen er, at der gennem de seneste år, blandt andet som opfølgning på de gennemgående uændrede resultater fra PISA 2000, er foretaget et omfattende  udredningsarbejde, som har givet en række bud på, hvordan fagligheden kan styrkes: OECD gennemførte i 2003-2004 et omfattende review af den danske grundskole, hvor man blandt andet påpegede en manglende evalueringskultur. Dette review er fulgt op af drøftelser med skolens mange parter i løbet af efteråret 2004.   Jeg kan også nævne, at Danmarks Evalueringsinstitut i december 2004 afleverede en kritisk rapport om skolens løbende evaluering, og at AKF, DPU og SFI i november 2004 offentliggjorde et forskningsprojekt om 'Gode eksempler', der viser, hvad der kendetegner skoler, der er gode til at bryde negativ social arv.  
20 af 28 Set på den baggrund, at der år efter år er et meget stort antal unge mennesker, som ikke opnår de allermest basale færdigheder, så er der al mulig grund til, at vi træffer de politiske beslutninger, der skal til for at løse problemerne frem for at afvente yderligere udredningsarbejder. Især når vi samtidig ved, at uanset hvor mange udredningsarbejder, der iværksættes, så finder vi aldrig en videnskabelig sand opskrift, som alle kan tilslutte sig. Spm. C Hvad kan der med baggrund i PISA-undersøgelserne udlægges som årsagerne til undersøgelsernes resultater, og hvordan forholder ministeren sig til den kritik, som er rejst i den forbindelse, jf. f.eks. Erik Jørgen Hansen: Pisa – en skævert, Politiken den 26. oktober 2004 og   Christen Sørensen: PISA-2003: Hvad nu?, Folkeskolens internetside den 4. januar 2005? Svar: Som nævnt i svaret på spørgsmål B, angiver PISA-undersøgelsen ikke årsagerne til de opnåede resultater. Om den fremførte kritik set i relation til årsagerne vil jeg ud over det, jeg allerede har været ind på som svar på de to foregående spørgsmål, blot tilføje følgende: Jeg finder det helt misvisende, når
21 af 28 kritikerne fokuserer på undersøgelsens metode i et forsøg på at finde svagheder og mangler, som kan bidrage til at bortforklare de reelle svagheder, vi har i grundskolen.   Jeg finder, som nævnt, ikke noget sagligt grundlag for den fremførte kritik, og jeg finder det langt mere påkrævet at fokusere på de ændringer, der skal til, for at vore børn og unge kan udnytte deres potentialer til at opnå langt bedre faglige resultater. Det gælder ikke mindst for den alt for store gruppe af elever, som forlader grundskolen uden tilstrækkelige læsefærdigheder. Spm. D Hvilke løsningsforslag er relevante til forbedring af folkeskolen, og hvordan forholder ministeren sig til den kritik, der er rejst af blandt andet ministerens forslag, jf. f.eks. Christen Sørensen: PISA-2003: Hvad nu?, Folkeskolens internetside den 4. januar 2005? Svar: Regeringen fremlagde samtidig med offentliggørelsen af rapporten om PISA-2003 den 6. december sidste år en lang række forslag til styrkelse af folkeskolens undervisning. Disse initiativer er nu indarbejdet i regeringsgrundlaget. Jeg vil her nævne nogle af dem:
22 af 28 National handlingsplan for læsning Styrket danskundervisning Styrkelse af det faglige niveau i naturfag Styrkelse af det faglige niveau i matematik Obligatorisk afgangsprøve i folkeskolen Dokumentation af folkeskolens resultater Styrket kommunalt tilsyn med skoler og Fremme af evalueringskultur Det sidste punkt vil jeg gerne konkretisere lidt nærmere: Undersøgelser viser, at der trods lovkrav om evaluering i folkeskolen mangler en stærk evalueringskultur. Eleverne får derfor et utilstrækkeligt tilbagespil i forhold til deres præstationer, og forældrene har svært ved at vurdere børnenes fremskridt.   Regeringen vil styrke evaluering i folkeskolen ved at give skolerne pligt til at evaluere elevens udbytte med udgangspunkt i de bindende mål for undervisningen, som blev indført  i 2003. Regeringen vil fra og med skoleåret 2005/06 påbegynde indførelse af nationale, obligatoriske test i læsning i 2., 4., 6. og 8. klasse, matematik i 3. og 6. klasse, engelsk i 7. klasse og naturfagene i 8. klasse. Testene skal være et værktøj til at sikre faglige fremskridt
23 af 28 for den enkelte elev ved at målrette undervisningen til den enkelte elevs særlige evner. Testene skal hverken bruges til offentliggørelse af resultater eller til at rangordne skoler og elever.   Til den del af spørgsmålet, som vedrører kritikken af disse løsningsforslag, vil jeg henvise til svarene på de foregående spørgsmål. Desuden kan jeg tilføje, at jeg har noteret mig synspunkterne fra Christen Sørensen både på Danmarks Lærerforenings medlemsblads hjemmesider og i hans kronik i Berlingske Tidende den 4. januar i år samt et par andre mindre indlæg. Fra min forgænger i embedet er der givet et svar i Berlingske Tidende den 9. januar. Jeg er enig i en række af de synspunkter, som økonomiprofessoren lægger frem om det tekniske i PISA-undersøgelsen, hvad det er PISA undersøger og for den sags skyld hans beskrivelse af resultaterne. Jeg er også enig i, at man ikke alene med afsæt i PISA-undersøgelsen automatisk kan konkludere, at der skal indføres test – eller for den sags skyld, at der skal følges op med helt bestemte midler.   Det er og bliver et politisk spørgsmål at vurdere, hvordan der skal følges op.  
24 af 28 Regeringen har som sit grundlag for opfølgningen på PISA-2003, som nævnt, valgt at fæstne lid til den lange række af undersøgelser af skolen, som er gennemført i de senere år. Det drejer sig, som jeg allerede har været inde på, om en række evalueringer af folkeskolen gennemført af Evalueringsinstituttet og et forskningsprojekt om ”De gode eksempler”, som er gennemført i efteråret 2004. Men ikke mindst har vi ladet os inspirere af OECD’s review om grundskolen i Danmark, som blev gennemført i 2003.   Hovedtrækket i alle disse rapporter og redegørelser er behovet for at styrke evalueringskulturen i skolen. Det er helt åbenlyst, at skolen og den enkelte lærer har behov for langt mere nøjagtigt at vide, hvad det enkelte barn kan og hvor, der skal sættes særligt ind. Derfor vil vi forbedre lærernes evalueringsværktøjer ved at give dem de muligheder, der ligger i en række obligatoriske test. Men det er selvfølgelig ikke nok.   Det er, som professor Peter Mortimore, der er hovedforfatter på OECD’s review, siger, helt afgørende, hvordan man følger op på den viden, man får om barnet. Derfor er lærernes viden om undervisning og deres fag det afgørende element for, at de kan tilrettelægge undervisningen, så de børn, der ikke er nået så langt,