Ligestillingsudvalget 2022-23 (2. samling)
LIU Alm.del
Offentligt
2720496_0001.png
Folketingets Ligestillingsudvalg
Stormgade 2-6
1470 København K
Telefon 72 28 24 00
[email protected]
Sagsnr.
2023 - 1795
Doknr.
20183
Dato
06-06-2023
Svar på spørgsmål fra Ligestillingsudvalget stillet den 12. maj 2023.
Spørgsmål nr. 8:
”Slutdokumentet fra FN’s Kvindekommissions årlige samling i marts 2023 (CSW67) understre-
ger, hvordan kønsstereotyper og ubevidste kønsbias kan forstærkes gennem kunstig intelli-
gens, og hvordan nye digitale teknologier, f.eks. deep fake, desværre kan bruges til nye for-
mer for diskrimination og digital vold mod kvinder. Hvad vil ministeren gøre for at følge op på
denne del af Kvindekommissionens slutdokument, og hvad vil ministeren gøre for at identifi-
cere og handle på de områder, hvor udviklingen af nye teknologier rammer særligt kvinder på
en negativ måde, f.eks. gennem diskrimination, digital chikane, stalking osv.?”
Svar:
FN’s
Kvindekommission koblede i 2023 for første
gang digitalisering sammen med ligestilling.
Slutdokumentet kom med en række vigtige anbefalinger, og det stadfæstede, at online og off-
line kønsbaseret vold, chikane og krænkelser hænger sammen, herunder at det kan begrænse
kvinder og pigers lige og meningsfulde inklusion og deltagelse, at kunstig intelligens kan re-
producere kønsstereotyper, og at digitalisering kan skabe nye platforme for diskrimination,
krænkelser og vold.
Der blev efter forhandlingerne afholdt et opfølgende delegationsmøde med alle relevante or-
ganisationer, hvor det bl.a. blev drøftet, at det ikke kun er regeringen, der skal følge op på an-
befalingerne, men at relevante organisationer og aktører fx tech virksomheder kan bidrage til
løsningen.
Jeg er meget bevidst om, at digitale platforme, herunder fx stalkerware eller spyware, bliver
brugt som et redskab til at udøve digitale krænkelser, herunder chikane, i voldelige forhold og
i sager om stalking. Udviklingen af fx stalkerware og måden man kan overvåge andre på, for-
andrer sig med stor hastighed og kan være svær at navigere i. Historier om brugen af hemme-
lige GPS-afsendere på biler eller indsyet i bamser er med til at fastholde kvinder i voldelige re-
lationer. Det var derfor vigtigt for mig, at der i forhandlingerne til SSA-aftalen blev afsat mid-
ler til en handlingsplan mod partnervold og partnerdrab, herunder et specifikt initiativ, der
skal udvikle en national vejledning om digital sikkerhed og stalkerware.
Regeringen har generelt stort fokus på digitaliseringen og den betydning, det kan have for li-
gestilling og krænkelser. Regeringen har fx netop vedtaget et lovforslag med initiativer mod
digitale krænkelser, herunder bl.a. selvstændig kriminalisering i straffeloven af grooming af
børn og unge under 18 år. Det fremgår desuden af regeringsgrundlaget, at regeringen vil ned-
sætte en kommission der skal komme med anbefalinger til, hvordan mistrivsel og sårbarhed
kan forebygges og afhjælpes, samt hvordan robusthed og myndiggørelse kan styrkes. Kom-
missionen skal i den forbindelse også se på indflydelsen fra bl.a. sociale medier. Det fremgår
LIU, Alm.del - 2022-23 (2. samling) - Endeligt svar på spørgsmål 8: Spm. om, hvordan kønsstereotyper og ubevidste kønsbias kan forstærkes gennem kunstig intelligens
2720496_0002.png
endvidere, at regeringen vil udarbejde en hvidbog med initiativer, der kan beskytte børns fær-
dens på internettet.
For så vidt angår kunstig intelligens er jeg meget bevidst om, at der er en udfordring i, at tek-
nologien kan genskabe og i nogle tilfælde forstærke bias, som kan føre til diskrimination. Her
er det meget vigtigt at understrege, at kunstig intelligens, hvis udviklet og anvendt rigtig, også
giver os en unik mulighed for netop at overkomme menneskeligt bias.
I EU forhandler vi i øjeblikket en forordning om kunstig intelligens, hvor der netop indgår krav
om datakvalitet og om, at producenter af høj-risiko kunstig intelligenssystemer skal forholde
sig til og for så vidt muligt undgå bias. Der er dermed regler på vej, som tager hånd om denne
problemstilling. Der er dog ingen grund til at vente på forordningen før man begynder at gøre
sig umage med udvikling og anvendelse af kunstig intelligens.
I Danmark har Dansk Standard udviklet en guide, som udviklere af kunstig intelligens kan an-
vende til at undgå bias i deres systemer, og det frivillige D-mærke
verden første dataetiske
mærke
har også en række krav om kunstig intelligens, herunder med fokus på at undgå bias,
som er et rigtig godt sted at starte.
Med venlig hilsen
Marie Bjerre
2