Udvalget for Digitalisering og It 2024-25
DIU Alm.del Bilag 65
Offentligt
2989282_0001.png
Sekretariatet for
Dataetisk Råd
[email protected]
Dato: 7. marts 2025
Justitsministeriet
Slotsholmsgade 10
1216 København K
Sendt elektronisk til [email protected] med kopi til [email protected]
Høring over udkast til lovforslag til lov om ændring af straffeloven, retsplejeloven og lov om
Offerfonden (Styrket indsats mod seksuelt krænkende materiale m.v.)
1. Indledning og opsummering
Folketingets Udvalg for Digitalisering og IT har efterspurgt Dataetisk Råds overvejelser i for-
bindelse med dette lovforslag. Rådet rådgiver regeringen og Folketinget om dataetiske pro-
blemstillinger knyttet til spørgsmålet om, hvordan anvendelse af ny teknologi kan ske med
udgangspunkt i borgernes rettigheder, retssikkerhed og grundlæggende samfundsmæs-
sige værdier. Lovforslaget rejser centrale dataetiske spørgsmål, hvorfor rådet har valgt at
afgive dette høringssvar, selvom rådet ikke var blandt høringsparterne til lovforslaget.
Rådet har valgt at fokusere på de foreslåede ændringer for politiets adgang til at fremstille
og udbrede uægte seksuelt materiale med personer under 18 år. Forslaget indeholder også
andre elementer, som er dataetiske relevante, men dilemmaerne forbundet med netop po-
litiets fremstilling og deling af uægte seksuelt materiale med personer under 18 år er særligt
principielle og har haft stor offentlig bevågenhed.
Rådet lægger til grund, at politiets anvendelse af det foreslåede redskab vil blive praktiseret
inden for de almindelige rammer for politiets agentvirksomhed, herunder provokationsfor-
buddet.
1.1
Opsummering
Politiets adgang til at fremstille og udbrede AI-genereret seksuelt materiale med personer
under 18 år kan rejse flere dataetiske bekymringer. For det første kan man være bekymret
for, at ofre vil opleve det som krænkende, hvis en AI-model trænes på misbrugsmateriale,
hvori de optræder, eller at personer i AI-generet materiale ved et tilfælde kommer til at
ligne virkelige børn. For det andet kan man være bekymret for, at politiets produktion og de-
ling af AI-genereret misbrugsmateriale vil have afledte negative følger for samfundet, for
eksempel ved at øget spredning af misbrugsmateriale stimulerer til flere kontaktovergreb
imod børn.
1
DIU, Alm.del - 2024-25 - Bilag 65: Høringssvar fra Dataetisk Råd vedr. Politiets fremstilling og deling af uægte børnemisbrugsmateriale, af 7/3-25
2989282_0002.png
Sekretariatet for
Dataetisk Råd
[email protected]
Dato: 7. marts 2025
Samlet set finder rådet dog, at politiet bør have denne adgang, og at de dataetiske betæn-
keligheder kan overvindes ved tekniske løsninger, åbenhed og evaluering.
Rådet har sammenfattet denne position i en række konkrete anbefalinger.
2. Uddybning af dataetiske perspektiver på forslaget
Lovforslaget foreslår en ændring i Straffelovens § 754, der vil gøre det muligt for politiet at
dele uægte seksuelt materiale, der forestiller personer under 18 år, som led i agentvirksom-
hed.
Justitsministeriet peger i lovbemærkningerne
på, at den foreslåede ordning er ”forbundet
med en række principielle og etiske overvejelser”. En dataetisk overvejelse og vurdering af
forslaget må afveje de dataetiske hensyn, som taler henholdsvis for og imod forslaget. Efter
rådets vurdering knytter de væsentligste dataetiske overvejelser sig på ene side til det for-
hold, at produktion og anvendelse af uægte misbrugsmateriale kan øge politiets mulighed
for efterforskning. På den anden side knytter de dataetiske overvejelser sig for det første til
det forhold, at fremstillingen af uægte materiale kan indebære anvendelse af eksisterende
misbrugsmateriale. For det andet, at der er en risiko for, at uægte materiale kan indeholde
personer, som ligner virkelige personer. Og for det tredje, at politiets produktion og distribu-
tion af AI-genereret misbrugsmateriale kan bidrage til de skadevirkninger, der generelt er
forbundet med deling af seksuelt materiale med personer under 18 år. Disse forhold gen-
nemgås nedenfor.
2.1.
Den foreslåede ordning kan øge politiets mulighed for efterforskning
Det er almindeligt anerkendt, at deling af børnemisbrugsmateriale er et stort og stigende
problem globalt set. Tal fra CyberTipline, der samler indberetninger fra de store digitale
platforme på globalt plan, viser at der i 2023 blev indberettet over 39,9 mio. eksempler på
børnemisbrugsmateriale
en stigning på knap 8 pct. ift. 2022
1
. Dette tal dækker antageligt
over et betydeligt mørketal, da en stor del af deling af materiale foregår igennem speciali-
serede fora og lukkede grupper, og derfor ikke indgår i rapporteringer. Stigningen kædes
ofte sammen med fremkomsten af digitale teknologier, der gør det nemmere at distribuere
børnemisbrugsmateriale. I et dataetisk perspektiv er det problematisk, at digitale teknolo-
gier har medført en stigning, idet stigende spredning af misbrugsmateriale kan antages at
hænge sammen med øget produktion af misbrugsmateriale, og produktionen af børne-
misbrugsmateriale indebærer et alvorligt overgreb på børn med psykiske mén og ødelagte
liv til følge.
1
https://www.missingkids.org/content/dam/missingkids/pdfs/2023-CyberTipline-Report.pdf
2
DIU, Alm.del - 2024-25 - Bilag 65: Høringssvar fra Dataetisk Råd vedr. Politiets fremstilling og deling af uægte børnemisbrugsmateriale, af 7/3-25
2989282_0003.png
Sekretariatet for
Dataetisk Råd
[email protected]
Dato: 7. marts 2025
Ændringen er på denne baggrund motiveret af et legitimt ønske om at øge politiets mulig-
hed for at bekæmpe fremstilling og deling af børnemisbrugsmateriale. Rigspolitiet har op-
lyst, at deling af seksuelt materiale med personer under 18 år, herunder materiale med sek-
suelt misbrug af børn, ofte er påkrævet for at få adgang til fora med børnemisbrugsmateri-
ale på internettet, ligesom løbende deling af nyt materiale er påkrævet for at forblive i disse
fora. Dataetisk Råd forstår det oplyste således, at politiets adgang til at fremstille og ud-
brede uægte seksuelt materiale med personer under 18 år i væsentlig grad vil forbedre po-
litiets mulighed for effektiv bekæmpelse af kontaktovergreb og deling af børnemisbrugs-
materiale.
Rådet finder, at dette er et tungtvejende argument for forslaget.
Der kan stilles spørgsmålstegn ved den langsigtede effekt af politiets tilladelse på længere
sigt. Kravene for adgang til billede-delingsnetværk vil antageligt ændres dynamisk som til-
pasning til politiets nye hjemmel, herunder f.eks. ved at de pågældende fora afkræver bevis
på billedernes ægthed for at godtage dem. Dette vil svække forslagets legitimitet på læn-
gere sigt, men rådet finder ikke, at det er et afgørende argument imod forslaget, så længe
der sikres en løbende åbenhed om den nye hjemmels anvendelse og evaluering af effek-
ten.
2.2.
Politiets fremstilling af AI-genereret børnemisbrugsmateriale kan indebære en
krænkelse af børn, som indgår i træningsmaterialet
AI-genereret børnemisbrugsmateriale kan for det første indebære krænkelser af børn, som
indgår i overgrebsmateriale, der bruges som input til træningen af den AI-model, der an-
vendes til at skabe det uægte materiale. Anvendelsen af dette billedmateriale er i denne
sammenhæng en krænkelse ofrenes værdighed, privatliv og selvbestemmelse. Krænkelsen
opstår i første række ved selve anvendelsen af faktisk overgrebsmateriale som trænings-
grundlag og i anden række, hvis AI-modeller baseret på sådant materiale anvendes som
værktøj til at fremstille kunstigt overgrebsmateriale.
Træning på ægte børnemisbrugsmateriale er dog én teknisk mulighed blandt flere, da det
vurderes, at man kan træne generative billede-modeller, der kan lave AI-genereret seksuelt
materiale med personer under 18, på træningsdata, der ikke indeholder ægte materiale.
Dataetisk Råd anbefaler derfor, at det sikres, at politiet alene anvender AI-værktøjer, der
ikke er trænet på ægte misbrugsmateriale.
3
DIU, Alm.del - 2024-25 - Bilag 65: Høringssvar fra Dataetisk Råd vedr. Politiets fremstilling og deling af uægte børnemisbrugsmateriale, af 7/3-25
2989282_0004.png
Sekretariatet for
Dataetisk Råd
[email protected]
Dato: 7. marts 2025
1.2
Politiets AI-genererede børnemisbrugsmateriale kan have lighed med virkelige per-
soner
For det andet kan virkelige børn blive krænket, hvis de ligner børn, der optræder på AI-ge-
nereret seksuelt materiale med personer under 18. Denne krænkelse har paralleller til den
situation, hvor personer mod deres vilje bliver gjort til genstand for deepfake-porno. Men
det skal siges, at selvom det hypotetisk set kan forekomme, at virkelige personer utilsigtet er
genkendelige i outputtet fra AI-modeller, er sandsynligheden i praksis meget lav efter rå-
dets oplysninger.
Dataetisk Råd vurderer derfor, at risikoen for at virkelige børn bliver krænket ved politiets
fremstilling og anvendelse af kunstigt misbrugsmateriale er beskeden og derfor ikke bør til-
lægges vægt.
2.3.
Politiets fremstilling og deling af AI-genereret børnemisbrugsmateriale kan have
negative følger for samfundet
AI-genereret seksuelt materiale med personer under 18 har også været genstand for en
tredje indvending, nemlig at eksponering for børnemisbrugsmateriale i sig selv kan have
negative følger. Argumentet er, at det er problematisk, hvis politiet deler børnemisbrugs-
materiale og derved bidrager til at øge den samlede mængde AI-genereret seksuelt mate-
riale med personer under 18 på internettet, som medfører, at flere bliver eksponeret for ma-
terialet.
Et delargument i denne sammenhæng er, at eksponering for AI-genereret seksuelt materi-
ale med personer under 18 kan hænge sammen med en problematisk seksualisering af
børn. Dels fordi det kan indebære en uønsket påvirkning af normerne i samfundet, og dels
fordi eksponering for AI-genereret seksuelt materiale med personer under 18 kan indebære
øget risiko for at personer begår kontaktovergreb på børn.
Undersøgelser baseret på selvrapportering og surveys indikerer, at personer, der misbruger
seksuelt materiale med personer under 18, ofte først falder over materialet som led i anden
aktivitet på nettet eller på grund af nysgerrighed om emnet. Senere kan adfærden optrap-
pes og blive mere ekstrem, og i sidste ende medføre en risiko for at begå kontaktovergreb
mod børn.
Spørgsmålet synes dog underbelyst i forskningslitteraturen.
Et lignende spørgsmål er blevet behandlet som led i tidligere politiske drøftelser om krimi-
nalisering af
”fiktiv
børneporno”
2
, som AI-genereret seksuelt materiale med personer under
2
”Fiktiv børnepornografi” bruges især
i ældre omtaler af emnet.
4
DIU, Alm.del - 2024-25 - Bilag 65: Høringssvar fra Dataetisk Råd vedr. Politiets fremstilling og deling af uægte børnemisbrugsmateriale, af 7/3-25
2989282_0005.png
Sekretariatet for
Dataetisk Råd
[email protected]
Dato: 7. marts 2025
18 kan siges at være en afart af. Børnerådet udtalte i 2017 på baggrund af en rapport fra Se-
xologisk Klinik, at det ikke var muligt entydigt at afgøre om fiktivt børnemisbrugsmateriale
har en optrappende effekt på risikoen for begå kontaktovergreb på børn, eller omvendt har
en forebyggende effekt.
Den potentielt set forebyggende effekt skulle i givet fald forklares med at AI-genereret sek-
suelt materiale med personer under 18 kan substituere for ægte børnemisbrugsmateriale
og således forebygge faktiske kontaktovergreb på børn.
Uanset om politiets fremstilling af AI-genereret seksuelt materiale, der gengiver personer
under 18 år skulle indebære en risiko for flere fysiske kontaktovergreb eller omvendt redu-
cere sådanne, er det rådets vurdering, at omfanget af politiets bidrag til den samlede
mængde materiale i omløb, jf. ovenfor, er så lille relativt set, at det efter rådets vurdering
ikke vejer tungt i den samlede afvejning dog med forbehold for forskningens begrænsnin-
ger på området.
Det samme gælder for indsigelsen om, at en større forekomst af AI-genereret børnemis-
brugsmateriale kan besværliggøre politiets arbejde med at efterforske sager om seksuelle
krænkelser af virkelige børn på globalt plan.
3. Samlet dataetisk vurdering: Politiet bør have tilladelse til at fremstille og dele AI-gene-
reret seksuelt materiale med personer under 18 år som led i agentvirksomhed
Efter en samlet vurdering finder Dataetisk Råd, at politiet bør have mulighed for at fremstille
og dele AI-genereret seksuelt materiale med personer under 18 år som led i efterforsknin-
gen af seksuelt materiale med personer under 18 år.
Det er således rådets opfattelse, at de mulige gevinster for efterforskningsarbejdet oversti-
ger de dataetiske betænkeligheder, forudsat at en forudsætning er opfyldt. Denne forud-
sætninger er
at fremstillingen af AI-genereret børnemisbrugsmateriale ikke anvender virkeligt bør-
nemisbrugsmateriale som træningsgrundlag.
Derudover anbefaler rådet:
at politiet offentliggør en teknisk beskrivelse af anvendte metoder i det omfang, det er
muligt uden at kompromittere efterforskningsarbejdet,
at politiet årligt rapporterer til Folketinget og offentligheden statistiske oplysninger om
brug af AI-genereret seksuelt materiale med personer under 18 år i det omfang det er
muligt uden at kompromittere efterforskningsarbejdet og
5
DIU, Alm.del - 2024-25 - Bilag 65: Høringssvar fra Dataetisk Råd vedr. Politiets fremstilling og deling af uægte børnemisbrugsmateriale, af 7/3-25
2989282_0006.png
Sekretariatet for
Dataetisk Råd
[email protected]
Dato: 7. marts 2025
at politiets brug af AI-genereret seksuelt materiale med personer under 18 år evalueres
efter f.eks. to år med fokus på effekten af politiets efterforskningsarbejde, eventuelle
tegn på negative følgevirkninger og behovet for justeringer i regelsættet.
Anbefalingerne har til formål at sikre en ansvarlig og åben implementering, der balancerer
hensynet til effektiv efterforskning med grundlæggende dataetiske principper om gennem-
sigtighed og ansvarlighed.
Dataetisk Råd står til rådighed for uddybning og yderligere rådgivning.
På vegne af Dataetisk Råd og med venlig hilsen,
Johan Busse
Formand for Dataetisk Råd
6