Udvalget for Digitalisering og It 2024-25
L 154 Bilag 1
Offentligt
2983985_0001.png
Digitaliseringsstyrelsen
att:
[email protected]
[email protected]
Ingeniørforeningen, IDA
Kalvebod Brygge 31-33
DK-1780 København V
Tlf. +45 33 18 48 48
ida.dk
Høringssvar vedr. forslag til lov om supplerende
bestemmelser til Europa Parlamentets og Rådets
forordning om kunstig intelligens
Hermed IDAs svar på høring om forslag til lov om supplerende
bestemmelser til Europa Parlamentets og Rådets forordning om
kunstig intelligens, også kaldet lov om forbudte former for AI. IDA takker
for muligheden for at afgive kommentarer.
Lovforslaget har fokus på at fastsætte regler for tilsynet med
forordningen om kunstig intelligens kapitel II, navnlig med forbudte
former for AI praksis.
IDA er overordnet meget positive over for AI Act, forordningen om
kunstig intelligens, der har som hovedformål at sikre udbredelse af
menneskecentreret og troværdig kunstig intelligens (AI) og samtidig
sikre et højt niveau af beskyttelse af sundhed, sikkerhed og de
grundlæggende rettigheder, der er nedfældet i chartret, herunder
demokratiet, retsstatsprincippet og miljøbeskyttelse mod de skadelige
virkninger af AI-systemer i Unionen og samtidig støtte innovation.
Forordningen om kunstig intelligens pålægger medlemsstaterne at
indføre supplerende lovgivning med henblik på at udpege kompetente
myndigheder, som skal udføre de forordningsbestemte tilsyn.
IDA kan fuldt ud bakke op om forslaget om at udpege
Digitaliseringstyrelsen og Datatilsynet som
markedsovervågningsmyndighed, jf. forslag til §2.
I henhold til artikel 99, stk. 1, i forordningen om kunstig intelligens skal
medlemsstaterne desuden indføre nationale sanktionsbestemmelser
og håndhævelsesforanstaltninger for overtrædelser af forordningen.
IDA kan fuldt ud bakke op om de midler, myndighederne får til at tilse
overholdelsen af forordningen om kunstig intelligens, som nævnt i
lovforslagets kapitel 3, herunder muligheden for adgang til
erhvervsmæssige lokationer mod behørig legitimation og uden
retskendelse, at man kan foretage tekniske undersøgelser på stedet,
IDA er en forening for viden, netværk og interessevaretagelse. Vores 160.000 medlemmer med tekniske,
naturvidenskabelige og it-uddannelser arbejder for at skabe vækst og job samtidig med, at vi får løst store
samfundsudfordringer.
20. november 2024
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
herunder med bistand fra uafhængige sagkyndige og at politiet, hvis
det bliver nødvendigt, kan hjælpe med at sikre gennemførelse af
kontrollen. Det er midler, der allerede er velkendte fra Konkurrence- og
Forbrugerstyrelsen og som giver mulighed for at kunne reagere hurtigt
og kompetent på ulovlige handlinger.
IDA er også fuldt ud enige i forslaget til §10 og §11 om udstedelse af
bøder ved overtrædelse af bestemmelserne om forbudte former for AI-
praksis. Da formålet med forordningen er beskyttelse af sundhed,
sikkerhed og de grundlæggende rettigheder, der er nedfældet i
chartret, herunder demokratiet, retsstatsprincippet og miljøbeskyttelse
mod de skadelige virkninger af AI-systemer, er det vigtigt, at det er
muligt effektivt at sikre overholdelse af bestemmelserne i forordningen.
Med venlig hilsen
Grit Munk
Digitaliseringspolitisk chef
Ingeniørforeningen, IDA
Side 2 af 2
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0003.png
Digitaliseringsstyrelsen
Landgreven 4
1017 København K
Att.: Fuldmægtig, Katerina Helena Vinther
Sendt pr. e-mail til [email protected] med kopi til [email protected]
27. november 2024
Høringssvar fra Arbejdsmarkedets Tillægspension (ATP)
vedrørende forslag til lov om supplerende bestemmelser til
Europa-Parlamentets og Rådets forordning om kunstig
intelligens
Arbejdsmarkedets Tillægspension ("ATP") vil gerne takke for muligheden for at afgive
høringssvar til udkastet til lov om supplerende bestemmelser til Europa-Parlamentets og
Rådets forordning om kunstig intelligens ("AI-forordningen"). ATP har gennemgået
lovforslaget, som Digitaliseringsministeriet har fremsat, og forstår det som et forslag til
fastlæggelse af nærmere regler om sanktioner, udpegning og håndhævelse af AI-
forordningen, særligt inden for området, der vedrører forbudte former for AI-praksis.
ATP bemærker yderligere, at Digitaliseringsministeriet påtænker at fremsætte yderligere
supplerende lovgivning, som omfatter de resterende kapitler i AI-forordningen. Dette
inkluderer specifikke regler for tilsynet med højrisiko-AI-systemer i Danmark, og vi ser frem
til at medvirke i denne proces.
ATP ønsker med dette høringssvar at bidrage til en effektiv og velafbalanceret
implementering af lovforslaget. Vores bemærkninger er opstillet i det følgende:
1. Samarbejde mellem tilsynsmyndighederne
ATP støtter udpegningen af Digitaliseringsstyrelsen som bemyndigende myndighed samt
udpegningen
af
både
Digitaliseringsstyrelsen
og
Datatilsynet
som
markedsovervågningsmyndigheder (jf. § 2). Vi anerkender fordelene ved en klar fordeling
af ansvar og beføjelser, men anbefaler en yderligere præcisering af samarbejdsstrukturen
mellem de to myndigheder for at undgå overlap i kompetencer med henblik på at sikre en
ensartet og gennemsigtig tilsynsproces, der kan gavne både myndigheder og berørte
aktører, herunder ATP.
Vi bemærker endvidere, at Digitaliseringsministeren tillægges kompetencen til at udpege
yderligere markedsovervågningsmyndigheder og bemyndigende myndigheder vedrørende
tilsynet med højrisiko-AI-systemer (jf. § 2, stk. 3). For at sikre et effektivt og enkelt tilsyn
med AI-forordningen opfordrer ATP til, at Digitaliseringsstyrelsen i fremtidigt lovforslag
overvejer at lade tilsyn med højrisiko-AI-systemer, som defineret i bilag III i AI-
forordningen, henhøre under én eller få myndigheder. Dette vil være særligt fordelagtigt for
aktører der behandler persondata, som kan være omfattet af både AI-forordningen og
anden relevant lovgivning, herunder databeskyttelsesforordningen (GDPR). Det kan skabe
større klarhed og koordination, hvilket ATP vurderer er afgørende for en gennemsigtig,
smidig og forudsigelig tilsynsproces.
1
ATP
Kongens Vænge 8,
3400 Hillerød
Tlf.: 70 11 12 13
Fax: 48 20 48 02
www.atp.dk
CVR-nr.: 43405810
Telefontid:
Mandag - Torsdag: 8.00-16.00
Fredag: 8.00-15.30
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0004.png
2. Tilsynsmyndighedernes beføjelser
ATP anerkender nødvendigheden af, at markedsovervågningsmyndighederne har
vidtrækkende beføjelser til at indhente oplysninger og gennemføre kontrolbesøg uden
forudgående retskendelse (jf. §§ 5-6). Vi opfordrer imidlertid til, at disse beføjelser
ledsages af præcise retningslinjer og procedurer for anvendelsen af
tilsynsmyndighedernes beføjelser, herunder en klar definition af kriterier for, hvornår og
hvordan sådanne beføjelser kan tages i brug.
Vi
foreslår
desuden,
at
retningslinjerne
bør
specificere,
hvordan
markedsovervågningsmyndighederne vil samarbejde ved tilsyn hos aktører, som kan være
omfattet af både AI-forordningen og anden relevant lovgivning, herunder
databeskyttelsesforordningen (GDPR).
3. Procedurer for en overensstemmelsesvurdering
ATP anbefaler, at Digitaliseringsstyrelsen tilstræber en enkel og praktisk tilgang til
overensstemmelsesvurdering (jf. § 9), således at udbydere og idriftsættere af AI-systemer
kan opfylde kravene i AI-forordningen på en effektiv måde. Dette vil være med til at lette
implementeringen og bidrage til en mere overskuelig og brugervenlig proces, som både
små og store aktører kan efterleve uden unødvendige omkostninger.
Vi opfordrer samtidig til, at Digitaliseringsstyrelsen i vejledningsmateriale for aktører,
herunder ATP giver konkrete eksempler og klar vejledning om de nødvendige krav til en
overensstemmelsesvurdering, således at udbydere og idriftsættere af AI-systemer kan
planlægge og gennemføre den fornødne vurdering med færrest mulige administrative
byrder.
4. Administrative bødeforlæg
Indførelsen af administrative bødeforlæg (jf. § 11) kan være et effektivt værktøj til
håndhævelse af reglerne i AI-forordningen. For at sikre proportionalitet og retssikkerhed
foreslår ATP dog, at der fastlægges klare rammer og retningslinjer for, hvornår og hvordan
bødeforlæg bør anvendes. Dette er særligt vigtigt, da offentlige myndigheder, herunder
ATP kan blive omfattet af AI-forordningens bestemmelser og potentielt blive pålagt
sanktioner.
Afsluttende bemærkninger
ATP ser frem til at samarbejde tæt med relevante tilsynsmyndigheder for at sikre, at vores
anvendelse af AI-systemer overholder både nationale og europæiske regler. Vi ser med
interesse frem til at blive inddraget, når yderligere lovforslag til supplering af AI-
forordningen fremsættes.
Med venlig hilsen
Anne Kristine Axelsson
Koncerndirektør, Pension & Arbejdsmarked, ATP
2
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0005.png
IT-Branchen
Langebrogade 3D, 3.
1411 København K
Telefon:
60 15 23 30
Mail:
[email protected]
Til Digitaliseringsstyrelsen v. Katerina Helena Vinther ([email protected]), kopi
Maria Landtved
Kierkegaard ([email protected])
København, 27. november 2024
Høringssvar fra IT-Branchen vedrørende supplerende bestemmelser til Europa-Parlamentets
og Rådets forordning om kunstig intelligens
IT-Branchen fremsender hermed sine kommentarer og bemærkninger til udkastet til forslag om
supplerende bestemmelser til Europa-Parlamentets og Rådets forordning om kunstig intelligens,
navnlig rettet mod forbudte former for AI praksis.
Helt generelt støtter IT-Branchen op om en harmoniseret og teknologineutral tilgang til regulering af
kunstig intelligens, der kan sikre både innovation og ansvarlig brug af kunstig intelligens med
mennesket i centrum og hvor vi udnytter teknologiens store potentialer.
Implementering af forordningen om kunstig intelligens er et vigtigt område for IT-Branchen og vores
medlemsvirksomheder. Det er afgørende for os, at der er ensartede vilkår og rammer for udvikling
og anvendelse af kunstig intelligens på tværs af EU, så vi sikrer et sundt og dynamisk marked, hvor
danske virksomheder kan agere på lige fod med europæiske og øvrige konkurrenter.
Det er helt afgørende for IT-Branchen, at det i videst muligt omfang ikke gøres administrativt og
økonomisk belastende for danske virksomheder at leve op til AI reguleringen, også i takt med at
teknologien udvikler sig. IT-Branchen ser et stort behov for klare vejledninger, fx om hvornår man
som virksomhed går fra ”udbyder” til ”idriftsætter” og omvendt. Derudover vil det også være en stor
hjælp til virksomhederne, hvis de kommende standarder for kunstig intelligens frikøbes, så de er frit
tilgængelige og kan implementeres bredt, særligt i forhold til de mindre virksomheder og startups,
som AI reguleringen forventelig vil ramme hårdt.
Tekstnære kommentarer
I forhold til udkastet til forslag om supplerende bestemmelser til Europa-Parlamentets og Rådets
forordning om kunstig intelligens har vi følgende bemærkninger:
Klagemulighed ved afgørelser
I den supplerende lovtekst bliver det i kapital 2, §3, stk. 2. anført, at afgørelser truffet af de nationale
kompetente myndigheder (Digitaliseringsstyrelsen og Datatilsynet i Danmark) ikke kan indbringes
for anden administrativ myndighed. Det er en generel bekymring, at der ikke er ankemuligheder ved
afgørelser, og det bør præciseres hvilke øvrige klagemuligheder der gælder ved afgørelser, herunder
mulighed for at afgørelser kan domstolsprøves.
Side
1
af
2
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0006.png
Vigtigt at sikre kompetente tilsynsmyndigheder
Et effektivt tilsyn med forordningen for kunstig intelligens kræver, at de udpegede myndigheder har
de tilstrækkelige og nødvendige kompetencer til at udføre deres tilsynsopgaver. IT-Branchen har et
særligt opmærksomhedspunkt i forhold til, at de udpegede myndigheder, herunder
markedsovervågningsmyndigheder og uafhængige sagkyndige, er kompetente udi alle relevante
aspekter af kunstig intelligens-teknologiers livscyklus og anvendelse; teknisk, juridisk, forretnings-
og datamæssigt, etisk, designmæssigt mv., så de kan varetage deres opgaver effektivt uden unødig
forsinkelse for virksomhederne.
IT-Branchen mener desuden, at det potentielt er bekymrende, at tilsynsopgaven uddelegeres til en
bred kreds af aktører i forhold til at sikre ensartethed. Derudover kan det være problematisk, at
Digitaliseringsstyrelsen, jf. kapitel 3, §9, stk. 3, kan delegere sine opgaver til en privat institution i
forhold til deling af forretningskritiske oplysninger og konkurrencehensyn.
Hvilke oplysninger er nødvendige for at føre tilsyn med kunstig intelligens?
I IT-Branchen anerkender myndighedernes behov for adgang til data og kontrol med kunstig
intelligens-systemer for at kunne føre et effektivt tilsyn. I den sammenhæng vil vi gerne understrege
vigtigheden af proportionalitet i sådanne kontroller.
IT-Branchen er bekymret over, at for at virksomheder kan efterleve deres rolle ved tilsyn, fx ved at
skulle dele ”alle oplysninger” som en tilsynsmyndighed skønner nødvendigt jf kapitel 3, §5, vil
resultere i store omkostninger for virksomhederne. Dette specielt taget i betragtning, da ”alle
oplysninger” der er nødvendige for at forstå et kunstig intelligens-system, for det første kan være
ressourcekrævende at identificere, klargøre inden deling, fx forskellige versioner af datasæt,
modeller mv.
Der er en risiko for, især ved starten af lovens implementering, at tilsynsmyndighederne for at være
på den sikre side, beder om mere, end der reelt er brug for, for at lave tilsynet. Vi foreslår derfor, at
teksten i kapital 3, §5 ændres fra “alle oplysninger” til “nødvendige oplysninger”.
Offentliggørelse af sager om forbudte former for kunstig intelligens
IT-Branchen hilser det velkomment, at afgørelser ang. forbudt anvendelse af systemer kan
offentliggøres, så tilsynsmyndighedernes sagspraksis er transparent. IT-Branchen anbefaler, at det
er tydeligt hvilke kunstig intelligens-systemer og/eller anvendelse, der falder under de forskellige
risikoniveauer, herunder hvilke der kategoriseres som forbudte.
Vi ser frem til at fortsætte dialogen om implementeringen af kunstig intelligensforordningen, ligesom
vi naturligvis står til rådighed for evt. opklarende spørgsmål til ovenstående.
Med venlig hilsen
Charlotte Holm Billund
Chefkonsulent, IT-Branchen
Asbjørn William Ammitzbøll Flügge
Chefkonsulent, IT-Branchen
Side
2
af
2
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0007.png
Digitaliseringsstyrelsen
Sendt til: [email protected] med kopi til [email protected]
Vesterbrogade 32
1620 København V
Dato 28. november 2024
Høringssvar over Lov om supplerende bestemmelser til Europa-
Parlamentets og Rådets forordning om kunstig intelligens (AI-
forordningen)
Danske Advokater takker for muligheden for at afgive høringssvar vedrørende
udkastet til forslag til
Lov om supplerende bestemmelser til Europa-Parlamentets og
Rådets forordning om kunstig intelligens (AI-forordningen)
(”Lovforslaget”).
Danske Advokater har nedenstående bemærkninger, som er udarbejdet med bidrag
fra Foreningen Danske IT-advokater, som fungerer som Danske Advokaters
fagudvalg for it-ret, og fra Danske Advokaters fagudvalg for persondatabeskyttelse.
Danske Advokater anerkender regeringens indsats for at implementere den nationale
ramme for håndhævelse og administration af AI-forordningen med henblik på at
sikre en ansvarlig og balanceret anvendelse af kunstig intelligens i Danmark uden
unødigt at hæmme den teknologiske udvikling til gavn for det danske samfund, men
finder det nødvendigt at påpege enkelte forhold, som kan skabe usikkerhed for de
aktører, der bliver underlagt reglerne i AI-forordningen og Lovforslaget.
Vi ønsker i dette høringssvar at fremhæve centrale forhold, som vi henstiller til tages
op til fornyet overvejelse, herunder vedrørende udpegning af de kompetente
myndigheder og fordelingen af ansvarsområder og rettigheder mellem disse.
Målet med dette høringssvar er at bidrage konstruktivt til udformning af en
regulering, der understøtter både de samfundsmæssige og teknologiske muligheder,
som kunstig intelligens tilbyder, samtidig med at potentielle risici håndteres på en
effektiv og proportional måde.
Vi fokuserer særligt på administrationen og håndhævelsen af reguleringen, og vi
opfordrer til en åben dialog om, hvordan lovgivningen bedst understøtter danske
behov og værdier inden for rammerne af forordningen.
Med dette afsæt vil vi nedenfor uddybe vores synspunkter og anbefalinger.
Observationer
Overholdelsen af forordningen om kunstig intelligens (”AI-forordningen”) skal påses
af de nationale kompetente myndigheder, herunder særligt de myndigheder der
Telefon 33 43 70 00
[email protected]
www.danskeadvokater.dk
Dok.nr. D-2024-048066
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
udpeges som markedsovervågningsmyndigheder. Digitaliseringsstyrelsen og
Datatilsynet er i lovforslaget begge udpeget som markedsovervågningsmyndighed.
Markedsovervågningsmyndigheder kan afkræve aktører, herunder udbydere,
idriftsættere, importører, distributører og producenter af produkter, omfattet af
forordningen om kunstig intelligens alle oplysninger til brug for myndighedens
virksomhed og kan kræve at få adgang til alle aktørens erhvervsmæssige lokaliteter
samt foretage tekniske undersøgelser for at kunne påse overholdelse af AI-
forordningen og tilhørende dansk lovgivning. Adgang kan kræves uden retskendelse,
og politiet skal bistå markedsovervågningsmyndigheden.
Digitaliseringsstyrelsen fastsætter regler for Datatilsynets udstedelse af påbud og
forbud i forhold til forordningen om kunstig intelligens. Både Digitaliseringsstyrelsen
og Datatilsynet kan efter forhandling med justitsministeren blive bemyndiget til at
udstede bødeforlæg indenfor myndighedens område.
Bemærkninger til Lovforslaget
Kompetenceområde
Udpegningen af Digitaliseringsstyrelsen og Datatilsynet som
markedsovervågningsmyndigheder rejser spørgsmålet om afgrænsningen mellem de
to myndigheders kompetenceområde i forhold til at påse aktørers overholdelse af
forordningen.
Der har hersket usikkerhed herom hen over sommeren 2024, som det bl.a. fremgår
af Digitaliserings- og Ligestillingsministerens svar af 20. juni 2024 på spm. 181 fra
Folketingets Udvalg for Digitalisering og It.
Der er fortsat risiko for, at de to myndigheder vil have og kunne tiltage sig
bemyndigelse indenfor samme område.
Dette gælder uanset, at Digitaliseringsstyrelsen er udpeget som bemyndigende
myndighed og centralt kontaktpunkt i henhold til forordningen.
Det er uklart, om Datatilsynet i sin rolle som markedsovervågningsmyndighed alene
skal påse forhold direkte knyttet til behandling af personoplysninger, f.eks.
overholdelse af kravene i AI-forordningens artikel 10, eller om Datatilsynet vil have
en bredere rolle.
Vi anbefaler, at markedsovervågnings-myndighedernes roller og ansvarsområder
og dermed påtalebeføjelser og rettigheder overfor aktører underlagt forordningen
fastlægges tydeligt i Lovforslaget.
Udpegningen af to myndigheder som markedsovervågningsmyndigheder medfører
tillige risiko for, at myndighederne udvikler forskellige standarder og praksis for
overholdelse af AI-forordningen indenfor samme forhold. Vi anbefaler, at
Lovforslaget tilføjes regler om koordination mellem myndighederne.
Kompetencer og ressourcer
Det fremgår af § 3 i Lovforslaget, at de nationale kompetente myndigheder udfører
deres opgaver og udøver deres beføjelser efter forordningen om kunstig intelligens,
denne lov og regler udstedt i medfør heraf i fuld uafhængighed af politisk eller anden
udefrakommende indblanding og uden at søge eller modtage instrukser fra
2/4
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0009.png
regeringen eller nogen offentlig eller privat enhed i henhold til artikel 70, stk. 1, 2.
pkt., i forordningen om kunstig intelligens.
Digitaliseringsstyrelsen udøver - modsat Datatilsynet
1
- imidlertid ikke sine
funktioner i fuld uafhængighed. Vi anbefaler, at uafhængigheden tilvejebringes ved at
organiseringen af Digitaliseringsstyrelsen ændres, således at den svarer til
organiseringen af Datatilsynet.
De udpegede nationale kompetente myndigheder skal besidde de nødvendige faglige
kompetencer og ressourcer til at påtage sig opgaven. Vi henviser i den forbindelse til
AI-forordningens artikel 70, stk. 3:
”De nationale kompetente myndigheder skal navnlig råde over et
tilstrækkeligt antal medarbejdere på fast basis, hvis kompetencer og
ekspertise spænder over en indgående forståelse af AI-teknologier, data og
databehandling, beskyttelse af personoplysninger, cybersikkerhed,
grundlæggende rettigheder, sundheds- og sikkerhedsrisici og viden om
gældende standarder og retlige krav. Medlemsstaterne skal årligt vurdere
og om nødvendigt ajourføre de kompetence- og ressourcebehov, der er
omhandlet i dette stykke.”
Der vil sandsynligvis være behov for at supplere myndighedernes eksisterende
kompetencer, herunder ved ansættelse af medarbejdere med ekspertise i AI og med
praktisk erfaring på området. Derudover bør det overvejes at indskrive direkte i
Lovforslagets § 2, at der årligt skal foretages en revurdering af tilstrækkeligheden af
kompetencer og ressourcer hos de udpegede markedsovervågningsmyndigheder.
Vi bemærker i den forbindelse, at regeringen lægger op til at beskære Datatilsynets
årsværk fra 77 i 2022 til 67 i 2028.
Tilsyn uden retskendelse
Vi bemærker, at markedsovervågningsmyndigheden selv skal vurdere, om et forhold
hører under myndighedens kompetence og samtidig er berettiget til - uden
retskendelse - at få adgang til aktørers lokationer med henblik på at påse
overholdelse af forordningen, Lovforslaget eller regler udstedt i medfør deraf.
Adgang uden retskendelse er meget indgribende. Vi anbefaler derfor, at
justitsministeren sikrer de rammer for brugen af adgang uden retskendelse, der
bedst muligt værner aktørernes retssikkerhed, herunder fuld klarhed om
bemyndigelsen af de nationale kompetente myndigheder i Lovforslaget.
Det fremgår af Lovforslagets § 6, stk. 4, at:
"Politiet
yder om nødvendigt bistand til kontrollens gennemførelse.
Digitaliseringsstyrelsen eller Datatilsynet kan efter forhandling med
justitsministeren inden for sit område fastsætte regler herom".
Det fremgår i tilknytning hertil i pkt. 2.3.3 i de almindelige bemærkninger, at:
"Det foreslås herudover, at der, efter forhandling med justitsministeren,
kan fastsættes regler om, at politiet om nødvendigt yder bistand til
kontrollens gennemførelse."
Vi anbefaler, at det pågældende afsnit i pkt. 2.3.3 præciseres således, at det fremgår,
at der efter forhandling med justitsministeren kan fastsættes nærmere regler om
1
Databeskyttelseslovens § 27, stk. 1
3/4
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
politiets bistand til kontrollens gennemførelse. Dette vil svare til de specielle
bemærkninger til Lovforslagets § 6, stk. 4, 2. pkt.
Afsluttende bemærkninger
Vi står til rådighed for spørgsmål og dialog.
Med venlig hilsen
Charlotte Hvid Olavsgaard
Juridisk konsulent
[email protected]
4/4
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0011.png
Digitaliseringsstyrelsen, Katerina Helena Vinther
F&P: Høringssvar til udkast til forslag til lov om supplerende be-
stemmelser til Europa-Parlamentets og Rådets forordning om
kunstig intelligens
28.11.2024
F&P
Philip Heymans Allé 1
Vi takker for muligheden for at give input på udkast til forslag til lov om
supplerende bestemmelser til Europa-Parlamentets og Rådets forordning
om kunstig intelligens.
F&P har ingen tekstnære kommentarer til lovforslaget.
2900 Hellerup
Tlf.:
41 91 91 91
[email protected]
www.fogp.dk
CVR
11 62 81 84
Jakob Holm
Overordnet vil vi gøre opmærksom på:
1) Klageadgang
F&P finder det betænkeligt, at klageadgangen afskæres fuldstændig, da der
typisk vil være tale om større og komplekse straffesager på AI-området.
Det bør overvejes at henlægge klageadgangen til et ankenævn, eksempelvis
som Erhvervsankenævnet, så der sikres to-instans klagebehandling af
denne type vigtige sager.
2) Ens håndhævelse på tværs af tilsyn
Da forordningen implementeres med flere markedsovervågningsmyndighe-
der pr. EU-land
pt. 2 i Danmark og forventeligt flere, da der forventes en
sektor-opdeling - vil det være relevant at være opmærksom på, hvordan der
efter implementering sikres ens håndhævelse på tværs af både de enkelte
lande og på tværs af de forskellige sektortilsyn.
F&P anser et sektorbaseret tilsyn som det rigtige valg i forhold til tilsynet
med forordningen.
En række af de elementer, som følger af højrisikoreglerne, kræver domæne
og branchekendskab, hvorfor det er en klar fordel, at et tilsyn i forvejen har
dette kendskab.
F&P støtter derfor en tilgang med flere sektorbaserede tilsyn.
Chefkonsulent
Dir.
41919176
[email protected]
Sagsnr.
DokID
GES-2019-00312
500885
Brancheorganisation
for forsikringsselskaber
og pensionskasser
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0012.png
I forlængelse vil vi kraftigt anbefale, at Finanstilsynet får tilsynsrollen for
forsikrings- og pensionsbranchen, da domænekendskabet til selskabernes
forretningsgange og den finansielle regulering er mere afgørende end ren
teknisk AI-forståelse, når det kommer til at forstå selskaberne i branchens
AI-implementering.
3) Usikkerheder/uklarheder i den bagvedliggende forordning
Derudover vil vi gerne gøre opmærksom på en række usikkerheder/uklar-
heder i den bagvedliggende forordning, som der i forbindelse med den sam-
lede implementering af forordningen bør være opmærksomhed på.
Vi har herunder indsat en overordnet gennemgang af elementer i AI-forord-
ningen, hvor der er et stort tolkningsrum, som kan skabe usikkerheder i im-
plementeringen.
Den overordnede tilgang i den politiske proces har været følge en risikoba-
seret og proportionel tilgang, hvis ikke denne tilgang følges, når disse ele-
menter tolkes i vejledninger og standarder med videre, kan det føre til uøn-
skede og unødige byrder i implementeringen af forordningen.
Skulle der være spørgsmål til det indsendte, er I velkomne til at række ud.
Vh
Jakob Holm
Chefkonsulent, Digitaliseringspolitik
[email protected]
| +45 41 91 91 76
F&P,
Philip Heymans Allé 1 | 2900 Hellerup | +45 41 91 91 91
F&P
Sagsnr.
DokID
GES-2019-00312
500885
---000---
- Eksempler på uklarheder i den bagvedliggende forordning -
Det der ikke står i forordningen:
Afsæt:
Det er vigtigt at have fokus på de de facto-krav, som ikke fremgår af forord-
ningen.
Fx hvilke krav stilles der til virksomheder for at vise:
- At de
ikke
falder under høj risiko.
- At de
ikke
falder under transparens-kravene
- At de
ikke
udvikler general purpose
Bekymring:
De afledte de facto krav risikerer at blive meget omfattende. Fx ønske
om detaljerede oversigter over alle AI-systemer med risikovurderinger og detaljeret
mapning mod forordningens krav (Detaljerede begrundelser i forhold til om syste-
mer er inden for eller uden for scope).
Side 2
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
F&P
Løsning:
Holde fast i det risikobaserede afsæt og holde afledte krav til et mini-
mum
fx simpel oversigt over AI-løsninger i virksomheden mappet op mod ja/nej
for forordningens krav.
Her er det vigtigt at have for øje, at forordningen er friholdt for generelle krav til
al
AI. Det har netop været et (politisk) ønske at bevare en risikobaseret tilgang og
alene stille krav til AI-systemer, som udgør en risiko.
---000---
Sagsnr.
DokID
GES-2019-00312
500885
Definitionen af AI
Afsæt:
Forordningens fokus på AI-systemers
evne til at ”infer”, en grad af auto-
nomi samt den specifikke beskrivelse i lovbemærkningerne om, at AI ikke er tradi-
tionel software og systemer kodet af mennesker ikke er AI, udgør et fornuftigt afsæt
for definitionen.
Hovedbekymring:
At definitionen fortsat er bred og kan dække almindelige og
gængse statistiske tilgange. Der kan kodes af mennesker eller bør anses som traditi-
onel software.
Løsning:
Generaliserede additive modeller, inklusive lineære modeller, generaliserede line-
ære modeller og additive modeller kan ikke defineres som AI efter forordningen.
Generaliserede additive modeller ikke adskiller sig fra "traditionelle softwaresy-
stemer og programmeringstilgange". De har været anvendt i årtier, og de resul-
terende modeller er virkelig gennemsigtige, idet de er direkte fortolkelige.
AI-systemer ville derimod adskille sig på grund af deres black box-natur.
Generaliserede additive modeller kan rekonstrueres ud fra regler, der udeluk-
kende er defineret af fysiske personer.
---000---
Overgangen fra provider (udvikler) til deployer (bruger)
Bekymring:
Forordningen opstiller en række scenarier, som betyder, at en bruger
(deployer) vil overgå til at blive som udvikler (provider) og dermed underlagt de
mere omfattende udviklerkrav.
Her kan særligt kravet om, at ansvaret overgår, hvis der sker substantielle ændrin-
ger af et system, blive tolket bredt. Dette er fx relevant i forhold til mere generelle
AI-modeller (fx sprogmodeller), hvor der ofte er mulighed for at fintune parametre
Side 3
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
og tilføje yderligere data. Det er vigtigt, at disse versioneringer af modeller ikke ses
som substantielle ændringer.
Løsning:
Versioneringer af modeller
herunder sprogmodeller
er ikke substan-
tielle ændringer.
Begrundelse:
Forordningen påpeger, at ændringer, der ligger i forlængelse af den
forventede brug, ikke er substantielle ændringer.
Eksempel når man træner sin egen GPT
en mulighed der ligger som et standard-
element i fx OpenAI’s ChatGPT
- vil det være en forventet ændring, hvorfor dette
ikke kan ses som en substantiel ændring.
Det samme bør være gældende i forhold til øvrige modeller, der fra start er
tænkt/kan forventes at blive justeret/versioneret i større omfang.
---000---
Krav om registrering i offentlig EU-database
Bekymring:
Højrisikosystemer skal registreres i en offentlig EU-database.
Registreringen i den offentlige database kan risikere at blive byrdefuld for virksom-
hederne. Derudover er der risiko for at registreringen kan afsløre konkurrenceføl-
somme oplysninger.
Der bør være særskilt opmærksomhed på kravet om, at man skal uploade ”instruc-
tions of use”, som skal udarbejdes ifølge højrisikokravene i databasen.
En instruktionsbog til et AI-værktøj, som sælges, vil være vidt forskellig fra en in-
struktionsbog til et værktøj, der alene bruges internt.
Særligt i forhold til forretningsfølsomme oplysninger bør man afsøge mulighederne
for en differentiering i forhold til, hvad der uploades for rent interne modeller.
Manualen til en intern model vil i højere grad indeholde flere (og også konkurren-
cefølsomme) oplysninger, end en manual til eksterne.
Virksomheder der alene bruger et værktøj internt, kan derfor ende med at udar-
bejde en renset udgave af deres manual til upload i databasen, hvilket er en unødig
byrde, da systemet alene bruges internt og der derfor ikke er behov for at 3. parter
kan tilgå manualen.
Løsning:
Der skal være fokus på, at indrapporteret data i den offentlige database:
Skal være kort og præcis
Ikke må afsløre konkurrence-følsomme oplysninger.
Der kan fx udarbejdes generiske skabeloner på sektorniveau for at sikre ensartet
indrapportering og detaljeniveau i registreringerne i den offentlige database.
Derudover bør det kraftigt overvejes, om det for modeller, som alene benyttes in-
ternt og ikke placeres på markedet, skal være en mulighed, at alene tilsyn kan tilgå
manualen.
---000---
F&P
Sagsnr.
DokID
GES-2019-00312
500885
Side 4
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
AI-literacy
Hovedbekymring:
- At der stilles (for) høje krav til literacy på tværs af brede medarbejdergrupper.
- At forordningen stiller krav på tværs af hele værdikæden, dvs. også krav om at
sikre AI-literacy hos leverandører/underleverandører.
Løsning:
- At dette krav bliver proportionelt, og at det I videst muligt omfang ikke bliver et
ansvar at sikre AI-literacy hos leverandører (fx gennem kontraktkrav).
- At der sikres proportionalitet i kravet, således at alle medarbejdere ikke skal vide
alt om AI-systemer, men at det
alt efter involvering
er nok med basis kendskab.
Begrundelse:
Det kan blive meget svært (umuligt) for særligt mindre virksomhe-
der overhovedet at løfte disse krav, hvis de ikke tilgås proportionelt ud fra ovenstå-
ende betragtninger.
---000---
De generelle transparenskrav 1:
Det skal fremgå, når man interagerer med et AI-system
Bekymring:
Kravet om, at det skal fremgå, hvis man interagerer med et AI-sy-
stem, kan tolkes meget bredt. (Der skelnes ikke mellem kunder og ansatte, selvom
situationen er forskellig)
Kravet kan potentielt tolkes som omfattende ansatte, således at alle AI-værktøjer,
ansatte direkte eller indirekte delvist interagerer med, skal mærkes i brugergrænse-
fladen.
Løsning:
Det bør sikres, at det i forhold til ansatte er muligt at dække kravet med
en generel udmelding til relevante ansatte.
---000---
Generelle transparenskrav 2:
Det skal fremgå, hvis tekst er genereret af en AI
Bekymring:
Forordningen fastsætter, at transparenskravet på AI-genereret eller
manipuleret-tekst
alene dækker information, ”som udgives for at informere offent-
ligheden om forhold af offentlig interesse”.
Hvis en tekst har gennemgået ”human review” bortfalder kravet
også.
Hvis ”informere offentligheden om forhold af offentlig interesse” tolkes bredt –
fx
som al offentliggørelse
vil det ramme mange processer.
F&P
Sagsnr.
DokID
GES-2019-00312
500885
Side 5
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
Løsning:
Der er i forordningsteksten skrevet ”informere offentligheden om for-
hold af offentlig interesse”, hvilket klart adskiller kriteriet fra generel offentliggø-
relse. Derfor bør der være en smal tolkning af dette begreb.
Der bør være et klart skel til generelt at offentliggøre en information og ”udgive en
tekst for at informere offentligheden om forhold af offentlig interesse”.
Eksempelvis bør offentliggørelse af tekst på en hjemmeside eller annoncering ikke
ses som information til offentligheden om forhold af offentlig interesse.
---000---
Post market monitoring
Bekymring:
Der stilles krav om, at udviklere af højrisikosystemer skal etablere et
post market monitoring system, som overvåger et AI-system og melder uregelmæs-
sigheder retur fra kunderne til udvikler (så de kan tage hånd om disse).
Her er det vigtigt, at denne ”overvågning” ikke risikerer at udlevere følsomme data
til provider
eller risikere at skabe GDPR-mæssige usikkerheder.
Desværre er det set, at krav til fx cloud systemer kan give GDPR-mæssige usikker-
heder, fordi udbyder qua fx sikkerhedskrav skal lade data flyde retur, men det bli-
ver uklart hvilke data, som flyder retur
hvilket reelt kan betyde, at man ikke kan
benytte et system, da det skaber usikkerhed om overholdelsen af GDPR.
Løsning:
De krav, der defineres til post market monitoring, skal have fokus på
ikke at skabe usikkerheder i forhold til GDPR (overførsel af persondata), og samti-
dig bidrage til at sikre, at der ikke er risiko for at forretningsfølsomme data retur-
neres fra bruger til udvikler via kravet.
---000---
General purpose systemer 1:
Hvornår er et system general purpose?
Bekymring:
Hvornår risikerer man at blive omfattet af reglerne, hvis man træner
en ”blank” model og udgiver denne –
hvilket også kan omfatte brug på tværs af en-
heder i samme koncern.
Løsning:
Forordningen har et klart fokus på at general purpose modeller adskiller
sig ved at kunne løse flere forskellige opgaver på flere områder
Forordningens definition: ’general purpose AI model’ means an AI model, includ-
ing when trained with a large amount of data using self-supervision at scale, that
displays significant generality and is capable to competently perform
a wide range of distinct tasks.
F&P
Sagsnr.
DokID
GES-2019-00312
500885
Side 6
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
F&P
Det er vigtigt at holde fast i denne distinktion fra mere ensidige modeller, som
alene fungerer inden for ét område.
En model, som trænes til fx at detektere flere forskellige typer fraud, bør ikke ses,
som udgivelse af en general purpose model, da scenariet er smalt. (Modellen løser
ikke en varietet af opgaver)
---000---
General purpose systemer 2:
Hvornår er et system sat på markedet?
Bekymring:
Man kan blive omfattet af reglerne, hvis man udvikler en model, som
alene bruges internt i en koncern (på tværs af CVR-numre), selvom modellen aldrig
videregives til eksterne / 3. parter.
Løsning:
Man bør se på de eventuelle muligheder for at differentiere kravene i
forhold til, om en model frigives offentligt eller alene deles internt i en koncern.
NLF-kravene
siger, at et produkt er ”placed on the marked” ved overførsel mellem
CVR-numre. Højrisikokravene er dog de eneste krav i forordningen som stringent
følger NFL-tilgangen. Derfor kan det være muligt at afgive fra disse på fx general
purpose-kravene.
Vi vil derfor opfordre til, at det overvejes om overførsel på koncernniveau tillades,
uden at kravet aktiveres, så længe det ikke er formålet (nu eller på noget tidspunkt i
fremtiden) at sætte modellen på markedet uden for koncernen.
Begrundelse:
Den nødvendige information omkring en general purpose model vil
være tilgængelig internt i en koncern. Der vil
så længe modellen ikke frigives
uden for koncernen
ikke være et særskilt informationsbehov hos 3. parter, hvor-
for krav om detailkrav til informationen målrettet 3. parter internt i en koncern i
praksis vil være en unødig byrde.
---000---
Højrisikolisten: Undtagelser
Baggrund:
Der er mulighed for at undtage brug af AI på højrisikoområder for høj-
risiko-kravene, hvis brugen af AI reelt ikke er højrisiko. Undtagelse kan alene ske,
hvis systemet opfylder nogle foruddefinerede kriterier.
Bekymring:
At undtagelseskriterierne bliver for smalle og giver dermed ikke mu-
lighed for reelt at få undtaget lavrisiko-scenarier.
Her bør særligt være fokus på, at ”procedural task”-undtagelsen
kan blive tolket
smalt.
Løsning:
En fortolkning af procedural task, som tillader undtagelse for brug af fx
understøttende tekst- eller billedgenkendelse via AI.
Sagsnr.
DokID
GES-2019-00312
500885
Side 7
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0018.png
Eksempelvis:
-
AI brugt til at ”se” på og hjælpe med at afkode billeder
- AI til at læse, kopiere eller flytte tekst i forbindelse med en proces.
Begrundelse:
Aktiviteter kan undtages, hvis de ikke er definerende for udfaldet.
F&P
Sagsnr.
DokID
GES-2019-00312
500885
Side 8
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0019.png
Digitaliseringsstyrelsen
Høring om lov om supplerende bestem-
melser til forordning om kunstig intelli-
gens
Resumé
Høringssvar
Behov for mere afklaring
Finans Danmark er positive overfor at der kommer supplerende danske bestem-
melser. Vi er optaget af at der kommer en afklaring af udpegning af relevante
tilsynsmyndigheder. Det er centralt for bankernes overholdelse af forordningen.
Digitaliseringsstyrelsen og Datatilsynet er udpeget som tilsynsmyndigheder ifølge
§ 2, men Finanstilsynet er ikke nævnt. Finanstilsynet har dog annonceret deres
forventede rolle i tilsynet med højrisiko AI-systemer i den finansielle sektor, såsom
AI-systemer til kreditvurderinger. Finans Danmark ønsker at vide, om Finanstilsynet
vil blive udpeget?
Finans Danmark efterlyser mere transparens omkring samarbejdet mellem myn-
dighederne, især i forhold til hvilke AI-systemer der vil være underlagt hvilken
myndigheds tilsyn.
Endelig ønsker Finans Danmark indsigt i processerne omkring straffebestemmel-
serne i §§ 10-11, herunder håndhævelsesbeføjelserne for Digitaliseringsstyrelsen
og Datatilsynet, specielt hvordan bødeindstillingen vil blive håndhævet under AI-
forordningen og de supplerende bestemmelser.
27. november 2024
Dok: FIDA-1232191906-56346-v1
Kontakt Mette Stürup
Finans Danmark
|
Amaliegade 7
|
1256 København K
|
www.finansdanmark.dk
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0020.png
Høring om lov om supplerende bestem-
melser til Europa-Parlamentets og Rå-
dets forordning om kunstig intelligens
Generelle bemærkninger
Finans Danmark er positive overfor, at der vedtages supplerende bestemmelser
til AI-forordningen, da det er med til at hjælpe virksomhedernes implementering
af forordningens regler.
Høringssvar
Vi ser tilsvarende positivt på, at der kommer klarhed over udpegning af de rele-
vante tilsynsmyndigheder, da dette spiller en central rolle for, hvordan bankerne
kan leve op til forordningen.
Vi bemærker, at Digitaliseringsstyrelsen og Datatilsynet er udpeget ifølge § 2 som
tilsynsmyndigheder, men at Finanstilsynet ikke er nævnt i de supplerende be-
stemmelser. Finanstilsynet har dog offentligt annonceret deres forventede rolle i
tilsynet med højrisiko AI-systemer inden for den finansielle sektor, såsom AI-syste-
mer anvendt til kreditvurderinger. Vi vil gerne vide, om det kan forventes, at Fi-
nanstilsynet vil blive udpeget efter § 2, stk. 3, og i givet fald, hvornår denne afkla-
ring kan forventes at foreligge.
Endvidere efterlyses mere transparens omkring samarbejdet og koordinationen
mellem de forskellige myndigheder, herunder hvilke AI-systemer/modeller der vil
være underlagt hvilken myndigheds tilsyn. Med særlig henvisning til krydsfeltet
mellem brug af AI og behandling af personoplysninger, ønsker vi også vejledning
om, hvordan strukturen herfor forventes at udforme sig.
Angående kontrolbesøg, som beskrevet i § 6 for Digitaliseringsstyrelsen og Datatil-
synet, mangler der afklaring om rammerne for kontrolbesøg for myndigheder ud-
peget efter § 2, stk. 3. Vi ønsker tillige at få yderligere afklaring på, om myndighe-
dernes eksisterende beføjelser vil blive påvirket og sammenspillet mellem myndig-
hedernes nye beføjelser og de beføjelser myndighederne allerede besidder.
27. november 2024
Dok. nr.:
FIDA-1232191906-56346-v1
Finans Danmark
|
Amaliegade 7
|
1256 København K
|
www.finansdanmark.dk
2
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0021.png
Endelig ønsker vi indsigt i de forventede processer omkring straffebestemmel-
serne i §§ 10-11, herunder Digitaliseringsstyrelsens og Datatilsynets håndhævelses-
beføjelser. Det er specielt relevant at forstå, hvordan bødeindstillingen vil blive
håndhævet under AI forordning og de supplerende bestemmelser og om der vil
være forskelle afhængigt af den kompetente myndighed.
Med venlig hilsen
Høringssvar
Mette Stürup
Direkte:27152020
Mail: [email protected]
27. november 2024
Dok. nr.:
FIDA-1232191906-56346-v1
Finans Danmark
|
Amaliegade 7
|
1256 København K
|
www.finansdanmark.dk
3
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0022.png
DANSK ERHVERV
Børsgade 4
1217 København K
www.danskerhverv.dk
[email protected]
T. + 45 3374 6000
Digitaliseringsstyrelsen
Att.: Katerina Helena Vinther
Landgreven 4
1301 København K
Den 27. november 2024
Høringssvar ang. udkast til forslag til lov om supplerende bestemmelser
til Europa-Parlamentets og Rådets forordning om kunstig intelligens
Dansk Erhverv takker for muligheden for at afgive høringssvar ifm. udkast til forslag til lov om
supplerende bestemmelser til Europa-Parlamentets og Rådets forordning om kunstig intelligens.
Hvis én teknologi, fortjener særlig opmærksomhed i årene fremover, er det AI. Derfor er nødven-
digheden af en ambitiøs indsats ift. at få skabt bedre vilkår for europæiske virksomheders mulig-
heder for at udvikle og anvende AI-teknologi altafgørende. Udviklingen inden for AI har skabt en
ny teknologisk kampplads på det globale marked. Det handler om europæisk konkurrenceevne og
medlemsstaternes muligheder for innovation, vækst og at mindske afhængigheden af ikke-euro-
pæiske teknologivirksomheder ved at skabe et europæisk digitalt økosystem, der fremmer og gør
ansvarlig AI til en konkurrencefordel.
Dansk Erhverv byder EU’s AI-forordning
velkommen som et vigtigt skridt mod at understøtte en
ansvarlig tilgang til kunstig intelligens, der samtidig skaber ensartede rammevilkår i hele EU. For
at understøtte et stærkt europæisk AI-økosystem er det imidlertid afgørende, at implementerin-
gen sker strategisk og med fokus på at balancere regulering og innovation. Den meget omtalte
Draghi-rapport understreger netop betydningen af et stærkt og integreret digitalt indre marked
som fundament for vækst og innovation i Europa. Det er altafgørende med en ambitiøs, ansvarlig
og koordineret tilgang til AI-regulering for at fremme danske og europæiske virksomheders kon-
kurrenceevne og dermed styrke Europas globale position inden for kunstig intelligens.
Generelle bemærkninger
Ensartet implementering og samarbejde på tværs af EU
Dansk Erhverv finder det afgørende, at implementeringen af AI-forordningen sker ensartet på
tværs af EU’s medlemsstater. En fragmenteret tilgang kan skabe juridisk usikkerhed og unødige
barrierer for danske og europæiske virksomheders muligheder for at udvikle og anvende AI-tek-
nologi. Dansk Erhverv opfordrer Digitaliseringsstyrelsen til aktivt at indgå i dialog og vidensde-
ling med andre medlemsstater og EU-organer. Digitaliseringsstyrelsen bør i denne sammenhæng
prioritere at bidrage til harmonisering gennem tæt samarbejde i relevante EU-fora og sikre, at
Danmark deltager aktivt i udviklingen af fælles standarder, vejledninger og håndhævelsesmeka-
nismer.
[email protected]
cefj
Side 1/3
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0023.png
DANSK ERHVERV
Forholdet mellem Digitaliseringsstyrelsen og Datatilsynet
Dansk Erhverv noterer, at både Digitaliseringsstyrelsen og Datatilsynet er udpeget som markeds-
overvågningsmyndigheder i lovforslaget, men finder, at opgavefordeling og samarbejde er uklart
beskrevet, hvilket kan skabe usikkerhed for virksomhederne, fx i tilfælde hvor databeskyttelse og
AI-regulering overlapper, og hvor det er uklart, hvilken myndighed, der har det endelige ansvar.
Dansk Erhverv ser dog positivt på, at Digitaliseringsstyrelsen har hovedansvaret som koordine-
rende myndighed, da det sikrer en centraliseret og helhedsorienteret tilgang til AI-regulering og
implementering. For at styrke gennemsigtigheden og sikre en effektiv implementering anbefaler
Dansk Erhverv, at der hurtigst muligt sker en præcisering af myndighedernes roller for at redu-
cere administrative byrder, skabe større forudsigelighed og styrke virksomhedernes tillid til myn-
dighedernes håndhævelse af forordningen.
Specifikke bemærkninger
Kommentar til §6. kapitel 3 om fastlæggelse af nationale kompetente myndigheders opgaver
Fsva. §6 om markedsovervågningsmyndighedens adgang til erhvervsmæssige lokaliteter, hvor
overvågningsmyndigheden tildeles adgang til alle erhvervsmæssige lokaliteter, til enhver tid mod
behørig legitimation og uden retskendelse, er det Dansk Erhvervs overbevisning, at beføjelsen er
for vidtgående og ikke-proportionel med formålet, og kan vise sig særdeles problematisk for virk-
somhedernes retssikkerhed. Dansk Erhverv vil i denne henseende påpege, at der som udgangs-
punkt bør foreligge en retskendelse, der tildeler overvågningsmyndigheden adgang. Der henvises
i den forbindelse til retskendelsestilgangen i Konkurrenceloven.
Kommentar til §10 om straffebestemmelser
Dansk Erhverv er generelt betænkelige ved administrative bøder, særligt på områder, der ikke tid-
ligere har været lovreguleret. Dansk Erhverv anerkender behovet for effektive sanktioneringsmu-
ligheder og noterer de praktiske fordele ved at indføre administrative bødeforlæg. Dansk Erhverv
finder det dog problematisk, at markedsovervågningsmyndigheder tildeles kompetencen til selv-
stændigt at udstede bøder på et område, hvor der endnu ikke er fastlagt en klar retspraksis.
For at sikre virksomhedernes retssikkerhed og opretholde en uafhængig kontrol med anvendelsen
af sanktioner bør domstolene inddrages i alle sager, hvor markedsovervågningsmyndigheden ind-
stiller til bøder lige som tilfældet er ved overtrædelser af GDPR, når Datatilsynet finder, at sankti-
onen skal være en bøde. Det er afgørende af hensyn til virksomhedernes retssikkerhed, at admini-
strative bøder udelukkende anvendes på områder, hvor domstolene har fastlagt en praksis. Desu-
den er der her tale om lovgivning på et nyt teknologisk område, hvilket yderligere understreger
nødvendigheden af, at domstolene fastlægger linjen både med hensyn til konstatering af, hvornår
reglerne er overtrådt samt sanktioneringen. Hermed stilles både markedsovervågningsenheden
og erhvervslivet bedst, da der sikres en ensartet og transparent behandling af sager.
Præcisering af bemærkninger om forretningshemmeligheder
Dansk Erhverv anerkender vigtigheden af den foreslåede bestemmelse i punkt 2.3.3, der lyder:
"I den forbindelse bemærkes det, at oplysninger, som har karakter af forretningshemmeligheder,
Side 2/3
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
DANSK ERHVERV
ikke kan offentliggøres som led i offentliggørelse af myndighedens afgørelser." For at undgå
uklarheder og sikre en korrekt anvendelse anbefaler vi, at det præciseres i lovteksten, at vurderin-
gen af, hvad der udgør forretningshemmeligheder, ikke foretages ensidigt af markedsovervåg-
ningsmyndigheden. Der kunne fx henvises til relevante retsakter såsom Europa-Parlamentets og
Rådets direktiv (EU) 2016/943 om beskyttelse af fortrolig knowhow og forretningshemmelighe-
der mod ulovlig erhvervelse, brug og videregivelse, eller gældende dansk ret på området.
Dansk Erhvervs AI-koalition står til rådighed
AI er et højt prioriteret indsatsområde i Dansk Erhverv. Dansk Erhverv har samlet en række dan-
ske nøgleaktører i dansk erhvervsliv under Danmarks eneste AI-koalition, der aktivt arbejder på
at fremme en ansvarlig og ambitiøs AI-tilgang i Danmark. Dansk Erhverv og AI-koalitionen står
til rådighed med løbende sparring og drøftelser af danske såvel som europæiske initiativer inden
for kunstig intelligens.
Hvis der måtte være spørgsmål til det ovenstående, står Dansk Erhverv naturligvis til rådighed for
en uddybning af høringssvaret.
Med venlig hilsen
Cecilie Fjeldberg
Politisk konsulent
Side 3/3
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0025.png
Til Digitaliseringsstyrelsen
Att. Katerina Helena Vinther
Høring vedr. forslag til lov om supplerende bestemmelser til
EU-forordning om kunstig intelligens, AI (EU-2024/1689)
Akademikerne har den 1. november 2024 modtaget høring vedr. imple-
mentering af den del af EU-forordningen, som vedrører udpegning af mar-
kedsovervågningsmyndigheder, bemyndigende myndigheder og sanktio-
ner, der træder i kraft den 2. februar 2025 og den 2. august 2025.
Akademikerne er positivt indstillet overfor AI-forordningen, som har til
formål at beskytte borgere mod skadelige virkninger af AI.
For så vidt angår implementeringen af den del af AI-forordningen som
vedrører udpegning af markedsovervågningsmyndigheder, nedyndigende
myndigheder og sanktioner bakker Akademikerne op om, at Digitalise-
ringsstyrelsen og Datatilsynet udpeges som markedsovervågningsmyn-
dighed, og at Digitaliseringsstyrelsen udpeges som centralt, nationalt
kontaktpunkt. Akademikerne skal foreslå, at de dele af Digitaliseringssty-
relsen og Datatilsynet, som tildeles nye opgaver som følge af AI-forord-
ningen, tilføres de nødvendige ressourcer til at varetage disse opgaver.
Akademikerne finder det centralt, at det i forordningen og lovforslaget er
præciseret, at der kan ske udpegning fra andre ministeriers ressortområ-
der ifm. tilsyn med høj-risiko AI-systemer (§2, st. 3).
Markedsovervågningsmyndighederne får til opgave at afkræve alle oplys-
ninger, som skønnes nødvendige for at vare tage de nye opgaver i hen-
hold til AI-forordningen herunder at sikre sig adgang til fysiske og juridi-
ske personer, foretage kontrolbesøg, gennemgå tekniske undersøgelser
m.v. I forbindelse med varetagelse af disse opgaver kan markedsover-
vågningsmyndighederne bistås af politi og særlige uafhængige sagkyn-
dige (§6). En effektiv håndhævelse kræver, at der kan udføres kontrolbe-
søg, herunder sikres adgang til erhvervsmæssige lokationer, og at der
ved overtrædelse gælder sanktions- og straffebestemmelser.
Den 29. november 2024
Sagsnr. S-2024-1041
Dok.nr. D-2024-38867
kmr/yk
AKADEMIKERNE
THE DANISH CONFEDERATION
OF PROFESSIONAL ASSOCIATIONS
Nørre Voldgade 106, 1. sal
DK – 1358
København K.
E
W
[email protected]
www.ac.dk
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
Akademikerne er enig i, at straffeansvar skal følge straffelovens regler om
straffeansvar for juridiske personer, og at sagen kan afgøres uden rets-
sag, hvis den person, som sagen vedrører, erklærer sig skyldig og er villig
til inden for den angivne frist at betale bøden.
For at kunne følge udviklingen og retspraksis på området er det vigtigt,
at der bliver transparens omkring afgørelser i sager om forbudte former
for anvendelse af AI. Sager om forbud relateret til AI-forordningen bør
derfor offentliggøres (§7).
Akademikerne ser frem til at kommentere på den øvrige del af AI-forord-
ningen, når denne skal implementeres.
Side 2 af 2
Med venlig hilsen
Käthe Munk Ryom
International chefkonsulent
D: 22495866
E: [email protected]
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0027.png
Sekretariatet for
Dataetisk Råd
[email protected]
Dato: 29. november 2024
Digitaliseringsstyrelsen
Landgreven 4
1017 København K
Sendt elektronisk til [email protected] med kopi til [email protected]
Høring over forslag til lov om supplerende bestemmelser til Europa-Parlamentets og
Rådets forordning om kunstig intelligens
Dataetisk Råd takker for den fremsendte høring. Rådet rådgiver regeringen og Folketinget om
dataetiske problemstillinger knyttet til spørgsmålet om, hvordan anvendelse af ny teknologi
kan ske med udgangspunkt i borgernes rettigheder, retssikkerhed og grundlæggende
samfundsmæssige værdier. Rammerne for den danske implementering af forordningen om
kunstig intelligens er derfor af stor interesse for rådet.
Dataetisk Råd har i dette tilfælde valgt at afgive et høringssvar, fordi rådet har bemærkninger
til især rammerne for den politiske uafhængighed for de i forordningen angivne
markedsovervågningsmyndigheder, der skal varetage det danske tilsyn med reglerne.
Rådet har følgende specifikke kommentarer, der gennemgås nedenfor med reference til
udvalgte bestemmelser i lovforslaget:
Dataetisk Råd er fortsat bekymret for om placering af en del af markedsovervågningen i
Digitaliseringsstyrelsen i tilstrækkelig grad sikrer et effektivt og tillidsskabende tilsyn
med forordningen (forslagets § 2)
Dataetisk Råd anbefaler, at regeringen genovervejer sin beslutning om at udpege både
Digitaliseringsstyrelsen
og
Datatilsynet
som
markedsovervågningsmyndigheder
for
forordningen for kunstig intelligens. Som rådet tidligere har anført i et brev til daværende
Digitaliseringsminister, Marie Bjerre, opfordrer rådet regeringen til at lade Datatilsynet alene
varetage opgaven som markedsovervågningsmyndighed.
Rådet anser uafhængighed med forordningen om kunstig intelligens som en forudsætning
for tilsynets effektivitet og for, at befolkningen opbygger og bevarer tillid til anvendelsen af
kunstig intelligens. Denne tillid er en afgørende forudsætning for, at befolkningen fortsat
bakker op om udnyttelsen af nye teknologier, og dermed for, at virksomheder og
myndigheder kan udnytte disse teknologier til samfundets bedste.
Rådet understreger også, at placering af tilsynskompetence bør tage højde for Datatilsynets
eksisterende erfaring og ekspertise, da det kan tage lang tid at opbygge den nødvendige
viden til at udøve et effektivt tilsyn med et område af stor kompleksitet som kunstig
intelligens.
1
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0028.png
Sekretariatet for
Dataetisk Råd
[email protected]
Dato: 29. november 2024
Endeligt mener rådet, at der bør sikres sammenhæng mellem tilsynsområdet for kunstig
intelligens og det eksisterende tilsyn med databeskyttelsesforordningen. Dette taler fortsat
for at placere hele tilsynet hos Datatilsynet, idet den nuværende konstruktion med et delt
ansvar risikerer at skabe uklarheder og tvivl, som kan skade virksomhedernes
konkurrenceevne.
Såfremt beslutningen om den delte tilsynskompetence fastholdes, opfordrer Dataetisk Råd
Digitaliseringsmyndigheden til snarest muligt at skabe klarhed om hvordan den delte rolle i
praksis skal udspille sig. Rådet savner især indblik i den nærmere fordeling af
ansvarsområder imellem de to myndigheder og mener at gennemsigtighed om dette punkt
er afgørende.
Dataetisk Råd stiller spørgsmål ved om forslagets § 3, stk. 1, er en utilstrækkelig garanti for
tilsynsmyndighedernes reelle uafhængighed
Dataetisk Råd savner nærmere præcisering og uddybning af lovforslagets § 3, stk. 1, som skal
opfylde forordningens krav til uafhængighed. Forordningen om kunstig intelligens stiller i
artikel 70, stk. 1, 2. pkt.,
krav om at de nationale kompetente myndigheder ”udøver
deres
beføjelser uafhængigt, upartisk og uden bias for derved at beskytte objektiviteten i deres
aktiviteter og opgaver”.
Det er efter bestemmelsen nogenlunde klart, at overvågningsmyndighedernes ledelser kan
handle ud fra faglige og saglige standarder uden at skulle frygte for eventuelle
ansættelsesretlige konsekvenser også selv om de måtte handle på en måde, der strider
imod tilkendegivelser fra aktører på området eller fra politisk hold.
Dette er en væsentlig præmis for uafhængighed, men i praksis forudsætter reel uafhængig
efter rådets opfattelse, at tilsynsmyndigheden også er sikret mod potentielt usaglig
påvirkning også selv om den måtte ske indirekte. Datatilsynets organisatoriske ophæng og
historik er efter rådets opfattelse langt bedre til at forebygge uvedkommende indblanding
og dermed også til at skabe den fornødne tillid og legitimitet udadtil.
Bestemmelsen, som skal sikre uafhængighed, fremstår i sin nuværende affattelse og med
den nuværende uddybning i lovbemærkningerne til dels som en hensigtserklæring uden at
forholde sig til de åbenlyse udfordringer ved konstruktionen.
Lovforslaget ses herunder ikke at forholde sig til, hvilken betydning det kan have for
uafhængigheden, at Digitaliseringsstyrelsens ledelse i nogle sammenhænge vil referere til
ressortministeren, men i andre tilfælde ikke. Dataetisk Råd opfordrer lovgiver til at forholde
sig til, hvordan man vil sikre reel uafhængighed i praksis, herunder ift. funktioner og ansatte i
en myndighed der hører direkte under Digitaliseringsministeriet.
2
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0029.png
Sekretariatet for
Dataetisk Råd
[email protected]
Dato: 29. november 2024
Dataetisk Råd påpeger, at § 3, stk. 2 kan skabe unødig usikkerhed for virksomheder mv,
der påvirkes af forordningen
§ 3, stk. 2 fastslår, at afgørelser fra tilsynsmyndigheder ikke kan indbringes for anden
administrativ myndighed. Dataetisk Råd erkender, at det er en udfordring at udpege en
administrativ klagemyndighed med tilstrækkelig afhængighed og relevant fagkundskab,
men påpeger, at netop denne bestemmelse potentielt kan være en barriere for udbredelsen
af kunstig intelligens i Danmark.
Domstolene er efter bestemmelsen som eneste mulighed for at få prøvet afgørelser efter
loven. Dette kan være problematisk for virksomheder og andre, der risikerer at stå med
usikkerhed som følge af domstolens lange ventetider i civile sager
1
, ligesom domstolene kan
stå med sager, der rent teknisk kan være komplicerede at afgøre.
I lyset af blandt andet samfundsdebatten om betydningen af kunstig intelligens for
konkurrenceevnen i europæiske lande er det uheldigt, hvis der skabes unødig usikkerhed om
de juridiske rammer og reglernes anvendelse med risiko for at skade danske virksomheders
udviklingsmuligheder. Forordningen om kunstig intelligens stiller i forvejen omfattende krav
til udviklere og anvendere af kunstig intelligens. Netop fordi forordningen sigter mod at
stimulere den europæiske økonomi igennem ansvarlig brug af kunstig intelligens, opfordrer
Dataetisk Råd i forlængelse af ovennævnte myndighederne til at prioritere tidlig og grundig
vejledning.
I forlængelse af denne pointe ser Dataetisk Råd positivt på forslagets § 7, der muliggør, at
afgørelsen fra markedsovervågningsmyndigheden i sager om forbudte former for AI-praksis
kan offentliggøres. Rådet finder, at gennemsigtighed omkring sådanne afgørelser er vigtige
for at skabe synlighed om myndighedernes praksis.
Dataetisk Råd står til rådighed for uddybning og yderligere rådgivning.
På vegne af Dataetisk Råd og med venlig hilsen,
Johan Busse
Formand for Dataetisk Råd
1
Ventetiden for almindelige hovedforhandlede civile sager er opgjort til 668 dage
i ”Aftale om domstolenes
økonomi 2024-2027”
3
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0030.png
29. november 2024
DI DIGITAL
Att.: Digitaliseringsstyrelsen,
Katerina Helena Vinther,
[email protected]
Høringssvar vedr. forslag til Lov om supplerende bestemmelser til Europa-Parlamentets
og Rådets forordning om kunstig intelligens
DI Digital takker hermed for høringen vedrørende forslag til Lov om supplerende
bestemmelser til Europa-Parlamentets og Rådets forordning om kunstig intelligens.
Der er ikke tidligere fremsat lovgivning på området. Der er tale om en rammelovgivning, der
supplerer forordningen om kunstig intelligens. DI forstår lovforslaget således, at der løbende
vil blive fremsat forslag til supplerende lovgivning efterhånden som forordningens forskellige
afsnit træder i kraft.
Kompetente myndigheder
Forslaget fastlægger, hvem der er markedsovervågningsmyndighed i henhold til AI-
forordningens artikel 70, stk. 1. Efter lovforslaget er de nationalt kompetente myndigheder
Digitaliseringsstyrelsen og Datatilsynet. Derudover er Digitaliseringsstyrelsen udpeget som
bemyndigende myndighed og centralt kontaktpunkt i henhold til forordningen.
Digitaliseringsministeren kan udpege markedsovervågningsmyndigheder på øvrige
ressortområder.
Behov for klarhed og ansvarsdeling
DI betænker sig ved at, at både Digitaliseringsstyrelsen og Datatilsynet udpeges som
markedsovervågningsmyndigheder. DI bemærker, at det er afgørende med ensartet
fortolkning på tværs af myndigheder, da det ellers kan skabe unødig kompleksitet og
usikkerhed for virksomheder, som opererer under disse regler.
DI opfordrer til en præcisering af ansvarsfordelingen for at undgå tvivl om
myndighedsansvaret. Det er afgørende, at der skabes klarhed over, hvordan samarbejdet
mellem Digitaliseringsstyrelsen, Datatilsynet og eventuelt andre potentielt udpegede
markedsovervågningsmyndigheder skal fungere. En sammenhængende og koordineret
tilgang til markedsovervågning er nødvendig for at sikre en effektiv og ensartet
implementering af forordningen om kunstig intelligens.
H. C. Andersens Boulevard 18
1553 København V
Danmark
(+45) 3377 3377
[email protected]
di.dk
CVR-nr.: 16077593
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
DI anbefaler derfor, at lovforslaget revideres med henblik på at skabe en mere entydig og
transparent ansvarsdeling mellem de involverede myndigheder. Dette vil bidrage til at
minimere risikoen for ineffektivitet og usikkerhed, hvilket i sidste ende vil gavne virksomheder
og styrke tilliden til markedsovervågningen.
De kompetente myndigheders opgaver
Myndighedernes opgaver er efter forslaget at påse overholdelsen af forordningen om kunstig
intelligens. Myndighederne mulighed for at afkræve en fysisk eller juridisk person alle de
oplysninger som skønnes nødvendige af hensyn til om et forhold henhører under
myndighedens kompetence. Efter lovforslaget har myndighederne mulighed for uden
retskendelse at gennemføre kontrol, hvis det skønnes nødvendigt for at sikre overholdelsen af
forordningen om kunstig intelligens, og der er adgang til at få bistand fra politiet.
Digitaliseringsstyrelsen og Datatilsynet får efter forslaget adgang til at fastsætte nærmere
regler for kontrol mv. og myndighederne kan offentliggøre deres afgørelser.
Ad. § 6 bemærker DI, at udkastet til lovforslaget ikke indeholder en begrundelse for, at
adgangen til at gennemføre kontrolundersøgelser uden retskendelse er nødvendig.
I henhold til Justitsministeriets vejledning om lovkvalitet skal de administrative konsekvenser
beskrives som negative, såfremt der sker en fravigelse af udgangspunktet om forudgående
retskendelse. Dette fremgår ikke i udkastet.
DI finder det samlet set retssikkerhedsmæssigt meget betænkeligt, at der lægges op til, at
myndigheden kan gennemføre kontrolundersøgelser uden retskendelse. Grundlovens § 72
skal respekteres, og det er efter DI’s vurdering afgørende, at den foreslåede mulighed
for at
gennemføre kontrolundersøgelser forudsætter et krav om forudgående retskendelse. § 6 bør
efter DI mening tilrettes, så kontrolundersøgelser kun kan finde sted efter indhentet
retskendelse (og fortsat mod behørig legitimation).
Straffebestemmelser
Overtrædelse af forordningen om kunstig intelligens straffes efter lovforslaget med bøde.
Bødestraf kan således komme på tale, hvis man anvender forbudte former for AI-praksis,
afgiver ukorrekt, ufuldstændige eller vildledende svar, undlader at give oplysninger til
markedsovervågningsmyndigheden eller nægter adgang til lokaliteter, hvor der skal
undersøges forhold omkring et AI-produkt.
Juridiske selskaber kan efter lovforslaget pålægges straffeansvar efter reglerne i straffelovens
kapitel 5
og det følger af lovbemærkningerne, at forældelsesfristen på fem år er fastsat
henset til, at der vil blive tale om komplicerede straffesager.
Loven træder i kraft 2. august 2025, hvilket er samtidig med en del af forordningen om kunstig
intelligens, som først træder i kraft på dette tidspunkt.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
Størrelsen på bøder efter lovforslaget er en gennemførelse af forordningens
minimumsbestemmelser om bøder. DI understreger, at der er tale om ny lovgivning uden
fortolkningspraksis, som virksomhederne skal finde vej i, og derfor er det essentielt at
myndighederne overvejer dette ved fastsættelse af proportionalitet for bødeudmåling.
Bødeforlæg
Lovforslagets § 11 fastlægger muligheden for at Digitaliseringsstyrelsen eller Datatilsynet kan
fastsætte regler om, at den relevante markedsovervågningsmyndighed kan tilkendegive, at
sagen kan afgøres uden retssag under en række betingelser.
DI gør opmærksom på at denne mulighed også blev fremsat i de nationalt supplerende regler
til GDPR, databeskyttelsesloven, men blev fravalgt i det endelige lovforslag. DI finder det
retssikkerhedsmæssigt betænkeligt at overlade kompetencen til andre myndigheder på et
område, der bør varetages af anklagemyndigheden, og opfordrer til at § 11 fjernes i det
opdaterede lovforslag.
Med venlig hilsen
Mette Finnemann, Chefkonsulent, DI Digital
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0033.png
Dok. 317360
29. november 2024
Hørringsvar til lovforslag om supplerende bestemmelser til Europa-
Parlamentets og Rådets forordning om kunstig intelligens
Hermed Forbrugerrådet Tænks bemærkninger til nærværende høring. Vi ser overordnet positivt på lovforslaget, og vil
særlig fremhæve følgende segmenter fra lovforslaget.
Givet den komplicerede natur af tilsynsopgaven vedrørende sager om forbudt AI-praksis, ser vi positivt på lovforslagets
§10, stk. 5 om fastsættelse af en forældelsesfrist på 5 år. Hensynet om sagernes komplicerede natur, afspejles også i
forslagets §6 om at markedsovervågningsmyndigheden kan være bistået af en eller flere uafhængige sagkyndige, samt
politiet til udførelsen af kontrolbesøg.
Vi bemærker dog i tråd med ministeriets overvejelser om forslagets § 5, at videregivelsen af oplysninger skal ske i
overensstemmelse med gældende lovgivning, herunder reglerne i databeskyttelsesforordningen mv. Dette hensyn må
gerne fremgå tydeligt i lovforslaget, fremfor at blive nævnt som en overvejelse. På den måde kan lovforslaget sikre at
personoplysninger behandlet i denne forbindelse, ikke har unødig eller uforsvarlig karakter.
Med venlig hilsen
Uffe Rabe Krag
Politisk chef
M + 45 41881610
[email protected]
&
Ida Nynne Daarbak Reislev
JURIST / LEGAL ADVISER
M +45 5081 0031
[email protected]
W
taenk.dk
Forbrugerrådet Tænk
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0034.png
Ryesgade 3A, 2. th. | 2200 Kbh. N
2
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0035.png
Digitaliseringsstyrelsen
Landgreven 4
1017 København K
E-mail:
[email protected]
Kopi til:
[email protected]
WILDERS PLADS 8K
1403 KØBENHAVN K
TELEFON 3269 888 8
MOBIL 91325719
[email protected]
MENNESKERET.DK
DOK. NR. 24/02446-2
29. NOVEMBER 2024
HØRINGSSVAR OVER UDKAST TIL LOVFORSLAG OM
SUPPLERENDE BESTEMMELSER TIL EUROPA-
PARLAMENTETS OG RÅDETS FORORDNING OM
KUNSTIG INTELLIGENS
Digitaliseringsstyrelsen har ved e-mail af 1. november 2024 anmodet
om Institut for Menneskerettigheds eventuelle bemærkninger til udkast
til forslag til lov om supplerende bestemmelser til Europa-Parlamentets
og Rådets forordning om kunstig intelligens.
EU’s forordningen om kunstig intelligens er første regulering for kunstig
intelligens. Det er en afgørende forordning på et område, som er under
en hastig udvikling, og som både har store potentialer, men som
samtidig indebærer en væsentlig risiko for borgernes
menneskerettigheder.
Dette er også afspejlet i AI-forordningens, som har til formål at forbedre
det indre marked på området for kunstig intelligens samtidig med, at
der skal sikres et højt beskyttelsesniveau for borgerens grundlæggende
rettigheder, hvilket også er reflekteret i lovudkastets indledning.
Forordningen er direkte anvendelig i Danmark, men indebærer, at der
skal ske visse lovændringer i dansk ret. Forordningen har trinvis
anvendelse, hvilket betyder, at forskellige dele af forordningen træder i
kraft på forskellige tidspunkter. Af den grund vil også lovændringer af
dansk ret ske trinvist i takt med, at nye dele af forordningen træder i
kraft. Derfor er dette lovudkast det første blandt flere kommende
lovændringer, der fastsætter supplerende bestemmelser til
forordningen (lovudkastets afsnit 1).
Med dette lovudkast foreslås det både at regulere en række
grundlæggende forhold vedr. myndighedskompetence, herunder
uafhængighed, og forhold vedrørende aspekter af forordningen, som
træder i kraft i løbet af 2025.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0036.png
Med lovudkastet lægges der op til at udpege Digitaliseringsstyrelsen og
Datatilsynet som markedsovervågningsmyndigheder i henhold til
forordningens artikel 70, stk. 1 (lovudkastets § 2, stk. 1).
Det følger desuden af lovudkastet, at Digitaliseringsstyrelsen udpeges
som centralt kontaktpunkt i henhold til forordningens artikel 70 stk. 2,
3. pkt. for at formalisere den politiske beslutning herom, hvilket
bidrager til overskuelighed og transparens (lovudkastets § 2, stk. 2, og
lovudkastets almindelige bemærkninger, punkt 2.3.3).
Digitaliseringsstyrelsen foreslås samtidig udpeget som bemyndigende
myndighed i henhold til forordningens artikel 70, stk. 1. (lovudkastets §
2, stk. 2). Det betyder, at Digitaliseringsstyrelsen har ansvar for at
indføre og gennemføre de nødvendige procedurer for vurdering,
udpegelse og notifikation af overensstemmelsesvurderingsorganer og
for overvågning heraf i henhold til forordningens artikel 28, stk. 1.
Det foreslås med lovudkastet (§2, stk. 3), at digitaliseringsministeren
kan udpege yderligere markedsovervågningsmyndigheder og
bemyndigende myndigheder (fremover nationale kompetente
myndigheder).
Digitaliseringsstyrelsen er desuden udpeget til at deltage i møder i AI-
udvalget, som har til opgave at rådgive og bistå Kommissionen og
medlemsstaterne med henblik på at lette en ensartet og effektiv
anvendelse af AI-forordningen (forordningens artikel 65 og 66).
1
Det er på den baggrund instituttets forståelse, at
Digitaliseringsstyrelsen må anses for at være den centrale og
koordinerende tilsynsmyndighed i forhold til AI-forordningen.
LOVUDKASTET BØR TYDELIGGØRE BETYDNINGEN AF DELT
HÅNDHÆVELSE
Selvom Digitaliseringsstyrelsen må anses for at være den centrale og
koordinerende tilsynsmyndighed, vil tilsynet med overholdelsen af AI-
forordningen blive delt mellem mindst to (Digitaliseringsstyrelsen og
Datatilsynet) – og sandsynligvis – flere myndigheder.
1
Digitaliseringsministeriet, Digitaliseringsstyrelsen udpeges som
tilsynsmyndighed for kunstig intelligens, pressemeddelelse af 10. april
2024, tilgængelig her,
https://www.digmin.dk/digitalisering/nyheder/nyhedsarkiv/2024/apr/d
igitaliseringsstyrelsen-udpeges-som-tilsynsmyndighed-for-kunstig-
intelligens.
2/5
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0037.png
I lovudkastet foreslås det, at Digitaliseringsstyrelsen eller Datatilsynet –
efter forhandling med Digitaliseringsstyrelsen –
inden for sit område,
kan fastsætte nærmere angivne regler, bl.a. om påbud og forbud, som
markedsovervågningsmyndighederne kan udstede for at sikre, at AI-
forordningen overholdes (lovudkastets § 8).
Lovudkastet tydeliggør imidlertid ikke, hvordan Digitaliseringsstyrelsens
og Datatilsynets område må forstås i relation til AI-forordningen, idet
begge myndigheders område vedrører kunstig intelligens på et mere
generelt plan.
2
Det fremgår således ikke af lovudkastet, hvad Digitaliseringsstyrelsens
eller Datatilsynets område er i relation til AI-forordningen, om der er
overlap i de områder, som de to myndigheder skal føre tilsyn med, og
hvad et sådant overlap i givet fald betyder for de fysiske og juridiske
personer, som skal overholde AI-forordningen, herunder hvordan der
sikres en koordinering, klar opgavefordeling og ensartet praksis blandt
de nationale kompetente myndigheder, som udgør det samlede danske
AI-tilsyn.
Dette skal bl.a. ses i lyset af, at markedsovervågningsmyndighederne
med lovudkastet får en række stærke beføjelser til at føre tilsyn og
kontrol med forordningen fra den 2. august 2025. Disse beføjelser
inkluderer adgang til at afkræve alle nødvendige oplysninger fra, og
adgang til – til enhver tid og mod behørig legitimation og uden
retskendelse adgang – alle erhvervsmæssige lokaliteter hos de fysiske
og juridiske personer, som skal overholde forordningen.
Det er afgørende for retssikkerheden, at det er tydeligt både for de
fysiske og juridiske personer, som skal overholde AI-forordningen, og
for øvrige personer, virksomheder og myndigheder, hvem der fører
tilsyn og kontrol med hvilke dele af AI-forordningen, og hvad det
betyder, at der lægges op til delt håndhævelse mellem mindst to – og
sandsynligvis flere – myndigheder.
Institut for Menneskerettigheder anbefaler, at
Digitaliseringsstyrelsen i lovudkastet tydeliggør, hvordan den
2
Se eksempelvis Datatilsynets vejledning om offentlige myndigheders
brug af kunstig intelligens, oktober 2023, tilgængelig her,
https://www.datatilsynet.dk/Media/638321084132236143/Offentlige%
20myndigheders%20brug%20af%20kunstig%20intelligens%20-
%20Inden%20I%20g%C3%A5r%20i%20gang.pdf.
3/5
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
foreslåede delte håndhævelse af tilsynet med AI-forordningen skal
fungere i praksis.
UAFHÆNGIGHED I PRAKSIS
Det følger af AI-forordningen, at nationale kompetente myndigheder
skal udøve deres beføjelser uafhængigt, upartisk og uden bias for
derved at beskytte objektiviteten i deres aktiviteter og opgaver og for at
sikre anvendelse og gennemførelse af AI-forordningen, jf.
forordningens artikel 70, stk. 1.
Lovudkastet beskriver, hvordan dette krav om uafhængighed må forstås
i en dansk kontekst.
Det fremgår således af lovudkastet, at de nationale kompetente
myndigheder skal udføre deres opgaver og udøve deres beføjelser efter
forordningen om kunstig intelligens, den foreslåede lov og regler
udstedt i medfør heraf i fuld uafhængighed af politisk eller anden
udefrakommende indblanding og uden at søge eller modtage instrukser
fra regeringen eller nogen offentlig eller privat enhed. Dette sker i
medfør af lovudkastet for at sikre, at de udpegede nationale
kompetente myndigheder er uafhængige af eventuelle overordnede
myndigheder (lovudkastets almindelige bemærkninger, punkt 2.2.3.
Desuden fremgår det af lovudkastet, at de kompetente nationale
myndigheder varetager deres opgaver og beføjelser uafhængigt af den
pågældende ressortminister. Dette indebærer blandt andet, at
myndighederne skal være uafhængige af udefrakommende indblanding
fra offentlige og private enheder. Dette inkluderer herunder også, at
myndighederne ikke vil kunne modtage eller søge instrukser fra andre,
herunder vedkommende ressortminister, uanset at de i øvrigt er
organisatorisk underlagt det pågældende ressortministerium, og at
ressortministeren således er den øverste foresatte.
De nationale kompetente myndigheders eventuelle overordnede
myndigheder har således ikke instruktionsbeføjelse i de opgaver og
sager, som behandles i medfør af den foreslåede lov, herunder i
forbindelse med de nationale kompetente myndigheders udførelse af
tilsyn og kontrol. De nationale kompetente myndigheder er dermed
funktionelt uafhængige af overordnede myndigheder.
De nationale kompetente myndigheder kan i forbindelse med
myndighedernes øvrige arbejde være underlagt instruktioner fra
overordnede myndigheder, uden at det påvirker den funktionelle
4/5
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
uafhængighed på området omfattet af forordningen om kunstig
intelligens (de specielle bemærkninger til § 3).
Selvom kravet om uafhængighed er beskrevet i detaljer i lovudkastet,
så vil de kompetente nationale myndigheder fortsat organisatorisk
være underlagt ressortministeriet med ressortministeren som deres
øverste foresatte. I de sammenhænge gælder fortsat et over-
/underordnelsesforhold mellem styrelser og ministerier.
Derfor bliver det afgørende, at der i praksis sikres den nødvendige
respekt for kravet om uafhængighed, hvilket særligt er relevant for de
myndigheder, som ikke i øvrigt er funktionelt uafhængige.
Med venlig hilsen
Mikkel Lindberg Laursen
CHEFKONSULENT
5/5
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0040.png
Islands Brygge 32D
2300 København S
Tlf. 3524 6000
Mail: [email protected]
Digitaliseringsstyrelsen
Att: Katerina Helena Vinther
Sagsnr. 24-6733
Vores ref. DSL/
Deres ref KDRT
Den 2. december 2024
Høringssvar: Lovforslag om supplerende bestemmelser til forordning om kunstig
intelligens
FH har følgende bemærkninger til lovforslaget:
Den supplerende lov til forordningen har navnlig til formål at udpege myndigheder, der skal
udføre tilsynsopgaver og give disse myndigheder redskaber til at udføre tilsyn samt fastsætte
regler for myndighedernes håndhævelse.
Datatilsynet og Digitaliseringsstyrelsen udpeges til markedsovervågningsmyndighed efter
forordningens art. 70.
Herudover kan der udpeges yderligere markedsovervågningsmyndigheder, og det nævnes i de
almindelige bemærkninger til lovforslaget (side 25), at det fx kan dreje sig om, at der udpeges
markedsovervågningsmyndigheder, er i forvejen har bred indsigt det pågældende område.
Kunstig intelligens og medarbejderrettigheder:
FH er navnlig optaget af, at kunstig intelligens på arbejdsmarkedet ikke anvendes på måder,
der kan skade arbejdsmiljøet og grundlæggende rettigheder for medarbejdere. Kunstig
intelligens anvendes på arbejdsmarkedet bl.a. i forbindelse med rekruttering, evaluerings-
og/eller ledelsesredskab overfor medarbejdere.
Ledelsesredskaber og IT-systemer, der bygger på kunstig intelligens kan medføre fordele, men
der er desværre allerede også mange eksempler på, at systemerne i høj grad også skader
arbejdsmiljøet og arbejdsforholdene for medarbejdere, der udfører arbejde i tilknytning til
sådanne systemer.
Senest har EU’s Arbejdsmiljøagentur offentliggjort rapporten
”Digital technologies at work and
psycosocial
risks: evidence and implications for occupational safty and health”,
i
,
gjort rede for
alvorlige risici for arbejdsmiljø ved anvendelse af AI-som ledelsesredskab
.
Rapporten er et
litteratur-review af forskningsartikler, som har undersøgt og dokumenteret skadevirkningerne
ved disse teknologier.
Ligeledes kan fra en dansk og nordisk synsvinkel fremhæves rapporten
”Computer in
command
ii
, der bygger på besvarelser fra 6000 fagforeningsmedlemmer i Danmark, Sverige,
Norge og Finland. Rapporten viser, at digitale teknologier som algoritmeledelse medfører
højere arbejdstempo, mere stress og betydelig usikkerhed om jobbet for de berørte
medarbejdere. Der er tale om undersøgelse blandt lagermedarbejdere og medarbejdere i call-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0041.png
centre, der i høj grad har algoritmiske og AI-baserede arbejds- og ledelsesredskaber inde på
livet.
Der er således et stort behov for, at det sikres, at sådanne IT-redskaber efterlever både
reglerne i forordningen om kunstig intelligens og de øvrige regler, der gælder herunder GDPR-
forordningen samt arbejdsretlige og arbejdsmiljøretlige bestemmelser. Uanset hvilken
markedsovervågningsmyndighed, der måtte blive udpeget til at overvåge højrisikoområdet
vedr. personaleadministration (se nærmere nedenfor) er det afgørende, at myndigheden har
indsigt i de ovennævnte forhold.
I forlængelse heraf bemærkes, at man bør være opmærksom på, at forordningen har karakter
af en markedsordning, der stiller visse minimumskrav til design og afprøvning mv. af digitale
AI-produkter. Markedsordningen afgør hvordan produkterne som minimum skal være
indrettet, for at de kan sælges og anvendes. Dette betyder dog ikke, at sådanne produkter
også lovligt kan anvendes efter de materielle regler, som findes på særlige områder, som fx
det arbejdsretlige område.
Efter FH’s opfattelse er det meget vigtigt, at dette kommunikeres klart og tydeligt, herunder i
forhold til de virksomheder, producenter mv., som udvikler og anvender produkter med AI, der
fx skal anvendes til personaleadministration mv. Uanset at et AI-produkt der fx måler og
evaluerer call-centermedarbejdere eller lagermedarbejders arbejde, måtte være lovligt efter
AI-forordningen, skal AI-produktets funktion og konkrete anvendelse eksempelvis leve op til
regler om saglig udøvelse af ledelsesretten samt arbejdsmiljøregler.
Det foreslås, at dette aspekt
og eventuelt andre lignende aspekter på andre område
omtales tydeligt i lovforslagets bemærkninger.
Forbudt AI-praksis på arbejdspladser:
I forbindelse med lovforslaget er FH optaget af, at der kommer en effektiv kontrol af, at
kunstig intelligens ikke anvendes på måder, der er forbudt. Det er navnlig vigtigt, at forbuddet
mod, at der anvendes AI-systemer til at udlede følelser hos fysiske personer på arbejdspladser
bliver håndhævet effektivt, så snart reglerne om forbudte AI-praksis træder i kraft. Dette sker
allerede fra 2. februar 2025.
Eksempler på anvendelse af følelsesgenkendelse på arbejdspladser kan fx være digital
”stemmegenkendelse”, som indebærer en vurdering af en medarbejders humør, følelser
og
evaluering dialog med kunder. Ligeledes er der eksempler på anvendelse af AI-redskaber til
evaluering af medarbejdere, der indbefatter vurdering af deres følelser for arbejdspladsen med
henblik på at forhindre faglig aktivitet eller kritisk omtale af arbejdspladserne.
FH vil opfordre til, at der i forbindelse med lovbehandlingen og under alle omstændigheder
snarest efter lovens ikrafttræden tages skridt til, at myndighederne informerer virksomheder
og arbejdspladser om forbuddet og iværksætter kontrol af, om det efterleves.
Højrisiko AI-systemer:
Udover det nævnte forbud indebærer forordningen, at anvendelse af AI-systemer til
personaleadministration og ledelse af
medarbejdere betragtes som ”høj-risiko” anvendelse af
kunstig intelligens, jf. forordningens artikel 6, stk. 2, og bilag III, pkt. 4.
Side 2 af 3
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0042.png
Det er yderst velbegrundet, at forordningen har udpeget medarbejderforhold som en højrisiko
område for anvendelse af AI, jf. det ovenfor nævnte om de negative virkninger på
arbejdsmiljø mv., når kunstig intelligens anvendes til evaluering, kontrol og ledelse af
medarbejdere.
Reglerne om høj-risiko systemer træder først i kraft 2. august 2026, men det er naturligvis
vigtigt, at der inden da informeres blandt arbejdsgivere og medarbejdere omkring de risici,
som AI kan medføre i arbejdslivet.
FH skal derfor opfordre til, at der i god tid inden ikrafttræden udpeges en
markedsovervågningsmyndighed, der kan påbegynde indsamling af viden på området og
informere bredt om, hvad der skal gøres for at minimere den høje risiko ved anvendelse af AI
til personaleadministration og ledelse. Det gælder fx hvilke tiltag såvel arbejdsgivere og
udbydere mv. skal være opmærksomme på ved køb og anvendelse af systemer med kunstig
intelligens, og hvilke tiltag der kan tages for at overholde forordningens regler og for generelt
at forebygge skadelig påvirkning på arbejdsmiljø mv. ved anvendelse af kunstig intelligens på
arbejdspladsen.
Der bør derfor udpeges en markedsovervågningsmyndighed på dette område, der har viden
såvel om IT-tekniske forhold såvel som om den virkelighed på arbejdspladserne, som disse
redskaber indgår. Her bør det sikres, at markedsovervågningsmyndigheden har kendskab til,
at IT-systemer med kunstig intelligens indgår i en samlet overvågning og kontrol af
medarbejderne, og at yderligere anvendelse af svært gennemskuelige IT-redskaber skal ses i
sammenhæng med det pres, som sådanne kontrol og overvågningsredskaber medfører for
medarbejderne.
FH deltager gerne i drøftelse af ovenstående synspunkter herunder i den følgegruppe til AI-
forordningen, som allerede er nedsat.
Øvrige bemærkninger:
Endelig bemærkes, at der ikke ses at være sanktionsregler eller kompetente
tilsynsmyndigheder i Danmark, når reglerne om forbudt AI-praksis træder i kraft 2. februar
2025. Således træder lovforslagets bestemmelser om fx markedsovervågningsmyndighedernes
kompetencer og strafregler først træder i kraft den 2. august 2025.
Umiddelbart ser det altså ud til, at reglerne om forbudte praksis’er
ikke kan håndhæves
i det
første halve år, reglerne er i kraft, hvilket ikke er hensigtsmæssigt.
Med venlig hilsen
Dennis Schnell-Lauritzen
i
Læs rapporten her:
Digital technologies at work and psychosocial risks: evidence and
implications for occupational safety and health | Safety and health at work EU-OSHA
ii
Læs rapporten her:
Computer in command - Foundation for European Progressive Studies
Side 3 af 3
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0043.png
Til Digitaliseringsstyrelsen
02-12-2024
EMN-2024-01299
1740284
[email protected]
Høringssvar til forslag til Lov om supplerende bestemmelser til
Europa-Parlamentets og Rådets forordning om kunstig
intelligens
Danske Regioner har modtaget Digitaliseringsstyrelsen høring om forslag til lov
om supplerende bestemmelser til Europa-Parlamentets og Rådets forordning
om kunstig intelligens af 1. november 2024.
Danske Regioner kvitterer for muligheden for at afgive høringssvar og
fremsender hermed på vegne af de fem regioner høringssvar.
Det fremgår, at Digitaliseringsstyrelsen og Datatilsynet udpeges som
markedsovervågnings-myndigheder i henhold til AI-forordningens artikel 70,
stk. 1. Det er positivt, at lovforslaget foreslår, at Datatilsynet spiller en
afgørende rolle i overvågningen af AI-forordningen, da det er vigtigt for
retssikkerheden, at der sikres en fortolkning af AI-forordningen, som er i
overensstemmelse med databeskyttelsesforordningen.
Det er afgørende for innovation og retssikkerhed, at der skabes en fælles
tilgang til tilsyn på AI-området for at sikre en ensartet fortolkning af
forordningen og undgå, at udbydere og anvendere bliver underlagt forskellige
krav afhængigt af, hvilken myndighed der fører tilsyn.
Det bør i forlængelse heraf sikres, at der skabes sammenhæng mellem bl.a.
tilsyn
og
fortolkning
af
henholdsvis
AI-Forordningen
og
Databeskyttelsesforordningen, sådan at myndighederne løser deres opgaver i
relation til markedsovervågning i et harmonerende sammenspil mellem de to
regelsæt. Der savnes afklaring af, hvordan dette forventes håndteret.
Det bemærkes i den forbindelse, at Det Europæiske Databeskyttelsesråd
(EDPB) har anbefalet, at de nationale datatilsynsmyndigheder skal udpeges
som markedsovervågningsmyndigheder for højrisiko AI-systemer oplistet i AI-
forordningens bilag III.
Der er dog behov for en afklaring af Digitaliseringsstyrelsens og Datatilsynets
respektive kompetencer som markedsovervågningsmyndigheder for at
mindske usikkerhed om rollefordelingen mellem dem. På nuværende tidspunkt
DANSKE REGIONER
DAMPFÆRGEVEJ 22
2100 KØBENHAVN Ø
+45 35 29 81 00
[email protected]
REGIONER.DK
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
fremstår det ikke klart, hvilke kompetencer de hver især har påtaget sig. For så
vidt angår AI-systemer, der er klassificeret som højrisiko-AI-systemer i
overensstemmelse med artikel 6, stk. 2, efterlyser vi klarhed om, hvilken
myndighed der skal føre tilsyn. Vi henviser til, at Det Europæiske
Databeskyttelsesråd
(EDPB)
har
anbefalet,
at
de
nationale
datatilsynsmyndigheder skal udpeges som markedsovervågningsmyndigheder
for højrisiko AI-systemer oplistet i AI-forordningens bilag III.
Ad § 2, stk. 1: Det ikke tydeligt, om der er en ressortopdeling mellem
Digitaliseringsstyrelsen og Datatilsynet i deres roller som markeds-
overvågningsmyndigheder.
Ad § 2, stk. 1: sammenholdt med § 2, stk. 3: Det forekommer uklart, om
Digitaliseringsstyrelsen og Datatilsynet alene er markedsovervågnings-
myndigheder i forhold til forbudte former for AI praksis, jf. art. 5 i forordningen
om kunstig intelligens, eller om de også kan anses som
markedsovervågningsmyndigheder, når kap. III i forordningen om kunstig
intelligens om høj-risiko AI-systemer træder i kraft. Således forstået, at
digitaliserings-ministeren
kan
udpege
yderligere
markedsovervågningsmyndigheder.
Ad § 2, stk. 3: Regionerne synes det er uklart, om det implicit ligger i
bestemmelsen, at Digitaliseringsstyrelsen kan afsætte allerede udpegede
bemyndigede myndighed og markedsovervågningsmyndigheder.
Lovforslagets § 7 hjemler, at følsomme oplysninger kan offentliggøres i visse
situationer ved offentliggørelse af afgørelser. Vi efterlyser klarhed om, hvilke
situationer, det skulle være nødvendigt og hvorvidt denne undtagelse fra
databeskyttelsesforordningens artikel 9, stk. 1 harmonerer med blandt andet
proportionalitetsprincip.
Ad § 10: Det fremgår ikke af bestemmelsen, om der er taget stilling til, hvorvidt
offentlige myndigheder kan pålægges administrative bøder, jf. art. 99, stk. 8, i
forordning om kunstig intelligens. Dog er der i lovbemærkningerne til
bestemmelsen anført ”at det ikke er tiltænkt, at offentlige myndigheder skal
kunne pålægges bøder for overtrædelse af bestemmelserne i forordningen om
kunstig intelligens, lovforslaget
samt regler udstedt i medfør heraf”. Dette kan
forstås, som at der ikke er taget endelig stilling til spørgsmålet endnu.
Generelt fremgår det ikke af selve lovteksten for lov om supplerende
bestemmelser til Europa Parlamentets og Rådets forordning om kunstig
intelligens, at der er tale om en afgrænset implementering af supplerende
bestemmelser til forordningen. Dette fremgår alene af forarbejderne til
lovforslaget på nuværende tidspunkt, men bør fremgå af lovteksten
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
Derudover efterlyses, at der allerede nu påbegyndes et forberedende arbejde
med bl.a. vejledninger, rådgivningsmateriale mv., der giver nærmere praktiske
værktøjer til regionernes implementering af AI-Forordningens krav, ligesom
forordningens
sammenspil
med
anden
lovgivning
(Databeskyttelsesforordningen, Medical Device Regulation, MDR mv.) skal
rammesættes og synliggøres iht. hvordan de vil blive håndteret i et samarbejde
mellem Digitaliseringsstyrelsen og Datatilsynet. Det er en nødvendighed for, at
der sikres gennemsigtighed og rette fokus i det fortsatte compliance-arbejde
med AI-Forordningen og resterende reguleringer.
Det bemærkes desuden, at det
samtidig med yderligere opgaver til de i
lovforslaget udpegede markedsovervågningsmyndigheder
skal sikres, at
myndighederne får tilført de nødvendige ressourcer og økonomi til at løfte
opgaverne i samspil med myndighedernes allerede eksisterende opgaver.
Venlig hilsen
Danske Regioner
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0046.png
Digitaliseringsstyrelsen
Landgreven 4
1301 København K
Danmark
Sendt til:
[email protected]
og
[email protected]
29. november 2024
J.nr. 2024-11-0223
Dok.nr. 668324
Sagsbehandler
Alberte Kylén
Pedersen
Høring over udkast til lov om supplerende bestemmelser Europa-
Parlamentets og Rådets forordning om kunstig intelligens
Digitaliseringsstyrelsen har den 7. november 2024 anmodet om Datatilsynets eventuelle be-
mærkninger til ovennævnte udkast til lovforslag.
Udkastet til lovforslag giver Datatilsynet anledning til nedenstående bemærkninger.
1. Udpegelse af Datatilsynet som markedsovervågningsmyndighed i § 2, stk. 1
Det fremgår af § 2, stk. 1, i udkastet til lovforslaget, at Datatilsynet udpeges som markedsover-
vågningsmyndighed i henhold til artikel 70, stk. 1, i forordningen om kunstig intelligens.
Der er imidlertid ikke noget sted i udkastet til lovforslaget, herunder udkastets almindelige eller
specielle bemærkninger, nærmere redegjort for eller på nogen måde i øvrigt specificeret inden
for hvilke(t) område(r) eller i forhold til hvilke konkrete bestemmelser i forordningen om kunstig
intelligens, at Datatilsynet skal varetage rollen som markedsovervågningsmyndighed. Tilsva-
rende for så vidt angår, hvad Datatilsynets opgave i den forbindelse nærmere forventes at
blive.
Datatilsynet henstiller derfor til, at Digitaliseringsstyrelsen i § 2, stk. 1, i udkastet til lovforslag
nærmere angiver for hvilke bestemmelser, i forordningen om kunstig intelligens, som Datatil-
synet udpeges som markedsovervågningsmyndighed for, og at det tydeliggøres, hvilke opga-
ver der vil være forbundet med, at Datatilsynet skal varetage denne opgave.
2. Fastsættelse af nærmere regler
Det fremgår endvidere af § 6, stk. 5, i udkastet til lovforslaget, at Datatilsynet, efter forhandling
med Digitaliseringsstyrelsen, kan fastsætte nærmere regler om gennemførelse af kontrol som
nævnt i bestemmelsens stk. 1-4.
Herudover fremgår det af lovforslagets § 8, stk. 1, at Datatilsynet, efter forhandling med Digi-
taliseringsstyrelsen, inden for sit område kan fastsætte nærmere regler om, at markedsover-
vågningsmyndigheden kan udstede påbud og forbud for at sikre overholdelsen af forordningen
om kunstig intelligens.
Når imidlertid henses til, at Digitaliseringsstyrelsen og Datatilsynet efter § 2, stk. 1, ikke bare i
udkastet til lovforslag, men også efter forordningen om kunstig intelligens er at betragte som
Datatilsynet
Carl Jacobsens Vej 35
2500 Valby
T 3319 3200
[email protected]
datatilsynet.dk
CVR 11883729
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0047.png
ligebyrdige markedsovervågningsmyndigheder, stiller Datatilsynet sig uforstående over for, at
der i udkastet til lovforslag lægges op til denne forskel, når det gælder fastsættelse af regler
om lige præcis Datatilsynets gennemførelse af kontrol og, hvilke kompetencer tilsynet udstyres
med i den forbindelse.
Datatilsynet henstiller på den baggrund til, at der generelt for både Digitaliseringsstyrelsen og
Datatilsynet samt eventuelle andre markedsovervågningsmyndigheder, der måtte blive udpe-
get, fastsættes nærmere regler om gennemførelse af kontrol som nævnt i § 5, stk. 1-4, jf. § 6,
stk. 5, og muligheden for at udstede påbud og forbud for at sikre overholdensen af forordnin-
gen om kunstig intelligens, jf. § 8, stk. 1. Regelfastsættelsen kan ske enten direkte i loven eller
ved, at der i loven indsættes en bemyndigelsesbestemmelse til, at digitaliseringsministeren –
efter forhandling med den ansvarlige ressortminister kan fastsætte sådanne regler. Den an-
svarlige ressortminister vil i Datatilsynets tilfælde være Justitsministeriet.
3. Digitaliseringsstyrelsen vurdering af de økonomiske konsekvenser
Det fremgår af lovforslagets almindelige bemærkninger, at forslaget efter Digitaliseringsstyrel-
sens vurdering ikke forventes i sig selv at have økonomiske konsekvenser for det offentlige af
betydning.
Med udkastet til lovforslag vil Datatilsynet imidlertid få pålagt opgaver, som tilsynet på nuvæ-
rende tidspunkt ikke udfører, og som der ikke er taget højde for i Datatilsynets nuværende
bevilling. Det vurderes i den forbindelse vanskeligt for Datatilsynet at håndtere disse merop-
gaver, uden at det vil få konsekvenser for tilsynets sagsbehandlingstider og kvaliteten af øvrige
lovbundne opgaver, herunder tilsyn og håndhævelse, hvis ikke tilsynet tilføres nye midler.
Datatilsynet henstiller derfor til, at Digitaliseringsstyrelsen genovervejer sin vurdering af lovfor-
slagets økonomiske konsekvenser for det offentlige, således at vurderingen inddrager de øko-
nomiske konsekvenser, som lovforslaget unægtelig vil medføre for Datatilsynet.
4. Afsluttende bemærkninger
Datatilsynet forudsætter desuden, at reglerne i databeskyttelsesforordningen
1
og databeskyt-
telsesloven
2
vil blive iagttaget i forbindelse med enhver behandling af personoplysninger for-
anlediget af lovforslaget.
Hvis Digitaliseringsstyrelsen har spørgsmål til høringssvaret kan spørgsmål rettes til underteg-
nede.
Side 2 af 2
Med venlig hilsen
Alberte Kylén Pedersen
1 Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse
med behandling af personoplysninger og om fri udveksling af sådanne oplysninger og om ophævelse af direktiv 95/46 EF
2 Lov nr. 502 af 23. maj 2018 om supplerende bestemmelser til forordning om beskyttelse af fysiske personer i forbindelse
med behandling af personoplysninger og om fri udveksling af sådanne oplysninger (databeskyttelsesloven)
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0048.png
Digitaliseringsstyrelsen
Landgreven 4
1301 København K
Danmark
Sendt til:
[email protected]
og
[email protected]
29. november 2024
J.nr. 2024-11-0223
Dok.nr. 668324
Sagsbehandler
Alberte Kylén
Pedersen
Høring over udkast til lov om supplerende bestemmelser Europa-
Parlamentets og Rådets forordning om kunstig intelligens
Digitaliseringsstyrelsen har den 7. november 2024 anmodet om Datatilsynets eventuelle be-
mærkninger til ovennævnte udkast til lovforslag.
Udkastet til lovforslag giver Datatilsynet anledning til nedenstående bemærkninger.
1. Udpegelse af Datatilsynet som markedsovervågningsmyndighed i § 2, stk. 1
Det fremgår af § 2, stk. 1, i udkastet til lovforslaget, at Datatilsynet udpeges som markedsover-
vågningsmyndighed i henhold til artikel 70, stk. 1, i forordningen om kunstig intelligens.
Der er imidlertid ikke noget sted i udkastet til lovforslaget, herunder udkastets almindelige eller
specielle bemærkninger, nærmere redegjort for eller på nogen måde i øvrigt specificeret inden
for hvilke(t) område(r) eller i forhold til hvilke konkrete bestemmelser i forordningen om kunstig
intelligens, at Datatilsynet skal varetage rollen som markedsovervågningsmyndighed. Tilsva-
rende for så vidt angår, hvad Datatilsynets opgave i den forbindelse nærmere forventes at
blive.
Datatilsynet henstiller derfor til, at Digitaliseringsstyrelsen i § 2, stk. 1, i udkastet til lovforslag
nærmere angiver for hvilke bestemmelser, i forordningen om kunstig intelligens, som Datatil-
synet udpeges som markedsovervågningsmyndighed for, og at det tydeliggøres, hvilke opga-
ver der vil være forbundet med, at Datatilsynet skal varetage denne opgave.
2. Fastsættelse af nærmere regler
Det fremgår endvidere af § 6, stk. 5, i udkastet til lovforslaget, at Datatilsynet, efter forhandling
med Digitaliseringsstyrelsen, kan fastsætte nærmere regler om gennemførelse af kontrol som
nævnt i bestemmelsens stk. 1-4.
Herudover fremgår det af lovforslagets § 8, stk. 1, at Datatilsynet, efter forhandling med Digi-
taliseringsstyrelsen, inden for sit område kan fastsætte nærmere regler om, at markedsover-
vågningsmyndigheden kan udstede påbud og forbud for at sikre overholdelsen af forordningen
om kunstig intelligens.
Når imidlertid henses til, at Digitaliseringsstyrelsen og Datatilsynet efter § 2, stk. 1, ikke bare i
udkastet til lovforslag, men også efter forordningen om kunstig intelligens er at betragte som
Datatilsynet
Carl Jacobsens Vej 35
2500 Valby
T 3319 3200
[email protected]
datatilsynet.dk
CVR 11883729
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0049.png
ligebyrdige markedsovervågningsmyndigheder, stiller Datatilsynet sig uforstående over for, at
der i udkastet til lovforslag lægges op til denne forskel, når det gælder fastsættelse af regler
om lige præcis Datatilsynets gennemførelse af kontrol og, hvilke kompetencer tilsynet udstyres
med i den forbindelse.
Datatilsynet henstiller på den baggrund til, at der generelt for både Digitaliseringsstyrelsen og
Datatilsynet samt eventuelle andre markedsovervågningsmyndigheder, der måtte blive udpe-
get, fastsættes nærmere regler om gennemførelse af kontrol som nævnt i § 5, stk. 1-4, jf. § 6,
stk. 5, og muligheden for at udstede påbud og forbud for at sikre overholdensen af forordnin-
gen om kunstig intelligens, jf. § 8, stk. 1. Regelfastsættelsen kan ske enten direkte i loven eller
ved, at der i loven indsættes en bemyndigelsesbestemmelse til, at digitaliseringsministeren –
efter forhandling med den ansvarlige ressortminister kan fastsætte sådanne regler. Den an-
svarlige ressortminister vil i Datatilsynets tilfælde være Justitsministeriet.
3. Digitaliseringsstyrelsen vurdering af de økonomiske konsekvenser
Det fremgår af lovforslagets almindelige bemærkninger, at forslaget efter Digitaliseringsstyrel-
sens vurdering ikke forventes i sig selv at have økonomiske konsekvenser for det offentlige af
betydning.
Med udkastet til lovforslag vil Datatilsynet imidlertid få pålagt opgaver, som tilsynet på nuvæ-
rende tidspunkt ikke udfører, og som der ikke er taget højde for i Datatilsynets nuværende
bevilling. Det vurderes i den forbindelse vanskeligt for Datatilsynet at håndtere disse merop-
gaver, uden at det vil få konsekvenser for tilsynets sagsbehandlingstider og kvaliteten af øvrige
lovbundne opgaver, herunder tilsyn og håndhævelse, hvis ikke tilsynet tilføres nye midler.
Datatilsynet henstiller derfor til, at Digitaliseringsstyrelsen genovervejer sin vurdering af lovfor-
slagets økonomiske konsekvenser for det offentlige, således at vurderingen inddrager de øko-
nomiske konsekvenser, som lovforslaget unægtelig vil medføre for Datatilsynet.
4. Afsluttende bemærkninger
Datatilsynet forudsætter desuden, at reglerne i databeskyttelsesforordningen
1
og databeskyt-
telsesloven
2
vil blive iagttaget i forbindelse med enhver behandling af personoplysninger for-
anlediget af lovforslaget.
Hvis Digitaliseringsstyrelsen har spørgsmål til høringssvaret kan spørgsmål rettes til underteg-
nede.
Side 2 af 2
Med venlig hilsen
Alberte Kylén Pedersen
1 Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse
med behandling af personoplysninger og om fri udveksling af sådanne oplysninger og om ophævelse af direktiv 95/46 EF
2 Lov nr. 502 af 23. maj 2018 om supplerende bestemmelser til forordning om beskyttelse af fysiske personer i forbindelse
med behandling af personoplysninger og om fri udveksling af sådanne oplysninger (databeskyttelsesloven)
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983985_0050.png
Digitaliseringsstyrelsen
Landgreven 4
1301 København K
24. januar 2025
Dok.nr.: 24/17434-18
Sagsbehandler:
Sidsel Katrine Redke Sørensen
Dir. tlf.: 23817811
Mail:
[email protected]
Domstolsstyrelsens høringssvar
Domstolsstyrelsen er blevet bekendt med, at Digitaliseringsstyrelsen i slutningen af 2024 har haft
et lovudkast i høring omkring supplerende bestemmelser til forordning om kunstig intelligens.
Lovudkastet regulerer bl.a., hvilke myndigheder, som er markedsovervågningsmyndigheder for
henholdsvis forbudte AI-systemer og højrisiko-AI-systemer. Domstolsstyrelsen har ikke været på
høringslisten, hvorfor vi ikke har været opmærksomme på lovudkastet før nu.
Domstolsstyrelsen har i den anledning følgende bemærkninger, som efter aftale med Digitalise-
ringsstyrelsen afgives til Justitsministeriet, hvor lovudkastet ligger til lovteknisk gennemgang:
Det er Domstolsstyrelsens vurdering, at henholdsvis Domstolsstyrelsen og domstolene bør være
markedsovervågningsmyndighed for domstolenes brug af både forbudte og højrisiko-AI-syste-
mer, da det vil være uforeneligt med domstolenes uafhængighed, såfremt en administrativ myn-
dighed uden for Danmarks Domstole skal føre tilsyn med domstolenes brug af AI-systemer, jf.
grundlovens § 3.
På denne baggrund bør der indsættes en bestemmelse i lovudkastet på lignende vis som data-
beskyttelseslovens § 37. Alternativt bør domstolene og Domstolsstyrelsen indsættes på samme
vis som Digitaliseringsstyrelsen og Datatilsynet i lovudkastets § 2, stk. 1 med efterfølgende kon-
sekvensændringer.
I forhold til tilsynet med generelle AI-modeller, som er reguleret direkte i forordningen om kunstig
intelligens, er det Domstolsstyrelsens umiddelbare vurdering, at et eventuelt tilsyn fra EU’s AI-
kontor ikke vil stride med domstolenes uafhængighed, da udvikling af fx en generel sprogmodel
vil være så langt fra domstolenes virke, at det ikke vil påvirke uafhængigheden. Det kan dog ikke
på nuværende tidspunkt udelukkes, at der vil være scenarier, hvor dette potentielt vil kunne være
en udfordring. Domstolsstyrelsen vil derfor foreslå, at Justitsministeriet foretager en vurdering og
herunder eventuelt undersøger, om domstolenes uafhængighed i EU-landene har været overve-
jet i denne kontekst.
Domstolsstyrelsen og domstolenes varetagelse af tilsynsopgaven kan ikke udføres inden for nu-
værende økonomiske rammer og vil derfor forudsætte fornøden finansiering. Domstolsstyrelsen
DOMSTOLSSTYRELSEN • AMAGERFÆLLEDVEJ 56 • 2300 KØBENHAVN S • TELEFON 70 10 33 22 • [email protected]
CVR-NR. 21659509
EAN.NR. 5798000161184
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
henviser til lovudkastets pkt. 3, som angiver, at forordning om kunstig intelligens vil medføre be-
tydelige økonomiske konsekvenser for kompetente myndigheder, som skal føre tilsyn.
Med venlig hilsen
Laila Lindemark
2