Udvalget for Digitalisering og It 2024-25
L 154 Bilag 1
Offentligt
2983986_0001.png
Lovforslag nr.
L 154
Folketinget 2025-26
Fremsat den 26. februar 2025 af minister for digitalisering (Caroline Stage Olsen)
Forslag
til
Lov om supplerende bestemmelser til forordningen om kunstig intelligens
1)
Kapitel 1
Anvendelsesområde
§ 1.
Loven supplerer Europa-Parlamentets og Rådets for-
ordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede
regler for kunstig intelligens og om ændring af forordning
(EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013,
(EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt
direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828
(forordningen om kunstig intelligens), jf. bilag 1.
Kapitel 2
Nationale kompetente myndigheder
§ 2.
Digitaliseringsstyrelsen, Datatilsynet og Domsstols-
styrelsen udpeges som nationale kompetente myndigheder,
jf. artikel 70, stk. 1, i forordningen om kunstig intelligens.
Stk. 2.
Digitaliseringsstyrelsen udpeges som bemyndigen-
de myndighed, jf. artikel 28, stk. 1, og artikel 70, stk. 1, i
forordningen om kunstig intelligens, centralt kontaktpunkt,
jf. artikel 70, stk. 2, 3. pkt., i forordningen om kunstig intel-
ligens, og markedsovervågningsmyndighed for de dele af
tilsynet med forbudte former for AI-praksis, som er omfattet
af artikel 5, stk. 1, litra a-c, og artikel 5, stk. 1, litra e-f, i
forordningen om kunstig intelligens.
Stk. 3.
Datatilsynet udpeges som markedsovervågnings-
myndighed for de dele af tilsynet med forbudte former for
AI-praksis, der er omfattet af artikel 5, stk. 1, litra d, og arti-
kel 5, stk. 1, litra g, i forordningen om kunstig intelligens.
Stk. 4.
Domstolsstyrelsen udpeges som markedsovervåg-
ningsmyndighed for de dele af tilsynet med forbudte former
for AI-praksis, som vedrører domstolenes anvendelse af AI-
systemer, når domstolene ikke handler i deres egenskab af
domstol.
Stk. 5.
For tilsynet med domstolenes anvendelse af AI-sy-
stemer, som ikke omfattes af stk. 4, træffes afgørelser af
vedkommende ret. Afgørelsen kan kæres til højere ret. For
særlige domstole, hvis afgørelser ikke kan indbringes for
højere ret, kan den afgørelse, der er nævnt i 1. pkt., kæres til
den landsret, i hvis kreds retten er beliggende. Kærefristen
er 4 uger fra den dag, afgørelsen er meddelt den pågælden-
de.
§ 3.
De nationale kompetente myndigheders afgørelser
efter forordningen om kunstig intelligens, denne lov eller
regler udstedt i medfør heraf kan ikke indbringes for anden
administrativ myndighed.
§ 4.
De nationale kompetente myndigheder påser overhol-
delsen af forordningen om kunstig intelligens, denne lov og
regler udstedt i medfør heraf.
§ 5.
Markedsovervågningsmyndighederne kan fra fysiske
og juridiske personer omfattet af artikel 2, stk. 1, litra a-f,
i forordningen om kunstig intelligens, afkræve alle oplysnin-
ger, som er nødvendige for myndighedernes tilsynsvirksom-
hed, herunder til fastlæggelse af, om et forhold hører under
myndighedernes kompetence.
§ 6.
Markedsovervågningsmyndighederne har til enhver
tid mod behørig legitimation og uden retskendelse adgang
til alle erhvervsmæssige lokaliteter hos fysiske og juridiske
personer omfattet af artikel 2, stk. 1, litra a-f, i forordningen
om kunstig intelligens, når det er nødvendigt for at påse
overholdelse af forordningen om kunstig intelligens, denne
lov eller regler udstedt i medfør heraf.
1)
Som bilag til loven er medtaget Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler for kunstig
intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144
samt direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828 (forordningen om kunstig intelligens), EU-Tidende 2024, L af 13. juni 2024. Ifølge artikel
288 i EUF-Traktaten gælder en forordning umiddelbart i hver medlemsstat. Gengivelsen af forordningen i loven og lovens bilag er således udelukkende
begrundet i praktiske hensyn og berører ikke forordningens umiddelbare gyldighed i Danmark.
DokumentId
Journalnummer
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0002.png
2
Stk. 2.
Markedsovervågningsmyndighederne kan som led
i kontrolbesøget foretage tekniske undersøgelser af et AI-sy-
stem på stedet.
Stk. 3.
Markedsovervågningsmyndighederne kan være bi-
stået af en eller flere uafhængige sagkyndige i forbindelse
med adgangen efter stk. 1 og tekniske undersøgelser efter
stk. 2.
Stk. 4.
Politiet yder om nødvendigt bistand til kontrollens
gennemførelse.
§ 7.
Markedsovervågningsmyndighederne kan offentlig-
gøre sine afgørelser i sager om forbudte former for AI-prak-
sis i henhold til artikel 5, stk. 1, litra a-g, i forordningen om
kunstig intelligens.
§ 8.
Markedsovervågningsmyndighederne kan udstede
påbud om overholdelse af artikel 5, stk. 1, litra a-g, i forord-
ningen om kunstig intelligens, denne lov og regler fastsat i
medfør af denne lov.
Stk. 2.
Markedsovervågningsmyndighederne kan udstede
et midlertidigt forbud mod levering, markedsføring, udstil-
ling eller anden tilgængeliggørelse af et AI-system, hvis AI-
systemet vurderes at kunne udgøre en risiko. Forbuddet kan
rettes mod fysiske og juridiske personer omfattet af artikel
2, stk. 1, litra a-f, i forordningen om kunstig intelligens. For-
buddets varighed kan ikke strække sig ud over, hvad der er
nødvendigt for at træffe kontrolforanstaltninger til brug for
undersøgelser eller vurderinger af AI-systemets sikkerhed.
§ 9.
Den bemyndigende myndighed kan efter forhandling
med ministeren for digitalisering fastsætte nærmere regler
om indførelse og gennemførelse af nødvendige procedurer
for vurdering, udpegelse og notifikation af overensstemmel-
sesvurderingsorganer og for tilsyn hermed i henhold til arti-
kel 28, stk. 1, i forordningen om kunstig intelligens samt
suspension eller tilbagetrækning af udpegning i henhold til
artikel 36, stk. 4, i forordningen om kunstig intelligens.
Stk. 2.
Den bemyndigende myndighed kan delegere vur-
deringen af overensstemmelsesvurderingsorganer i et nær-
mere angivet omfang til andre offentlige myndigheder eller
private institutioner i henhold til artikel 28, stk. 2, i forord-
ningen om kunstig intelligens.
Kapitel 3
Straffebestemmelser
§ 10.
Medmindre højere straf er forskyldt efter anden
lovgivning, straffes med bøde den, der:
1) overtræder artikel 5, stk. 1, litra a-g, i forordningen om
kunstig intelligens,
afgiver ukorrekte, ufuldstændige eller vildledende op-
lysninger til bemyndigede organer eller nationale kom-
petente myndigheder som svar på en anmodning, jf.
artikel 99, stk. 5, i forordningen om kunstig intelligens,
3) undlader at efterkomme markedsovervågningsmyndig-
hedernes krav efter § 5 eller hindrer markedsovervåg-
ningsmyndighederne i at få adgang til lokaliteter efter §
6, stk. 1,
4) hindrer markedsovervågningsmyndighederne i at fore-
tage tekniske undersøgelser af et AI-system efter § 6,
stk. 2, eller
5) undlader at efterkomme påbud eller midlertidige forbud
udstedt efter § 8.
Stk. 2.
I forskrifter, der udstedes i medfør af loven, kan
der fastsættes straf af bøde for overtrædelse af bestemmelser
i forskrifterne.
Stk. 3.
Der kan pålægges selskaber m.v. (juridiske person-
er) strafansvar efter reglerne i straffelovens 5. kapitel.
Stk. 4.
Forældelsesfristen for overtrædelse af forordningen
om kunstig intelligens, denne lov eller regler udstedt i med-
før heraf er 5 år.
§ 11.
Ministeren for digitalisering kan efter forhandling
med justitsministeren fastsætte regler om, at markedsover-
vågningsmyndighederne i nærmere angivne sager om over-
trædelse af forordningen om kunstig intelligens, loven eller
regler udstedt i medfør heraf i et bødeforelæg kan tilkende-
give, at sagen kan afgøres uden retssag. Det er en betingelse,
at den, der har begået overtrædelsen, erklærer sig skyldig i
overtrædelsen og erklærer sig rede til inden en nærmere an-
givet frist at betale den bøde, der er fastsat i bødeforelægget.
Stk. 2.
Retsplejelovens regler om krav til indholdet af
et anklageskrift og om, at en sigtet ikke er forpligtet til at
udtale sig, finder tilsvarende anvendelse på bødeforelæg.
Stk. 3.
Betales bøden i rette tid, eller bliver den efter ved-
tagelsen inddrevet eller afsonet, bortfalder videre forfølg-
ning. Vedtagelsen har samme gentagelsesvirkning som en
dom.
Kapitel 4
Ikrafttræden
§ 12.
Loven træder i kraft den 2. august 2025.
Kapitel 5
Territorialbestemmelse
§ 13.
Loven gælder ikke for Færøerne og Grønland.
2)
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0003.png
3
Bilag 1
Forordning (EU) 2024/1689
EUROPA-PARLAMENTETS OG RÅDETS FORORDNING (EU) 2024/1689
af 13. juni 2024
om harmoniserede regler for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008,
(EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt
direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828 (forordningen om kunstig intelligens)
(EØS-relevant tekst)
EUROPA-PARLAMENTET OG RÅDET FOR DEN EUROPÆISKE UNION HAR —
under henvisning til traktaten om Den Europæiske Unions funktionsmåde, særlig artikel 16 og 114,
under henvisning til forslag fra Europa-Kommissionen,
efter fremsendelse af udkast til lovgivningsmæssig retsakt til de nationale parlamenter,
under henvisning til udtalelse fra Det Europæiske Økonomiske og Sociale Udvalg (
1
),
under henvisning til udtalelse fra Den Europæiske Centralbank (
2
),
under henvisning til udtalelse fra Regionsudvalget (
3
),
efter den almindelige lovgivningsprocedure (
4
), og
ud fra følgende betragtninger:
(1) Formålet med denne forordning er at forbedre det indre markeds funktion ved at fastlægge ensartede
retlige rammer, navnlig for udvikling, omsætning, ibrugtagning og anvendelse af kunstig intelligens-sy-
stemer (»AI-systemer«) i Unionen i overensstemmelse med Unionens værdier, at fremme udbredelsen
af menneskecentreret og troværdig kunstig intelligens (»AI«), samtidig med at der sikres et højt beskyttel-
sesniveau for sundhed, sikkerhed og grundlæggende rettigheder som nedfældet i Den Europæiske Unions
charter om grundlæggende rettigheder (»chartret«), herunder demokrati, retsstatsprincippet og miljøbe-
skyttelse, at beskytte mod skadelige virkninger af AI-systemer i Unionen og at støtte innovation. Den-
ne forordning sikrer fri bevægelighed for AI-baserede varer og tjenesteydelser og forhindrer således
medlemsstaterne i at indføre restriktioner for udvikling, markedsføring og anvendelse af AI-systemer,
medmindre det udtrykkeligt er tilladt i henhold til denne forordning.
(2) Denne forordning bør anvendes i overensstemmelse med Unionens værdier som nedfældet i chartret,
der letter beskyttelsen af fysiske personer, virksomheder, demokrati, retsstatsprincippet og miljøbeskyttel-
se, samtidig med at innovation og beskæftigelse fremmes, og Unionen gøres førende inden for udbredel-
sen af troværdig AI.
(3) AI-systemer kan nemt idriftsættes i en lang række sektorer af økonomien og i mange dele af samfun-
det, herunder på tværs af grænserne, og kan nemt udspredes i hele Unionen. Visse medlemsstater har
allerede undersøgt, om det er muligt at vedtage nationale regler til sikring af, at AI er troværdig og sikker,
og at den udvikles og anvendes i overensstemmelse med forpligtelserne vedrørende grundlæggende
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0004.png
4
rettigheder. Forskellige nationale regler kan føre til fragmenteringen af det indre marked og kan mindske
retssikkerheden for operatører, der udvikler, importerer eller anvender AI-systemer. Der bør derfor sikres
et ensartet og højt beskyttelsesniveau i hele Unionen med henblik på at opnå troværdig AI, samtidig
med at forskelle, der hæmmer den frie bevægelighed for samt innovation, idriftsættelse og udbredelse af
AI-systemer og relaterede produkter og tjenesteydelser på det indre marked, bør forhindres ved at
fastsætte ensartede forpligtelser for operatører og sikre en ensartet beskyttelse af tvingende hensyn til
samfundsinteresser og personers rettigheder i hele det indre marked på grundlag af artikel 114 i traktaten
om Den Europæiske Unions funktionsmåde (TEUF). For så vidt som denne forordning indeholder
specifikke regler om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger
vedrørende begrænsninger i anvendelsen af AI-systemer til biometrisk fjernidentifikation med henblik på
retshåndhævelse, i anvendelsen af AI-systemer til risikovurderinger af fysiske personer med henblik på
retshåndhævelse og i anvendelsen af AI-systemer til biometrisk kategorisering med henblik på retshånd-
hævelse, er det desuden hensigtsmæssigt at basere denne forordning på artikel 16 i TEUF for så vidt
angår disse specifikke regler. I lyset af disse specifikke regler og anvendelsen af artikel 16 i TEUF bør
Det Europæiske Databeskyttelsesråd høres.
(4) AI er en vifte af teknologier i hurtig udvikling, som bidrager til brede økonomiske, miljømæssige og
samfundsmæssige fordele på tværs af hele spektret af industrier og sociale aktiviteter. Ved at forbedre
forudsigelser, optimere operationer og ressourceallokering og skræddersy de digitale løsninger, der er
tilgængelige for enkeltpersoner og organisationer, kan anvendelsen af AI give virksomheder vigtige
konkurrencemæssige fordele og fremme socialt og miljømæssigt gavnlige resultater, f.eks. inden for
sundhedspleje, landbrug, fødevaresikkerhed, uddannelse, medier, sport, kultur, infrastrukturforvaltning,
energi, transport og logistik, offentlige tjenester, sikkerhed, retsvæsen, ressource- og energieffektivitet,
miljøovervågning, bevarelse og genopretning af biodiversitet og økosystemer samt modvirkning af og
tilpasning til klimaændringer.
(5) Samtidig kan AI, afhængigt af omstændighederne med hensyn til dens specifikke anvendelse, brug og
teknologiske udviklingsniveau, skabe risici og skade samfundsinteresser og grundlæggende rettigheder,
der er beskyttet af EU-retten. En sådan skade kan være af materiel eller immateriel karakter, herunder
fysisk, psykisk, samfundsmæssig eller økonomisk.
(6) I betragtning af den store indvirkning, som AI kan have på samfundet, og behovet for at opbygge
tillid er det afgørende, at AI og de lovgivningsmæssige rammer herfor udvikles i overensstemmelse
med Unionens værdier, der er nedfældet i artikel 2 i traktaten om Den Europæiske Union (TEU), og de
grundlæggende rettigheder og friheder, der er nedfældet i traktaterne og, i henhold til artikel 6 i TEU,
chartret. Det bør være en forudsætning, at AI er en menneskecentreret teknologi. Det bør tjene som et
redskab for mennesker med det endelige mål at øge menneskers trivsel.
(7) For at sikre et ensartet højt beskyttelsesniveau for samfundsinteresser med hensyn til sundhed,
sikkerhed og grundlæggende rettigheder bør der fastsættes fælles regler for højrisiko-AI-systemer. Disse
regler bør være i overensstemmelse med chartret, være ikkeforskelsbehandlende og i overensstemmelse
med Unionens internationale handelsforpligtelser. De bør også tage hensyn til den europæiske erklæring
om digitale rettigheder og principper for det digitale årti og de etiske retningslinjer for troværdig AI fra
Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens (AI-ekspertgruppen).
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0005.png
5
(8) Der er derfor behov for en EU-retlig ramme, der fastsætter harmoniserede regler for AI, for at
fremme udviklingen, brugen og udbredelsen af AI på det indre marked, som samtidig opfylder et højt
beskyttelsesniveau for samfundsinteresser såsom sundhed og sikkerhed og beskyttelse af grundlæggende
rettigheder, herunder demokrati, retsstatsprincippet og miljøbeskyttelse, som anerkendt og beskyttet i
EU-retten. For at nå dette mål bør der fastsættes regler for omsætning, ibrugtagning og anvendelse af
visse AI-systemer for at sikre et velfungerende indre marked og lade disse systemer drage fordel af
princippet om fri bevægelighed for varer og tjenesteydelser. Disse regler bør være klare og robuste
med hensyn til at beskytte de grundlæggende rettigheder, støtte nye innovative løsninger og muliggøre
et europæisk økosystem af offentlige og private aktører, der skaber AI-systemer i overensstemmelse
med Unionens værdier og frigør potentialet ved den digitale omstilling i alle regioner i Unionen. Med
fastsættelsen af disse regler samt foranstaltninger til støtte for innovation med et særligt fokus på små og
mellemstore virksomheder (SMV�½er), herunder iværksættervirksomheder, støtter denne forordning målet
om at fremme en europæisk menneskecentreret tilgang til AI og om at være førende på verdensplan
inden for udvikling af sikker, troværdig og etisk AI som anført af Det Europæiske Råd (
5
), og den sikrer
beskyttelse af etiske principper, således som Europa-Parlamentet specifikt har anmodet om (
6
).
(9) Der bør fastsættes harmoniserede regler for omsætning, ibrugtagning og anvendelse af højrisiko-AI-
systemer i overensstemmelse med Europa-Parlamentets og Rådets forordning (EF) nr. 765/2008 (
7
),
Europa-Parlamentets og Rådets afgørelse nr. 768/2008/EF (
8
) og Europa-Parlamentets og Rådets forord-
ning (EU) 2019/1020 (
9
) (den nye lovgivningsmæssige ramme for markedsføring af produkter). De
harmoniserede regler, der er fastsat i nærværende forordning, bør finde anvendelse på tværs af sektorer og
bør i overensstemmelse med den nye lovgivningsmæssige ramme ikke berøre gældende EU-ret, navnlig
om databeskyttelse, forbrugerbeskyttelse, grundlæggende rettigheder, beskæftigelse og beskyttelse af
arbejdstagere og produktsikkerhed, som nærværende forordning supplerer. Som følge heraf forbliver
alle rettigheder og retsmidler, som er fastsat i en sådan EU-ret for forbrugere og andre personer, som
AI-systemer kan have en negativ indvirkning på, herunder for så vidt angår erstatning for eventuelle
skader i henhold til Rådets direktiv 85/374/EØF (
10
), uberørte og finder fuldt ud anvendelse. Endvidere
bør denne forordning i forbindelse med beskæftigelse og beskyttelse af arbejdstagere derfor ikke berøre
EU-retten om socialpolitik og national arbejdsret, der overholder EU-retten, vedrørende ansættelsesvilkår
og arbejdsforhold, herunder sundhed og sikkerhed på arbejdspladsen, og forholdet mellem arbejdsgivere
og arbejdstagere. Denne forordning bør heller ikke påvirke udøvelsen af de grundlæggende rettigheder,
der anerkendes i medlemsstaterne og på EU-plan, herunder retten eller friheden til at strejke eller til at
foretage andre tiltag, der er omfattet af specifikke ordninger for arbejdsmarkedsrelationer i medlemssta-
terne, samt retten til at forhandle, indgå og håndhæve kollektive overenskomster eller retten til at foretage
kollektive tiltag i overensstemmelse med national ret. Denne forordning bør ikke berøre de bestemmelser,
der tilstræber at forbedre arbejdsvilkårene for platformsarbejde, der er fastsat i et direktiv vedtaget af Eu-
ropa-Parlamentets og Rådets direktiv om forbedring af arbejdsvilkårene for platformsarbejde. Derudover
har denne forordning til formål at styrke effektiviteten af sådanne eksisterende rettigheder og retsmidler
ved at fastsætte specifikke krav og forpligtelser, herunder med hensyn til AI-systemers gennemsigtighed,
tekniske dokumentation og registrering. Desuden bør de forpligtelser, der pålægges forskellige operatører,
der er involveret i AI-værdikæden i henhold til denne forordning, finde anvendelse, uden at det berører
national ret, der overholder EU-retten, hvorved anvendelsen af visse AI-systemer begrænses, hvis sådan
national ret falder uden for denne forordnings anvendelsesområde eller forfølger andre legitime mål af
samfundsmæssig interesse end dem, der forfølges med denne forordning. For eksempel bør national
arbejdsret og national ret om beskyttelse af mindreårige, dvs. personer under 18 år, under hensyntagen til
generel bemærkning nr. 25 (2021) om børns rettigheder vedrørende det digitale miljø fra FN�½s Komité for
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0006.png
6
Barnets Rettigheder, for så vidt de ikke er specifikke for AI-systemer og forfølger andre legitime mål af
samfundsmæssig interesse, ikke berøres af denne forordning.
(10) Den grundlæggende ret til beskyttelse af personoplysninger er navnlig sikret ved Europa-Parlamen-
tets og Rådets forordning (EU) 2016/679 (
11
) og (EU) 2018/1725 (
12
) samt Europa-Parlamentets og
Rådets direktiv (EU) 2016/680 (
13
). Europa-Parlamentets og Rådets direktiv 2002/58/EF (
14
) beskytter
desuden privatlivets fred og kommunikationshemmeligheden, herunder med fastsættelse af betingelser for
lagring af personoplysninger og andre oplysninger end personoplysninger i terminaludstyr og for adgang
til terminaludstyr. Disse EU-retsakter danner grundlaget for bæredygtig og ansvarlig databehandling, her-
under når datasæt omfatter en blanding af personoplysninger og andre data end personoplysninger. Nær-
værende forordning har ikke til formål at påvirke anvendelsen af gældende EU-ret om behandling af
personoplysninger, herunder de opgaver og beføjelser, der påhviler de uafhængige tilsynsmyndigheder
med kompetence til at overvåge, at disse instrumenter overholdes. Den berører heller ikke de forpligtelser
for udbydere og idriftsættere af AI-systemer i deres rolle som dataansvarlige eller databehandlere, der
følger af EU-retten eller national ret om beskyttelse af personoplysninger, for så vidt udformningen,
udviklingen eller anvendelsen af AI-systemer omfatter behandling af personoplysninger. Det er også
hensigtsmæssigt at præcisere, at registrerede bevarer alle de rettigheder og garantier, som de har i henhold
til EU-retten, herunder rettigheder i forbindelse med helt automatiseret individuel beslutningstagning,
herunder profilering. Harmoniserede regler for omsætning, ibrugtagning og anvendelse af AI-systemer,
der er fastsat i henhold til nærværende forordning, bør lette en effektiv gennemførelse og muliggøre
udøvelsen af de registreredes rettigheder og andre retsmidler, der er sikret i medfør af EU-retten om
beskyttelse af personoplysninger og andre grundlæggende rettigheder.
(11) Denne forordning berører ikke bestemmelserne om ansvar for udbydere af formidlingstjenester som
fastsat i Europa-Parlamentets og Rådets forordning (EU) 2022/2065 (
15
).
(12) Begrebet »AI-system« i denne forordning bør defineres klart og bør nøje afstemmes med det
arbejde, der udføres af internationale organisationer, som arbejder med AI, for at sikre retssikkerhed, lette
international konvergens og bred accept, og samtidig være fleksibelt nok til at tage højde for den hurtige
teknologiske udvikling på dette område. Desuden bør definitionen baseres på centrale egenskaber ved
AI-systemer, der adskiller det fra enklere traditionelle softwaresystemer eller programmeringstilgange,
og bør ikke omfatte systemer, der er baseret på de regler, der udelukkende er defineret af fysiske
personer til automatisk at udføre operationer. En central egenskab ved AI-systemer er deres evne til at
udlede. Denne evne til at udlede henviser til processen med at opnå output såsom forudsigelser, indhold,
anbefalinger eller beslutninger, der kan påvirke fysiske og virtuelle miljøer, og til AI-systemernes evne
til at udlede modeller eller algoritmer, eller begge dele, fra input eller data. De teknikker, der muliggør
udledning ved opbygningen af et AI-system, omfatter maskinlæringstilgange, der af data lærer, hvordan
bestemte mål kan nås, og logik- og videnbaserede tilgange, der udleder indhold fra indkodet viden eller
symbolsk repræsentation af den opgave, der skal løses. Et AI-systems evne til at udlede går videre
end grundlæggende databehandling ved at muliggøre læring, ræsonnement eller modellering. Udtrykket
»maskinbaseret« henviser til det forhold, at AI-systemer kører på maskiner. Henvisningen til eksplicitte
eller implicitte mål understreger, at AI-systemer kan fungere i overensstemmelse med eksplicit definerede
mål eller implicitte mål. AI-systemets mål kan adskille sig fra det tilsigtede formål med AI-systemet i
en specifik sammenhæng. Med henblik på denne forordning bør miljøer forstås som de sammenhænge,
hvori AI-systemerne fungerer, mens output genereret af AI-systemet afspejler forskellige funktioner, der
udføres af AI-systemer og omfatter forudsigelser, indhold, anbefalinger eller beslutninger. AI-systemer
er udformet til at fungere med varierende grader af autonomi, hvilket betyder, at de har en vis grad af
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0007.png
7
uafhængighed fra menneskelig medvirken og har evnen til at fungere uden menneskelig indgriben. Den
tilpasningsevne, som et AI-system kan udvise efter idriftsættelsen, henviser til selvlæringskapacitet, der
gør det muligt for systemet at ændre sig, mens det er i brug. AI-systemer kan anvendes selvstændigt
eller som en del af et produkt, uanset om systemet er fysisk integreret i produktet (indlejret), eller tjene
produktets funktionalitet uden at være integreret deri (ikke indlejret).
(13) Begrebet »idriftsætter«, der er omhandlet i denne forordning, bør fortolkes som enhver fysisk eller
juridisk person, herunder en offentlig myndighed, et agentur eller et andet organ, der anvender et AI-sy-
stem under sin myndighed, medmindre AI-systemet anvendes som led i en personlig ikkeerhvervsmæssig
aktivitet. Afhængigt af typen af AI-system kan anvendelsen af systemet påvirke andre personer end
idriftsætteren.
(14) Begrebet »biometriske data«, der anvendes i denne forordning, bør fortolkes i lyset af begrebet
biometriske data som defineret i artikel 4, nr. 14), i forordning (EU) 2016/679, artikel 3, nr. 18), i forord-
ning (EU) 2018/1725 og artikel 3, nr. 13), i direktiv (EU) 2016/680. Biometriske data kan muliggøre
autentifikation, identifikation eller kategorisering af fysiske personer og genkendelse af fysiske personers
følelser.
(15) Begrebet »biometrisk identifikation«, der er omhandlet i denne forordning, bør defineres som auto-
matiseret genkendelse af fysiske, fysiologiske og adfærdsmæssige menneskelige egenskaber som f.eks.
ansigt, øjenbevægelser, kropsform, stemme, prosodi, gangart, kropsholdning, hjerterytme, blodtryk, lugt
og tasteanslagskarakteristika med det formål at fastslå en persons identitet ved at sammenligne personens
biometriske data med de biometriske data om personer, der er lagret i en referencedatabase, uanset om
denne person har givet sit samtykke hertil eller ej. Dette udelukker AI-systemer, der tilsigtes anvendt
til biometrisk verifikation, som omfatter autentifikation, hvis eneste formål er at bekræfte, at en bestemt
fysisk person er den person, vedkommende hævder at være, og bekræfte en fysisk persons identitet
udelukkende med det formål at få adgang til en tjeneste, låse udstyr op eller have sikker adgang til
lokaler.
(16) Begrebet »biometrisk kategorisering«, der er omhandlet i denne forordning, bør defineres som place-
ring af fysiske personer i bestemte kategorier på grundlag af deres biometriske data. Sådanne specifikke
kategorier kan vedrøre aspekter som køn, alder, hårfarve, øjenfarve, tatoveringer, adfærdsmønstre eller
personlighedstræk, sprog, religion, tilhørsforhold til et nationalt mindretal samt seksuel eller politisk ori-
entering. Dette omfatter ikke systemer til biometrisk kategorisering, som er en rent accessorisk funktion,
der er uløseligt forbundet med en anden kommerciel tjeneste, og som indebærer, at funktionen af objekti-
ve tekniske grunde ikke kan anvendes uden den primære tjeneste, og at integrationen af denne funktion
eller funktionalitet ikke er et middel til at omgå anvendelsen af reglerne i denne forordning. Eksempelvis
kan filtre, der kategoriserer ansigts- eller kropstræk, som anvendes på onlinemarkedspladser, udgøre en
sådan accessorisk funktion, da de kun kan anvendes i forbindelse med den primære tjeneste, der består i
at sælge et produkt ved at give forbrugeren mulighed for se visningen af produktet på sig selv og hjælpe
forbrugeren med at træffe en købsbeslutning. Filtre, der anvendes på sociale onlinenetværkstjenester, og
som kategoriserer ansigts- eller kropstræk for at give brugerne mulighed for at tilføje eller ændre billeder
eller videoer, kan også betragtes som en accessorisk funktion, da et sådant filter ikke kan anvendes uden
den primære tjeneste i de sociale netværkstjenester, der består i deling af indhold online.
(17) Begrebet »system til biometrisk fjernidentifikation«, der er omhandlet i denne forordning, bør
defineres funktionelt som et AI-system, der er tilsigtet identifikation af fysiske personer uden deres aktive
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0008.png
8
medvirken, typisk på afstand, ved at sammenligne en persons biometriske data med de biometriske data
i en referencedatabase, uanset hvilken specifik teknologi, hvilke specifikke processer eller hvilke speci-
fikke typer biometriske data der anvendes. Sådanne systemer til biometrisk fjernidentifikation anvendes
typisk til at opfatte flere personer eller deres adfærd samtidigt for i væsentlig grad at lette identifikationen
af fysiske personer uden deres aktive medvirken. Dette udelukker AI-systemer, der tilsigtes anvendt til
biometrisk verifikation, som omfatter autentifikation, hvis eneste formål er at bekræfte, at en bestemt
fysisk person er den person, vedkommende hævder at være, og bekræfte en fysisk persons identitet
udelukkende med det formål at få adgang til en tjeneste, låse udstyr op eller have sikkerhedsadgang
til lokaler. Denne udelukkelse begrundes med, at sådanne systemer sandsynligvis vil have en mindre
indvirkning på fysiske personers grundlæggende rettigheder sammenlignet med systemerne til biometrisk
fjernidentifikation, der kan anvendes til behandling af et stort antal personers biometriske data uden
deres aktive medvirken. Hvis der er tale om realtidssystemer, sker optagelsen af de biometriske data,
sammenligningen og identifikationen øjeblikkeligt, næsten øjeblikkeligt eller under alle omstændigheder
uden væsentlig forsinkelse. I denne forbindelse bør der ikke være mulighed for at omgå denne forord-
nings bestemmelser om realtidsanvendelse af de pågældende AI-systemer ved at foranledige mindre
forsinkelser. Realtidssystemer omfatter anvendelse af direkte eller lettere forskudt materiale såsom video-
optagelser, der genereres af et kamera eller andet udstyr med tilsvarende funktioner. Er der derimod tale
om systemer til efterfølgende biometrisk identifikation, er de biometriske data allerede blevet optaget,
og sammenligningen og identifikationen finder først sted efter en væsentlig forsinkelse. Der er tale om
materiale såsom billeder eller videooptagelser, der genereres af TV-overvågningskameraer eller privat
udstyr, og som er genereret inden systemets anvendelse for så vidt angår de pågældende fysiske personer.
(18) Begrebet »system til følelsesgenkendelse«, der er omhandlet i denne forordning, bør defineres som
et AI-system, der har til formål at identificere eller udlede fysiske personers følelser eller hensigter
på grundlag af deres biometriske data. Begrebet henviser til følelser eller hensigter såsom lykke, sorg-
fuldhed, vrede, forbavselse, afsky, forlegenhed, begejstring, skam, foragt, tilfredshed og morskab. Det
omfatter ikke fysiske tilstande såsom smerte eller træthed, herunder f.eks. systemer, der anvendes til at
påvise træthedstilstanden hos professionelle piloter eller førere med henblik på at forebygge ulykker. Det
omfatter heller ikke den blotte påvisning af umiddelbart synlige udtryk, fagter eller bevægelser, medmin-
dre de anvendes til at identificere eller udlede følelser. Disse udtryk kan være simple ansigtsudtryk såsom
en panderynken eller et smil eller fagter såsom bevægelse af hænder, arme eller hoved eller karakteristika
ved en persons stemme såsom en hævet stemme eller hvisken.
(19) I denne forordning bør begrebet offentligt sted forstås som ethvert fysisk sted, der er tilgængeligt
for et ubestemt antal fysiske personer, og uanset om det pågældende sted er privatejet eller offentligt ejet,
og uanset den aktivitet, som stedet kan anvendes til, såsom til handel, f.eks. butikker, restauranter og
caféer, til tjenesteydelser, f.eks. banker, erhvervsmæssige aktiviteter og hotel-, restaurations- og oplevel-
sesbranchen, til sport, f.eks. svømmebassiner, fitnesscentre og stadioner, til transport, f.eks. bus-, metro-
og jernbanestationer, lufthavne og transportmidler, til underholdning, f.eks. biografer, teatre, museer og
koncert- og konferencesale, eller til fritid eller andet, f.eks. offentlige veje og pladser, parker, skove og
legepladser. Et sted bør også klassificeres som værende offentligt tilgængeligt, hvis adgangen, uanset
eventuelle kapacitets- eller sikkerhedsrestriktioner, er underlagt visse forud fastsatte betingelser, som kan
opfyldes af et ubestemt antal personer, såsom køb af en billet eller et rejsebevis, forudgående registrering
eller det at have en bestemt alder. Derimod bør et sted ikke anses for at være offentligt tilgængeligt, hvis
adgangen er begrænset til specifikke og definerede fysiske personer i henhold til enten EU-retten eller
national ret, der er direkte knyttet til den offentlige sikkerhed, eller gennem en klar viljestilkendegivelse
fra den person, der har den relevante myndighed over stedet. Den faktiske mulighed for adgang alene
såsom en ulåst dør eller en åben låge i et hegn indebærer ikke, at stedet er et offentligt sted, hvis
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0009.png
9
der er indikationer eller omstændigheder, der tyder på det modsatte, såsom skilte, der forbyder eller
begrænser adgangen. Virksomheds- og fabrikslokaler samt kontorer og arbejdspladser, der kun tilsigtes at
være tilgængelige for relevante medarbejdere og tjenesteydere, er ikke offentlige steder. Offentlige steder
bør ikke omfatte fængsler eller grænsekontrol. Visse andre områder kan bestå af både offentlige steder
og ikkeoffentlige steder såsom forhallen til en privat beboelsesejendom, som det er nødvendigt at gå
igennem for at få adgang til en læges kontor, eller en lufthavn. Online steder er ikke omfattet, da der ikke
er tale om fysiske steder. Om et givet sted betragtes som offentligt, bør imidlertid afgøres fra sag til sag
under hensyntagen til de særlige forhold i den enkelte situation.
(20) For at opnå de største fordele ved AI-systemer, samtidig med at de grundlæggende rettigheder,
sundheden og sikkerheden beskyttes, og for at muliggøre demokratisk kontrol bør AI-færdigheder udstyre
udbydere, idriftsættere og berørte personer med de nødvendige begreber til at træffe informerede beslut-
ninger vedrørende AI-systemer. Disse begreber kan variere med hensyn til den relevante kontekst og
kan omfatte forståelse af den korrekte anvendelse af tekniske elementer i AI-systemets udviklingsfase,
de foranstaltninger, der skal anvendes under dets anvendelse, passende måder at fortolke AI-systemets
output på, og i tilfælde af berørte personer den viden, der er nødvendig for at forstå, hvordan beslutninger
truffet med hjælp fra AI vil have indvirkning på dem. I forbindelse med anvendelsen af denne forordning
bør AI-færdigheder give alle relevante aktører i AI-værdikæden den indsigt, der er nødvendig for at
sikre passende overholdelse og korrekt håndhævelse heraf. Desuden kan den brede gennemførelse af
foranstaltninger vedrørende AI-færdigheder og indførelsen af passende opfølgende tiltag bidrage til at
forbedre arbejdsvilkårene og i sidste ende understøtte konsoliderings- og innovationsstien for troværdig
AI i Unionen. Det Europæiske Udvalg for Kunstig Intelligens (»AI-udvalget«) bør støtte Kommissionen
med henblik på at fremme AI-færdighedsværktøjer samt offentlighedens kendskab til og forståelse af
fordele, risici, sikkerhedsforanstaltninger, rettigheder og forpligtelser i forbindelse med anvendelsen af
AI-systemer. I samarbejde med de relevante interessenter bør Kommissionen og medlemsstaterne lette
udarbejdelsen af frivillige adfærdskodekser for at fremme AI-færdigheder blandt personer, der beskæfti-
ger sig med udvikling, drift og anvendelse af AI.
(21) For at sikre lige vilkår og en effektiv beskyttelse af fysiske personers rettigheder og friheder i hele
Unionen bør de regler, der fastsættes ved denne forordning, finde anvendelse på udbydere af AI-systemer
på en ikkeforskelsbehandlende måde, uanset om de er etableret i Unionen eller i et tredjeland, og på
idriftsættere af AI-systemer, der er etableret i Unionen.
(22) I betragtning af deres digitale karakter bør visse AI-systemer være omfattet af denne forordnings
anvendelsesområde, selv når de ikke bringes i omsætning, ibrugtages eller anvendes i Unionen. Dette
er f.eks. tilfældet, når en operatør, der er etableret i Unionen, indgår kontrakter om visse tjenesteydelser
med en operatør, der er etableret i et tredjeland, i forbindelse med en aktivitet, der skal udføres af et
AI-system, der kan betegnes som højrisiko. Under disse omstændigheder ville det AI-system, der anven-
des i tredjelandet af operatøren, kunne behandle data, der lovligt er indsamlet i og overført fra Unionen,
og levere outputtet fra dette AI-systems behandling til den kontraherende operatør i Unionen, uden at
dette AI-system bringes i omsætning, ibrugtages eller anvendes i Unionen. For at forhindre omgåelse af
denne forordning og sikre en effektiv beskyttelse af fysiske personer i Unionen, bør denne forordning
også finde anvendelse på udbydere og idriftsættere af AI-systemer, der er etableret i et tredjeland, i det
omfang det output, der produceres af disse systemer, tilsigtes anvendt i Unionen. For at tage hensyn til
eksisterende ordninger og særlige behov for fremtidigt samarbejde med udenlandske partnere, med hvem
der udveksles oplysninger og bevismateriale, bør denne forordning ikke finde anvendelse på offentlige
myndigheder i et tredjeland og internationale organisationer, når disse handler inden for rammerne af
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0010.png
10
samarbejdsaftaler eller internationale aftaler indgået på EU-plan eller nationalt plan om retshåndhævelse
og retligt samarbejde med Unionen eller medlemsstaterne, forudsat at det relevante tredjeland eller
den relevante internationale organisation giver tilstrækkelige sikkerhedsforanstaltninger med hensyn til
beskyttelsen af fysiske personers grundlæggende rettigheder og friheder. Dette kan, hvor relevant, omfatte
aktiviteter udført af enheder, som af tredjelande har fået overdraget ansvaret for at udføre specifikke op-
gaver til støtte for en sådan retshåndhævelse og et sådant retligt samarbejde. Sådanne samarbejdsrammer
eller aftaler er oprettet bilateralt mellem medlemsstaterne og tredjelande eller mellem Den Europæiske
Union, Europol og andre EU-agenturer og tredjelande og internationale organisationer. De myndigheder,
der har kompetence til at føre tilsyn med de retshåndhævende og retslige myndigheder i henhold til denne
forordning, bør vurdere, om disse samarbejdsrammer eller internationale aftaler indeholder tilstrækkelige
sikkerhedsforanstaltninger med hensyn til beskyttelse af fysiske personers grundlæggende rettigheder og
friheder. De modtagende nationale myndigheder og EU-institutioner, -organer, -kontorer og -agenturer,
der anvender sådanne output i Unionen, forbliver ansvarlige for at sikre, at deres anvendelse overholder
EU-retten. Når disse internationale aftaler revideres, eller der indgås nye i fremtiden, bør de kontraheren-
de parter gøre deres yderste for at tilpasse disse aftaler til kravene i denne forordning.
(23) Denne forordning bør også finde anvendelse på EU-institutioner, -organer, -kontorer og -agenturer,
når de fungerer som udbyder eller idriftsætter af et AI-system.
(24) Hvis og i det omfang AI-systemer bringes i omsætning, ibrugtages eller anvendes med eller uden
ændringer af sådanne systemer til militære formål, forsvarsformål eller formål vedrørende national sik-
kerhed, bør disse udelukkes fra denne forordnings anvendelsesområde, uanset hvilken type enhed der
udfører disse aktiviteter, f.eks. om det er en offentlig eller privat enhed. For så vidt angår militære og
forsvarsmæssige formål begrundes en sådan udelukkelse både i medfør af artikel 4, stk. 2, i TEU, og i
de særlige forhold, der gør sig gældende for medlemsstaternes forsvarspolitik og den fælles EU-forsvars-
politik, der er omfattet af afsnit V, kapitel 2, i TEU, og som er underlagt folkeretten, og som derfor er
den mest hensigtsmæssige retlige ramme for regulering af AI-systemer i forbindelse med anvendelsen af
dødbringende magtanvendelse og andre AI-systemer i forbindelse med militære og forsvarsmæssige akti-
viteter. For så vidt angår formål vedrørende den nationale sikkerhed begrundes udelukkelsen både i den
omstændighed, at den nationale sikkerhed forbliver medlemsstaternes eneansvar i overensstemmelse med
artikel 4, stk. 2, i TEU, og i den særlige karakter af og de operationelle behov i forbindelse med aktiviteter
vedrørende den nationale sikkerhed og specifikke nationale regler, der finder anvendelse på disse aktivite-
ter. Hvis et AI-system, der er udviklet, bragt i omsætning, ibrugtaget eller anvendt til militære formål,
forsvarsformål eller formål vedrørende den nationale sikkerhed, anvendes uden for disse midlertidigt eller
permanent til andre formål, f.eks. civile eller humanitære formål, retshåndhævelsesformål eller hensynet
til den offentlige sikkerhed, vil et sådant system ikke desto mindre være omfattet af denne forordnings
anvendelsesområde. I så fald bør den enhed, der anvender AI-systemet til andre formål end militære
formål, forsvarsformål eller formål vedrørende den nationale sikkerhed, sikre, at AI-systemet overholder
denne forordning, medmindre systemet allerede overholder denne forordning. AI-systemer, der bringes
i omsætning eller ibrugtages til et udelukket formål, dvs. militært formål, forsvarsformål eller formål
vedrørende den nationale sikkerhed, og et eller flere ikkeudelukkede formål, f.eks. civile formål eller
retshåndhævelse, falder ind under denne forordnings anvendelsesområde, og udbydere af disse systemer
bør sikre overholdelse af denne forordning. I disse tilfælde bør det forhold, at et AI-system kan være
omfattet af denne forordnings anvendelsesområde, ikke berøre muligheden for, at enheder, der udfører
aktiviteter vedrørende den nationale sikkerhed, forsvarsaktiviteter og militæraktiviteter, uanset hvilken
type enhed der udfører disse aktiviteter, anvender AI-systemer til formål vedrørende den nationale sikker-
hed, militære formål og forsvarsformål, idet en sådan anvendelse er udelukket fra denne forordnings
anvendelsesområde. Et AI-system, der bringes i omsætning til civile formål eller retshåndhævelsesformål,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0011.png
11
og som anvendes med eller uden ændringer til militære formål, forsvarsformål eller formål vedrørende
den nationale sikkerhed, bør ikke være omfattet af denne forordnings anvendelsesområde, uanset hvilken
type enhed der udfører disse aktiviteter.
(25) Denne forordning bør støtte innovation, bør respektere forskningsfriheden og bør ikke undergrave
forsknings- og udviklingsaktivitet. Det er derfor nødvendigt at udelukke AI-systemer og -modeller,
der specifikt er udviklet og ibrugtaget udelukkende med henblik på videnskabelig forskning og udvik-
ling. Det er desuden nødvendigt at sikre, at denne forordning ikke på anden måde påvirker videnskabelig
forsknings- og udviklingsaktivitet med AI-systemer eller -modeller, inden de bringes i omsætning eller
ibrugtages. Med hensyn til produktorienteret forsknings-, afprøvnings- og udviklingsaktivitet vedrørende
AI-systemer eller -modeller bør bestemmelserne i denne forordning heller ikke finde anvendelse, inden
disse systemer og modeller ibrugtages eller bringes i omsætning. Denne udelukkelse berører ikke for-
pligtelsen til at overholde denne forordning, når et AI-system, der falder ind under denne forordnings
anvendelsesområde, bringes i omsætning eller ibrugtages som følge af en sådan forsknings- og udvik-
lingsaktivitet, eller anvendelsen af bestemmelser om reguleringsmæssige AI-sandkasser og afprøvning
under faktiske forhold. Uden at det berører udelukkelsen af AI-systemer, der specifikt er udviklet og
ibrugtaget udelukkende med henblik på videnskabelig forskning og udvikling, bør ethvert andet AI-sy-
stem, der kan anvendes til udførelse af enhver forsknings- og udviklingsaktivitet, desuden fortsat være
omfattet af bestemmelserne i denne forordning. Under alle omstændigheder bør enhver forsknings- og
udviklingsaktivitet udføres i overensstemmelse med anerkendte etiske og professionelle standarder for
videnskabelig forskning og bør gennemføres i overensstemmelse med gældende EU-ret.
(26) For at indføre et forholdsmæssigt og effektivt sæt bindende regler for AI-systemer bør der anvendes
en klart defineret risikobaseret tilgang. Denne tilgang bør tilpasse typen og indholdet af sådanne regler
til graden og omfanget af de risici, som AI-systemer kan generere. Det er derfor nødvendigt at forbyde
visse former for uacceptabel AI-praksis, at fastsætte krav til højrisiko-AI-systemer og forpligtelser for de
relevante operatører og at fastsætte gennemsigtighedsforpligtelser for visse AI-systemer.
(27) Selv om den risikobaserede tilgang danner grundlag for et forholdsmæssigt og effektivt sæt bindende
regler, er det vigtigt at minde om de etiske retningslinjer for troværdig kunstig intelligens fra 2019, der
er udarbejdet af den uafhængige AI-ekspertgruppe, som Kommissionen har udpeget. I disse retningslinjer
udviklede AI-ekspertgruppen syv ikkebindende etiske principper for AI, som tilsigter at bidrage til at
sikre, at AI er troværdig og etisk forsvarlig. De syv principper omfatter: menneskelig handlemulighed
og menneskeligt tilsyn, teknologisk robusthed og sikkerhed, privatlivets fred og datastyring, gennemsig-
tighed, mangfoldighed, ikkeforskelsbehandling og retfærdighed, social og miljømæssig velfærd samt
ansvarlighed. Uden at det berører de retligt bindende krav i denne forordning og anden gældende EU-ret,
bidrager disse retningslinjer til udformningen af sammenhængende, troværdig og menneskecentreret AI i
overensstemmelse med chartret og med de værdier, som Unionen bygger på. Ifølge AI-ekspertgruppens
retningslinjer forstås der ved menneskelig handlemulighed og menneskeligt tilsyn, at AI-systemer udvik-
les og anvendes som et redskab, der betjener mennesker, respekterer menneskers værdighed og personlige
uafhængighed, og som fungerer på en måde, der kan styres og tilses af mennesker på passende vis. Ved
teknisk robusthed og sikkerhed forstås, at AI-systemer udvikles og anvendes på en måde, der giver
mulighed for robusthed i tilfælde af problemer og modstandsdygtighed over for forsøg på at ændre
AI-systemets anvendelse eller ydeevne, således at tredjeparters ulovlige anvendelse tillades, og minimerer
utilsigtet skade. Ved privatlivets fred og datastyring forstås, at AI-systemer udvikles og anvendes i
overensstemmelse med reglerne for beskyttelse af privatlivets fred og databeskyttelse, samtidig med
at behandlingen af data lever op til høje standarder for kvalitet og integritet. Ved gennemsigtighed
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0012.png
12
forstås, at AI-systemer udvikles og anvendes på en måde, der giver mulighed for passende sporbarhed
og forklarlighed, samtidig med at personer gøres opmærksom på, at de kommunikerer eller interagerer
med et AI-system, og at idriftsætterne informeres behørigt om det pågældende AI-systems kapacitet
og begrænsninger og berørte personer om deres rettigheder. Ved mangfoldighed, ikkeforskelsbehandling
og retfærdighed forstås, at AI-systemer udvikles og anvendes på en måde, der inkluderer forskellige
aktører og fremmer lige adgang, ligestilling mellem kønnene og kulturel mangfoldighed, samtidig med
at forskelsbehandlende virkninger og urimelige bias, der er forbudt i henhold til EU-retten eller natio-
nal ret, undgås. Ved social og miljømæssig velfærd forstås, at AI-systemer udvikles og anvendes på
en bæredygtig og miljøvenlig måde og på en måde, der gavner alle mennesker, samtidig med at de
langsigtede virkninger for den enkelte, samfundet og demokratiet overvåges og vurderes. Anvendelsen
af disse principper bør så vidt muligt omsættes i udformningen og anvendelsen af AI-modeller. De
bør under alle omstændigheder tjene som grundlag for udarbejdelsen af adfærdskodekser i henhold til
denne forordning. Alle interessenter, herunder industrien, den akademiske verden, civilsamfundet og
standardiseringsorganisationer, opfordres til i relevant omfang at tage hensyn til de etiske principper ved
udviklingen af frivillig bedste praksis og standarder.
(28) Ud over de mange nyttige anvendelser af AI kan den også misbruges og resultere i nye og effektive
værktøjer til manipulerende, udnyttende og socialt kontrollerende former for praksis. Sådanne former for
praksis er særlig skadelige og krænkende og bør forbydes, fordi de er i modstrid med Unionens værdier
om respekt for menneskelig værdighed, frihed, ligestilling, demokrati og retsstatsprincippet og de grund-
læggende rettigheder, der er nedfældet i chartret, herunder retten til beskyttelse mod forskelsbehandling,
retten til databeskyttelse og retten til privatlivets fred og børns rettigheder.
(29) AI-baserede manipulerende teknikker kan anvendes til at overtale personer til at udvise uønsket
adfærd eller til at vildlede dem ved at nudge dem til at træffe beslutninger på en måde, der undergraver
og hæmmer deres autonomi, beslutningstagning og frie valg. Omsætning, ibrugtagning eller anvendel-
se af visse AI-systemer med det formål eller den virkning i væsentlig grad at fordreje menneskers
adfærd, hvorved der sandsynligvis vil opstå betydelige skader, der navnlig kan have tilstrækkeligt vigtige
negative indvirkninger på fysisk eller psykisk sundhed eller finansielle interesser, er særligt farlige og
bør derfor forbydes. Sådanne AI-systemer anvender subliminale komponenter såsom lyd-, billed- eller
videostimuli, som mennesker ikke kan opfatte, eftersom disse stimuli ligger uden for den menneskelige
opfattelsesevne, eller andre manipulerende eller vildledende teknikker, der undergraver eller svækker
menneskers autonomi, beslutningstagning eller frie valg på måder, hvor mennesker ikke er bevidste
om disse teknikker, eller, hvis de er bevidste om dem, stadig kan blive vildledt eller ikke er i stand
til at kontrollere eller modstå dem. Dette kan lettes f.eks. ved hjælp af maskine-hjerne-grænseflader
eller virtuel virkelighed, da de giver mulighed for en højere grad af kontrol over, hvilke stimuli der
præsenteres for personer, for så vidt som de i væsentlig grad kan fordreje deres adfærd på betydelig
skadelig vis. Desuden kan AI-systemer også på anden måde udnytte sårbarheder hos en person eller en
specifik gruppe af mennesker på grund af deres alder, handicap som omhandlet i Europa-Parlamentets og
Rådets direktiv (EU) 2019/882 (
16
) eller en specifik social eller økonomisk situation, der sandsynligvis vil
gøre disse personer mere sårbare over for udnyttelse, såsom personer, der lever i ekstrem fattigdom, og
etniske eller religiøse mindretal. Sådanne AI-systemer kan bringes i omsætning, ibrugtages eller anvendes
med den hensigt eller det resultat i væsentlig grad at fordreje en persons adfærd og på en måde, der
forvolder eller med rimelig sandsynlighed kan forventes at ville forvolde den pågældende eller en anden
person eller persongrupper betydelig skade, herunder skade, der kan akkumuleres over tid, og bør derfor
forbydes. Det er ikke nødvendigvis muligt at antage, at der er en hensigt om at fordreje adfærd, hvis
fordrejningen skyldes faktorer uden for AI-systemet, som er uden for udbyderens eller idriftsætterens
kontrol, dvs. faktorer, der ikke med rimelighed kan forudses, og som udbyderen eller idriftsætteren af
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0013.png
13
AI-systemet derfor ikke kan afbøde. Under alle omstændigheder er det ikke nødvendigt, at udbyderen
eller idriftsætteren har til hensigt at forvolde betydelig skade, forudsat at en sådan skade er resultatet af
AI-baserede manipulerende eller udnyttende former for praksis. Forbuddene mod sådanne former for AI-
praksis supplerer bestemmelserne i Europa-Parlamentets og Rådets direktiv 2005/29/EF (
17
), navnlig at
urimelig handelspraksis, der forårsager økonomisk eller finansiel skade for forbrugerne, er forbudt under
alle omstændigheder, uanset om den indføres ved hjælp af AI-systemer eller på anden måde. Forbuddene
mod manipulerende og udnyttende former for praksis i denne forordning bør ikke berøre lovlig praksis i
forbindelse med lægebehandling såsom psykologbehandling af psykisk sygdom eller fysisk rehabilitering,
når disse former for praksis udføres i overensstemmelse med gældende ret og medicinske standarder,
for eksempel enkeltpersoners eller deres retlige repræsentanters udtrykkelige samtykke. Desuden bør
almindelig og legitim handelspraksis, for eksempel på reklameområdet, der overholder gældende ret, ikke
i sig selv anses for at udgøre skadelige AI-baserede manipulerende former for praksis.
(30) Systemer til biometrisk kategorisering, der er baseret på fysiske personers biometriske data, sås-
om en persons ansigt eller fingeraftryk, med henblik på at udlede en persons politiske anskuelser,
fagforeningsmedlemskab, religiøse eller filosofiske overbevisning, race, seksuelle forhold eller seksuelle
orientering, bør forbydes. Dette forbud bør ikke omfatte lovlig mærkning, filtrering eller kategorisering
af biometriske datasæt, der er indhentet i overensstemmelse med EU-retten eller national ret i henhold til
biometriske data, såsom sortering af billeder efter hårfarve eller øjenfarve, som f.eks. kan anvendes inden
for retshåndhævelse.
(31)AI-systemer, hvor offentlige eller private aktører gør brug af social bedømmelse af fysiske personer,
kan føre til forskelsbehandlende resultater og udelukkelse af visse grupper. De kan dermed krænke retten
til værdighed og ikkeforskelsbehandling og værdierne lighed og retfærdighed. Sådanne AI-systemer
evaluerer eller klassificerer fysiske personer eller grupper heraf på grundlag af en lang række datapunkter
i tilknytning til deres sociale adfærd i flere sammenhænge eller kendte, udledte eller forudsagte personlige
egenskaber eller personlighedstræk over en vis periode. Den sociale bedømmelse, der leveres af sådanne
AI-systemer, kan føre til skadelig eller ugunstig behandling af fysiske personer eller hele grupper heraf i
sociale sammenhænge, som ikke har noget at gøre med den sammenhæng, i hvilken dataene oprindeligt
blev genereret eller indsamlet, eller til skadelig behandling, der er uforholdsmæssig eller uberettiget i for-
hold til betydningen af deres sociale adfærd. AI-systemer, der indebærer sådanne uacceptable former for
bedømmelsespraksis, og som fører til et sådant skadeligt eller ugunstigt udfald, bør derfor forbydes. Dette
forbud bør ikke berøre lovlige former for praksis med evaluering af fysiske personer, der udføres med et
specifikt formål i overensstemmelse med EU-retten og national ret.
(32) Anvendelsen af AI-systemer til biometrisk fjernidentifikation i realtid af fysiske personer på offentli-
ge steder med henblik på retshåndhævelse er særligt indgribende i de berørte personers rettigheder og
friheder, for så vidt som det kan påvirke privatlivets fred for en stor del af befolkningen, skabe en følelse
af konstant overvågning og indirekte afskrække fra udøvelsen af forsamlingsfriheden og andre grundlæg-
gende rettigheder. Tekniske unøjagtigheder i AI-systemer, der er tilsigtet biometrisk fjernidentifikation af
fysiske personer, kan føre til resultater behæftet med bias og have forskelsbehandlende virkning. Sådanne
mulige resultater behæftet med bias og forskelsbehandlende virkninger er særligt relevante med hensyn til
alder, etnicitet, race, køn og handicap. Desuden indebærer den øjeblikkelige virkning og de begrænsede
muligheder for yderligere kontrol eller justeringer i forbindelse med anvendelsen af sådanne systemer, der
fungerer i realtid, øgede risici for rettigheder og friheder for de berørte personer i forbindelse med eller
påvirket af retshåndhævelsesaktiviteter.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0014.png
14
(33) Anvendelsen af disse systemer med henblik på retshåndhævelse bør derfor forbydes, undtagen i
udtømmende opregnede og snævert definerede situationer, hvor anvendelsen er strengt nødvendig for
at opfylde en væsentlig samfundsinteresse, hvis betydning vejer tungere end risiciene. Disse situationer
omfatter eftersøgning af visse ofre for kriminalitet, herunder forsvundne personer, visse trusler mod
fysiske personers liv eller fysiske sikkerhed eller om et terrorangreb, samt lokalisering eller identifikation
af gerningsmænd, der har begået, eller af personer, der mistænkes for at have begået, de strafbare
handlinger, der er opført i et bilag til denne forordning, hvis disse strafbare handlinger i den berørte
medlemsstat kan straffes med frihedsstraf eller en anden frihedsberøvende foranstaltning af en maksimal
varighed på mindst fire år, og som de er defineret i denne medlemsstats ret. En sådan tærskel for
frihedsstraf eller anden frihedsberøvende foranstaltning i overensstemmelse med national ret bidrager til
at sikre, at lovovertrædelsen er af tilstrækkelig alvorlig karakter til potentielt at berettige anvendelsen af
systemer til biometrisk fjernidentifikation i realtid. Desuden er listen over strafbare handlinger fastlagt i et
bilag til denne forordning baseret på de 32 strafbare handlinger, der er opregnet i Rådets rammeafgørelse
2002/584/RIA (
18
), og tager hensyn til, at nogle af disse strafbare handlinger i praksis er mere relevante
end andre, idet anvendelsen af biometrisk fjernidentifikation i realtid sandsynligvis i meget varierende
grad kan være nødvendig og forholdsmæssig med henblik på lokalisering eller identifikation af en
gerningsmand, der har begået, eller af en person, der mistænkes for at have begået, strafbare handlinger,
der er opført på listen, og under hensyntagen til de sandsynlige forskelle i alvorligheden, sandsynligheden
og omfanget af skaden eller mulige negative konsekvenser. En overhængende fare for fysiske personers
liv eller fysiske sikkerhed kan også hidrøre fra en alvorlig afbrydelse af kritisk infrastruktur som defineret
i artikel 2, nr. 4), i Europa-Parlamentets og Rådets direktiv (EU) 2022/2557 (
19
), hvor afbrydelse eller
ødelæggelse af en sådan kritisk infrastruktur ville medføre overhængende fare for en persons liv eller
fysiske sikkerhed, herunder gennem alvorlig skade på forsyningen af befolkningen med grundlæggende
fornødenheder eller på udøvelsen af statens centrale funktion. Desuden bør denne forordning bevare
de retshåndhævende myndigheders, grænsekontrolmyndighedernes, indvandringsmyndighedernes eller
asylmyndighedernes mulighed for at foretage identitetskontrol under tilstedeværelse af den pågældende
person i overensstemmelse med de betingelser, der er fastsat i EU-retten og national ret for en sådan
kontrol. Navnlig bør retshåndhævende myndigheder, grænsekontrolmyndigheder, indvandringsmyndighe-
der eller asylmyndigheder kunne anvende informationssystemer i overensstemmelse med EU-retten eller
national ret til at identificere personer, der under en identitetskontrol enten nægter at blive identificeret
eller ikke er i stand til at oplyse eller bevise deres identitet, uden at det i henhold til denne forordning
kræves, at der indhentes forhåndstilladelse. Dette kan f.eks. være en person, der er involveret i en
forbrydelse, og som er uvillig eller ude af stand til på grund af en ulykke eller en helbredstilstand at
afsløre sin identitet over for de retshåndhævende myndigheder.
(34) For at sikre at disse systemer anvendes på en ansvarlig og forholdsmæssig måde, er det også
vigtigt at fastslå, at der i hver af disse udtømmende opregnede og snævert definerede situationer bør
tages hensyn til visse elementer, navnlig med hensyn til situationens karakter, som ligger til grund
for anmodningen, og konsekvenserne af anvendelsen for alle berørte personers rettigheder og friheder
samt de sikkerhedsforanstaltninger og betingelser, der er fastsat for brugen. Anvendelsen af systemer
til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør kun
idriftsættes til at bekræfte den specifikt målrettede persons identitet og bør begrænses til, hvad der
er strengt nødvendigt for så vidt angår tidsperioden samt det geografiske og personmæssige anvendel-
sesområde, navnlig med hensyn til beviserne eller indikationerne vedrørende truslerne, ofrene eller
gerningsmanden. Anvendelsen af systemet til biometrisk fjernidentifikation i realtid på offentlige steder
bør kun tillades, hvis den relevante retshåndhævende myndighed har gennemført en konsekvensanalyse
vedrørende grundlæggende rettigheder og, medmindre andet er fastsat i denne forordning, har registreret
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0015.png
15
systemet i databasen som fastsat i denne forordning. Referencedatabasen over personer bør være passende
for hvert enkelt anvendelsestilfælde i hver af de ovennævnte situationer.
(35) Enhver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med
henblik på retshåndhævelse bør være betinget af en udtrykkelig og specifik tilladelse fra en medlemsstats
judicielle myndighed eller uafhængige administrative myndighed, hvis afgørelse er bindende. En sådan
tilladelse bør i princippet indhentes forud for anvendelsen af AI- systemet med henblik på at identificere
en eller flere personer. Undtagelser fra denne regel bør tillades i behørigt begrundede hastende tilfælde,
dvs. i situationer, hvor behovet for at anvende de pågældende systemer er af en sådan art, at det er
praktisk og objektivt umuligt at indhente en tilladelse, inden anvendelsen af AI-systemet påbegyndes. I
sådanne hastende situationer bør anvendelsen af AI-systemet begrænses til det absolut nødvendige mini-
mum og bør være underlagt passende sikkerhedsforanstaltninger og betingelser som fastsat i national ret
og præciseret i forbindelse med hver enkelt hastesag af den retshåndhævende myndighed selv. Desuden
bør den retshåndhævende myndighed i sådanne situationer anmode om en sådan tilladelse og samtidig
begrunde, hvorfor den ikke har været i stand til at anmode om den tidligere, uden unødigt ophold og
senest inden for 24 timer. Hvis en sådan tilladelse afvises, bør anvendelsen af systemer til biometrisk
identifikation i realtid, der er knyttet til den pågældende tilladelse, indstilles med øjeblikkelig virkning,
og alle data vedrørende en sådan anvendelse bør kasseres og slettes. Sådanne data omfatter inputdata, der
er erhvervet direkte af et AI-system ved anvendelsen af et sådant system, samt resultater og output af
den anvendelse, der er knyttet til den pågældende tilladelse. Det bør ikke omfatte input, der er erhvervet
lovligt i overensstemmelse med anden EU-ret eller national ret. Under alle omstændigheder bør der ikke
træffes nogen afgørelse, der har negative retsvirkninger for en person, udelukkende baseret på outputtet af
systemet til biometrisk fjernidentifikation.
(36) Den relevante markedsovervågningsmyndighed og den nationale databeskyttelsesmyndighed bør
for at kunne udføre deres opgaver i overensstemmelse med kravene fastsat i denne forordning og i de
nationale regler underrettes om hver anvendelse af »systemet til biometrisk identifikation i realtid«. Mar-
kedsovervågningsmyndighederne og de nationale databeskyttelsesmyndigheder, der er blevet underrettet,
bør forelægge Kommissionen en årlig rapport om anvendelsen af systemer til biometrisk identifikation i
realtid.
(37) Endvidere bør det inden for denne forordnings udtømmende rammer fastsættes, at en sådan anven-
delse på en medlemsstats område i overensstemmelse med denne forordning kun bør være mulig, hvis
og i det omfang den pågældende medlemsstat har besluttet udtrykkeligt at give mulighed for at tillade
en sådan anvendelse i sine detaljerede bestemmelser i national ret. Det står derfor medlemsstaterne frit
for i henhold til denne forordning slet ikke at fastsætte en sådan mulighed eller kun at fastsætte en
sådan mulighed med hensyn til nogle af de mål, der i henhold til denne forordning kan begrunde en
godkendt anvendelse. Sådanne nationale regler bør meddeles Kommissionen inden for 30 dage efter deres
vedtagelse.
(38) Anvendelsen af AI-systemer til biometrisk fjernidentifikation i realtid af fysiske personer på offentli-
ge steder med henblik på retshåndhævelse indebærer nødvendigvis behandling af biometriske data. De
bestemmelser i denne forordning, der med forbehold af visse undtagelser forbyder en sådan anvendelse,
og som har grundlag i artikel 16 i TEUF, bør finde anvendelse som lex specialis, for så vidt angår reglerne
om behandling af biometriske data i artikel 10 i direktiv (EU) 2016/680 og således regulere anvendelsen
og behandlingen af biometriske data på en udtømmende måde. En sådan anvendelse og behandling bør
derfor kun være mulig, i det omfang det er foreneligt med den ramme, der er fastsat i denne forordning,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0016.png
16
uden at der uden for denne ramme er mulighed for, at de kompetente myndigheder, når de handler med
henblik på retshåndhævelse, kan anvende sådanne systemer og i forbindelse hermed behandle sådanne
data af de grunde, der er anført i artikel 10 i direktiv (EU) 2016/680. I denne sammenhæng har denne
forordning ikke til formål at tilvejebringe retsgrundlaget for behandling af personoplysninger i henhold til
artikel 8 i direktiv (EU) 2016/680. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på
offentlige steder til andre formål end retshåndhævelse, herunder af kompetente myndigheder, bør imidler-
tid ikke være omfattet af den specifikke ramme for en sådan anvendelse med henblik på retshåndhævelse
som fastsat i denne forordning. En sådan anvendelse til andre formål end retshåndhævelse bør derfor
ikke være underlagt kravet om en tilladelse i henhold til denne forordning og de gældende detaljerede
bestemmelser i national ret, der kan give denne tilladelse virkning.
(39) Enhver behandling af biometriske data og andre personoplysninger i forbindelse med anvendelsen
af AI-systemer til biometrisk identifikation, undtagen i forbindelse med anvendelsen af systemer til
biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse som regule-
ret ved denne forordning, bør fortsat overholde alle de krav, der følger af artikel 10 i direktiv (EU)
2016/680. Med henblik på andre formål end retshåndhævelse forbyder artikel 9, stk. 1, i forordning
(EU) 2016/679 og artikel 10, stk. 1, i forordning (EU) 2018/1725 behandling af biometriske data med
begrænsede undtagelser som fastsat i disse artikler. I henhold til artikel 9, stk. 1, i forordning (EU)
2016/679 har anvendelsen af biometrisk fjernidentifikation til andre formål end retshåndhævelse allerede
været genstand for forbudsafgørelser fra nationale databeskyttelsesmyndigheder.
(40) I medfør af artikel 6a i protokol nr. 21 om Det Forenede Kongeriges og Irlands stilling, for så
vidt angår området med frihed, sikkerhed og retfærdighed, der er knyttet som bilag til TEU og TEUF,
er Irland ikke bundet af regler fastsat i denne forordnings artikel 5, stk. 1, første afsnit, litra g), i det
omfang den finder anvendelse på brugen af systemer til biometrisk kategorisering til aktiviteter inden for
politisamarbejde og retligt samarbejde i straffesager, artikel 5, stk. 1, første afsnit, litra d), i det omfang
den finder anvendelse på brugen af AI-systemer, der er omfattet af nævnte bestemmelse, artikel 5, stk.
1, første afsnit, litra h), og stk. 2-6, og artikel 26, stk. 10, der er vedtaget på grundlag af artikel 16 i
TEUF vedrørende medlemsstaternes behandling af personoplysninger under udøvelsen af aktiviteter, der
er omfattet af tredje del, afsnit V, kapitel 4 eller 5, i TEUF, når Irland ikke er bundet af regler vedrørende
former for strafferetligt samarbejde eller politisamarbejde, der kræver overholdelse af de bestemmelser,
der er fastsat på grundlag af artikel 16 i TEUF.
(41) I medfør af artikel 2 og 2a i protokol nr. 22 om Danmarks stilling, der er knyttet som bilag til TEU
og TEUF, er de regler, der er fastsat i denne forordnings artikel 5, stk. 1, første afsnit, litra g), i det
omfang den finder anvendelse på brugen af systemer til biometrisk kategorisering til aktiviteter inden for
politisamarbejde og retligt samarbejde i straffesager, artikel5, stk. 1, første afsnit, litra d), i det omfang
den finder anvendelse på brugen af AI-systemer, der er omfattet af nævnte bestemmelse, artikel 5, stk.
1, første afsnit, litra h), og stk. 2-6, og artikel 26, stk. 10, der er vedtaget på grundlag af artikel 16 i
TEUF vedrørende medlemsstaternes behandling af personoplysninger under udøvelsen af aktiviteter, der
er omfattet af tredje del, afsnit V, kapitel 4 eller 5, i TEUF, ikke bindende for og finder ikke anvendelse i
Danmark.
(42) I overensstemmelse med uskyldsformodningen bør fysiske personer i Unionen altid dømmes på
grundlag af deres faktiske adfærd. Fysiske personer bør aldrig dømmes på grundlag af AI-forudsagt
adfærd, der alene er baseret på deres profilering, personlighedstræk eller personlige egenskaber såsom
nationalitet, fødested, bopæl, antal børn, gældsbyrde eller biltype, uden at der er begrundet mistanke
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0017.png
17
om, at den pågældende person er involveret i kriminel aktivitet baseret på objektive verificerbare kends-
gerninger, og uden menneskelig vurdering heraf. Risikovurderinger, der udføres med hensyn til fysiske
personer med det formål at vurdere risikoen for, at de begår lovovertrædelser, eller forudsige forekomsten
af en faktisk eller potentiel strafbar handling alene baseret på profilering af dem eller vurdering af deres
personlighedstræk og personlige egenskaber, bør derfor forbydes. Under alle omstændigheder henviser
dette forbud ikke til eller berører ikke risikoanalyser, der ikke er baseret på profilering af enkeltpersoner
eller på enkeltpersoners personlighedstræk og personlige egenskaber, såsom AI-systemer, der anvender
risikoanalyser til at vurdere sandsynligheden for virksomheders økonomiske svig på grundlag af mistæn-
kelige transaktioner eller risikoanalyseværktøjer til at forudsige sandsynligheden for toldmyndighedernes
lokalisering af narkotika eller ulovlige varer, f.eks. på grundlag af kendte narkotikaruter.
(43) Omsætning, ibrugtagning til dette specifikke formål eller anvendelse af AI-systemer, der opretter
eller udvider ansigtsgenkendelsesdatabaser gennem ikkemålrettet indsamling af ansigtsbilleder fra inter-
nettet eller kameraovervågning, bør forbydes, da denne praksis øger følelsen af masseovervågning og kan
føre til grove krænkelser af de grundlæggende rettigheder, herunder retten til privatlivets fred.
(44) Der er alvorlig bekymring over det videnskabelige grundlag for AI-systemer, der har til formål at
identificere eller udlede følelser, navnlig da følelser varierer betydeligt på tværs af kulturer og situationer
og endda hos en enkelt person. Blandt de vigtigste mangler ved sådanne systemer er den begrænsede
pålidelighed, manglen på specificitet og den begrænsede generaliserbarhed. AI-systemer, der identificerer
eller udleder fysiske personers følelser eller hensigter på grundlag af deres biometriske data, kan derfor
føre til forskelsbehandlende resultater og kan være indgribende i de berørte personers rettigheder og frihe-
der. Sådanne systemer kan i betragtning af den ulige magtfordeling på arbejdspladsen eller uddannelses-
stedet, kombineret med disse systemers indgribende karakter, føre til skadelig eller ugunstig behandling
af visse fysiske personer eller hele grupper heraf. Omsætningen, ibrugtagningen eller anvendelsen af
AI-systemer, der er tilsigtet at påvise enkeltpersoners følelsesmæssige tilstand i situationer, der vedrører
arbejdspladsen og uddannelsesstedet, bør derfor forbydes. Dette forbud bør ikke omfatte AI-systemer, der
bringes i omsætning udelukkende af medicinske eller sikkerhedsmæssige årsager, såsom systemer tilsigtet
terapeutisk brug.
(45) Former for praksis, der er forbudt i henhold til EU-retten, herunder databeskyttelsesretten, retten
om ikkeforskelsbehandling, forbrugerbeskyttelsesretten og konkurrenceretten, bør ikke berøres af denne
forordning.
(46) Højrisiko-AI-systemer bør kun bringes i omsætning på EU-markedet, ibrugtages eller anvendes, hvis
de overholder visse obligatoriske krav. Disse krav bør sikre, at højrisiko-AI-systemer, der er tilgængelige
i Unionen, eller hvis output på anden måde anvendes i Unionen, ikke udgør uacceptable risici for
vigtige samfundsinteresser i Unionen som anerkendt og beskyttet i EU-retten. På grundlag af den nye
lovgivningsmæssige ramme, som præciseret i Kommissionens meddelelse om den blå vejledning om
gennemførelsen af EU�½s produktregler 2022 (
20
), er den generelle regel, at mere end én EU-harmonise-
ringslovgivningsretsakt såsom Europa-Parlamentets og Rådets forordning (EU) 2017/745 (
21
) og (EU)
2017/746 (
22
) eller Europa-Parlamentets og Rådets direktiv 2006/42/EF (
23
) kan finde anvendelse på
ét produkt, da tilgængeliggørelsen eller ibrugtagningen kun kan finde sted, når produktet overholder al
gældende EU-harmoniseringslovgivning. For at sikre konsekvens og undgå unødvendige administrative
byrder eller omkostninger bør udbydere af et produkt, der indeholder et eller flere højrisiko-AI-systemer,
som kravene i nærværende forordning og kravene i EU-harmoniseringslovgivningen opført i et bilag til
nærværende forordning, finder anvendelse på, have fleksibilitet med hensyn til at træffe operationelle
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0018.png
18
beslutninger om, hvordan det sikres, at et produkt, der indeholder et eller flere AI-systemer, overholder
alle gældende krav i EU-harmoniseringslovgivningen på en optimal måde. AI-systemer, der identificeres
som højrisiko, bør begrænses til systemer, der har en betydelig skadelig indvirkning på personers sund-
hed, sikkerhed og grundlæggende rettigheder i Unionen, og en sådan begrænsning bør minimere enhver
potentiel restriktion for international handel.
(47) AI-systemer kan have negative virkninger for personers sundhed og sikkerhed, navnlig når sådanne
systemer anvendes som produkters sikkerhedskomponenter. I overensstemmelse med målene for EU-har-
moniseringslovgivningen om at lette den frie bevægelighed for produkter i det indre marked og sørge
for, at kun sikre produkter, der desuden overholder alle de stillede krav, kommer ind på markedet, er
det vigtigt, at de sikkerhedsrisici, som et produkt som helhed kan udgøre på grund af dets digitale
komponenter, herunder AI-systemer, behørigt forebygges og afbødes. F.eks. bør stadig mere autonome
robotter, hvad enten det er i forbindelse med fremstilling eller personlig bistand og pleje, være i stand
til at fungere sikkert og udføre deres funktioner i komplekse miljøer. Også i sundhedssektoren, hvor det
drejer sig direkte om liv og sundhed, bør stadig mere avancerede diagnosesystemer og systemer, der
understøtter menneskers beslutninger, være pålidelige og nøjagtige.
(48) Omfanget af et AI-systems negative indvirkning på de grundlæggende rettigheder, der er beskyttet
af chartret, er særlig relevant, når et AI-system klassificeres som højrisiko. Disse rettigheder omfatter
retten til menneskelig værdighed, respekt for privatliv og familieliv, beskyttelse af personoplysninger,
ytrings- og informationsfrihed, forsamlings- og foreningsfrihed, retten til ikkeforskelsbehandling, retten
til uddannelse, forbrugerbeskyttelse, arbejdstagerrettigheder, rettigheder for personer med handicap, li-
gestilling mellem kønnene, intellektuelle ejendomsrettigheder, retten til effektive retsmidler og til en
retfærdig rettergang, retten til et forsvar og uskyldsformodningen samt retten til god forvaltning. Ud over
disse rettigheder er det vigtigt at fremhæve det forhold, at børn har specifikke rettigheder som fastsat i
artikel 24 i chartret og i De Forenede Nationers konvention om barnets rettigheder, yderligere udviklet
i generel bemærkning nr. 25 vedrørende det digitale miljø fra FN�½s Komité for Barnets Rettigheder,
som begge kræver, at der tages hensyn til børns sårbarhed, og at der ydes den beskyttelse og omsorg,
der er nødvendig for deres trivsel. Den grundlæggende ret til et højt miljøbeskyttelsesniveau, der er
nedfældet i chartret og gennemført i Unionens politikker, bør også tages i betragtning ved vurderingen
af alvorligheden af den skade, som et AI-system kan forvolde, herunder i forbindelse med personers
sundhed og sikkerhed.
(49) For så vidt angår højrisiko-AI-systemer, der er sikkerhedskomponenter i produkter eller systemer,
eller som selv er produkter eller systemer, der er omfattet af anvendelsesområdet for Europa-Parlamen-
tets og Rådets forordning (EF) nr. 300/2008 (
24
), Europa-Parlamentets og Rådets forordning (EU) nr.
167/2013 (
25
), Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 (
26
), Europa-Parlamentets
og Rådets direktiv 2014/90/EU (
27
), Europa- Parlamentets og Rådets direktiv (EU) 2016/797 (
28
), Europa-
Parlamentets og Rådets forordning (EU) 2018/858 (
29
), Europa-Parlamentets og Rådets forordning (EU)
2018/1139 (
30
) og Europa-Parlamentets og Rådets forordning (EU) 2019/2144 (
31
), bør disse retsakter
ændres for at sikre, at Kommissionen, på grundlag af de særlige tekniske og reguleringsmæssige forhold
i hver enkelt sektor og uden at gribe ind i de eksisterende forvaltnings-, overensstemmelsesvurderings-
og håndhævelsesmekanismer og myndigheder, der er fastsat heri, tager hensyn til de obligatoriske krav
til højrisiko-AI-systemer, der er fastsat i nærværende forordning, når den vedtager relevante delegerede
retsakter eller gennemførelsesretsakter på grundlag af disse retsakter.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0019.png
19
(50) For så vidt angår AI-systemer, der er sikkerhedskomponenter i produkter, eller som selv er pro-
dukter, der er omfattet af anvendelsesområdet for en vis EU-harmoniseringslovgivning, der er opført
i et bilag til denne forordning, er det hensigtsmæssigt at klassificere dem som højrisiko i henhold
til denne forordning, hvis det pågældende produkt overensstemmelsesvurderes af en tredjeparts overens-
stemmelsesvurderingsorgan i henhold til den relevante EU-harmoniseringslovgivning. Sådanne produkter
er navnlig maskiner, legetøj, elevatorer, udstyr og sikringssystemer tilsigtet anvendelse i eksplosionsfarlig
atmosfære, radioudstyr, trykudstyr, udstyr til fritidsfartøjer, tovbaneanlæg, gasapparater, medicinsk udstyr,
in vitro-diagnostisk medicinsk udstyr, bilindustrien og luftfart.
(51) Klassificeringen af et AI-system som højrisiko i henhold til denne forordning bør ikke nødvendigvis
betyde, at det produkt, hvori AI-systemet indgår som sikkerhedskomponent, eller selve AI-systemet
som produkt betragtes som højrisiko i henhold til de kriterier, der er fastsat i den relevante EU-harmoni-
seringslovgivning, der finder anvendelse på produktet. Dette er navnlig tilfældet med forordning (EU)
2017/745 og (EU) 2017/746, hvor en tredjepart foretager overensstemmelsesvurderinger af mellemrisiko-
og højrisikoprodukter.
(52) For så vidt angår selvstændige AI-systemer, dvs. andre højrisiko-AI-systemer end dem, der er
produkters sikkerhedskomponenter, eller selv er produkter, bør de klassificeres som højrisiko, hvis de set
i lyset af deres tilsigtede formål udgør en høj risiko for skade på sundhed og sikkerhed eller personers
grundlæggende rettigheder, idet der tages hensyn til både sandsynligheden for den mulige skade og
dens alvorlighed, og hvis de anvendes på en række specifikt foruddefinerede områder, der er angivet
i denne forordning. Disse systemer udpeges ved hjælp af den samme metode og ud fra de samme
kriterier som i forbindelse med eventuelle fremtidige ændringer af listen over højrisiko-AI-systemer, som
Kommissionen bør tillægges beføjelser til at vedtage ved hjælp af delegerede retsakter for at tage hensyn
til den hurtige teknologiske udvikling samt de potentielle ændringer i anvendelsen af AI-systemer.
(53) Det er også vigtigt at præcisere, at der kan være særlige tilfælde, hvor AI-systemer, der henvises
til i foruddefinerede områder som angivet i denne forordning, ikke medfører en væsentlig risiko for
at skade de retlige interesser, der beskyttes på disse områder, fordi de ikke i væsentlig grad påvirker
beslutningstagningen eller ikke skader disse interesser væsentligt. Med henblik på denne forordning
bør et AI-system, der ikke i væsentlig grad påvirker resultatet af beslutningstagning, forstås som et
AI-system, der ikke har indvirkning på substansen og dermed resultatet af beslutningstagning, uanset
om den er menneskelig eller automatiseret. Et AI-system, der ikke i væsentlig grad påvirker resultatet
af beslutningstagning, kan omfatte situationer, hvor en eller flere af følgende betingelser er opfyldt. Den
første sådanne betingelse bør være, at AI-systemet er tilsigtet at udføre en snæver proceduremæssig
opgave, f.eks. et AI-system, der omdanner ustrukturerede data til strukturerede data, et AI-system, der
klassificerer indgående dokumenter i kategorier, eller et AI-system, der anvendes til at påvise duplikater
blandt et stort antal ansøgninger. Disse opgaver er så snævre og begrænsede, at de kun udgør begrænse-
de risici, som ikke øges som følge af anvendelsen af et AI-system i en af de sammenhænge, der er
opført som en højrisikoanvendelse i et bilag til denne forordning. Den anden betingelse bør være, at
den opgave, AI-systemet udfører, er tilsigtet at forbedre resultatet af en tidligere afsluttet menneskelig
aktivitet, der kan være relevant med henblik på de højrisikoanvendelser, der er opført i et bilag til denne
forordning. I betragtning af disse karakteristika tilføjer AI-systemet kun et ekstra lag til en menneskelig
aktivitet og udgør dermed en lavere risiko. Denne betingelse ville f.eks. gælde AI-systemer, der er
tilsigtet at forbedre det sprog, der er anvendt i tidligere udarbejdede dokumenter, f.eks. hvad angår
professionel tone og akademisk sprogbrug eller ved at tilpasse teksten til et bestemt produktbudskab. Den
tredje betingelse bør være, at AI-systemet er tilsigtet at påvise beslutningsmønstre eller afvigelser fra
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0020.png
20
tidligere beslutningsmønstre. Risikoen vil være lavere, fordi anvendelsen af AI-systemet følger efter en
tidligere afsluttet menneskelig vurdering, som det ikke er tiltænkt at skulle erstatte eller påvirke uden
en ordentlig menneskelig gennemgang. Sådanne AI-systemer omfatter f. eks. systemer, der ud fra en
lærers bestemte bedømmelsesmønster kan anvendes til efterfølgende at kontrollere, om læreren kan have
afveget fra bedømmelsesmønstret, således at potentielle uoverensstemmelser eller uregelmæssigheder
identificeres. Den fjerde betingelse bør være, at AI-systemet er tilsigtet kun at udføre en forberedende
opgave inden en vurdering, der er relevant med henblik på de AI-systemer, der er opført i et bilag
til denne forordning, hvilket gør den mulige virkning af systemets output meget lav med hensyn til at
udgøre en risiko for den efterfølgende vurdering. Denne betingelse omfatter bl.a. intelligente løsninger til
filhåndtering, som indeholder forskellige funktioner såsom indeksering, søgning, tekst- og talebehandling
eller sammenkobling af data til andre datakilder, eller AI-systemer, der anvendes til oversættelse af
oprindelige dokumenter. Under alle omstændigheder bør AI-systemer, som anvendes i tilfælde af højrisi-
koanvendelser, der er opført i et bilag til denne forordning, betragtes som at udgøre en betydelig risiko
for skade på fysiske personers sundhed, sikkerhed eller grundlæggende rettigheder, hvis AI-systemet
indebærer profilering som omhandlet i artikel 4, nr. 4), i forordning (EU) 2016/679, eller artikel 3, nr.
4), i direktiv (EU) 2016/680 eller artikel 3, nr. 5), i forordning (EU) 2018/1725. For at sikre sporbarhed
og gennemsigtighed bør en udbyder, der skønner, at et AI-system ikke udgør en høj risiko på grundlag
af de ovenfor omhandlede betingelser, udarbejde dokumentation for vurderingen, inden systemet bringes
i omsætning eller ibrugtages, og bør efter anmodning forelægge denne dokumentation for de nationale
kompetente myndigheder. En sådan udbyder bør være forpligtet til at registrere AI-systemet i den EU-da-
tabase, der oprettes i henhold til nærværende forordning. Med henblik på at give yderligere vejledning
om den praktiske gennemførelse af de betingelser, i henhold til hvilke de AI-systemer, der er opført i
et bilag til nærværende forordning, undtagelsesvis er ikkehøjrisiko, bør Kommissionen efter høring af
AI-udvalget udarbejde retningslinjer, der præciserer denne praktiske gennemførelse, suppleret med en
omfattende liste over praktiske eksempler på anvendelsestilfælde af AI-systemer, der er højrisiko, og
anvendelsestilfælde, der ikke er.
(54) Da biometriske data udgør en særlig kategori af personoplysninger, er det hensigtsmæssigt at
klassificere flere kritiske anvendelsestilfælde af biometriske systemer som højrisiko, for så vidt som deres
anvendelse er tilladt i henhold til relevant EU-ret og national ret. Tekniske unøjagtigheder i AI-systemer,
der er tilsigtet biometrisk fjernidentifikation af fysiske personer, kan føre til resultater behæftet med
bias og have forskelsbehandlende virkning. Risikoen for sådanne mulige resultater behæftet med bias
og forskelsbehandlende virkninger er særligt relevante med hensyn til alder, etnicitet, race, køn og
handicap. Systemer til biometrisk fjernidentifikation bør derfor klassificeres som højrisiko i betragtning
af de risici, systemerne udgør. En sådan klassificering udelukker AI-systemer, der tilsigtes anvendt til
biometrisk verifikation, herunder autentifikation, hvis eneste formål er at bekræfte, at en bestemt fysisk
person er den person, vedkommende hævder at være, og bekræfte en fysisk persons identitet udelukkende
med det formål at få adgang til en tjeneste, låse udstyr op eller have sikker adgang til lokaler. Desuden
bør AI-systemer, der tilsigtes anvendt til biometrisk kategorisering ifølge følsomme egenskaber eller
karakteristika, som er beskyttet i henhold til artikel 9, stk. 1, i forordning (EU) 2016/679, på grundlag
af biometriske data, for så vidt som disse ikke er forbudt i henhold til nærværende forordning, og
systemer til følelsesgenkendelse, der ikke er forbudt i henhold til nærværende forordning, klassificeres
som højrisiko. Biometriske systemer, der udelukkende er tilsigtet anvendt til at muliggøre cybersikker-
hedsforanstaltninger og foranstaltninger til beskyttelse af personoplysninger, bør ikke betragtes som
højrisiko-AI-systemer.
(55) For så vidt angår forvaltning og drift af kritisk infrastruktur bør AI-systemer, der tilsigtes anvendt
som sikkerhedskomponenter i forvaltningen og driften af kritisk digital infrastruktur som opført i bilaget,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0021.png
21
punkt 8, til direktiv (EU) 2022/2557, vejtrafik og forsyning af vand, gas, varme og elektricitet, klassifice-
res som højrisiko, da svigt eller funktionsfejl i disse systemer kan bringe menneskers liv og sundhed i fare
i stor målestok og føre til betydelige forstyrrelser i de sociale og økonomiske aktiviteter. Sikkerhedskom-
ponenter i kritisk infrastruktur, herunder kritisk digital infrastruktur, er systemer, der anvendes til direkte
at beskytte den kritiske infrastrukturs fysiske integritet eller personers sundhed og sikkerhed og ejendom,
men som ikke er nødvendige for, at systemet kan fungere. Svigt eller funktionsfejl i sådanne komponenter
kan direkte medføre risici for den kritiske infrastrukturs fysiske integritet og dermed risici for personers
sundhed og sikkerhed og ejendom. Komponenter, der udelukkende tilsigtes anvendt til cybersikkerheds-
formål, bør ikke betragtes som sikkerhedskomponenter. Eksempler på sikkerhedskomponenter i en sådan
kritisk infrastruktur kan omfatte systemer til overvågning af vandtryk eller brandalarmkontrolsystemer i
cloudcomputingcentre.
(56) Det er vigtigt at idriftsætte AI-systemer inden for uddannelse for at fremme digital uddannelse og
træning af høj kvalitet og for at give alle lærende og lærere mulighed for at tilegne sig og dele de
nødvendige digitale færdigheder og kompetencer, herunder mediekendskab, og kritisk tænkning, til at
deltage aktivt i økonomien, samfundet og de demokratiske processer. AI-systemer, der anvendes inden for
uddannelse eller erhvervsuddannelse, navnlig til at bestemme adgang eller optagelse, til at fordele person-
er på uddannelsesinstitutioner eller uddannelser på alle niveauer, til at evaluere personers læringsudbytte,
til at bedømme en persons nødvendige uddannelsesniveau og væsentligt påvirke den uddannelse, som
den pågældende person vil modtage eller vil kunne få adgang til, eller til at overvåge og opdage forbudt
adfærd blandt studerende under prøver, bør dog klassificeres som højrisiko-AI-systemer, da de kan afgøre
en persons uddannelsesmæssige og arbejdsmæssige livsforløb og dermed kan påvirke denne persons
mulighed for at sikre sig et livsgrundlag. Hvis sådanne systemer udformes og anvendes forkert, kan de
være særligt indgribende og krænke retten til uddannelse samt retten til ikke at blive forskelsbehandlet
og gøre historiske forskelsbehandlingsmønstre permanente, f.eks. mod kvinder, bestemte aldersgrupper,
personer med handicap eller personer af bestemt racemæssig eller etnisk oprindelse eller med en bestemt
seksuel orientering.
(57) AI-systemer, der anvendes inden for beskæftigelse, forvaltning af arbejdskraft og adgang til selv-
stændig erhvervsvirksomhed, navnlig til rekruttering og udvælgelse af personer, til at træffe beslutninger,
der påvirker vilkårene for det arbejdsrelaterede forhold, forfremmelse og ophør af arbejdsmæssige kon-
traktforhold, til fordeling af opgaver på grundlag af individuel adfærd, personlighedstræk eller personlige
egenskaber og til overvågning og evaluering af personer i arbejdsmæssige kontraktforhold, bør også
klassificeres som højrisiko, da de kan have en betydelig indvirkning på disse personers fremtidige
karrieremuligheder, livsgrundlag og arbejdstagerrettigheder. De relevante arbejdsmæssige kontraktforhold
bør på en meningsfuld måde omfatte ansatte og personer, der leverer tjenesteydelser via platforme som
omhandlet i Kommissionens arbejdsprogram for 2021. Gennem hele rekrutteringsprocessen og i forbin-
delse med evaluering, forfremmelse eller fastholdelse af personer i arbejdsrelaterede kontraktforhold kan
sådanne systemer gøre historiske forskelsbehandlingsmønstre permanente, f.eks. mod kvinder, bestemte
aldersgrupper, personer med handicap eller personer af bestemt racemæssig eller etnisk oprindelse eller
med en bestemt seksuel orientering. AI-systemer, der anvendes til at overvåge disse personers præstatio-
ner og adfærd, kan også underminere deres grundlæggende ret til databeskyttelse og ret til privatlivets
fred.
(58) Et andet område, hvor anvendelsen af AI-systemer kræver særlig opmærksomhed, er adgangen til
og benyttelsen af visse væsentlige private og offentlige tjenester og de ydelser, der er nødvendige for,
at mennesker kan deltage fuldt ud i samfundet eller forbedre deres levestandard. Navnlig er fysiske
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0022.png
22
personer, der ansøger om eller modtager væsentlige offentlige bistandsydelser og -tjenester fra offentlige
myndigheder, dvs. sundhedstjenester, socialsikringsydelser, sociale tjenester, der yder beskyttelse i tilfæl-
de af barsel, sygdom, arbejdsulykker, afhængighed eller alderdom og tab af beskæftigelse samt social
bistand og boligstøtte, typisk afhængige af sådanne ydelser og tjenester og befinder sig i en sårbar
situation i forhold til de ansvarlige myndigheder. Hvis der anvendes AI-systemer til at afgøre, om der
skal gives afslag på sådanne ydelser og tjenester, eller om de skal tildeles, nedsættes, tilbagekaldes eller
kræves tilbagebetalt af myndighederne, herunder om modtagerne reelt er berettigede til disse ydelser eller
tjenester, kan disse systemer have en betydelig indvirkning på menneskers livsgrundlag og kan krænke
deres grundlæggende rettigheder såsom retten til social beskyttelse, ikkeforskelsbehandling, menneskelig
værdighed eller adgang til effektive retsmidler, og de bør derfor klassificeres som højrisiko. Ikke desto
mindre bør denne forordning ikke hindre udviklingen eller anvendelsen af innovative tilgange i den
offentlige forvaltning, som står til at kunne drage fordel af en bredere anvendelse af AI-systemer, der er
i overensstemmelse med reglerne og er sikre, forudsat at de ikke indebærer en høj risiko for juridiske
og fysiske personer. Desuden bør AI-systemer, der anvendes til at evaluere fysiske personers kreditvur-
dering eller kreditværdighed, klassificeres som højrisiko-AI-systemer, da de afgør menneskers adgang
til finansielle ressourcer eller væsentlige tjenester såsom bolig, elektricitet og telekommunikationstjene-
ster. AI-systemer, der anvendes til disse formål, kan føre til forskelsbehandling mellem personer eller
grupper og kan gøre historiske forskelsbehandlingsmønstre permanente, f.eks. på grundlag af racemæssig
eller etnisk oprindelse, køn, handicap, alder eller seksuel orientering, eller være med til at skabe nye
former for forskelsbehandlende virkning. AI-systemer, der er fastsat i EU-retten med henblik på at
afsløre svig i forbindelse med tilbud af finansielle tjenesteydelser og for i tilsynsøjemed at beregne
kreditinstitutters og forsikringsselskabers kapitalkrav, bør dog ikke betragtes som højrisiko i henhold til
denne forordning. Desuden kan AI-systemer, der tilsigtes anvendt til risikovurdering og prisfastsættelse
i forbindelse med fysiske personer for så vidt angår syge- og livsforsikring, også have en betydelig
indvirkning på menneskers livsgrundlag og kan, hvis de ikke udformes, udvikles og anvendes behørigt,
krænke deres grundlæggende rettigheder og have alvorlige konsekvenser for menneskers liv og sundhed,
herunder økonomisk udstødelse og forskelsbehandling. Endelig bør AI-systemer, der anvendes til at vur-
dere og klassificere fysiske personers nødopkald eller til at udsende beredskabstjenester i nødsituationer
eller til at tildele prioriteter i forbindelse hermed, herunder fra politi, brandmænd og lægehjælp, samt
patientsorteringssystemer for førstehjælp, også klassificeres som højrisiko, da de træffer beslutninger i
situationer, der er meget kritiske for menneskers liv og sundhed og for deres ejendom.
(59) I betragtning af deres rolle og ansvar, er retshåndhævende myndigheders tiltag, der omfatter visse
anvendelser af AI-systemer, kendetegnet ved en betydelig magtubalance og kan føre til overvågning,
anholdelse eller frihedsberøvelse af fysiske personer samt have andre negative indvirkninger på de grund-
læggende rettigheder, der er sikret i chartret. Navnlig kan AI-systemer udvælge personer på forskelsbe-
handlende eller anden ukorrekt eller uretfærdig måde, hvis de ikke er trænet med data af høj kvalitet,
ikke opfylder passende krav med hensyn til deres ydeevne, nøjagtighed og robusthed eller ikke er korrekt
udformet og afprøvet, før de bringes i omsætning eller på anden måde ibrugtages. Desuden kan udøvelsen
af vigtige processuelle grundlæggende rettigheder såsom retten til adgang til effektive retsmidler, retten
til en retfærdig rettergang og retten til et forsvar samt uskyldsformodningen hindres, navnlig hvis sådanne
AI-systemer ikke er tilstrækkeligt gennemsigtige, forklarlige og dokumenterede. Derfor bør en række
AI-systemer, der tilsigtes anvendt i retshåndhævelsesmæssig sammenhæng, hvor det er særlig vigtigt med
nøjagtighed, pålidelighed og gennemsigtighed for at undgå negative virkninger, bevare offentlighedens
tillid og sikre ansvarlighed og effektive retsmidler, klassificeres som højrisiko, for så vidt som deres
anvendelse er tilladt i henhold til relevant EU-ret og national ret. I betragtning af aktiviteternes karakter
og de risici, der er forbundet hermed, bør disse højrisiko-AI-systemer navnlig omfatte AI-systemer, der
er tilsigtet anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0023.png
23
-kontorer eller -agenturer til støtte for retshåndhævende myndigheder til vurdering af risikoen for, at en
fysisk person bliver offer for strafbare handlinger, som polygrafer og lignende værktøjer, til vurdering
af pålideligheden af bevismateriale i forbindelse med efterforskning eller retsforfølgning af strafbare
handlinger og, for så vidt som det ikke er forbudt i henhold til denne forordning, til vurdering af risikoen
for, at en fysisk person begår eller på ny begår lovovertrædelser, der ikke udelukkende er baseret på
profilering af fysiske personer eller vurdering af fysiske personers eller gruppers personlighedstræk og
personlige egenskaber eller tidligere kriminelle adfærd, samt til profilering i forbindelse med afsløring,
efterforskning eller retsforfølgelse af strafbare handlinger. AI-systemer, der specifikt er tilsigtet anvendt
til skatte- og toldmyndigheders administrative procedurer og til finansielle efterretningstjenesters udførel-
se af administrative opgaver, der omfatter analyse af oplysninger i henhold til EU-retten om bekæmpelse
af hvidvask af penge, bør ikke klassificeres som højrisiko-AI-systemer, der anvendes af retshåndhævende
myndigheder med henblik på forebyggelse, afsløring, efterforskning og retsforfølgning af strafbare hand-
linger. Retshåndhævende og andre relevante myndigheders anvendelse af AI-værktøjer bør ikke blive en
faktor, der bidrager til ulighed eller eksklusion. Den indvirkning, som anvendelsen af AI-værktøjer har
på mistænktes ret til forsvar, bør ikke ignoreres, navnlig vanskelighederne ved at skaffe meningsfulde
oplysninger om, hvordan disse systemer fungerer, og de deraf følgende vanskeligheder ved at anfægte
resultaterne heraf i retten, navnlig for fysiske personer, der efterforskes.
(60) AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, berører
personer, der ofte befinder sig i en særlig sårbar situation, og som er afhængige af resultatet af de
kompetente offentlige myndigheders tiltag. Nøjagtigheden, den ikkeforskelsbehandlende karakter og
gennemsigtigheden af de AI-systemer, der anvendes i disse sammenhænge, har derfor særlig betydning
med hensyn til at sikre, at de berørte personers grundlæggende rettigheder respekteres, navnlig deres
ret til fri bevægelighed, ikkeforskelsbehandling, beskyttelse af privatlivets fred og personoplysninger,
international beskyttelse og god forvaltning. Derfor bør der, for så vidt som deres anvendelse er tilladt
i henhold til relevant EU-ret og national ret, foretages en højrisikoklassificering af AI-systemer, der er
tilsigtet anvendt af eller på vegne af de kompetente offentlige myndigheder eller af EU-institutioner,
-organer, -kontorer eller -agenturer, der er ansvarlige for opgaver inden for migrationsstyring, asylforvalt-
ning og grænsekontrol, som polygrafer og lignende værktøjer, til at vurdere visse risici, som fysiske
personer, der indrejser til en medlemsstats område eller ansøger om visum eller asyl, udgør, til at bistå
de kompetente offentlige myndigheder i behandlingen, herunder tilhørende vurdering af pålideligheden
af bevismateriale, af ansøgninger om asyl, visum og opholdstilladelse og hertil relaterede klager med
henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, med henblik på at opdage,
genkende eller identificere fysiske personer i forbindelse med migrationsstyring, asylforvaltning og
grænsekontrolforvaltning, bortset fra verificering af rejselegitimation. AI-systemer, der anvendes inden
for migrationsstyring, asylforvaltning og grænsekontrol, og som er omfattet af denne forordning, bør
overholde de relevante proceduremæssige krav i Europa-Parlamentets og Rådets forordning (EF) nr.
810/2009 (
32
), Europa-Parlamentets og Rådets direktiv 2013/32/EU (
33
) og anden relevant EU-ret. Anven-
delsen af AI-systemer inden for migrationsstyring, asylforvaltning og grænsekontrol bør under ingen
omstændigheder benyttes af medlemsstater eller EU-institutioner, -organer, -kontorer eller -agenturer
som en måde at omgå deres internationale forpligtelser i henhold til FN�½s konvention om flygtninges
retsstilling indgået i Genève den 28. juli 1951, som ændret ved protokollen af 31. januar 1967, og de
bør heller ikke anvendes på en måde, der krænker princippet om non-refoulement eller nægter sikre og
effektive lovlige adgangsveje til Unionens område, herunder retten til international beskyttelse.
(61) Visse AI-systemer, der er tilsigtet anvendelse inden for retspleje og i demokratiske processer,
bør klassificeres som højrisiko i betragtning af deres potentielt betydelige indvirkning på demokratiet,
retsstatsprincippet, individets frihedsrettigheder samt retten til adgang til effektive retsmidler og retten
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0024.png
24
til en retfærdig rettergang. Navnlig for at imødegå risikoen for bias, fejl og uigennemsigtighed bør de
AI-systemer, der tilsigtes anvendt af judicielle myndigheder eller på deres vegne for at bistå judicielle
myndigheder med at fortolke fakta og lovgivningen og anvende lovgivningen på konkrete sagsforhold,
klassificeres som højrisiko. AI-systemer, der tilsigtes anvendt af alternative tvistbilæggelsesorganer til
disse formål, bør også betragtes som højrisiko, når resultaterne af den alternative tvistbilæggelsesproced-
ure har retsvirkninger for parterne. Anvendelsen af AI-værktøjer kan understøtte, men bør ikke erstatte
dommernes beslutningskompetence eller retsvæsenets uafhængighed, da den endelige beslutningstagning
fortsat skal være en menneskedrevet aktivitet. Klassificeringen af AI-systemer som højrisiko bør dog ikke
omfatte AI-systemer, der kun tilsigtes supplerende administrative aktiviteter, som ikke har indflydelse på
den egentlige retspleje i de enkelte sager, som f.eks. anonymisering eller pseudonymisering af retsafgørel-
ser, dokumenter eller data, kommunikation mellem personale eller administrative opgaver.
(62) Uden at det berører de regler, der er fastsat i Europa-Parlamentets og Rådets forordning (EU)
2024/900 (
34
), og for at imødegå risikoen for unødig ekstern indblanding i retten til at stemme, der er
nedfældet i chartrets artikel 39, og for negative indvirkninger på demokratiet og retsstatsprincippet bør
AI-systemer, der tilsigtes anvendt til at påvirke resultatet af et valg eller en folkeafstemning eller fysiske
personers stemmeadfærd i forbindelse med udøvelsen af deres stemme ved valg eller folkeafstemninger,
klassificeres som højrisiko-AI-systemer med undtagelse af AI-systemer, hvis output fysiske personer
ikke er direkte eksponeret for, såsom værktøjer, der anvendes til at organisere, optimere og strukturere
politiske kampagner ud fra et administrativt og logistisk synspunkt.
(63) Klassificeringen af et AI-system som et højrisiko-AI-system i henhold til denne forordning bør ikke
fortolkes således, at anvendelsen af systemet er lovlig i medfør af andre EU-retsakter eller i medfør af
national ret, der er forenelig med EU-retten, som f.eks. om beskyttelsen af personoplysninger, brug af
polygrafer og lignende værktøjer eller andre systemer til at påvise fysiske personers følelsesmæssige
tilstand. Enhver sådan anvendelse bør fortsat udelukkende ske i overensstemmelse med de gældende krav,
der følger af chartret og gældende afledt EU-ret og national ret. Denne forordning bør ikke forstås som et
retsgrundlag for behandling af personoplysninger, herunder særlige kategorier af personoplysninger, hvis
det er relevant, medmindre andet specifikt er fastsat i denne forordning.
(64) For at begrænse risiciene fra højrisiko-AI-systemer, der bringes i omsætning eller ibrugtages og
for at sikre en høj grad af troværdighed, bør der gælde visse obligatoriske krav for højrisiko-AI-syste-
mer, under hensyntagen til det tilsigtede formål og i forbindelse med anvendelsen af AI-systemet og i
overensstemmelse med det risikostyringssystem, som udbyderen skal indføre. De foranstaltninger, som
udbyderne vedtager for at overholde de obligatoriske krav i denne forordning, bør tage højde for det
generelt anerkendte aktuelle teknologiske niveau inden for AI og være forholdsmæssige og effektive
med hensyn til at nå denne forordnings mål. På grundlag af den nye lovgivningsmæssige ramme, som
præciseret i Kommissionens meddelelse om den blå vejledning om gennemførelsen af EU�½s produktregler
2022, er den generelle regel, at mere end én EU-harmoniseringslovgivningsretsakt kan finde anvendelse
på ét produkt, da tilgængeliggørelsen eller ibrugtagningen kun kan finde sted, når produktet overholder al
gældende EU-harmoniseringslovgivning. Farerne ved de AI-systemer, der er omfattet af kravene i denne
forordning, vedrører andre aspekter end den gældende EU-harmoniseringslovgivning, og kravene i denne
forordning vil derfor supplere den gældende EU-harmoniseringslovgivning. Maskiner eller medicinsk
udstyr, der indeholder et AI-system, kan f.eks. udgøre risici, der ikke er omfattet af de væsentlige
sikkerheds- og sundhedskrav i den relevante EU-harmoniseringslovgivning, da denne sektorspecifikke ret
ikke omhandler risici, der er specifikke for AI-systemer. Dette kræver, at de forskellige retsakter anvendes
samtidigt og på supplerende vis. For at sikre konsekvens og undgå en unødvendig administrativ byrde
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0025.png
25
eller unødvendige omkostninger bør udbydere af et produkt, der indeholder et eller flere højrisiko-AI-sy-
stemer, som kravene i denne forordning samt kravene i EU-harmoniseringslovgivningen baseret på den
nye lovgivningsmæssige ramme og opført i et bilag til denne forordning finder anvendelse på, have
fleksibilitet med hensyn til at træffe operationelle beslutninger om, hvordan det sikres, at et produkt,
der indeholder et eller flere AI-systemer, overholder alle gældende krav i denne EU-harmoniseringslov-
givning på en optimal måde. Denne fleksibilitet kan f.eks. betyde, at udbyderen beslutter at integrere en
del af de nødvendige afprøvnings- og rapporteringsprocesser, oplysninger og dokumentation, der kræves i
henhold til denne forordning, i allerede eksisterende dokumentation og procedurer, som kræves i henhold
til den gældende EU-harmoniseringslovgivning, der er baseret på den nye lovgivningsmæssige ramme,
og som er opført i et bilag til denne forordning. Dette bør på ingen måde underminere udbyderens
forpligtelse til at overholde alle gældende krav.
(65) Risikostyringssystemet bør bestå af en kontinuerlig iterativ proces, der er planlagt og løber i hele
højrisiko-AI-systemets livscyklus. Denne proces bør sigte mod at identificere og afbøde de relevante
risici ved AI-systemer for sundheden, sikkerheden og de grundlæggende rettigheder. Risikostyringssyste-
met bør regelmæssigt revideres og ajourføres for at sikre dets fortsatte effektivitet samt begrundelse og
dokumentation for eventuelle væsentlige beslutninger og tiltag, der træffes eller foretages i henhold til
denne forordning. Denne proces bør sikre, at udbyderen identificerer risici eller negative indvirkninger
og gennemfører afbødende foranstaltninger for kendte og rimeligt forudsigelige risici ved AI-systemer
for sundheden, sikkerheden og de grundlæggende rettigheder i lyset af deres tilsigtede formål og fejlan-
vendelse, der med rimelighed kan forudses, herunder de mulige risici som følge af interaktionen mellem
AI-systemet og det miljø, som systemet fungerer i. Risikostyringssystemet bør indføre de mest hensigts-
mæssige risikostyringsforanstaltninger i lyset af det aktuelle teknologiske niveau inden for AI. Udbyderen
bør ved identifikation af de mest hensigtsmæssige risikostyringsforanstaltninger dokumentere og forklare
de valg, der er truffet, og, hvis det er relevant, inddrage eksperter og eksterne interessenter. I forbindelse
med identifikation af fejlanvendelse, der med rimelighed kan forudses, af højrisiko-AI-systemer bør
udbyderen medtage anvendelser af AI-systemer, som, selv om de ikke er direkte omfattet af det tilsigtede
formål og fastsat i brugsanvisningen, ikke desto mindre med rimelighed kan forventes at skyldes let
forudsigelig menneskelig adfærd i forbindelse med et bestemt AI-systems specifikke karakteristika og an-
vendelse. Alle kendte eller forudsigelige omstændigheder, som i forbindelse med anvendelse af højrisiko-
AI-systemet i overensstemmelse med dets tilsigtede formål eller ved fejlanvendelse, der med rimelighed
kan forudses, kan medføre risici for menneskers sundhed og sikkerhed eller grundlæggende rettigheder,
bør medtages i den brugsanvisning, som leveres af udbyderen. Dette skal sikre, at idriftsætteren er
bekendt med og tager hensyn hertil, når vedkommende anvender højrisiko-AI-systemet. Identifikation
og gennemførelse af risikobegrænsende foranstaltninger for forudsigelig fejlanvendelse i henhold til
denne forordning bør ikke kræve specifikke yderligere træning for højrisiko-AI-systemet fra udbyderens
side for at afhjælpe forudsigelig fejlanvendelse. Udbyderne opfordres imidlertid til at overveje sådanne
yderligere træningsforanstaltninger for at afbøde fejlanvendelser, der med rimelighed kan forudses, når
det er nødvendigt og hensigtsmæssigt.
(66) Der bør gælde krav for højrisiko-AI-systemer med hensyn til risikostyring, kvaliteten og relevansen
af anvendte datasæt, teknisk dokumentation og registrering, gennemsigtighed og formidling af oplysnin-
ger til idriftsætterne, menneskeligt tilsyn og robusthed, nøjagtighed og cybersikkerhed. Disse krav er
nødvendige for effektivt at mindske risiciene for sundhed, sikkerhed og grundlæggende rettigheder. Da
ingen foranstaltninger, der er mindre begrænsende for handelen, er tilgængelige på rimelig vis, er disse
krav ikke uberettigede handelsrestriktioner.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0026.png
26
(67) Data af høj kvalitet og adgang til data af høj kvalitet spiller en afgørende rolle med hensyn
til at skabe struktur og sikre mange AI-systemers ydeevne, navnlig når der anvendes teknikker, der
omfatter træning af modeller, så det sikres, at højrisiko-AI-systemet yder som tilsigtet og på sikker vis
og ikke bliver en kilde til forskelsbehandling, som er forbudt i henhold til EU-retten. Datasæt af høj
kvalitet til træning, validering og afprøvning kræver, at der indføres passende former for datastyrings-
og dataforvaltningspraksis. Datasæt til træning, validering og afprøvning, herunder mærkninger, bør være
relevante, tilstrækkeligt repræsentative og i videst muligt omfang fejlfrie og fuldstændige i lyset af
AI-systemets tilsigtede formål. For at lette overholdelsen af EU-databeskyttelsesretten såsom forordning
(EU) 2016/679 bør datastyrings- og -forvaltningspraksis i tilfælde af personoplysninger omfatte gennem-
sigtighed med hensyn til det oprindelige formål med dataindsamlingen. Datasættene bør også have de
tilstrækkelige statistiske egenskaber, herunder med hensyn til de personer eller grupper af personer, som
højrisiko-AI-systemet er tilsigtet at blive anvendt på, med særlig vægt på afbødning af mulige bias i data-
sættene, som sandsynligvis vil påvirke menneskers sundhed og sikkerhed, have en negativ indvirkning
på grundlæggende rettigheder eller føre til forskelsbehandling, der er forbudt i henhold til EU-retten,
navnlig hvis dataoutput påvirker input til fremtidige operationer (»feedbacksløjfer«). Bias kan f.eks. være
en iboende del af de underliggende datasæt, navnlig når der anvendes historiske data, eller kan genereres,
når systemerne implementeres under virkelige forhold. De resultater, der leveres af AI-systemer, kan
påvirkes af sådanne iboende bias, som er tilbøjelige til gradvist at øges og derved videreføre og forstærke
eksisterende forskelsbehandling, navnlig for personer, der tilhører bestemte sårbare grupper, herunder
racemæssige eller etniske grupper. Kravet om, at datasættene så vidt muligt skal være fuldstændige og
fejlfrie, bør ikke påvirke anvendelsen af teknikker til beskyttelse af privatlivets fred i forbindelse med
udvikling og afprøvning af AI-systemer. Navnlig bør datasæt, i det omfang det er nødvendigt af hensyn
til deres tilsigtede formål, tage hensyn til de karakteristiske træk, egenskaber eller elementer, der er
særlige for den specifikke geografiske, kontekstuelle, adfærdsmæssige eller funktionelle ramme, inden
for hvilken AI-systemet tiltænkes anvendt. Kravene vedrørende datastyring kan overholdes ved at gøre
brug af tredjeparter, der tilbyder certificerede overholdelsestjenester, herunder verifikation af datastyring
og datasætintegritet samt datatrænings-, validerings- og afprøvningspraksis, for så vidt som det sikres, at
datakravene i denne forordning overholdes.
(68) Med henblik på udvikling og vurdering af højrisiko-AI-systemer bør visse aktører, som for eksempel
udbydere, bemyndigede organer og andre relevante enheder såsom europæiske digitale innovationsknude-
punkter, afprøvnings- og forsøgsfaciliteter og forskere, have adgang til og kunne anvende datasæt af høj
kvalitet inden for aktivitetsområderne for de aktører, som er relateret til denne forordning. Fælles europæ-
iske dataområder, som Kommissionen har oprettet, og lette af datadeling mellem virksomheder og med
myndigheder i samfundets interesse vil være afgørende for at sikre pålidelig, ansvarlig og ikkeforskels-
behandlende adgang til data af høj kvalitet til træning, validering og afprøvning af AI-systemer. På sund-
hedsområdet vil det europæiske sundhedsdataområde for eksempel lette ikkeforskelsbehandlende adgang
til sundhedsdata og træning af AI-algoritmer på disse datasæt på en måde, der beskytter privatlivets fred,
er sikker, rettidig, gennemsigtig og troværdig og underlagt en passende institutionel styring. Relevante
kompetente myndigheder, herunder sektorspecifikke myndigheder, der giver eller understøtter adgang til
data, kan også understøtte tilvejebringelsen af data af høj kvalitet til træning, validering og afprøvning af
AI-systemer.
(69) Retten til privatlivets fred og til beskyttelse af personoplysninger skal sikres i hele AI-systemets
livscyklus. I den forbindelse finder principperne om dataminimering og databeskyttelse gennem design
og databeskyttelse gennem standardindstillinger som fastsat i EU-databeskyttelsesretten anvendelse, når
personoplysninger behandles. Foranstaltninger, der træffes af udbydere for at sikre overholdelse af disse
principper, kan ikke blot omfatte anonymisering og kryptering, men også anvendelse af teknologi, der
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0027.png
27
gør det muligt at overføre algoritmer til data og opnå oplæring af AI-systemer uden overførsel mellem
parterne eller kopiering af de rå eller strukturerede data, uden at dette berører kravene til datastyring i
denne forordning.
(70) For at beskytte andres ret mod den forskelsbehandling, der kan opstå som følge af bias i AI-systemer,
bør udbyderne undtagelsesvis, i det omfang det er strengt nødvendigt for at sikre påvisning og korrektion
af bias i forbindelse med højrisiko-AI-systemer, med forbehold af passende sikkerhedsforanstaltninger for
fysiske personers grundlæggende rettigheder og friheder og efter anvendelse af alle gældende betingelser,
der er fastsat i denne forordning, ud over betingelserne i forordning (EU) 2016/679 og (EU) 2018/1725
samt direktiv (EU) 2016/680, også kunne behandle særlige kategorier af personoplysninger som et
spørgsmål af væsentlig samfundsinteresse som omhandlet i artikel 9, stk. 2, litra g), i forordning (EU)
2016/679 og artikel 10, stk. 2, litra g), i forordning (EU) 2018/1725.
(71) Det er afgørende, at der foreligger forståelige oplysninger om, hvordan højrisiko-AI-systemer er
blevet udviklet, og hvordan de yder i hele deres levetid for at gøre det muligt at spore disse systemer,
kontrollere overholdelsen af kravene i denne forordning samt sikre overvågning af deres operationer og
overvågning efter omsætningen. Det kræver, at der føres fortegnelser og stilles en teknisk dokumentation
til rådighed, som indeholder de oplysninger, der er nødvendige for at vurdere AI-systemets overholdel-
se af de relevante krav og letter overvågning efter omsætningen. Sådanne oplysninger bør omfatte
systemets generelle egenskaber, kapacitet og begrænsninger, algoritmer, data, trænings-, afprøvnings- og
valideringsprocesser samt dokumentation for det relevante risikostyringssystem og være udarbejdet på en
klar og forståelig måde. Den tekniske dokumentation skal holdes tilstrækkeligt ajour i hele AI-systemets
levetid. Højrisiko-AI-systemer bør teknisk muliggøre automatisk registrering af hændelser ved hjælp af
logfiler under systemets levetid.
(72) For at imødegå bekymringer vedrørende visse AI-systemers uigennemsigtighed og kompleksitet og
hjælpe idriftsættere med at opfylde deres forpligtelser i henhold til denne forordning bør der kræves
gennemsigtighed for højrisiko-AI-systemer, inden de bringes i omsætning eller ibrugtages. Højrisiko-AI-
systemer bør udformes på en måde, der gør det muligt for idriftsættere at forstå, hvordan AI-systemet
fungerer, evaluere dets funktionalitet og forstå dets styrker og begrænsninger. Højrisiko-AI-systemer
bør ledsages af passende oplysninger i form af brugsanvisninger. Sådanne oplysninger bør omfatte AI-sy-
stemets egenskaber, kapacitet og begrænsninger for dets ydeevne. Disse kan omfatte oplysninger om
mulige kendte og forudsigelige omstændigheder i forbindelse med anvendelse af højrisiko-AI-systemet,
herunder udbredelsestiltag, der kan påvirke systemets adfærd og ydeevne, under hvilke AI-systemet kan
medføre risici for sundhed, sikkerhed og grundlæggende rettigheder, om de ændringer, som udbyderen på
forhånd har fastlagt og vurderet med henblik på overensstemmelse, og om de relevante foranstaltninger
til menneskeligt tilsyn, herunder foranstaltninger til at lette idriftsætteres fortolkning af AI-systemets out-
put. Gennemsigtighed, herunder den ledsagende brugsanvisning, bør hjælpe idriftsættere med at anvende
systemet og støtte deres informerede beslutningstagning. Idriftsættere bør bl.a. være bedre i stand til
at træffe det korrekte valg af det system, de har til hensigt at anvende, i lyset af de forpligtelser, der
gælder for dem, være informeret om de tilsigtede og udelukkede anvendelser og anvende AI-systemet
korrekt og som det er hensigtsmæssigt. For at gøre oplysningerne i brugsanvisningen mere læsbare og
tilgængelige, bør der, hvis det er relevant, medtages illustrative eksempler, f.eks. om begrænsninger og
om AI-systemets tilsigtede og udelukkede anvendelser. Udbyderne bør sikre, at al dokumentation, herun-
der brugsanvisningen, indeholder meningsfulde, omfattende, tilgængelige og forståelige oplysninger, der
tager hensyn til behov for målgruppen af idriftsættere og deres forventede viden. Brugsanvisningen bør
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0028.png
28
stilles til rådighed på et for målgruppen af idriftsættere letforståeligt sprog, som fastsat af den pågældende
medlemsstat.
(73) Højrisiko-AI-systemer bør udformes og udvikles på en sådan måde, at fysiske personer kan overvåge
deres funktion og sikre, at de anvendes som tilsigtet, og at deres virkninger håndteres i hele systemets
livscyklus. Med henblik herpå bør udbyderen af systemet fastlægge passende foranstaltninger til menne-
skeligt tilsyn, inden systemet bringes i omsætning eller ibrugtages. Hvis det er relevant, bør sådanne
foranstaltninger navnlig sikre, at systemet er underlagt indbyggede driftsmæssige begrænsninger, som
ikke kan tilsidesættes af systemet selv, og reagerer på den menneskelige operatør, og at de fysiske
personer, som har fået til opgave at varetage det menneskelige tilsyn, har den nødvendige kompetence,
uddannelse og myndighed til at varetage rollen. Det er også afgørende i relevant omfang at sikre, at højri-
siko-AI-systemer indeholder mekanismer, der kan vejlede og informere en fysisk person, som har fået til
opgave at varetage det menneskelige tilsyn, til at træffe informerede beslutninger om, hvorvidt, hvornår
og hvordan der skal gribes ind for at undgå negative konsekvenser eller risici, eller standse systemet,
hvis det ikke fungerer som tilsigtet. I betragtning af de betydelige konsekvenser for personer i tilfælde
af et ukorrekt match fra visse systemer til biometrisk identifikation er det hensigtsmæssigt at fastsætte
et skærpet krav om menneskeligt tilsyn for disse systemer, således at idriftsætteren ikke foretager tiltag
eller træffer beslutninger på grundlag af den identifikation, der er frembragt af systemet, medmindre den
er blevet verificeret og bekræftet separat af mindst to fysiske personer. Disse personer kan være fra en
eller flere enheder og omfatte den person, der driver eller anvender systemet. Dette krav bør ikke medføre
unødvendige byrder eller forsinkelser, og det kan være tilstrækkeligt, at de forskellige personers særskilte
verifikationer automatisk registreres i de logfiler, der genereres af systemet. I betragtning af de særlige
forhold, der gør sig gældende inden for retshåndhævelse, migration, grænsekontrol og asyl, bør dette
krav ikke finde anvendelse, når EU-retten eller national ret anser anvendelsen af dette krav for at være
uforholdsmæssig.
(74) Højrisiko-AI-systemer bør yde konsistent i hele deres livscyklus og have et passende niveau af
nøjagtighed, robusthed og cybersikkerhed i lyset af deres tilsigtede formål og i overensstemmelse med
det generelt anerkendte aktuelle teknologiske niveau. Kommissionen og relevante organisationer og
interessenter opfordres til at tage behørigt hensyn til afbødningen af risici og de negative indvirkninger
ved AI-systemet. Det forventede niveau for ydeevneparametre bør angives i den ledsagende brugsanvis-
ning. Udbyderne opfordres indtrængende til at videregive disse oplysninger til idriftsætterne på en klar
og letforståelig måde uden misforståelser eller vildledende udsagn. EU-ret om retslig metrologi, herunder
Europa-Parlamentets og Rådets direktiv 2014/31/EU (
35
) og 2014/32/EU (
36
), har til formål at sikre
målingernes nøjagtighed og bidrage til gennemsigtighed og retfærdighed i handelstransaktioner. I denne
forbindelse bør Kommissionen, alt efter hvad der er relevant og i samarbejde med relevante interessenter
og organisationer såsom metrologi- og benchmarkingmyndigheder, tilskynde til udvikling af benchmarks
og målemetoder for AI-systemer. Kommissionen bør herved notere sig og samarbejde med internationale
partnere, der arbejder med metrologi og relevante måleindikatorer vedrørende AI.
(75) Teknisk robusthed er et centralt krav for højrisiko-AI-systemer. De bør være modstandsdygtige
i forbindelse med skadelig eller på anden vis uønsket adfærd, der kan skyldes begrænsninger i syste-
merne eller det miljø, som systemerne fungerer i (f.eks. fejl, svigt, uoverensstemmelser og uventede
situationer). Der bør derfor træffes tekniske og organisatoriske foranstaltninger for at sikre højrisiko-AI-
systemers robusthed, f.eks. ved at udforme og udvikle passende tekniske løsninger for at forebygge
eller minimere denne skadelige eller på anden måde uønskede adfærd. Disse tekniske løsninger kan
f.eks. omfatte mekanismer, der gør det muligt for systemet på sikker vis at afbryde dets drift (»fail-safe
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0029.png
29
plans«), hvis der opstår visse uregelmæssigheder, eller hvis driften ligger uden for visse forudbestemte
grænser. Manglende beskyttelse mod disse risici kan have sikkerhedsmæssige konsekvenser eller en
negativ indvirkning på de grundlæggende rettigheder, f.eks. som følge af fejlagtige beslutninger eller
forkerte output eller output behæftet med bias genereret af AI-systemet.
(76) Cybersikkerhed spiller en afgørende rolle med hensyn til at sikre, at AI-systemer er modstandsdygti-
ge over for ondsindede tredjeparters forsøg på at ændre deres anvendelse, adfærd eller ydeevne eller brin-
ge deres sikkerhedsegenskaber i fare ved at udnytte systemets sårbarheder. Cyberangreb mod AI-systemer
kan udnytte AI-specifikke aktiver såsom træningsdatasæt (f.eks. dataforgiftning) eller trænede modeller
(f.eks. ondsindede angreb eller »membership inference«) eller udnytte sårbarheder i AI-systemets digitale
aktiver eller den underliggende IKT-infrastruktur. For at sikre et cybersikkerhedsniveau, der er passende i
forhold til risiciene, bør udbydere af højrisiko-AI-systemer træffe passende foranstaltninger såsom sikker-
hedskontroller, idet der også i relevant omfang tages hensyn til den underliggende IKT-infrastruktur.
(77) Uden at det berører de krav til robusthed og nøjagtighed, der er fastsat i denne forordning,
kan højrisiko-AI-systemer, der er omfattet af anvendelsesområdet for en forordning vedtaget af Euro-
pa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer, i
overensstemmelse med nævnte forordning påvise overholdelse af cybersikkerhedskravene i nærværende
forordning ved at opfylde de væsentlige cybersikkerhedskrav, der er fastsat i nævnte forordning. Når
højrisiko-AI-systemer opfylder de væsentlige krav i en forordning vedtaget af Europa-Parlamentet og
Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer, bør de anses for at
overholde cybersikkerhedskravene i nærværende forordning, for så vidt opfyldelsen af disse krav påvises
ved EU-overensstemmelseserklæringen eller dele heraf udstedt i henhold til nævnte forordning. Med
henblik herpå bør vurderingen af de cybersikkerhedsrisici, der er forbundet med et produkt med digitale
elementer klassificeret som et højrisiko-AI-system i henhold til nærværende forordning, og som foretages
i henhold til en forordning vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav
til produkter med digitale elementer tage hensyn til risici for et AI-systems cyberrobusthed for så vidt
angår uautoriserede tredjeparters forsøg på at ændre dets anvendelse, adfærd eller ydeevne, herunder
AI-specifikke sårbarheder såsom dataforgiftning eller ondsindede angreb, samt, hvis det er relevant, risici
for grundlæggende rettigheder som krævet i nærværende forordning.
(78) Overensstemmelsesvurderingsproceduren i denne forordning bør finde anvendelse i forbindelse med
de væsentlige cybersikkerhedskrav til et produkt med digitale elementer, der er omfattet af en forordning
vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter med digitale
elementer og klassificeret som et højrisiko-AI-system i henhold til nærværende forordning. Denne regel
bør dog ikke resultere i en reduktion af det nødvendige sikkerhedsniveau for kritiske produkter med digi-
tale elementer, der er omfattet af en forordning vedtaget af Europa-Parlamentet og Rådet om horisontale
cybersikkerhedskrav til produkter med digitale elementer. Uanset denne regel bør højrisiko-AI-systemer,
der er omfattet af anvendelsesområdet for nærværende forordning og også betragtes som vigtige og
kritiske produkter med digitale elementer i henhold til en forordning vedtaget af Europa-Parlamentet
og Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer, og som proceduren
for overensstemmelsesvurdering baseret på intern kontrol fastsat i et bilag til nærværende forordning
finder anvendelse på, derfor være omfattet af bestemmelserne om overensstemmelsesvurdering i en
forordning vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter
med digitale elementer for så vidt angår de væsentlige cybersikkerhedskrav i nævnte forordning. I så
fald bør de respektive bestemmelser om overensstemmelsesvurdering baseret på intern kontrol, der er
fastsat i et bilag til nærværende forordning, finde anvendelse på alle de øvrige aspekter, der er omfattet
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0030.png
30
af nærværende forordning. På grundlag af ENISA�½s viden og ekspertise om cybersikkerhedspolitik og
de opgaver, som ENISA har fået tildelt i henhold til Europa-Parlamentets og Rådets forordning (EU)
2019/881 (
37
), bør Kommissionen samarbejde med ENISA om spørgsmål vedrørende cybersikkerhed i
forbindelse med AI-systemer.
(79) Det er passende, at en bestemt fysisk eller juridisk person, defineret som udbyderen, påtager sig
ansvar for omsætningen eller ibrugtagningen af et højrisiko-AI-system, uanset om denne fysiske eller
juridiske person er den person, der har udformet eller udviklet systemet.
(80) Unionen og alle medlemsstaterne er som underskrivere af De Forenede Nationers konvention om
rettigheder for personer med handicap juridisk forpligtede til at beskytte personer med handicap mod
forskelsbehandling og fremme deres ligestilling med henblik på at sikre, at personer med handicap har
adgang på lige fod med andre til informations- og kommunikationsteknologier og -systemer, og med
henblik på at sikre respekten for personer med handicaps privatliv. På grund af den voksende betydning
og brug af AI-systemer bør anvendelsen af universelle designprincipper på alle nye teknologier og
tjenesteydelser sikre en fuldstændig og ligelig adgang for alle, der potentielt berøres af eller benytter
AI-teknologier, herunder personer med handicap, på en måde, der fuldt ud tager hensyn til deres iboende
værdighed og mangfoldighed. Det er derfor afgørende, at udbyderne sikrer fuld overholdelse af tilgænge-
lighedskravene, herunder Europa-Parlamentets og Rådets direktiv (EU) 2016/2102 (
38
) og direktiv (EU)
2019/882. Udbyderne bør sikre overholdelsen af disse krav gennem design. Derfor bør de nødvendige
foranstaltninger så vidt muligt integreres i udformningen af højrisiko-AI-systemet.
(81) Udbyderen bør etablere et solidt kvalitetsstyringssystem, sikre gennemførelsen af den påkrævede
overensstemmelsesvurderingsprocedure, udarbejde den relevante dokumentation og etablere et robust
system til overvågning efter omsætningen. Udbydere af højrisiko-AI-systemer, der er underlagt forpligtel-
ser vedrørende kvalitetsstyringssystemer i henhold til relevant sektorspecifik EU-ret, bør have mulighed
for at medtage elementerne i det kvalitetsstyringssystem, der er fastsat i denne forordning, som en del
af det eksisterende kvalitetsstyringssystem, der er fastsat i denne anden sektorspecifikke EU-ret. Kom-
plementariteten mellem denne forordning og eksisterende sektorspecifik EU-ret bør også tages i betragt-
ning i fremtidige standardiseringsaktiviteter eller retningslinjer vedtaget af Kommissionen. Offentlige
myndigheder, der ibrugtager højrisiko-AI-systemer til egen brug, kan vedtage og gennemføre reglerne
for kvalitetsstyringssystemet som en del af det kvalitetsstyringssystem, der er vedtaget på nationalt eller
regionalt plan, alt efter hvad der er relevant, under hensyntagen til de særlige forhold i sektoren og den
pågældende offentlige myndigheds kompetencer og organisation.
(82) For at muliggøre håndhævelsen af denne forordning og skabe lige vilkår for operatørerne og under
hensyntagen til de forskellige former for tilgængeliggørelse af digitale produkter er det vigtigt at sikre,
at en person, der er etableret i Unionen, under alle omstændigheder kan give myndighederne alle de
nødvendige oplysninger om et AI-systems overensstemmelse med reglerne. Udbydere, der er etableret
i tredjelande, bør, inden deres AI-systemer gøres tilgængelige i Unionen, derfor ved skriftligt mandat
udpege en bemyndiget repræsentant, der er etableret i Unionen. Denne bemyndigede repræsentant spiller
en central rolle med hensyn til at sikre, at højrisiko-AI-systemer, der bringes i omsætning eller ibrugtages
i Unionen af disse udbydere, der ikke er etableret i Unionen, overholder kravene, og som deres kontakt-
person i Unionen.
(83) I lyset af arten og kompleksiteten af værdikæden for AI-systemer og i overensstemmelse med den
nye lovgivningsmæssige ramme er det vigtigt at sikre retssikkerheden og lette overholdelsen af denne
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0031.png
31
forordning. Det er derfor nødvendigt at præcisere den rolle og de specifikke forpligtelser, der påhviler
relevante operatører i denne værdikæde såsom importører og distributører, der kan bidrage til udviklingen
af AI-systemer. I visse situationer kan disse operatører optræde i mere end én rolle på samme tid og
bør derfor kumulativt opfylde alle relevante forpligtelser, der er forbundet med disse roller. F.eks. kan en
operatør fungere som distributør og importør på samme tid.
(84) For at sikre retssikkerheden er det nødvendigt at præcisere, at enhver distributør, importør, idrift-
sætter eller anden tredjepart under visse særlige omstændigheder bør betragtes som udbyder af et
højrisiko-AI-system og derfor påtage sig alle de relevante forpligtelser. Dette vil være tilfældet, hvis
den pågældende part anbringer sit navn eller varemærke på et højrisiko-AI-system, der allerede er bragt
i omsætning eller ibrugtaget, uden at det berører kontraktlige ordninger om, at forpligtelserne er fordelt
anderledes. Dette vil også være tilfældet, hvis den pågældende part foretager en væsentlig ændring
af et højrisiko-AI-system, der allerede er bragt i omsætning eller allerede er ibrugtaget på en sådan
måde, at det forbliver et højrisiko-AI-system i overensstemmelse med denne forordning, eller hvis denne
ændrer det tilsigtede formål med et AI-system, herunder et AI-system til almen brug, der ikke er blevet
klassificeret som højrisiko, og som allerede er bragt i omsætning eller ibrugtaget, på en sådan måde, at
AI-systemet bliver et højrisiko-AI-system i overensstemmelse med denne forordning. Disse bestemmelser
bør finde anvendelse, uden at det berører mere specifikke bestemmelser, der er fastsat i særlig EU-har-
moniseringslovgivning baseret på den nye lovgivningsmæssige ramme, som denne forordning bør finde
anvendelse sammen med. F.eks. bør artikel 16, stk. 2, i forordning (EU) 2017/745, der fastsætter, at visse
ændringer ikke bør betragtes som ændringer af udstyr, der kan påvirke dets overholdelse af gældende
krav, fortsat finde anvendelse på højrisiko-AI-systemer, der er medicinsk udstyr som omhandlet i nævnte
forordning.
(85) AI-systemer til almen brug kan anvendes som højrisiko-AI-systemer i sig selv eller som komponen-
ter i andre højrisiko-AI-systemer. Derfor bør udbydere af sådanne systemer på grund af deres særlige
karakter og for at sikre en rimelig ansvarsfordeling i hele AI-værdikæden, uanset om de kan anvendes
som højrisiko-AI-systemer som sådan af andre udbydere eller som komponenter i højrisiko-AI-systemer,
og medmindre andet er fastsat i denne forordning, arbejde tæt sammen med udbyderne af de relevante
højrisiko-AI-systemer, så de kan overholde de relevante forpligtelser i henhold til denne forordning og
med de kompetente myndigheder, der er fastsat i henhold til denne forordning.
(86) Hvis den udbyder, der oprindeligt bragte AI-systemet i omsætning eller ibrugtog det, på de betingel-
ser, der er fastsat i denne forordning, ikke længere bør anses for at være udbyder i denne forordnings
forstand, og når denne udbyder ikke udtrykkeligt har udelukket ændringen af AI-systemet til et højrisiko-
AI-system, bør den tidligere udbyder ikke desto mindre arbejde tæt sammen og stille de nødvendige
oplysninger til rådighed og give den tekniske adgang og anden bistand, som med rimelighed kan forven-
tes, og som kræves for at opfylde forpligtelserne i denne forordning, navnlig hvad angår overholdelse af
overensstemmelsesvurderingen af højrisiko-AI-systemer.
(87) Hvis et højrisiko-AI-system, som er en sikkerhedskomponent i et produkt, der er omfattet af anven-
delsesområdet for EU-harmoniseringslovgivning baseret på den nye lovgivningsmæssige ramme, desuden
ikke bringes i omsætning eller ibrugtages uafhængigt af produktet, bør producenten af produktet defineret
i den pågældende lovgivning overholde de forpligtelser, der påhviler udbyderen i henhold til denne
forordning, og bør navnlig sikre, at det AI-system, der er indlejret i slutproduktet, overholder kravene i
denne forordning.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0032.png
32
(88) I AI-værdikæden leverer flere parter ofte AI-systemer, værktøjer og tjenester, men også komponenter
eller processer, som udbyderen indarbejder i AI-systemet til forskellige formål, herunder modeltræning,
fornyet modeltræning, modelafprøvning og -evaluering, integration i software eller andre aspekter af
modeludvikling. Disse parter spiller en vigtig rolle i værdikæden over for udbyderen af det højrisiko-AI-
system, som deres AI-systemer, værktøjer, tjenester, komponenter eller processer er integreret i, og bør
ved skriftlig aftale give denne udbyder den nødvendige information, kapacitet, tekniske adgang og anden
bistand på grundlag af det generelt anerkendte aktuelle teknologiske niveau, således at udbyderen er i
stand til fuldt ud at overholde forpligtelserne i denne forordning uden at bringe deres egne intellektuelle
ejendomsrettigheder eller forretningshemmeligheder i fare.
(89) Tredjeparter, der gør andre værktøjer, tjenester, processer eller AI-komponenter tilgængelige for
offentligheden end AI-modeller til almen brug, bør ikke være forpligtet til at overholde krav rettet
mod ansvar i hele AI-værdikæden, navnlig mod den udbyder, der har anvendt eller integreret dem,
når disse værktøjer, tjenester, processer eller AI-komponenter gøres tilgængelige i henhold til en gratis
open source-licens. Udviklere af andre gratis open source-værktøjer, -tjenester, -processer eller -AI-kom-
ponenter end AI-modeller til almen brug bør dog tilskyndes til at gennemføre bredt indførte former for
dokumentationspraksis såsom modelkort og datablade som en måde at fremskynde informationsdeling i
hele AI-værdikæden på og derved fremme troværdige AI-systemer i Unionen.
(90) Kommissionen kan udvikle og anbefale frivillige standardaftalevilkår mellem udbydere af højrisiko-
AI-systemer og tredjeparter, der leverer værktøjer, tjenester, komponenter eller processer, som anvendes
eller integreres i højrisiko-AI-systemer, for at lette samarbejdet i hele værdikæden. Når Kommissionen
udarbejder frivillige standardaftalevilkår, tager den også hensyn til eventuelle kontraktlige krav, der
gælder i specifikke sektorer eller forretningsscenarier.
(91) I betragtning af AI-systemers karakter og de risici for sikkerheden og de grundlæggende rettigheder,
der kan være forbundet med deres anvendelse, herunder behovet for at sikre korrekt overvågning af
et AI-systems ydeevne i virkelige rammer, bør der fastsættes specifikke ansvarsområder for idriftsætte-
re. Idriftsættere bør navnlig træffe passende tekniske og organisatoriske foranstaltninger for at sikre, at
de anvender højrisiko-AI-systemer i overensstemmelse med brugsanvisningen, og der bør fastsættes visse
andre forpligtelser med hensyn til overvågning af AI-systemernes funktion og med hensyn til registrering,
alt efter hvad der er relevant. Idriftsættere bør desuden sikre, at de personer, som har fået til opgave
at gennemføre brugsanvisningen og det menneskelige tilsyn som fastsat i denne forordning, har den
nødvendige kompetence, navnlig et passende niveau af AI-færdigheder, -træning og -myndighed til at
udføre disse opgaver korrekt. Disse forpligtelser bør ikke berøre andre af idriftsætterens forpligtelser i
forbindelse med højrisiko-AI-systemer i henhold til EU-retten eller national ret.
(92) Denne forordning berører ikke arbejdsgivernes forpligtelser til at informere eller høre arbejdstagerne
eller deres repræsentanter i henhold til EU-retten og EU-praksis eller national ret og praksis, herunder
Europa-Parlamentets og Rådets direktiv 2002/14/EF (
39
), om beslutninger om at ibrugtage eller anvende
AI-systemer. Det er fortsat nødvendigt at sikre, at arbejdstagerne og deres repræsentanter informeres
om den planlagte idriftsættelse af højrisiko-AI-systemer på arbejdspladsen, hvis betingelserne for disse
informations- eller informations- og høringsforpligtelser i andre retlige instrumenter ikke er opfyldt. En
sådan ret til information er desuden accessorisk og nødvendig i forhold til målet om at beskytte de
grundlæggende rettigheder, der ligger til grund for denne forordning. Der bør derfor fastsættes et infor-
mationskrav med henblik herpå i denne forordning, uden at det berører arbejdstagernes eksisterende
rettigheder.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0033.png
33
(93) Risici i forbindelse med AI-systemer kan være resultatet af den måde, sådanne systemer er udformet
på, men risici kan også stamme fra måden, hvorpå sådanne AI-systemer anvendes. Idriftsættere af højri-
siko-AI-systemer spiller derfor en afgørende rolle i at sikre, at de grundlæggende rettigheder beskyttes
og i at supplere udbyderens forpligtelser i forbindelse med udviklingen af AI-systemet. Idriftsætterne
er bedst i stand til at forstå, hvordan højrisiko-AI-systemet vil blive anvendt konkret, og kan derfor
afdække potentielle risici, der ikke var forudset i udviklingsfasen, takket være et mere præcist kendskab
til anvendelseskonteksten, de personer eller grupper af personer, der kan blive berørt, herunder sårbare
grupper. Idriftsættere af de højrisiko-AI-systemer, der er opført i et bilag til denne forordning, spiller
også en afgørende rolle med hensyn til at informere fysiske personer og bør, når de træffer beslutninger
eller bistår med at træffe beslutninger vedrørende fysiske personer, om nødvendigt underrette de fysiske
personer om, at de er omfattet af anvendelsen af højrisiko-AI-systemet. Disse oplysninger bør omfatte
det tilsigtede formål og typen af beslutninger, det træffer. Idriftsætteren bør ligeledes oplyse de fysiske
personer om deres ret til en forklaring som fastsat i denne forordning. For så vidt angår højrisiko-AI-sy-
stemer, der anvendes til retshåndhævelsesformål, bør denne forpligtelse gennemføres i overensstemmelse
med artikel 13 i direktiv (EU) 2016/680.
(94) Enhver behandling af biometriske data, der indgår i anvendelsen af AI-systemer til biometrisk
identifikation med henblik på retshåndhævelse, skal overholde artikel 10 i direktiv (EU) 2016/680, som
kun tillader en sådan behandling, når det er strengt nødvendigt, forudsat at behandlingen er omfattet af
de fornødne sikkerhedsforanstaltninger for den registreredes rettigheder og frihedsrettigheder, og hvis
hjemlet i EU-retten eller medlemsstaternes nationale ret. En sådan anvendelse skal, når den er tilladt, også
overholde principperne i artikel 4, stk. 1, i direktiv (EU) 2016/680, herunder lovlighed, rimelighed og
gennemsigtighed, formålsbegrænsning, rigtighed og begrænsning af opbevaring.
(95) Uden at det berører gældende EU-ret, navnlig forordning (EU) 2016/679 og direktiv (EU) 2016/680,
bør brugen af systemer til efterfølgende biometrisk fjernidentifikation, i betragtning af den indgribende
karakter af systemer til efterfølgende biometrisk fjernidentifikation, være underlagt sikkerhedsforanstalt-
ninger. Systemer til efterfølgende biometrisk fjernidentifikation bør altid anvendes på en måde, der
er forholdsmæssig, legitim og strengt nødvendig, og dermed, for så vidt angår de personer, der skal
identificeres, være målrettet stedet og den tidsmæssige rækkevidde og være baseret på et lukket datasæt af
lovligt erhvervede videooptagelser. Under alle omstændigheder bør systemer til efterfølgende biometrisk
fjernidentifikation ikke anvendes inden for retshåndhævelse til at føre vilkårlig overvågning. Betingelser-
ne for efterfølgende biometrisk fjernidentifikation bør under alle omstændigheder ikke danne grundlag
for at omgå betingelserne for forbuddet mod og de strenge undtagelser for biometrisk fjernidentifikation i
realtid.
(96) For effektivt at sikre, at de grundlæggende rettigheder beskyttes, bør idriftsættere af højrisiko-
AI-systemer, der er offentligretlige organer, eller private enheder, der leverer offentlige tjenester, og
idriftsættere af visse højrisiko-AI-systemer, der er opført i et bilag til denne forordning, såsom banker
eller forsikringsselskaber, foretage en konsekvensanalyse vedrørende grundlæggende rettigheder inden
ibrugtagning. Tjenester, der er vigtige for enkeltpersoner, og som er af offentlig karakter, kan også leveres
af private enheder. Private enheder, der leverer sådanne offentlige tjenester, er knyttet til samfundsnyttige
opgaver såsom. inden for uddannelse, sundhedspleje, sociale tjenester, boliger og retspleje. Formålet med
konsekvensanalysen vedrørende grundlæggende rettigheder er, at idriftsætteren skal identificere de speci-
fikke risici for rettighederne for enkeltpersoner eller grupper af enkeltpersoner, der sandsynligvis vil blive
berørt, og identificere de foranstaltninger, der skal træffes, hvis disse risici skulle opstå. Konsekvensana-
lysen bør udføres før idriftsættelse af højrisiko-AI-systemet og bør ajourføres, når idriftsætteren vurderer,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0034.png
34
at de relevante faktorer har ændret sig. Konsekvensanalysen bør identificere idriftsætterens relevante
processer, i hvilke højrisiko-AI-systemet vil blive anvendt i overensstemmelse med dets tilsigtede formål,
og bør indeholde en beskrivelse af den periode og hyppighed, hvori systemet tilsigtes anvendt, samt af
specifikke kategorier af fysiske personer og grupper, der sandsynligvis vil blive berørt i den specifikke
anvendelsessammenhæng. Analysen bør også omfatte kortlægning af specifikke risici for skade, der sand-
synligvis vil påvirke disse personers eller gruppers grundlæggende rettigheder. I forbindelse med denne
analyse bør idriftsætteren tage hensyn til oplysninger, der er relevante for en korrekt analyse af konse-
kvenser, herunder, men ikke begrænset til, de oplysninger, som udbyderen af højrisiko-AI-systemet giver
i brugsanvisningen. I lyset af de kortlagte risici bør idriftsætteren afgøre, hvilke foranstaltninger der skal
træffes, hvis disse risici skulle opstå, herunder f.eks. ledelsesordninger i den specifikke anvendelsessam-
menhæng, såsom ordninger for menneskeligt tilsyn i henhold til brugsanvisningen eller klagebehandlings-
og erstatningsprocedurer, da de kan bidrage til at afbøde risici for grundlæggende rettigheder i konkrete
anvendelsestilfælde. Efter at have foretaget denne konsekvensanalyse bør idriftsætteren underrette den
relevante markedsovervågningsmyndighed. For at indsamle de relevante oplysninger, der er nødvendige
for at foretage konsekvensanalysen, kan idriftsættere af højrisiko-AI-systemer, navnlig når AI-systemer
anvendes i den offentlige sektor, inddrage relevante interessenter, herunder repræsentanter for grupper
af personer, der sandsynligvis vil blive berørt af AI-systemet, uafhængige eksperter og civilsamfundsor-
ganisationer i gennemførelsen af sådanne konsekvensanalyser og udformningen af foranstaltninger, der
skal træffes, hvis risiciene opstår. Det Europæiske Kontor for Kunstig Intelligens (»AI-kontoret«) bør
udvikle en skabelon til et spørgeskema for at lette overholdelsen og mindske den administrative byrde for
idriftsættere.
(97) Begrebet AI-modeller til almen brug bør af hensyn til retssikkerheden defineres klart og adskilles
fra begrebet AI-systemer. Definitionen bør baseres på de vigtigste funktionelle karakteristika ved en
AI-model til almen brug, navnlig generaliteten og kapaciteten til med kompetence at udføre en lang
række forskellige opgaver. Disse modeller trænes typisk med store mængder data ved hjælp af forskellige
metoder såsom ved selvovervåget, ikkeovervåget eller forstærket læring. AI-modeller til almen brug kan
bringes i omsætning på forskellige måder, herunder via biblioteker eller programmeringsgrænseflader for
applikationer (API�½er), som direkte download eller som fysisk kopi. Disse modeller kan ændres yderligere
eller finjusteres til nye modeller. Selv om AI-modeller er væsentlige komponenter i AI-systemer, udgør
de ikke i sig selv AI-systemer. AI-modeller kræver, at der tilføjes yderligere komponenter, f.eks. en
brugergrænseflade, for at blive til AI-systemer. AI-modeller er typisk integreret i og udgør en del af
AI-systemer. Denne forordning fastsætter specifikke regler for AI-modeller til almen brug og for AI-mo-
deller til almen brug, der udgør systemiske risici, som også bør finde anvendelse, når disse modeller
integreres eller indgår i et AI-system. Det forudsættes, at forpligtelserne for udbydere af AI-modeller til
almen brug bør finde anvendelse, når AI-modellerne til almen brug er bragt i omsætning. Når udbyderen
af en AI-model til almen brug integrerer en egen model i sit eget AI-system, der gøres tilgængeligt
på markedet eller ibrugtages, bør den pågældende model betragtes som at være bragt i omsætning, og
derfor bør forpligtelserne i denne forordning for modeller fortsat finde anvendelse foruden forpligtelserne
for AI-systemer. De forpligtelser, der er fastsat for modeller, bør under alle omstændigheder ikke finde
anvendelse, når en egen model anvendes til rent interne processer, som ikke er væsentlige for leveringen
af et produkt eller en tjeneste til tredjeparter, og fysiske personers rettigheder ikke berøres. I betragtning
af deres potentielt væsentlige negative virkninger bør AI-modeller til almen brug med systemisk risiko
altid være underlagt de relevante forpligtelser i henhold til denne forordning. Definitionen bør ikke omfat-
te AI-modeller, der anvendes, inden de bringes i omsætning, udelukkende med henblik på forsknings-,
udviklings- og prototypeaktiviteter. Dette berører ikke forpligtelsen til at overholde denne forordning, når
en model bringes i omsætning efter sådanne aktiviteter.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0035.png
35
(98) Mens en models generalitet blandt andet også kan bestemmes af en række parametre, bør modeller
med mindst en milliard parametre, og som er trænet med en stor mængde data ved hjælp af selvovervåg-
ning, i stor skala betragtes som at udvise betydelig generalitet og kompetence til at udføre en lang række
forskellige opgaver.
(99) Store generative AI-modeller er et typisk eksempel på en AI-model til almen brug, da de giver
mulighed for fleksibel generering af indhold, f.eks. i form af tekst, lyd, billeder eller video, der let kan
tilpasses en lang række forskellige opgaver.
(100) Hvis en AI-model til almen brug integreres i eller udgør en del af et AI-system, bør dette system
betragtes som at være et AI-system til almen brug, når dette system som følge af denne integration har
kapacitet til at tjene en række forskellige formål. Et AI-system til almen brug kan anvendes direkte, eller
det kan integreres i andre AI-systemer.
(101) Udbydere af AI-modeller til almen brug har en særlig rolle og et særligt ansvar i AI-værdikæden,
da de modeller, de leverer, kan danne grundlag for en række downstreamsystemer, der ofte leveres af
downstreamudbydere, og som kræver en god forståelse af modellerne og deres kapacitet, både for at
gøre det muligt at integrere sådanne modeller i deres produkter og for at opfylde deres forpligtelser i
henhold til denne eller andre forordninger. Der bør derfor fastsættes forholdsmæssige gennemsigtigheds-
foranstaltninger, herunder udarbejdelse og ajourføring af dokumentation og formidling af oplysninger
om AI-modellen til almen brug med henblik på downstreamudbydernes anvendelse heraf. Den tekniske
dokumentation bør udarbejdes og ajourføres af udbyderen af AI-modellen til almen brug med henblik på
efter anmodning at stille den til rådighed for AI-kontoret og de nationale kompetente myndigheder. Mi-
nimumssættet af elementer, der skal medtages i sådan dokumentation, bør fastsættes i særlige bilag til
denne forordning. Kommissionen bør have beføjelse til at ændre disse bilag ved hjælp af delegerede
retsakter i lyset af den teknologiske udvikling.
(102) Software og data, herunder modeller frigivet i henhold til en gratis open source-licens, der gør det
muligt at dele dem åbent, og hvor brugerne frit kan få adgang til, anvende, ændre og videregive dem
eller ændrede versioner heraf, kan bidrage til forskning og innovation på markedet og skabe betydelige
vækstmuligheder for Unionens økonomi. AI-modeller til almen brug, som er frigivet i henhold til gratis
open source-licenser, bør betragtes som at sikre en høj grad af gennemsigtighed og åbenhed, hvis deres
parametre, herunder vægtene, oplysningerne om modelarkitekturen og oplysningerne om modelanvendel-
sen, gøres offentligt tilgængelige. Licensen bør også betragtes som gratis og open source, når den giver
brugerne mulighed for at køre, kopiere, distribuere, undersøge, ændre og forbedre software og data,
herunder modeller, forudsat at den oprindelige udbyder af modellen krediteres, og at de identiske eller
sammenlignelige distributionsvilkår overholdes.
(103) Gratis open source-AI-komponenter omfatter software og data, herunder modeller og AI-modeller
til almen brug, værktøjer, tjenester eller processer i et AI-system. Gratis open source-AI-komponenter
kan leveres gennem forskellige kanaler, herunder deres udvikling i åbne databaser. Med henblik på denne
forordning bør AI-komponenter, der leveres mod en pris, eller som der på anden vis tjenes penge på,
herunder gennem levering af teknisk støtte eller andre tjenester, bl.a. gennem en softwareplatform, i for-
bindelse med AI-komponenten, eller anvendelse af personoplysninger af andre årsager end udelukkende
for at forbedre softwarens sikkerhed, kompatibilitet eller interoperabilitet, med undtagelse af transaktioner
mellem mikrovirksomheder, ikke være omfattet af undtagelserne for gratis open source-AI-komponen-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0036.png
36
ter. Det forhold, at AI-komponenter stilles til rådighed gennem åbne databaser, bør ikke i sig selv udgøre
en monetarisering.
(104) Udbydere af AI-modeller til almen brug, der frigives i henhold til en gratis open source-licens,
og hvis parametre, herunder vægtene, oplysningerne om modelarkitekturen og oplysningerne om model-
anvendelsen, gøres offentligt tilgængelige, bør være omfattet af undtagelser for så vidt angår de krav
om gennemsigtighed, der stilles til AI-modeller til almen brug, medmindre de kan anses for at udgøre
en systemisk risiko, i hvilket tilfælde det forhold, at modellen er gennemsigtig og ledsaget af en open
source-licens, ikke bør betragtes som tilstrækkelig grund til at udelukke, at forpligtelserne i henhold til
denne forordning overholdes. I betragtning af at frigivelsen af AI-modeller til almen brug i henhold
til en gratis open source-licens ikke nødvendigvis afslører væsentlige oplysninger om det datasæt, der
anvendes til træning eller finjustering af modellen, og om hvordan overholdelsen af ophavsretten derved
blev sikret, bør undtagelsen for AI-modeller til almen brug fra overholdelse af krav om gennemsigtighed
under alle omstændigheder ikke vedrøre forpligtelsen til at udarbejde en sammenfatning af det indhold,
der anvendes til modeltræning, og forpligtelsen til at indføre en politik, der overholder EU-retten om
ophavsret, navnlig med hensyn til at identificere og overholde forbeholdet af rettigheder i henhold til
artikel 4, stk. 3, i Europa-Parlamentets og Rådets direktiv (EU) 2019/790 (
40
).
(105) AI-modeller til almen brug, navnlig store generative AI-modeller, der kan generere tekst, billeder
og andet indhold, giver unikke innovationsmuligheder, men også udfordringer for kunstnere, forfattere
og andre skabere og den måde, hvorpå deres kreative indhold skabes, distribueres, anvendes og forbru-
ges. Udviklingen og træningen af sådanne modeller kræver adgang til store mængder tekst, billeder,
videoer og andre data. Tekst- og dataminingteknikker kan anvendes i vid udstrækning i denne forbindelse
til søgning og analyse af sådant indhold, som kan være beskyttet af ophavsret og beslægtede rettighe-
der. Enhver anvendelse af ophavsretligt beskyttet indhold kræver tilladelse fra den pågældende rettigheds-
haver, medmindre der gælder relevante undtagelser og indskrænkninger i ophavsretten. Direktiv (EU)
2019/790 indførte undtagelser og indskrænkninger, der tillader reproduktion og udtræk af værker eller
andre frembringelser med henblik på tekst- og datamining på visse betingelser. I henhold til disse regler
kan rettighedshavere vælge at forbeholde deres rettigheder til deres værker eller andre frembringelser for
at forhindre tekst- og datamining, medmindre dette sker med henblik på videnskabelig forskning. Hvis
retten til fravalg udtrykkeligt er blevet forbeholdt på passende vis, skal udbydere af AI-modeller til
almen brug indhente en tilladelse fra rettighedshaverne, hvis de ønsker at udføre tekst- og datamining i
forbindelse med sådanne værker.
(106) Udbydere, der bringer AI-modeller til almen brug i omsætning på EU-markedet, bør sikre overhol-
delse af de relevante forpligtelser i denne forordning. Med henblik herpå bør udbydere af AI-modeller
til almen brug indføre en politik, der overholder EU-retten om ophavsret og beslægtede rettigheder,
navnlig med hensyn til at identificere og overholde det forbehold af rettigheder, som rettighedshaverne
har givet udtryk for i henhold til artikel 4, stk. 3, i direktiv (EU) 2019/790. Enhver udbyder, der bringer en
AI-model til almen brug i omsætning på EU-markedet, bør overholde denne forpligtelse, uanset i hvilken
jurisdiktion de ophavsretligt relevante handlinger, der ligger til grund for træningen af disse AI-modeller
til almen brug, finder sted. Dette er nødvendigt for at sikre lige vilkår for udbydere af AI-modeller til
almen brug, da ingen udbyder bør kunne opnå en konkurrencemæssig fordel på EU-markedet ved at
anvende lavere ophavsretlige standarder end dem, der er fastsat i Unionen.
(107) For at øge gennemsigtigheden af de data, der anvendes i forbindelse med forhåndstræning og
træning af AI-modeller til almen brug, herunder tekst og data, der er beskyttet af ophavsret, er det
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0037.png
37
tilstrækkeligt, at udbydere af sådanne modeller udarbejder og offentliggør en tilstrækkeligt detaljeret
sammenfatning af det indhold, der anvendes til træning af AI-modellen til almen brug. Under behørig
hensyntagen til behovet for at beskytte forretningshemmeligheder og fortrolige forretningsoplysninger
bør denne sammenfatning generelt have et bredt anvendelsesområde i stedet for at være teknisk detaljeret,
så det bliver lettere for parter med legitime interesser, herunder indehavere af ophavsret, at udøve og
håndhæve deres rettigheder i henhold til EU-retten, f.eks. ved at opregne de vigtigste datasamlinger eller
datasæt, der er gået til at træne modellen, såsom store private eller offentlige databaser eller dataarkiver,
og ved at give en beskrivende redegørelse for andre anvendte datakilder. Det er hensigtsmæssigt, at
AI-kontoret tilvejebringer en skabelon for sammenfatningen, som bør være enkel og effektiv, og giver
udbyderen mulighed for at fremsende den krævede sammenfatning i beskrivende tekst.
(108) Hvad angår de forpligtelser, der pålægges udbydere af AI-modeller til almen brug, til at indføre en
politik med henblik på at overholde EU-retten om ophavsret og offentliggøre en sammenfatning af det
indhold, der anvendes til træningen, bør AI-kontoret overvåge, om udbyderen har opfyldt disse forpligtel-
ser uden at verificere eller vurdere træningsdataene for hvert enkelt værk med hensyn til overholdelse af
ophavsretten. Denne forordning berører ikke håndhævelsen af ophavsretsreglerne som fastsat i EU-retten.
(109) Overholdelsen af de forpligtelser, der gælder for udbydere af AI-modeller til almen brug, bør
stå i et rimeligt forhold til og være proportionalt med typen af modeludbyder, bortset fra behovet for
overholdelse for personer, der udvikler eller anvender modeller til ikkeprofessionelle eller videnskabelige
forskningsformål, og som ikke desto mindre bør tilskyndes til frivilligt at overholde disse krav. Uden
at det berører EU-retten om ophavsret, bør der ved overholdelsen af disse forpligtelser tages behørigt
hensyn til udbyderens størrelse, og SMV�½er, herunder iværksættervirksomheder, bør have mulighed for
forenklede måder at overholde reglerne på, som ikke bør indebære uforholdsmæssigt store omkostninger
og ikke modvirke anvendelsen af sådanne modeller. I tilfælde af en ændring eller finjustering af en
model bør forpligtelserne for udbydere af AI-modeller til almen brug begrænses til denne ændring eller
finjustering, f.eks. ved at supplere den allerede eksisterende tekniske dokumentation med oplysninger om
ændringerne, herunder nye træningsdatakilder, som et middel til at overholde værdikædeforpligtelserne i
denne forordning.
(110) AI-modeller til almen brug kan udgøre systemiske risici, som omfatter, men ikke er begrænset til,
faktiske negative virkninger, der med rimelighed kan forudses, i forbindelse med større ulykker, forstyr-
relser i kritiske sektorer og alvorlige konsekvenser for folkesundheden og sikkerheden, enhver faktisk
negativ virkning, der med rimelighed kan forudses, for demokratiske processer, offentlig og økonomisk
sikkerhed samt formidling af ulovligt, falsk eller forskelsbehandlende indhold. Det skal forstås sådan, at
systemiske risici øges med modelkapaciteter og modelrækkevidde, kan opstå i hele modellens livscyklus
og påvirkes af betingelser for misbrug, modelpålidelighed, modelrimelighed og modelsikkerhed, graden
af modellens autonomi, dens adgang til værktøjer, nye eller
kombinerede metoder, frigivelses- og distributionsstrategier, potentialet til at fjerne beskyttelsesforanstalt-
ninger og andre faktorer. Navnlig har internationale tilgange hidtil vist, at det er nødvendigt at være
opmærksom på risici fra potentielt bevidst misbrug eller utilsigtede problemer med kontrol i forbindel-
se med tilpasning til menneskelig hensigt, kemiske, biologiske, radiologiske og nukleare risici, f.eks.
hvordan adgangsbarrierer kan sænkes, herunder for udvikling, erhvervelse eller anvendelse af våben,
offensive cyberkapaciteter, f.eks. hvordan metoder til opdagelse, udnyttelse eller operationel brug af
sårbarheder kan muliggøres, virkningerne af interaktion og brug af værktøjer, herunder f.eks. kapaciteten
til at kontrollere fysiske systemer og gribe ind i kritisk infrastruktur, risici fra modeller, der fremstiller
kopier af sig selv eller bliver »selvkopierende« eller træner andre modeller, hvordan modeller kan
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0038.png
38
medføre skadelig bias og forskelsbehandling med risici for enkeltpersoner, lokalsamfund eller samfund,
lettelse af desinformation eller krænkelse af privatlivets fred med trusler mod demokratiske værdier og
menneskerettighederne samt risiko for, at en bestemt hændelse kan skabe en kædereaktion med betydelige
negative virkninger, der kan påvirke en hel by, en hel domæneaktivitet eller et helt fællesskab.
(111) Der bør fastlægges en metode til klassificering af AI-modeller til almen brug som AI-modeller til
almen brug med systemiske risici. Da systemiske risici skyldes særlig høj kapacitet, bør en AI-model
til almen brug betragtes som at udgøre systemiske risici, hvis de har kapaciteter med stor virkning,
vurderet på grundlag af passende tekniske værktøjer og metoder, eller en betydelig indvirkning på det
indre marked på grund af dens omfang. Ved kapaciteter med stor virkning i AI-modeller til almen
brug forstås kapaciteter, som svarer til eller overstiger de kapaciteter, der er registreret i de mest avan-
cerede AI-modeller til almen brug. Hele spektret af kapaciteter i en model kan bedre forstås, efter at
den er blevet bragt i omsætning på markedet, eller når idriftsætterne interagerer med modellen. Ifølge
det aktuelle teknologiske niveau på tidspunktet for denne forordnings ikrafttræden er den kumulerede
mængde beregningskraft, der anvendes til træning af AI-modellen til almen brug, målt i flydende
kommatalsberegninger, en af de relevante tilnærmelser for modelkapaciteter. Den kumulerede mængde
beregningskraft, der anvendes til træning, omfatter den beregningskraft, der anvendes på tværs af de
aktiviteter og metoder, der er tilsigtet at forbedre modellens kapaciteter forud for idriftsættelsen, såsom
forhåndstræning, generering af syntetiske data og finjustering. Der bør derfor fastsættes en foreløbig
tærskel for flydende kommatalsberegninger, som, hvis den opnås af en AI-model til almen brug, fører til
en formodning om, at modellen er en AI-model til almen brug med systemiske risici. Denne tærskel bør
justeres over tid for at afspejle teknologiske og industrielle ændringer såsom algoritmiske forbedringer
eller øget hardwareeffektivitet og bør suppleres med benchmarks og indikatorer for modelkapacitet. For
at kvalificere dette bør AI-kontoret samarbejde med det videnskabelige samfund, industrien, civilsamfun-
det og andre eksperter. Tærskler samt værktøjer og benchmarks til vurdering af kapaciteter med stor
virkning bør være stærke forudsigelsesfaktorer for generaliteten, kapaciteterne og den dermed forbundne
systemiske risiko ved AI-modeller til almen brug og kan tage hensyn til måden, hvorpå modellen vil
blive bragt i omsætning, eller antallet af brugere, den kan påvirke. For at supplere dette system bør
Kommissionen have mulighed for at træffe individuelle beslutninger om, at en AI-model til almen brug
udpeges som en AI-model til almen brug med systemisk risiko, hvis det konstateres, at en sådan model
har samme kapaciteter eller en virkning som dem, der fremgår af den fastsatte tærskel. Denne beslutning
bør træffes på grundlag af en samlet vurdering af kriterierne for udpegelse af en AI-model til almen
brug med systemisk risiko, der er fastsat i et bilag til denne forordning, såsom kvaliteten eller størrelsen
af træningsdatasættet, antallet af virksomheds- og slutbrugere, dens input- og outputmetoder, dens grad
af autonomi og skalerbarhed eller de værktøjer, den har adgang til. Efter en begrundet anmodning fra
en udbyder, hvis model er blevet udpeget som en AI-model til almen brug med systemisk risiko, bør
Kommissionen tage hensyn til anmodningen og kan beslutte på ny at vurdere, om AI-modellen til almen
brug stadig kan anses for at frembyde systemiske risici.
(112) Det er også nødvendigt at klargøre en procedure til klassificering af en AI-model til almen brug
med systemiske risici. En AI-model til almen brug, som opfylder den gældende tærskel for kapaciteter
med stor virkning, må formodes at være en AI-model til almen brug med systemisk risiko. Udbyderen bør
underrette AI-kontoret senest to uger efter, at kravene er opfyldt, eller det bliver kendt, at en AI-model
til almen brug vil opfylde de krav, der fører til formodningen. Dette er navnlig relevant i forbindelse
med tærsklen for flydende kommatalsberegninger, eftersom træning af AI-modeller til almen brug kræver
betydelig planlægning, som omfatter forhåndsallokering af beregningskraftsressourcer, og udbydere af
AI-modeller til almen brug kan derfor have kendskab til, om deres model opfylder tærsklen, inden
træningen afsluttes. I forbindelse med denne notifikation bør udbyderen kunne påvise, at en AI-model til
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0039.png
39
almen brug som følge af dens specifikke karakteristika undtagelsesvis ikke udgør systemiske risici, og at
den derfor ikke bør klassificeres som en AI-model til almen brug med systemiske risici. Denne oplysning
er nyttig for AI-kontoret med henblik på at foregribe omsætningen af AI-modeller til almen brug med
systemiske risici, så udbyderne tidligt kan begynde at samarbejde med AI-kontoret. Denne oplysning er
navnlig vigtig for så vidt angår AI-modeller til almen brug, som efter planen skal frigives som open
source, eftersom de nødvendige foranstaltninger til at sikre overholdelse af forpligtelserne i medfør af
denne forordning kan være vanskeligere at gennemføre efter frigivelsen af modellen som open source.
(113) Hvis Kommissionen får kendskab til, at en AI-model til almen brug opfylder kravene til klassifice-
ring som en AI-model til almen brug med systemisk risiko, som tidligere enten ikke var kendt, eller som
den relevante udbyder har undladt at underrette Kommissionen om, bør Kommissionen have beføjelse til
at udpege den som sådan. I tillæg til AI-kontorets overvågningsaktiviteter bør et system med kvalificerede
varslinger sikre, at AI-kontoret af det videnskabelige panel får kendskab til AI-modeller til almen brug,
som eventuelt bør klassificeres som AI-modeller til almen brug med systemisk risiko.
(114) Udbydere af AI-modeller til almen brug, som udgør systemiske risici, bør foruden de forpligtelser,
der er fastsat for udbydere af AI-modeller til almen brug, være underlagt forpligtelser med det formål
at identificere og afbøde disse risici og sikre et tilstrækkeligt cybersikkerhedsbeskyttelsesniveau, uanset
om de leveres som en selvstændig model eller er indlejret i et AI-system eller et produkt. For at nå
disse mål bør denne forordning kræve, at udbydere foretager de nødvendige modelevalueringer, navnlig
inden de første gang bringes i omsætning, herunder gennemførelse og dokumentation af afprøvning af
modeller mod ondsindet brug, herunder også i relevant omfang, gennem intern eller uafhængig ekstern
afprøvning. Udbydere af AI-modeller til almen brug med systemiske risici bør desuden løbende vurdere
og afbøde systemiske risici, herunder f.eks. ved at indføre risikostyringspolitikker såsom ansvarligheds-
og forvaltningsprocesser, gennemføre overvågning efter omsætningen, træffe passende foranstaltninger i
hele modellens livscyklus og samarbejde med relevante aktører i AI-værdikæden.
(115) Udbydere af AI-modeller til almen brug med systemiske risici bør vurdere og afbøde eventuelle
systemiske risici. Hvis udviklingen eller anvendelsen af modellen trods bestræbelser på at identificere
og forebygge risici forbundet med en AI-model til almen brug, som kan udgøre systemiske risici,
forårsager en alvorlig hændelse, bør udbyderen af AI-modellen til almen brug uden unødigt ophold
spore hændelsen og indberette alle relevante oplysninger og eventuelle korrigerende foranstaltninger til
Kommissionen og de nationale kompetente myndigheder. Udbydere bør desuden sikre et tilstrækkeligt
cybersikkerhedsbeskyttelsesniveau for modellen og dens fysiske infrastruktur, hvis det er relevant, i
hele modellens livscyklus. Cybersikkerhedsbeskyttelse i forbindelse med systemiske risici, der er knyttet
til ondsindet brug af eller angreb, bør tage behørigt hensyn til utilsigtet modellækage, uautoriserede
frigivelser, omgåelse af sikkerhedsforanstaltninger og forsvar mod cyberangreb, uautoriseret adgang
eller modeltyveri. Denne beskyttelse kan lettes ved at sikre modelvægte, algoritmer, servere og datasæt
såsom gennem operationelle sikkerhedsforanstaltninger med henblik på informationssikkerhed, specifikke
cybersikkerhedspolitikker, passende tekniske og etablerede løsninger samt cyberadgangskontroller og
fysiske adgangskontroller, der er tilpasset de relevante forhold og de involverede risici.
(116) AI-kontoret bør tilskynde til og lette udarbejdelsen, gennemgangen og tilpasningen af praksisko-
dekser under hensyntagen til internationale tilgange. Alle udbydere af AI-modeller til almen brug kan
indbydes til at deltage. For at sikre at praksiskodekser afspejler det aktuelle teknologiske niveau og
tager behørigt hensyn til en række forskellige perspektiver, bør AI-kontoret samarbejde med relevante
nationale kompetente myndigheder og kan, hvis det er relevant, høre civilsamfundsorganisationer og
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0040.png
40
andre relevante interessenter og eksperter, herunder det videnskabelige panel, om udarbejdelsen af sådan-
ne kodekser. Praksiskodekser bør omfatte forpligtelser for udbydere af AI-modeller til almen brug og
af modeller til almen brug, der udgør systemiske risici. Hvad angår systemiske risici, bør praksiskodek-
ser derudover bidrage til at opstille en risikotaksonomi for typen og arten af de systemiske risici på
EU-plan, herunder deres kilder. Praksiskodekser bør også fokusere på specifikke risikovurderinger og
risikobegrænsende foranstaltninger.
(117) Praksiskodekser bør udgøre et centralt redskab med henblik på korrekt overholdelse af de forplig-
telser, der er fastsat i medfør af denne forordning, og som gælder for udbydere af AI-modeller til
almen brug. Udbydere bør kunne forlade sig på praksiskodekser for at påvise overholdelse af forpligtel-
serne. Kommissionen kan ved hjælp af gennemførelsesretsakter beslutte at godkende en praksiskodeks
og tillægge den almen gyldighed i Unionen eller alternativt fastsætte fælles regler for gennemførelsen af
de relevante forpligtelser, hvis en praksiskodeks på tidspunktet for denne forordnings ikrafttræden ikke
kan færdiggøres eller af AI-kontoret anses for at være utilstrækkelig. Når en harmoniseret standard er
offentliggjort, og AI-kontoret har vurderet den som egnet til at dække de relevante forpligtelser, bør over-
holdelse af en europæisk harmoniseret standard medføre en formodning om overensstemmelse hermed fra
udbydernes side. Udbydere af AI-modeller til almen brug bør desuden kunne påvise overensstemmelse
ved hjælp af alternative passende metoder, hvis der ikke findes praksiskodekser eller harmoniserede
standarder, eller de vælger ikke at anvende sådanne.
(118) Denne forordning regulerer AI-systemer og AI-modeller, idet den indfører visse krav og forpligtel-
ser for relevante markedsaktører, som bringer dem i omsætning, ibrugtager dem eller anvender dem i
Unionen, og derved supplerer forpligtelserne for udbydere af formidlingstjenester, som indlejrer sådanne
systemer eller modeller i deres tjenester, som er reguleret ved forordning (EU) 2022/2065. I det omfang
sådanne systemer eller modeller er indlejret i udpegede meget store onlineplatforme eller meget store
onlinesøgemaskiner, er de underlagt den ramme for risikostyring, som er fastsat i forordning (EU)
2022/2065. De tilsvarende forpligtelser i nærværende forordning må derfor formodes at være opfyldt,
medmindre betydelige systemiske risici, der ikke er omfattet af forordning (EU) 2022/2065, forekommer
og identificeres i sådanne modeller. Inden for disse rammer er udbydere af meget store onlineplatforme
forpligtet til at vurdere potentielle systemiske risici, der hidrører fra udformningen, funktionen og an-
vendelsen af deres tjenester, herunder hvordan udformningen af algoritmiske systemer, der anvendes i
tjenesten, kan bidrage til sådanne risici, samt systemiske risici, der hidrører fra potentielt misbrug. Disse
udbydere er også forpligtet til at træffe afbødende foranstaltninger for at overholde de grundlæggende
rettigheder.
(119) I betragtning af innovationshastigheden og den teknologiske udvikling inden for digitale tjenester,
som er omfattet af forskellige EU-retlige instrumenters anvendelsesområde, navnlig under hensyntagen til
anvendelsen og opfattelsen af modtagerne heraf, kan de AI-systemer, der er omfattet af denne forordning,
leveres som formidlingstjenester eller dele heraf som omhandlet i forordning (EU) 2022/2065, som bør
fortolkes på en teknologineutral måde. AI-systemer kan f.eks. anvendes til at levere onlinesøgemaskiner,
navnlig i det omfang et AI-system såsom en onlinechatbot i princippet foretager søgninger på alle
websteder, dernæst indarbejder resultaterne i sin eksisterende viden og anvender den ajourførte viden til
at generere et enkelt output, der kombinerer forskellige informationskilder.
(120) De forpligtelser, der pålægges udbydere og idriftsættere af visse AI-systemer i denne forordning,
for at give mulighed for at påvise og oplyse, at outputtet af disse systemer er blevet genereret kunstigt
eller manipuleret, er desuden særlig relevante for at lette en effektiv gennemførelse af forordning (EU)
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0041.png
41
2022/2065. Dette gælder navnlig for forpligtelserne for udbydere af meget store onlineplatforme eller
meget store onlinesøgemaskiner til at identificere og afbøde systemiske risici, der kan opstå som følge
af formidlingen af indhold, der er blevet kunstigt genereret eller manipuleret, navnlig risikoen for de fak-
tiske eller forventede negative virkninger for demokratiske processer, samfundsdebatten og valgprocesser,
herunder gennem desinformation.
(121) Standardisering bør spille en central rolle med hensyn til at levere tekniske løsninger til udbyderne
for at sikre overholdelse af denne forordning i overensstemmelse med det aktuelle teknologiske niveau
og fremme innovation samt konkurrenceevnen og væksten på det indre marked. Overholdelse af harmoni-
serede standarder som defineret i artikel 2, nr. 1), litra c), i Europa-Parlamentets og Rådets forordning
(EU) nr. 1025/2012 (
41
), der sædvanligvis forventes at afspejle det aktuelle teknologiske niveau, bør være
et middel for udbydere til at påvise overensstemmelse med kravene i nærværende forordning. Der bør
derfor tilskyndes til en afbalanceret repræsentation af interesser, der inddrager alle relevante interessenter
i udviklingen af standarder, navnlig SMV�½er, forbrugerorganisationer og miljøorganisationer og sociale
interessenter i overensstemmelse med artikel 5 og 6 i forordning (EU) nr. 1025/2012. For at lette
overholdelsen bør standardiseringsanmodningerne fremsættes af Kommissionen uden unødigt ophold. I
forbindelse med udarbejdelsen af standardiseringsanmodninger bør Kommissionen høre det rådgivende
forum og AI-udvalget med henblik på at indsamle relevant ekspertise. I mangel af relevante referencer
til harmoniserede standarder bør Kommissionen dog ved hjælp af gennemførelsesretsakter og efter høring
af det rådgivende forum kunne fastsætte fælles specifikationer for visse krav i henhold til nærværende
forordning. Den fælles specifikation bør være en ekstraordinær nødløsning for at lette udbyderens for-
pligtelse til at overholde kravene i nærværende forordning, når standardiseringsanmodningen ikke er
blevet accepteret af de europæiske standardiseringsorganisationer, eller når de relevante harmoniserede
standarder i utilstrækkelig grad tager hensyn til betænkeligheder vedrørende grundlæggende rettigheder,
eller når de harmoniserede standarder ikke er i overensstemmelse med anmodningen, eller når der er
forsinkelser i vedtagelsen af en passende harmoniseret standard. Hvis en sådan forsinkelse i vedtagelsen
af en harmoniseret standard skyldes den pågældende standards tekniske kompleksitet, bør Kommissionen
tage dette i betragtning, inden det overvejes at udarbejde fælles specifikationer. Ved udarbejdelsen af
fælles specifikationer tilskyndes Kommissionen til at samarbejde med internationale partnere og internati-
onale standardiseringsorganer.
(122) Uden at det berører anvendelsen af harmoniserede standarder og fælles specifikationer, bør udby-
dere af et højrisiko-AI-system, som er blevet trænet og afprøvet på data, der afspejler de specifikke
geografiske, adfærdsmæssige, kontekstuelle eller funktionelle rammer, som AI-systemet tilsigtes anvendt
inden for, formodes at være i overensstemmelse med den relevante foranstaltning, der er fastsat i
kravet til datastyring i denne forordning. Uden at det berører kravene til robusthed og nøjagtighed i
denne forordning og i overensstemmelse med artikel 54, stk. 3, i forordning (EU) 2019/881 formodes
højrisiko-AI-systemer, der er certificeret, eller for hvilke der er udstedt en overensstemmelseserklæring
inden for rammerne af en cybersikkerhedsordning i henhold til nævnte forordning, og hvis referencer
er offentliggjort i Den Europæiske Unions Tidende, at overholde cybersikkerhedskravene i nærværende
forordning, såfremt cybersikkerhedsattesten eller overensstemmelseserklæringen eller dele heraf dækker
cybersikkerhedskravet i nærværende forordning. Dette berører ikke den pågældende cybersikkerhedsord-
nings frivillige karakter.
(123) For at sikre en høj grad af troværdighed i højrisiko-AI-systemer bør disse systemer underkastes en
overensstemmelsesvurdering, inden de bringes i omsætning eller ibrugtages.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0042.png
42
(124) For så vidt angår højrisiko-AI-systemer, der vedrører produkter, der er omfattet af gældende
EU-harmoniseringslovgivning baseret på den nye lovgivningsmæssige ramme, bør disse AI-systemers
overholdelse af kravene i denne forordning vurderes som led i den overensstemmelsesvurdering, der
allerede er fastsat i nævnte ret, for at minimere byrden for operatørerne og undgå ethvert muligt over-
lap. Anvendeligheden af kravene i denne forordning bør derfor ikke påvirke den specifikke logik, metode
eller generelle struktur i overensstemmelsesvurderingen i henhold til den relevante EU-harmoniserings-
lovgivning.
(125) I betragtning af højrisiko-AI-systemers kompleksitet og de med disse forbundne risici er det
vigtigt at udvikle en passende overensstemmelsesvurderingsprocedure for højrisiko-AI-systemer, der in-
volverer bemyndigede organer, en såkaldt overensstemmelsesvurdering udført af tredjepart. I betragtning
af den aktuelle erfaring, som professionelle, der udfører certificering forud for omsætning, har inden for
produktsikkerhed og de relevante risicis forskellige karakter, bør anvendelsesområdet for tredjeparters
overensstemmelsesvurderinger af andre højrisiko-AI-systemer end dem, der vedrører produkter, dog
begrænses, i det mindste i den indledende fase af anvendelsen af denne forordning. Overensstemmelses-
vurderinger af sådanne systemer bør derfor som hovedregel foretages af udbyderen på dennes eget ansvar,
med undtagelse af AI-systemer, der tilsigtes anvendt til biometri.
(126) Med henblik på tredjeparters overensstemmelsesvurderinger, når der er behov for sådanne, bør
bemyndigede organer notificeres i henhold til denne forordning af de nationale kompetente myndighe-
der, forudsat at de overholder en række krav, navnlig med hensyn til uafhængighed, kompetencer,
interessekonflikter og passende cybersikkerhedskrav. De nationale kompetente myndigheder bør sende
notifikationen af disse organer til Kommissionen og de andre medlemsstater ved hjælp af det elektroniske
notifikationsværktøj, der er udviklet og forvaltes af Kommissionen i henhold til artikel R23 i bilag I til
afgørelse nr. 768/2008/EF.
(127) I overensstemmelse med Unionens forpligtelser i henhold til Verdenshandelsorganisationens aftale
om tekniske handelshindringer er det hensigtsmæssigt at lette den gensidige anerkendelse af resultater
af overensstemmelsesvurderinger udarbejdet af de kompetente overensstemmelsesvurderingsorganer, uaf-
hængigt af hvor de er etableret, forudsat at disse overensstemmelsesvurderingsorganer, der er oprettet i
henhold til retten i et tredjeland, opfylder de gældende krav i denne forordning, og Unionen har indgået
aftale herom. I denne forbindelse bør Kommissionen aktivt undersøge mulige internationale instrumenter
til dette formål og navnlig søge at indgå aftaler om gensidig anerkendelse med tredjelande.
(128) I overensstemmelse med det almindeligt anerkendte begreb væsentlig ændring for produkter, der
er reguleret af EU-harmoniseringslovgivningen, bør AI-systemet, når der sker en ændring, som kan
have indflydelse på højrisiko-AI-systemets overensstemmelse med denne forordning (f.eks. ændring af
styresystem eller softwarearkitektur), eller hvis systemets tilsigtede formål ændrer sig, betragtes som
et nyt AI-system, der bør underkastes en ny overensstemmelsesvurdering. Ændringer i algoritmen og
ydeevnen af AI-systemer, der fortsætter med at »lære« efter, at de er bragt i omsætning eller ibrugtaget,
dvs. at de automatisk tilpasser, hvordan funktionerne udføres, bør ikke udgøre en væsentlig ændring,
forudsat at disse ændringer er fastlagt på forhånd af udbyderen og vurderet på tidspunktet for overens-
stemmelsesvurderingen.
(129) Højrisiko-AI-systemer bør være forsynet med CE-mærkning for at vise, at de er i overensstemmelse
med denne forordning, således at de sikres fri bevægelighed på det indre marked. For højrisiko-AI-sy-
stemer, der er indlejret i et produkt, bør der anbringes en fysisk CE-mærkning, som kan suppleres
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0043.png
43
med en digital CE-mærkning. For højrisiko-AI-systemer, der kun leveres digitalt, bør der anvendes en
digital CE-mærkning. Medlemsstaterne bør ikke skabe uberettigede hindringer for omsætningen eller
ibrugtagningen af højrisiko-AI-systemer, der overholder kravene i denne forordning, og som er forsynet
med CE-mærkning.
(130) Under visse omstændigheder kan hurtig adgang til innovative teknologier være afgørende for
personers sundhed og sikkerhed, miljøbeskyttelse og klimaændringer og for samfundet som helhed. Mar-
kedsovervågningsmyndighederne kan derfor af ekstraordinære hensyn til den offentlige sikkerhed eller
beskyttelsen af fysiske personers liv og sundhed, miljøbeskyttelse og beskyttelse af centrale industrielle
og infrastrukturmæssige aktiver tillade omsætning eller ibrugtagning af AI-systemer, der ikke har været
genstand for en overensstemmelsesvurdering. I behørigt begrundede situationer som fastsat i denne
forordning kan de retshåndhævende myndigheder eller civilbeskyttelsesmyndighederne tage et specifikt
højrisiko-AI-system i brug uden tilladelse fra markedsovervågningsmyndigheden, forudsat at der under
eller efter anvendelsen anmodes om en sådan tilladelse uden unødigt ophold.
(131) For at lette Kommissionens og medlemsstaternes arbejde inden for AI og øge gennemsigtigheden
for offentligheden bør udbydere af andre højrisiko-AI-systemer end dem, der vedrører produkter, der er
omfattet af relevant gældende EU-harmoniseringslovgivning, og udbydere, der finder, at et AI-system,
der er opført som tilfælde af højrisikoanvendelser i et bilag til denne forordning, ikke er højrisiko
på grundlag af en undtagelse, pålægges at registrere sig selv og oplysninger om deres AI-system i
en EU-database, der skal oprettes og forvaltes af Kommissionen. Inden anvendelse af et AI-system,
der er opført som tilfælde af højrisikoanvendelser i et bilag til denne forordning, bør idriftsættere af
højrisiko-AI-systemer, der er offentlige myndigheder, agenturer eller organer, registrere sig selv i en
sådan database og udvælge det system, de påtænker at anvende. Andre idriftsættere bør have ret til at gøre
dette frivilligt. Denne del af EU-databasen bør være offentligt tilgængelig og gratis, og oplysningerne
bør være lettilgængelige, forståelige og maskinlæsbare. EU-databasen bør også være brugervenlig, f.eks.
ved at råde over søgefunktioner, herunder gennem nøgleord, der gør det muligt for offentligheden at
finde relevante oplysninger, der skal indsendes ved registrering af højrisiko-AI-systemer, og om højrisi-
ko-AI-systemers anvendelsestilfælde fastsat i et bilag til denne forordning, som højrisiko-AI-systemerne
svarer til. Enhver væsentlig ændring af højrisiko-AI-systemer bør også registreres i EU-databasen. For
højrisiko-AI-systemer inden for retshåndhævelse og migrationsstyring, asylforvaltning og grænsekontrol
bør registreringsforpligtelserne opfyldes i en sikker ikkeoffentlig del af EU-databasen. Adgang til den
sikre ikkeoffentlige del bør være strengt begrænset til Kommissionen og til markedsovervågningsmyndig-
hederne for så vidt angår deres nationale del af den pågældende database. Højrisiko-AI-systemer inden
for kritisk infrastruktur bør kun registreres på nationalt plan. Kommissionen bør være dataansvarlig
for EU-databasen i overensstemmelse med forordning (EU) 2018/1725. For at sikre at EU-databasen
fungerer efter hensigten, når den tages i idriftsættes, bør proceduren for oprettelse af databasen omfatte, at
Kommissionen udarbejder funktionsspecifikationer, samt en uafhængig revisionsrapport. Kommissionen
bør tage hensyn til cybersikkerhedsrisici, når den udfører sine opgaver som dataansvarlig for EU-databa-
sen. For at maksimere offentlighedens tilgængelighed og anvendelse af EU-databasen bør EU-databasen,
herunder oplysninger, der stilles til rådighed igennem den, overholde kravene i medfør af direktiv (EU)
2019/882.
(132) Visse AI-systemer, der er tilsigtet at interagere med fysiske personer eller generere indhold, kan
indebære særlige risici for imitation eller vildledning, uanset om de er klassificeret som højrisiko eller
ej. Under visse omstændigheder bør anvendelsen af disse systemer derfor være underlagt særlige gennem-
sigtighedsforpligtelser, uden at dette berører kravene og forpligtelserne for højrisiko-AI-systemer, og
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0044.png
44
målrettede undtagelser for at tage hensyn til særlige behov inden for retshåndhævelse. Fysiske personer
bør navnlig underrettes om, at de interagerer med et AI-system, medmindre dette er indlysende ud
fra en rimelig oplyst, opmærksom og velunderrettet fysisk persons synspunkt under hensyntagen til
omstændighederne og anvendelsessammenhængen. Ved gennemførelsen af denne forpligtelse bør der
tages hensyn til egenskaber hos fysiske personer, der tilhører sårbare grupper på grund af deres alder eller
handicap, i det omfang AI-systemet er tilsigtet også at interagere med disse grupper. Fysiske personer bør
desuden underrettes, når de udsættes for AI-systemer, der ved at behandle personernes biometriske data
kan genkende eller udlede følelserne eller hensigterne hos disse personer eller placere dem i specifikke
kategorier. Sådanne specifikke kategorier kan vedrøre aspekter såsom køn, alder, hårfarve, øjenfarve,
tatoveringer, personlighedstræk, etnisk oprindelse, personlige præferencer og interesser. Sådanne oplys-
ninger og underretninger bør gives i formater, der er tilgængelige for personer med handicap.
(133) En række AI-systemer kan generere store mængder syntetisk indhold, som bliver stadig vanske-
ligere for mennesker at adskille fra menneskegenereret og autentisk indhold. Disse systemers brede
tilgængelighed og øgede kapaciteter har en betydelig indvirkning på integriteten af og tilliden til informa-
tionsøkosystemet, hvilket skaber nye risici for misinformation og manipulation i stor målestok, svig,
imitation eller vildledning af forbrugerne. I lyset af disse virkninger, det hurtige teknologiske tempo
og behovet for nye metoder og teknikker til sporing af oplysningernes oprindelse bør udbydere af
disse systemer pålægges at indlejre tekniske løsninger, som muliggør markering i et maskinlæsbart
format og påvisning af, at outputtet er blevet genereret eller manipuleret af et AI-system og ikke af
et menneske. Sådanne teknikker og metoder bør være tilstrækkeligt pålidelige, interoperable, effektive
og robuste, i det omfang dette er teknisk muligt, under hensyntagen til tilgængelige teknikker eller en
kombination af sådanne teknikker såsom vandmærker, metadataidentifikationer, kryptografiske metoder
til påvisning af indholdets oprindelse og ægthed, registreringsmetoder, fingeraftryk eller andre teknikker,
alt efter hvad der kan være relevant. Udbydere bør ved gennemførelsen af denne forpligtelse tage hensyn
til de forskellige typer indholds særlige forhold og begrænsninger og markedsudviklinger på området,
som er afspejlet i det generelt anerkendte aktuelle teknologiske niveau. Sådanne teknikker og metoder kan
gennemføres på AI-systemniveau eller AI-modelniveau, som omfatter AI-modeller til almen brug, der
genererer indhold, og derved gøre det nemmere for AI-systemets downstreamudbyder at opfylde denne
forpligtelse. Det bør fastsættes, at hvis denne mærkningsforpligtelse skal forblive forholdsmæssig, bør
den ikke omfatte AI-systemer, der primært udfører en hjælpefunktion med henblik på standardredigering,
eller AI-systemer, der ikke i væsentlig grad ændrer de inputdata, der leveres af idriftsætteren, eller
semantikken heraf.
(134) I forlængelse af de tekniske løsninger, som udbydere af AI-systemet anvender, bør de idriftsættere,
der anvender et AI-system til at generere eller manipulere billed-, lyd- eller videoindhold, der i væsentlig
grad ligner faktiske personer, genstande, steder, enheder eller begivenheder, og som fejlagtigt vil fremstå
ægte eller sandfærdigt for en person (»deepfakes«), også klart og synligt oplyse, at indholdet er kunstigt
skabt eller manipuleret, ved at mærke AI-outputtet i overensstemmelse hermed og oplyse om dets
kunstige oprindelse. Overholdelse af denne gennemsigtighedsforpligtelse bør ikke fortolkes således, at
anvendelse af AI-systemet eller dets output hindrer ytringsfriheden eller retten til frihed for kunst og
videnskab, der er sikret ved chartret, navnlig når indholdet er en del af et åbenlyst kreativt, satirisk,
kunstnerisk, fiktivt eller tilsvarende arbejde eller program, med forbehold af passende sikkerhedsforan-
staltninger for tredjemands rettigheder og friheder. I disse tilfælde er gennemsigtighedsforpligtelsen for
deepfakes fastsat i denne forordning begrænset til oplysning om eksistensen af sådant genereret eller
manipuleret indhold på en passende måde, der ikke er til gene for visningen eller nydelsen af værket,
herunder den normale udnyttelse og anvendelse heraf, samtidig med at værkets nytteværdi og kvalitet
bevares. En lignende oplysningspligt bør desuden tilstræbes for AI-genereret eller manipuleret tekst, for
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0045.png
45
så vidt den offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse,
medmindre det AI-genererede indhold har gennemgået en proces med menneskelig gennemgang eller
redaktionel kontrol, og en fysisk eller juridisk person har det redaktionelle ansvar for offentliggørelsen af
indholdet.
(135) Uden at det berører disse gennemsigtighedsforpligtelsers obligatoriske karakter og fulde anvende-
lighed, kan Kommissionen også tilskynde til og lette udarbejdelsen af praksiskodekser på EU-plan for
at lette en effektiv gennemførelse af forpligtelserne til påvisning og mærkning af kunstigt genereret eller
manipuleret indhold, herunder til støtte for praktiske ordninger for i relevant omfang at gøre sporingsme-
kanismerne tilgængelige og lette samarbejdet med andre aktører i værdikæden, formidle indhold eller
kontrollere dets ægthed og oprindelse, så offentligheden effektivt kan adskille AI-genereret indhold.
(136) De forpligtelser, der pålægges udbydere og idriftsættere af visse AI-systemer i denne forordning,
for at gøre det muligt at påvise og oplyse, at outputtet af disse systemer er blevet genereret kunstigt eller
manipuleret, er særlig relevante for at lette en effektiv gennemførelse af forordning (EU) 2022/2065. Det-
te gælder navnlig for forpligtelserne for udbydere af meget store onlineplatforme eller meget store online-
søgemaskiner til at identificere og afbøde systemiske risici, der kan opstå som følge af formidlingen af
indhold, der er blevet kunstigt genereret eller manipuleret, navnlig risikoen for de faktiske eller forvente-
de negative virkninger for demokratiske processer, samfundsdebatten og valgprocesser, herunder gennem
desinformation. Kravet om mærkning af indhold genereret af AI-systemer i henhold til nærværende
forordning berører ikke forpligtelsen i artikel 16, stk. 6, i forordning (EU) 2022/2065 for udbydere af
oplagringstjenester til at behandle anmeldelser om ulovligt indhold, som er modtaget i henhold til nævnte
forordnings artikel 16, stk. 1, og bør ikke påvirke vurderingen af og afgørelsen om det specifikke indholds
lovlighed. Denne vurdering bør udelukkende foretages under henvisning til reglerne om lovligheden af
indholdet.
(137) Overholdelse af de gennemsigtighedsforpligtelser for AI-systemer, som er omfattet af denne forord-
ning, bør ikke fortolkes således, at anvendelsen af systemet eller dets output er lovlig i henhold til denne
forordning eller anden EU-ret eller ret i medlemsstaterne, og bør ikke berøre andre gennemsigtighedsfor-
pligtelser for idriftsættere af AI-systemer i EU-retten eller national ret.
(138) AI er en hurtigt voksende familie af teknologier, der kræver myndighedstilsyn og et sikkert og
kontrolleret miljø til forsøg, samtidig med at der sikres ansvarlig innovation og integration af passende
sikkerhedsforanstaltninger og risikobegrænsende foranstaltninger. For at sikre en lovgivningsmæssig
ramme, der fremmer innovation og er fremtidssikret og modstandsdygtig over for forstyrrelser, bør
medlemsstaterne sikre, at deres nationale kompetente myndigheder opretter mindst én reguleringsmæssig
AI-sandkasse på nationalt plan for at lette udviklingen og afprøvningen af innovative AI-systemer under
strengt myndighedstilsyn, før disse systemer bringes i omsætning eller på anden måde ibrugtages. Med-
lemsstaterne kan også opfylde denne forpligtelse ved at deltage i allerede eksisterende reguleringsmæs-
sige sandkasser eller oprette en sandkasse sammen med én eller flere medlemsstaters kompetente myn-
digheder, for så vidt som denne deltagelse giver de deltagende medlemsstater et tilsvarende nationalt
dækningsniveau. Reguleringsmæssige AI-sandkasser kan oprettes i fysisk, digital eller hybrid form og
kan tilpasses fysiske såvel som digitale produkter. De oprettende myndigheder bør også sikre de regule-
ringsmæssige AI-sandkasser tilstrækkelige ressourcer, herunder finansielle og menneskelige ressourcer,
til at fungere.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0046.png
46
(139) Formålet med de reguleringsmæssige AI-sandkasser bør være at fremme innovation inden for
kunstig intelligens ved at skabe et kontrolleret forsøgs- og afprøvningsmiljø i udviklingsfasen forud
for omsætning med henblik på at sikre, at de innovative AI-systemer er i overensstemmelse med
denne forordning og anden relevant EU-ret og national ret. De reguleringsmæssige AI-sandkasser bør
endvidere øge retssikkerheden for innovatorer og de kompetente myndigheders tilsyn og forståelse af de
muligheder, nye risici og virkninger, der er forbundet med anvendelsen af AI, lette lovgivningsmæssig
læring for myndigheder og virksomheder, herunder med henblik på fremtidige tilpasninger af den retlige
ramme, støtte samarbejdet og udvekslingen af bedste praksis med de myndigheder, der er involveret i
den reguleringsmæssige AI-sandkasse, samt fremskynde adgangen til markeder, herunder ved at fjerne
hindringer for SMV�½er, herunder iværksættervirksomheder. Reguleringsmæssige AI-sandkasser bør være
bredt tilgængelige i hele Unionen, og der bør lægges særlig vægt på deres tilgængelighed for SMV�½er,
herunder iværksættervirksomheder. Deltagelsen i den reguleringsmæssige AI-sandkasse bør fokusere
på spørgsmål, der skaber retsusikkerhed for udbydere og potentielle udbydere med hensyn til at innove-
re, eksperimentere med kunstig intelligens i Unionen og bidrage til evidensbaseret lovgivningsmæssig
læring. Tilsynet med AI-systemerne i den reguleringsmæssige AI-sandkasse bør derfor omfatte deres
udvikling, træning, afprøvning og validering, inden systemerne bringes i omsætning eller ibrugtages
samt begrebet og forekomsten af væsentlige ændringer, der kan kræve en ny overensstemmelsesvurde-
ringsprocedure. Enhver væsentlig risiko, der konstateres under udviklingen og afprøvningen af sådanne
AI-systemer, bør afbødes i tilstrækkelig grad, og hvis dette ikke er muligt, bør udviklings- og afprøv-
ningsprocessen suspenderes. Hvis det er relevant, bør de nationale kompetente myndigheder, der opretter
reguleringsmæssige AI-sandkasser, samarbejde med andre relevante myndigheder, herunder dem, der
fører tilsyn med beskyttelsen af grundlæggende rettigheder, og de kan muliggøre inddragelse af andre
aktører i AI-økosystemet såsom nationale eller europæiske standardiseringsorganisationer, bemyndigede
organer, afprøvnings- og forsøgsfaciliteter, forsknings- og forsøgslaboratorier, europæiske digitale inno-
vationsknudepunkter og relevante interessenter og civilsamfundsorganisationer. For at sikre en ensartet
gennemførelse i hele Unionen samt stordriftsfordele bør der fastsættes fælles regler for gennemførelsen
af de reguleringsmæssige AI-sandkasser og en ramme for samarbejde mellem de relevante myndigheder,
der er involveret i tilsynet med sandkasserne. Reguleringsmæssige AI-sandkasser, der oprettes i henhold
til denne forordning, bør ikke berøre anden ret, der giver mulighed for at oprette andre sandkasser,
der har til formål at sikre overholdelse af anden ret end denne forordning. Hvis det er relevant, bør
de relevante kompetente myndigheder med ansvar for disse andre reguleringsmæssige sandkasser også
overveje fordelene ved at anvende disse sandkasser med henblik på at sikre AI-systemers overensstem-
melse med denne forordning. Efter aftale mellem de nationale kompetente myndigheder og deltagerne i
den reguleringsmæssige AI-sandkasse kan der også gennemføres og føres tilsyn med afprøvning under
faktiske forhold inden for rammerne af den reguleringsmæssige AI-sandkasse.
(140) Denne forordning bør udgøre retsgrundlaget for udbyderne og de potentielle udbydere i den
reguleringsmæssige AI-sandkasse til kun på bestemte betingelser at anvende personoplysninger, der er
indsamlet til andre formål med henblik på udvikling af visse samfundsnyttige AI-systemer inden for
rammerne af den reguleringsmæssige AI-sandkasse, jf. artikel 6, stk. 4, og artikel 9, stk. 2, litra g), i
forordning (EU) 2016/679 og artikel 5, 6 og 10 i forordning (EU) 2018/1725, og uden at det berører
artikel 4, stk. 2, og artikel 10 i direktiv (EU) 2016/680. Alle andre forpligtelser for databehandlere og
rettigheder for registrerede i henhold til forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv
(EU) 2016/680 finder fortsat anvendelse. Især bør nærværende forordning ikke udgøre et retsgrundlag
som omhandlet i artikel 22, stk. 2, litra b), i forordning (EU) 2016/679 og artikel 24, stk. 2, litra b), i for-
ordning (EU) 2018/1725. Udbydere og potentielle udbydere i den reguleringsmæssige AI-sandkasse bør
sørge for passende sikkerhedsforanstaltninger og samarbejde med de kompetente myndigheder, herunder
ved at følge deres vejledning og handle hurtigt og i god tro for i tilstrækkelig grad at afbøde eventuelle
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0047.png
47
konstaterede betydelige risici med hensyn til sikkerhed, sundhed og de grundlæggende rettigheder, som
måtte opstå under udviklingen, afprøvningen og forsøgene i denne sandkasse.
(141) For at fremskynde udviklingen og omsætningen af de højrisiko-AI-systemer, der er opført i et bilag
til denne forordning, er det vigtigt, at udbydere eller potentielle udbydere af sådanne systemer også kan
drage fordel af en særlig ordning for afprøvning af disse systemer under faktiske forhold uden at deltage i
en reguleringsmæssig AI-sandkasse. I sådanne tilfælde og under hensyntagen til de mulige konsekvenser
af en sådan afprøvning for enkeltpersoner bør det imidlertid sikres, at denne forordning indfører passende
og fornødne sikkerhedsforanstaltninger og betingelser for udbydere eller potentielle udbydere. Sådanne
garantier bør bl.a. omfatte anmodning om fysiske personers informerede samtykke til at deltage i af-
prøvninger under faktiske forhold med undtagelse af retshåndhævelse, hvis indhentning af informeret
samtykke ville forhindre AI-systemet i at blive afprøvet. Registreredes samtykke til at deltage i sådanne
afprøvninger i henhold til denne forordning adskiller sig fra og berører ikke de registreredes samtykke
til behandling af deres personoplysninger i henhold til den relevante databeskyttelsesret. Det er også
vigtigt at minimere risiciene og give de kompetente myndigheder mulighed for at føre tilsyn og dermed
kræve, at potentielle udbydere har en plan for afprøvning under faktiske forhold, som forelægges for den
kompetente markedsovervågningsmyndighed, registrerer afprøvningen i særlige dele i EU-databasen med
forbehold af visse begrænsede undtagelser, fastsætter begrænsninger for den periode, inden for hvilken
afprøvningen kan finde sted, og stiller krav om yderligere sikkerhedsforanstaltninger for personer, der
tilhører visse sårbare grupper, samt om en skriftlig aftale, der definerer potentielle udbyderes og idriftsæt-
teres rolle og ansvarsområder og et effektivt tilsyn fra det kompetente personales side, som er involveret i
afprøvningen under faktiske forhold. Der bør desuden tilstræbes yderligere sikkerhedsforanstaltninger for
at sikre, at AI-systemets forudsigelser, anbefalinger eller beslutninger reelt kan omgøres og ses bort fra,
og at personoplysninger beskyttes og slettes, når de registrerede har trukket deres samtykke til at deltage
i afprøvningen tilbage, uden at det berører deres rettigheder som registrerede i henhold til EU-databeskyt-
telsesretten. For så vidt angår overførsel af data bør det tilstræbes, at data, der indsamles og behandles
med henblik på afprøvning under faktiske forhold, kun bør overføres til tredjelande, hvis der gennemføres
passende og gældende sikkerhedsforanstaltninger i henhold til EU-retten, navnlig i overensstemmelse
med grundlag for overførsel af personoplysninger i henhold til EU-databeskyttelsesretten, mens der for
andre data end personoplysninger indføres passende sikkerhedsforanstaltninger i overensstemmelse med
EU-retten såsom Europa-Parlamentets og Rådets forordning (EU) 2022/868 (
42
) og (EU) 2023/2854 (
43
).
(142) For at sikre at AI fører til socialt og miljømæssigt gavnlige resultater, tilskyndes medlemsstaterne til
at støtte og fremme forskning i og udvikling af AI-løsninger til støtte for socialt og miljømæssigt gavnlige
resultater såsom AI-baserede løsninger for at øge tilgængeligheden for personer med handicap, bekæmpe
socioøkonomiske uligheder eller opfylde miljømål ved at afsætte tilstrækkelige ressourcer, herunder
offentlig finansiering og EU-finansiering, og, hvis det er relevant, og forudsat at støtteberettigelses- og
udvælgelseskriterierne er opfyldt, ved navnlig at tage højde for projekter, der forfølger sådanne mål. Så-
danne projekter bør baseres på princippet om tværfagligt samarbejde mellem AI-udviklere, eksperter
i ulighed og ikkeforskelsbehandling, tilgængelighed, forbrugerrettigheder, miljørettigheder og digitale
rettigheder samt akademikere.
(143) For at fremme og beskytte innovation er det vigtigt at tage særligt hensyn til interesserne hos
SMV�½er, herunder iværksættervirksomheder, som er udbydere eller idriftsættere af AI-systemer. Med
henblik herpå bør medlemsstaterne udarbejde initiativer, der er rettet mod disse operatører, herunder ved-
rørende oplysning og informationsformidling. Medlemsstaterne bør give SMV�½er, herunder iværksætter-
virksomheder, der har vedtægtsmæssigt hjemsted eller en filial i Unionen, prioriteret adgang til de regule-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0048.png
48
ringsmæssige AI-sandkasser, forudsat at de opfylder støtteberettigelsesbetingelserne og udvælgelseskrite-
rierne, og uden at andre udbydere og potentielle udbydere udelukkes fra at få adgang til sandkasserne,
såfremt de samme betingelser og kriterier er opfyldt. Medlemsstaterne bør udnytte eksisterende kanaler
og, hvis det er relevant, etablere nye særlige kanaler for kommunikation med SMV�½er, herunder iværk-
sættervirksomheder, idriftsættere, andre innovatorer og, alt efter hvad der er relevant, lokale offentlige
myndigheder, med henblik på at støtte SMV�½er gennem hele deres udviklingsforløb ved at yde vejledning
og besvare spørgsmål om gennemførelsen af denne forordning. Hvis det er relevant, bør disse kanaler
arbejde sammen om at skabe synergier og sikre ensartethed i deres vejledning til SMV�½er, herunder
iværksættervirksomheder, og idriftsættere. Medlemsstaterne bør desuden lette deltagelse af SMV�½er og
andre relevante interessenter i standardiseringsudviklingsprocessen. Desuden bør der tages hensyn til de
særlige interesser og behov hos udbydere, der er SMV�½er, herunder iværksættervirksomheder, når bemyn-
digede organer fastsætter gebyrer for overensstemmelsesvurderinger. Kommissionen bør regelmæssigt
vurdere certificerings- og efterlevelsesomkostningerne for SMV�½er, herunder iværksættervirksomheder,
gennem gennemsigtige høringer og arbejde sammen med medlemsstaterne om at nedbringe disse om-
kostninger. Omkostninger forbundet med oversættelse af obligatorisk dokumentation og kommunikation
med myndigheder kan f.eks. udgøre en betydelig omkostning for udbydere og andre operatører, navnlig
mindre udbydere og operatører. Medlemsstaterne bør eventuelt sørge for, at et af de sprog, som de
bestemmer sig for og accepterer til de relevante udbyderes dokumentation og til kommunikation med
operatørerne, er et sprog, der forstås bredt af flest mulige idriftsættere på tværs af grænserne. For at
imødekomme SMV�½ers, herunder iværksættervirksomheder, specifikke behov bør Kommissionen efter
anmodning fra AI-udvalget tilvejebringe standardiserede skabeloner for de områder, der er omfattet af
denne forordning. Desuden bør Kommissionen supplere medlemsstaternes indsats ved at stille en central
informationsplatform med brugervenlige oplysninger om denne forordning til rådighed for alle udbydere
og idriftsættere, idet den tilrettelægger passende kommunikationskampagner for at øge bevidstheden om
de forpligtelser, der følger af denne forordning, og evaluerer og fremmer konvergensen af bedste praksis
i offentlige udbudsprocedurer i forbindelse med AI-systemer. Mellemstore virksomheder, der indtil for
nylig var små virksomheder som omhandlet i bilaget til Kommissionens henstilling 2003/361/EF (
44
), bør
have adgang til disse støtteforanstaltninger, eftersom disse nye mellemstore virksomheder undertiden kan
mangle de juridiske ressourcer og den uddannelse, der er nødvendig for at sikre en korrekt forståelse og
overholdelse af denne forordning.
(144) For at fremme og beskytte innovation bør AI-on-demand-platformen og alle relevante EU-finan-
sieringsprogrammer og -projekter såsom programmet for et digitalt Europa og Horisont Europa, der
gennemføres af Kommissionen og medlemsstaterne på EU-plan eller nationalt plan, i relevant omfang
bidrage til at nå denne forordnings mål.
(145) For at minimere risiciene i gennemførelsen som følge af manglende viden og ekspertise på marke-
det samt for at gøre det lettere for udbydere, navnlig SMV�½er, herunder iværksættervirksomheder, og
bemyndigede organer at overholde deres forpligtelser i medfør af denne forordning bør navnlig AI-on-
demand-platformen, de europæiske digitale innovationsknudepunkter og de afprøvnings- og forsøgsfacili-
teter, som Kommissionen og medlemsstaterne har oprettet på EU-plan eller nationalt plan, bidrage til
gennemførelsen af denne forordning. Inden for rammerne af deres respektive opgave- og kompetenceom-
råde kan AI-on-demand-platformen, de europæiske digitale innovationsknudepunkter og afprøvnings- og
forsøgsfaciliteterne navnlig yde teknisk og videnskabelig støtte til udbydere og bemyndigede organer.
(146) I lyset af nogle operatørers meget beskedne størrelse og for at sikre proportionalitet med hensyn
til innovationsomkostninger er det desuden hensigtsmæssigt at give mikrovirksomheder mulighed for at
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0049.png
49
opfylde en af de dyreste forpligtelser, nemlig etablering af et kvalitetsstyringssystem, der på en forenklet
måde vil mindske den administrative byrde og omkostningerne for disse virksomheder uden at påvirke
beskyttelsesniveauet og behovet for overholdelse af kravene til højrisiko-AI-systemer. Kommissionen
bør udarbejde retningslinjer med henblik på at præcisere, hvilke elementer i kvalitetsstyringssystemet
mikrovirksomheder skal opfylde på denne forenklede måde.
(147) Kommissionen bør så vidt muligt lette adgangen til afprøvnings- og forsøgsfaciliteter for organer,
grupper eller laboratorier, der er oprettet eller akkrediteret i henhold til relevant EU-harmoniseringslov-
givning, og som udfører opgaver i forbindelse med overensstemmelsesvurderinger af produkter eller
udstyr, der er omfattet af EU-harmoniseringslovgivningen. Dette er navnlig tilfældet for ekspertpane-
ler, ekspertlaboratorier og referencelaboratorier på området for medicinsk udstyr, jf. forordning (EU)
2017/745 og (EU) 2017/746.
(148) Denne forordning bør fastsætte en forvaltningsramme, som gør det muligt både at koordinere og
støtte anvendelsen af denne forordning på nationalt plan samt opbygge kapaciteter på EU-plan og inddra-
ge interessenter inden for AI. En effektiv gennemførelse og håndhævelse af denne forordning kræver en
forvaltningsramme, som gør det muligt at koordinere og opbygge central ekspertise på EU-plan. AI-kon-
toret blev oprettet ved Kommissionens afgørelse (
45
) og har som mission at udvikle Unionens ekspertise
og kapaciteter inden for AI og bidrage til gennemførelsen af EU-ret om AI. Medlemsstaterne bør lette
AI-kontorets opgaver med henblik på at støtte udviklingen af Unionens ekspertise og kapaciteter på
EU-plan og styrke det digitale indre markeds funktion. Der bør endvidere oprettes et AI-udvalg bestående
af repræsentanter for medlemsstaterne, et videnskabeligt panel til at integrere det videnskabelige samfund
og et rådgivende forum, der skal bidrage med input fra interessenter til gennemførelsen af denne forord-
ning, både på EU-plan og nationalt plan. Udviklingen af Unionens ekspertise og kapaciteter bør også
indebære, at eksisterende ressourcer og ekspertise udnyttes, navnlig gennem synergier med strukturer,
der er opbygget i forbindelse med håndhævelse på EU-plan af anden ret, og synergier med tilhørende
initiativer på EU-plan såsom fællesforetagendet EuroHPC og AI-afprøvnings- og -forsøgsfaciliteter under
programmet for et digitalt Europa.
(149) For at lette en gnidningsløs, effektiv og harmoniseret gennemførelse af denne forordning bør
der nedsættes et AI-udvalg. AI-udvalget bør afspejle AI-økosystemets forskellige interesser og bestå af
repræsentanter for medlemsstaterne. AI-udvalget bør være ansvarligt for en række rådgivningsopgaver
såsom udtalelser, henstillinger, rådgivning eller bidrag til vejledning om spørgsmål vedrørende gennem-
førelsen af denne forordning, herunder med hensyn til håndhævelsesspørgsmål, tekniske specifikationer
eller eksisterende standarder i forbindelse med de krav, der er fastsat i denne forordning, samt rådgive
og bistå Kommissionen og medlemsstaterne og deres nationale kompetente myndigheder i forbindelse
med specifikke spørgsmål vedrørende AI. For at give medlemsstaterne en vis fleksibilitet med hensyn
til udpegelsen af deres repræsentanter i AI-udvalget kan sådanne repræsentanter være alle personer
tilhørende offentlige enheder, som bør have de relevante kompetencer og beføjelser til at lette koordine-
ring på nationalt plan og bidrage til udførelsen af AI-udvalgets opgaver. AI-udvalget bør nedsætte to
stående undergrupper for at tilvejebringe en platform for samarbejde og udveksling mellem markedsover-
vågningsmyndigheder og bemyndigende myndigheder om spørgsmål vedrørende henholdsvis markeds-
overvågning og bemyndigede organer. Den stående undergruppe for markedsovervågning bør fungere
som den administrative samarbejdsgruppe (ADCO) i forbindelse med denne forordning som omhandlet
i artikel 30 i forordning (EU) 2019/1020. I overensstemmelse med artikel 33 i nævnte forordning bør
Kommissionen støtte aktiviteterne i den stående undergruppe for markedsovervågning ved at foretage
markedsevalueringer eller -undersøgelser, navnlig med henblik på at identificere aspekter af nærværende
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0050.png
50
forordning, der kræver specifik og hurtig koordinering mellem markedsovervågningsmyndighederne. AI-
udvalget kan nedsætte andre stående eller midlertidige undergrupper, alt efter hvad der er relevant, med
henblik på at behandle specifikke spørgsmål. AI-udvalget bør også i relevant omfang samarbejde med
relevante EU-organer, -ekspertgrupper og -netværk, der er aktive inden for rammerne af relevant EU-ret,
herunder navnlig dem, der er aktive i henhold til den relevante EU-ret om data, digitale produkter og
tjenester.
(150) Med henblik på at sikre inddragelse af interessenter i gennemførelsen og anvendelsen af denne
forordning bør der oprettes et rådgivende forum, som skal rådgive og yde teknisk ekspertise til AI-ud-
valget og Kommissionen. For at sikre en varieret og afbalanceret repræsentation af interessenter med
kommercielle og ikkekommercielle interesser og inden for kategorien af kommercielle interesser for så
vidt angår SMV�½er og andre virksomheder bør det rådgivende forum bl.a. bestå af industrien, iværksætter-
virksomheder, SMV�½er, den akademiske verden, civilsamfundet, herunder arbejdsmarkedets parter, samt
Agenturet for Grundlæggende Rettigheder, ENISA, Den Europæiske Standardiseringsorganisation (CEN),
Den Europæiske Komité for Elektroteknisk Standardisering (Cenelec) og Det Europæiske Standardise-
ringsinstitut for Telekommunikation (ETSI).
(151) For at støtte gennemførelsen og håndhævelsen af denne forordning, navnlig AI-kontorets overvåg-
ningsaktiviteter med hensyn til AI-modeller til almen brug, bør der oprettes et videnskabeligt panel
af uafhængige eksperter. De uafhængige eksperter, der udgør det videnskabelige panel, bør udvælges
på grundlag af ajourført videnskabelig eller teknisk ekspertise inden for AI og varetage deres opgaver
upartisk og objektivt og sikre fortroligheden af oplysninger og data, der indhentes under udførelsen af
deres opgaver og aktiviteter. For at gøre det muligt at styrke de nationale kapaciteter, der er nødvendige
for en effektiv håndhævelse af denne forordning, bør medlemsstaterne kunne anmode om støtte til deres
håndhævelsesaktiviteter fra den pulje af eksperter, der udgør det videnskabelige panel.
(152) For at støtte passende håndhævelse af AI-systemer og styrke medlemsstaternes kapaciteter bør der
oprettes EU-støttestrukturer for afprøvning af AI, som stilles til rådighed for medlemsstaterne.
(153) Medlemsstaterne spiller en central rolle i anvendelsen og håndhævelsen af denne forordning. I
den forbindelse bør hver medlemsstat udpege mindst én bemyndigende myndighed og mindst én mar-
kedsovervågningsmyndighed som nationale kompetente myndigheder til at føre tilsyn med anvendelsen
og gennemførelsen af denne forordning. Medlemsstaterne kan beslutte at udpege enhver type offentlig
enhed til at udføre de nationale kompetente myndigheders opgaver som omhandlet i denne forordning
i overensstemmelse med deres specifikke nationale organisatoriske karakteristika og behov. For at øge
organisationseffektiviteten for medlemsstaternes vedkommende og oprette et centralt kontaktpunkt for
offentligheden og andre modparter på nationalt plan og EU-plan bør hver medlemsstat udpege en mar-
kedsovervågningsmyndighed, der skal fungere som centralt kontaktpunkt.
(154) De nationale kompetente myndigheder bør udøve deres beføjelser uafhængigt, upartisk og uden
bias for derved at beskytte principperne om objektivitet i deres aktiviteter og opgaver og for at sikre
anvendelsen og gennemførelsen af denne forordning. Medlemmerne af disse myndigheder bør afholde sig
fra ethvert tiltag, der er uforenelig med deres beføjelser, og være underlagt fortrolighedsreglerne i denne
forordning.
(155) For at sikre at udbydere af højrisiko-AI-systemer tager erfaringerne med anvendelse af højrisiko-
AI-systemer i betragtning, når de vil forbedre deres systemer og udformnings- og udviklingsprocessen,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0051.png
51
eller kan foretage eventuelle korrigerende tiltag rettidigt, bør alle udbydere have indført et system til
overvågning efter omsætningen. Hvis det er relevant, bør overvågning efter omsætningen omfatte en
analyse af interaktionen med andre AI-systemer, herunder andet udstyr og software. Overvågning efter
omsætningen bør ikke omfatte følsomme operationelle data fra idriftsættere, som er retshåndhævende
myndigheder. Dette system er også afgørende for at sikre, at eventuelle risici som følge af AI-systemer,
der fortsætter med at »lære« efter at være bragt i omsætning eller ibrugtaget, kan imødegås mere effektivt
og rettidigt. I den forbindelse bør udbyderne også forpligtes til at have indført et system til at indberette
alvorlige hændelser til de relevante myndigheder, som skyldes anvendelsen af deres AI-systemer, dvs. en
hændelse eller funktionsfejl, der fører til dødsfald eller alvorlig sundhedsskade, alvorlig og uoprettelig
forstyrrelse i forvaltningen og driften af kritisk infrastruktur, overtrædelser af forpligtelser i henhold til
den del af EU-retten, der har til formål at beskytte de grundlæggende rettigheder, eller alvorlig skade på
ejendom eller miljøet.
(156) For at sikre en hensigtsmæssig og effektiv håndhævelse af de krav og forpligtelser, der er
fastsat i denne forordning, som repræsenterer Unionens harmoniseringslovgivning, bør det system til
markedsovervågning og produktoverensstemmelse, der er indført ved forordning (EU) 2019/1020, finde
anvendelse i sin helhed. Markedsovervågningsmyndigheder, der er udpeget i henhold til nærværende
forordning, bør alle have håndhævelsesbeføjelser som fastsat i nærværende forordning og i forordning
(EU) 2019/1020 og bør udøve deres beføjelser og udføre deres opgaver uafhængigt, upartisk og uden
bias. Selv om de fleste AI-systemer ikke er underlagt specifikke krav og forpligtelser i henhold til
nærværende forordning, kan markedsovervågningsmyndighederne træffe foranstaltninger vedrørende alle
AI-systemer, når de udgør en risiko i overensstemmelse med nærværende forordning. På grund af den
særlige karakter af EU-institutioner, -agenturer og -organer, der er omfattet af nærværende forordnings
anvendelsesområde, er det hensigtsmæssigt at udpege Den Europæiske Tilsynsførende for Databeskyttel-
se som kompetent markedsovervågningsmyndighed for dem. Dette bør ikke berøre medlemsstaternes
udpegelse af nationale kompetente myndigheder. Markedsovervågningsaktiviteter bør ikke påvirke de
tilsynsbelagte enheders evne til at udføre deres opgaver uafhængigt, når en sådan uafhængighed er påbudt
i henhold til EU-retten.
(157) Denne forordning berører ikke kompetencerne, opgaverne, beføjelserne og uafhængigheden hos
relevante nationale offentlige myndigheder eller organer, der fører tilsyn med anvendelsen af EU-retten
om beskyttelse af grundlæggende rettigheder, herunder ligestillingsorganer og databeskyttelsesmyndighe-
der. Hvis det er nødvendigt for deres mandat, bør disse nationale offentlige myndigheder eller organer
også have adgang til al den dokumentation, der er udarbejdet i henhold til denne forordning. Der
bør fastsættes en særlig beskyttelsesprocedure for at sikre passende og rettidig håndhævelse over for
AI-systemer, som udgør en risiko for sundhed, sikkerhed og grundlæggende rettigheder. Proceduren for
sådanne AI-systemer, som udgør en risiko, bør anvendes på højrisiko-AI-systemer, der udgør en risiko,
forbudte systemer, der er bragt i omsætning, ibrugtaget eller anvendt i strid med de forbudte former
for praksis, der er fastsat i denne forordning, og AI-systemer, der er gjort tilgængelige i strid med de
gennemsigtighedskrav, der er fastsat i denne forordning, og som udgør en risiko.
(158) EU-retten om finansielle tjenesteydelser omfatter regler og krav vedrørende intern ledelse og
risikostyring, som finder anvendelse på regulerede finansielle institutioner i forbindelse med leveringen af
sådanne tjenester, også når de gør brug af AI-systemer. For at sikre en sammenhængende anvendelse og
håndhævelse af forpligtelserne i henhold til denne forordning og de relevante regler og krav i EU-retsak-
ter om finansielle tjenesteydelser bør de kompetente myndigheder for tilsyn med og håndhævelse af disse
retsakter, navnlig kompetente myndigheder som defineret i Europa-Parlamentets og Rådets forordning
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0052.png
52
(EU) nr. 575/2013 (
46
) og Europa-Parlamentets og Rådets direktiv 2008/48/EF (
47
), 2009/138/EF (
48
),
2013/36/EU (
49
), 2014/17/EU (
50
) og (EU) 2016/97 (
51
), udpeges som kompetente myndigheder inden for
deres respektive kompetenceområder med henblik på at føre tilsyn med gennemførelsen af nærværende
forordning, herunder også markedsovervågningsaktiviteter, for så vidt angår AI-systemer, der leveres
eller anvendes af finansielle institutioner, som er regulerede, og som der føres tilsyn med, medmindre
medlemsstaterne beslutter at udpege en anden myndighed til at udføre disse markedsovervågningsopga-
ver. Disse kompetente myndigheder bør have alle beføjelser i henhold til denne forordning og forordning
(EU) 2019/1020 til at håndhæve nærværende forordnings krav og forpligtelser, herunder beføjelser til
at udføre ex post-markedsovervågningsaktiviteter, der, alt efter hvad der er relevant, kan integreres i
deres eksisterende tilsynsmekanismer og -procedurer i henhold til den relevante EU-ret om finansielle
tjenesteydelser. Det bør fastsættes, at de nationale myndigheder, der er ansvarlige for tilsynet med kredit-
institutter, som er reguleret ved direktiv 2013/36/EU, og som deltager i den fælles tilsynsmekanisme,
der er oprettet ved Rådets forordning (EU) nr. 1024/2013 (
52
), når de fungerer som markedsovervågnings-
myndigheder i henhold til nærværende forordning, straks bør indberette alle oplysninger, som identifi-
ceres i forbindelse med deres markedsovervågningsaktiviteter, og som kan være af potentiel interesse
for Den Europæiske Centralbanks tilsynsopgaver som fastsat i nævnte forordning, til Den Europæiske
Centralbank. For yderligere at styrke sammenhængen mellem nærværende forordning og de regler, der
gælder for kreditinstitutter, der er reguleret ved direktiv 2013/36/EU, bør nogle af udbydernes procedure-
mæssige forpligtelser i forbindelse med risikostyring, overvågning efter omsætningen og dokumentation
indarbejdes i de eksisterende forpligtelser og procedurer i henhold i direktiv 2013/36/EU. For at undgå
overlapninger bør der også overvejes begrænsede undtagelser for så vidt angår udbydernes kvalitetssty-
ringssystem og den overvågningsforpligtelse, der pålægges idriftsættere af højrisiko-AI-systemer, i det
omfang disse gælder for kreditinstitutter, der er reguleret ved direktiv 2013/36/EU. Den samme ordning
bør gælde for forsikrings- og genforsikringsselskaber og forsikringsholdingselskaber i henhold til direktiv
2009/138/EF og forsikringsformidlere i henhold til direktiv (EU) 2016/97 og andre typer finansielle
institutioner, der er underlagt krav vedrørende intern ledelse, ordninger eller processer, der er fastsat i
henhold til den relevante EU-ret om finansielle tjenesteydelser, for at sikre konsekvens og ligebehandling
i den finansielle sektor.
(159) Hver markedsovervågningsmyndighed for højrisiko-AI-systemer inden for biometri som opført i
et bilag til denne forordning, for så vidt disse systemer anvendes med henblik på retshåndhævelse og
migrationsstyring, asylforvaltning og grænsekontrol eller retspleje og demokratiske processer, bør have
undersøgelsesbeføjelser og korrigerende beføjelser, herunder som minimum beføjelse til at få adgang
til alle personoplysninger, der behandles, og til alle de oplysninger, der er nødvendige for at varetage
sine opgaver. Markedsovervågningsmyndighederne bør kunne udøve deres beføjelser i fuld uafhængig-
hed. Enhver begrænsning i deres adgang til følsomme operationelle data i henhold til denne forordning
bør ikke berøre de beføjelser, som de har fået tillagt ved direktiv (EU) 2016/680. Ingen undtagelse om
videregivelse af data til de nationale databeskyttelsesmyndigheder i henhold til denne forordning bør
påvirke disse myndigheders nuværende eller fremtidige beføjelser uden for denne forordnings anvendel-
sesområde.
(160) Markedsovervågningsmyndighederne og Kommissionen bør kunne foreslå fælles aktiviteter, herun-
der fælles undersøgelser, som skal gennemføres af markedsovervågningsmyndigheder eller af markeds-
overvågningsmyndigheder sammen med Kommissionen, og som har til formål at fremme overholdelse,
identificere manglende overholdelse, øge bevidstheden og yde vejledning for så vidt angår denne forord-
ning med hensyn til specifikke kategorier af højrisiko-AI-systemer, der anses for at udgøre en alvorlig
risiko i to eller flere medlemsstater. Der bør gennemføres fælles aktiviteter til fremme af overholdelse i
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0053.png
53
overensstemmelse med artikel 9 i forordning (EU) 2019/1020. AI-kontoret bør sørge for koordinerende
støtte til de fælles undersøgelser.
(161) Det er nødvendigt at præcisere ansvarsområder og kompetenceområder på EU-plan og nationalt
plan for så vidt angår AI-systemer, der bygger på AI-modeller til almen brug. For at undgå, at
kompetenceområderne overlapper med hinanden, hvis et AI-system bygger på en AI-model til almen
brug, og modellen og systemet leveres af den samme udbyder, bør tilsynet finde sted på EU-plan
gennem AI-kontoret, som i den forbindelse bør have markedsovervågningsmyndighedens beføjelser
som omhandlet i forordning (EU) 2019/1020. I alle andre tilfælde er de nationale markedsovervågnings-
myndigheder fortsat ansvarlige for tilsynet med AI-systemer. Hvad angår AI-systemer til almen brug,
som kan anvendes direkte af idriftsættere til mindst ét formål, der er klassificeret som højrisiko, bør
markedsovervågningsmyndighederne dog samarbejde med AI-Kontoret om at foretage evalueringer af
overholdelsen og underrette AI-udvalget og andre markedsovervågningsmyndigheder i overensstemmelse
hermed. Markedsovervågningsmyndighederne bør desuden kunne anmode AI-kontoret om bistand, hvis
markedsovervågningsmyndigheden ikke er i stand til at afslutte en undersøgelse af et højrisiko-AI-system
som følge af manglende adgang til visse oplysninger vedrørende AI-modeller til almen brug, som
højrisiko-AI-systemet er bygget på. I sådanne tilfælde bør proceduren for gensidig bistand i grænseover-
skridende sager i kapitel VI i forordning (EU) 2019/1020 finde tilsvarende anvendelse.
(162) For at udnytte den centraliserede EU-ekspertise og synergier bedst muligt på EU-plan bør Kommis-
sionen tillægges beføjelser til at føre tilsyn med og håndhæve forpligtelserne for udbydere af AI-modeller
til almen brug. AI-kontoret bør kunne foretage alle nødvendige tiltag for at overvåge, om denne forord-
ning gennemføres effektivt for så vidt angår AI-modeller til almen brug. Det bør både på eget initiativ
på baggrund af resultaterne af sine overvågningsaktiviteter eller efter anmodning fra markedsovervåg-
ningsmyndigheder i overensstemmelse med de betingelser, der er fastsat i denne forordning, kunne
undersøge mulige overtrædelser af reglerne for udbydere af AI-modeller til almen brug. For at understøtte
AI-kontoret med at foretage en effektiv overvågning bør det give downstreamudbydere mulighed for at
indgive klager over mulige overtrædelser af reglerne om udbydere af AI-modeller og -systemer til almen
brug.
(163) Med henblik på at supplere forvaltningssystemerne for AI-modeller til almen brug bør det viden-
skabelige panel støtte AI-kontorets overvågningsaktiviteter og kan i visse tilfælde sende kvalificerede
varslinger til AI-kontoret, hvilket udløser opfølgende foranstaltninger såsom undersøgelser. Dette bør
være tilfældet, hvis det videnskabelige panel har begrundet mistanke om, at en AI-model til almen
brug udgør en konkret og identificerbar risiko på EU-plan. Dette bør desuden være tilfældet, hvis det
videnskabelige panel har begrundet mistanke om, at en AI-model til almen brug opfylder de kriterier,
der medfører en klassificering som en AI-model til almen brug med systemisk risiko. For at give det
videnskabelige panel de oplysninger, der er nødvendige for at varetage disse opgaver, bør der findes en
mekanisme, hvorved det videnskabelige panel kan anmode Kommissionen om at kræve dokumentation
eller oplysninger fra en udbyder.
(164) AI-kontoret bør kunne foretage de nødvendige tiltag til at overvåge, at de forpligtelser for udbydere
af AI-modeller til almen brug, der er fastsat i denne forordning, gennemføres og overholdes effektivt. AI-
kontoret bør kunne undersøge mulige overtrædelser i overensstemmelse med de beføjelser, der er fastsat i
denne forordning, herunder ved at anmode om dokumentation og oplysninger, foretage evalueringer samt
ved at anmode udbydere af AI-modeller til almen brug om at træffe foranstaltninger. For at gøre brug
af uafhængig ekspertise bør AI-kontoret ved gennemførelse af evalueringer kunne inddrage uafhængige
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0054.png
54
eksperter, som foretager evalueringer på dets vegne. Overholdelse af forpligtelserne bør bl.a. kunne
håndhæves gennem anmodninger om at træffe passende foranstaltninger, herunder risikobegrænsende for-
anstaltninger i tilfælde af konstaterede systemiske risici samt tilgængeliggørelse på markedet, tilbagetræk-
ning eller tilbagekaldelse af modellen. Såfremt der skulle opstå behov ud over de procedurerettigheder,
der er fastsat i denne forordning, bør udbydere af AI-modeller til almen brug som en sikkerhedsforanstalt-
ning råde over de procedurerettigheder, der er fastsat i artikel 18 i forordning (EU) 2019/1020, som
bør finde tilsvarende anvendelse, uden at dette berører de mere specifikke procedurerettigheder fastsat i
nærværende forordning.
(165) Udviklingen af andre AI-systemer end højrisiko-AI-systemer i overensstemmelse med kravene i
denne forordning kan føre til en større udbredelse af etisk og troværdig AI i Unionen. Udbydere af
AI-systemer, der ikke er højrisiko, bør tilskyndes til at udarbejde adfærdskodekser, herunder tilhørende
forvaltningsmekanismer, med det formål at fremme frivillig anvendelse af visse af eller alle de obligatori-
ske krav, der gælder for højrisiko-AI-systemer, og som er tilpasset i lyset af det tilsigtede formål med
systemerne og den lavere risiko, og under hensyntagen til de tilgængelige tekniske løsninger og industri-
ens bedste praksis såsom model og datakort. Udbydere og, alt efter hvad der er relevant, idriftsættere af
alle AI-systemer, højrisiko eller ej, og AI-modeller bør også tilskyndes til på frivillig basis at anvende
yderligere krav vedrørende f.eks. elementerne i Unionens etiske retningslinjer for troværdig AI, miljø-
mæssig bæredygtighed, foranstaltninger vedrørende AI-færdigheder, inklusiv og mangfoldig udformning
og udvikling af AI-systemer, herunder med fokus på sårbare personer og tilgængelighed for personer
med handicap, deltagelse af interessenter med inddragelse i relevant omfang af relevante interessenter
såsom erhvervslivet og civilsamfundsorganisationer, den akademiske verden, forskningsorganisationer,
fagforeninger og forbrugerbeskyttelsesorganisationer i udformning og udvikling af AI-systemer og mang-
foldighed i udviklingsteamene, herunder kønsbalance. For at sikre at de frivillige adfærdskodekser er
effektive, bør de baseres på klare mål og centrale resultatindikatorer til måling af realiseringen af disse
mål. De bør også udvikles på en inklusiv måde og i relevant omfang med inddragelse af relevante
interessenter såsom erhvervslivet og civilsamfundsorganisationer, den akademiske verden, forskningsor-
ganisationer, fagforeninger og forbrugerbeskyttelsesorganisationer. Kommissionen kan udvikle initiativer,
bl.a. på sektorniveau, for at lette mindskelsen af tekniske hindringer for grænseoverskridende udveksling
af data til AI-udvikling, herunder med hensyn til dataadgangsinfrastruktur og semantisk og teknisk
interoperabilitet af forskellige typer data.
(166) Det er vigtigt, at AI-systemer vedrørende produkter, der ikke er højrisikoprodukter i overensstem-
melse med denne forordning og derfor ikke skal overholde kravene for højrisiko-AI-systemer, ikke desto
mindre er sikre, når de bringes i omsætning eller ibrugtages. Med henblik på at bidrage til dette mål vil
Europa-Parlamentets og Rådets forordning (EU) 2023/988 (
53
) finde anvendelse som sikkerhedsnet.
(167) For at sikre et tillidsfuldt og konstruktivt samarbejde mellem de kompetente myndigheder på
EU-plan og nationalt plan bør alle de parter, der er involveret i anvendelsen af denne forordning,
respektere fortroligheden af oplysninger og data, der er indhentet under udførelsen af deres opgaver i
overensstemmelse med EU-retten eller national ret. De bør udføre deres opgaver og aktiviteter på en
sådan måde, at de navnlig beskytter intellektuelle ejendomsrettigheder, fortrolige forretningsoplysninger
og forretningshemmeligheder, en effektiv gennemførelse af denne forordning, offentlige og nationale sik-
kerhedsinteresser, strafferetlige og administrative procedurers integritet og klassificerede informationers
integritet.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0055.png
55
(168) Overholdelsen af denne forordning bør kunne håndhæves ved pålæg af sanktioner og andre
håndhævelsesforanstaltninger. Medlemsstaterne bør træffe alle nødvendige foranstaltninger til at sikre,
at bestemmelserne i denne forordning gennemføres, herunder ved at fastsætte sanktioner for overtrædelse
heraf, som er effektive, står i et rimeligt forhold til overtrædelsen og har afskrækkende virkning, og at
princippet om ne bis in idem respekteres. For at styrke og harmonisere de administrative sanktioner for
overtrædelse af denne forordning bør der fastsættes øvre grænser for fastsættelse af administrative bøder
for visse specifikke overtrædelser. Ved vurdering af bødernes størrelse bør medlemsstaterne i hvert enkelt
tilfælde tage hensyn til alle relevante omstændigheder i den specifikke situation, navnlig under behørig
hensyntagen til overtrædelsens art, grovhed og varighed og dens konsekvenser samt til udbyderens
størrelse, navnlig hvis udbyderen er en SMV, herunder en iværksættervirksomhed. Den Europæiske
Tilsynsførende for Databeskyttelse bør have beføjelse til at pålægge de EU-institutioner, -agenturer og
-organer, der er omfattet af denne forordnings anvendelsesområde, bøder.
(169) Overholdelse af de forpligtelser for udbydere af AI-modeller til almen brug, der pålægges i henhold
til denne forordning, bør bl.a. kunne håndhæves ved hjælp af bøder. Med henblik herpå bør der også fast-
sættes passende bødeniveauer for overtrædelse af disse forpligtelser, herunder manglende overholdelse
af de foranstaltninger, som Kommissionen har anmodet om i overensstemmelse med denne forordning,
som er genstand for passende forældelsesfrister i overensstemmelse med proportionalitetsprincippet. Alle
afgørelser, der træffes af Kommissionen i medfør af denne forordning, underkastes fornyet prøvelse ved
EU-Domstolen i overensstemmelse med TEUF, herunder EU-Domstolens fulde prøvelsesret vedrørende
sanktioner i henhold til artikel 261 i TEUF.
(170) EU-retten og national ret indeholder allerede bestemmelser om effektive retsmidler for fysiske
og juridiske personer, hvis rettigheder og frihedsrettigheder påvirkes negativt af anvendelsen af AI-syste-
mer. Uden at det berører disse retsmidler, bør enhver fysisk eller juridisk person, der har grund til at
mene, at der er sket en overtrædelse af denne forordning, have ret til at indgive en klage til den relevante
markedsovervågningsmyndighed.
(171) De berørte personer bør have ret til at få en forklaring, hvis en idriftsætters afgørelse hovedsagelig
er baseret på output fra visse højrisiko-AI-systemer, der er omfattet af anvendelsesområdet for denne
forordning, og hvis afgørelsen har retsvirkninger eller på tilsvarende måde i væsentlig grad påvirker disse
personer på en måde, som de anser for at have negativ indvirkning på deres sundhed, sikkerhed eller
grundlæggende rettigheder. Denne forklaring bør være klar og meningsfuld og danne et grundlag, ud fra
hvilket de berørte personer kan udøve deres rettigheder. Retten til at få en forklaring bør ikke gælde for
anvendelsen af AI-systemer, for hvilke undtagelser eller begrænsninger følger af EU-retten eller national
ret, og bør kun gælde, for så vidt denne rettighed ikke allerede er fastsat i EU-retten.
(172) Personer, der fungerer som »whistleblowere« i forbindelse med overtrædelser af denne forordning,
bør beskyttes i henhold til EU-retten. Europa-Parlamentets og Rådets direktiv (EU) 2019/1937 (
54
) bør
derfor finde anvendelse på indberetning af overtrædelser af denne forordning og på beskyttelsen af
personer, der indberetter sådanne overtrædelser.
(173) For at den lovgivningsmæssige ramme om nødvendigt kan tilpasses, bør beføjelsen til at vedtage
retsakter delegeres til Kommissionen i overensstemmelse med artikel 290 i TEUF for at ændre betingel-
serne for, at et AI-system ikke skal betragtes som værende højrisiko, listen over højrisiko-AI-systemer,
bestemmelserne vedrørende teknisk dokumentation, indholdet af EU-overensstemmelseserklæringen, be-
stemmelserne vedrørende overensstemmelsesvurderingsprocedurer, bestemmelserne om fastsættelse af de
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0056.png
56
højrisiko-AI-systemer, på hvilke overensstemmelsesvurderingsproceduren på grundlag af en vurdering af
kvalitetsstyringssystemet og en vurdering af den tekniske dokumentation bør finde anvendelse, tærsklen,
benchmarks og indikatorer, herunder ved at supplere disse benchmarks og indikatorer, i reglerne om klas-
sificering af AI-modeller til almen brug med systemisk risiko, kriterierne for udpegelse af AI-modeller
til almen brug med systemisk risiko, den tekniske dokumentation for udbydere af AI-modeller til almen
brug og gennemsigtighedsoplysningerne for udbydere af AI-modeller til almen brug. Det er navnlig
vigtigt, at Kommissionen gennemfører relevante høringer under sit forberedende arbejde, herunder på
ekspertniveau, og at disse høringer gennemføres i overensstemmelse med principperne i den interinstitu-
tionelle aftale af 13. april 2016 om bedre lovgivning (
55
). For at sikre lige deltagelse i forberedelsen
af delegerede retsakter modtager Europa-Parlamentet og Rådet navnlig alle dokumenter på samme tid
som medlemsstaternes eksperter, og deres eksperter har systematisk adgang til møder i Kommissionens
ekspertgrupper, der beskæftiger sig med forberedelse af delegerede retsakter.
(174) I betragtning af den hastige teknologiske udvikling og den tekniske ekspertise, der er nødvendig for
effektivt at anvende denne forordning, bør Kommissionen evaluere og revidere denne forordning senest
den 2. august 2029 og derefter hvert fjerde år og aflægge rapport til Europa-Parlamentet og Rådet. Under
hensyntagen til konsekvenserne for denne forordnings anvendelsesområde bør Kommissionen desuden
foretage en vurdering af behovet for at ændre listen over højrisiko-AI-systemer og listen over forbudte
praksisser én gang om året. Senest den 2. august 2028 og derefter hvert fjerde år bør Kommissionen yder-
mere evaluere og aflægge rapport til Europa-Parlamentet og Rådet om behovet for at ændre listen over
højrisikoområdeoverskrifter i bilaget til denne forordning, de AI-systemer, der er omfattet af gennemsig-
tighedsforpligtelserne, effektiviteten af tilsyns- og forvaltningssystemet og fremskridt med udviklingen af
standardiseringsdokumentation om en energieffektiv udvikling af AI-modeller til almen brug, herunder
behovet for yderligere foranstaltninger eller tiltag. Endelig bør Kommissionen senest den 2. august 2028
og derefter hvert tredje år evaluere virkningen og effektiviteten af frivillige adfærdskodekser med henblik
på at fremme anvendelsen af de fastsatte krav til højrisiko-AI-systemer i tilfælde af andre AI-systemer
end højrisiko-AI-systemer og eventuelt andre yderligere krav til sådanne AI-systemer.
(175) For at sikre ensartede betingelser for gennemførelsen af denne forordning bør Kommissionen
tillægges gennemførelsesbeføjelser. Disse beføjelser bør udøves i overensstemmelse med Europa-Parla-
mentets og Rådets forordning (EU) nr. 182/2011 (
56
).
(176) Målet for denne forordning, nemlig at forbedre det indre markeds funktion og fremme udbredel-
sen af menneskecentreret og troværdig AI og samtidig sikre et højt niveau af beskyttelse af sundhed,
sikkerhed og de grundlæggende rettigheder, der er nedfældet i chartret, herunder demokratiet, retsstats-
princippet og miljøbeskyttelse, mod skadelige virkninger af AI-systemer i Unionen og støtte innovation,
kan ikke i tilstrækkelig grad opfyldes af medlemsstaterne, men kan på grund af handlingens omfang eller
virkninger bedre nås på EU-plan; Unionen kan derfor vedtage foranstaltninger i overensstemmelse med
nærhedsprincippet, jf. artikel 5 i TEU. I overensstemmelse med proportionalitetsprincippet, jf. nævnte
artikel, går denne forordning ikke videre, end hvad der er nødvendigt for at nå dette mål.
(177) Med henblik på at sikre retssikkerheden, sikre en passende tilpasningsperiode for operatører og
undgå markedsforstyrrelser, herunder ved at sikre kontinuitet i anvendelsen af AI-systemer, bør denne
forordning kun finde anvendelse på højrisiko-AI-systemer, der er bragt i omsætning eller ibrugtaget inden
den generelle anvendelsesdato, hvis disse systemer fra denne dato er genstand for betydelige ændringer
af deres udformning eller tilsigtede formål. Det er hensigtsmæssigt at præcisere, at begrebet betydelig
ændring i denne henseende bør forstås som indholdsmæssigt ækvivalent med begrebet væsentlig ændring,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0057.png
57
som kun anvendes i forbindelse med højrisiko-AI-systemer i medfør af denne forordning. Undtagelsesvist
og i lyset af offentlig ansvarlighed bør operatører af AI-systemer, som er komponenter i de store IT-sy-
stemer, der er oprettet ved de retsakter, der er opført i et bilag til denne forordning, og operatører af
højrisiko-AI-systemer, der er tilsigtet anvendt af offentlige myndigheder, henholdsvis tage de nødvendige
skridt til at overholde kravene i denne forordning inden udgangen af 2030 og senest den 2. august 2030.
(178) Udbydere af højrisiko-AI-systemer tilskyndes til frivilligt at begynde at overholde de relevante
forpligtelser i denne forordning allerede i overgangsperioden.
(179) Denne forordning bør finde anvendelse fra den 2. august 2026. Under hensyntagen til den uaccepta-
ble risiko, der på visse måder er forbundet med anvendelsen af AI, bør forbuddene og de almindelige
bestemmelser i denne forordning dog finde anvendelse allerede fra den 2. februar 2025. Selv om den
fulde virkning af disse forbud følger med indførelsen af forvaltningen og håndhævelsen af denne forord-
ning, er det vigtigt at foregribe anvendelsen af forbuddene for at tage hensyn til uacceptable risici, som
har indvirkning på andre procedurer såsom i civilretten. Infrastrukturen i forbindelse med forvaltnings-
og overensstemmelsesvurderingssystemet bør desuden være operationel inden den 2. august 2026, og
bestemmelserne om bemyndigede organer og forvaltningsstruktur bør derfor finde anvendelse fra den
2. august 2025. I betragtning af de hastige teknologiske fremskridt og udbredelsen af AI-modeller til
almen brug bør forpligtelserne for udbydere af AI-modeller til almen brug finde anvendelse fra den
2. august 2025. Praksiskodekser skal være klar senest den 2. maj 2025 med henblik på at gøre det
muligt for udbyderne rettidigt at påvise overholdelse. AI-kontoret bør sikre, at klassificeringsregler og
-procedurer er ajourførte i lyset af den teknologiske udvikling. Desuden bør medlemsstaterne fastsætte
og meddele Kommissionen bestemmelserne om sanktioner, herunder administrative bøder, og sikre, at
de er gennemført korrekt og effektivt på datoen for denne forordnings anvendelse. Bestemmelserne om
sanktioner bør derfor finde anvendelse fra den 2. august 2025.
(180) Den Europæiske Tilsynsførende for Databeskyttelse og Det Europæiske Databeskyttelsesråd er
blevet hørt i overensstemmelse med artikel 42, stk. 1 og 2, i forordning (EU) 2018/1725 og afgav deres
fælles udtalelse den 18. juni 2021 —
VEDTAGET DENNE FORORDNING:
KAPITEL I
ALMINDELIGE BESTEMMELSER
Artikel 1
Genstand
1. Formålet med denne forordning er at forbedre det indre markeds funktion og fremme udbredelsen af
menneskecentreret og troværdig kunstig intelligens (AI) og samtidig sikre et højt niveau af beskyttelse af
sundhed, sikkerhed og de grundlæggende rettigheder, der er nedfældet i chartret, herunder demokratiet,
retsstatsprincippet og miljøbeskyttelse, mod de skadelige virkninger af AI-systemer i Unionen og støtte
innovation.
2. Ved denne forordning fastsættes:
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0058.png
58
a) harmoniserede regler for omsætning, ibrugtagning og anvendelse af AI-systemer i Unionen
b) forbud mod visse former for AI-praksis
c) specifikke krav til højrisiko-AI-systemer og forpligtelser for operatører af sådanne systemer
d) harmoniserede gennemsigtighedsregler for bestemte AI-systemer
e) harmoniserede regler for omsætning af AI-modeller til almen brug
f) regler om overvågning efter omsætningen, markedsovervågning, forvaltning og håndhævelse
g) foranstaltninger til støtte for innovation med særligt fokus på SMV�½er, herunder iværksættervirksomhe-
der.
Artikel 2
Anvendelsesområde
1. Denne forordning finder anvendelse på:
a) udbydere, der bringer AI-systemer i omsætning eller ibrugtager sådanne eller bringer AI-modeller til
almen brug i omsætning i Unionen, uanset om disse udbydere er etableret eller befinder sig i Unionen
eller i et tredjeland
b) idriftsættere af AI-systemer, der er etableret eller befinder sig i Unionen
c) udbydere og idriftsættere af AI-systemer, der er etableret eller befinder sig i et tredjeland, hvis det
output, der produceres af systemet, anvendes i Unionen
d) importører og distributører af AI-systemer
e) producenter af et produkt, der sammen med deres produkt og under eget navn eller varemærke bringer
et AI-system i omsætning eller ibrugtager det
f) bemyndigede repræsentanter for udbydere, der ikke er etableret i Unionen
g) berørte personer, der befinder sig i Unionen.
2. For så vidt angår AI-systemer, der er klassificeret som højrisiko-AI-systemer i overensstemmelse med
artikel 6, stk. 1, i forbindelse med produkter, der er omfattet af EU-harmoniseringslovgivningen opført
i bilag I, afsnit B, finder kun artikel 6, stk. 1, og artikel 102-109 og 112 anvendelse. Artikel 57 finder
kun anvendelse, for så vidt kravene til højrisiko-AI-systemer i henhold til denne forordning er blevet
integreret i den pågældende EU-harmoniseringslovgivning.
3. Denne forordning finder ikke anvendelse på områder, der falder uden for EU-rettens anvendelsesom-
råde, og berører under alle omstændigheder ikke medlemsstaternes kompetencer vedrørende national
sikkerhed, uanset hvilken type enhed medlemsstaterne har bemyndiget til at udføre opgaver i forbindelse
med disse kompetencer.
Denne forordning finder ikke anvendelse på AI-systemer, hvis og i det omfang de bringes i omsætning,
ibrugtages eller anvendes med eller uden ændring til formål, der udelukkende vedrører militær, forsvar
eller national sikkerhed, uanset hvilken type enhed der udfører disse aktiviteter.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0059.png
59
Denne forordning finder ikke anvendelse på AI-systemer, der ikke bringes i omsætning eller ibrugtages
i Unionen, hvis outputtet anvendes i Unionen til formål, der udelukkende vedrører militær, forsvar eller
national sikkerhed, uanset hvilken type enhed der udfører disse aktiviteter.
4. Denne forordning finder hverken anvendelse på offentlige myndigheder i tredjelande eller internati-
onale organisationer, der er omfattet af denne forordnings anvendelsesområde, jf. stk. 1, hvis disse
myndigheder eller organisationer anvender AI-systemer inden for rammerne af internationalt samarbejde
eller internationale aftaler om retshåndhævelse og retligt samarbejde med Unionen eller med en eller
flere medlemsstater, forudsat at et sådant tredjeland eller en sådan international organisation træffer
tilstrækkelige sikkerhedsforanstaltninger med hensyn til beskyttelsen af fysiske personers grundlæggende
rettigheder og friheder.
5. Denne forordning berører ikke anvendelsen af bestemmelserne om udbydere af formidlingstjenesters
ansvar som fastsat i kapitel II i forordning (EU) 2022/2065.
6. Denne forordning finder ikke anvendelse på AI-systemer eller AI-modeller, herunder deres output, som
specifikt er udviklet og ibrugtaget udelukkende med henblik på videnskabelig forskning og udvikling.
7. EU-retten om beskyttelse af personoplysninger, privatlivets fred og kommunikationshemmeligheden
finder anvendelse på personoplysninger, som behandles i forbindelse med de rettigheder og forpligtelser,
der er fastsat i denne forordning. Denne forordning berører ikke forordning (EU) 2016/679 eller (EU)
2018/1725 eller direktiv 2002/58/EF eller (EU) 2016/680, uden at det berører nærværende forordnings
artikel 10, stk. 5, og artikel 59.
8. Denne forordning finder ikke anvendelse på forsknings-, afprøvnings- eller udviklingsaktiviteter vedrø-
rende AI-systemer eller AI-modeller, inden de bringes i omsætning eller ibrugtages. Sådanne aktiviteter
gennemføres i overensstemmelse med gældende EU-ret. Afprøvning under faktiske forhold er ikke
omfattet af denne undtagelse.
9. Denne forordning berører ikke de regler, der er fastsat i andre EU-retsakter vedrørende forbrugerbe-
skyttelse og produktsikkerhed.
10. Denne forordning finder ikke anvendelse på forpligtelser for idriftsættere, som er fysiske personer, der
anvender AI-systemer som led i rent personlige ikkeerhvervsmæssige aktiviteter.
11. Denne forordning er ikke til hinder for, at Unionen eller medlemsstaterne opretholder eller indfører
love, forskrifter eller administrative bestemmelser, der er gunstigere for arbejdstagerne med hensyn
til beskyttelse af deres rettigheder i forbindelse med arbejdsgivernes anvendelse af AI-systemer, eller
tilskynder til eller tillader anvendelse af kollektive overenskomster, der er gunstigere for arbejdstagerne.
12. Denne forordning finder ikke anvendelse på AI-systemer, der frigives i henhold til gratis open
source-licenser, medmindre de bringes i omsætning eller ibrugtages som højrisiko-AI-systemer eller et
AI-system, der er omfattet af artikel 5 eller 50.
Artikel 3
Definitioner
I denne forordning forstås ved:
1) »AI-system«: et maskinbaseret system, som er udformet med henblik på at fungere med en varierende
grad af autonomi, og som efter idriftsættelsen kan udvise en tilpasningsevne, og som til eksplicitte eller
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0060.png
60
implicitte mål af det input, det modtager, udleder, hvordan det kan generere output såsom forudsigelser,
indhold, anbefalinger eller beslutninger, som kan påvirke fysiske eller virtuelle miljøer
2) »risiko«: kombinationen af sandsynligheden for, at der opstår en skade, og den pågældende skades
alvor
3) »udbyder«: en fysisk eller juridisk person, en offentlig myndighed, et agentur eller et andet organ, der
udvikler eller får udviklet et AI-system eller en AI-model til almen brug og bringer dem i omsætning eller
ibrugtager AI-systemet under eget navn eller varemærke, enten mod betaling eller gratis
4) »idriftsætter«: en fysisk eller juridisk person, en offentlig myndighed, et agentur eller et andet organ,
der anvender et AI-system under sin myndighed, medmindre AI-systemet anvendes som led i en personlig
ikkeerhvervsmæssig aktivitet
5) »bemyndiget repræsentant«: en fysisk eller juridisk person, der befinder sig eller er etableret i Unionen,
og som har modtaget og accepteret et skriftligt mandat fra en udbyder af et AI-system eller en AI-model
til almen brug til på dennes vegne at opfylde og udføre de forpligtelser og procedurer, der er fastsat i
denne forordning
6) »importør«: en fysisk eller juridisk person, som befinder sig eller er etableret i Unionen, og som
bringer et AI-system i omsætning, der bærer en i et tredjeland etableret fysisk eller juridisk persons navn
eller varemærke
7) »distributør«: en fysisk eller juridisk person i forsyningskæden, bortset fra udbyderen eller importøren,
som gør et AI-system tilgængeligt på EU-markedet
8) »operatør«: en udbyder, producent af et produkt, idriftsætter, bemyndiget repræsentant, importør eller
distributør
9) »omsætning«: den første tilgængeliggørelse af et AI-system eller en AI-model til almen brug på
EU-markedet
10) »tilgængeliggørelse på markedet«: levering af et AI-system eller en AI-model til almen brug med
henblik på distribution eller anvendelse på EU-markedet som led i erhvervsvirksomhed mod eller uden
vederlag
11) »ibrugtagning«: levering af et AI-system til anvendelse for første gang enten direkte til idriftsætteren
eller til egen brug i Unionen i overensstemmelse med dets tilsigtede formål
12) »tilsigtet formål«: den anvendelse, som et AI-system af udbyderen er tilsigtet, herunder den specifik-
ke sammenhæng og de specifikke betingelser for anvendelse som angivet i de oplysninger, udbyderen
giver i brugsanvisningen, reklame- eller salgsmaterialet og reklame- og salgserklæringerne samt i den
tekniske dokumentation
13) »fejlanvendelse, der med rimelighed kan forudses«: anvendelse af et AI-system på en måde, der ikke
er i overensstemmelse med systemets tilsigtede formål, men som kan skyldes menneskelig adfærd eller
interaktion med andre systemer, herunder andre AI-systemer, der med rimelighed kan forudses
14) »sikkerhedskomponent«: en komponent i et produkt eller et AI-system, som har en sikkerhedsfunkti-
on for det pågældende produkt eller AI-system eller i tilfælde af svigt eller funktionsfejl, som bringer
personers sundhed og sikkerhed eller ejendom i fare, i produktet eller systemet
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0061.png
61
15) »brugsanvisning«: oplysninger fra udbyderen med henblik på at informere idriftsætteren om navnlig
et AI-systems tilsigtede formål og korrekte anvendelse
16) »tilbagekaldelse af et AI-system«: enhver foranstaltning, der har til formål at opnå, at et AI-system,
der allerede er gjort tilgængeligt for idriftsætterne, returneres til udbyderen eller tages ud af drift eller
deaktiveres
17) »tilbagetrækning af et AI-system«: enhver foranstaltning, der har til formål at forhindre, at et AI-sy-
stem i forsyningskæden gøres tilgængeligt på markedet
18) »et AI-systems ydeevne«: et AI-systems evne til at opfylde det tilsigtede formål
19) »bemyndigende myndighed«: den nationale myndighed, der er ansvarlig for at indføre og gennemføre
de nødvendige procedurer for vurdering, udpegelse og notifikation af overensstemmelsesvurderingsorga-
ner og for overvågning heraf
20) »overensstemmelsesvurdering«: processen til påvisning af, om de i kapitel III, afdeling 2, fastsatte
krav vedrørende et højrisiko-AI-system er opfyldt
21) »overensstemmelsesvurderingsorgan«: et organ, der som tredjepart udfører overensstemmelsesvurde-
ringsaktiviteter, herunder afprøvning, certificering og inspektion
22) »bemyndiget organ«: et overensstemmelsesvurderingsorgan, der er notificeret i overensstemmelse
med denne forordning og anden relevant EU-harmoniseringslovgivning
23) »væsentlig ændring«: en ændring af et AI-system efter dets omsætning eller ibrugtagning, som ikke
er forudset eller planlagt i udbyderens indledende overensstemmelsesvurdering, og som følge af hvilken
AI-systemets overholdelse af de i kapitel III, afdeling 2, fastsatte krav påvirkes eller medfører en ændring
af det tilsigtede formål, med henblik på hvilket AI-systemet er vurderet
24) »CE-mærkning«: en mærkning, hvormed en udbyder angiver, at et AI-system er i overensstemmelse
med de krav, der er fastsat i kapitel III, afdeling 2, og anden gældende EU-harmoniseringslovgivning, og
om anbringelse af denne mærkning
25) »system til overvågning efter omsætningen«: alle aktiviteter, som udbydere af AI-systemer udfører
for at samle og gennemgå erfaringer med anvendelse af de AI-systemer, de bringer i omsætning eller
ibrugtager, med henblik på at afdække eventuelle behov for omgående at foretage nødvendige, korrige-
rende eller forebyggende tiltag
26) »markedsovervågningsmyndighed«: den nationale myndighed, der udfører aktiviteterne og træffer
foranstaltningerne i henhold til forordning (EU) 2019/1020
27) »harmoniseret standard«: en harmoniseret standard som defineret i artikel 2, nr. 1), litra c), i forord-
ning (EU) nr. 1025/2012
28) »fælles specifikation«: et sæt af tekniske specifikationer som defineret i artikel 2, nr. 4), i forordning
(EU) nr. 1025/2012, der giver mulighed for at overholde visse krav, der er fastsat i nærværende forord-
ning
29) »træningsdata«: data, der anvendes til træning af et AI-system ved hjælp af tilpasning af dets lærbare
parametre
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0062.png
62
30) »valideringsdata«: data, der anvendes til at foretage en evaluering af det trænede AI-system og
til at justere systemets ikkelærbare parametre og dets læringsproces med henblik på bl.a. at forhindre
undertilpasning eller overtilpasning
31) »valideringsdatasæt«: et separat datasæt eller en del af træningsdatasættet, enten som et fast eller
variabelt split
32) »afprøvningsdata«: data, der anvendes til en uafhængig evaluering af AI-systemet for at bekræfte
systemets forventede ydeevne, inden det bringes i omsætning eller ibrugtages
33) »inputdata«: data, der leveres til eller hentes direkte af et AI-system, og på grundlag af hvilke
systemet leverer et output
34) »biometriske data«: personoplysninger som følge af specifik teknisk behandling vedrørende en
fysisk persons fysiske, fysiologiske eller adfærdsmæssige karakteristika som f.eks. ansigtsbilleder eller
fingeraftryksoplysninger
35) »biometrisk identifikation«: automatiseret genkendelse af fysiske, fysiologiske, adfærdsmæssige eller
psykologiske menneskelige træk med henblik på at fastslå en fysisk persons identitet ved at sammenligne
den pågældende persons biometriske data med biometriske data om enkeltpersoner lagret i en database
36) »biometrisk verifikation«: automatiseret, en-til-en-verifikation, herunder autentificering, af fysiske
personers identitet ved at sammenligne deres biometriske data med tidligere afgivne biometriske data
37) »særlige kategorier af personoplysninger«: de kategorier af personoplysninger, der er omhandlet i
artikel 9, stk. 1, i forordning (EU) 2016/679, artikel 10 i direktiv (EU) 2016/680 og artikel 10, stk. 1, i
forordning (EU) 2018/1725
38) »følsomme operationelle data«: operationelle data vedrørende aktiviteter med henblik på forebyggel-
se, afsløring, efterforskning eller retsforfølgning af strafbare handlinger, hvis videregivelse kan bringe
straffesagens integritet i fare
39) »system til følelsesgenkendelse«: et AI-system, der har til formål at genkende eller udlede fysiske
personers følelser eller hensigter på grundlag af deres biometriske data
40) »system til biometrisk kategorisering«: et AI-system, der har til formål at placere fysiske personer i
bestemte kategorier på grundlag af deres biometriske data, medmindre de understøtter en anden kommer-
ciel tjeneste og er strengt nødvendige af objektive tekniske årsager
41) »system til biometrisk fjernidentifikation«: et AI-system, der har til formål at identificere fysiske
personer uden deres aktive deltagelse, typisk på afstand, ved at sammenligne en persons biometriske data
med de biometriske data i en referencedatabase
42) »system til biometrisk fjernidentifikation i realtid«: et system til biometrisk fjernidentifikation, hvor
optagelse af biometriske data, sammenligning og identifikation alle finder sted uden væsentlig forsinkel-
se, omfattende ikke blot øjeblikkelig identifikation, men også begrænsede, korte forsinkelser for at undgå
omgåelse
43) »system til efterfølgende biometrisk fjernidentifikation«: et system til biometrisk fjernidentifikation,
som ikke er et system til biometrisk fjernidentifikation i realtid
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0063.png
63
44) »offentligt sted«: ethvert offentligt eller privatejet fysisk sted, der er tilgængeligt for et ubestemt
antal fysiske personer, uanset om der kan gælde visse adgangsbetingelser, og uanset de potentielle
kapacitetsbegrænsninger
45) »retshåndhævende myndigheder«:
a) enhver offentlig myndighed, der er kompetent med hensyn til at forebygge, efterforske, afsløre eller
retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og fore-
bygge trusler mod den offentlige sikkerhed, eller
b) ethvert andet organ eller enhver anden enhed, som i henhold til medlemsstaternes nationale ret
udøver offentlig myndighed og offentlige beføjelser med henblik på at forebygge, efterforske, afsløre
eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og
forebygge trusler mod den offentlige sikkerhed
46) »retshåndhævelse«: aktiviteter, som udføres af retshåndhævende myndigheder eller på deres vegne,
med hensyn til at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde
strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed
47) »AI-kontoret«: Kommissionens funktion med at bidrage til gennemførelsen og overvågningen af og
tilsynet med AI-systemer og AI-modeller til almen brug og AI-forvaltning, der er fastsat i Kommission-
ens afgørelse af 24. januar 2024; henvisninger i denne forordning til AI-kontoret forstås som henvisninger
til Kommissionen
48) »national kompetent myndighed«: en bemyndigende myndighed eller en markedsovervågningsmyn-
dighed; for så vidt angår AI-systemer, der tages i brug eller anvendes af EU-institutioner, -agenturer,
-kontorer og -organer, forstås henvisninger til nationale kompetente myndigheder eller markedsovervåg-
ningsmyndigheder i denne forordning som henvisninger til Den Europæiske Tilsynsførende for Databe-
skyttelse
49) »alvorlig hændelse«: en hændelse eller funktionsfejl i et AI-system, som direkte eller indirekte fører
til et af følgende udfald:
a) et menneskes død eller alvorlig skade på et menneskes helbred
b) en alvorlig og uoprettelig forstyrrelse i forvaltningen eller driften af kritisk infrastruktur
c) overtrædelse af forpligtelser i henhold til den del af EU-retten, der har til formål at beskytte de
grundlæggende rettigheder
d) alvorlig skade på ejendom eller miljøet
50) »personoplysninger«: personoplysninger som defineret i artikel 4, nr. 1), i forordning (EU) 2016/679
51) »andre data end personoplysninger«: andre data end personoplysninger som defineret i artikel 4, nr.
1), i forordning (EU) 2016/679
52) »profilering«: profilering som defineret artikel 4, nr. 4), i forordning (EU) 2016/679
53) »plan for afprøvning under faktiske forhold«: et dokument, der beskriver mål, metode, geografisk,
befolkningsmæssig og tidsmæssig rækkevidde, overvågning, tilrettelæggelse og gennemførelse af afprøv-
ning under faktiske forhold
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0064.png
64
54) »sandkasseplan«: et dokument, der er opnået enighed om mellem den deltagende udbyder og den
kompetente myndighed, og som beskriver mål, betingelser, tidsramme, metode og kravene for de aktivite-
ter, der udføres inden for sandkassen
55) »reguleringsmæssig AI-sandkasse«: en kontrolleret ramme, som er oprettet af en kompetent myndig-
hed, og som giver udbydere eller potentielle udbydere af AI-systemer mulighed for, hvis det er relevant,
under faktiske forhold at udvikle, træne, validere og afprøve et innovativt AI-system i henhold til en
sandkasseplan i en begrænset periode under reguleringsmæssigt tilsyn
56) »AI-færdigheder«: færdigheder, viden og forståelse, der giver udbydere, idriftsættere og berørte
personer mulighed for under hensyntagen til deres respektive rettigheder og forpligtelser i forbindelse
med denne forordning at idriftsætte AI-systemer på et informeret grundlag samt at øge bevidstheden om
muligheder og risici ved AI og den mulige skade, som den kan forvolde
57) »afprøvning under faktiske forhold«: midlertidig afprøvning af et AI-system med henblik på dets
tilsigtede formål under faktiske forhold uden for et laboratorium eller på anden måde simuleret miljø med
henblik på at indsamle pålidelige og solide data og vurdere og verificere AI-systemets overensstemmelse
med kravene i denne forordning, og det er ikke ensbetydende med at bringe AI-systemet i omsætning
eller ibrugtage det som omhandlet i denne forordning, forudsat at alle betingelserne i henhold til artikel 57
eller 60 er opfyldt
58) »forsøgsperson« med henblik på afprøvning under faktiske forhold: en fysisk person, der deltager i
afprøvning under faktiske forhold
59) »informeret samtykke«: en forsøgspersons frie, specifikke, utvetydige og frivillige tilkendegivelse af
sin vilje til at deltage i en bestemt afprøvning under faktiske forhold efter at være blevet informeret om
alle aspekter af afprøvningen, der er relevante for forsøgspersonens beslutning om at deltage
60) »deepfake«: et ved hjælp af AI genereret eller manipuleret billed-, lyd- eller videoindhold, der i
væsentlig grad ligner faktiske personer, genstande, steder, enheder eller begivenheder, og som fejlagtigt
vil fremstå ægte eller sandfærdigt
61) »udbredt overtrædelse«: enhver handling eller undladelse, der er i strid med EU-retten, som beskytter
enkeltpersoners interesser, og som:
a) har skadet eller må antages at kunne skade de kollektive interesser for enkeltpersoner med bopæl i
mindst to medlemsstater ud over den medlemsstat, hvor:
i) handlingen eller undladelsen har sin oprindelse eller har fundet sted
ii) den pågældende udbyder eller, hvis det er relevant, dennes bemyndigede repræsentant befinder sig
eller er etableret, eller
iii) idriftsætteren er etableret, når overtrædelsen bliver begået af idriftsætteren
b) har skadet, skader eller må antages at kunne skade enkeltpersoners kollektive interesser og har fælles
træk, herunder samme ulovlige praksis og tilsidesættelse af den samme interesse, og begås samtidigt af
den samme operatør i mindst tre medlemsstater
62) »kritisk infrastruktur«: kritisk infrastruktur som defineret i artikel 2, nr. 4), i direktiv (EU) 2022/2557
63) »AI-model til almen brug«: en AI-model, herunder når en sådan AI-model er trænet med en stor
mængde data ved hjælp af selvovervågning i stor skala, som udviser betydelig generalitet og har kompe-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0065.png
65
tence til at udføre en lang række forskellige opgaver, uanset hvordan modellen bringes i omsætning,
og som kan integreres i en række downstreamsystemer eller -applikationer, bortset fra AI-modeller, der
anvendes til forsknings-, udviklings- og prototypeaktiviteter, inden de bringes i omsætning
64) »kapaciteter med stor virkning«: kapaciteter, som svarer til eller overstiger de kapaciteter, der er
registreret i de mest avancerede AI-modeller til almen brug
65) »systemisk risiko«: en risiko, der er specifik for kapaciteter med stor virkning i AI-modeller til
almen brug, og som har betydelig indvirkning på EU-markedet på grund af deres omfang eller på grund
af faktiske negative virkninger, der med rimelighed kan forudses, for folkesundheden, sikkerheden, den
offentlige sikkerhed, de grundlæggende rettigheder eller samfundet som helhed, som kan opformeres i
stor skala i hele værdikæden
66) »AI-system til almen brug«: et AI-system, som er baseret på en AI-model til almen brug, og som har
kapacitet til at opfylde en række forskellige formål, både til direkte anvendelse og til integration i andre
AI-systemer
67) »flydende kommatalsberegning«: enhver matematisk beregning eller ligning, der omfatter flydende
kommatal, som er en delmængde af de reelle tal, der typisk vises på computere i form af et heltal med fast
præcision, som justeres med en heltalseksponent med fastlagt basis
68) »downstreamudbyder«: en udbyder af et AI-system, herunder et AI-system til almen brug, som
integrerer en AI-model, uanset om AI-modellen leveres af udbyderen selv og integreres vertikalt eller
leveres af en anden enhed på grundlag af kontraktforhold.
Artikel 4
AI-færdigheder
Udbydere og idriftsættere af AI-systemer træffer foranstaltninger til i videst muligt omfang at sikre et
tilstrækkeligt niveau af AI-færdigheder hos deres personale og andre personer, der er involveret i drift
og anvendelse af AI-systemer på deres vegne, og tager herved hensyn til disse personers tekniske viden,
erfaring og uddannelse og den kontekst, hvori AI-systemerne skal anvendes, og de personer eller grupper
af personer, som AI-systemerne skal anvendes på.
KAPITEL II
FORBUDTE FORMER FOR AI-PRAKSIS
Artikel 5
Forbudte former for AI-praksis
1. Følgende former for AI-praksis er forbudt:
a) omsætning, ibrugtagning eller anvendelse af et AI-system, der anvender subliminale teknikker, der
rækker ud over den menneskelige bevidsthed, eller bevidst manipulerende eller vildledende teknikker
med henblik på eller med det resultat i væsentlig grad at fordreje en persons eller en gruppe af personers
adfærd ved betydeligt at hæmme dennes evne til at træffe informerede beslutninger, hvilket får dem til
at træffe en beslutning, som de ellers ikke ville have truffet, på en måde, der forvolder eller med rimelig
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0066.png
66
sandsynlighed vil forvolde den pågældende person, en anden person eller en gruppe af personer betydelig
skade
b) omsætning, ibrugtagning eller anvendelse af et AI-system, der hos en fysisk person eller en specifik
gruppe af personer udnytter sårbarheder på grundlag af alder, handicap eller en særlig social eller økono-
misk situation med henblik på eller med det resultat i væsentlig grad at fordreje den pågældende persons
eller en til gruppen hørende persons adfærd på en måde, der forvolder eller med rimelig sandsynlighed vil
forvolde den pågældende person eller en anden person betydelig skade
c) omsætning, ibrugtagning eller anvendelse af AI-systemer til evaluering eller klassificering af fysiske
personer eller grupper af personer over en given periode på grundlag af deres sociale adfærd eller
kendte, udledte eller forudsagte personlige egenskaber eller personlighedstræk, således at den sociale
bedømmelse fører til et af eller begge følgende udfald:
i) skadelig eller ugunstig behandling af visse fysiske personer eller grupper af personer i sociale sammen-
hænge, som ikke har noget at gøre med de sammenhænge, i hvilke dataene oprindeligt blev genereret
eller indsamlet
ii) skadelig eller ugunstig behandling af visse fysiske personer eller grupper af personer, som er uberetti-
get eller uforholdsmæssig i forhold til deres sociale adfærd eller betydningen heraf
d) omsætning, ibrugtagning til dette specifikke formål eller anvendelse af et AI-system til at foretage
risikovurderinger af fysiske personer for at vurdere eller forudsige risikoen for, at en fysisk person begår
en strafbar handling, hvilket alene er baseret på profilering af en fysisk person eller en vurdering af deres
personlighedstræk og personlige egenskaber; dette forbud finder ikke anvendelse på AI-systemer, der
anvendes til at understøtte den menneskelige vurdering af en persons involvering i en kriminel aktivitet,
som allerede er baseret på objektive og verificerbare kendsgerninger, der er direkte knyttet til en kriminel
aktivitet
e) omsætning, ibrugtagning til dette specifikke formål eller anvendelse af AI-systemer, der opretter eller
udvider ansigtsgenkendelsesdatabaser gennem ikkemålrettet indsamling af ansigtsbilleder fra internettet
eller kameraovervågning
f) omsætning, ibrugtagning til dette specifikke formål eller anvendelse af AI-systemer til at udlede
følelser hos en fysisk person på arbejdspladser og uddannelsesinstitutioner, undtagen hvis anvendelsen af
AI-systemet er tilsigtet at blive bragt i omsætning af medicinske eller sikkerhedsmæssige årsager
g) omsætning, ibrugtagning til dette specifikke formål eller anvendelse af systemer til biometrisk kate-
gorisering, som kategoriserer fysiske personer individuelt på grundlag af deres biometriske data med
henblik på at udlede deres race, politiske anskuelser, fagforeningsmedlemskab, religiøse eller filosofiske
overbevisning, seksuelle forhold eller seksuelle orientering; dette forbud omfatter ikke mærkning eller
filtrering af lovligt indhentede biometriske datasæt såsom billeder på grundlag af biometriske data eller
kategorisering af biometriske data på retshåndhævelsesområdet
h) anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på
retshåndhævelse, medmindre og i det omfang en sådan anvendelse er strengt nødvendig til et af følgende
formål:
i) målrettet eftersøgning af specifikke ofre for bortførelse, menneskehandel eller seksuel udnyttelse af
mennesker samt eftersøgning af forsvundne personer
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0067.png
67
ii) forebyggelse af en specifik, væsentlig og overhængende trussel mod fysiske personers liv eller fysiske
sikkerhed eller en reel og aktuel eller reel og forudsigelig trussel om et terrorangreb
iii) lokalisering eller identifikation af en person, der mistænkes for at have begået en strafbar handling,
med henblik på en strafferetlig efterforskning af eller retsforfølgning eller fuldbyrdelse af en strafferetlig
sanktion for overtrædelser, der er omhandlet i bilag II, og som i den pågældende medlemsstat kan straffes
med frihedsstraf eller en anden frihedsberøvende foranstaltning af en maksimal varighed på mindst fire år.
Første afsnit, litra h), berører ikke artikel 9 i forordning (EU) 2016/679 med hensyn til behandling af
biometriske data til andre formål end retshåndhævelse.
2. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på
retshåndhævelse til et af de i stk. 1, første afsnit, litra h), omhandlede formål må kun idriftsættes til de
formål, der er fastsat i nævnte litra, for at bekræfte den specifikt målrettede persons identitet og skal tage
hensyn til følgende elementer:
a) karakteren af den situation, der giver anledning til den mulige anvendelse, navnlig alvorligheden,
sandsynligheden og omfanget af den skade, der ville blive forvoldt, hvis systemet ikke blev anvendt
b) konsekvenserne for alle de berørte personers rettigheder og friheder, navnlig alvorligheden, sandsynlig-
heden og omfanget af disse konsekvenser, hvis systemet anvendes.
Ved anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik
på retshåndhævelse til et af de i denne artikels stk. 1, første afsnit, litra h), omhandlede formål over-
holdes desuden nødvendige og forholdsmæssige sikkerhedsforanstaltninger og betingelser vedrørende
anvendelsen i overensstemmelse med den nationale ret, der tillader anvendelse heraf, navnlig for så vidt
angår tidsmæssige, geografiske og personmæssige begrænsninger. Anvendelsen af systemet til biometrisk
fjernidentifikation i realtid på offentlige steder tillades kun, hvis den retshåndhævende myndighed har
gennemført en konsekvensanalyse vedrørende grundlæggende rettigheder som fastsat i artikel 27 og har
registreret systemet i EU-databasen i overensstemmelse med artikel 49. I behørigt begrundede hastende
tilfælde kan anvendelsen af sådanne systemer dog påbegyndes uden registrering i EU-databasen, forudsat
at registreringen afsluttes uden unødigt ophold.
3. Med henblik på stk. 1, første afsnit, litra h), og stk. 2, er hver anvendelse af et system til biometrisk
fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse betinget af en forudgåen-
de tilladelse, der er udstedt af en judiciel myndighed eller en uafhængig administrativ myndighed, hvis
afgørelse er bindende i den medlemsstat, hvor anvendelsen skal finde sted, på grundlag af en begrundet
anmodning og i overensstemmelse med de nærmere regler i national ret, jf. stk. 5. I behørigt begrundede
hastende tilfælde kan anvendelsen af et sådant system dog påbegyndes uden tilladelse, på betingelse af
at der anmodes om en sådan tilladelse uden unødigt ophold og senest inden for 24 timer. Hvis en sådan
tilladelse afvises, bringes anvendelsen straks til ophør, og alle data såvel som resultater og output af denne
anvendelse kasseres og slettes omgående.
Den kompetente judicielle myndighed eller en uafhængig administrativ myndighed, hvis afgørelse er bin-
dende, udsteder kun tilladelsen, hvis den på grundlag af objektive beviser eller klare indikationer, den får
forelagt, finder det godtgjort, at anvendelsen af det pågældende system til biometrisk fjernidentifikation i
realtid er nødvendig og forholdsmæssig for at opfylde et af de i stk. 1, første afsnit, litra h), anførte formål
som anført i anmodningen og navnlig fortsat begrænses til,
hvad der er strengt nødvendigt for så vidt angår tidsperioden samt det geografiske og personmæssige an-
vendelsesområde. Når den pågældende myndighed træffer afgørelse om anmodningen, tager den hensyn
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0068.png
68
til de i stk. 2 omhandlede elementer. Der må ikke træffes nogen afgørelse, der har negative retsvirkninger
for en person, udelukkende baseret på outputtet af systemet til efterfølgende biometrisk fjernidentifikation
i realtid.
4. Uden at det berører stk. 3, skal hver anvendelse af et system til biometrisk fjernidentifikation i realtid
på offentlige steder med henblik på retshåndhævelse meddeles den relevante markedsovervågningsmyn-
dighed og den nationale databeskyttelsesmyndighed i overensstemmelse med de nationale regler, jf. stk.
5. Meddelelsen skal som minimum indeholde de oplysninger, der er anført i stk. 6, og må ikke indeholde
følsomme operationelle data.
5. En medlemsstat kan beslutte at give mulighed for helt eller delvist at tillade anvendelse af systemer
til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse inden for
de begrænsninger og på de betingelser, der er nævnt i stk. 1, første afsnit, litra h), og stk. 2 og 3. De
pågældende medlemsstater fastsætter i deres nationale ret de nødvendige nærmere regler for anmodning
om, udstedelse af og benyttelse af samt tilsyn og indberetning i forbindelse med de i stk. 3 omhandlede
tilladelser. Disse regler præciserer også, til hvilke af de i stk. 1, første afsnit, litra h), anførte formål,
herunder for hvilke af de i litra h), nr. iii), nævnte strafbare handlinger, de kompetente myndigheder kan
få tilladelse til at anvende disse systemer med henblik på retshåndhævelse. Medlemsstaterne meddeler
Kommissionen disse regler senest 30 dage efter vedtagelsen heraf. Medlemsstaterne kan i overensstem-
melse med EU-retten indføre mere restriktiv lovgivning om anvendelsen af systemer til biometrisk
fjernidentifikation.
6. De nationale markedsovervågningsmyndigheder og de nationale databeskyttelsesmyndigheder i de
medlemsstater, der er blevet underrettet om anvendelsen af systemer til biometrisk fjernidentifikation i
realtid på offentlige steder med henblik på retshåndhævelse i henhold til stk. 4, forelægger Kommissionen
årlige rapporter om en sådan anvendelse. Med henblik herpå stiller Kommissionen efter anmodning om
tilladelser i overensstemmelse med stk. 3 og resultatet heraf en skabelon til rådighed for medlemsstaterne
og de nationale markedsovervågnings- og databeskyttelsesmyndigheder, herunder oplysninger om antallet
af afgørelser, der er truffet af de kompetente judicielle myndigheder eller en uafhængig administrativ
myndighed, hvis afgørelse er bindende.
7. Kommissionen offentliggør årlige rapporter om anvendelsen af systemer til biometrisk fjernidentifi-
kation i realtid på offentlige steder med henblik på retshåndhævelse på grundlag af aggregerede data
i medlemsstaterne, der bygger på de i stk. 6 omhandlede årlige rapporter. Disse rapporter må ikke
indeholde følsomme operationelle data om de tilknyttede retshåndhævelsesaktiviteter.
8. Denne artikel berører ikke de forbud, der gælder, hvis en form for AI-praksis overtræder anden EU-ret.
KAPITEL III
HØJRISIKO-AI-SYSTEMER
AFDELING 1
Klassificering af AI-systemer som højrisiko
Artikel 6
Klassificeringsregler for højrisiko-AI-systemer
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0069.png
69
1. Uanset om et AI-system bringes i omsætning eller ibrugtages uafhængigt af de i litra a) og b)
omhandlede produkter, betragtes AI-systemet som højrisiko, hvis begge følgende betingelser er opfyldt:
a) AI-systemet tilsigtes anvendt som en sikkerhedskomponent i et produkt, eller AI-systemet er i sig selv
et produkt, der er omfattet af den EU-harmoniseringslovgivning, der er anført i bilag I.
b) Det produkt, hvis sikkerhedskomponent i henhold til litra a) er AI-systemet, eller AI-systemet selv
som et produkt skal underkastes en overensstemmelsesvurdering foretaget af en tredjepart med henblik på
omsætning eller ibrugtagning af produktet i henhold til den EU-harmoniseringslovgivning, der er anført i
bilag I.
2. Ud over de højrisiko-AI-systemer, der er omhandlet i stk. 1, betragtes de AI-systemer, der er omhandlet
i bilag III, også som højrisiko.
3. Uanset stk. 2 betragtes et AI-system, der er omhandlet i bilag III, ikke som højrisiko, hvis det ikke
udgør en væsentlig risiko for skade på sundheden, sikkerheden eller fysiske personers grundlæggende
rettigheder, herunder ved ikke i væsentlig grad at påvirke resultatet af beslutningstagning.
Første afsnit finder anvendelse, hvis enhver af følgende betingelser er opfyldt:
a) AI-systemet tilsigtes at udføre en snæver proceduremæssig opgave
b) AI-systemet tilsigtes at forbedre resultatet af en tidligere afsluttet menneskelig aktivitet
c) AI-systemet tilsigtes at påvise beslutningsmønstre eller afvigelser fra tidligere beslutningsmønstre
og er ikke tiltænkt at skulle erstatte eller påvirke en tidligere afsluttet menneskelig vurdering uden en
ordentlig menneskelig gennemgang, eller
d) AI-systemet tilsigtes at udføre en forberedende opgave inden en vurdering, der er relevant for de
anvendelsestilfælde, der er anført i bilag III.
Uanset første afsnit betragtes et AI-system, der er omhandlet i bilag III, altid som højrisiko, hvis AI-syste-
met udfører profilering af fysiske personer.
4. En udbyder, som finder, at et AI-system, der er omhandlet i bilag III, ikke er højrisiko, skal dokumente-
re sin vurdering, inden det pågældende system bringes i omsætning eller ibrugtages. En sådan udbyder
er underlagt registreringsforpligtelsen i artikel 49, stk. 2. Efter anmodning fra de nationale kompetente
myndigheder fremlægger udbyderen dokumentation for vurderingen.
5. Kommissionen udarbejder efter høring af Det Europæiske Udvalg for Kunstig Intelligens (»AI-udval-
get«) og senest den 2. februar 2026 retningslinjer, der præciserer den praktiske gennemførelse af denne
artikel i overensstemmelse med artikel 96, sammen med en omfattende liste over praktiske eksempler på
anvendelsestilfælde af AI-systemer, der er højrisiko og ikke højrisiko.
6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel
97 for at ændre nærværende artikels stk. 3, andet afsnit, ved at tilføje nye betingelser til dem, der er fastsat
i nævnte stykke, eller ved at ændre dem, hvis der foreligger konkret og pålidelig dokumentation for, at der
findes AI-systemer, som hører under anvendelsesområdet i bilag III, men som ikke udgør en væsentlig
risiko for skade på fysiske personers sundhed, sikkerhed eller grundlæggende rettigheder.
7. Kommissionen vedtager delegerede retsakter i overensstemmelse med artikel 97 for at ændre nærvæ-
rende artikels stk. 3, andet afsnit, ved at lade enhver af de i nævnte stykke fastsatte betingelser udgå,
hvis der foreligger konkret og pålidelig dokumentation for, at dette er nødvendigt for at opretholde det
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0070.png
70
beskyttelsesniveauet for sundheden, sikkerheden og de grundlæggende rettigheder, der er fastsat ved
denne forordning.
8. Enhver ændring af betingelserne i stk. 3, andet afsnit, vedtaget i overensstemmelse med denne artikels
stk. 6 og 7, må ikke reducere det overordnede beskyttelsesniveau for sundheden, sikkerheden og de
grundlæggende rettigheder, der er fastsat ved denne forordning, og sikrer overensstemmelse med de
delegerede retsakter, der er vedtaget i henhold til artikel 7, stk. 1, og tager hensyn til den markedsmæssige
og teknologiske udvikling.
Artikel 7
Ændring af bilag III
1. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel
97 for at ændre bilag III ved at tilføje eller ændre anvendelsestilfælde af højrisiko-AI-systemer, hvis
begge følgende betingelser er opfyldt:
a) AI-systemerne tilsigtes anvendt på et af de områder, der er anført i bilag III
b) AI-systemerne udgør en risiko for skade på sundheden og sikkerheden eller for negativ indvirkning på
de grundlæggende rettigheder, og denne risiko svarer til eller er større end risikoen for skade eller negativ
indvirkning ved de højrisiko-AI-systemer, der allerede er omhandlet i bilag III.
2. Ved vurderingen af betingelsen i henhold til stk. 1, litra b), tager Kommissionen hensyn til følgende
kriterier:
a) det tilsigtede formål med AI-systemet
b) i hvilket omfang et AI-system er blevet anvendt eller sandsynligvis vil blive anvendt
c) arten og omfanget af de data, der behandles og anvendes af AI-systemet, navnlig om der behandles
særlige kategorier af personoplysninger
d) i hvilket omfang AI-systemet handler autonomt, og muligheden for at et menneske kan underkende en
afgørelse eller anbefalinger, som kan føre til potentiel skade
e) i hvilket omfang anvendelsen af et AI-system allerede har forvoldt skade på sundheden og sikkerheden,
har haft negativ indvirkning på de grundlæggende rettigheder eller har skabt betydelig bekymring med
hensyn til sandsynligheden for en sådan skade eller negativ indvirkning som påvist i f.eks. rapporter eller
dokumenterede påstande, der er forelagt for de nationale kompetente myndigheder, eller i andre rapporter,
alt efter hvad der er relevant
f) det potentielle omfang af en sådan skade eller negativ indvirkning, navnlig med hensyn til dens
størrelse og dens mulighed for påvirkning af flere personer eller for uforholdsmæssig påvirkning af en
særlig gruppe af personer
g) i hvilket omfang personer, der er potentielt skadede eller er ofre for en negativ indvirkning, er
afhængige af det resultat, et AI-system giver, navnlig hvis det af praktiske eller juridiske grunde ikke med
rimelighed er muligt at fravælge resultatet
h) i hvilket omfang der er magtmæssig ubalance, eller de personer, der er potentielt skadede eller er ofre
for en negativ indvirkning, befinder sig i en sårbar situation i forhold til idriftsætteren af et AI-system,
navnlig som følge af status, autoritet, viden, økonomiske eller sociale omstændigheder eller alder
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0071.png
71
i) i hvilket omfang det resultat, der fremkommer ved inddragelse af et AI-system, let kan korrigeres
eller ændres under hensyntagen til de tilgængelige tekniske løsninger til at korrigere eller ændre det, idet
resultater, der har en negativ indvirkning på sundheden, sikkerheden eller de grundlæggende rettigheder,
ikke anses for let at kunne korrigeres eller ændres
j) omfanget af og sandsynligheden for fordele ved idriftsættelsen af AI-systemet for enkeltpersoner,
grupper eller samfundet som helhed, herunder mulige forbedringer af produktsikkerheden
k) i hvilket omfang gældende EU-ret indeholder bestemmelser om:
i) effektive retsmidler med hensyn til de risici, der er forbundet med et AI-system, med undtagelse af
erstatningskrav
ii) effektive foranstaltninger til at forebygge eller i væsentlig grad minimere disse risici.
3. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel
97 for at ændre listen i bilag III ved at fjerne højrisiko-AI-systemer, hvis begge følgende betingelser er
opfyldt:
a) det pågældende højrisiko-AI-system udgør ikke længere nogen væsentlig risiko for de grundlæggende
rettigheder, sundheden eller sikkerheden under hensyntagen til kriterierne i stk. 2
b) fjernelsen reducerer ikke det generelle beskyttelsesniveau for sundhed, sikkerhed og grundlæggende
rettigheder i henhold til EU-retten.
AFDELING 2
Krav til højrisiko-AI-systemer
Artikel 8
Overholdelse af krav
1. Højrisiko-AI-systemer skal overholde de krav, der er fastsat i denne afdeling, under hensyntagen til
deres tilsigtede formål og det generelt anerkendte aktuelle teknologiske niveau for AI og AI-relaterede
teknologier. Ved sikringen af, at disse krav overholdes, tages det risikostyringssystem, der er omhandlet i
artikel 9, i betragtning.
2. Hvis et produkt indeholder et AI-system, som kravene i denne forordning samt kravene i den EU-har-
moniseringslovgivning, der er anført i bilag I, afsnit A, finder anvendelse på, er producenterne ansvarlige
for at sikre, at deres produkt fuldt ud overholder alle gældende krav i den gældende EU-harmoniserings-
lovgivning. For at sikre at de højrisiko-AI-systemer, der er omhandlet i stk. 1, overholder kravene i denne
afdeling, og for at sikre sammenhæng, undgå overlap og minimere yderligere byrder skal udbyderne
have mulighed for i relevant omfang at integrere de nødvendige afprøvnings- og rapporteringsprocesser,
oplysninger og den nødvendige dokumentation, som de stiller til rådighed vedrørende deres produkt, i
dokumentation og procedurer, der allerede eksisterer og kræves i henhold til den EU-harmoniseringslov-
givning, der er anført i bilag I, afsnit A.
Artikel 9
Risikostyringssystem
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0072.png
72
1. Hvad angår højrisiko-AI-systemer oprettes og gennemføres der et risikostyringssystem, som dokumen-
teres og vedligeholdes.
2. Risikostyringssystemet skal forstås som en kontinuerlig iterativ proces, der er planlagt og løber i
hele højrisiko-AI-systemets livscyklus, og som kræver regelmæssig systematisk gennemgang og opdate-
ring. Det omfatter følgende trin:
a) kortlægning og analyse af kendte og med rimelighed forudsigelige risici, som højrisiko-AI-systemet
kan udgøre for sundheden, sikkerheden eller de grundlæggende rettigheder, når højrisiko-AI-systemet
anvendes i overensstemmelse med dets tilsigtede formål
b) vurdering og evaluering af de risici, der kan opstå, når højrisiko-AI-systemet anvendes i overensstem-
melse med dets tilsigtede formål og ved fejlanvendelse, der med rimelighed kan forudses
c) evaluering af andre risici, der kan opstå, på grundlag af analyse af data indsamlet fra systemet til
overvågning efter omsætningen, jf. artikel 72
d) vedtagelse af passende og målrettede risikostyringsforanstaltninger, der har til formål at imødegå de
risici, der er identificeret i henhold til litra a).
3. De i denne artikel omhandlede risici vedrører kun dem, der med rimelighed kan afbødes eller fjernes
gennem udviklingen eller udformningen af højrisiko-AI-systemet eller tilvejebringelsen af tilstrækkelige
tekniske oplysninger.
4. De i stk. 2, litra d), omhandlede risikostyringsforanstaltninger tager behørigt hensyn til virkningerne
og eventuelle interaktioner som følge af den kombinerede anvendelse af kravene i denne afdeling med
henblik på at minimere risiciene mere effektivt og samtidig opnå en passende balance i gennemførelsen af
foranstaltningerne til opfyldelse af disse krav.
5. De i stk. 2, litra d), omhandlede risikostyringsforanstaltninger er af en sådan art, at de relevante
resterende risici, der er forbundet med hver fare, samt den samlede resterende risiko ved højrisiko-AI-sy-
stemerne vurderes at være acceptabel.
I fastlæggelsen af de mest hensigtsmæssige risikostyringsforanstaltninger sikres følgende:
a) fjernelse eller begrænsning af de risici, der er identificeret og evalueret i henhold til stk. 2, i det omfang
det er teknisk muligt, gennem passende udformning og udvikling af højrisiko-AI-systemet
b) om nødvendigt gennemførelse af passende foranstaltninger til afbødning og kontrol, som imødegår
risici, der ikke kan fjernes
c) tilvejebringelse af de oplysninger, der kræves i henhold til artikel 13, og, hvis det er relevant, træning
af idriftsætterne.
Med henblik på fjernelse eller begrænsning af risici i forbindelse med anvendelsen af et højrisiko-AI-sy-
stem tages der behørigt hensyn til den tekniske viden, erfaring, uddannelse og træning, som kan forventes
af idriftsætteren, og den formodentlige kontekst, i hvilken systemet tilsigtes anvendt.
6. Højrisiko-AI-systemer afprøves med henblik på at identificere de mest hensigtsmæssige og målrettede
risikostyringsforanstaltninger. Afprøvning sikrer, at højrisiko-AI-systemer yder konsistent i overensstem-
melse med deres tilsigtede formål og overholder de krav, der er fastsat i denne afdeling.
7. Afprøvningsprocedurerne kan omfatte afprøvning under faktiske forhold i overensstemmelse med
artikel 60.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0073.png
73
8. Afprøvning af højrisiko-AI-systemer foretages på et hvilket som helst tidspunkt under hele udviklings-
processen, alt efter hvad der er relevant, og under alle omstændigheder inden de bringes i omsætning eller
ibrugtages. Afprøvningen foretages på grundlag af på forhånd definerede parametre og probabilistiske
tærskler, der er passende i forhold til det tilsigtede formål med højrisiko-AI-systemet.
9. Ved gennemførelsen af det risikostyringssystem, der er fastsat i stk. 1-7, tager udbyderne hensyn til,
om der i betragtning af det tilsigtede formål med højrisiko-AI-systemet er sandsynlighed for, at det har en
negativ indvirkning på personer under 18 år og i relevant omfang på andre sårbare grupper.
10. For udbydere af højrisiko-AI-systemer, der er underlagt krav vedrørende interne risikostyringsproces-
ser i henhold til andre relevante bestemmelser i EU-retten, kan de aspekter, der er fastsat i stk. 1-9, være
en del af eller kombineres med de risikostyringsprocedurer, der er fastlagt i henhold til den pågældende
ret.
Artikel 10
Data og datastyring
1. De højrisiko-AI-systemer, der gør brug af teknikker, som omfatter træning af AI-modeller med data,
udvikles på grundlag af trænings-, validerings- og afprøvningsdatasæt, der opfylder de kvalitetskriterier,
der er omhandlet i stk. 2-5, når sådanne datasæt anvendes.
2. Trænings-, validerings- og afprøvningsdatasæt skal være underlagt former for datastyrings- og data-
forvaltningspraksis, som er tilpasset højrisiko-AI-systemets tilsigtede formål. Disse former for praksis
vedrører navnlig:
a) de relevante valg med hensyn til udformning
b) dataindsamlingsprocesser og dataenes oprindelse og, hvis der er tale om personoplysninger, det oprin-
delige formål med dataindsamlingen
c) relevant dataforberedelsesbehandling såsom annotation, mærkning, rensning, opdatering, berigelse og
aggregering
d) formuleringen af antagelser, navnlig med hensyn til de oplysninger, som dataene skal måle og repræ-
sentere
e) en vurdering af tilgængeligheden, mængden og egnetheden af de datasæt, der er nødvendige
f) undersøgelse med hensyn til mulige bias, der sandsynligvis vil påvirke personers sundhed og sikkerhed,
have negativ indvirkning på de grundlæggende rettigheder eller føre til forskelsbehandling, som er
forbudt i henhold til EU-retten, navnlig hvis dataoutput påvirker input til fremtidige operationer
g) passende foranstaltninger til at påvise, forebygge og afbøde de mulige bias, der er identificeret i
henhold til litra f)
h) kortlægning af relevante datamangler eller datautilstrækkeligheder, som forhindrer overholdelse af
denne forordning, og hvordan de kan afhjælpes.
3. Trænings-, validerings- og afprøvningsdatasæt skal i betragtning af det tilsigtede formål være relevante,
tilstrækkeligt repræsentative og i videst muligt omfang fejlfrie og fuldstændige. De skal have de tilstræk-
kelige statistiske egenskaber, herunder, hvis det er relevant, med hensyn til de personer eller grupper af
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0074.png
74
personer, på hvilke højrisiko-AI-systemet tilsigtes anvendt. Disse egenskaber kan opfyldes for de enkelte
datasæt eller for en kombination heraf.
4. I datasæt tages der, i det omfang det er nødvendigt i lyset af deres tilsigtede formål, hensyn til de
egenskaber eller elementer, der er særlige for den specifikke geografiske, kontekstuelle, adfærdsmæssige
eller funktionelle ramme, inden for hvilken højrisiko-AI-systemet tilsigtes anvendt.
5. I det omfang det er strengt nødvendigt for at sikre, at bias i forbindelse med højrisiko-AI-systemer
påvises og korrigeres i overensstemmelse med denne artikels stk. 2, litra f) og g), kan udbydere af sådan-
ne systemer undtagelsesvis behandle særlige kategorier af personoplysninger, med forbehold af passende
sikkerhedsforanstaltninger med hensyn til fysiske personers grundlæggende rettigheder og friheder. Ud
over bestemmelserne i forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680 skal
følgende betingelser overholdes for at udføre en sådan behandling:
a) påvisning og korrektion af bias kan ikke opnås effektivt ved behandling af andre data, herunder
syntetiske eller anonymiserede data
b) de særlige kategorier af personoplysninger er underlagt tekniske begrænsninger for videreanvendelse
af personoplysninger og de mest avancerede sikkerhedsforanstaltninger og foranstaltninger til beskyttelse
af privatlivet fred, herunder pseudonymisering
c) de særlige kategorier af personoplysninger er underlagt foranstaltninger, der skal sikre, at de behandle-
de personoplysninger er sikrede, beskyttede og omfattet af passende sikkerhedsforanstaltninger, herunder
streng kontrol og dokumentation af adgangen, for at undgå misbrug og sikre, at kun autoriserede personer
har adgang til disse personoplysninger med passende fortrolighedsforpligtelser
d) de særlige kategorier af personoplysninger må ikke transmitteres til, overføres til eller på anden måde
tilgås af andre parter
e) de særlige kategorier af personoplysninger slettes, når bias er blevet korrigeret, eller når opbevarings-
perioden for personoplysningerne udløber, alt efter hvad der indtræffer først
f) fortegnelserne over behandlingsaktiviteter i henhold til forordning (EU) 2016/679 og (EU) 2018/1725
samt direktiv (EU) 2016/680 indeholder en begrundelse for, hvorfor behandlingen af særlige kategorier af
personoplysninger var strengt nødvendig for at opdage og korrigere bias, og hvorfor dette mål ikke kunne
nås ved behandling af andre data.
6. Ved udvikling af højrisiko-AI-systemer, der ikke gør brug af teknikker, der omfatter træning af
AI-modeller, finder stk. 2-5 kun anvendelse på afprøvningsdatasættene.
Artikel 11
Teknisk dokumentation
1. Den tekniske dokumentation for et højrisiko-AI-system udarbejdes, inden systemet bringes i omsæt-
ning eller ibrugtages, og holdes ajour.
Den tekniske dokumentation udarbejdes således, at den påviser, at højrisiko-AI-systemet overholder de
krav, der er fastsat i denne afdeling, og at de oplysninger, der er nødvendige for at vurdere AI-systemets
overholdelse af disse krav, gives på en klar og forståelig måde til de nationale kompetente myndigheder
og bemyndigede organer. Den skal som minimum indeholde de i bilag IV fastsatte elementer. SMV�½er,
herunder iværksættervirksomheder, kan fremlægge de elementer i den tekniske dokumentation, der er an-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0075.png
75
ført i bilag IV, på en forenklet måde. Med henblik herpå udarbejder Kommissionen en forenklet formular
for teknisk dokumentation, der er målrettet små virksomheders og mikrovirksomheders behov. Hvis en
SMV, herunder en iværksættervirksomhed, vælger at fremlægge de oplysninger, der kræves i bilag IV, på
en forenklet måde, anvender den formularen, der er omhandlet i dette stykke. Bemyndigede organer skal
acceptere formularen med henblik på overensstemmelsesvurderingen.
2. Hvis et højrisiko-AI-system tilknyttet et produkt, der er omfattet af den i bilag I, afsnit A, anførte
EU-harmoniseringslovgivning, bringes i omsætning eller ibrugtages, udarbejdes der et enkelt sæt teknisk
dokumentation, der indeholder alle de oplysninger, der er fastsat i stk. 1, samt de oplysninger, der kræves
i henhold til disse retsakter.
3. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel
97 for at ændre bilag IV, hvis det i lyset af den tekniske udvikling er nødvendigt for, at den tekniske
dokumentation giver alle de oplysninger, der er nødvendige for at vurdere, om systemet overholder de
krav, der er fastsat i denne afdeling.
Artikel 12
Registrering
1. Højrisiko-AI-systemer skal teknisk muliggøre automatisk registrering af hændelser (»logfiler«) under
systemets levetid.
2. For at sikre en passende grad af sporbarhed i højrisiko-AI-systemets funktion i forhold til systemets
tilsigtede formål skal logningskapaciteten muliggøre registrering af hændelser, der er relevante for:
a) identifikation af situationer, der kan medføre, at højrisiko-AI-systemet udgør en risiko som omhandlet i
artikel 79, stk. 1, eller en væsentlig ændring
b) lettelse af overvågningen efter omsætningen, jf. artikel 72, og
c) overvågning af driften af højrisiko-AI-systemer, jf. artikel 26, stk. 5.
3. For så vidt angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, litra a), omfatter
logningskapaciteten som minimum:
a) registrering af tidsperioden for hver anvendelse af systemet (startdato og -klokkeslæt samt slutdato og
-klokkeslæt for hver anvendelse)
b) den referencedatabase, med hvilken systemet har sammenholdt inputdata
c) de inputdata, som i søgningen har givet et match
d) identifikation af de fysiske personer, der er involveret i verifikationen af resultaterne, jf. artikel 14, stk.
5.
Artikel 13
Gennemsigtighed og formidling af oplysninger til idriftsætterne
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at deres drift er tilstrækkelig gennem-
sigtig til, at idriftsætterne kan fortolke et systems output og anvende det korrekt. Der sikres en passende
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0076.png
76
type og grad af gennemsigtighed med henblik på at opnå overholdelse af de relevante udbyder- og
idriftsætterforpligtelser, der er fastsat i afdeling 3.
2. Højrisiko-AI-systemer ledsages af en brugsanvisning i et passende digitalt format eller på anden vis,
som indeholder kortfattede, fuldstændige, korrekte og klare oplysninger, som er relevante, tilgængelige og
forståelige for idriftsætterne.
3. Brugsanvisningen skal som minimum indeholde følgende oplysninger:
a) identitet på og kontaktoplysninger for udbyderen og dennes eventuelle bemyndigede repræsentant
b) højrisiko-AI-systemets egenskaber, kapacitet og begrænsninger for dets ydeevne, herunder:
i) det tilsigtede formål
ii) det niveau af nøjagtighed, herunder systemets parametre, robusthed og cybersikkerhed, jf. artikel 15, i
forhold til hvilket højrisiko-AI-systemet er afprøvet og valideret, og som kan forventes, samt alle kendte
og forudsigelige omstændigheder, der kan have indvirkning på det forventede niveau af nøjagtighed,
robusthed og cybersikkerhed
iii) alle kendte eller forudsigelige omstændigheder i forbindelse med anvendelse af højrisiko-AI-systemet
i overensstemmelse med dets tilsigtede formål eller ved fejlanvendelse, der med rimelighed kan forudses,
der kan medføre risici for sundhed og sikkerhed eller grundlæggende rettigheder, jf. artikel 9, stk. 2
iv) hvis det er relevant, højrisiko-AI-systemets tekniske kapacitet og egenskaber til at give oplysninger,
som er relevante for at forklare dets output
v) hvis det er relevant, dets ydeevne for så vidt angår de specifikke personer eller grupper af personer, på
hvilke systemet tilsigtes anvendt
vi) hvis det er relevant, specifikationer for inputdataene eller andre relevante oplysninger med hensyn til
de anvendte trænings-, validerings- og afprøvningsdatasæt under hensyntagen til højrisiko-AI-systemets
tilsigtede formål
vii) hvis det er relevant, oplysninger, der sætter idriftsætterne i stand til at fortolke højrisiko-AI-systemets
output og anvende det korrekt
c) eventuelle ændringer af højrisiko-AI-systemet og dets ydeevne, som udbyderen på forhånd har fastsat
på tidspunktet for den indledende overensstemmelsesvurdering
d) foranstaltninger til menneskeligt tilsyn, jf. artikel 14, herunder de tekniske foranstaltninger, der er
indført for at lette idriftsætternes fortolkning af højrisiko-AI-systemers output
e) de nødvendige beregningskrafts- og hardwareressourcer, højrisiko-AI-systemets forventede levetid og
eventuelle nødvendige vedligeholdelses- og plejeforanstaltninger, herunder deres hyppighed, for at sikre,
at AI-systemet fungerer korrekt, herunder med hensyn til softwareopdateringer
f) hvis det er relevant, en beskrivelse af de mekanismer, der er medtaget i højrisiko-AI-systemet, og som
giver idriftsætterne mulighed for på korrekt vis at indsamle, lagre og fortolke logfilerne i overensstem-
melse med artikel 12.
Artikel 14
Menneskeligt tilsyn
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0077.png
77
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, herunder med passende menneske-ma-
skine-grænsefladeværktøjer, at fysiske personer effektivt kan overvåge dem i den periode, hvor de er i
brug.
2. Menneskeligt tilsyn har til formål at forebygge eller minimere de risici for sundhed, sikkerhed eller
grundlæggende rettigheder, der kan opstå, når et højrisiko-AI-system anvendes i overensstemmelse med
dets tilsigtede formål eller under forhold med fejlanvendelse, der med rimelighed kan forudses, navnlig
hvis sådanne risici fortsat består trods anvendelsen af andre krav, der er fastsat i denne afdeling.
3. Tilsynsforanstaltningerne skal stå i et rimeligt forhold til risiciene, graden af autonomi og den kontekst,
som højrisiko-AI-systemet anvendes i, og sikres ved hjælp af en af eller samtlige følgende typer foran-
staltninger:
a) foranstaltninger, der er fastlagt og, hvis det er teknisk muligt, indbygget i højrisiko-AI-systemet fra
udbyderens side, inden systemet bringes i omsætning eller ibrugtages
b) foranstaltninger, der er fastlagt af udbyderen, inden højrisiko-AI-systemet bringes i omsætning eller
ibrugtages, og som er egnede til at blive gennemført af idriftsætteren.
4. Med henblik på gennemførelsen af stk. 1, 2 og 3 leveres højrisiko-AI-systemet til idriftsætteren på en
sådan måde, at det er muligt for fysiske personer, der har fået til opgave at varetage menneskeligt tilsyn,
alt efter hvad der er relevant og forholdsmæssigt, at:
a) forstå højrisiko-AI-systemets relevante kapacitet og begrænsninger korrekt og være i stand til at
overvåge dets drift på behørig vis, herunder med henblik på at opdage og håndtere uregelmæssigheder,
funktionsforstyrrelser og uventet ydeevne
b) være opmærksomme på den mulige tendens til automatisk eller i overdreven grad af forlade sig på
output frembragt af et højrisiko-AI-system (automatiseringsbias), navnlig for så vidt angår højrisiko-AI-
systemer, der anvendes til at give oplysninger eller anbefalinger til afgørelser, der skal træffes af fysiske
personer
c) fortolke højrisiko-AI-systemets output korrekt under hensyntagen til f.eks. de tilgængelige fortolk-
ningsværktøjer og -metoder
d) beslutte i en særlig situation ikke at anvende højrisiko-AI-systemet eller på anden måde se bort fra,
tilsidesætte eller omgøre outputtet fra højrisiko-AI-systemet
e) gribe ind i højrisiko-AI-systemets drift eller afbryde systemet ved hjælp af en »stopknap« eller en
lignende procedure, som gør det muligt at afbryde systemet i en sikker tilstand.
5. For så vidt angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, litra a), sikrer de
foranstaltninger, der er omhandlet i denne artikels stk. 3, desuden, at idriftsætteren ikke foretager noget
tiltag eller træffer nogen beslutninger på grundlag af en identifikation, der følger af systemet, medmindre
denne identifikation er blevet verificeret og bekræftet særskilt af mindst to fysiske personer med den
nødvendige kompetence, uddannelse og myndighed.
Kravet om særskilt verifikation foretaget af mindst to fysiske personer finder ikke anvendelse på højri-
siko-AI-systemer, der anvendes med henblik på retshåndhævelse, migrationsstyring, grænsekontrol og
asylforvaltning, hvis anvendelsen af dette krav efter EU-retten eller national ret skønnes uforholdsmæs-
sig.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0078.png
78
Artikel 15
Nøjagtighed, robusthed og cybersikkerhed
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at de opnår et passende niveau af
nøjagtighed, robusthed og cybersikkerhed, og at de i disse henseender yder konsistent i hele deres
livscyklus.
2. For at håndtere de tekniske aspekter af, hvordan de passende niveauer af nøjagtighed og robusthed,
der er fastsat i stk. 1, og andre relevante ydeevneparametre måles, tilskynder Kommissionen, alt efter
hvad der er relevant, i samarbejde med relevante interessenter og organisationer såsom metrologi- og
benchmarkingmyndigheder til udvikling af benchmarks og målemetoder.
3. Højrisiko-AI-systemers niveau og relevante parametre med hensyn til nøjagtighed angives i den
ledsagende brugsanvisning.
4. Højrisiko-AI-systemer skal være så modstandsdygtige som muligt over for fejl, svigt og uoverensstem-
melser, der kan forekomme i systemet eller i det miljø, som systemet fungerer i, navnlig på grund af
systemets interaktion med fysiske personer eller andre systemer. I denne henseende træffes der tekniske
og organisatoriske foranstaltninger.
Højrisiko-AI-systemers robusthed kan opnås ved hjælp af tekniske redundansløsninger, som kan omfatte
backupplaner eller »fail-safe plans«.
De højrisiko-AI-systemer, der fortsætter med at lære efter at være bragt i omsætning eller ibrugtaget,
udvikles på en sådan måde med henblik på i videst muligt omfang at fjerne eller reducere risikoen for, at
eventuelt output behæftet med bias påvirker input i fremtidige operationer (feedbacksløjfer), og sikre, at
sådanne feedbacksløjfer behørigt imødegås ved hjælp af passende afbødende foranstaltninger.
5. Højrisiko-AI-systemer skal være modstandsdygtige over for uautoriserede tredjeparters forsøg på at
ændre deres anvendelse, output eller ydeevne ved at udnytte systemsårbarheder.
De tekniske løsninger, der har til formål at sikre cybersikkerhed i forbindelse med højrisiko-AI-systemer,
skal stå i et passende forhold til de relevante omstændigheder og risiciene.
De tekniske løsninger til afhjælpning af AI-specifikke sårbarheder omfatter, alt efter hvad der er relevant,
foranstaltninger til at forebygge, opdage, reagere på, afværge og kontrollere angreb, der søger at mani-
pulere træningsdatasættet (dataforgiftning), eller forhåndstrænede komponenter, der anvendes i træning
(modelforgiftning), input, der er udformet til at få AI-modellen til at begå fejl (ondsindede eksempler eller
modelunddragelse), fortrolighedsangreb eller modelfejl.
AFDELING 3
Forpligtelser for udbydere og idriftsættere af højrisiko-AI-systemer og andre parter
Artikel 16
Forpligtelser for udbydere af højrisiko-AI-systemer
Udbydere af højrisiko-AI-systemer skal:
a) sørge for, at deres højrisiko-AI-systemer overholder de krav, der er fastsat i afdeling 2
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0079.png
79
b) angive deres navn, registrerede firmanavn eller registrerede varemærke og kontaktadresse på højrisiko-
AI-systemet, eller, hvis dette ikke er muligt, på dets emballage eller i den medfølgende dokumentation, alt
efter hvad der er relevant
c) have indført et kvalitetsstyringssystem, der er i overensstemmelse med artikel 17
d) opbevare den dokumentation, der er omhandlet i artikel 18
e) opbevare de logfiler, der automatisk genereres af deres højrisiko-AI-systemer, når logfilerne er under
deres kontrol, som omhandlet i artikel 19
f) sørge for, at højrisiko-AI-systemet underkastes den relevante overensstemmelsesvurderingsprocedure
som omhandlet i artikel 43, inden systemet bringes i omsætning eller ibrugtages
g) udarbejde en EU-overensstemmelseserklæring i overensstemmelse med artikel 47
h) anbringe CE-mærkningen på højrisiko-AI-systemet eller, hvis dette ikke er muligt, på dets emballage
eller i den medfølgende dokumentation, for at angive overensstemmelse med denne forordning i overens-
stemmelse med artikel 48
i) overholde de registreringsforpligtelser, der er omhandlet i artikel 49, stk. 1
j) foretage de nødvendige korrigerende tiltag og fremlægge oplysningerne som krævet i henhold til artikel
20
k) efter begrundet anmodning fra en national kompetent myndighed påvise, at højrisiko-AI-systemet er i
overensstemmelse med de krav, der er fastsat i afdeling 2
l) sikre, at højrisiko-AI-systemet overholder tilgængelighedskravene i overensstemmelse med direktiv
(EU) 2016/2102 og (EU) 2019/882.
Artikel 17
Kvalitetsstyringssystem
1. Udbydere af højrisiko-AI-systemer indfører et kvalitetsstyringssystem, der sikrer overensstemmelse
med denne forordning. Systemet dokumenteres på en systematisk og velordnet måde i form af skriftlige
politikker, procedurer og anvisninger og skal som minimum omfatte følgende aspekter:
a) en strategi for overholdelse af lovgivningen, herunder overholdelse af overensstemmelsesvurderings-
procedurer og procedurer for forvaltning af ændringer af højrisiko-AI-systemet
b) teknikker, procedurer og systematiske tiltag, der skal anvendes til udformningen, kontrollen af udform-
ningen og verifikationen af udformningen af højrisiko-AI-systemet
c) teknikker, procedurer og systematiske tiltag, der skal anvendes til udvikling, kvalitetskontrol og
kvalitetssikring af højrisiko-AI-systemet
d) undersøgelses-, afprøvnings- og valideringsprocedurer, der gennemføres før, under og efter udviklin-
gen af højrisiko-AI-systemet, samt den hyppighed, hvormed de gennemføres
e) tekniske specifikationer, herunder standarder, der anvendes, og, hvis de relevante harmoniserede
standarder ikke anvendes fuldt ud eller ikke omfatter alle de relevante krav, der er fastsat i afdeling 2, de
midler, der skal anvendes for at sikre, at højrisiko-AI-systemet overholder disse krav
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0080.png
80
f) systemer til og procedurer for dataforvaltning, herunder dataopsamling, dataindsamling, dataanalyse,
datamærkning, datalagring, datafiltrering, datamining, dataaggregering, dataopbevaring og enhver anden
handling vedrørende data, som udføres forud for og med henblik på omsætning eller ibrugtagning af
højrisiko-AI-systemer
g) det risikoforvaltningssystem, der er omhandlet i artikel 9
h) oprettelse, implementering og vedligeholdelse af et system til overvågning efter omsætningen i over-
ensstemmelse med artikel 72
i) procedurer for indberetning af en alvorlig hændelse i overensstemmelse med artikel 73
j) håndtering af kommunikation med nationale kompetente myndigheder, andre relevante myndigheder,
herunder dem, der giver eller understøtter adgang til data, bemyndigede organer, andre operatører, kunder
eller andre interesserede parter
k) systemer til og procedurer for registrering af al relevant dokumentation og alle relevante oplysninger
l) ressourceforvaltning, herunder foranstaltninger vedrørende forsyningssikkerhed
m) en ansvarlighedsramme, der fastlægger ledelsens og det øvrige personales ansvar med hensyn til alle
de aspekter, der er anført i dette stykke.
2. Gennemførelsen af de aspekter, der er omhandlet i stk. 1, skal stå i et rimeligt forhold til størrelsen af
udbyderens organisation. Udbyderne skal under alle omstændigheder respektere den grad af strenghed og
det beskyttelsesniveau, der kræves for at sikre, at deres højrisiko-AI-systemer er i overensstemmelse med
denne forordning.
3. Udbydere af højrisiko-AI-systemer, der er underlagt forpligtelser vedrørende kvalitetssikringssystemer
eller en tilsvarende funktion i henhold til relevant sektorspecifik EU-ret, kan medtage de aspekter, der er
anført i stk. 1, som en del af kvalitetsstyringssystemerne i henhold til denne ret.
4. For de udbydere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse,
ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, anses forpligtelsen til
at indføre et kvalitetsstyringssystem med undtagelse af denne artikels stk. 1, litra g), h) og i), for at
være opfyldt ved overholdelse af reglerne om ordninger eller processer for intern ledelse i henhold
til den relevante EU-ret om finansielle tjenesteydelser. Med henblik herpå tages der hensyn til alle de
harmoniserede standarder, der er omhandlet i artikel 40.
Artikel 18
Opbevaring af dokumentation
1. Udbyderen skal i ti år, efter at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, kunne
forelægge de nationale kompetente myndigheder:
a) den i artikel 11 omhandlede tekniske dokumentation
b) dokumentationen vedrørende det i artikel 17 omhandlede kvalitetsstyringssystem
c) dokumentationen vedrørende ændringer, der er godkendt af bemyndigede organer, hvis det er relevant
d) de afgørelser og andre dokumenter, der er udstedt af de bemyndigede organer, hvis det er relevant
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0081.png
81
e) den i artikel 47 omhandlede EU-overensstemmelseserklæring.
2. Hver medlemsstat fastsætter, på hvilke betingelser den i stk. 1 omhandlede dokumentation fortsat er
til rådighed for de nationale kompetente myndigheder i den periode, der er anført i nævnte stykke, i de
tilfælde, hvor en udbyder eller dennes bemyndigede repræsentant, der er etableret på dens område, går
konkurs eller indstiller sine aktiviteter inden udløbet af denne periode.
3. De udbydere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse,
ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, beholder den tekniske
dokumentation som en del af den dokumentation, der opbevares i henhold til den relevante EU-ret om
finansielle tjenesteydelser.
Artikel 19
Automatisk genererede logfiler
1. Udbydere af højrisiko-AI-systemer opbevarer de i artikel 12, stk. 1, omhandlede logfiler, der genereres
automatisk af deres højrisiko-AI-systemer, i det omfang sådanne logfiler er under deres kontrol. Uden at
det berører gældende EU-ret eller national ret, opbevares logfilerne i en periode, der er passende i forhold
til det tilsigtede formål med højrisiko-AI-systemet, på mindst seks måneder, medmindre andet er fastsat i
gældende EU-ret eller national ret, navnlig EU-retten om beskyttelse af personoplysninger.
2. De udbydere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse,
ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, beholder de logfiler, der
automatisk genereres af deres højrisiko-AI-systemer som en del af den dokumentation, der opbevares i
henhold til den relevante ret om finansielle tjenesteydelser.
Artikel 20
Korrigerende tiltag og oplysningspligt
1. De udbydere af højrisiko-AI-systemer, der mener eller har grund til at mene, at et højrisiko-AI-system,
som de har bragt i omsætning eller ibrugtaget, ikke er i overensstemmelse med denne forordning, foreta-
ger omgående de nødvendige korrigerende tiltag til at bringe det pågældende system i overensstemmelse
hermed, tilbagetrække det, tage det ud af drift eller tilbagekalde det, alt efter hvad der er relevant. De
underretter distributørerne af det pågældende højrisiko-AI-system og om nødvendigt idriftsætterne, den
bemyndigede repræsentant samt importører herom.
2. Hvis et højrisiko-AI-system udgør en risiko som omhandlet i artikel 79, stk. 1, og udbyderen får
kendskab til denne risiko, undersøger denne omgående årsagerne i samarbejde med den indberettende
idriftsætter, hvis det er relevant, og underretter de markedsovervågningsmyndigheder, der er kompetente
for det pågældende højrisiko-AI-system, og, hvis det er relevant, det bemyndigede organ, der har udstedt
en attest for det pågældende højrisiko-AI-system i overensstemmelse med artikel 44, navnlig om arten af
den manglende overholdelse og om eventuelle relevante korrigerende tiltag, der er foretaget.
Artikel 21
Samarbejde med kompetente myndigheder
1. Udbydere af højrisiko-AI-systemer giver efter begrundet anmodning fra en kompetent myndighed
denne myndighed alle de fornødne oplysninger og al den fornødne dokumentation for at påvise, at
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0082.png
82
højrisiko-AI-systemet er i overensstemmelse med de krav, der er fastsat i afdeling 2, på et sprog, som den
pågældende myndighed let kan forstå, og på et af EU-institutionernes officielle sprog som angivet af den
pågældende medlemsstat.
2. Efter begrundet anmodning fra en kompetent myndighed giver udbydere, alt efter hvad der er relevant,
også den anmodende kompetente myndighed adgang til de automatisk genererede logfiler af højrisiko-AI-
systemet, der er omhandlet i artikel 12, stk. 1, i det omfang sådanne logfiler er under deres kontrol.
3. Alle de oplysninger, som en kompetent myndighed kommer i besiddelse af i henhold til denne artikel,
behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
Artikel 22
Bemyndigede repræsentanter for udbydere af højrisiko-AI-systemer
1. Udbydere, der er etableret i tredjelande, udpeger, inden deres højrisiko-AI-systemer gøres tilgængelige
på EU-markedet, ved skriftligt mandat en bemyndiget repræsentant, der er etableret i Unionen.
2. Udbyderen skal gøre det muligt for sin bemyndigede repræsentant at udføre de opgaver, der er fastsat i
det mandat, vedkommende har modtaget fra udbyderen.
3. Den bemyndigede repræsentant udfører de opgaver, der er fastsat i det mandat, vedkommende har
modtaget fra udbyderen. Vedkommende skal på anmodning give markedsovervågningsmyndighederne
en kopi af mandatet på et af EU-institutionernes officielle sprog som angivet af den kompetente myndig-
hed. Med henblik på denne forordning sætter mandatet den bemyndigede repræsentant i stand til at udføre
følgende opgaver:
a) at kontrollere, at den EU-overensstemmelseserklæring, der er omhandlet i artikel 47, og den tekniske
dokumentation, der er omhandlet i artikel 11, er blevet udarbejdet, og at en passende overensstemmelses-
vurderingsprocedure er blevet gennemført af udbyderen
b) i en periode på ti år efter, at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, at
kunne forelægge de kompetente myndigheder og nationale myndigheder eller organer, der er omhandlet
i artikel 74, stk. 10, kontaktoplysningerne for den udbyder, der udpegede den bemyndigede repræsentant,
en kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæringen, den tekniske dokumentation
og, hvis det er relevant, den attest, der er udstedt af det bemyndigede organ
c) efter begrundet anmodning at give de kompetente myndigheder alle de fornødne oplysninger og al
den fornødne dokumentation, herunder den, der er omhandlet i dette afsnits litra b), for at påvise, at
et højrisiko-AI-system er i overensstemmelse med kravene fastsat i afdeling 2, herunder adgang til
logfilerne som omhandlet i artikel 12, stk. 1, der genereres automatisk af højrisiko-AI-systemet, i det
omfang sådanne logfiler er under udbyderens kontrol
d) efter begrundet anmodning at samarbejde med de kompetente myndigheder om ethvert tiltag, som
sidstnævnte foretager i forbindelse med højrisiko-AI-systemet, navnlig med henblik på at reducere og
afhjælpe de risici, som højrisiko-AI-systemet udgør
e) hvis det er relevant, at overholde registreringsforpligtelserne, jf. artikel 49, stk. 1, eller, hvis registrerin-
gen foretages af udbyderen selv, sikre, at de oplysninger, der er omhandlet i bilag VIII, afsnit A, punkt 3,
er korrekte.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0083.png
83
Mandatet giver beføjelse til, at den bemyndigede repræsentant, ud over eller i stedet for udbyderen, kan
modtage henvendelser fra de kompetente myndigheder om alle spørgsmål relateret til at sikre overholdel-
se af denne forordning.
4. Den bemyndigede repræsentant bringer mandatet til ophør, hvis vedkommende mener eller har grund
til at mene, at udbyderen handler i strid med sine forpligtelser i henhold til denne forordning. I så fald
underretter den omgående den relevante markedsovervågningsmyndighed samt, hvis det er relevant, det
relevante bemyndigede organ om mandatets ophør og begrundelsen herfor.
Artikel 23
Forpligtelser for importører
1. Importører sikrer, før de bringer et højrisiko-AI-system i omsætning, at systemet er i overensstemmelse
med denne forordning, ved at kontrollere, at:
a) udbyderen af dette højrisiko-AI-system har gennemført den relevante overensstemmelsesvurderings-
procedure, jf. artikel 43
b) udbyderen har udarbejdet den tekniske dokumentation i overensstemmelse med artikel 11 og bilag IV
c) systemet er forsynet med den krævede CE-mærkning og ledsages af den i artikel 47 omhandlede
EU-overensstemmelseserklæring og brugsanvisning
d) udbyderen har udpeget en bemyndiget repræsentant i overensstemmelse med artikel 22, stk. 1.
2. Hvis en importør har tilstrækkelig grund til at mene, at et højrisiko-AI-system ikke er i overens-
stemmelse med denne forordning eller er forfalsket eller ledsaget af forfalsket dokumentation, må
vedkommende ikke bringe systemet i omsætning, før det er blevet bragt i overensstemmelse hermed. Hvis
højrisiko-AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, underretter importøren udbyde-
ren af systemet, den bemyndigede repræsentant og markedsovervågningsmyndighederne herom.
3. Importører angiver deres navn, registrerede firmanavn eller registrerede varemærke og kontaktadresse
på højrisiko-AI-systemet og på dets emballage eller i den medfølgende dokumentation, hvis det er
relevant.
4. Importører sikrer, at opbevarings- og transportbetingelserne, hvis det er relevant, for højrisiko-AI-sy-
stemer, som de har ansvaret for, ikke bringer dets overholdelse af kravene fastsat i afdeling 2 i fare.
5. Importører opbevarer i ti år efter, at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget,
en kopi af den attest, der er udstedt af det bemyndigede organ, hvis det er relevant, af brugsanvisningen
og af den i artikel 47 omhandlede EU-overensstemmelseserklæring.
6. Importører giver efter begrundet anmodning og på et sprog, som de relevante myndigheder let kan
forstå, disse myndigheder alle de fornødne oplysninger og al den fornødne dokumentation, herunder den,
der er omhandlet i stk. 5, for at påvise, at et højrisiko-AI-system er i overensstemmelse med kravene i
afdeling 2. Med henblik herpå skal de også sikre, at den tekniske dokumentation kan stilles til rådighed
for disse myndigheder.
7. Importører samarbejder med de relevante kompetente myndigheder om ethvert tiltag, som disse myn-
digheder foretager vedrørende et højrisiko-AI-system, som importørerne har bragt i omsætning, navnlig
med henblik på at reducere eller afbøde de risici, som det udgør.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0084.png
84
Artikel 24
Forpligtelser for distributører
1. Distributører kontrollerer, før de gør et højrisiko-AI-system tilgængeligt på markedet, at det er forsynet
med den krævede CE-mærkning, at det ledsages af en kopi af den i artikel 47 omhandlede EU-overens-
stemmelseserklæring og brugsanvisning, og at udbyderen og importøren af dette system, alt efter hvad der
er relevant, har opfyldt deres respektive forpligtelser som fastsat i artikel 16, litra b) og c), og artikel 23,
stk. 3.
2. Hvis en distributør på grundlag af oplysningerne i dennes besiddelse mener eller har grund til at mene,
at et højrisiko-AI-system ikke er i overensstemmelse med kravene i afdeling 2, må vedkommende ikke
gøre højrisiko-AI-systemet tilgængeligt på markedet, før systemet er blevet bragt i overensstemmelse med
de nævnte krav. Hvis højrisiko-AI-systemet ydermere udgør en risiko som omhandlet i artikel 79, stk. 1,
underretter distributøren udbyderen eller importøren af systemet, alt efter hvad der er relevant, herom.
3. Distributører sikrer, hvis det er relevant, at opbevarings- og transportbetingelserne for højrisiko-AI-sy-
stemer, som de har ansvaret for, ikke bringer systemets overholdelse af kravene i afdeling 2 i fare.
4. Hvis en distributør på grundlag af oplysningerne i dennes besiddelse mener eller har grund til at
mene, at et højrisiko-AI-system, som vedkommende har gjort tilgængeligt på markedet, ikke er i over-
ensstemmelse med kravene i afdeling 2, foretager vedkommende de nødvendige korrigerende tiltag for
at bringe systemet i overensstemmelse med disse krav, tilbagetrække det eller tilbagekalde det eller
sikrer, at udbyderen, importøren eller enhver relevant operatør, alt efter hvad der er relevant, foretager
disse korrigerende tiltag. Hvis højrisiko-AI-systemet udgør en risiko som omhandlet i artikel 79, stk.
1, orienterer distributøren omgående udbyderen eller importøren af systemet og de myndigheder, der er
kompetente for det pågældende højrisiko-AI-system, herom og giver navnlig nærmere oplysninger om
den manglende overholdelse og de foretagne korrigerende tiltag.
5. Efter begrundet anmodning fra en relevant kompetent myndighed giver distributører af et højrisiko-AI-
system denne myndighed alle fornødne oplysninger og al fornøden dokumentation vedrørende deres
handlinger i henhold til stk. 1-4 for at påvise, at dette højrisiko-AI-system er i overensstemmelse med
kravene i afdeling 2.
6. Distributører samarbejder med de relevante kompetente myndigheder om ethvert tiltag, som disse
myndigheder foretager vedrørende et højrisiko-AI-system, som distributørerne har bragt i omsætning,
navnlig med henblik på at reducere eller afbøde de risici, som det udgør.
Artikel 25
Ansvar i hele AI-værdikæden
1. Enhver distributør, importør, idriftsætter eller anden tredjepart anses for at være udbyder af et højrisiko-
AI-system med henblik på denne forordning og er underlagt forpligtelserne for udbydere, jf. artikel 16, i
følgende tilfælde:
a) de anbringer deres navn eller varemærke på et højrisiko-AI-system, der allerede er bragt i omsætning
eller ibrugtaget, uden at det berører kontraktlige ordninger om, at forpligtelserne er fordelt anderledes
b) de foretager en væsentlig ændring af et højrisiko-AI-system, der allerede er bragt i omsætning eller
allerede er ibrugtaget, på en sådan måde, at det forbliver et højrisiko-AI-system i henhold til artikel 6
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0085.png
85
c) de ændrer det tilsigtede formål med et AI-system, herunder et AI-system til almen brug, der ikke er
klassificeret som højrisiko og allerede er bragt i omsætning eller ibrugtaget, på en sådan måde, at det
pågældende AI-system bliver et højrisiko-AI-system i overensstemmelse med artikel 6.
2. Hvis de omstændigheder, der er omhandlet i stk. 1, indtræffer, anses den udbyder, der oprindeligt
bragte AI-systemet i omsætning eller ibrugtog det, ikke længere for at være udbyder af dette specifikke
AI-system i denne forordnings forstand. Denne oprindelige udbyder skal arbejde tæt sammen med nye
udbydere og stille de nødvendige oplysninger til rådighed og give den teknisk adgang og anden bistand,
som med rimelighed kan forventes, og som kræves for at opfylde forpligtelserne i denne forordning,
navnlig hvad angår overholdelse af overensstemmelsesvurderingen af højrisiko-AI-systemer. Dette stykke
finder ikke anvendelse i de tilfælde, hvor den oprindelige udbyder klart har præciseret, at dennes AI-sy-
stem ikke skal ændres til et højrisiko-AI-system og dermed ikke er omfattet af forpligtelsen til at udlevere
dokumentationen.
3. Hvad angår højrisiko-AI-systemer, der er sikkerhedskomponenter i produkter, der er omfattet af
EU-harmoniseringslovgivningen opført i bilag I, afsnit A, anses producenten for at være udbyderen af
højrisiko-AI-systemet og underlægges forpligtelserne i henhold til artikel 16 i følgende tilfælde:
a) Højrisiko-AI-systemet bringes i omsætning sammen med produktet under producentens navn eller
varemærke.
b) Højrisiko-AI-systemet ibrugtages under producentens navn eller varemærke, efter at produktet er bragt
i omsætning.
4. Udbyderen af et højrisiko-AI-system og den tredjepart, der leverer et AI-system, værktøjer, tjenester,
komponenter eller processer, der anvendes eller integreres i et højrisiko-AI-system, skal ved skriftlig
aftale præcisere de nødvendige oplysninger, kapacitet, teknisk adgang og anden bistand på grundlag af det
generelt anerkendte aktuelle teknologiske niveau, så udbydere af højrisiko-AI-systemet er i stand til fuldt
ud at overholde forpligtelserne i denne forordning. Dette stykke finder ikke anvendelse på tredjeparter,
der gør andre værktøjer, tjenester, processer eller komponenter, der ikke er AI-modeller til almen brug,
tilgængelige for offentligheden i henhold til en gratis open source-licens.
AI-kontoret kan udvikle og anbefale frivillige standardaftalevilkår mellem udbydere af højrisiko-AI-sy-
stemer og tredjeparter, der leverer værktøjer, tjenester, komponenter eller processer, som anvendes til
eller integreres i højrisiko-AI-systemer. Når AI-kontoret udarbejder disse frivillige standardaftalevilkår,
tager det også hensyn til eventuelle kontraktlige krav, der gælder i specifikke sektorer eller forretnings-
scenarier. De frivillige standardaftalevilkår offentliggøres og stilles gratis til rådighed i et letanvendeligt
elektronisk format.
5. Stk. 2 og 3 berører ikke behovet for at overholde og beskytte intellektuelle ejendomsrettigheder,
fortrolige forretningsoplysninger og forretningshemmeligheder i overensstemmelse med EU-retten og
national ret.
Artikel 26
Forpligtelser for idriftsættere af højrisiko-AI-systemer
1. Idriftsættere af højrisiko-AI-systemer træffer passende tekniske og organisatoriske foranstaltninger
for at sikre, at de anvender disse systemer i overensstemmelse med den brugsanvisning, der ledsager
systemerne, jf. stk. 3 og 6.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0086.png
86
2. Idriftsættere overdrager varetagelsen af det menneskelige tilsyn til fysiske personer, der har den
nødvendige kompetence, uddannelse og myndighed samt den nødvendige støtte.
3. Forpligtelserne i stk. 1 og 2 berører ikke andre idriftsætterforpligtelser i henhold til EU-retten eller
national ret eller idriftsætterens frihed til at tilrettelægge sine egne ressourcer og aktiviteter med henblik
på at gennemføre de af udbyderen angivne foranstaltninger til menneskeligt tilsyn.
4. Uden at dette berører stk. 1 og 2, og i det omfang idriftsætteren udøver kontrol over inputdataene,
sikrer denne idriftsætter, at inputdataene er relevante og tilstrækkeligt repræsentative med henblik på
højrisiko-AI-systemets tilsigtede formål.
5. Idriftsættere overvåger driften af højrisiko-AI-systemet på grundlag af brugsanvisningen og underret-
ter, hvis det er relevant, udbyderne i overensstemmelse med artikel 72. Hvis idriftsættere har grund til at
mene, at anvendelsen af højrisiko-AI-systemet i overensstemmelse med anvisningerne kan resultere i, at
AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, underretter de uden unødigt ophold udby-
deren eller distributøren og den relevante markedsovervågningsmyndighed og stiller anvendelsen af dette
system i bero. Hvis idriftsættere har konstateret en alvorlig hændelse, underretter de også omgående først
udbyderen og dernæst importøren eller distributøren og de relevante markedsovervågningsmyndigheder
om den pågældende hændelse. Hvis idriftsætteren ikke er i stand til at kontakte udbyderen, finder artikel
73 tilsvarende anvendelse. Denne forpligtelse omfatter ikke følsomme operationelle data fra idriftsættere
af AI-systemer, som er retshåndhævende myndigheder.
For idriftsættere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse,
ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, anses overvågningsfor-
pligtelsen i første afsnit for at være opfyldt ved overholdelse af reglerne om ordninger, processer og
mekanismer for intern ledelse i henhold til den relevante ret om finansielle tjenesteydelser.
6. Idriftsættere af højrisiko-AI-systemer opbevarer de logfiler, der genereres automatisk af det pågælden-
de højrisiko-AI-system, i det omfang sådanne logfiler er under deres kontrol, i en periode, der er passende
i forhold til det tilsigtede formål med højrisiko-AI-systemet, på mindst seks måneder, medmindre andet er
fastsat i gældende EU-ret eller national ret, navnlig EU-retten om beskyttelse af personoplysninger.
Idriftsættere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ord-
ninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, beholder logfilerne som en
del af den dokumentation, der opbevares i henhold til den relevante EU-ret om finansielle tjenesteydelser.
7. Inden ibrugtagning eller anvendelse af et højrisiko-AI-system på arbejdspladsen informerer idriftsæt-
tere, som er arbejdsgivere, arbejdstagerrepræsentanter og de berørte arbejdstagere om, at de vil være
omfattet af anvendelsen af højrisiko-AI-systemet. Denne information forelægges, hvis det er relevant, i
overensstemmelse med de regler og procedurer, der er fastsat i EU-retten og EU-praksis og national ret og
praksis om informering af arbejdstagere og deres repræsentanter.
8. Idriftsættere af højrisiko-AI-systemer, der er offentlige myndigheder eller EU-institutioner, -organer,
-kontorer eller -agenturer, overholder de registreringsforpligtelser, der er omhandlet i artikel 49. Når
sådanne idriftsættere konstaterer, at det højrisiko-AI-system, de påtænker at anvende, ikke er registreret
i den EU-database, der er omhandlet i artikel 71, anvender de ikke dette system og underretter leverandø-
ren eller distributøren.
9. Hvis det er relevant, anvender idriftsættere af højrisiko-AI-systemer de oplysninger, der er fastsat i
henhold til denne forordnings artikel 13, til at overholde deres forpligtelse til at foretage en konsekvens-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0087.png
87
analyse vedrørende databeskyttelse i henhold til artikel 35 i forordning (EU) 2016/679 eller artikel 27 i
direktiv (EU) 2016/680.
10. Uden at det berører direktiv (EU) 2016/680, anmoder idriftsætteren af et højrisiko-AI-system til
efterfølgende biometrisk fjernidentifikation inden for rammerne af en efterforskning med henblik på en
målrettet eftersøgning af en person, der er mistænkt eller tiltalt for at have begået en strafbar handling,
om tilladelse fra en judiciel myndighed eller en administrativ myndighed, hvis afgørelse er bindende og
underlagt domstolskontrol, til på forhånd eller uden unødigt ophold og senest inden for 48 timer at anven-
de det pågældende system, medmindre det anvendes til indledende identifikation af en potentiel mistænkt
på grundlag af objektive og verificerbare kendsgerninger, der er direkte knyttet til overtrædelsen. Hver
anvendelse begrænses til, hvad der er strengt nødvendigt for efterforskningen af en specifik strafbar
handling.
Hvis den tilladelse, der er anmodet om i henhold til første afsnit, afvises, bringes anvendelsen af systemet
til efterfølgende biometrisk fjernidentifikation, der er knyttet til denne tilladelse, der anmodes om, straks
til ophør, og de personoplysninger, der er knyttet til anvendelsen af det højrisiko-AI-system, som der blev
anmodet om tilladelse til, slettes. Et sådant højrisiko-AI-system til efterfølgende biometrisk fjernidentifi-
kation må under ingen omstændigheder anvendes til retshåndhævelsesformål på en ikkemålrettet måde
uden nogen forbindelse til en strafbar handling, en straffesag, en reel og aktuel eller reel og forudsigelig
trussel om en strafbar handling eller eftersøgning af en specifik forsvundet person. Det sikres, at der ikke
træffes nogen afgørelse, der har negative retsvirkninger for en person, af de retshåndhævende myndighe-
der, udelukkende baseret på outputtet af sådanne systemer til efterfølgende biometrisk fjernidentifikation.
Dette stykke berører ikke artikel 9 i forordning (EU) 2016/679 og artikel 10 i direktiv (EU) 2016/680 med
hensyn til behandling af biometriske data.
Uanset formålet eller idriftsætteren skal hver anvendelse af sådanne højrisiko-AI-systemer dokumenteres
i det relevante politiregister og efter anmodning stilles til rådighed for den relevante markedsovervåg-
ningsmyndighed og den nationale databeskyttelsesmyndighed, undtagen hvis det drejer sig om videregi-
velse af følsomme operationelle data vedrørende retshåndhævelse. Dette afsnit berører ikke de beføjelser,
der tillægges tilsynsmyndighederne ved direktiv (EU) 2016/680.
Idriftsættere forelægger årlige rapporter for de relevante markedsovervågningsmyndigheder og de rele-
vante nationale databeskyttelsesmyndigheder om deres anvendelse af systemer til efterfølgende biome-
trisk fjernidentifikation, undtagen hvis det drejer sig om videregivelse af følsomme operationelle data
vedrørende retshåndhævelse. Rapporterne kan samles for at dække mere end én idriftsættelse.
Medlemsstaterne kan i overensstemmelse med EU-retten indføre mere restriktiv lovgivning om anvendel-
sen af systemer til efterfølgende biometrisk fjernidentifikation.
11. Uden at det berører denne forordnings artikel 50, underretter idriftsættere af de i bilag III omhandlede
højrisiko-AI-systemer, der træffer beslutninger eller bistår med at træffe beslutninger vedrørende fysiske
personer, de fysiske personer om, at de er genstand for anvendelsen af et højrisiko-AI-system. For højri-
siko-AI-systemer, der anvendes til retshåndhævelsesformål, finder artikel 13 i direktiv (EU) 2016/680
anvendelse.
12. Idriftsættere samarbejder med de relevante kompetente myndigheder om ethvert tiltag, som disse
myndigheder foretager vedrørende højrisiko-AI-systemet, med henblik på gennemførelse af denne forord-
ning.
Artikel 27
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0088.png
88
Konsekvensanalyse vedrørende grundlæggende rettigheder for højrisiko-AI-systemer
1. Inden idriftsættelse af et højrisiko-AI-system omhandlet i artikel 6, stk. 2, undtagen højrisiko-AI-syste-
mer, der tilsigtes anvendt på det område, der er anført i bilag III, punkt 2, foretager idriftsættere, der
er offentligretlige organer eller private enheder, der leverer offentlige tjenester, og idriftsættere af de
højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 5, litra b) og c), en analyse af konsekvensen
for grundlæggende rettigheder, som anvendelsen af et sådant system kan medføre. Med henblik herpå
foretager idriftsætterne en konsekvensanalyse bestående af:
a) en beskrivelse af idriftsætterens processer, i hvilke højrisiko-AI-systemet vil blive anvendt i overens-
stemmelse med dets tilsigtede formål
b) en beskrivelse af den periode og hyppighed, inden for hvilken hvert højrisiko-AI-system tilsigtes
anvendt
c) de kategorier af fysiske personer og grupper, som forventes at blive påvirket af dets anvendelse i den
specifikke kontekst
d) de specifikke risici for skade, der sandsynligvis vil påvirke de kategorier af fysiske personer eller
grupper af personer, som er identificeret i henhold til dette stykkes litra c), under hensyntagen til
oplysningerne fra udbyderen, jf. artikel 13
e) en beskrivelse af gennemførelsen af foranstaltninger til menneskeligt tilsyn i overensstemmelse med
brugsanvisningen
f) de foranstaltninger, der skal træffes, hvis disse risici opstår, herunder ordningerne for intern ledelse og
klagemekanismer.
2. Den i stk. 1 fastsatte forpligtelse gælder for den første anvendelse af højrisiko-AI-systemet. Idriftsætte-
ren kan i lignende tilfælde anvende tidligere gennemførte konsekvensanalyser vedrørende grundlæggende
rettigheder eller eksisterende konsekvensanalyser, som udbyderen har foretaget. Hvis idriftsætteren under
anvendelsen af højrisiko-AI-systemet finder, at nogle af de elementer, der er anført i stk. 1, har ændret sig
eller ikke længere er ajourførte, tager idriftsætteren de nødvendige skridt til at ajourføre oplysningerne.
3. Når den i stk. 1 omhandlede konsekvensanalyse er foretaget, meddeler idriftsætteren markedsovervåg-
ningsmyndigheden resultaterne heraf og forelægger den i denne artikels stk. 5 omhandlede udfyldte
skabelon som en del af meddelelsen. I det tilfælde, som er omhandlet i artikel 46, stk. 1, kan idriftsættere
undtages fra denne meddelelsespligt.
4. Hvis nogle af de forpligtelser, der er fastsat i denne artikel, allerede er opfyldt ved den konsekvens-
analyse vedrørende databeskyttelse, der foretages i henhold til artikel 35 i forordning (EU) 2016/679
eller artikel 27 i direktiv (EU) 2016/680, supplerer den i nærværende artikels stk. 1 omhandlede kon-
sekvensanalyse vedrørende grundlæggende rettigheder den pågældende konsekvensanalyse vedrørende
databeskyttelse.
5. AI-kontoret udarbejder en skabelon til et spørgeskema, herunder gennem et automatiseret værktøj, der
skal gøre det lettere for idriftsættere at overholde deres forpligtelser i henhold til denne artikel på en
forenklet måde.
AFDELING 4
Bemyndigende myndigheder og bemyndigede organer
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0089.png
89
Artikel 28
Bemyndigende myndigheder
1. Hver medlemsstat udpeger eller opretter mindst én bemyndigende myndighed med ansvar for at
indføre og gennemføre de nødvendige procedurer for vurdering, udpegelse og notifikation af overens-
stemmelsesvurderingsorganer og for overvågning heraf. Disse procedurer udvikles i samarbejde mellem
de bemyndigende myndigheder i alle medlemsstater.
2. Medlemsstaterne kan beslutte, at den i stk. 1 omhandlede vurdering og overvågning skal foretages af et
nationalt akkrediteringsorgan som omhandlet i og i overensstemmelse med forordning (EF) nr. 765/2008.
3. Bemyndigende myndigheder oprettes, organiseres og drives på en sådan måde, at der ikke opstår inte-
ressekonflikter med overensstemmelsesvurderingsorganerne, og at der sikres objektivitet og uvildighed i
deres aktiviteter.
4. Bemyndigende myndigheder er organiseret på en sådan måde, at afgørelser om notifikation af overens-
stemmelsesvurderingsorganer træffes af kompetente personer, der ikke er identiske med dem, der har
foretaget vurderingen af disse organer.
5. Bemyndigende myndigheder hverken tilbyder eller leverer aktiviteter, som udføres af overensstemmel-
sesvurderingsorganer, eller nogen form for rådgivningstjeneste på kommercielt eller konkurrencemæssigt
grundlag.
6. Bemyndigende myndigheder sikrer, at de oplysninger, de kommer i besiddelse af, behandles fortroligt i
overensstemmelse med artikel 78.
7. Bemyndigende myndigheder skal have et tilstrækkelig stort kompetent personale til, at de kan udføre
deres opgaver behørigt. Det kompetente personale skal have den ekspertise, der er nødvendig for deres
funktion, hvis det er relevant, på områder såsom informationsteknologier, AI og jura, herunder tilsyn med
grundlæggende rettigheder.
Artikel 29
Ansøgning om notifikation af et overensstemmelsesvurderingsorgan
1. Overensstemmelsesvurderingsorganer indgiver en ansøgning om notifikation til den bemyndigende
myndighed i den medlemsstat, hvor de er etableret.
2. Ansøgningen om notifikation ledsages af en beskrivelse af de overensstemmelsesvurderingsaktiviteter,
det eller de overensstemmelsesvurderingsmoduler og de typer AI-systemer, som overensstemmelsesvur-
deringsorganet hævder at være kompetent til, samt af en eventuel akkrediteringsattest udstedt af et natio-
nalt akkrediteringsorgan, hvori det bekræftes, at overensstemmelsesvurderingsorganet opfylder kravene i
artikel 31.
Alle gyldige dokumenter vedrørende eksisterende udpegelser af det ansøgende bemyndigede organ i
henhold til enhver anden EU-harmoniseringslovgivning tilføjes.
3. Hvis det pågældende overensstemmelsesvurderingsorgan ikke kan forelægge en akkrediteringsattest,
forelægger det den bemyndigende myndighed al den dokumentation, der er nødvendig for verifikationen,
anerkendelsen og den regelmæssige overvågning af, at det overholder kravene i artikel 31.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0090.png
90
4. For bemyndigede organer, der er udpeget i henhold til enhver anden EU-harmoniseringslovgivning,
kan alle dokumenter og attester, der er knyttet til disse udpegelser, alt efter hvad der er relevant, anvendes
til at understøtte deres udpegelsesprocedure i henhold til denne forordning. Det bemyndigede organ
ajourfører den i denne artikels stk. 2 og 3 omhandlede dokumentation, når der sker relevante ændringer,
for at give myndigheden med ansvar for bemyndigede organer mulighed for at overvåge og verificere, at
alle krav i artikel 31 løbende er opfyldt.
Artikel 30
Notifikationsprocedure
1. De bemyndigende myndigheder må kun bemyndige overensstemmelsesvurderingsorganer, som opfyl-
der kravene i artikel 31.
2. De bemyndigende myndigheder underretter Kommissionen og de øvrige medlemsstater om hvert
overensstemmelsesvurderingsorgan, der er omhandlet i stk. 1, ved hjælp af det elektroniske notifikations-
værktøj, der er udviklet og forvaltes af Kommissionen.
3. Den notifikationen, der er omhandlet i denne artikels stk. 2, skal indeholde fyldestgørende oplysninger
om overensstemmelsesvurderingsaktiviteterne, overensstemmelsesvurderingsmodulet eller -modulerne,
de pågældende typer AI-systemer og den relevante dokumentation for kompetencen. Hvis en bemyndigel-
se ikke er baseret på en akkrediteringsattest som omhandlet i artikel 29, stk. 2, skal den bemyndigende
myndighed forelægge Kommissionen og de øvrige medlemsstater dokumentation, der bekræfter overens-
stemmelsesvurderingsorganets kompetence og de ordninger, der er indført for at sikre, at der regelmæssigt
føres tilsyn med organet, og at organet også fremover vil opfylde de i artikel 31 fastsatte krav.
4. Det pågældende overensstemmelsesvurderingsorgan må kun udføre aktiviteter som bemyndiget organ,
hvis Kommissionen og de øvrige medlemsstater ikke har gjort indsigelse inden for to uger efter en
bemyndigende myndigheds notifikation, hvis den indeholder en akkrediteringsattest, jf. artikel 29, stk.
2, eller senest to måneder efter den bemyndigende myndigheds notifikation, hvis den indeholder den
dokumentation, der er omhandlet i artikel 29, stk. 3.
5. Hvis der gøres indsigelse, hører Kommissionen straks de relevante medlemsstater og overensstemmel-
sesvurderingsorganet. Med henblik herpå træffer Kommissionen afgørelse om, hvorvidt tilladelsen er
berettiget. Kommissionen retter sin afgørelse til den pågældende medlemsstat og det relevante overens-
stemmelsesvurderingsorgan.
Artikel 31
Krav vedrørende bemyndigede organer
1. Et bemyndiget organ skal oprettes i henhold til national ret i en medlemsstat og være en juridisk
person.
2. Bemyndigede organer skal opfylde de organisatoriske krav samt de kvalitetsstyrings-, ressource- og
procedurekrav, der er nødvendige for at kunne udføre deres opgaver, samt passende cybersikkerhedskrav.
3. Bemyndigede organers organisationsstruktur, ansvarsfordeling, rapporteringsveje og drift skal sikre, at
der er tillid til deres arbejde og til resultaterne af de bemyndigede organers overensstemmelsesvurderings-
aktiviteter.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0091.png
91
4. Bemyndigede organer skal være uafhængige af udbyderen af højrisiko-AI-systemet, i forbindelse
med hvilket de udfører overensstemmelsesvurderingsaktiviteter. Bemyndigede organer skal også være
uafhængige af alle andre operatører, der har en økonomisk interesse i højrisiko-AI-systemer, der vurderes,
og af enhver konkurrent til udbyderen. Dette er ikke til hinder for at anvende vurderede højrisiko-AI-sy-
stemer, som er nødvendige for overensstemmelsesvurderingsorganets drift, eller for at anvende sådanne
højrisiko-AI-systemer til personlige formål.
5. Hverken overensstemmelsesvurderingsorganet, dets øverste ledelse eller det personale, der er ansvarligt
for at udføre dets overensstemmelsesvurderingsopgaver, må være direkte involveret i udformningen,
udviklingen, markedsføringen eller anvendelsen af højrisiko-AI-systemer eller repræsentere parter, der
deltager i disse aktiviteter. De må ikke deltage i aktiviteter, som kan være i strid med deres objektivitet
eller integritet, når de udfører de aktiviteter i forbindelse med overensstemmelsesvurdering, som de er
bemyndiget til at udføre. Dette gælder navnlig rådgivningstjenester.
6. Bemyndigede organer skal være organiseret og arbejde på en sådan måde, at der i deres aktiviteter
sikres uafhængighed, objektivitet og uvildighed. Bemyndigede organer skal dokumentere og gennemføre
en struktur og procedurer til sikring af uvildighed og til fremme og anvendelse af principperne om
uvildighed i hele deres organisation, hos alt deres personale og i alle deres vurderingsaktiviteter.
7. Bemyndigede organer skal have indført dokumenterede procedurer, der sikrer, at deres personale, ud-
valg, dattervirksomheder, underentreprenører og eventuelle tilknyttede organer eller personale i eksterne
organer i overensstemmelse med artikel 78 opretholder fortroligheden af de oplysninger, som de kommer
i besiddelse af under udførelsen af overensstemmelsesvurderingsaktiviteterne, undtagen når videregivelse
heraf er påbudt ved lov. Bemyndigede organers personale har tavshedspligt med hensyn til alle oplysnin-
ger, det kommer i besiddelse af under udførelsen af sine opgaver i henhold til denne forordning, undtagen
over for de bemyndigende myndigheder i den medlemsstat, hvor aktiviteterne udføres.
8. Bemyndigede organer skal have procedurer for udførelsen af aktiviteterne, der tager behørigt hensyn til
en udbyders størrelse, til den sektor, som den opererer inden for, til dens struktur og til, hvor kompleks det
pågældende AI-system er.
9. Bemyndigede organer skal tegne en passende ansvarsforsikring for deres overensstemmelsesvurde-
ringsaktiviteter, medmindre ansvaret i overensstemmelse med national ret ligger hos den medlemsstat, i
hvilken de er etableret, eller medlemsstaten selv er direkte ansvarlig for overensstemmelsesvurderingen.
10. Bemyndigede organer skal være i stand til at udføre alle deres opgaver i henhold til denne forordning
med den størst mulige faglige integritet og den nødvendige kompetence på det specifikke område, uanset
om disse opgaver udføres af bemyndigede organer selv eller på deres vegne og på deres ansvar.
11. Bemyndigede organer skal have tilstrækkelige interne kompetencer til at kunne evaluere de opgaver,
der udføres af eksterne parter på deres vegne, effektivt. Det bemyndigede organ skal have permanent
adgang til tilstrækkeligt administrativt, teknisk, juridisk og videnskabeligt personale med erfaring og
viden vedrørende de relevante typer af AI-systemer, de relevante data og den relevante databehandling og
vedrørende kravene i afdeling 2.
12. Bemyndigede organer skal deltage i det koordinerende arbejde, jf. artikel 38. De skal også deltage
direkte eller være repræsenteret i de europæiske standardiseringsorganisationer eller sikre, at de har et
ajourført kendskab til relevante standarder.
Artikel 32
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0092.png
92
Formodning om overensstemmelse med krav vedrørende bemyndigede organer
Hvis et overensstemmelsesvurderingsorgan påviser, at det er i overensstemmelse med kriterierne i de rele-
vante harmoniserede standarder eller dele heraf, hvortil der er offentliggjort referencer i
Den Europæiske
Unions Tidende,
formodes det at overholde kravene i artikel 31, for så vidt de gældende harmoniserede
standarder dækker disse krav.
Artikel 33
Dattervirksomheder i tilknytning til bemyndigede organer og underentreprise
1. Hvis et bemyndiget organ giver bestemte opgaver i forbindelse med overensstemmelsesvurderingen i
underentreprise eller anvender en dattervirksomhed, skal det sikre, at underentreprenøren eller dattervirk-
somheden opfylder kravene i artikel 31, og underrette den bemyndigende myndighed herom.
2. Bemyndigede organer har det fulde ansvar for de opgaver, som udføres af en underentreprenør eller
dattervirksomhed.
3. Aktiviteter kan kun gives i underentreprise eller udføres af en dattervirksomhed, hvis udbyderen har
givet sit samtykke hertil. Bemyndigede organer skal gøre en liste over deres dattervirksomheder offentligt
tilgængelig.
4. De relevante dokumenter vedrørende vurderingen af underentreprenørens eller dattervirksomhedens
kvalifikationer og det arbejde, som de har udført i henhold til denne forordning, stilles til rådighed for den
bemyndigende myndighed i en periode på fem år fra datoen for afslutningen af underentreprisen.
Artikel 34
Bemyndigede organers operationelle forpligtelser
1. Bemyndigede organer skal verificere, at højrisiko-AI-systemer er i overensstemmelse med overens-
stemmelsesvurderingsprocedurerne i artikel 43.
2. Bemyndigede organer skal under udførelsen af deres aktiviteter undgå unødvendige byrder for udby-
derne og tage behørigt hensyn til udbyderens størrelse, den sektor, som den opererer inden for, dens
struktur og til, hvor kompleks det pågældende højrisiko-AI-system er, navnlig med henblik på at mini-
mere administrative byrder og overholdelsesomkostninger for mikrovirksomheder og små virksomheder
som omhandlet i henstilling 2003/361/EF. Det bemyndigede organ skal dog respektere den grad af
strenghed og det beskyttelsesniveau, der kræves for, at højrisiko-AI-systemet overholder kravene i denne
forordning.
3. Bemyndigede organer skal stille al relevant dokumentation til rådighed og efter anmodning forelægge
denne, herunder udbyderens dokumentation, for den bemyndigende myndighed, der er omhandlet i artikel
28, så denne myndighed kan udføre sine vurderings-, udpegelses-, notifikations- og overvågningsaktivite-
ter og lette vurderingen anført i denne afdeling.
Artikel 35
Identifikationsnumre for og lister over bemyndigede organer
1. Kommissionen tildeler hvert bemyndiget organ ét identifikationsnummer, også selv om organet er
notificeret i henhold til mere end én EU-retsakt.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0093.png
93
2. Kommissionen offentliggør listen over organer, der er notificeret i henhold til denne forordning, herun-
der deres identifikationsnumre og de aktiviteter, med henblik på hvilke de er notificeret. Kommissionen
sikrer, at listen ajourføres.
Artikel 36
Ændringer af notifikationer
1. Den bemyndigende myndighed meddeler Kommissionen og de øvrige medlemsstater alle relevante æn-
dringer i notifikationen af et bemyndiget organ via det elektroniske notifikationsværktøj, der er omhandlet
i artikel 30, stk. 2.
2. Procedurerne i artikel 29 og 30 finder anvendelse på udvidelser af rammerne for notifikationen.
Med hensyn til andre ændringer af notifikationen end udvidelser af rammerne for den, finder procedurer-
ne i stk. 3-9 anvendelse.
3. Hvis et bemyndiget organ beslutter at indstille sine overensstemmelsesvurderingsaktiviteter, underretter
det den bemyndigende myndighed og udbyderne hurtigst muligt og i tilfælde af planlagt indstilling
mindst ét år, inden dets aktiviteter indstilles. Det bemyndigede organs attester kan forblive gyldige i
en periode på ni måneder, efter at det bemyndigede organs aktiviteter er indstillet, forudsat at et andet
bemyndiget organ skriftligt har bekræftet, at det vil påtage sig ansvaret for de højrisiko-AI-systemer, der
er omfattet af disse attester. Sidstnævnte bemyndigede organ foretager en fuld vurdering af de berørte
højrisiko-AI-systemer inden udgangen af denne periode på ni måneder, før det udsteder nye attester for
disse systemer. Hvis det bemyndigede organ har indstillet sine aktiviteter, trækker den bemyndigende
myndighed udpegelsen tilbage.
4. Hvis en bemyndigende myndighed har tilstrækkelig grund til at mene, at et bemyndiget organ ikke
længere opfylder kravene i artikel 31, eller at det ikke opfylder sine forpligtelser, skal den bemyndigende
myndighed hurtigst muligt undersøge sagen med den størst mulige omhu. I den forbindelse skal den
underrette det berørte bemyndigede organ om sine indvendinger og giver det mulighed for at tilkendegive
sine synspunkter. Hvis en bemyndigende myndighed konkluderer, at det bemyndigede organ ikke længere
opfylder kravene i artikel 31, eller at det ikke opfylder sine forpligtelser, skal den begrænse, suspendere
eller tilbagetrække udpegelsen, alt efter hvad der er relevant, afhængigt af hvor alvorlig den manglende
opfyldelse af kravene eller forpligtelserne er. Den underretter omgående Kommissionen og de øvrige
medlemsstater herom.
5. Hvis et bemyndiget organs udpegelse er blevet suspenderet, begrænset eller helt eller delvist tilbage-
trukket, underretter dette organ de pågældende udbydere inden for ti dage.
6. Hvis en udpegelse begrænses, suspenderes eller tilbagetrækkes, træffer den bemyndigende myndighed
de nødvendige foranstaltninger for at sikre, at det pågældende bemyndigede organs sager opbevares, og
for at stille dem til rådighed for bemyndigende myndigheder i andre medlemsstater og for markedsover-
vågningsmyndighederne efter disses anmodning.
7. Hvis en udpegelse begrænses, suspenderes eller tilbagetrækkes, skal den bemyndigende myndighed:
a) vurdere indvirkningen på attester, der er udstedt af det bemyndigede organ
b) forelægge en rapport om sine resultater til Kommissionen og de øvrige medlemsstater senest tre
måneder efter, at den har givet meddelelse om ændringerne af udpegelsen
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0094.png
94
c) pålægge det bemyndigede organ at suspendere eller tilbagetrække alle de attester, der uretmæssigt er
blevet udstedt, inden for en rimelig tidsfrist, der fastsættes af myndigheden, for at sikre, at højrisiko-AI-
systemer fortsat er i overensstemmelse hermed på markedet
d) underrette Kommissionen og medlemsstaterne om attester, som den har kræves suspenderet eller
tilbagetrukket
e) give de nationale kompetente myndigheder i den medlemsstat, hvor udbyderen har sit registrerede
forretningssted, alle relevante oplysninger om de attester, for hvilke den har krævet suspension eller
tilbagetrækning. Den pågældende myndighed træffer de fornødne foranstaltninger, hvis det er nødvendigt,
for at undgå en potentiel risiko for sundhed, sikkerhed eller grundlæggende rettigheder.
8. Med undtagelse af uretmæssigt udstedte attester og i tilfælde, hvor en udpegelse er blevet inddraget
eller begrænset, vedbliver attesterne med at være gyldige i et af følgende tilfælde:
a) den bemyndigende myndighed har senest én måned efter suspensionen eller begrænsningen bekræftet,
at der ikke er nogen risiko for sundhed, sikkerhed eller grundlæggende rettigheder vedrørende attester, der
er berørt af suspensionen eller begrænsningen, og den bemyndigende myndighed har anført en frist for
tiltag til at afhjælpe suspensionen eller begrænsningen, eller
b) den bemyndigende myndighed har bekræftet, at ingen attester af relevans for suspensionen vil blive
udstedt, ændret eller genudstedt under suspensionen eller begrænsningen, og anfører, hvorvidt det bemyn-
digede organ har kapacitet til at fortsætte overvågningen og fortsat være ansvarligt for eksisterende
udstedte attester i suspensions- eller begrænsningsperioden; hvis den bemyndigende myndighed fastslår,
at det bemyndigede organ ikke er i stand til at støtte eksisterende udstedte attester, bekræfter udbyderen
af det system, der er omfattet af attesten, senest tre måneder efter suspensionen eller begrænsningen
skriftligt over for de nationale kompetente myndigheder i den medlemsstat, hvor vedkommende har sit
registrerede forretningssted, at et andet kvalificeret bemyndiget organ midlertidigt varetager det bemyndi-
gede organs funktioner med hensyn til at overvåge og forblive ansvarligt for attesterne i suspensions- eller
begrænsningsperioden.
9. Med undtagelse af uretmæssigt udstedte attester og i tilfælde, hvor en udpegelse er blevet tilbagetruk-
ket, vedbliver attesterne med at være gyldige i en periode på ni måneder i følgende tilfælde:
a) den nationale kompetente myndighed i den medlemsstat, hvor udbyderen af det højrisiko-AI-system,
der er omfattet af attesten, har sit registrerede forretningssted, har bekræftet, at der ikke er nogen risiko
for sundhed, sikkerhed eller grundlæggende rettigheder i forbindelse med de pågældende højrisiko-AI-sy-
stemer, og
b) et andet bemyndiget organ har skriftligt bekræftet, at det straks varetager ansvaret for disse AI-syste-
mer, og færdiggør sin vurdering inden 12 måneder efter tilbagetrækning af udpegelsen.
Under de omstændigheder, der er omhandlet i første afsnit, kan den kompetente nationale myndighed
i den medlemsstat, hvor udbyderen af det system, der er omfattet af attesten, har sit forretningssted,
forlænge attesternes foreløbige gyldighed i yderligere perioder på tre måneder, dog i alt højst 12 måneder.
Den kompetente nationale myndighed eller det bemyndigede organ, der varetager funktionerne for det
bemyndigede organ, der er berørt af ændringen af udpegelsen, underretter omgående Kommissionen, de
øvrige medlemsstater og de øvrige bemyndigede organer herom.
Artikel 37
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0095.png
95
Anfægtelse af bemyndigede organers kompetence
1. Kommissionen undersøger om nødvendigt alle tilfælde, hvor der er grund til at betvivle et bemyndiget
organs kompetence eller et bemyndiget organs fortsatte opfyldelse af kravene i artikel 31 og dets gælden-
de ansvarsområder.
2. Den bemyndigende myndighed forelægger efter anmodning Kommissionen alle relevante oplysninger
vedrørende notifikationen af det pågældende bemyndigede organ eller opretholdelsen af dets kompetence.
3. Kommissionen sikrer, at alle de følsomme oplysninger, som den kommer i besiddelse af som led i sine
undersøgelser i henhold til denne artikel, behandles fortroligt i overensstemmelse med artikel 78.
4. Hvis Kommissionen konstaterer, at et bemyndiget organ ikke eller ikke længere opfylder kravene
i forbindelse med sin notifikation, underretter den den bemyndigende medlemsstat herom og anmoder
den om at træffe de nødvendige korrigerende foranstaltninger, herunder om nødvendigt suspension
eller tilbagetrækning af notifikationen. Hvis den bemyndigende myndighed ikke træffer de nødvendige
foranstaltninger, kan Kommissionen ved hjælp af en gennemførelsesretsakt suspendere, begrænse eller
tilbagetrække udpegelsen. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. arti-
kel 98, stk. 2.
Artikel 38
Koordinering af bemyndigede organer
1. Kommissionen sikrer, at der med hensyn til højrisiko-AI-systemer etableres passende koordinering og
samarbejde mellem de bemyndigede organer, der er aktive inden for overensstemmelsesvurderingsproce-
durer i henhold til denne forordning, i form af en sektorspecifik gruppe af bemyndigede organer, og at det
styres på forsvarlig måde.
2. Hver bemyndigende myndighed sørger for, at de organer, den har bemyndiget, deltager i arbejdet i en
gruppe, jf. stk. 1, enten direkte eller gennem udpegede repræsentanter.
3. Kommissionen sørger for udveksling af viden og bedste praksis mellem de bemyndigede myndigheder.
Artikel 39
Tredjelandes overensstemmelsesvurderingsorganer
Overensstemmelsesvurderingsorganer, der er oprettet i henhold til retten i et tredjeland, med hvilket
Unionen har indgået en aftale, kan godkendes til at udføre bemyndigede organers aktiviteter i henhold
til denne forordning, forudsat at de opfylder kravene i artikel 31, eller at de sikrer et tilsvarende overens-
stemmelsesniveau.
AFDELING 5
Standarder, overensstemmelsesvurdering, attester, registrering
Artikel 40
Harmoniserede standarder og standardiseringsdokumentation
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0096.png
96
1. Højrisiko-AI-systemer eller AI-modeller til almen brug, som er i overensstemmelse med harmonisere-
de standarder eller dele heraf, hvis referencer er offentliggjort i Den Europæiske Unions Tidende i over-
ensstemmelse med forordning (EU) nr. 1025/2012, formodes at være i overensstemmelse med kravene i
dette kapitels afdeling 2 eller, alt efter hvad der er relevant, med forpligtelserne i nærværende forordnings
kapitel V, afdeling 2 og 3, for så vidt de nævnte standarder omfatter disse krav eller forpligtelser.
2. I overensstemmelse med artikel 10 i forordning (EU) nr. 1025/2012 fremsætter Kommissionen uden
unødigt ophold standardiseringsanmodninger, der dækker alle kravene i dette kapitels afdeling 2, og,
alt efter hvad der er relevant, standardiseringsanmodninger, der dækker forpligtelserne i nærværende
forordnings kapitel V, afdeling 2 og 3. I standardiseringsanmodningen anmodes der også om dokumenta-
tion vedrørende rapporterings- og dokumentationsprocesser med henblik på at forbedre AI-systemernes
ressourceydeevne såsom reduktion af højrisiko-AI-systemets forbrug af energi og af andre ressourcer i
løbet af dets livscyklus og vedrørende energieffektiv udvikling af AI-modeller til almen brug. I forbindel-
se med udarbejdelsen af en standardiseringsanmodning hører Kommissionen AI-udvalget og relevante
interessenter, herunder det rådgivende forum.
Når Kommissionen fremsætter en standardiseringsanmodning til de europæiske standardiseringsorganisa-
tioner, præciserer den, at standarderne skal være klare, overensstemmende, herunder med de standarder,
der er udviklet i de forskellige sektorer for produkter, der er omfattet af den gældende EU-harmonise-
ringslovgivning, som er opført i bilag I, og søge at sikre, at højrisiko-AI-systemer eller AI-modeller
til almen brug, som bringes i omsætning eller tages i brug i Unionen, opfylder de relevante krav eller
forpligtelser i nærværende forordning.
Kommissionen anmoder de europæiske standardiseringsorganisationer om at dokumentere deres bedste
indsats for at nå de mål, der er omhandlet i dette stykkes første og andet afsnit, i overensstemmelse med
artikel 24 i forordning (EU) nr. 1025/2012.
3. Deltagerne i standardiseringsprocessen skal søge at fremme investering og innovation inden for AI,
herunder gennem øget retssikkerhed, samt EU-markedets konkurrenceevne og vækst, at bidrage til at
styrke globalt samarbejde om standardisering og tage højde for eksisterende internationale standarder
inden for kunstig intelligens, som stemmer overens med Unionens værdier, grundlæggende rettigheder og
interesser, og at styrke multiinteressentforvaltning, der sikrer en afbalanceret repræsentation af interesser
og effektiv deltagelse af alle relevante interessenter i overensstemmelse med artikel 5, 6 og 7 i forordning
(EU) nr. 1025/2012.
Artikel 41
Fælles specifikationer
1. Kommissionen kan vedtage gennemførelsesretsakter om fastlæggelse af fælles specifikationer for
kravene i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, for forpligtelserne i kapitel V,
afdeling 2 og 3, hvis følgende betingelser er opfyldt:
a) Kommissionen har i henhold til artikel 10, stk. 1, i forordning (EU) nr. 1025/2012 anmodet en eller
flere europæiske standardiseringsorganisationer om at udarbejde en harmoniseret standard for kravene i
dette kapitels afdeling 2 eller, hvis det er relevant, for forpligtelserne i kapitel V, afdeling 2 og 3, og:
i) anmodningen er ikke blevet imødekommet af nogen af de europæiske standardiseringsorganisationer,
eller
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0097.png
97
ii) de harmoniserede standarder, der behandler den pågældende anmodning, er ikke blevet leveret inden
for den frist, der er fastsat i overensstemmelse med artikel 10, stk. 1, i forordning (EU) nr. 1025/2012,
eller
iii) de relevante harmoniserede standarder tager ikke i tilstrækkelig grad hensyn til de grundlæggende
rettigheder, eller
iv) de harmoniserede standarder er ikke i overensstemmelse med anmodningen, og
b) ingen reference til harmoniserede standarder, der dækker de krav, der er omhandlet i dette kapitels
afdeling 2, eller, hvis det er relevant, forpligtelserne i kapitel V, afdeling 2 og 3, er offentliggjort i Den
Europæiske Unions Tidende i overensstemmelse med forordning (EU) nr. 1025/2012, og ingen reference
af denne art forventes at blive offentliggjort inden for et rimeligt tidsrum.
Når Kommissionen udarbejder de fælles specifikationer, skal den høre det rådgivende forum, der er
omhandlet i artikel 67.
De gennemførelsesretsakter, der er omhandlet i dette stykkes første afsnit, vedtages efter undersøgelses-
proceduren, jf. artikel 98, stk. 2.
2. Inden Kommissionen udarbejder et udkast til gennemførelsesretsakt, underretter den det udvalg, der
er omhandlet i artikel 22 i forordning (EU) nr. 1025/2012, om, at den anser betingelserne i nærværende
artikels stk. 1 for opfyldt.
3. Højrisiko-AI-systemer eller AI-modeller til almen brug, som er i overensstemmelse med de fælles
specifikationer, der er omhandlet i stk. 1, eller dele af disse specifikationer, formodes at være i overens-
stemmelse med kravene fastsat i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, at overholde
forpligtelserne omhandlet i kapital V, afdeling 2 og 3, for så vidt de nævnte fælles specifikationer
omfatter disse forpligtelser.
4. Hvis en europæisk standardiseringsorganisation vedtager en harmoniseret standard og fremlægger
denne for Kommissionen med henblik på offentliggørelse af referencen hertil i Den Europæiske Unions
Tidende, skal Kommissionen foretage en vurdering af den harmoniserede standard i overensstemmelse
med forordning (EU) nr. 1025/2012. Når referencen til en harmoniseret standard offentliggøres i Den
Europæiske Unions Tidende, ophæver Kommissionen de gennemførelsesretsakter, der er omhandlet i stk.
1, eller dele deraf, der omfatter de samme krav, der er fastsat i dette kapitels afdeling 2 eller, hvis det er
relevant, at de samme forpligtelser, der er fastsat i kapital V, afdeling 2 og 3.
5. Hvis udbydere af højrisiko-AI-systemer eller AI-modeller til almen brug ikke overholder de fælles
specifikationer, der er omhandlet i stk. 1, skal de behørigt begrunde, at de har indført tekniske løsninger,
der opfylder de krav, der er omhandlet i dette kapitels afdeling 2 eller, alt efter hvad der er relevant,
overholder de forpligtelser, der er fastsat i kapital V, afdeling 2 og 3, i et omfang, som mindst svarer
hertil.
6. Hvis en medlemsstat finder, at en fælles specifikation ikke fuldt ud opfylder kravene fastsat i afdeling
2 eller, alt efter hvad der er relevant, overholder forpligtelserne fastsat i kapital V, afdeling 2 og 3,
underretter den Kommissionen herom med en detaljeret redegørelse. Kommissionen vurderer disse oplys-
ninger og ændrer, hvis det er relevant, gennemførelsesretsakten om fastlæggelse af den pågældende fælles
specifikation.
Artikel 42
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0098.png
98
Formodning om overensstemmelse med visse krav
1. Højrisiko-AI-systemer, der er blevet trænet og afprøvet på data, som afspejler de specifikke geogra-
fiske, adfærdsmæssige, kontekstuelle eller funktionelle rammer, som de tilsigtes anvendt inden for,
formodes at overholde de relevante krav i artikel 10, stk. 4.
2. Højrisiko-AI-systemer, der er certificeret, eller for hvilke der er udstedt en overensstemmelseserklæring
i henhold til en cybersikkerhedsordning i henhold til forordning (EU) 2019/881, og hvis referencer
er offentliggjort i Den Europæiske Unions Tidende, formodes at overholde cybersikkerhedskravene i
nærværende forordnings artikel 15, såfremt cybersikkerhedsattesten eller overensstemmelseserklæringen
eller dele heraf dækker disse krav.
Artikel 43
Overensstemmelsesvurdering
1. Hvad angår højrisiko-AI-systemer, der er opført i bilag III, punkt 1, skal udbyderen, såfremt denne
ved påvisningen af, at et højrisiko-AI-system overholder kravene i afdeling 2, har anvendt harmoniserede
standarder omhandlet i artikel 40 eller, hvis det er relevant, fælles specifikationer omhandlet i artikel 41,
vælge en af følgende overensstemmelsesvurderingsprocedurer på grundlag af:
a) intern kontrol omhandlet i bilag VI, eller
b) vurdering af kvalitetsstyringssystemet og vurdering af den tekniske dokumentation med inddragelse af
et bemyndiget organ omhandlet i bilag VII.
Ved påvisning af et højrisiko-AI-systems overensstemmelse med kravene i afdeling 2 følger udbyderen
overensstemmelsesvurderingsproceduren i bilag VII, hvis:
a) der ikke findes harmoniserede standarder omhandlet i artikel 40, og der ikke findes fælles specifikatio-
ner omhandlet i artikel 41
b) udbyderen ikke har anvendt eller kun har anvendt en del af den harmoniserede standard
c) de i litra a) omhandlede fælles specifikationer findes, men udbyderen ikke har anvendt dem
d) én eller flere af de i litra a) omhandlede harmoniserede standarder er blevet offentliggjort med en
begrænsning og kun med hensyn til den del af standarden, som er genstand for begrænsning.
Med henblik på den overensstemmelsesvurderingsprocedure, der er omhandlet i bilag VII, kan udbyderen
vælge hvilket som helst af de bemyndigede organer. Hvis højrisiko-AI-systemet tilsigtes ibrugtaget af
retshåndhævende myndigheder, indvandringsmyndigheder, asylmyndigheder eller EU-institutioner, -orga-
ner, -kontorer eller -agenturer, fungerer den markedsovervågningsmyndighed, der er omhandlet i artikel
74, stk. 8 eller 9, alt efter hvad der er relevant, imidlertid som bemyndiget organ.
2. Hvad angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2-8, skal udbyderne følge
overensstemmelsesvurderingsproceduren på grundlag af intern kontrol som omhandlet i bilag VI, som
ikke foreskriver inddragelse af et bemyndiget organ.
3. For højrisiko-AI-systemer, som er omfattet af EU-harmoniseringslovgivningen, der er opført i bilag
I, afsnit A, skal udbyderen følge den relevante overensstemmelsesvurderingsprocedure som krævet i
henhold til disse retsakter. Kravene i dette kapitels afdeling 2 finder anvendelse på disse højrisiko-AI-sy-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0099.png
99
stemer og skal indgå i den nævnte vurdering. Punkt 4.3, 4.4 og 4.5 samt bilag VII, punkt 4.6, femte afsnit,
finder også anvendelse.
Med henblik på denne vurdering har bemyndigede organer, der er blevet notificeret i henhold til disse
retsakter, ret til at kontrollere højrisiko-AI-systemernes overensstemmelse med kravene i afdeling 2,
forudsat at disse bemyndigede organers overholdelse af kravene i artikel 31, stk. 4, 5, 10 og 11, er blevet
vurderet i forbindelse med notifikationsproceduren i henhold til disse retsakter.
Hvis en retsakt, der er opført i bilag I, afsnit A, giver producenten mulighed for at fravælge en af
tredjepart udført overensstemmelsesvurdering, forudsat at producenten har anvendt alle de harmoniserede
standarder, der omfatter alle de relevante krav, kan producenten kun anvende denne mulighed, hvis
vedkommende også har anvendt harmoniserede standarder eller, hvis det er relevant, fælles specifikatio-
ner omhandlet i artikel 41, der omfatter alle kravene i dette kapitels afdeling 2.
4. Højrisiko-AI-systemer, der allerede har været genstand for en overensstemmelsesvurderingsprocedure,
skal underkastes en ny overensstemmelsesvurderingsprocedure i tilfælde af væsentlige ændringer, uanset
om det ændrede system tilsigtes videredistribueret eller fortsat anvendes af den nuværende idriftsætter.
For højrisiko-AI-systemer, der bliver ved med at lære efter at være bragt i omsætning eller ibrugtaget,
udgør ændringer af højrisiko-AI-systemet og dets ydeevne, som udbyderen har fastlagt på forhånd på
tidspunktet for den indledende overensstemmelsesvurdering, og som er en del af oplysningerne i den
tekniske dokumentation, der er omhandlet i bilag IV, punkt 2, litra f), ikke en væsentlig ændring.
5. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel
97 for at ændre bilag VI og VII ved at ajourføre dem i lyset af den tekniske udvikling.
6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel
97 for at ændre nærværende artikels stk. 1 og 2 for at underkaste de i bilag III, punkt 2-8, omhandlede
højrisiko-AI-systemer overensstemmelsesvurderingsproceduren i bilag VII eller dele heraf. Kommissio-
nen vedtager sådanne delegerede retsakter under hensyntagen til effektiviteten af overensstemmelsesvur-
deringsproceduren på grundlag af intern kontrol omhandlet i bilag VI med hensyn til at forebygge eller
minimere de risici for sundhed, sikkerhed og beskyttelsen af de grundlæggende rettigheder, som sådanne
systemer medfører, samt hvorvidt der er tilstrækkelig kapacitet og ressourcer i de bemyndigede organer.
Artikel 44
Attester
1. Attester, der udstedes af bemyndigede organer i overensstemmelse med bilag VII, udfærdiges på et
sprog, som er letforståeligt for de relevante myndigheder i den medlemsstat, hvor det bemyndigede organ
er etableret.
2. Attester er gyldige i den periode, de angiver, og som ikke må overstige fem år for AI-systemer, der er
omfattet af bilag I, og fire år for AI-systemer, der er omfattet af bilag III. På udbyderens anmodning kan
en attests gyldighedsperiode forlænges med yderligere perioder på hver højst fem år for AI-systemer, der
er omfattet af bilag I, og fire år for AI-systemer, der er omfattet af bilag III, på grundlag af en fornyet
vurdering i overensstemmelse med gældende overensstemmelsesvurderingsprocedurer. Et eventuelt tillæg
til en attest forbliver gyldigt, forudsat at den attest, det supplerer, er gyldig.
3. Hvis et bemyndiget organ fastslår, at et AI-system ikke længere opfylder kravene i afdeling 2, skal
det under iagttagelse af proportionalitetsprincippet suspendere eller tilbagetrække den udstedte attest
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0100.png
100
eller begrænse den, medmindre udbyderen af systemet gennem passende korrigerende tiltag og inden
for en passende frist fastsat af det bemyndigede organ sikrer overholdelse af de pågældende krav. Det
bemyndigede organ skal begrunde sin afgørelse.
De bemyndigede organers afgørelser, herunder om udstedte overensstemmelsesattester, skal kunne appel-
leres.
Artikel 45
Oplysningsforpligtelser for bemyndigede organer
1. Bemyndigede organer skal oplyse den bemyndigende myndighed om følgende:
a) alle EU-vurderingsattester for teknisk dokumentation, eventuelle tillæg til disse attester og eventuelle
godkendelser af kvalitetsstyringssystemer, der er udstedt i overensstemmelse med kravene i bilag VII
b) alle afslag på, begrænsninger af, suspensioner af eller tilbagetrækninger af EU-vurderingsattester for
teknisk dokumentation eller godkendelser af kvalitetsstyringssystemer udstedt i overensstemmelse med
kravene i bilag VII
c) alle forhold, der har indflydelse på omfanget af eller betingelserne for notifikationen
d) alle anmodninger om oplysninger om overensstemmelsesvurderingsaktiviteter, som de har modtaget
fra markedsovervågningsmyndighederne
e) efter anmodning, overensstemmelsesvurderingsaktiviteter, der er udført inden anvendelsesområdet for
deres notifikation, og enhver anden aktivitet, der er udført, herunder grænseoverskridende aktiviteter og
underentreprise.
2. Hvert bemyndiget organ skal underrette de øvrige bemyndigede organer om:
a) afviste, suspenderede eller tilbagetrukne godkendelser af kvalitetsstyringssystemer samt, efter anmod-
ning, udstedte godkendelser af kvalitetsstyringssystemer
b) EU-vurderingsattester for teknisk dokumentation eller tillæg hertil, som det har afvist, tilbagetrukket,
suspenderet eller på anden måde begrænset, og, efter anmodning, de attester og/eller tillæg hertil, som det
har udstedt.
3. Hvert bemyndiget organ skal give de øvrige bemyndigede organer, som udfører lignende overensstem-
melsesvurderingsaktiviteter vedrørende de samme typer AI-systemer, relevante oplysninger om spørgs-
mål vedrørende negative og, efter anmodning, positive overensstemmelsesvurderingsresultater.
4. Bemyndigende myndigheder sikrer, at de oplysninger, de kommer i besiddelse af, behandles fortroligt i
overensstemmelse med artikel 78.
Artikel 46
Undtagelse fra overensstemmelsesvurderingsprocedure
1. Uanset artikel 43 og efter behørigt begrundet anmodning kan enhver markedsovervågningsmyndighed
tillade, at specifikke højrisiko-AI-systemer bringes i omsætning eller ibrugtages på den pågældende
medlemsstats område af ekstraordinære hensyn til den offentlige sikkerhed eller beskyttelse af menne-
skers liv og sundhed, miljøbeskyttelse eller beskyttelse af centrale industrielle og infrastrukturmæssige
aktiver. Tilladelsen gælder kun for en begrænset periode, mens de nødvendige overensstemmelsesvurde-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0101.png
101
ringsprocedurer gennemføres, under hensyntagen til de ekstraordinære hensyn, der begrunder undtagel-
sen. Gennemførelsen af disse procedurer skal ske uden unødigt ophold.
2. I behørigt begrundede hastende tilfælde af ekstraordinære hensyn til den offentlige sikkerhed eller i
tilfælde af en specifik, væsentlig og overhængende fare for fysiske personers liv eller fysiske sikkerhed
kan de retshåndhævende myndigheder eller civilbeskyttelsesmyndighederne ibrugtage et specifikt højri-
siko-AI-system uden den tilladelse, der er omhandlet i stk. 1, forudsat at der anmodes om en sådan
tilladelse under eller efter anvendelsen uden unødigt ophold. Hvis den i stk. 1 omhandlede tilladelse
afvises, skal anvendelsen af højrisiko-AI-systemet indstilles med øjeblikkelig virkning, og alle resultater
og output af en sådan anvendelse skal omgående kasseres.
3. Den i stk. 1 omhandlede tilladelse udstedes kun, hvis markedsovervågningsmyndigheden konkluderer,
at højrisiko-AI-systemet overholder kravene i afdeling 2. Markedsovervågningsmyndigheden underretter
Kommissionen og de øvrige medlemsstater om enhver tilladelse, der udstedes i henhold til stk. 1 og
2. Denne forpligtelse omfatter ikke følsomme operationelle oplysninger i forbindelse med de retshåndhæ-
vende myndigheders aktiviteter.
4. Hvis der ikke inden for 15 kalenderdage efter modtagelsen af de i stk. 3 omhandlede oplysninger
er blevet gjort indsigelse af en medlemsstat eller Kommissionen mod en tilladelse udstedt af en markeds-
overvågningsmyndighed i en medlemsstat i overensstemmelse med stk. 1, anses denne tilladelse for at
være berettiget.
5. Hvis en medlemsstat inden for 15 kalenderdage efter modtagelsen af den i stk. 3 omhandlede
underretning gør indsigelse mod en tilladelse, der er udstedt af en markedsovervågningsmyndighed i
en anden medlemsstat, eller hvis Kommissionen finder, at tilladelsen er i strid med EU-retten, eller at
medlemsstaternes konklusion vedrørende systemets overholdelse af kravene som omhandlet i stk. 3 er
ubegrundet, hører Kommissionen straks den relevante medlemsstat. Operatørerne skal høres og have
mulighed for at fremsætte deres synspunkter. På denne baggrund træffer Kommissionen afgørelse om,
hvorvidt tilladelsen er berettiget. Kommissionen retter sin afgørelse til den pågældende medlemsstat og til
de relevante operatører.
6. Hvis Kommissionen finder, at tilladelsen er uberettiget, tilbagetrækkes den af markedsovervågnings-
myndigheden i den pågældende medlemsstat.
7. For højrisiko-AI-systemer vedrørende produkter, der er omfattet af EU-harmoniseringslovgivningen,
som er opført i bilag I, afsnit A, finder kun undtagelserne fra overensstemmelsesvurderingen, der er
fastsat i den pågældende EU-harmoniseringslovgivning, anvendelse.
Artikel 47
EU-overensstemmelseserklæring
1. Udbyderen udarbejder en skriftlig, maskinlæsbar, fysisk eller elektronisk undertegnet EU-overensstem-
melseserklæring for hvert højrisiko-AI-system og opbevarer den, så den i ti år efter, at højrisiko-AI-
systemet er blevet bragt i omsætning eller ibrugtaget, står til rådighed for de nationale kompetente
myndigheder. Det skal af EU-overensstemmelseserklæringen fremgå, hvilket højrisiko-AI-system den ve-
drører. Et eksemplar af EU-overensstemmelseserklæringen indgives til de relevante nationale kompetente
myndigheder.
2. Det skal af EU-overensstemmelseserklæringen fremgå, at det pågældende højrisiko-AI-system opfylder
kravene i afdeling 2. EU-overensstemmelseserklæringen skal indeholde de oplysninger, der er fastsat i
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0102.png
102
bilag V, og skal oversættes til et sprog, der let kan forstås af de nationale kompetente myndigheder i de
medlemsstater, hvor højrisiko-AI-systemet bringes i omsætning eller gøres tilgængeligt.
3. For højrisiko-AI-systemer, der er omfattet af anden EU-harmoniseringslovgivning, i henhold til hvilken
der også kræves en EU-overensstemmelseserklæring, udarbejdes der en enkelt EU-overensstemmelseser-
klæring for al EU-ret, der finder anvendelse på højrisiko-AI-systemet. Erklæringen skal indeholde alle
de oplysninger, der er påkrævet for at identificere, hvilken EU-harmoniseringslovgivning erklæringen
vedrører.
4. Ved at udarbejde EU-overensstemmelseserklæringen står udbyderen inde for, at kravene i afdeling 2
overholdes. Udbyderen skal sørge for at holde EU-overensstemmelseserklæringen ajour, alt efter hvad der
er relevant.
5. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel
97 for at ændre bilag V ved at ajourføre indholdet af EU-overensstemmelseserklæringen, der er fastsat i
nævnte bilag, for at indføre elementer, der bliver nødvendige i lyset af den tekniske udvikling.
Artikel 48
CE-mærkning
1. CE-mærkningen er underlagt de generelle principper fastsat i artikel 30 i forordning (EF) nr. 765/2008.
2. For højrisiko-AI-systemer, som leveres digitalt, anvendes der kun en digital CE-mærkning, hvis den
er let at tilgå via den grænseflade, hvorfra det pågældende system tilgås, eller via en lettilgængelig
maskinlæsbar kode eller andre elektroniske midler.
3. CE-mærkningen skal i tilknytning til højrisiko-AI-systemer anbringes synligt, letlæseligt og således, at
den ikke kan slettes. Hvis højrisiko-AI-systemet er af en sådan art, at dette ikke er muligt eller berettiget,
anbringes mærkningen på emballagen eller i den medfølgende dokumentation, alt efter hvad der relevant.
4. Hvis det er relevant, skal CE-mærkningen følges af identifikationsnummeret for det bemyndigede
organ, der er ansvarligt for overensstemmelsesvurderingsprocedurerne i artikel 43. Det bemyndigede
organs identifikationsnummer anbringes af organet selv eller efter dettes anvisninger af udbyderen eller
af udbyderens bemyndigede repræsentant. Identifikationsnummeret skal også fremgå af salgsfremmende
materiale, som nævner, at højrisiko-AI-systemet opfylder kravene til CE-mærkning.
5. Hvis højrisiko-AI-systemet er omfattet af anden EU-ret, som også indeholder bestemmelser om anbrin-
gelsen af CE-mærkning, skal CE-mærkningen angive, at højrisiko-AI-systemet ligeledes opfylder kravene
i denne anden ret.
Artikel 49
Registrering
1. Inden et højrisiko-AI-system, der er opført i bilag III, med undtagelse af de højrisiko-AI-systemer, der
er omhandlet i bilag III, punkt 2, bringes i omsætning eller ibrugtages, skal udbyderen eller, hvis det er
relevant, den bemyndigede repræsentant registrere sig selv og deres system i den EU-database, der er
omhandlet i artikel 71.
2. Inden et AI-system, for hvilket udbyderen har konkluderet, at det ikke udgør en høj risiko i overens-
stemmelse med artikel 6, stk. 3, bringes i omsætning eller tages i brug, registrerer den pågældende
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0103.png
103
udbyder eller, hvis det er relevant, den bemyndigede repræsentant sig selv og dette system i den EU-data-
base, der er omhandlet i artikel 71.
3. Inden et højrisiko-AI-system, der er opført i bilag III, med undtagelse af de højrisiko-AI-systemer,
der er omhandlet i bilag III, punkt 2, ibrugtages eller anvendes, skal idriftsættere, som er offentlige myn-
digheder, EU-institutioner, -organer, -kontorer eller -agenturer eller personer, der handler på deres vegne,
lade sig registrere, vælge systemet og registrere dets anvendelse i den EU-database, der er omhandlet i
artikel 71.
4. For de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 og 7, inden for retshåndhævelse
og migrationsstyring, asylforvaltning og grænsekontrol, foretages den registrering, der er omhandlet i
denne artikels stk. 1, 2 og 3, i en sikker ikkeoffentlig del af den EU-database, der er omhandlet i artikel
71, og omfatter kun følgende oplysninger, alt efter hvad der er relevant, der er omhandlet i:
a) bilag VIII, afsnit A, punkt 1-10, med undtagelse af punkt 6, 8 og 9
b) bilag VIII, afsnit B, punkt 1-5 og 8 og 9
c) bilag VIII, afsnit C, punkt 1-3
d) bilag IX, punkt 1, 2, 3 og 5.
Kun Kommissionen og de nationale myndigheder, der er omhandlet i artikel 74, stk. 8, har adgang til de
respektive begrænsede afsnit i den EU-database, der er opført i nærværende stykkes første afsnit.
5. Højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, registreres på nationalt plan.
KAPITEL IV
GENNEMSIGTIGHEDSFORPLIGTELSER FOR UDBYDERE OG IDRIFTSÆTTERE AF VIS-
SE AI-SYSTEMER
Artikel 50
Gennemsigtighedsforpligtelser for udbydere og idriftsættere af visse AI-systemer
1. Udbydere skal sikre, at AI-systemer, der er tilsigtet at interagere direkte med fysiske personer, udfor-
mes og udvikles på en sådan måde, at de pågældende fysiske personer oplyses om, at de interagerer med
et AI-system, medmindre dette er indlysende ud fra en rimeligt velinformeret, opmærksom og forsigtig
fysisk persons synspunkt ud fra omstændighederne og anvendelsessammenhængen. Denne forpligtelse
finder ikke anvendelse på AI-systemer, der ved lov er godkendt til at afsløre, forebygge, efterforske eller
retsforfølge strafbare handlinger, med forbehold af passende sikkerhedsforanstaltninger for tredjemands
rettigheder og friheder, medmindre disse systemer er tilgængelige for offentligheden med henblik på at
anmelde en strafbar handling.
2. Udbydere af AI-systemer, herunder AI-systemer til almen brug, der genererer syntetisk lyd-, billed-,
video- eller tekstindhold, sikrer, at AI-systemets output er mærket i et maskinlæsbart format og kan spo-
res som kunstigt genereret eller manipuleret. Udbyderne sikrer, at deres tekniske løsninger er effektive,
interoperable, robuste og pålidelige, i det omfang dette er teknisk muligt, under hensyntagen til de særlige
forhold og begrænsninger for forskellige typer indhold, gennemførelsesomkostningerne og det generelt
anerkendte aktuelle tekniske niveau, som kan være afspejlet i relevante tekniske standarder. Denne
forpligtelse finder ikke anvendelse, i det omfang AI-systemerne udfører en hjælpefunktion med henblik
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0104.png
104
på standardredigering eller ikke i væsentlig grad ændrer de inputdata, der leveres af idriftsætteren eller
semantikken heraf, eller, hvis det ved lov er tilladt for at afsløre, forebygge, efterforske eller retsforfølge
strafbare handlinger.
3. Idriftsættere af et system til følelsesgenkendelse eller et system til biometrisk kategorisering underretter
de fysiske personer, der udsættes herfor, om driften af systemet og behandler personoplysningerne i
overensstemmelse med forordning (EU) 2016/679 og (EU) 2018/1725 og direktiv (EU) 2016/680, alt
efter hvad der er relevant. Denne forpligtelse finder ikke anvendelse på AI-systemer, der anvendes til bio-
metrisk kategorisering og følelsesgenkendelse, og som i ved lov er godkendt til at afsløre, forebygge eller
efterforske strafbare handlinger, med forbehold af passende sikkerhedsforanstaltninger for tredjemands
rettigheder og frihedsrettigheder og i overensstemmelse med EU-retten.
4. Idriftsættere af et AI-system, der genererer eller manipulerer billed-, lyd- eller videoindhold, der udgør
en deepfake, skal oplyse, at indholdet er blevet genereret kunstigt eller manipuleret. Denne forpligtelse
gælder ikke, hvis anvendelsen ved lov er tilladt for at afsløre, forebygge, efterforske eller retsforfølge
strafbare handlinger. Hvis indholdet er en del af et oplagt kunstnerisk, kreativt, satirisk, fiktivt eller tilsva-
rende arbejde eller program, er gennemsigtighedsforpligtelserne i dette stykke begrænset til oplysning om
eksistensen af sådant genereret eller manipuleret indhold på en passende måde, der ikke er til gene for
visningen eller nydelsen af værket.
Idriftsættere af et AI-system, der genererer eller manipulerer tekst, der offentliggøres med det formål at
informere offentligheden om spørgsmål af offentlig interesse, skal oplyse, at teksten er blevet kunstigt
genereret eller manipuleret. Denne forpligtelse finder ikke anvendelse, hvis anvendelsen ved lov er tilladt
for at afsløre, forebygge, efterforske eller retsforfølge strafbare handlinger, eller hvis det AI-genererede
indhold har gennemgået en proces med menneskelig gennemgang eller redaktionel kontrol, og hvis en
fysisk eller juridisk person har det redaktionelle ansvar for offentliggørelsen af indholdet.
5. De oplysninger, der er omhandlet i stk. 1-4, gives til de pågældende fysiske personer på en klar og
synlig måde senest på tidspunktet for den første interaktion eller eksponering. Oplysningerne skal være i
overensstemmelse med gældende tilgængelighedskrav.
6. Stk. 1-4 berører ikke kravene og forpligtelserne i kapitel III og berører ikke andre gennemsigtigheds-
forpligtelser, der er fastsat i EU-retten eller national ret, for idriftsættere af AI-systemer.
7. AI-kontoret tilskynder til og letter udarbejdelsen af praksiskodekser på EU-plan for at lette en effektiv
gennemførelse af forpligtelserne vedrørende påvisning og mærkning af kunstigt genereret eller manipule-
ret indhold. Kommissionen kan vedtage gennemførelsesretsakter for at godkende disse praksiskodekser
efter proceduren i artikel 56, stk. 6. Hvis Kommissionen finder, at kodeksen ikke er tilstrækkelig,
kan den vedtage en gennemførelsesretsakt, der præciserer de fælles regler for gennemførelsen af disse
forpligtelser efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
KAPITEL V
AI-MODELLER TIL ALMEN BRUG
AFDELING 1
Klassificeringsregler
Artikel 51
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0105.png
105
Klassificering af AI-modeller til almen brug som AI-modeller til almen brug med systemisk risiko
1. En AI-model til almen brug klassificeres som en AI-model til almen brug med systemisk risiko, hvis
den opfylder et eller flere af følgende betingelser:
a) den har kapaciteter med stor virkning evalueret på grundlag af passende tekniske værktøjer og metoder,
herunder indikatorer og benchmarks
b) på grundlag af en afgørelse truffet af Kommissionen på eget initiativ eller efter en kvalificeret varsling
fra det videnskabelige panel har den kapaciteter eller virkning, der svarer til dem, der er fastsat i litra a),
under hensyntagen til kriterierne i bilag XIII.
2. En AI-model til almen brug antages at have kapaciteter med stor virkning i henhold til stk. 1,
litra a), når den kumulerede mængde beregningskraft, der anvendes til dens træning, målt i flydende
kommatalsberegninger, er større end 10
25
.
3. Kommissionen vedtager delegerede retsakter i overensstemmelse med artikel 97 for at ændre de
tærskler, der er anført i nærværende artikels stk. 1 og 2, samt for at supplere benchmarks og indikatorer
i lyset af den teknologiske udvikling såsom algoritmiske forbedringer eller øget hardwareeffektivitet, når
det er nødvendigt, således at disse tærskler afspejler det aktuelle tekniske niveau.
Artikel 52
Fremgangsmåde
1. Hvis en AI-model til almen brug opfylder betingelsen i artikel 51, stk. 1, litra a), giver den relevante
udbyder Kommissionen meddelelse så hurtigt som muligt og under alle omstændigheder senest to uger
efter, at dette krav er opfyldt, eller det bliver kendt, at det vil blive opfyldt. Meddelelsen skal indeholde
de oplysninger, der er nødvendige for at påvise, at det relevante krav er opfyldt. Hvis Kommissionen
får kendskab til en AI-model til almen brug, der frembyder systemiske risici, som den ikke har fået
meddelelse om, kan den beslutte at udpege den som en model med systemisk risiko.
2. Udbyderen af en AI-model til almen brug, der opfylder betingelsen omhandlet i artikel 51, stk. 1, litra
a), kan sammen med dens meddelelse fremlægge tilstrækkeligt underbyggede argumenter til at påvise, at
AI-modellen til almen brug, selv om den opfylder det pågældende krav, undtagelsesvis ikke frembyder
systemiske risici på grund af dens specifikke karakteristika og derfor ikke bør klassificeres som en
AI-model til almen brug med systemisk risiko.
3. Hvis Kommissionen konkluderer, at de argumenter, der er fremsat i henhold til stk. 2, ikke er tilstræk-
keligt underbyggede, og den relevante udbyder ikke har været i stand til at påvise, at AI-modellen til
almen brug på grund af sine specifikke karakteristika ikke frembyder systemiske risici, afviser den disse
argumenter, og AI-modellen til almen brug betragtes som en AI-model til almen brug med systemisk
risiko.
4. Kommissionen kan udpege en AI-model til almen brug som frembydende systemiske risici på eget
initiativ eller efter en kvalificeret varsling fra det videnskabelige panel i henhold til artikel 90, stk. 1, litra
a) på grundlag af kriterierne i bilag XIII.
Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97
for at ændre bilag XIII ved at præcisere og ajourføre kriterierne i nævnte bilag.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0106.png
106
5. Efter en begrundet anmodning fra en udbyder, hvis model er blevet udpeget som en AI-model til
almen brug med systemisk risiko i henhold til stk. 4, tager Kommissionen hensyn til anmodningen og kan
beslutte på ny at vurdere, om AI-modellen til almen brug stadig kan anses for at frembyde systemiske
risici på grundlag af kriterierne i bilag XIII. En sådan anmodning skal indeholde objektive, detaljerede
og nye grunde, der er kommet frem siden udpegelsesafgørelsen. Udbydere kan tidligst seks måneder efter
udpegelsesafgørelsen anmode om en fornyet vurdering. Hvis Kommissionen efter sin fornyede vurdering
beslutter at opretholde udpegelsen som en AI-model til almen brug med systemisk risiko, kan udbyderne
tidligst seks måneder efter denne afgørelse anmode om en fornyet vurdering.
6. Kommissionen sikrer, at der offentliggøres en liste over AI-modeller til almen brug med systemisk
risiko, og ajourfører løbende denne liste, uden at det berører behovet for at overholde og beskytte
intellektuelle ejendomsrettigheder og fortrolige forretningsoplysninger eller forretningshemmeligheder i
overensstemmelse med EU-retten og national ret.
AFDELING 2
Forpligtelser for udbydere af AI-modeller til almen brug
Artikel 53
Forpligtelser for udbydere af AI-modeller til almen brug
1. Udbydere af AI-modeller til almen brug skal:
a) udarbejde og løbende ajourføre den tekniske dokumentation til modellen, herunder dens trænings- og
afprøvningsproces og resultaterne af evalueringen af den, som mindst skal indeholde de oplysninger, der
er fastsat i bilag XI, med henblik på efter anmodning at forelægge den for AI-kontoret og de nationale
kompetente myndigheder
b) udarbejde og løbende ajourføre oplysninger og dokumentation og stille disse til rådighed for udbydere
af AI-systemer, som har til hensigt at integrere AI-modellen til almen brug i deres AI-systemer. Uden
at det berører behovet for at respektere og beskytte intellektuelle ejendomsrettigheder og fortrolige
forretningsoplysninger eller forretningshemmeligheder i overensstemmelse med EU-retten og national
ret, skal oplysningerne og dokumentationen:
i) give udbydere af AI-systemer mulighed for at få en god forståelse af kapaciteterne og begrænsningerne
i AI-modellen til almen brug og overholde deres forpligtelser i henhold til denne forordning, og
ii) som minimum indeholde de i bilag XII fastsatte elementer
c) indføre en politik, der overholder EU-retten om ophavsret og beslægtede rettigheder, navnlig med hen-
blik på at identificere og overholde, herunder ved hjælp af de nyeste teknologier, et forbehold vedrørende
rettigheder, der udtrykkes i henhold til artikel 4, stk. 3, i direktiv (EU) 2019/790
d) udarbejde og offentliggøre en tilstrækkeligt detaljeret sammenfatning om det indhold, der anvendes til
træning af AI-modellen til almen brug, i overensstemmelse med en skabelon, der leveres af AI-kontoret.
2. Forpligtelserne i stk. 1, litra a) og b), finder ikke anvendelse på udbydere af AI-modeller, der frigives
i henhold til en gratis open source-licens, der giver mulighed for adgang til, anvendelse, ændring og
distribution af modellen, og hvis parametre, herunder vægtene, oplysningerne om modelarkitekturen
og oplysningerne om modelanvendelsen, gøres offentligt tilgængelige. Denne undtagelse finder ikke
anvendelse på AI-modeller til almen brug med systemiske risici.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0107.png
107
3. Udbydere af AI-modeller til almen brug samarbejder om nødvendigt med Kommissionen og de
nationale kompetente myndigheder i forbindelse med udøvelsen af deres kompetencer og beføjelser i
henhold til denne forordning.
4. Udbydere af AI-modeller til almen brug kan basere sig på praksiskodekser som omhandlet i artikel 56
for at påvise overholdelse af forpligtelserne i nærværende artikels stk. 1, indtil der er offentliggjort en
harmoniseret standard. Overholdelse af europæiske harmoniserede standarder giver udbydere formodning
om overensstemmelse, i det omfang disse standarder dækker disse forpligtelser. Udbydere af AI-modeller
til almen brug, som ikke overholder en godkendt praksiskodeks, eller som ikke overholder en europæisk
harmoniseret standard, skal påvise alternative passende måder for overensstemmelse med henblik på
Kommissionens vurdering.
5. For at lette overholdelsen af bilag XI, navnlig punkt 2, litra d) og e), i nævnte bilag, tillægges
Kommissionen beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at
præcisere måle- og beregningsmetoder med henblik på at muliggøre sammenlignelig og verificerbar
dokumentation.
6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel
97, stk. 2, for at ændre bilag XI og XII i lyset af den teknologiske udvikling.
7. Alle de oplysninger eller al den dokumentation, der indhentes i henhold til denne artikel, herunder for-
retningshemmeligheder, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel
78.
Artikel 54
Bemyndigede repræsentanter for udbydere af AI-modeller til almen brug
1. Før en AI-model til almen brug bringes i omsætning på EU-markedet, udnævner udbydere, der er
etableret i tredjelande, ved skriftligt mandat en bemyndiget repræsentant, der er etableret i Unionen.
2. Udbyderen skal gøre det muligt for sin bemyndigede repræsentant at udføre de opgaver, der er fastsat i
det mandat, vedkommende har modtaget fra udbyderen.
3. Den bemyndigede repræsentant udfører de opgaver, der er fastsat i det mandat, vedkommende har
modtaget fra udbyderen. Vedkommende skal på anmodning give AI-kontoret en kopi af mandatet på et af
EU-institutionernes officielle sprog. Med henblik på denne forordning sætter mandatet den bemyndigede
repræsentant i stand til at udføre følgende opgaver:
a) kontrollere, at den tekniske dokumentation, der er omhandlet i bilag XI, er udarbejdet, og at alle
de forpligtelser, der er omhandlet i artikel 53 og, hvis det er relevant, artikel 55, er blevet opfyldt af
udbyderen
b) opbevare en kopi af den tekniske dokumentation, der er omhandlet i bilag XI, så den står til rådighed
for AI-kontoret og de nationale kompetente myndigheder, i en periode på ti år, efter at AI-modellen
til almen brug er bragt i omsætning, og kontaktoplysningerne på den udbyder, der har udnævnt den
bemyndigede repræsentant
c) efter en begrundet anmodning give AI-kontoret alle de oplysninger og al den dokumentation, herunder
den, der er omhandlet i litra b), som kræves for at påvise overholdelse af forpligtelserne i dette kapitel
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0108.png
108
d) efter en begrundet anmodning samarbejde med AI-kontoret og de kompetente myndigheder om ethvert
tiltag, som de foretager i forbindelse med AI-modellen til almen brug, herunder når modellen er integreret
i AI-systemer, der bringes i omsætning eller ibrugtages i Unionen.
4. Mandatet giver den bemyndigede repræsentant, ud over eller i stedet for udbyderen, beføjelse til at
modtage henvendelser fra AI-kontoret eller de kompetente myndigheder om alle spørgsmål relateret til at
sikre overholdelse af denne forordning.
5. Den bemyndigede repræsentant bringer mandatet til ophør, hvis vedkommende mener eller har grund
til at mene, at udbyderen handler i strid med sine forpligtelser i henhold til denne forordning. I så fald
underretter vedkommende også omgående AI-kontoret om ophøret af mandatet og årsagerne hertil.
6. Forpligtelsen i denne artikel finder ikke anvendelse på udbydere af AI-modeller til almen brug, der
frigives i henhold til en gratis open source-licens, der giver mulighed for adgang til, anvendelse, ændring
og distribution af modellen, og hvis parametre, herunder vægtene, oplysningerne om modelarkitekturen
og oplysningerne om modelanvendelsen, gøres offentligt tilgængelige, medmindre AI-modellen til almen
brug frembyder systemiske risici.
AFDELING 3
Forpligtelser for udbydere af AI-modeller til almen brug med systemisk risiko
Artikel 55
Forpligtelser for udbydere af AI-modeller til almen brug med systemisk risiko
1. Ud over de forpligtelser, der er opført i artikel 53 og 54, skal udbydere af AI-modeller til almen brug
med systemisk risiko:
a) foretage modelevaluering i overensstemmelse med standardiserede protokoller og værktøjer, der
afspejler det aktuelle tekniske niveau, herunder gennemførelse og dokumentation af kontradiktorisk
afprøvning af modellen med henblik på at identificere og afbøde systemiske risici
b) vurdere og afbøde mulige systemiske risici på EU-plan, herunder deres kilder, der kan skyldes
udvikling, omsætning eller anvendelse af AI-modeller til almen brug med systemisk risiko
c) uden unødigt ophold følge, dokumentere og indberette relevante oplysninger om alvorlige hændelser
og mulige korrigerende foranstaltninger til håndtering heraf til AI-kontoret og, alt efter hvad der er
relevant, til de nationale kompetente myndigheder
d) sikre et tilstrækkeligt niveau af cybersikkerhedsbeskyttelse for AI-modellen til almen brug med syste-
misk risiko og modellens fysiske infrastruktur.
2. Udbydere af AI-modeller til almen brug med systemisk risiko kan basere sig på praksiskodekser som
omhandlet i artikel 56 for at påvise overholdelse af forpligtelserne i nærværende artikels stk. 1, indtil
der er offentliggjort en harmoniseret standard. Overholdelse af europæiske harmoniserede standarder
giver udbydere formodning om overensstemmelse, i det omfang disse standarder dækker disse forpligtel-
ser. Udbydere af AI-modeller til almen brug med systemiske risici, som ikke overholder en godkendt
praksiskodeks, eller som ikke overholder en europæisk harmoniseret standard, skal påvise alternative
passende måder for overensstemmelse med henblik på Kommissionens vurdering.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0109.png
109
3. Alle de oplysninger eller al den dokumentation, der indhentes i henhold til denne artikel, herunder for-
retningshemmeligheder, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel
78.
AFDELING 4
Praksiskodekser
Artikel 56
Praksiskodekser
1. AI-kontoret tilskynder til og letter udarbejdelsen af praksiskodekser på EU-plan for at bidrage til en
korrekt anvendelse af denne forordning under hensyntagen til internationale tilgange.
2. AI-kontoret og AI-udvalget tilstræber at sikre, at praksiskodekserne som minimum omfatter de forplig-
telser, der er fastsat i artikel 53 og 55, herunder følgende spørgsmål:
a) midlerne til at sikre, at de oplysninger, der er omhandlet i artikel 53, stk. 1, litra a) og b), holdes ajour i
lyset af den markedsmæssige og teknologiske udvikling
b) resuméet af det indhold, der anvendes til uddannelse, er tilstrækkeligt detaljeret
c) identifikationen af typen og arten af de systemiske risici på EU-plan, herunder deres kilder, hvis det er
relevant
d) foranstaltningerne, procedurerne og de nærmere bestemmelser for vurdering og styring af de systemi-
ske risici på EU-plan, herunder dokumentation herfor, som skal stå i et rimeligt forhold til risiciene, tage
hensyn til, hvor alvorlige og sandsynlige de er, og tage hensyn til de specifikke udfordringer i forbindelse
med styringen af disse risici i lyset af de mulige måder, hvorpå sådanne risici kan opstå og vise sig i
AI-værdikæden.
3. AI-kontoret kan opfordre alle udbydere af AI-modeller til almen brug samt relevante nationale
kompetente myndigheder til at deltage i udarbejdelsen af praksiskodekser. Civilsamfundsorganisationer,
industrien, den akademiske verden og andre relevante interessenter såsom downstreamudbydere og uaf-
hængige eksperter kan støtte processen.
4. AI-kontoret og AI-udvalget tilstræber at sikre, at praksiskodekserne klart fastsætter deres specifikke
mål og indeholder forpligtelser eller foranstaltninger, herunder i relevant omfang centrale resultatindika-
torer, for at sikre realiseringen af disse mål, og at de tager behørigt hensyn til alle interesserede parters,
herunder berørte personers, behov og interesser på EU-plan.
5. AI-kontoret tilstræber at sikre, at deltagerne i praksiskodekserne regelmæssigt aflægger rapport til
AI-kontoret om gennemførelsen af forpligtelserne og de trufne foranstaltninger og deres resultater, herun-
der i relevant omfang målt i forhold til de centrale resultatindikatorer. De centrale resultatindikatorer
og rapporteringsforpligtelserne skal afspejle forskelle i størrelse og kapacitet mellem de forskellige
deltagere.
6. AI-kontoret og AI-udvalget overvåger og evaluerer regelmæssigt deltagernes realisering af praksisko-
deksernes mål og deres bidrag til en korrekt anvendelse af denne forordning. AI-kontoret og AI-udvalget
vurderer, om praksiskodekserne dækker de forpligtelser, der er fastsat i artikel 53 og 55, og overvåger og
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0110.png
110
evaluerer regelmæssigt realiseringen af deres mål. De offentliggør deres vurdering af, om praksiskodek-
serne er fyldestgørende.
Kommissionen kan ved en gennemførelsesretsakt godkende en praksiskodeks og give den generel gyldig-
hed i Unionen. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
7. AI-kontoret kan opfordre samtlige udbydere af AI-modeller til almen brug til at overholde praksisko-
dekser. For udbydere af AI-modeller til almen brug, der ikke frembyder systemiske risici, kan denne
overholdelse begrænses til de forpligtelser, der er fastsat i artikel 53, medmindre de udtrykkeligt tilkende-
giver deres interesse i at tilslutte sig den fulde kodeks.
8. AI-kontoret skal, alt efter hvad der er relevant, også tilskynde til og lette gennemgangen og tilpas-
ningen af praksiskodekserne, navnlig i lyset af nye standarder. AI-kontoret bistår ved vurderingen af
tilgængelige standarder.
9. Praksiskodekser skal være klar senest den 2. maj 2025. AI-kontoret tager de nødvendige skridt,
herunder indbyder udbydere i henhold til stk. 7.
Hvis en praksiskodeks ikke kan færdiggøres senest den 2. august 2025, eller hvis AI-kontoret efter sin
vurdering i henhold til denne artikels stk. 6 finder, at den ikke er fyldestgørende, kan Kommissionen ved
hjælp af gennemførelsesretsakter fastsætte fælles regler for gennemførelsen af de forpligtelser, der er fast-
sat i artikel 53 og 55, herunder spørgsmålene i nærværende artikels stk. 2. Disse gennemførelsesretsakter
vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
KAPITEL VI
FORANSTALTNINGER TIL STØTTE FOR INNOVATION
Artikel 57
Reguleringsmæssige AI-sandkasser
1. Medlemsstaterne sikrer, at deres kompetente myndigheder opretter mindst én reguleringsmæssig AI-
sandkasse på nationalt plan, som skal være operationel senest den 2. august 2026. Denne sandkasse kan
også oprettes i fællesskab med andre medlemsstaters kompetente myndigheder. Kommissionen kan yde
teknisk støtte, rådgivning og værktøjer til oprettelse og drift af reguleringsmæssige AI-sandkasser.
Forpligtelsen i henhold til første afsnit kan også opfyldes ved deltagelse i en eksisterende sandkasse, for
så vidt som denne deltagelse giver de deltagende medlemsstater et tilsvarende nationalt dækningsniveau.
2. Der kan også oprettes yderligere reguleringsmæssige AI-sandkasser på regionalt eller lokalt plan eller i
fællesskab med andre medlemsstaters kompetente myndigheder.
3. Den Europæiske Tilsynsførende for Databeskyttelse kan også oprette en reguleringsmæssig AI-sand-
kasse for EU-institutioner, -organer, -kontorer og -agenturer og varetage de nationale kompetente myndig-
heders roller og opgaver i overensstemmelse med dette kapitel.
4. Medlemsstaterne sikrer, at de kompetente myndigheder, der er omhandlet i stk. 1 og 2, tildeler tilstræk-
kelige ressourcer til, at denne artikel overholdes effektivt og rettidigt. Hvis det er relevant, samarbejder de
nationale kompetente myndigheder med andre relevante myndigheder og kan gøre det muligt at inddrage
andre aktører i AI-økosystemet. Denne artikel berører ikke andre reguleringsmæssige sandkasser, der er
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0111.png
111
oprettet i henhold til EU-retten eller national ret. Medlemsstaterne sikrer et passende samarbejde mellem
de myndigheder, der fører tilsyn med disse andre sandkasser, og de nationale kompetente myndigheder.
5. Reguleringsmæssig AI-sandkasser, der oprettes i henhold til stk. 1, skal tilvejebringe et kontrolleret
miljø, der fremmer innovation og letter udvikling, træning, afprøvning og validering af innovative AI-sy-
stemer i et begrænset tidsrum, inden de bringes i omsætning eller tages i brug i henhold til en specifik
sandkasseplan, som aftales mellem udbyderne eller de potentielle udbydere og den kompetente myndig-
hed. Sådanne sandkasser kan omfatte afprøvning under faktiske forhold under tilsyn i sandkasserne.
6. De kompetente myndigheder yder, alt efter hvad der er relevant, vejledning, tilsyn og støtte inden for
den reguleringsmæssige AI-sandkasse med henblik på at identificere risici, navnlig for grundlæggende
rettigheder, sundhed og sikkerhed, afprøvning, afbødende foranstaltninger og deres effektivitet i forbin-
delse med forpligtelserne og kravene i denne forordning og, hvis det er relevant, anden EU-ret og national
ret, der føres tilsyn med inden for sandkassen.
7. De kompetente myndigheder giver udbydere og potentielle udbydere, der deltager i den regulerings-
mæssige AI-sandkasse, vejledning om reguleringsmæssige forventninger og om, hvordan de opfylder de
krav og forpligtelser, der er fastsat i denne forordning.
Efter anmodning fra udbyderen eller den potentielle udbyder af AI-systemet forelægger den kompetente
myndighed en skriftlig dokumentation for de aktiviteter, der er udført med succes i sandkassen. Den
kompetente myndighed forelægger også en slutrapport med en detaljeret beskrivelse af de aktiviteter,
der er gennemført i sandkassen, og de dermed forbundne resultater og læringsresultater. Udbydere
kan anvende sådan dokumentation til at påvise, at de overholder denne forordning gennem overens-
stemmelsesvurderingsprocessen eller relevante markedsovervågningsaktiviteter. I denne forbindelse tager
markedsovervågningsmyndighederne og de bemyndigede organer positivt hensyn til slutrapporterne og
den skriftlige dokumentation fra den nationale kompetente myndighed med henblik på at fremskynde
overensstemmelsesvurderingsprocedurerne i rimeligt omfang.
8. Med forbehold af fortrolighedsbestemmelserne i artikel 78 og med samtykke fra udbyderen eller den
potentielle udbyder har Kommissionen og AI-udvalget tilladelse til at få adgang til slutrapporterne og
tager, alt efter hvad der er relevant, hensyn til disse, når de udfører deres opgaver i henhold til denne
forordning. Hvis både udbyderen eller den potentielle udbyder og den nationale kompetente myndighed
når til udtrykkelig enighed, kan slutrapporten gøres offentligt tilgængelig via den centrale informations-
platform, der er omhandlet i nærværende artikel.
9. Oprettelsen af reguleringsmæssige AI-sandkasser har til formål at bidrage til følgende mål:
a) at forbedre retssikkerheden med henblik på at opnå overholdelse af bestemmelserne i denne forordning
eller, hvis det er relevant, anden gældende EU-ret og national ret
b) at støtte udvekslingen af bedste praksis gennem samarbejde med de myndigheder, der er involveret i
den reguleringsmæssige AI-sandkasse
c) at fremme innovation og konkurrenceevne og lette udviklingen af et AI-økosystem
d) at bidrage til evidensbaseret lovgivningsmæssig læring
e) at lette og fremskynde adgangen til EU-markedet for AI-systemer, navnlig når de leveres af SMV�½er,
herunder iværksættervirksomheder.
10. I det omfang de innovative AI-systemer omfatter behandling af personoplysninger eller på anden
måde henhører under tilsynsområdet for andre nationale myndigheder eller kompetente myndigheder,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0112.png
112
der giver eller understøtter adgang til data, sikrer de nationale kompetente myndigheder, at de nationale
databeskyttelsesmyndigheder og disse andre nationale eller kompetente myndigheder er tilknyttet driften
af den reguleringsmæssige AI-sandkasse og involveret i tilsynet med disse aspekter i henhold til deres
respektive opgaver og beføjelser.
11. De reguleringsmæssige AI-sandkasser berører ikke de tilsynsbeføjelser eller korrigerende beføjelser,
som de kompetente myndigheder, der fører tilsyn med sandkasserne, har, herunder på regionalt eller
lokalt plan. Enhver væsentlig risiko for sundhed og sikkerhed og grundlæggende rettigheder, der konsta-
teres under udviklingen og afprøvningen af sådanne AI-systemer, fører til passende afbødning. De nati-
onale kompetente myndigheder har beføjelse til midlertidigt eller permanent at suspendere afprøvnings-
processen eller deltagelse i sandkassen, hvis der ikke er mulighed for effektiv afbødning, og meddeler
AI-kontoret denne afgørelse. De nationale kompetente myndigheder udøver deres tilsynsbeføjelser inden
for rammerne af den relevante ret, idet de anvender deres skønsbeføjelser, når de gennemfører retlige
bestemmelser for et specifikt projekt vedrørende reguleringsmæssige AI-sandkasser, med det formål at
støtte innovation inden for AI i Unionen.
12. Udbydere og potentielle udbydere, der deltager i den reguleringsmæssige AI-sandkasse, forbliver
ansvarlige i henhold til gældende EU-ansvarsret og gældende national ansvarsret for enhver skade, der
påføres tredjeparter som følge af de forsøg, der finder sted i sandkassen. Såfremt de potentielle udbydere
overholder den specifikke plan og vilkårene og betingelserne for deres deltagelse og i god tro følger den
nationale kompetente myndigheds vejledning, pålægger myndighederne dog ingen administrative bøder
for overtrædelse af denne forordning. I tilfælde af at andre kompetente myndigheder med ansvar for
anden EU-ret og national ret har været aktivt involveret i tilsynet med AI-systemet i sandkassen og givet
vejledning om overholdelse, pålægges der ingen administrative bøder i forbindelse med den pågældende
ret.
13. De reguleringsmæssige AI-sandkasser udformes og gennemføres på en sådan måde, at de letter det
grænseoverskridende samarbejde mellem de nationale kompetente myndigheder, hvis det er relevant.
14. De nationale kompetente myndigheder koordinerer deres aktiviteter og samarbejder inden for AI-ud-
valgets rammer.
15. De nationale kompetente myndigheder underretter AI-kontoret og AI-udvalget om oprettelsen af en
sandkasse og kan anmode dem om støtte og vejledning. AI-kontoret offentliggør en liste over planlagte
og eksisterende sandkasser og ajourfører den for at tilskynde til større interaktion i de reguleringsmæssige
AI-sandkasser og tværnationalt samarbejde.
16. De nationale kompetente myndigheder forelægger AI-kontoret og AI-udvalget årlige rapporter, fra
og med ét år efter oprettelsen af den reguleringsmæssige AI-sandkasse og derefter hvert år indtil dens
ophør, og en slutrapport. Disse rapporter skal indeholde oplysninger om fremskridt med og resultater af
gennemførelsen af de pågældende sandkasser, herunder bedste praksis, hændelser, indhøstede erfaringer
og anbefalinger vedrørende deres udformning og, hvis det er relevant, anvendelsen og den eventuelle
revision af denne forordning, herunder tilhørende delegerede retsakter og gennemførelsesretsakter, og
anvendelsen af anden EU-ret, som de kompetente myndigheder fører tilsyn med inden for sandkassen. De
nationale kompetente myndigheder gør disse årlige rapporter eller sammendrag heraf offentligt tilgænge-
lige online. Kommissionen tager, hvis det er relevant, hensyn til de årlige rapporter, når den udfører sine
opgaver i henhold til denne forordning.
17. Kommissionen udvikler en fælles og særlig grænseflade, der indeholder alle relevante oplysninger
vedrørende reguleringsmæssige AI-sandkasser, for at give interessenter mulighed for at interagere med
reguleringsmæssige AI-sandkasser og rette forespørgsler til de kompetente myndigheder og søge ikkebin-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0113.png
113
dende vejledning om overensstemmelsen af innovative produkter, tjenester og forretningsmodeller, der
integrerer AI-teknologier, i overensstemmelse med artikel 62, stk. 1, litra c). Kommissionen koordinerer
proaktivt med nationale kompetente myndigheder, hvis det er relevant.
Artikel 58
Nærmere ordninger for og funktionsmåden af reguleringsmæssige AI-sandkasser
1. For at undgå fragmentering i Unionen vedtager Kommissionen gennemførelsesretsakter, der fastsætter
de nærmere ordninger for oprettelse, udvikling, gennemførelse, drift af og tilsyn med de regulerings-
mæssige AI-sandkasser. Gennemførelsesretsakterne skal omfatte fælles principper vedrørende følgende
punkter:
a) støtteberettigelse og udvælgelseskriterier med henblik på deltagelse i den reguleringsmæssige AI-sand-
kasse
b) procedurer for anvendelse, deltagelse, overvågning, udtræden fra og afslutning af den reguleringsmæs-
sige AI-sandkasse, herunder sandkasseplanen og slutrapporten
c) hvilke vilkår og betingelser der gælder for deltagerne.
Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
2. De i stk. 1 omhandlede gennemførelsesretsakter skal sikre:
a) at reguleringsmæssige AI-sandkasser er åbne for enhver ansøgende udbyder eller potentiel udbyder af
et AI-system, som opfylder støtteberettigelses- og udvælgelseskriterierne, som skal være gennemsigtige
og fair, og at de nationale kompetente myndigheder underretter ansøgerne om deres afgørelse senest tre
måneder efter ansøgningen
b) at reguleringsmæssige AI-sandkasser giver bred og lige adgang og holder trit med efterspørgslen
efter deltagelse; udbydere og potentielle udbydere kan også indgive ansøgninger i partnerskab med
idriftsættere eller andre relevante tredjeparter
c) at de nærmere ordninger for og betingelser vedrørende reguleringsmæssige AI-sandkasser i videst
mulig udstrækning støtter fleksibilitet for nationale kompetente myndigheder til at oprette og drive deres
reguleringsmæssige AI-sandkasser
d) at adgang til de reguleringsmæssige AI-sandkasser er gratis for SMV�½er, herunder iværksættervirksom-
heder, uden at det berører ekstraordinære omkostninger, som de nationale kompetente myndigheder kan
få dækket på fair og forholdsmæssig vis
e) at de ved hjælp af læringsresultaterne fra de reguleringsmæssige AI-sandkasser gør det lettere for
udbydere og potentielle udbydere at overholde overensstemmelsesvurderingsforpligtelserne i henhold til
denne forordning og frivilligt at anvende adfærdskodekserne, som er omhandlet i artikel 95
f) at de reguleringsmæssige AI-sandkasser letter inddragelsen af andre relevante aktører inden for AI-
økosystemet såsom bemyndigede organer og standardiseringsorganisationer, SMV�½er, herunder iværksæt-
tervirksomheder, virksomheder, innovatorer, afprøvnings- og forsøgsfaciliteter, forsknings- og forsøgsla-
boratorier og europæiske digitale innovationsknudepunkter, ekspertisecentre, individuelle forskere, med
henblik på at muliggøre og lette samarbejdet med den offentlige og private sektor
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0114.png
114
g) at procedurer, processer og administrative krav vedrørende ansøgning om, udvælgelse af, deltagelse i
og udtræden af den reguleringsmæssige AI-sandkasse er enkle, letforståelige og klart kommunikeret, så
det bliver lettere for SMV�½er, herunder iværksættervirksomheder, med begrænset juridisk og administrativ
kapacitet at deltage, og strømlines i hele Unionen for at undgå fragmentering, samt at deltagelse i en
reguleringsmæssig AI-sandkasse oprettet af en medlemsstat eller af Den Europæiske Tilsynsførende for
Databeskyttelse anerkendes gensidigt og ensartet og har samme retsvirkning i hele Unionen
h) at deltagelse i den reguleringsmæssige AI-sandkasse begrænses til en periode, der er passende til
projektets kompleksitet og omfang, og som kan forlænges af den nationale kompetente myndighed
i) at reguleringsmæssige AI-sandkasser letter udviklingen af værktøjer og infrastruktur til afprøvning,
benchmarking, vurdering og forklaring af dimensioner af AI-systemer, der er relevante for regulerings-
mæssig læring såsom nøjagtighed, robusthed og cybersikkerhed, samt foranstaltninger til at mindske risici
for de grundlæggende rettigheder og samfundet som helhed.
3. Potentielle udbydere i de reguleringsmæssige AI-sandkasser, navnlig SMV�½er og iværksættervirksom-
heder, henvises, hvis det er relevant, til føridriftsættelsestjenester såsom vejledning om gennemførelsen
af denne forordning, til andre værdiforøgende tjenester såsom hjælp med standardiseringsdokumenter og
certificering, afprøvnings- og forsøgsfaciliteter, europæiske digitale innovationsknudepunkter og eksperti-
secentre.
4. Hvis de nationale kompetente myndigheder overvejer at tillade afprøvning under faktiske forhold under
tilsyn inden for rammerne af en reguleringsmæssig AI-sandkasse, der skal oprettes i henhold til denne
artikel, aftaler de specifikt vilkårene og betingelserne for en sådan afprøvning og navnlig de fornødne
sikkerhedsforanstaltninger med deltagerne med henblik på at beskytte de grundlæggende rettigheder,
sundheden og sikkerheden. Hvis det er relevant, samarbejder de med andre nationale kompetente myndig-
heder med henblik på at sikre en ensartet praksis i hele Unionen.
Artikel 59
Viderebehandling af personoplysninger med henblik på udvikling af visse samfundsnyttige AI-sy-
stemer i den reguleringsmæssige AI-sandkasse
1. I den reguleringsmæssige AI-sandkasse må personoplysninger, der er lovligt indsamlet til andre formål,
kun behandles med henblik på udvikling, træning og afprøvning af visse AI-systemer i sandkassen, når
alle følgende betingelser er opfyldt:
a) AI-systemer skal udvikles med henblik på beskyttelse af væsentlige samfundsinteresser, der varetages
af en offentlig myndighed eller anden fysisk eller juridisk person, og på et eller flere af følgende områder:
i) den offentlige sikkerhed og folkesundheden, herunder opsporing af sygdomme, diagnoser, forebyggel-
se, overvågning og behandling samt forbedring af sundhedssystemerne
ii) et højt beskyttelsesniveau og forbedring af miljøkvaliteten, beskyttelse af biodiversiteten, beskyttelse
mod forurening, foranstaltninger vedrørende den grønne omstilling, foranstaltninger vedrørende modvirk-
ning af og tilpasning til klimaændringer
iii) energibæredygtighed
iv) sikkerhed og modstandsdygtighed i transportsystemerne og mobilitet, kritisk infrastruktur og netværk
v) effektivitet og kvalitet i den offentlige forvaltning og offentlige tjenester
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0115.png
115
b) de behandlede oplysninger skal være nødvendige for at overholde et eller flere af de krav, der er
omhandlet i kapitel III, afdeling 2, såfremt disse krav ikke praktisk kan opfyldes ved behandling af
anonymiserede eller syntetiske oplysninger eller andre oplysninger end personoplysninger
c) der skal foreligge effektive overvågningsmekanismer til at konstatere, om der kan opstå høje risici
for de registreredes rettigheder og frihedsrettigheder, som omhandlet i artikel 35 i forordning (EU)
2016/679 og artikel 39 i forordning (EU) 2018/1725, i forbindelse med forsøgene i sandkassen, samt
beredskabsmekanismer til straks at afbøde disse risici og om nødvendigt standse behandlingen
d) alle personoplysninger, der skal behandles i forbindelse med sandkassen, skal befinde sig i et funktio-
nelt adskilt, isoleret og beskyttet databehandlingsmiljø under den potentielle udbyders kontrol, og kun
autoriserede personer har adgang til disse data
e) udbyderne kan kun dele de oprindeligt indsamlede data yderligere i overensstemmelse med EU-databe-
skyttelsesretten; personoplysninger, der er skabt i sandkassen, kan ikke deles uden for sandkassen
f) enhver behandling af personoplysninger i forbindelse med sandkassen fører hverken til foranstaltninger
eller afgørelser, der berører de registrerede, eller påvirker anvendelsen af deres rettigheder fastsat i
EU-retten om beskyttelse af personoplysninger
g) alle personoplysninger, der skal behandles i forbindelse med sandkassen, skal beskyttes gennem
passende tekniske og organisatoriske foranstaltninger og slettes, når deltagelsen i sandkassen afsluttes,
eller når opbevaringsperioden for personoplysningerne udløber
h) logfilerne over behandlingen af personoplysninger i forbindelse med sandkassen opbevares, så længe
de deltager i sandkassen, medmindre andet er fastsat i EU-retten eller national ret
i) en fuldstændig og detaljeret beskrivelse af processen og begrundelsen for træningen, afprøvningen og
valideringen af AI-systemet opbevares sammen med afprøvningsresultaterne som en del af den tekniske
dokumentation omhandlet i bilag IV
j) der offentliggøres på de kompetente myndigheders websted et kort resumé af det AI-projekt, der er
udviklet i sandkassen, dets mål og dets forventede resultater; denne forpligtelse omfatter ikke følsomme
operationelle oplysninger i forbindelse med aktiviteter, der udføres af retshåndhævende myndigheder,
grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyndigheder.
2. Med henblik på at forebygge, efterforske, opdage eller retsforfølge strafbare handlinger eller fuldbyrde
strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed, under
de retshåndhævende myndigheders kontrol og ansvar baseres behandlingen af personoplysninger i regule-
ringsmæssige AI-sandkasser på særlig EU-ret eller national ret og på de samme kumulative betingelser
som omhandlet i stk. 1.
3. Stk. 1 berører ikke EU-ret eller national ret, der udelukker behandling til andre formål end dem,
der udtrykkeligt er nævnt i den pågældende ret, og heller ikke EU-ret eller national ret, der fastsætter
grundlaget for behandling af personoplysninger, som er nødvendig med henblik på udvikling, afprøvning
eller træning af innovative AI-systemer, eller noget andet retsgrundlag, der overholder EU-retten om
beskyttelse af personoplysninger.
Artikel 60
Afprøvning af højrisiko-AI-systemer under faktiske forhold uden for reguleringsmæssige AI-sand-
kasser
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0116.png
116
1. Afprøvning af højrisiko-AI-systemer under faktiske forhold uden for reguleringsmæssige AI-sandkas-
ser kan udføres af udbydere eller potentielle udbydere af højrisiko-AI-systemer, der er opført i bilag III, i
overensstemmelse med denne artikel og den plan for afprøvning under faktiske forhold, der er omhandlet
i denne artikel, uden at det berører forbuddene i henhold til artikel 5.
Kommissionen præciserer ved hjælp af gennemførelsesretsakter de nærmere elementer i planen for af-
prøvning under faktiske forhold. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren,
jf. artikel 98, stk. 2.
Nærværende stykke berører ikke EU-ret eller national ret om afprøvning under faktiske forhold af
højrisiko-AI-systemer i forbindelse med produkter, der er omfattet af EU-harmoniseringslovgivningen,
der er opført i bilag I.
2. Udbydere eller potentielle udbydere kan selv eller i partnerskab med en eller flere idriftsættere eller
potentielle idriftsættere gennemføre afprøvning af de højrisiko-AI-systemer, der er omhandlet i bilag III,
under faktiske forhold på et hvilket som helst tidspunkt, inden AI-systemet bringes i omsætning eller
ibrugtages.
3. Afprøvning af højrisiko-AI-systemer under faktiske forhold i henhold til denne artikel berører ikke
enhver anden etisk gennemgang, der er påkrævet i henhold til EU-retten eller national ret.
4. Udbydere eller potentielle udbydere må kun udføre afprøvningen under faktiske forhold, hvis alle
følgende betingelser er opfyldt:
a) udbyderen eller den potentielle udbyder har udarbejdet en plan for afprøvning under faktiske forhold
og forelagt den for markedsovervågningsmyndigheden i den medlemsstat, hvor afprøvningen skal udføres
under faktiske forhold
b) markedsovervågningsmyndigheden i den medlemsstat, hvor afprøvningen under faktiske forhold skal
udføres, har godkendt afprøvningen under faktiske forhold og planen for afprøvning under faktiske
forhold; hvis markedsovervågningsmyndigheden ikke har givet et svar inden for 30 dage, betragtes
afprøvningen under faktiske forhold og planen for afprøvning under faktiske forhold som godkendt; hvis
national ret ikke indeholder bestemmelser om stiltiende godkendelse, skal der fortsat foreligge en tilladel-
se til afprøvning under faktiske forhold
c) udbyderen eller den potentielle udbyder med undtagelse af udbydere eller potentielle udbydere af
højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 og 7, inden for retshåndhævelse, migrati-
onsstyring, asylforvaltning og grænsekontrol, og af højrisiko-AI-systemer, der er omhandlet i bilag III,
punkt 2, har registreret afprøvningen under faktiske forhold i overensstemmelse med artikel 71, stk. 4,
med et EU-dækkende unikt individuelt identifikationsnummer og de oplysninger, der er angivet i bilag
IX; udbyderen eller den potentielle udbyder af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt
1, 6 og 7, inden for retshåndhævelse, migrationsstyring, asylforvaltning og grænsekontrol, har registreret
afprøvningen under faktiske forhold i den sikre ikkeoffentlige del af EU-databasen, jf. artikel 49, stk. 4,
litra d), med et EU-dækkende unikt individuelt identifikationsnummer og de oplysninger, der er angivet
i nævnte litra; udbyderen eller den potentielle udbyder af højrisiko-AI-systemer, der er omhandlet i bilag
III, punkt 2, har registreret afprøvningen under faktiske forhold i overensstemmelse med artikel 49, stk. 5
d) den udbyder eller potentielle udbyder, der udfører afprøvningen under faktiske forhold, er etableret i
Unionen eller har udpeget en retlig repræsentant, der er etableret i Unionen
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0117.png
117
e) data, der indsamles og behandles med henblik på afprøvning under faktiske forhold, må kun overføres
til tredjelande, forudsat at der er gennemført passende og gældende sikkerhedsforanstaltninger i henhold
til EU-retten
f) afprøvningen under faktiske forhold varer ikke længere end nødvendigt for at nå målene herfor og
under ingen omstændigheder længere end seks måneder, som kan forlænges i en yderligere periode på
seks måneder, forudsat at udbyderen eller den potentielle udbyder på forhånd har underrettet markeds-
overvågningsmyndigheden ledsaget af en redegørelse for behovet for en sådan forlængelse
g) de personer, der er genstand for afprøvningen under faktiske forhold, og som er personer, der tilhører
sårbare grupper på grund af deres alder eller handicap, beskyttes på passende vis
h) hvis en udbyder eller potentiel udbyder organiserer afprøvningen under faktiske forhold i samarbejde
med en eller flere idriftsættere eller potentielle idriftsættere, er sidstnævnte blevet informeret om alle
de aspekter af afprøvningen, der er relevante for deres beslutning om at deltage, og har modtaget
den relevante brugsanvisning til AI-systemet, jf. artikel 13; udbyderen eller den potentielle udbyder og
idriftsætteren eller den potentielle idriftsætter skal indgå en aftale, der præciserer deres roller og ansvar
med henblik på at sikre overholdelse af bestemmelserne om afprøvning under faktiske forhold i henhold
til denne forordning og i henhold til anden gældende EU-ret og national ret
i) de personer, der er genstand for afprøvningen under faktiske forhold, har givet informeret samtykke
i overensstemmelse med artikel 61 eller i tilfælde af retshåndhævelse, hvis indhentning af informeret
samtykke ville forhindre, at AI-systemet afprøves, og selve afprøvningen og resultatet af afprøvningen
under faktiske forhold må ikke have nogen negativ indvirkning på forsøgspersonerne, og deres personop-
lysninger slettes, efter at afprøvningen er udført
j) afprøvningen under faktiske forhold overvåges effektivt af udbyderen eller den potentielle udbyder
samt af idriftsættere eller potentielle idriftsættere gennem personer, der er tilstrækkeligt kvalificerede
på det relevante område og har den nødvendige kapacitet, uddannelse og myndighed til at udføre deres
opgaver
k) AI-systemets forudsigelser, anbefalinger eller beslutninger kan effektivt omgøres og tilsidesættes.
5. Enhver forsøgsperson, der medvirker i afprøvningen under faktiske forhold, eller vedkommendes
retligt udpegede repræsentant, alt efter hvad der er relevant, kan, uden at det medfører ulemper og uden
at skulle give nogen begrundelse, når som helst trække sig tilbage fra afprøvningen ved at trække sit
informerede samtykke tilbage og anmode om øjeblikkeligt og permanent at få sine personoplysninger
slettet. Tilbagetrækningen af det informerede samtykke berører ikke de allerede udførte aktiviteter.
6. I overensstemmelse med artikel 75 tillægger medlemsstaterne deres markedsovervågningsmyndigheder
beføjelser til at kræve oplysninger, som udbydere og potentielle udbydere skal indgive, til at foretage uan-
meldte fjerninspektioner eller inspektioner på stedet og til at foretage kontrol af, hvordan afprøvningen
udføres under faktiske forhold, og de relaterede højrisiko-AI-systemer. Markedsovervågningsmyndighe-
derne anvender disse beføjelser til at sørge for, at afprøvningen under faktiske forhold forløber sikkert.
7. Enhver alvorlig hændelse, der konstateres under afprøvningen under faktiske forhold, indberettes til
den nationale markedsovervågningsmyndighed i overensstemmelse med artikel 73. Udbyderen eller den
potentielle udbyder træffer straks afbødende foranstaltninger eller, hvis dette ikke er muligt, suspenderer
afprøvningen under faktiske forhold, indtil en sådan afhjælpning finder sted, eller, hvis dette ikke sker,
bringer den til ophør. Udbyderen eller den potentielle udbyder indfører en procedure for øjeblikkelig
tilbagekaldelse af AI-systemet efter en sådan afslutning af afprøvningen under faktiske forhold.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0118.png
118
8. Udbydere eller potentielle udbydere giver den nationale markedsovervågningsmyndighed i den med-
lemsstat, hvor afprøvningen under faktiske forhold udføres, meddelelse om suspensionen eller afslutnin-
gen af afprøvningen under faktiske forhold og om de endelige resultater.
9. Udbyderen eller den potentielle udbyder er ansvarlige i henhold til gældende EU-ansvarsret og gælden-
de national ansvarsret for enhver skade, der forvoldes i forbindelse med deres afprøvning under faktiske
forhold.
Artikel 61
Informeret samtykke til at deltage i afprøvning under faktiske forhold uden for reguleringsmæssige
AI-sandkasser
1. Med henblik på afprøvning under faktiske forhold i henhold til artikel 60 indhentes der frit informeret
samtykke fra forsøgspersoner, inden de deltager i sådanne forsøg, og efter at de er blevet behørigt
informeret med præcise, klare, relevante og forståelige oplysninger om:
a) afprøvningens art og formål under faktiske forhold, og hvilke mulige ulemper der kan være forbundet
med deres deltagelse
b) de betingelser, hvorunder afprøvningen under faktiske forhold skal udføres, herunder den forventede
varighed af forsøgspersonens eller forsøgspersonernes deltagelse
c) deres rettigheder og garantier for så vidt angår deres deltagelse, navnlig deres ret til at nægte at deltage
i og retten til når som helst at trække sig tilbage fra afprøvningen under faktiske forhold, uden at det
medfører ulemper, og uden at der skal gives nogen begrundelse herfor
d) ordninger for anmodning om omgørelse eller tilsidesættelse af AI-systemets forudsigelser, anbefalinger
eller beslutninger
e) det EU-dækkende unikke individuelle identifikationsnummer for afprøvningen under faktiske forhold
i overensstemmelse med artikel 60, stk. 4, litra c), og kontaktoplysninger på den udbyder eller dennes
retlige repræsentant, hos hvem der kan indhentes yderligere oplysninger.
2. Det informerede samtykke dateres og dokumenteres, og der gives en kopi til forsøgspersonerne eller
deres retlige repræsentant.
Artikel 62
Foranstaltninger for udbydere og idriftsættere, navnlig SMV�½er, herunder iværksættervirksomhe-
der
1. Medlemsstaterne skal foretage følgende tiltag:
a) give SMV�½er, herunder iværksættervirksomheder, der har vedtægtsmæssigt hjemsted eller en filial
i Unionen, prioriteret adgang til de reguleringsmæssige AI-sandkasser, i det omfang de opfylder delta-
gelsesbetingelserne og udvælgelseskriterierne; den prioriterede adgang afskærer ikke andre SMV�½er,
herunder iværksættervirksomheder, end dem, der er omhandlet i dette stykke, fra at få adgang til den
reguleringsmæssige AI-sandkasse, forudsat at de også opfylder deltagelsesbetingelserne og udvælgelses-
kriterierne
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0119.png
119
b) organisere specifikke oplysnings- og uddannelsesaktiviteter om anvendelsen af denne forordning, der
er skræddersyet til behovene hos SMV�½er, herunder iværksættervirksomheder, idriftsættere og, alt efter
hvad der er relevant, lokale offentlige myndigheder
c) benytte eksisterende særlige kanaler og, hvis det er relevant, etablere nye kanaler til kommunikation
med SMV�½er, herunder iværksættervirksomheder, idriftsættere, andre innovatorer og, alt efter hvad der er
relevant, lokale offentlige myndigheder for at yde rådgivning og besvare forespørgsler om gennemførel-
sen af denne forordning, herunder for så vidt angår deltagelse i reguleringsmæssige AI-sandkasser
d) lette SMV�½ers og andre relevante interessenters deltagelse i standardiseringsudviklingsprocessen.
2. Der tages hensyn til SMV-udbyderes, herunder iværksættervirksomheder, særlige interesser og behov
ved fastsættelsen af gebyrerne for overensstemmelsesvurdering i henhold til artikel 43, idet gebyrerne
nedsættes i forhold til deres størrelse, markedsstørrelse og andre relevante indikatorer.
3. AI-kontoret skal foretage følgende tiltag:
a) tilvejebringe standardiserede skabeloner for de områder, der er omfattet af denne forordning, som
angivet af AI-udvalget i dets anmodning
b) udvikle og vedligeholde en fælles informationsplatform, der giver alle operatører i hele Unionen
letanvendelige oplysninger i forbindelse med denne forordning
c) tilrettelægge passende kommunikationskampagner for at øge bevidstheden om de forpligtelser, der
følger af denne forordning
d) evaluere og fremme konvergensen af bedste praksis i offentlige udbudsprocedurer i forbindelse med
AI-systemer.
Artikel 63
Undtagelser for særlige operatører
1. Mikrovirksomheder som omhandlet i henstilling 2003/361/EF kan overholde visse elementer i det
kvalitetsstyringssystem, der kræves i henhold til denne forordnings artikel 17, på en forenklet måde,
forudsat at de ikke har partnervirksomheder eller tilknyttede virksomheder som omhandlet i nævnte
henstilling. Med henblik herpå udvikler Kommissionen retningslinjer for de elementer i kvalitetsstyrings-
systemet, der kan overholdes på en forenklet måde under hensyntagen til mikrovirksomhedernes behov
uden at påvirke beskyttelsesniveauet eller behovet for overholdelse af kravene til højrisiko-AI-systemer.
2. Denne artikels stk. 1 skal ikke fortolkes således, at det fritager disse operatører for at opfylde andre
krav eller forpligtelser, der er fastsat i denne forordning, herunder dem, der er fastsat i artikel 9, 10, 11,
12, 13, 14, 15, 72 og 73.
KAPITEL VII
FORVALTNING
AFDELING 1
Forvaltning på EU-plan
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0120.png
120
Artikel 64
AI-kontoret
1. Kommissionen udvikler EU-ekspertise og -kapacitet inden for AI gennem AI-kontoret.
2. Medlemsstaterne letter de opgaver, der overdrages til AI-kontoret, som afspejlet i denne forordning.
Artikel 65
Oprettelse af Det Europæiske Udvalg for Kunstig Intelligens og dets struktur
1. Der oprettes herved et Europæisk Udvalg for Kunstig Intelligens (»AI-udvalget«).
2. AI-udvalget består af én repræsentant pr. medlemsstat. Den Europæiske Tilsynsførende for Databe-
skyttelse deltager som observatør. AI-kontoret deltager også i AI-udvalgets møder uden at deltage i
afstemningerne. AI-udvalget kan indbyde andre nationale myndigheder, organer eller eksperter og EU-
myndigheder, -organer eller -eksperter til møderne fra sag til sag, hvis de spørgsmål, der drøftes, er
relevante for dem.
3. Hver repræsentant udpeges af deres medlemsstat for en periode på tre år, der kan forlænges én gang.
4. Medlemsstaterne sikrer, at deres repræsentanter i AI-udvalget:
a) har de relevante kompetencer og beføjelser i deres medlemsstat til at kunne bidrage aktivt til udførelsen
af AI-udvalgets opgaver, der er omhandlet i artikel 66
b) udpeges som eneste kontaktpunkt for AI-udvalget og, hvis det er relevant, idet der tages hensyn til
medlemsstaternes behov, som eneste kontaktpunkt for interessenter
c) har beføjelse til at lette sammenhæng og koordinering mellem de nationale kompetente myndigheder i
deres medlemsstat for så vidt angår gennemførelsen af denne forordning, herunder gennem indsamling af
relevante data og oplysninger med henblik på udførelse af deres opgaver i AI-udvalget.
5. De udpegede repræsentanter for medlemsstaterne vedtager AI-udvalgets forretningsorden med to tred-
jedeles flertal. Forretningsordenen fastlægger navnlig procedurer for udvælgelsesprocessen, varigheden
af mandatet for og en beskrivelse af formandskabets opgaver, de nærmere afstemningsordninger og
tilrettelæggelsen af AI-udvalgets og dets undergruppers aktiviteter.
6. AI-udvalget opretter to stående undergrupper for at tilvejebringe en platform for samarbejde og
udveksling mellem markedsovervågningsmyndighederne og underretning af myndigheder om spørgsmål
vedrørende henholdsvis markedsovervågning og bemyndigede organer.
Den stående undergruppe for markedsovervågning bør fungere som den administrative samarbejdsgruppe
(ADCO) i forbindelse med denne forordning som omhandlet i artikel 30 i forordning (EU) 2019/1020.
AI-udvalget kan i relevant omfang nedsætte andre stående eller midlertidige undergrupper med henblik
på at behandle specifikke spørgsmål. Hvis det er relevant, kan repræsentanter for det rådgivende forum
omhandlet i artikel 67 indbydes til sådanne undergrupper eller til specifikke møder i disse undergrupper
som observatører.
7. AI-udvalget skal være organiseret og arbejde på en sådan måde, at der i dets arbejde sikres objektivitet
og uvildighed.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0121.png
121
8. AI-udvalgets formandskab varetages af en af repræsentanterne for medlemsstaterne. AI-kontoret vare-
tager sekretariatsfunktionen for AI-udvalget, indkalder til møderne efter anmodning fra formanden og
udarbejder dagsordenen i overensstemmelse med AI-udvalgets opgaver i henhold til denne forordning og
dens forretningsorden.
Artikel 66
AI-udvalgets opgaver
AI-udvalget rådgiver og bistår Kommissionen og medlemsstaterne med henblik på at lette en ensartet og
effektiv anvendelse af denne forordning. Med henblik herpå kan AI-udvalget navnlig:
a) bidrage til koordineringen mellem de nationale kompetente myndigheder, der er ansvarlige for anven-
delsen af denne forordning, og i samarbejde og efter aftale med de pågældende markedsovervågnings-
myndigheder støtte markedsovervågningsmyndigheders fælles aktiviteter, der er omhandlet i artikel 74,
stk. 11
b) indsamle og udveksle teknisk og reguleringsmæssig ekspertise og bedste praksis blandt medlemsstater-
ne
c) yde rådgivning om gennemførelsen af denne forordning, navnlig med hensyn til håndhævelsen af
reglerne om AI-modeller til almen brug
d) bidrage til harmonisering af administrative former for praksis i medlemsstaterne, herunder i forbindelse
med undtagelsen fra de overensstemmelsesvurderingsprocedurer, der er omhandlet i artikel 46, regule-
ringsmæssige AI-sandkassers funktion og afprøvning under faktiske forhold, der er omhandlet i artikel
57, 59 og 60
e) på anmodning af Kommissionen eller på eget initiativ fremsætte henstillinger og afgive skriftlige
udtalelser om alle relevante spørgsmål vedrørende gennemførelsen af denne forordning og dens ensartede
og effektive anvendelse, herunder:
i) om udarbejdelse og anvendelse af adfærdskodekser og praksiskodekser i henhold til denne forordning
samt af Kommissionens retningslinjer
ii) evalueringen og revisionen af denne forordning i medfør af artikel 112, herunder for så vidt angår de
indberetninger af alvorlige hændelser, der er omhandlet i artikel 73, og funktionen af den EU-database,
der er omhandlet i artikel 71, udarbejdelsen af delegerede retsakter eller gennemførelsesretsakter og for så
vidt angår eventuelle tilpasninger af denne forordning til den EU-harmoniseringslovgivning, der er opført
i bilag I
iii) om tekniske specifikationer eller eksisterende standarder vedrørende de i kapitel III, afdeling 2,
fastsatte krav
iv) om anvendelsen af harmoniserede standarder eller fælles specifikationer, der er omhandlet i artikel 40
og 41
v) tendenser såsom europæisk global konkurrenceevne inden for AI, udbredelsen af AI i Unionen og
udviklingen af digitale færdigheder
vi) tendenser vedrørende udviklingen i typologien af AI-værdikæder, navnlig vedrørende de deraf følgen-
de konsekvenser med hensyn til ansvarlighed
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0122.png
122
vii) om det potentielle behov for ændring af bilag III i overensstemmelse med artikel 7 og om det
potentielle behov for en eventuel revision af artikel 5 i medfør af artikel 112 under hensyntagen til
relevant tilgængelig dokumentation og den seneste teknologiske udvikling
f) støtte Kommissionen i at fremme AI-færdigheder, offentlighedens kendskab til og forståelse af fordele,
risici, sikkerhedsforanstaltninger og rettigheder og forpligtelser i forbindelse med anvendelsen af AI-sy-
stemer
g) lette udarbejdelsen af fælles kriterier og en fælles forståelse blandt markedsoperatører og kompetente
myndigheder af de relevante begreber i denne forordning, herunder ved at bidrage til udarbejdelse af
benchmarks
h) samarbejde, alt efter hvad der er relevant, med andre EU-institutioner, -organer, -kontorer og -agenturer
samt relevante EU-ekspertgrupper og -netværk, navnlig inden for produktsikkerhed, cybersikkerhed,
konkurrence, digitale tjenester og medietjenester, finansielle tjenesteydelser, forbrugerbeskyttelse, databe-
skyttelse og beskyttelse af grundlæggende rettigheder
i) bidrage til et effektivt samarbejde med de kompetente myndigheder i tredjelande og med internationale
organisationer
j) bistå de nationale kompetente myndigheder og Kommissionen med udviklingen af den organisatoriske
og tekniske ekspertise, der er nødvendig for gennemførelsen af denne forordning, herunder ved at bidrage
til vurderingen af uddannelsesbehovene for personale i de medlemsstater, der er involveret i gennemførel-
sen af denne forordning
k) bistå AI-kontoret med at støtte de nationale kompetente myndigheder i etableringen og udviklingen af
reguleringsmæssige AI-sandkasser og lette samarbejdet og informationsudvekslingen mellem regulerings-
mæssige AI-sandkasser
l) bidrage til og yde relevant rådgivning om udarbejdelsen af vejledningsdokumenter
m) rådgive Kommissionen i forbindelse med internationale spørgsmål om AI
n) afgive udtalelser til Kommissionen om de kvalificerede varslinger vedrørende AI-modeller til almen
brug
o) modtage udtalelser fra medlemsstaterne om kvalificerede varslinger vedrørende AI-modeller til almen
brug og om nationale erfaringer og praksis vedrørende overvågning og håndhævelse af AI-systemer,
navnlig de systemer, der integrerer AI-modeller til almen brug.
Artikel 67
Det rådgivende forum
1. Der oprettes et rådgivende forum til at yde teknisk ekspertise til og rådgive AI-udvalget og Kommissio-
nen og bidrage til deres opgaver i henhold til denne forordning.
2. Det rådgivende forums medlemmer skal repræsentere et afbalanceret udvalg af interessenter, herunder
industrien, iværksættervirksomheder, SMV�½er, civilsamfundet og den akademiske verden. Der skal være
balance mellem det rådgivende forums medlemmer med hensyn til kommercielle og ikkekommercielle
interesser og inden for kategorien af kommercielle interesser med hensyn til SMV�½er og andre virksomhe-
der.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0123.png
123
3. Kommissionen udpeger medlemmerne af det rådgivende forum i overensstemmelse med kriterierne i
stk. 2 blandt interessenter med anerkendt ekspertise inden for AI.
4. Mandatperioden for medlemmerne af det rådgivende forum er to år, som kan forlænges med højst fire
år.
5. Agenturet for Grundlæggende Rettigheder, ENISA, Den Europæiske Standardiseringsorganisation
(CEN), Den Europæiske Komité for Elektroteknisk Standardisering (Cenelec) og Det Europæiske Stan-
dardiseringsinstitut for Telekommunikation (ETSI) er permanente medlemmer af det rådgivende forum.
6. Det rådgivende forum fastsætter selv sin forretningsorden. Det vælger to medformænd blandt sine
medlemmer i overensstemmelse med kriterierne i stk. 2. Medformændenes mandatperiode er på to år og
kan forlænges én gang.
7. Det rådgivende forum afholder møder mindst to gange om året. Det rådgivende forum kan indbyde
eksperter og andre interessenter til sine møder.
8. Det rådgivende forum kan udarbejde udtalelser, anbefalinger og skriftlige bidrag på anmodning af
AI-udvalget eller Kommissionen.
9. Det rådgivende forum kan oprette stående eller midlertidige underudvalg, alt efter hvad der er relevant
med henblik på undersøgelse af specifikke spørgsmål vedrørende denne forordnings formål.
10. Det rådgivende forum udarbejder en årlig rapport om sine aktiviteter. Denne rapport offentliggøres.
Artikel 68
Videnskabeligt panel af uafhængige eksperter
1. Kommissionen fastsætter ved hjælp af en gennemførelsesretsakt bestemmelser om oprettelse af et
videnskabeligt panel af uafhængige eksperter (»det videnskabelige panel«), der skal støtte håndhævelses-
aktiviteterne i henhold til denne forordning. Denne gennemførelsesretsakt vedtages efter undersøgelses-
proceduren, jf. artikel 98, stk. 2.
2. Det videnskabelige panel skal bestå af eksperter, der udvælges af Kommissionen på grundlag af den
ajourførte videnskabelige eller tekniske ekspertise inden for AI, der er nødvendig med henblik på de
opgaver, der er fastsat i stk. 3, og skal kunne påvise, at alle følgende betingelser er opfyldt:
a) særlig ekspertise og kompetence og videnskabelig eller teknisk ekspertise inden for AI
b) uafhængighed af udbydere af AI-systemer eller AI-modeller til almen brug
c) evne til at udføre aktiviteter omhyggeligt, nøjagtigt og objektivt.
Kommissionen fastsætter i samråd med AI-udvalget antallet af eksperter i panelet i overensstemmelse
med de nødvendige behov og sikrer en fair kønsmæssig og geografisk repræsentation.
3. Det videnskabelige panel rådgiver og støtter AI-kontoret, navnlig med hensyn til følgende opgaver:
a) støtte gennemførelsen og håndhævelsen af denne forordning for så vidt angår AI-modeller og -syste-
mer til almen brug, navnlig ved at:
i) varsle AI-kontoret om mulige systemiske risici på EU-plan ved AI-modeller til almen brug i overens-
stemmelse med artikel 90
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0124.png
124
ii) bidrage til udvikling af værktøjer og metoder til at evaluere kapaciteterne i AI-modeller og -systemer
til almen brug, herunder gennem benchmarks
iii) yde rådgivning om klassificering af AI-modeller til almen brug med systemisk risiko
iv) yde rådgivning om klassificering af forskellige AI-modeller og -systemer til almen brug
v) bidrage til udviklingen af værktøjer og skabeloner
b) støtte markedsovervågningsmyndighederne arbejde efter disses anmodning
c) støtte grænseoverskridende markedsovervågningsaktiviteter som omhandlet i artikel 74, stk. 11, uden
at dette berører markedsovervågningsmyndighedernes beføjelser
d) støtte AI-kontoret i udførelsen af dets opgaver inden for rammerne af EU-beskyttelsesproceduren i
henhold til artikel 81.
4. Eksperterne i det videnskabelige panel udfører deres opgaver uvildigt og objektivt og sikrer fortrolighe-
den af de oplysninger og data, der er indhentet under udførelsen af deres opgaver og aktiviteter. De må
hverken søge eller modtage instrukser fra nogen, når de udfører deres opgaver i henhold til stk. 3. Hver
ekspert udfærdiger en interesseerklæring, der gøres offentligt tilgængelig. AI-kontoret etablerer systemer
og procedurer til aktivt at håndtere og forebygge potentielle interessekonflikter.
5. Den gennemførelsesretsakt, der er omhandlet i stk. 1, skal indeholde bestemmelser om betingelserne,
procedurerne og de nærmere ordninger for, hvordan det videnskabelige panel og dets medlemmer kan
sende varslinger og anmode AI-kontoret om bistand til udførelsen af det videnskabelige panels opgaver.
Artikel 69
Medlemsstaternes adgang til puljen af eksperter
1. Medlemsstaterne kan anmode eksperter i det videnskabelige panel om at støtte deres håndhævelsesakti-
viteter i henhold til denne forordning.
2. Medlemsstaterne kan pålægges at betale gebyrer for den rådgivning og støtte, som eksperterne
yder. Gebyrernes struktur og størrelse samt størrelsen og strukturen af de omkostninger, der kan kræves
erstattet, fastsættes i den gennemførelsesretsakt, der er omhandlet i artikel 68, stk. 1, under hensyntagen
til målene om en passende gennemførelse af denne forordning, omkostningseffektivitet og nødvendighe-
den af at sikre, at alle medlemsstater har effektiv adgang til eksperter.
3. Kommissionen letter medlemsstaternes rettidige adgang til eksperterne efter behov og sikrer, at kombi-
nationen af støtteaktiviteter, som udføres af EU-AI-afprøvningsstøtte i henhold til artikel 84, og eksperter
i henhold til nærværende artikel tilrettelægges effektivt og giver den bedst mulige merværdi.
AFDELING 2
Nationale kompetente myndigheder
Artikel 70
Udpegelse af nationale kompetente myndigheder og centrale kontaktpunkter
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0125.png
125
1. Hver medlemsstat opretter eller udpeger som nationale kompetente myndigheder mindst én bemyndi-
gende myndighed og mindst én markedsovervågningsmyndighed med henblik på denne forordning. Disse
nationale kompetente myndigheder udøver deres beføjelser uafhængigt, upartisk og uden bias for derved
at beskytte objektiviteten i deres aktiviteter og opgaver og for at sikre anvendelsen og gennemførelsen af
denne forordning. Medlemmerne af disse myndigheder afholder sig fra ethvert tiltag, som er uforenelig
med deres hverv. Forudsat at disse principper overholdes, kan sådanne aktiviteter og opgaver udføres af
en eller flere udpegede myndigheder i overensstemmelse med medlemsstatens organisatoriske behov.
2. Medlemsstaterne meddeler Kommissionen identiteten af de bemyndigende myndigheder og markeds-
overvågningsmyndighederne og disse myndigheders opgaver samt eventuelle efterfølgende ændringer
heraf. Medlemsstaterne offentliggør senest den 2. august 2025 oplysninger om, hvordan de kompeten-
te myndigheder og de centrale kontaktpunkter kan kontaktes ved hjælp af elektroniske kommunika-
tionsmidler. Medlemsstaterne udpeger en markedsovervågningsmyndighed til at fungere som centralt
kontaktpunkt for denne forordning og underretter Kommissionen om identiteten af det centrale kontakt-
punkt. Kommissionen offentliggør en liste over de centrale kontaktpunkter.
3. Medlemsstaterne sikrer, at deres nationale kompetente myndigheder tilføres tilstrækkelige tekniske,
finansielle og menneskelige ressourcer og infrastruktur, til at de kan udføre deres opgaver effektivt i
henhold til denne forordning. De nationale kompetente myndigheder skal navnlig råde over et tilstræk-
keligt antal medarbejdere på fast basis, hvis kompetencer og ekspertise spænder over en indgående
forståelse af AI-teknologier, data og databehandling, beskyttelse af personoplysninger, cybersikkerhed,
grundlæggende rettigheder, sundheds- og sikkerhedsrisici og viden om gældende standarder og retlige
krav. Medlemsstaterne skal årligt vurdere og om nødvendigt ajourføre de kompetence- og ressourcebehov,
der er omhandlet i dette stykke.
4. De nationale kompetente myndigheder skal træffe passende foranstaltninger for at sikre et tilstrækkeligt
niveau af cybersikkerhed.
5. De nationale kompetente myndigheder handler i forbindelse med udførelsen af deres opgaver i over-
ensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
6. Senest den 2. august 2025 og én gang hvert andet år derefter aflægger medlemsstaterne rapport
til Kommissionen om status for de nationale kompetente myndigheders finansielle og menneskelige
ressourcer med en vurdering af deres tilstrækkelighed. Kommissionen videresender disse oplysninger til
AI-udvalget med henblik på drøftelse og eventuelle henstillinger.
7. Kommissionen letter udvekslingen af erfaringer mellem de nationale kompetente myndigheder.
8. De nationale kompetente myndigheder kan yde vejledning og rådgivning om gennemførelsen af denne
forordning, navnlig til SMV�½er, herunder iværksættervirksomheder, under hensyntagen til AI-udvalgets
og Kommissionens vejledning og rådgivning, alt efter hvad der er relevant. Når de nationale kompetente
myndigheder agter at yde vejledning og rådgivning i forbindelse med et AI-system på områder, der er
omfattet af anden EU-ret, skal de nationale kompetente myndigheder i henhold til denne EU-ret høres, alt
efter hvad der er relevant.
9. Hvis EU-institutioner, -organer, -kontorer eller -agenturer er omfattet af denne forordnings anvendel-
sesområde, fungerer Den Europæiske Tilsynsførende for Databeskyttelse som den kompetente myndighed
for tilsynet med dem.
KAPITEL VIII
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0126.png
126
EU-DATABASE FOR HØJRISIKO-AI-SYSTEMER
Artikel 71
EU-database for højrisiko-AI-systemer opført i bilag III
1. Kommissionen opretter og vedligeholder i samarbejde med medlemsstaterne en EU-database med
de i denne artikels stk. 2 og 3 omhandlede oplysninger vedrørende højrisiko-AI-systemer, jf. artikel
6, stk. 2, som er registreret i overensstemmelse med artikel 49 og 60, og AI-systemer, der ikke anses
som højrisiko-AI-systemer i henhold til artikel 6, stk. 3, og som er registeret i overensstemmelse med
artikel 6, stk. 4, og artikel 49. Ved fastsættelsen af funktionsspecifikationerne for en sådan database
hører Kommissionen de relevante eksperter og, når den ajourfører funktionsspecifikationerne for en sådan
database, hører Kommissionen AI-udvalget.
2. De data, der er anført i bilag VIII, afsnit A og B, indlæses i EU-databasen af udbyderen eller, hvis det
er relevant, af den bemyndigede repræsentant.
3. De data, der er anført i bilag VIII, afsnit C, indlæses i EU-databasen af den idriftsætter, som er eller
handler på vegne af en offentlig myndighed eller et offentligt agentur eller organ i overensstemmelse med
artikel 49, stk. 3 og 4.
4. Med undtagelse af det afsnit, der er omhandlet i artikel 49, stk. 4, og artikel 60, stk. 4, litra c), skal
oplysningerne i EU-databasen, der er registreret i overensstemmelse med artikel 49, kunne tilgås og
være offentligt tilgængelige på en brugervenlig måde. Oplysningerne bør være lette at finde rundt i og
maskinlæsbare. De oplysninger, der registreres i overensstemmelse med artikel 60, må kun være tilgæn-
gelige for markedsovervågningsmyndighederne og Kommissionen, medmindre den potentielle udbyder
eller udbyderen har givet sit samtykke til, at oplysningerne også gøres tilgængelige for offentligheden.
5. EU-databasen må kun indeholde personoplysninger, i det omfang det er nødvendigt for at indsamle
og behandle oplysninger i overensstemmelse med denne forordning. Disse oplysninger omfatter navne
og kontaktoplysninger på de fysiske personer, der er ansvarlige for registrering af systemet og har retlig
beføjelse til at repræsentere udbyderen eller idriftsætteren, alt efter hvad der er relevant.
6. Kommissionen er dataansvarlig for EU-databasen. Den stiller tilstrækkelig teknisk og administrativ
støtte til rådighed for udbydere, potentielle udbydere og idriftsættere. EU-databasen skal overholde
gældende tilgængelighedskrav.
KAPITEL IX
OVERVÅGNING EFTER OMSÆTNINGEN, UDVEKSLING AF OPLYSNINGER OG MAR-
KEDSOVERVÅGNING
AFDELING 1
Overvågning efter omsætningen
Artikel 72
Udbydernes overvågning efter omsætningen og plan for overvågning efter omsætningen for højrisi-
ko-AI-systemer
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0127.png
127
1. Udbyderne skal oprette og dokumentere et system til overvågning efter omsætningen på en måde, der
står i et rimeligt forhold til arten af AI-teknologierne og risiciene ved højrisiko-AI-systemet.
2. Systemet til overvågning efter omsætningen indsamler, dokumenterer og analyserer relevante data, som
idriftsætterne kan afgive, eller som kan indsamles via andre kilder, om højrisiko-AI-systemers ydeevne
i hele deres levetid, og som giver udbyderen mulighed for at evaluere, at AI-systemerne løbende overhol-
der de i kapitel III, afdeling 2, fastsatte krav. Hvis det er relevant, skal overvågning efter omsætningen
omfatte en analyse af interaktionen med andre AI-systemer. Denne forpligtelse omfatter ikke følsomme
operationelle data om idriftsættere, som er retshåndhævende myndigheder.
3. Systemet til overvågning efter omsætningen skal baseres på en plan for overvågning efter omsætnin-
gen. Planen for overvågning efter omsætningen skal være en del af den tekniske dokumentation, der
er omhandlet i bilag IV. Kommissionen vedtager senest den 2. februar 2026 en gennemførelsesretsakt
om detaljerede bestemmelser om en model for planen for overvågning efter omsætningen og listen over
elementer, der skal indgå i planen. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren,
jf. artikel 98, stk. 2.
4. For højrisiko-AI-systemer, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag
I, afsnit A, hvor der allerede er etableret et system til og en plan for overvågning efter omsætningen i
henhold til nævnte lovgivning, skal udbyderne med henblik på at sikre sammenhæng, undgå overlap og
minimere yderligere byrder have mulighed for, alt efter hvad der er relevant, at integrere de nødvendige
elementer, der er beskrevet i stk. 1, 2 og 3, ved hjælp af den model, der er omhandlet i stk. 3, i allerede
eksisterende systemer og planer i henhold til nævnte lovgivning, forudsat at dette opnår et tilsvarende
beskyttelsesniveau.
Dette stykkes første afsnit finder også anvendelse på de i bilag III, punkt 5, omhandlede højrisiko-AI-
systemer, der bringes i omsætning eller ibrugtages af finansielle institutioner, som er underlagt krav i
henhold til EU-retten om finansielle tjenesteydelser for så vidt angår deres interne ledelse, ordninger eller
processer.
AFDELING 2
Udveksling af oplysninger om alvorlige hændelser
Artikel 73
Indberetning af alvorlige hændelser
1. Udbydere af højrisiko-AI-systemer, der bringes i omsætning på EU-markedet, indberetter enhver
alvorlig hændelse til markedsovervågningsmyndighederne i de medlemsstater, hvor denne hændelse fandt
sted.
2. Den i stk. 1 omhandlede indberetning foretages umiddelbart efter, at udbyderen har fastslået en
årsagssammenhæng mellem AI-systemet og den alvorlige hændelse eller en rimelig sandsynlighed for en
sådan sammenhæng, og under alle omstændigheder senest 15 dage efter, at udbyderen eller, hvor det er
relevant, idriftsætteren har fået kendskab til den alvorlige hændelse.
I den i først afsnit omhandlede frist for indberetning tages der hensyn til den alvorlige hændelses alvor.
3. Uanset denne artikels stk. 2 forelægges den i denne artikels stk. 1 omhandlede rapport i tilfælde af
en udbredt overtrædelse eller en alvorlig hændelse som defineret i artikel 3, nr. 49), litra b), omgående
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0128.png
128
og senest to dage efter, at udbyderen eller, hvis det er relevant, idriftsætteren har fået kendskab til den
pågældende hændelse.
4. Uanset stk. 2 forelægges rapporten i tilfælde af en persons dødsfald umiddelbart efter, at udbyderen
eller idriftsætteren har fastslået, eller så snart vedkommende har mistanke om en årsagssammenhæng
mellem højrisiko-AI-systemet og den alvorlige hændelse, og senest ti dage efter den dato, hvor udbyderen
eller, hvis det er relevant, idriftsætteren har fået kendskab til den alvorlige hændelse.
5. Udbyderen eller, hvis det er relevant, idriftsætteren kan om nødvendigt for at sikre rettidig indberetning
forelægge en indledende rapport, som ikke er fyldestgørende, efterfulgt af en fyldestgørende rapport.
6. Efter indberetning af en alvorlig hændelse i henhold til stk. 1 skal udbyderen straks foretage de nødven-
dige undersøgelser vedrørende den alvorlige hændelse og det pågældende AI-system. Dette omfatter en
risikovurdering af hændelsen og korrigerende tiltag.
Udbyderen samarbejder med de kompetente myndigheder og, hvis det er relevant, med det berørte
bemyndigede organ under de undersøgelser, der er omhandlet i første afsnit, og må ikke foretage nogen
undersøgelse, der medfører ændringer af det pågældende AI-system på en sådan måde, at det kan
påvirke en efterfølgende evaluering af årsagerne til hændelsen, uden først at orientere de kompetente
myndigheder om et sådant tiltag.
7. Når den relevante markedsovervågningsmyndighed modtager en indberetning vedrørende en alvorlig
hændelse omhandlet i artikel 3, nr. 49), litra c), underretter den de nationale offentlige myndigheder eller
organer, der er omhandlet i artikel 77, stk. 1. Kommissionen udarbejder særlig vejledning for at lette
overholdelsen af forpligtelserne i nærværende artikels stk. 1. Denne vejledning udstedes senest den 2.
august 2025 og vurderes regelmæssigt.
8. Markedsovervågningsmyndigheden træffer passende foranstaltninger, jf. artikel 19 i forordning (EU)
2019/1020, senest syv dage fra den dato, hvor den modtog den i nærværende artikels stk. 1 omhandlede
indberetning, og følger indberetningsprocedurerne som fastsat i nævnte forordning.
9. I forbindelse med de i bilag III omhandlede højrisiko-AI-systemer, der bringes i omsætning eller
ibrugtages af udbydere, som er underlagt Unionens lovgivningsmæssige instrumenter om indberetnings-
forpligtelser svarende til dem, der er fastsat i denne forordning, begrænses indberetningen af alvorlige
hændelser til dem, der er omhandlet i artikel 3, nr. 49), litra c).
10. For højrisiko-AI-systemer, som er sikkerhedskomponenter i udstyr, eller som selv er udstyr, der
er omfattet af forordning (EU) 2017/745 og (EU) 2017/746, begrænses indberetningen af alvorlige
hændelser til dem, der er omhandlet i nærværende forordnings artikel 3, nr. 49), litra c), og foretages til
den nationale kompetente myndighed, som er valgt til dette formål af den medlemsstat, hvor hændelsen
fandt sted.
11. De nationale kompetente myndigheder underretter omgående Kommissionen om enhver alvorlig
hændelse, uanset om de har foretaget tiltag desangående, i overensstemmelse med artikel 20 i forordning
(EU) 2019/1020.
AFDELING 3
Håndhævelse
Artikel 74
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0129.png
129
Markedsovervågning og kontrol af AI-systemer på EU-markedet
1. Forordning (EU) 2019/1020 finder anvendelse på AI-systemer, der er omfattet af nærværende forord-
ning. Med henblik på effektiv håndhævelse af nærværende forordning gælder følgende:
a) enhver henvisning til en erhvervsdrivende i henhold til forordning (EU) 2019/1020 skal forstås således,
at den omfatter alle operatører, der er omfattet af nærværende forordnings artikel 2, stk. 1
b) enhver henvisning til et produkt i henhold til forordning (EU) 2019/1020 skal forstås således, at den
omfatter alle AI-systemer, der henhører under nærværende forordnings anvendelsesområde.
2. Som led i deres rapporteringsforpligtelser i henhold til artikel 34, stk. 4, i forordning (EU) 2019/1020
aflægger markedsovervågningsmyndighederne årligt rapport til Kommissionen og de relevante nationale
konkurrencemyndigheder i forbindelse med markedsovervågningsaktiviteter, som kan være af potentiel
interesse for anvendelsen af EU-retten om konkurrenceregler. De aflægger også årligt rapport til Kommis-
sionen om anvendelsen af forbudt praksis, der har fundet sted i løbet af det pågældende år, og om de
foranstaltninger, der er truffet.
3. For så vidt angår højrisiko-AI-systemer, som er knyttet til produkter, der er omfattet af EU-harmonise-
ringslovgivningen, som er opført i bilag I, afsnit A, er markedsovervågningsmyndigheden med henblik på
denne forordning den myndighed, der i henhold til disse retsakter er ansvarlig for markedsovervågnings-
aktiviteter.
Uanset første afsnit og under behørige omstændigheder kan medlemsstaterne udpege en anden relevant
myndighed til at fungere som markedsovervågningsmyndighed, forudsat at de sikrer koordinering med de
relevante sektorspecifikke markedsovervågningsmyndigheder, der er ansvarlige for håndhævelsen af den
EU-harmoniseringslovgivning, der er opført i bilag I.
4. De procedurer, der er omhandlet i denne forordnings artikel 79-83, finder ikke anvendelse på AI-syste-
mer, som er knyttet til produkter, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag
I, afsnit A, hvis sådanne retsakter allerede indeholder bestemmelser om procedurer, der sikrer et tilsvaren-
de beskyttelsesniveau og har det samme formål. I sådanne tilfælde finder de relevante sektorprocedurer
anvendelse i stedet.
5. Uden at det berører markedsovervågningsmyndighedernes beføjelser i henhold til artikel 14 i forord-
ning (EU) 2019/1020, kan markedsovervågningsmyndighederne med henblik på at sikre en effektiv
håndhævelse af nærværende forordning udøve de beføjelser, der er omhandlet i nævnte forordnings
artikel 14, stk. 4, litra d) og j), på afstand, alt efter hvad der er relevant.
6. For så vidt angår højrisiko-AI-systemer, der bringes i omsætning, ibrugtages eller anvendes af finan-
sielle institutioner, der er omfattet af EU-retten om finansielle tjenesteydelser, er markedsovervågnings-
myndigheden med henblik på denne forordning den relevante nationale myndighed, der i henhold til
nævnte lovgivning er ansvarlig for det finansielle tilsyn med disse institutioner, såfremt omsætningen,
ibrugtagningen eller anvendelsen af AI-systemet er i direkte forbindelse med leveringen af disse finansiel-
le tjenesteydelser.
7. Uanset stk. 6 kan medlemsstaten under behørige omstændigheder, og forudsat at der sikres koordine-
ring, udpege en anden relevant myndighed som markedsovervågningsmyndighed med henblik på denne
forordning.
Nationale markedsovervågningsmyndigheder, som fører tilsyn med kreditinstitutter, der er reguleret i
henhold til direktiv 2013/36/EU, og som deltager i den fælles tilsynsmekanisme, der er oprettet ved for-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0130.png
130
ordning (EU) nr. 1024/2013, bør straks indberette alle de oplysninger identificeret i forbindelse med deres
markedsovervågningsaktiviteter, som kan være af potentiel interesse for Den Europæiske Centralbanks
tilsynsopgaver som fastsat i nævnte forordning, til Den Europæiske Centralbank.
8. For så vidt angår de højrisiko-AI-systemer, der er anført i bilag III, punkt 1, til denne forordning for
så vidt systemerne anvendes til retshåndhævelsesformål, grænseforvaltning og retsvæsen og demokrati,
og de højrisiko-AI-systemer, der er anført i bilag III, punkt 6, 7 og 8, til denne forordning, udpeger
medlemsstaterne med henblik på denne forordning som markedsovervågningsmyndigheder enten de kom-
petente datatilsynsmyndigheder i henhold til forordning (EU) 2016/679 eller direktiv (EU) 2016/680 eller
enhver anden myndighed, der er udpeget på de samme betingelser, der er fastsat i artikel 41-44 i direktiv
(EU) 2016/680. Markedsovervågningsaktiviteter må på ingen måde påvirke de judicielle myndigheders
uafhængighed eller på anden måde gribe ind i deres aktiviteter, når de handler i deres egenskab af
domstol.
9. I tilfælde, hvor EU-institutioner, -organer, -kontorer eller -agenturer er omfattet af denne forordning,
fungerer Den Europæiske Tilsynsførende for Databeskyttelse som deres markedsovervågningsmyndig-
hed, undtagen i forbindelse med EU-Domstolen, som handler i sin egenskab af domstol.
10. Medlemsstaterne skal lette koordinering mellem markedsovervågningsmyndigheder, der er udpeget i
henhold til denne forordning, og andre relevante nationale myndigheder eller organer, der fører tilsyn med
anvendelsen af den EU-harmoniseringslovgivning, der er opført i bilag I, eller anden EU-ret, der kan være
relevant for de i bilag III omhandlede højrisiko-AI-systemer.
11. Markedsovervågningsmyndighederne og Kommissionen kan foreslå fælles aktiviteter, herunder fælles
undersøgelser, som skal gennemføres af enten markedsovervågningsmyndigheder eller af markedsover-
vågningsmyndigheder sammen med Kommissionen, og som har til formål at fremme overholdelse, identi-
ficere manglende overholdelse, øge bevidstheden eller yde vejledning for så vidt angår denne forordning
med hensyn til specifikke kategorier af højrisiko-AI-systemer, der anses for at udgøre en alvorlig risiko i
to eller flere medlemsstater i overensstemmelse med artikel 9 i forordning (EU) 2019/1020. AI-kontoret
sørger for koordinerende støtte til de fælles undersøgelser.
12. Uden at det berører de beføjelser, der er fastsat i forordning (EU) 2019/1020, og hvis det er relevant
og begrænset til, hvad der er nødvendigt for, at markedsovervågningsmyndighederne kan udføre deres
opgaver, gives de af udbydere fuld adgang til den dokumentation samt til de trænings-, validerings- og
afprøvningsdatasæt, der anvendes til udvikling af højrisiko-AI-systemer, herunder, hvis det er relevant og
med forbehold af sikkerhedsforanstaltninger, via programmeringsgrænseflader for applikationer (API�½er)
eller andre relevante tekniske midler og værktøjer, der muliggør fjernadgang.
13. Markedsovervågningsmyndighederne gives efter begrundet anmodning adgang til kildekoden for
højrisiko-AI-systemet, og kun når begge følgende betingelser er opfyldt:
a) adgang til kildekode er nødvendig for at vurdere, om et højrisiko-AI-system er i overensstemmelse
med kravene i kapitel III, afdeling 2, og
b) afprøvnings- eller revisionsprocedurer og -verifikationer på grundlag af data og dokumentation fra
udbyderen er udtømt eller har vist sig at være utilstrækkelige.
14. Alle de oplysninger eller al den dokumentation, som markedsovervågningsmyndighederne kommer i
besiddelse af, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
Artikel 75
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0131.png
131
Gensidig bistand, markedsovervågning og kontrol med AI-systemer til almen brug
1. Hvis et AI-system er baseret på en AI-model til almen brug, og modellen og systemet er udviklet af
den samme udbyder, har AI-kontoret beføjelser til at overvåge og føre tilsyn med, om det pågældende
AI-system overholder kravene i denne forordning. For at varetage sine overvågnings- og tilsynsopgaver
skal AI-kontoret have alle beføjelser som markedsovervågningsmyndighed, der er fastsat i denne afdeling
og forordning (EU) 2019/1020.
2. Hvis de relevante markedsovervågningsmyndigheder har tilstrækkelig grund til at mene, at AI-syste-
mer til almen brug, som kan anvendes direkte af idriftsættere til mindst ét formål, der er klassificeret
som højrisiko i henhold til denne forordning, ikke overholder kravene i denne forordning, samarbejder
de med AI-kontoret om at foretage evalueringer af overholdelsen og underretter AI-udvalget og andre
markedsovervågningsmyndigheder i overensstemmelse hermed.
3. Hvis en markedsovervågningsmyndighed ikke er i stand til at afslutte sin undersøgelse af højrisiko-
AI-systemet som følge af manglende adgang til visse oplysninger vedrørende AI-modellen til almen
brug, selv om den har udfoldet alle de nødvendige bestræbelser på at indhente disse oplysninger, kan
den fremsætte en begrundet anmodning til AI-kontoret, hvorved adgangen til disse oplysninger skal
håndhæves. I dette tilfælde skal AI-kontoret straks og under alle omstændigheder inden for 30 dage give
den anmodende myndighed alle oplysninger, som AI-kontoret anser for at være relevante for at fastslå,
om et højrisiko-AI-system overholder gældende regler eller ej. Markedsovervågningsmyndighederne
sikrer, at de oplysninger, som de kommer i besiddelse af, behandles fortroligt i overensstemmelse med
denne forordnings artikel 78. Proceduren i kapitel VI i forordning (EU) 2019/1020 finder tilsvarende
anvendelse.
Artikel 76
Markedsovervågningsmyndighedernes tilsyn med afprøvning under faktiske forhold
1. Markedsovervågningsmyndighederne har kompetencer og beføjelser til at sikre, at afprøvning under
faktiske forhold er i overensstemmelse med denne forordning.
2. Hvis der udføres afprøvning under faktiske forhold for AI-systemer, som der føres tilsyn med i den re-
guleringsmæssige AI-sandkasse i henhold til artikel 58, kontrollerer markedsovervågningsmyndighederne
overholdelsen af artikel 60 som led i deres tilsynsrolle for den reguleringsmæssige AI-sandkasse. Disse
myndigheder kan, alt efter hvad der er relevant, tillade, at afprøvningen under faktiske forhold udføres af
udbyderen eller den potentielle udbyder som en undtagelse fra betingelserne i artikel 60, stk. 4, litra f) og
g).
3. Hvis en markedsovervågningsmyndighed er blevet underrettet af den potentielle udbyder, udbyderen
eller enhver tredjepart om en alvorlig hændelse eller har andre grunde til at mene, at betingelserne i
artikel 60 og 61 ikke er opfyldt, kan den træffe en af følgende afgørelser på sit område, alt efter hvad der
er relevant:
a) suspendere eller afslutte afprøvningen under faktiske forhold
b) kræve, at udbyderen eller den potentielle udbyder og idriftsætteren eller den potentielle idriftsætter
ændrer et hvilket som helst aspekt af afprøvningen under faktiske forhold.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0132.png
132
4. Hvis en markedsovervågningsmyndighed har truffet en afgørelse omhandlet i denne artikels stk. 3 eller
har gjort indsigelse som omhandlet i artikel 60, stk. 4, litra b), skal afgørelsen eller indsigelsen indeholde
en begrundelse herfor og angive, hvordan udbyderen eller den potentielle udbyder kan anfægte afgørelsen
eller indsigelsen.
5. Hvis en markedsovervågningsmyndighed har truffet en afgørelse omhandlet i stk. 3, meddeler den, hvis
det er relevant, begrundelsen herfor til markedsovervågningsmyndighederne i de andre medlemsstater,
hvor AI-systemet er blevet afprøvet i overensstemmelse med planen for afprøvning.
Artikel 77
Beføjelser tillagt myndigheder, der beskytter de grundlæggende rettigheder
1. Nationale offentlige myndigheder eller organer, der fører tilsyn med eller håndhæver overholdelsen af
forpligtelser i henhold til EU-retten om beskyttelse af de grundlæggende rettigheder, herunder retten til
beskyttelse mod forskelsbehandling, i forbindelse med anvendelsen af højrisiko-AI-systemer omhandlet
i. bilag III har beføjelse til at anmode om og få adgang til al dokumentation, der er udarbejdet eller
opretholdt i henhold til denne forordning, på et tilgængeligt sprog og i et tilgængeligt format, hvis adgang
til denne dokumentation er nødvendig for effektivt at kunne udøve deres mandater inden for rammerne
af deres jurisdiktion. Den relevante offentlige myndighed eller det relevante offentlige organ underretter
markedsovervågningsmyndigheden i den pågældende medlemsstat om enhver sådan anmodning.
2. Senest den 2. november 2024 identificerer hver medlemsstat de offentlige myndigheder eller organer,
der er omhandlet i stk. 1, og offentliggør en liste. Medlemsstaterne meddeler listen til Kommissionen og
de øvrige medlemsstater og holder listen ajour.
3. Hvis den i stk. 1 omhandlede dokumentation er utilstrækkelig til at fastslå, om der er sket en tilsidesæt-
telse af forpligtelser i henhold til den del af EU-retten, der beskytter de grundlæggende rettigheder, kan
den offentlige myndighed eller det offentlige organ, der er omhandlet i stk. 1, fremsætte en begrundet
anmodning til markedsovervågningsmyndigheden om at tilrettelægge afprøvning af højrisiko-AI-systemet
ved hjælp af tekniske midler. Markedsovervågningsmyndigheden tilrettelægger afprøvningen med tæt
inddragelse af den anmodende offentlige myndighed eller det anmodende offentlige organ inden for
rimelig tid efter anmodningen.
4. Alle de oplysninger eller al den dokumentation, som de i denne artikels stk. 1 omhandlede nationale
offentlige myndigheder eller organer kommer i besiddelse af i henhold til denne artikel, behandles i
overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
Artikel 78
Fortrolighed
1. Kommissionen, markedsovervågningsmyndighederne og bemyndigede organer og enhver anden fysisk
eller juridisk person, der er involveret i anvendelsen af denne forordning, respekterer i overensstemmelse
med EU-retten eller national ret fortroligheden af oplysninger og data, som de kommer i besiddelse af
under udførelsen af deres opgaver og aktiviteter, på en sådan måde, at de navnlig beskytter:
a) intellektuelle ejendomsrettigheder og fysiske eller juridiske personers fortrolige forretningsoplysninger
eller forretningshemmeligheder, herunder kildekode, med undtagelse af de tilfælde, der er omhandlet i
artikel 5 i Europa- Parlamentets og Rådets direktiv (EU) 2016/943 (
57
)
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0133.png
133
b) den effektive gennemførelse af denne forordning, navnlig for så vidt angår inspektioner, undersøgelser
eller revisioner
c) offentlige og nationale sikkerhedsinteresser
d) strafferetlige eller administrative procedurers gennemførelse
e) informationer, der er klassificeret i henhold til EU-retten eller national ret.
2. De myndigheder, der er involveret i anvendelsen af denne forordning i henhold til stk. 1, må kun
anmode om data, der er strengt nødvendige for at vurdere den risiko, som AI-systemer udgør, og for at
udøve deres beføjelser i overensstemmelse med denne forordning og med forordning (EU) 2019/1020. De
skal indføre passende og effektive cybersikkerhedsforanstaltninger for at beskytte sikkerheden og fortro-
ligheden af de indsamlede oplysninger og data og slette de indsamlede data, så snart de ikke længere
er nødvendige til det formål, som de blev indsamlet til, i overensstemmelse med gældende EU-ret eller
national ret.
3. Uden at det berører stk. 1 og 2 må oplysninger, der udveksles fortroligt mellem de nationale kompeten-
te myndigheder eller mellem de nationale kompetente myndigheder og Kommissionen, ikke videregives
uden forudgående høring af den oprindelige nationale kompetente myndighed og idriftsætteren i tilfælde,
hvor højrisiko-AI-systemer omhandlet i bilag III, punkt 1, 6 eller 7, anvendes af retshåndhævende
myndigheder, grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyndigheder, og hvis en
sådan videregivelse ville bringe offentlige og nationale sikkerhedsinteresser i fare. Denne udveksling af
oplysninger omfatter ikke følsomme operationelle oplysninger i forbindelse med aktiviteter, der udføres
af retshåndhævende myndigheder, grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyn-
digheder.
I tilfælde, hvor de retshåndhævende myndigheder, indvandringsmyndighederne eller asylmyndighederne
er udbydere af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 eller 7, skal den tekniske
dokumentation, der er omhandlet i bilag IV, forblive hos disse myndigheder. Disse myndigheder sikrer,
at de markedsovervågningsmyndigheder, der er omhandlet i artikel 74, stk. 8 og 9, alt efter hvad der er
relevant, efter anmodning omgående kan få adgang til dokumentationen eller få en kopi heraf. Kun det af
markedsovervågningsmyndighedens personale, der har et passende sikkerhedsgodkendelsesniveau, må få
adgang til dokumentationen eller en kopi heraf.
4. Stk. 1, 2 og 3 berører ikke Kommissionens, medlemsstaternes og deres relevante myndigheders samt
de bemyndigede organers rettigheder eller forpligtelser med hensyn til udveksling af oplysninger og
udsendelse af advarsler, herunder i forbindelse med grænseoverskridende samarbejde, eller de berørte
parters forpligtelse til at afgive oplysninger inden for rammerne af medlemsstaternes strafferet.
5. Kommissionen og medlemsstaterne kan om nødvendigt og i overensstemmelse med relevante bestem-
melser i internationale aftaler og handelsaftaler udveksle fortrolige oplysninger med reguleringsmyndig-
heder i tredjelande, med hvilke de har indgået bilaterale eller multilaterale fortrolighedsordninger, der
sikrer en tilstrækkelig grad af fortrolighed.
Artikel 79
Procedure på nationalt plan i tilfælde af AI-systemer, der udgør en risiko
1. AI-systemer, der udgør en risiko, skal forstås som et »produkt, der udgør en risiko« som defineret i
artikel 3, nr. 19), i forordning (EU) 2019/1020, for så vidt de udgør risici for sundhed eller sikkerhed eller
for personers grundlæggende rettigheder.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0134.png
134
2. Hvis en medlemsstats markedsovervågningsmyndighed har tilstrækkelig grund til at mene, at et AI-sy-
stem udgør en risiko som omhandlet i denne artikels stk. 1, foretager den en evaluering af det pågældende
AI-system for så vidt angår dets overholdelse af alle de krav og forpligtelser, der er fastsat i denne
forordning. Der lægges særlig vægt på AI-systemer, der udgør en risiko for sårbare grupper. Hvis der
identificeres risici for grundlæggende rettigheder, underretter markedsovervågningsmyndigheden også
de relevante nationale offentlige myndigheder eller organer, der er omhandlet i artikel 77, stk. 1, og
samarbejder fuldt ud med dem. De relevante operatører samarbejder om nødvendigt med markedsover-
vågningsmyndigheden og med de andre nationale offentlige myndigheder eller organer, der er omhandlet
i artikel 77, stk. 1. Hvis markedsovervågningsmyndigheden i forbindelse med evalueringen eller i givet
fald i samarbejde med den nationale offentlige myndighed, der er omhandlet i artikel 77, stk. 1, konsta-
terer, at AI-systemet ikke overholder kravene og forpligtelserne i denne forordning, anmoder den uden
unødigt ophold den pågældende operatør om at foretage alle fornødne korrigerende tiltag til at sørge for,
at AI-systemet overholder kravene og forpligtelserne, tilbagetrække AI-systemet fra markedet eller tilba-
gekalde det inden for en tidsfrist, som markedsovervågningsmyndigheden kan fastsætte, og under alle
omstændigheder inden for 15 arbejdsdage eller som fastsat i den relevante EU-harmoniseringslovgivning.
Markedsovervågningsmyndigheden skal underrette det relevante bemyndigede organ herom. Artikel 18 i
forordning (EU) 2019/1020 finder anvendelse på de i dette stykkes andet afsnit omhandlede foranstaltnin-
ger.
3. Hvis markedsovervågningsmyndigheden konstaterer, at den manglende overholdelse ikke er begrænset
til medlemsstatens område, underretter den uden unødigt ophold Kommissionen og de øvrige medlems-
stater om resultaterne af evalueringen og om de tiltag, den har pålagt operatøren at foretage.
4. Operatøren sikrer, at der foretages alle fornødne korrigerende tiltag over for alle de pågældende
AI-systemer, som denne har gjort tilgængelige EU-markedet.
5. Hvis AI-systemets operatør ikke foretager tilstrækkelige korrigerende tiltag inden for den frist, der er
omhandlet i stk. 2, træffer markedsovervågningsmyndigheden de nødvendige foreløbige foranstaltninger
til at forbyde eller begrænse, at AI-systemet gøres tilgængeligt på dens nationale marked eller ibrugtages,
tilbagetrække produktet eller det selvstændige AI-system fra dette marked eller tilbagekalde det. Den på-
gældende myndighed giver uden unødigt ophold Kommissionen og de øvrige medlemsstater meddelelse
om disse foranstaltninger.
6. Den i stk. 5 omhandlede underretning skal indeholde alle tilgængelige oplysninger, navnlig de nødven-
dige oplysninger til identifikation af det AI-system, der ikke overholder kravene, AI-systemets og forsy-
ningskædens oprindelse, arten af den påståede manglende overholdelse og af den pågældende risiko, arten
og varigheden af de trufne nationale foranstaltninger samt de synspunkter, som den pågældende operatør
har fremsat. Markedsovervågningsmyndighederne oplyser navnlig, om den manglende overholdelse af
kravene skyldes et eller flere af følgende:
a) manglende overholdelse af forbuddet mod de i artikel 5 omhandlede former for AI-praksis
b) et højrisiko-AI-systems manglende opfyldelse af kravene i kapitel III, afdeling 2
c) mangler i de harmoniserede standarder eller fælles specifikationer, der er omhandlet i artikel 40 og 41,
og som danner grundlag for overensstemmelsesformodningen
d) manglende overholdelse af artikel 50.
7. Andre markedsovervågningsmyndigheder end markedsovervågningsmyndigheden i den medlemsstat,
der har indledt proceduren, underretter uden unødigt ophold Kommissionen og de øvrige medlemsstater
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0135.png
135
om de trufne foranstaltninger og om yderligere oplysninger, som de måtte råde over, om det pågældende
AI-systems manglende overholdelse og om deres indsigelser, hvis de ikke er indforstået med den meddel-
te nationale foranstaltning.
8. Hvis der ikke inden for tre måneder efter modtagelsen af den i denne artikels stk. 5 omhandlede
underretning er blevet gjort indsigelse af enten en markedsovervågningsmyndighed i en medlemsstat
eller af Kommissionen mod en foreløbig foranstaltning truffet af en markedsovervågningsmyndighed i en
anden medlemsstat, anses denne foranstaltning for at være berettiget. Dette berører ikke den pågældende
operatørs procedurerettigheder i overensstemmelse med artikel 18 i forordning (EU) 2019/1020. Den
periode på tre måneder, der er omhandlet i nærværende stykke, nedsættes til 30 dage i tilfælde af
manglende overholdelse af forbuddet mod de i nærværende forordnings artikel 5 anførte former for
AI-praksis.
9. Markedsovervågningsmyndighederne sikrer, at der uden unødigt ophold træffes de fornødne restriktive
foranstaltninger med hensyn til det pågældende produkt eller AI-system såsom tilbagetrækning af produk-
tet eller AI-systemet fra deres marked.
Artikel 80
Procedure i tilfælde af AI-systemer, der af udbyderen er klassificeret som ikkehøjrisiko, i forbindel-
se med anvendelsen af bilag III
1. Hvis en markedsovervågningsmyndighed har tilstrækkelig grund til at mene, at et AI-system, der af
udbyderen er klassificeret som ikkehøjrisiko i henhold til artikel 6, stk. 3, faktisk er højrisiko, foretager
markedsovervågningsmyndigheden en evaluering af det pågældende AI-system med hensyn til dets
klassificering som et højrisiko-AI-system på grundlag af de betingelser, der er fastsat i artikel 6, stk. 3, og
Kommissionens retningslinjer.
2. Hvis markedsovervågningsmyndigheden som led i denne evaluering konstaterer, at det pågældende AI-
system er højrisiko, pålægger den uden unødigt ophold den relevante udbyder at foretage alle fornødne
tiltag til at bringe AI-systemet i overensstemmelse med de krav og forpligtelser, der er fastsat i denne
forordning, samt foretage fornødne korrigerende tiltag inden for en tidsfrist, som markedsovervågnings-
myndigheden kan fastsætte.
3. Hvis markedsovervågningsmyndigheden konstaterer, at anvendelsen af det pågældende AI-system
ikke er begrænset til medlemsstatens område, underretter den uden unødigt ophold Kommissionen og
de øvrige medlemsstater om resultaterne af evalueringen og om de tiltag, den har pålagt udbyderen at
foretage.
4. Udbyderen sikrer, at der foretages alle de nødvendige tiltag til at bringe AI-systemet i overensstemmel-
se med kravene og forpligtelserne i denne forordning. Hvis den pågældende udbyder af et AI-system ikke
bringer AI-systemet i overensstemmelse med disse krav og forpligtelser inden for den tidsfrist, der er
omhandlet i denne artikels stk. 2, straffes udbyderen med bøder i overensstemmelse med artikel 99.
5. Udbyderen sikrer, at der foretages alle fornødne korrigerende tiltag over for alle de pågældende
AI-systemer, som denne har gjort tilgængelige EU-markedet.
6. Hvis udbyderen af det pågældende AI-system ikke foretager tilstrækkelige korrigerende tiltag inden for
den tidsfrist, der er omhandlet i denne artikels stk. 2, finder artikel 79, stk. 5-9, anvendelse.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0136.png
136
7. Hvis markedsovervågningsmyndigheden som led i evalueringen i henhold til denne artikels stk. 1 kon-
staterer, at AI-systemet er blevet fejlklassificeret af udbyderen som ikkehøjrisiko for at omgå anvendelsen
af kravene i kapitel III, afdeling 2, straffes udbyderen med bøder i overensstemmelse med artikel 99.
8. Ved udøvelsen af deres beføjelse til at overvåge anvendelsen af denne artikel og i overensstemmelse
med artikel 11 i forordning (EU) 2019/1020 kan markedsovervågningsmyndighederne foretage passende
kontroller under særlig hensyntagen til oplysninger, der er lagret i den EU-database, der er omhandlet i
nærværende forordnings artikel 71.
Artikel 81
Beskyttelsesprocedure på EU-plan
1. Hvis markedsovervågningsmyndigheden i en medlemsstat inden for tre måneder efter modtagelsen
af den i artikel 79, stk. 5, omhandlede underretning eller inden for 30 dage i tilfælde af manglende
overholdelse af forbuddet mod de i artikel 5 anførte former for AI-praksis har gjort indsigelse mod
en foranstaltning truffet af en anden markedsovervågningsmyndighed, eller hvis Kommissionen finder,
at foranstaltningen er i strid med EU-retten, hører Kommissionen uden unødigt ophold den relevante
medlemsstats markedsovervågningsmyndighed og den eller de relevante operatører og evaluerer den
nationale foranstaltning. På grundlag af resultaterne af denne evaluering træffer Kommissionen senest
seks måneder efter den i artikel 79, stk. 5, omhandlede underretning afgørelse om, hvorvidt den nationale
foranstaltning er berettiget, eller inden for 60 dage i tilfælde af manglende overholdelse af forbuddet mod
de i artikel 5 anførte former for AI-praksis og meddeler sin afgørelse til markedsovervågningsmyndighe-
den i den pågældende medlemsstat. Kommissionen underretter også alle andre markedsovervågningsmyn-
digheder om sin afgørelse.
2. Hvis Kommissionen anser den foranstaltning, der er truffet af den relevante medlemsstat, for at være
berettiget, sikrer alle medlemsstater, at de træffer de fornødne restriktive foranstaltninger med hensyn til
det pågældende AI-system, f.eks. krav om tilbagetrækning af AI-systemet fra deres marked uden unødigt
ophold, og underretter Kommissionen herom. Hvis Kommissionen anser den nationale foranstaltning
for ikke at være berettiget, trækker den pågældende medlemsstat foranstaltningen tilbage og underretter
Kommissionen herom.
3. Hvis den nationale foranstaltning anses for at være berettiget, og hvis AI-systemets manglende over-
holdelse tilskrives mangler ved de harmoniserede standarder eller fælles specifikationer, der er omhandlet
i denne forordnings artikel 40 og 41, anvender Kommissionen proceduren i artikel 11 i forordning (EU)
nr. 1025/2012.
Artikel 82
AI-systemer, som overholder kravene, men som udgør en risiko
1. Hvis en medlemsstats markedsovervågningsmyndighed efter at have foretaget en vurdering i henhold
til artikel 79 og efter høring af den relevante nationale offentlige myndighed, der er omhandlet i artikel
77, stk. 1, finder, at et højrisiko-AI-system, selv om det overholder kravene i denne forordning, alligevel
udgør en risiko for personers sundhed eller sikkerhed, for grundlæggende rettigheder eller for andre
aspekter vedrørende beskyttelse af samfundsinteresser, skal den pålægge den relevante operatør uden
unødigt ophold at træffe alle nødvendige foranstaltninger for at sikre, at det pågældende AI-system, når
det bringes i omsætning eller ibrugtages, ikke længere udgør en sådan risiko, inden for en tidsfrist, som
den kan fastsætte.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0137.png
137
2. Udbyderen eller en anden relevant operatør sikrer, at der foretages korrigerende tiltag med hensyn til
alle de pågældende AI-systemer, som vedkommende har gjort tilgængelige på EU-markedet, inden for
den tidsfrist, der er fastsat af medlemsstatens markedsovervågningsmyndighed, der er omhandlet stk. 1.
3. Medlemsstaterne underretter omgående Kommissionen og de øvrige medlemsstater om resultaterne i
henhold til stk. 1. Denne underretning skal indeholde alle tilgængelige oplysninger, især de nødvendige
data til identifikation af de pågældende AI-systemer, AI-systemets oprindelse og forsyningskæde, arten af
den pågældende risiko og arten og varigheden af de trufne nationale foranstaltninger.
4. Kommissionen hører uden unødigt ophold de berørte medlemsstater og de relevante operatører og
vurderer de trufne nationale foranstaltninger. På grundlag af resultaterne af denne vurdering træffer
Kommissionen afgørelse om, hvorvidt foranstaltningen er berettiget, og foreslår om nødvendigt andre
passende foranstaltninger.
5. Kommissionen meddeler omgående sin afgørelse til de pågældende medlemsstater og til de relevante
operatører. Den underretter også de øvrige medlemsstater.
Artikel 83
Formel manglende overholdelse
1. Hvis en medlemsstats markedsovervågningsmyndighed konstaterer et af følgende forhold, pålægger
den den pågældende udbyder at bringe den manglende overholdelse til ophør inden for en tidsfrist, som
den kan fastsætte:
a) CE-mærkningen er anbragt i modstrid med artikel 48
b) CE-mærkningen er ikke anbragt
c) den i artikel 47 omhandlede EU-overensstemmelseserklæring er ikke udarbejdet
d) den i artikel 47 omhandlede EU-overensstemmelseserklæring er ikke udarbejdet korrekt
e) den i artikel 71 omhandlede registrering i EU-databasen er ikke foretaget
f) der er, hvor det er relevant, ikke udpeget nogen bemyndiget repræsentant
g) den tekniske dokumentation er ikke tilgængelig.
2. Hvis der fortsat er tale om manglende overholdelse omhandlet i stk. 1, skal markedsovervågningsmyn-
digheden i den pågældende medlemsstat træffe nødvendige og forholdsmæssige foranstaltninger for at
begrænse eller forbyde, at højrisiko-AI-systemet gøres tilgængeligt på markedet, eller for at sikre, at det
straks tilbagekaldes eller tilbagetrækkes fra markedet.
Artikel 84
EU-støttestrukturer for afprøvning af AI
1. Kommissionen udpeger en eller flere EU-støttestrukturer for afprøvning af AI til at udføre de opgaver,
der er anført i artikel 21, stk. 6, i forordning (EU) 2019/1020 inden for AI.
2. Uden at det berører de opgaver, der er omhandlet i stk. 1, skal EU-støttestrukturer for afprøvning af AI
også yde uafhængig teknisk eller videnskabelig rådgivning på anmodning af AI-udvalget, Kommissionen
eller markedsovervågningsmyndighederne.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0138.png
138
AFDELING 4
Retsmidler
Artikel 85
Ret til at indgive klage til en markedsovervågningsmyndighed
Uden at det berører andre administrative klageadgange eller adgang til retsmidler, kan enhver fysisk eller
juridisk person, der har grund til at mene, at der er sket en overtrædelse af bestemmelserne i denne
forordning, indgive klager til den relevante markedsovervågningsmyndighed.
I overensstemmelse med forordning (EU) 2019/1020 tages sådanne klager i betragtning med henblik på
at udføre markedsovervågningsaktiviteterne og behandles i overensstemmelse med de særlige procedurer,
som markedsovervågningsmyndighederne har fastlagt dertil.
Artikel 86
Ret til at få en forklaring om individuel beslutningstagning
1. Enhver berørt person, der er omfattet af en afgørelse truffet af idriftsætteren på grundlag af output
fra et højrisiko-AI-system opført i bilag III, med undtagelse af systemerne opført i nævnte bilags punkt
2, og som har retsvirkninger eller på tilsvarende måde i væsentlig grad påvirker den pågældende person
på en måde, som de anser for at have negativ indvirkning på vedkommendes sundhed, sikkerhed eller
grundlæggende rettigheder, har ret til at få en klar og meningsfuld forklaring fra idriftsætteren om
AI-systemets rolle i beslutningsprocessen og hovedelementerne i den trufne afgørelse.
2. Stk. 1 finder ikke anvendelse på anvendelsen af AI-systemer, for hvilke undtagelser fra eller begræns-
ninger af forpligtelsen i henhold til nævnte stykke følger af EU-retten eller national ret, der overholder
EU-retten.
3. Denne artikel finder kun anvendelse, for så vidt den i stk. 1 omhandlede ret ikke på anden vis er fastsat
i EU-retten.
Artikel 87
Indberetning af overtrædelser og beskyttelse af indberettende personer
Direktiv (EU) 2019/1937 finder anvendelse på indberetning af overtrædelser af denne forordning og på
beskyttelsen af personer, der indberetter sådanne overtrædelser.
AFDELING 5
Tilsyn, undersøgelser, håndhævelse og overvågning i forbindelse med udbydere af AI-modeller til
almen brug
Artikel 88
Håndhævelse af forpligtelser for udbydere af AI-modeller til almen brug
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0139.png
139
1. Kommissionen har enekompetence til at føre tilsyn med og håndhæve kapitel V under hensyntagen
til de proceduremæssige garantier i henhold til artikel 94. Kommissionen overdrager gennemførelsen af
disse opgaver til AI-kontoret, uden at dette berører Kommissionens organisationsbeføjelser og kompeten-
cefordelingen mellem medlemsstaterne og Unionen på grundlag af traktaterne.
2. Uden at det berører artikel 75, stk. 3, kan markedsovervågningsmyndighederne anmode Kommissionen
om at udøve de beføjelser, der er fastsat i denne afdeling, hvis dette er nødvendigt og forholdsmæssigt for
at bistå med udførelsen af deres opgaver i henhold til denne forordning.
Artikel 89
Overvågningstiltag
1. AI-kontoret kan for at kunne udføre de opgaver, der tildeles det i henhold til denne afdeling, foretage
de nødvendige tiltag for at overvåge, at udbydere af AI-modeller til almen brug gennemfører og overhol-
der denne forordning effektivt, herunder overholder godkendte praksiskodekser.
2. Downstreamudbydere har ret til at indgive en klage over en overtrædelse af denne forordning. En klage
skal være behørigt begrundet og som minimum indeholde:
a) kontaktpunktet for udbyderen af den pågældende AI-model til almen brug
b) en beskrivelse af de relevante kendsgerninger, de pågældende bestemmelser i denne forordning og
årsagen til, at downstreamudbyderen mener, at udbyderen af den pågældende AI-model til almen brug har
overtrådt denne forordning
c) alle andre oplysninger, som downstreamudbyderen, som sendte anmodningen, anser for relevante,
herunder i givet fald oplysninger indsamlet på eget initiativ.
Artikel 90
Varslinger om systemiske risici fra det videnskabelige panel
1. Det videnskabelige panel kan sende en kvalificeret varsling til AI-kontoret, hvis det har begrundet
mistanke om, at:
a) en AI-model til almen brug udgør en konkret identificerbar risiko på EU-plan, eller
b) en AI-model til almen brug opfylder betingelserne omhandlet i artikel 51.
2. Efter en sådan kvalificeret varsling kan Kommissionen gennem AI-kontoret og efter at have underrettet
AI-udvalget udøve de beføjelser, der er fastsat i denne afdeling, med henblik på at vurdere sagen. AI-kon-
toret underretter AI-udvalget om enhver foranstaltning i henhold til artikel 91-94.
3. En kvalificeret varsling skal være behørigt begrundet og som minimum indeholde:
a) kontaktpunktet for udbyderen af den pågældende AI-model til almen brug med systemisk risiko
b) en beskrivelse af de relevante kendsgerninger og årsager til varslingen fra det videnskabelige panel
c) alle andre oplysninger, som det videnskabelige panel anser for relevante, herunder i givet fald oplys-
ninger indsamlet på eget initiativ.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0140.png
140
Artikel 91
Beføjelse til at anmode om dokumentation og oplysninger
1. Kommissionen kan anmode udbyderen af den pågældende AI-model til almen brug om at stille den
dokumentation til rådighed, som udbyderen har udarbejdet i overensstemmelse med artikel 53 og 55, eller
eventuelle yderligere oplysninger, som er nødvendige for at vurdere, om udbyderen overholder denne
forordning.
2. Inden anmodningen om oplysninger sendes, kan AI-kontoret indlede en struktureret dialog med udby-
deren af AI-modellen til almen brug.
3. Efter en behørigt begrundet anmodning fra det videnskabelige panel kan Kommissionen fremsætte en
anmodning om oplysninger til en udbyder af en AI-model til almen brug, hvis adgangen til oplysninger er
nødvendig og forholdsmæssig for udførelsen af det videnskabelige panels opgaver i henhold til artikel 68,
stk. 2.
4. Anmodningen om oplysninger skal angive retsgrundlaget og formålet med anmodningen, præcisere,
hvilke oplysninger der anmodes om, fastsætte tidsfristen, inden for hvilken oplysningerne skal frem-
lægges, og angive de bøder, der er fastsat i artikel 101, for at afgive ukorrekte, ufuldstændige eller
vildledende oplysninger.
5. Udbyderen af den pågældende AI-model til almen brug eller dennes repræsentant skal afgive de
oplysninger, der anmodes om. Såfremt det drejer sig om juridiske personer, selskaber eller firmaer,
eller hvis udbyderen ikke har status som juridisk person, skal de personer, som ved lov eller ifølge
deres vedtægter har beføjelse til at repræsentere dem, afgive de oplysninger, der anmodes om på vegne
af udbyderen af den pågældende AI-model til almen brug. Behørigt befuldmægtigede advokater kan
afgive oplysninger på deres klienters vegne. Klienterne bærer dog det fulde ansvar, såfremt de afgivne
oplysninger er ufuldstændige, ukorrekte eller vildledende.
Artikel 92
Beføjelse til at foretage evalueringer
1. AI-kontoret kan efter høring af AI-udvalget foretage evalueringer af den pågældende AI-model til
almen brug:
a) med henblik på at vurdere, om udbyderen overholder forpligtelserne i henhold til denne forordning,
hvis de indsamlede oplysninger i henhold til artikel 91 er utilstrækkelige, eller
b) med henblik på at undersøge systemiske risici på EU-plan for AI-modeller til almen brug med
systemisk risiko, navnlig efter en kvalificeret varsling fra det videnskabelige panel i overensstemmelse
med artikel 90, stk. 1, litra a).
2. Kommissionen kan beslutte at udpege uafhængige eksperter til at foretage evalueringer på dens vegne,
herunder fra det videnskabelige panel, der er oprettet i henhold til artikel 68. Uafhængige eksperter, der
udpeges til denne opgave, skal opfylde kriterierne anført i artikel 68, stk. 2.
3. Med henblik på stk. 1 kan Kommissionen anmode om adgang til den pågældende AI-model til almen
brug via API�½er eller andre hensigtsmæssige tekniske midler og værktøjer, herunder kildekode.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0141.png
141
4. Anmodningen om adgang skal angive retsgrundlaget, formålet med og begrundelsen for anmodningen
og fastsætte tidsfristen, inden for hvilken der skal gives adgang, samt bøder, der er fastsat i artikel 101,
ved manglende adgang.
5. Udbydere af den pågældende AI-model til almen brug eller dennes repræsentant skal afgive de
oplysninger, der anmodes om. Såfremt det drejer sig om juridiske personer, selskaber eller firmaer, eller
hvis udbyderen ikke har status som juridisk person, skal de personer, som ved lov eller ifølge deres
vedtægter har beføjelse til at repræsentere dem, give den adgang, der anmodes om på vegne af udbyderen
af den pågældende AI-model til almen brug.
6. Kommissionen vedtager gennemførelsesretsakter, der fastsætter de nærmere ordninger og bestemmel-
ser og betingelser for evalueringerne, herunder de nærmere ordninger for inddragelse af uafhængige
eksperter, og proceduren for udvælgelse heraf. Disse gennemførelsesretsakter vedtages efter undersøgel-
sesproceduren, jf. artikel 98, stk. 2.
7. Inden der anmodes om adgang til den pågældende AI-model til almen brug, kan AI-kontoret indlede
en struktureret dialog med udbyderen af AI-modellen til almen brug for at indsamle flere oplysninger
om den interne afprøvning af modellen, interne sikkerhedsforanstaltninger til forebyggelse af systemiske
risici og andre interne procedurer og foranstaltninger, som udbyderen har truffet for at afbøde sådanne
risici.
Artikel 93
Beføjelse til at anmode om foranstaltninger
1. Hvis det er nødvendigt og hensigtsmæssigt, kan Kommissionen anmode udbyderne om at:
a) træffe passende foranstaltninger til at overholde forpligtelserne i artikel 53 og 54
b) gennemføre afbødende foranstaltninger, hvis den evaluering, der foretages i overensstemmelse med
artikel 92, har givet anledning til alvorlig og begrundet mistanke om en systemisk risiko på EU-plan
c) begrænse tilgængeliggørelsen på markedet, tilbagetrække eller tilbagekalde modellen.
2. Inden der anmodes om foranstaltninger, kan AI-kontoret indlede en struktureret dialog med udbyderen
af AI-modellen til almen brug.
3. Hvis udbyderen af AI-modellen til almen brug med systemisk risiko under den strukturerede dialog,
der er omhandlet i stk. 2, afgiver tilsagn om at gennemføre afbødende foranstaltninger for at afhjælpe en
systemisk risiko på EU-plan, kan Kommissionen ved en afgørelse gøre disse tilsagn bindende og erklære,
at der ikke er yderligere grundlag for handling.
Artikel 94
Erhvervsdrivendes procedurerettigheder i forbindelse med AI-modellen til almen brug
Artikel 18 i forordning (EU) 2019/1020 finder tilsvarende anvendelse på udbydere af AI-modellen til
almen brug, uden at dette berører de mere specifikke procedurerettigheder, som er fastsat i nærværende
forordning.
KAPITEL X
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0142.png
142
ADFÆRDSKODEKSER OG RETNINGSLINJER
Artikel 95
Adfærdskodekser for frivillig anvendelse af specifikke krav
1. AI-kontoret og medlemsstaterne tilskynder til og letter udarbejdelsen af adfærdskodekser, herunder
tilhørende forvaltningsmekanismer, der har til formål at fremme frivillig anvendelse af visse af eller
alle de i kapitel III, afdeling 2, fastsatte krav på AI-systemer, der ikke er højrisiko-AI-systemer, under
hensyntagen til de tilgængelige tekniske løsninger og industriens bedste praksis, der gør det muligt at
anvende sådanne krav.
2. AI-kontoret og medlemsstaterne letter udarbejdelsen af adfærdskodekser vedrørende frivillig anvendel-
se, herunder fra idriftsætternes side, af specifikke krav til alle AI-systemer på grundlag af klare mål og
centrale resultatindikatorer til måling af realiseringen af disse mål, herunder elementer såsom, men ikke
begrænset til:
a) relevante elementer fastsat i Unionens etiske retningslinjer for troværdig AI
b) vurdering og minimering af AI-systemers indvirkning på miljømæssig bæredygtighed, herunder med
hensyn til energieffektiv programmering og teknikker til effektiv udformning, træning og anvendelse af
AI
c) fremme af AI-færdigheder, navnlig hos personer, der beskæftiger sig med udvikling, drift og anvendel-
se af AI
d) fremme af en inklusiv og mangfoldig udformning af AI-systemer, herunder gennem oprettelse af
inklusive og mangfoldige udviklingsteams og fremme af interessenters inddragelse i denne proces
e) vurdering og forebyggelse af, at AI-systemer har negativ indvirkning på sårbare personer eller grupper
af sårbare personer, herunder for så vidt angår tilgængelighed for personer med handicap, samt på
ligestilling mellem kønnene.
3. Adfærdskodekser kan udarbejdes af individuelle udbydere eller idriftsættere af AI-systemer, af organi-
sationer, der repræsenterer dem, eller af begge, herunder med inddragelse af eventuelle interesserede
parter og deres repræsentative organisationer, herunder civilsamfundsorganisationer og den akademiske
verden. Adfærdskodekser kan omfatte et eller flere AI-systemer under hensyntagen til ligheden mellem
de relevante systemers tilsigtede formål.
4. Når AI-kontoret og medlemsstaterne tilskynder til og letter udarbejdelsen af adfærdskodekser, tager de
hensyn til SMV�½ers, herunder iværksættervirksomheders, særlige interesser og behov.
Artikel 96
Retningslinjer fra Kommissionen om gennemførelsen af denne forordning
1. Kommissionen udarbejder retningslinjer for den praktiske gennemførelse af denne forordning, navnlig
for:
a) anvendelsen af de krav og forpligtelser, der er omhandlet i artikel 8-15 og artikel 25
b) de forbudte former for praksis, der er omhandlet i artikel 5
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0143.png
143
c) den praktiske gennemførelse af bestemmelserne om væsentlig ændring
d) den praktiske gennemførelse af gennemsigtighedsforpligtelserne i artikel 50
e) detaljerede oplysninger om forholdet mellem denne forordning og EU-harmoniseringslovgivningen,
der er opført i bilag I, samt anden relevant EU-ret, herunder for så vidt angår konsekvens i håndhævelsen
deraf
f) anvendelsen af definitionen af et AI-system som fastsat i artikel 3, nr. 1).
Når Kommissionen udsteder sådanne retningslinjer, skal den være særlig opmærksom på behovene hos
SMV�½er, herunder iværksættervirksomheder, hos lokale offentlige myndigheder og i sektorer, der med
størst sandsynlighed vil blive berørt af denne forordning.
Der skal med de retningslinjer, der er omhandlet i dette stykkes første afsnit, tages behørigt hensyn til det
generelt anerkendte aktuelle teknologiske niveau inden for AI samt til relevante harmoniserede standarder
og fælles specifikationer, der er omhandlet i artikel 40 og 41, eller til de harmoniserede standarder eller
tekniske specifikationer, der er fastsat i henhold til EU-harmoniseringsretten.
2. På anmodning af medlemsstaterne eller AI-kontoret eller på eget initiativ ajourfører Kommissionen
tidligere vedtagne retningslinjer, når det skønnes nødvendigt.
KAPITEL XI
DELEGATION AF BEFØJELSER OG UDVALGSPROCEDURE
Artikel 97
Udøvelse af de delegerede beføjelser
1. Beføjelsen til at vedtage delegerede retsakter tillægges Kommissionen på de i denne artikel fastlagte
betingelser.
2. Beføjelsen til at vedtage delegerede retsakter, jf. artikel 6, stk. 6 og 7, artikel 7, stk. 1 og 3, artikel 11,
stk. 3, artikel 43, stk. 5 og 6, artikel 47, stk. 5, artikel 51, stk. 3, artikel 52, stk. 4, og artikel 53, stk. 5 og
6, tillægges Kommissionen for en periode på fem år fra den 1. august 2024. Kommissionen udarbejder en
rapport vedrørende delegationen af beføjelser senest ni måneder inden udløbet af femårsperioden. Delega-
tionen af beføjelser forlænges stiltiende for perioder af samme varighed, medmindre Europa-Parlamentet
eller Rådet modsætter sig en sådan forlængelse senest tre måneder inden udløbet af hver periode.
3. Den i artikel 6, stk. 6 og 7, artikel 7, stk. 1 og 3, artikel 11, stk. 3, artikel 43, stk. 5 og 6, artikel 47, stk.
5, artikel 51, stk. 3, artikel 52, stk. 4, og artikel 53, stk. 5 og 6, omhandlede delegation af beføjelser kan
til enhver tid tilbagekaldes af Europa-Parlamentet eller Rådet. En afgørelse om tilbagekaldelse bringer
delegationen af de beføjelser, der er angivet i den pågældende afgørelse, til ophør. Den får virkning dagen
efter offentliggørelsen af afgørelsen i Den Europæiske Unions Tidende eller på et senere tidspunkt, der
angives i afgørelsen. Den berører ikke gyldigheden af delegerede retsakter, der allerede er i kraft.
4. Inden vedtagelsen af en delegeret retsakt hører Kommissionen eksperter, som er udpeget af hver enkelt
medlemsstat, i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om
bedre lovgivning.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0144.png
144
5. Så snart Kommissionen vedtager en delegeret retsakt, giver den samtidigt Europa-Parlamentet og Rådet
meddelelse herom.
6. Enhver delegeret retsakt vedtaget i henhold til artikel 6, stk. 6 eller 7, artikel 7, stk. 1 eller 3, artikel
11, stk. 3, artikel 43, stk. 5 eller 6, artikel 47, stk. 5, artikel 51, stk. 3, artikel 52, stk. 4, eller artikel 53,
stk. 5 eller 6, træder kun i kraft, hvis hverken Europa-Parlamentet eller Rådet har gjort indsigelse inden
for en frist på tre måneder fra meddelelsen af den pågældende retsakt til Europa-Parlamentet og Rådet,
eller hvis Europa-Parlamentet og Rådet inden udløbet af denne frist begge har underrettet Kommissionen
om, at de ikke agter at gøre indsigelse. Fristen forlænges med tre måneder på Europa-Parlamentets eller
Rådets initiativ.
Artikel 98
Udvalgsprocedure
1. Kommissionen bistås af et udvalg. Dette udvalg er et udvalg som omhandlet i forordning (EU) nr.
182/2011.
2. Når der henvises til dette stykke, finder artikel 5 i forordning (EU) nr. 182/2011 anvendelse.
KAPITEL XII
SANKTIONER
Artikel 99
Sanktioner
1. I overensstemmelse med de vilkår og betingelser, der er fastsat i denne forordning, fastsætter medlems-
staterne regler om sanktioner og andre håndhævelsesforanstaltninger, som også kan omfatte advarsler
og ikkeøkonomiske foranstaltninger, for operatørers overtrædelse af denne forordning og træffer alle
nødvendige foranstaltninger for at sikre, at de gennemføres korrekt og effektivt, og dermed tage hensyn
til de retningslinjer, som Kommissionen har udstedt i henhold til artikel 96. Sanktionerne skal være
effektive, stå i et rimeligt forhold til overtrædelsen og have afskrækkende virkning. Der tages hensyn til
SMV�½ers, herunder iværksættervirksomheders, interesser og deres økonomiske levedygtighed.
2. Medlemsstaterne giver straks og senest på anvendelsesdatoen Kommissionen meddelelse om reglerne
om sanktioner og andre håndhævelsesforanstaltninger, der er omhandlet i stk. 1, og meddeler den straks
enhver efterfølgende ændring heraf.
3. Manglende overholdelse af forbud mod de i artikel 5 anførte former for AI-praksis straffes med
administrative bøder på op til 35 000 000 EUR eller, hvis lovovertræderen er en virksomhed, op til 7 % af
dens samlede globale årlige omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst.
4. Manglende overholdelse af en af følgende bestemmelser vedrørende operatører eller bemyndigede
organer, bortset fra de bestemmelser, der er fastsat i artikel 5, straffes med administrative bøder på op til
15 000 000 EUR eller, hvis lovovertræderen er en virksomhed, op til 3 % af dens samlede globale årlige
omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst:
a) forpligtelser for udbydere i henhold til artikel 16
b) forpligtelser for bemyndigede repræsentanter i henhold til artikel 22
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0145.png
145
c) forpligtelser for importører i henhold til artikel 23
d) forpligtelser for distributører i henhold til artikel 24
e) forpligtelser for idriftsættere i henhold til artikel 26
f) krav til og forpligtelser for bemyndigede organer i henhold til artikel 31, artikel 33, stk. 1, 3 og 4, eller
artikel 34
g) gennemsigtighedsforpligtelser for udbydere og idriftsættere i henhold til artikel 50.
5. Afgivelse af ukorrekte, ufuldstændige eller vildledende oplysninger til bemyndigede organer eller
nationale kompetente myndigheder som svar på en anmodning straffes med administrative bøder på op til
7 500 000 EUR eller, hvis lovovertræderen er en virksomhed, op til 1 % af dens samlede globale årlige
omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst.
6. For SMV�½er, herunder iværksættervirksomheder, skal hver bøde, der er omhandlet i denne artikel, være
op til den procentsats eller det beløb, der er omhandlet i stk. 3, 4 og 5, alt efter hvilken af dem der er
lavest.
7. Når der træffes afgørelse om, hvorvidt der skal pålægges en administrativ bøde, og ved fastsættelsen
af den administrative bødes størrelse tages der i hvert enkelt tilfælde hensyn til alle relevante omstændig-
heder i den specifikke situation, og der tages i relevant omfang hensyn til følgende:
a) overtrædelsens art, grovhed og varighed samt dens konsekvenser under hensyntagen til formålet med
AI-systemet samt, hvis det er relevant, antallet af berørte personer og omfanget af den skade, de har lidt
b) hvorvidt andre markedsovervågningsmyndigheder allerede har pålagt den samme operatør administra-
tive bøder for samme overtrædelse
c) hvorvidt andre myndigheder allerede har pålagt den samme operatør administrative bøder for overtræ-
delser af anden EU-ret eller national ret, når sådanne overtrædelser skyldes den samme aktivitet eller
undladelse, der udgør en relevant overtrædelse af denne forordning
d) størrelsen på den operatør, der har begået overtrædelsen, og dennes årlige omsætning og markedsandel
e) om der er andre skærpende eller formildende faktorer ved sagens omstændigheder såsom opnåede
økonomiske fordele eller undgåede tab som direkte eller indirekte følge af overtrædelsen
f) graden af samarbejde med de nationale kompetente myndigheder for at afhjælpe overtrædelsen og
begrænse de negative konsekvenser, som overtrædelsen måtte have givet anledning til
g) graden af ansvar hos operatøren under hensyntagen til de tekniske og organisatoriske foranstaltninger,
som vedkommende har gennemført
h) den måde, hvorpå de nationale kompetente myndigheder fik kendskab til overtrædelsen, navnlig om
operatøren har underrettet om overtrædelsen, og i givet fald i hvilket omfang
i) hvorvidt overtrædelsen blev begået forsætligt eller uagtsomt
j) ethvert tiltag fra operatørens side for at afbøde skaden på de pågældende personer.
8. Hver medlemsstat fastsætter regler om, i hvilket omfang administrative bøder kan pålægges offentlige
myndigheder og organer, der er etableret i den pågældende medlemsstat.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0146.png
146
9. Afhængigt af medlemsstaternes retssystem kan reglerne om administrative bøder anvendes på en sådan
måde, at bøderne pålægges af kompetente nationale domstole eller af andre organer, alt efter hvad der er
relevant i disse medlemsstater. Anvendelsen af disse regler i disse medlemsstater har tilsvarende virkning.
10. Udøvelse af beføjelser i henhold til denne artikel skal være underlagt fornødne proceduremæssige sik-
kerhedsforanstaltninger i overensstemmelse med EU-retten og national ret, herunder effektive retsmidler
og retfærdig procedure.
11. Medlemsstaterne aflægger årligt rapport til Kommissionen om de administrative bøder, de har udstedt
i løbet af det pågældende år, i overensstemmelse med denne artikel, og om eventuelle dermed forbundne
tvister eller retssager.
Artikel 100
Administrative bøder til EU-institutioner, -organer, -kontorer og -agenturer
1. Den Europæiske Tilsynsførende for Databeskyttelse kan pålægge de EU-institutioner, -organer, -konto-
rer og -agenturer, der er omfattet af denne forordnings anvendelsesområde, administrative bøder. Når
der træffes afgørelse om, hvorvidt der skal pålægges en administrativ bøde, og ved fastsættelsen af den
administrative bødes størrelse tages der i hvert enkelt tilfælde hensyn til alle relevante omstændigheder i
den specifikke situation, og der tages behørigt hensyn til følgende:
a) overtrædelsens art, grovhed og varighed samt dens konsekvenser, under hensyntagen til formålet med
det pågældende AI-system, samt, hvis det er relevant, antallet af berørte personer og omfanget af den
skade, de har lidt
b) graden af ansvar hos EU-institutionen, -organet, -kontoret eller -agenturet under hensyntagen til de
tekniske og organisatoriske foranstaltninger, som de har gennemført
c) ethvert tiltag, der foretages af EU-institutionen, -organet, -kontoret eller -agenturet for at afhjælpe den
skade, som de berørte personer har lidt
d) graden af samarbejde med Den Europæiske Tilsynsførende for Databeskyttelse med henblik på at
afhjælpe overtrædelsen og afbøde de mulige negative virkninger af overtrædelsen, herunder overholdelse
af enhver af de foranstaltninger, som Den Europæiske Tilsynsførende for Databeskyttelse tidligere har
pålagt den pågældende EU-institution eller det pågældende EU-organ, -kontor eller -agentur med hensyn
til samme genstand
e) eventuelle lignende overtrædelser, som den pågældende EU-institution eller det pågældende EU-organ,
EU-kontor eller EU-agentur tidligere har begået
f) den måde, hvorpå Den Europæiske Tilsynsførende for Databeskyttelse fik kendskab til overtrædelsen,
navnlig om den pågældende EU-institution eller det pågældende EU-organ, -kontor eller -agentur gav
underretning om overtrædelsen, og i givet fald i hvilket omfang
g) EU-institutionens, -organets, -kontorets eller -agenturets årlige budget.
2. Manglende overholdelse af forbuddet mod de i artikel 5 anførte former for AI-praksis straffes med
administrative bøder på op til 1 500 000 EUR.
3. AI-systemets manglende overholdelse af ethvert krav eller enhver forpligtelse i henhold til denne
forordning, bortset fra kravene i artikel 5, straffes med administrative bøder på op til 750 000 EUR.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0147.png
147
4. Inden der træffes afgørelse i henhold til denne artikel, giver Den Europæiske Tilsynsførende for
Databeskyttelse den pågældende EU-institution eller det pågældende EU-organ, -kontor eller -agentur, der
er genstand for de procedurer, som gennemføres af Den Europæiske Tilsynsførende for Databeskyttelse,
mulighed for at blive hørt om genstanden for den mulige overtrædelse. Den Europæiske Tilsynsførende
for Databeskyttelse baserer udelukkende sine afgørelser på elementer og forhold, som de berørte parter
har haft mulighed for at fremsætte bemærkninger til. Eventuelle klagere inddrages i vid udstrækning i
proceduren.
5. De deltagende parters ret til forsvar skal sikres fuldt ud i procedureforløbet. De har ret til aktindsigt i
Den Europæiske Tilsynsførende for Databeskyttelses sagsakter med forbehold af fysiske personers eller
virksomheders berettigede interesse i at beskytte deres personoplysninger eller forretningshemmeligheder.
6. Midler, der er indsamlet ved pålæg af bøder i henhold til denne artikel, bidrager til Unionens almindeli-
ge budget. Bøderne berører ikke den effektive funktion af den EU-institution eller det EU-organ, -kontor
eller -agentur, der er blevet pålagt bøden.
7. Den Europæiske Tilsynsførende for Databeskyttelse underretter hvert år Kommissionen om de admini-
strative bøder, den har pålagt i henhold til denne artikel, og om eventuelle tvister eller retssager, den har
indledt.
Artikel 101
Bøder til udbydere af AI-modeller til almen brug
1. Kommissionen kan pålægge udbydere af AI-modeller til almen brug bøder på op til 3 % af deres årlige
samlede globale omsætning i det foregående regnskabsår eller 15 000 000 EUR, alt efter hvilket beløb der
er størst, når Kommissionen finder, at udbyderen forsætligt eller uagtsomt:
a) har overtrådt de relevante bestemmelser i denne forordning
b) har undladt at efterkomme en anmodning om et dokument eller om oplysninger i henhold til artikel 91
eller har afgivet ukorrekte, ufuldstændige eller vildledende oplysninger
c) har undladt at efterkomme en foranstaltning, der er anmodet om i henhold til artikel 93
d) har undladt at give Kommissionen adgang til AI-modellen til almen brug eller AI-modellen til almen
brug med systemisk risiko med henblik på at foretage en evaluering i henhold til artikel 92.
Ved fastsættelse af bødens eller tvangsbødens størrelse tages overtrædelsens karakter, alvor og varighed
i betragtning under behørig hensyntagen til proportionalitets- og rimelighedsprincippet. Kommissionen
tager også hensyn til forpligtelser, der er indgået i overensstemmelse med artikel 93, stk. 3, eller i de
relevante praksiskodekser i overensstemmelse med artikel 56.
2. Inden Kommissionen vedtager afgørelsen i henhold til stk. 1, meddeler den sine foreløbige resultater til
udbyderen af AI-modellen til almen brug og giver vedkommende mulighed for at blive hørt.
3. Bøder, der pålægges i overensstemmelse med denne artikel, skal være effektive, stå i et rimeligt forhold
til overtrædelsen og have afskrækkende virkning.
4. Information om de bøder, der pålægges i henhold til denne artikel, meddeles også AI-udvalget, alt efter
hvad der er relevant.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0148.png
148
5. EU-Domstolen har fuld prøvelsesret med hensyn til Kommissionens afgørelser om fastsættelse af
bøder i henhold til denne artikel. Den kan annullere, nedsætte eller forhøje den pålagte bøde.
6. Kommissionen vedtager gennemførelsesretsakter med de nærmere ordninger og proceduremæssige
sikkerhedsforanstaltninger for procedurerne med henblik på eventuel vedtagelse af afgørelser i henhold
til denne artikels stk. 1. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel
98, stk. 2.
KAPITEL XIII
AFSLUTTENDE BESTEMMELSER
Artikel 102
Ændring af forordning (EF) nr. 300/2008
I artikel 4, stk. 3, i forordning (EF) nr. 300/2008, tilføjes følgende afsnit:
»Når der vedtages detaljerede foranstaltninger vedrørende tekniske specifikationer og procedurer for
godkendelse og brug af sikkerhedsudstyr vedrørende kunstig intelligens-systemer som omhandlet i Euro-
pa-Parlamentets og Rådets forordning (EU) 2024/1689 (*), skal der tages hensyn til kravene i nævnte
forordnings kapital III, afdeling 2.
------------------------
(*) Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler
for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr.
168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797
og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://
data.europa.eu/eli/reg/2024/1689/oj).«
Artikel 103
Ændring af forordning (EU) nr. 167/2013
I artikel 17, stk. 5, i forordning (EU) nr. 167/2013 tilføjes følgende afsnit:
»Når der i henhold til første afsnit vedtages delegerede retsakter vedrørende kunstig intelligens-syste-
mer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU)
2024/1689 (*), skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
------------------------
(*)
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler
for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr.
168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797
og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://
data.europa.eu/eli/reg/2024/1689/oj).«
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0149.png
149
Artikel 104
Ændring af forordning (EU) nr. 168/2013
I artikel 22, stk. 5, i forordning (EU) nr. 168/2013 tilføjes følgende afsnit:
»Når der i henhold til første afsnit vedtages delegerede retsakter vedrørende kunstig intelligens-syste-
mer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU)
2024/1689 (*), skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
------------------------
(*)
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler
for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr.
168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797
og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://
data.europa.eu/eli/reg/2024/1689/oj).«
Artikel 105
Ændring af direktiv 2014/90/EU
I artikel 8 i direktiv 2014/90/EU tilføjes følgende stykke:
»5. For så vidt angår kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*), tager Kommissionen, når den udfører
sine aktiviteter i henhold til stk. 1, og når den vedtager tekniske specifikationer og afprøvningsstandarder
i overensstemmelse med stk. 2 og 3, hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
------------------------
(*)
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler
for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr.
168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797
og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://
data.europa.eu/eli/reg/2024/1689/oj).«
Artikel 106
Ændring af direktiv (EU) 2016/797
I artikel 5 i direktiv (EU) 2016/797 tilføjes følgende stykke:
»12. Når der i henhold til stk. 1 vedtages delegerede retsakter eller i henhold til stk. 11 vedtages
gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som
omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*), skal der tages hensyn til
kravene i nævnte forordnings kapitel III, afdeling 2.
------------------------
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0150.png
150
(*)
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler
for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr.
168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797
og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://
data.europa.eu/eli/reg/2024/1689/oj).«
Artikel 107
Ændring af forordning (EU) 2018/858
I artikel 5 i forordning (EU) 2018/858 tilføjes følgende stykke:
»4. Når der i henhold til stk. 3 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som
er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689
(*), skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
------------------------
(*)
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler
for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr.
168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797
og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://
data.europa.eu/eli/reg/2024/1689/oj).«
Artikel 108
Ændring af forordning (EU) 2018/1139
I forordning (EU) 2018/1139 foretages følgende ændringer:
1) I artikel 17 tilføjes følgende stykke:
»3. Uden at det berører stk. 2, når der i henhold til stk. 1 vedtages gennemførelsesretsakter vedrørende
kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og
Rådets forordning (EU) 2024/1689 (*), skal der tages hensyn til kravene i nævnte forordnings kapitel III,
afdeling 2.
------------------------
(*)
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler
for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr.
168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797
og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://
data.europa. eu/eli/reg/2024/1689/oj).«
2) I artikel 19 tilføjes følgende stykke:
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0151.png
151
»4. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer,
som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til
kravene i nævnte forordnings kapitel III, afdeling 2.«
3) I artikel 43 tilføjes følgende stykke:
»4. Når der i henhold til stk. 1 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-systemer,
som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til
kravene i nævnte forordnings kapitel III, afdeling 2.«
4) I artikel 47 tilføjes følgende stykke:
»3. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer,
som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til
kravene i nævnte forordnings kapitel III, afdeling 2.«
5) I artikel 57 tilføjes følgende afsnit:
»Når der vedtages sådanne gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er
sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i
nævnte forordnings kapitel III, afdeling 2.«
6) I artikel 58 tilføjes følgende stykke:
»3. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer,
som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til
kravene i nævnte forordnings kapitel III, afdeling 2.«
Artikel 109
Ændring af forordning (EU) 2019/2144
I artikel 11 i forordning (EU) 2019/2144 tilføjes følgende stykke:
»3. Når der i henhold til stk. 2 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-syste-
mer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU)
2024/1689 (*), skal der tages hensyn til kravene i nævnte forordning kapitel III, afdeling 2.
------------------------
(*)
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler
for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr.
168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797
og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://
data.europa.eu/eli/reg/2024/1689/oj).«
Artikel 110
Ændring af direktiv (EU) 2020/1828
I bilag I til Europa-Parlamentets og Rådets direktiv (EU) 2020/1828 (
58
) tilføjes følgende punkt:
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0152.png
152
»68) Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede
regler for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU)
nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU)
2016/797 og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI:
http://data.europa.eu/eli/reg/2024/1689/oj).«
Artikel 111
AI-systemer, der allerede er bragt i omsætning eller ibrugtaget, og AI-modeller til almen brug, der
allerede er bragt i omsætning
1. Uden at det berører anvendelsen af artikel 5 som omhandlet i artikel 113, stk. 3, litra a), skal AI-syste-
mer, som er komponenter i de store IT-systemer, der er oprettet ved de retsakter, der er opført i bilag X,
og som er blevet bragt i omsætning eller ibrugtaget inden den 2. august 2027, bringes i overensstemmelse
med denne forordning senest den 31. december 2030.
De krav, der er fastsat i denne forordning, skal tages i betragtning ved den evaluering, som skal foretages
i henhold til de retsakter, der er opført i bilag X, af hvert af de store IT-systemer, der er oprettet ved disse
retsakter, og hvis disse retsakter erstattes eller ændres.
2. Uden at det berører anvendelsen af artikel 5 som omhandlet i artikel 113, stk. 3, litra a), finder
denne forordning kun anvendelse på operatører af andre højrisiko-AI-systemer end de systemer, der er
omhandlet i nærværende artikels stk. 1, og som er bragt i omsætning eller ibrugtaget inden den 2. august
2026, hvis disse systemer fra denne dato er genstand for betydelige ændringer af deres udformning. I
alle tilfælde skal udbydere og idriftsættere af højrisiko-AI-systemer, der tilsigtes anvendt af offentlige
myndigheder, tage de nødvendige skridt til at overholde kravene og forpligtelserne i denne forordning
senest den 2. august 2030.
3. Udbydere af AI-modeller til almen brug, der er bragt i omsætning før den 2. august 2025, tager de
nødvendige skridt til at overholde de forpligtelser, der er fastsat i denne forordning, senest den 2. august
2027.
Artikel 112
Evaluering og revision
1. Kommissionen vurderer behovet for at ændre listen i bilag III og listen over forbudte former for
AI-praksis i artikel 5 én gang om året efter denne forordnings ikrafttræden og indtil slutningen af
perioden med delegation af beføjelser, der er fastsat i artikel 97. Kommissionen forelægger resultaterne af
denne vurdering for Europa-Parlamentet og Rådet.
2. Senest den 2. august 2028 og hvert fjerde år derefter evaluerer Kommissionen og aflægger rapport til
Europa-Parlamentet og Rådet om følgende:
a) behovet for ændringer om udvidelse af eksisterende områdeoverskrifter eller tilføjelse af nye områdeo-
verskrifter i bilag III
b) ændringer af listen over de AI-systemer, der kræver yderligere gennemsigtighedsforanstaltninger i
henhold til artikel 50
c) ændringer om styrkelse af effektiviteten af tilsyns- og forvaltningssystemet.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0153.png
153
3. Senest den 2. august 2029 og hvert fjerde år derefter forelægger Kommissionen Europa-Parlamentet og
Rådet en rapport om evaluering og revision af denne forordning. Rapporten skal indeholde en vurdering
af håndhævelsesstrukturen og det eventuelle behov for, at et EU-agentur løser eventuelle konstaterede
mangler. På grundlag af resultaterne ledsages rapporten i givet fald af et forslag til ændring af denne
forordning. Rapporterne offentliggøres.
4. I de i stk. 2 omhandlede rapporter lægges der særlig vægt på følgende:
a) status over de nationale kompetente myndigheders finansielle, tekniske og menneskelige ressourcer
med henblik på effektivt at udføre de opgaver, de pålægges i henhold til denne forordning
b) status over de sanktioner, navnlig de administrative bøder, der er omhandlet i artikel 99, stk. 1, som
medlemsstaterne har pålagt som følge af overtrædelser af denne forordning
c) vedtagne harmoniserede standarder og fælles specifikationer, der er udarbejdet til støtte for denne
forordning
d) antallet af virksomheder, der kommer ind på markedet efter anvendelsen af denne forordning, og hvor
mange af dem der er SMV�½er.
5. Senest den 2. august 2028 evaluerer Kommissionen AI-kontorets funktion, og om det har fået tilstræk-
kelige beføjelser og kompetencer til at udføre sine opgaver, samt om det vil være relevant og nødvendigt
for en korrekt gennemførelse og håndhævelse af denne forordning at opgradere AI-Kontoret og dets
håndhævelsesbeføjelser og øge dets ressourcer. Kommissionen forelægger en rapport om sin evaluering
for Europa-Parlamentet og Rådet.
6. Senest den 2. august 2028 og hvert fjerde år derefter forelægger Kommissionen en rapport om revisio-
nen af fremskridt med udviklingen af standardiseringsdokumentation om en energieffektiv udvikling af
AI-modeller til almen brug og vurderer behovet for yderligere foranstaltninger eller tiltag, herunder bin-
dende foranstaltninger eller tiltag. Rapporten forelægges Europa-Parlamentet og Rådet og offentliggøres.
7. Senest den 2. august 2028 og hvert tredje år derefter evaluerer Kommissionen virkningen og effekti-
viteten af frivillige adfærdskodekser med henblik på at fremme anvendelsen af kravene i kapitel III,
afdeling 2, på andre AI-systemer end højrisiko-AI-systemer og eventuelt andre yderligere krav til andre
AI-systemer end højrisiko-AI-systemer, herunder vedrørende miljømæssig bæredygtighed.
8. Med henblik på stk. 1-7 indgiver AI-udvalget, medlemsstaterne og de nationale kompetente myndighe-
der oplysninger til Kommissionen på dennes anmodning og uden unødigt ophold.
9. Når Kommissionen foretager de evalueringer og revisioner, der er omhandlet i stk. 1-7, tager den
hensyn til holdninger og resultater fra AI-udvalget, fra Europa-Parlamentet, fra Rådet og fra andre
relevante organer eller kilder.
10. Kommissionen forelægger om nødvendigt relevante forslag til ændring af denne forordning, navnlig
under hensyntagen til den teknologiske udvikling, AI-systemernes indvirkning på sundhed og sikkerhed
og de grundlæggende rettigheder og i lyset af fremskridtene i informationssamfundet.
11. Som grundlag for de evalueringer og revisioner, der er omhandlet i denne artikels stk. 1-7, påtager
AI-kontoret sig at udvikle en objektiv og inddragende metode til evaluering af risikoniveauerne baseret på
de kriterier, der er anført i de relevante artikler, og medtagelse af nye systemer i:
(a) listen i bilag III, herunder udvidelse af eksisterende områdeoverskrifter eller tilføjelse af nye områdeo-
verskrifter i nævnte bilag
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0154.png
154
(b) listen over de forbudte former for praksis, der er omhandlet i artikel 5, og
(c) listen over de AI-systemer, der kræver yderligere gennemsigtighedsforanstaltninger i henhold til
artikel 50.
12. Alle ændringer til denne forordning i medfør af stk. 10 eller relevante delegerede retsakter eller
gennemførelsesretsakter, som vedrører den sektorspecifikke EU-harmoniseringslovgivning, der er opført
i bilag 1, afsnit B, skal tage hensyn til de enkelte sektorers reguleringsmæssige forhold og eksisterende
forvaltning, overensstemmelsesvurdering og håndhævelsesmekanismer og de deri fastsatte myndigheder.
13. Senest den 2. august 2031 foretager Kommissionen en evaluering af håndhævelsen af denne for-
ordning og aflægger rapport herom til Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og
Sociale Udvalg under hensyntagen til denne forordnings første anvendelsesår. På grundlag af resultaterne
ledsages rapporten, hvor det er relevant, af et forslag om ændring af denne forordning med hensyn til
håndhævelsesstrukturen og behovet for, at et EU-agentur løser eventuelle konstaterede mangler.
Artikel 113
Ikrafttræden og anvendelse
Denne forordning træder i kraft på tyvendedagen efter offentliggørelsen i Den Europæiske Unions
Tidende.
Den finder anvendelse fra den 2. august 2026.
Dog finder:
a) kapitel I og II anvendelse fra den 2. februar 2025
b) kapitel III, afdeling 4, kapitel V, VII og XII og artikel 78 anvendelse fra den 2. august 2025, med
undtagelse af artikel 101
c) artikel 6, stk. 1, og de tilsvarende forpligtelser i denne forordning anvendelse fra den 2. august 2027.
Denne forordning er bindende i alle enkeltheder og gælder umiddelbart i hver medlemsstat.
Udfærdiget i Bruxelles, den 13. juni 2024.
På Europa-Parlamentets vegne
Formand
R. METSOLA
På Rådets vegne
Formand
M. MICHEL
(
1
) EUT C 517 af 22.12.2021, s. 56.
(
2
) EUT C 115 af 11.3.2022, s. 5.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0155.png
155
(
3
) EUT C 97 af 28.2.2022, s. 60.
(
4
) Europa-Parlamentets holdning af 13. marts 2024 (endnu ikke offentliggjort i EUT) og Rådets afgørelse
af 21. maj 2024.
(
5
) Det Europæiske Råd, Ekstraordinært møde i Det Europæiske Råd (1. og 2. oktober 2020) – Konklusio-
ner, EUCO 13/20, 2020, s. 6.
(
6
) Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en ramme
for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier, 2020/2012(INL).
(
7
) Europa-Parlamentets og Rådets forordning (EF) nr. 765/2008 af 9. juli 2008 om kravene til akkredite-
ring og om ophævelse af forordning (EØF) nr. 339/93 (EUT L 218 af 13.8.2008, s. 30).
(
8
) Europa-Parlamentets og Rådets afgørelse nr. 768/2008/EF af 9. juli 2008 om fælles rammer for
markedsføring af produkter og om ophævelse af Rådets afgørelse 93/465/EØF (EUT L 218 af 13.8.2008,
s. 82).
(
9
) Europa-Parlamentets og Rådets forordning (EU) 2019/1020 af 20. juni 2019 om markedsovervågning
og produktoverensstemmelse og om ændring af direktiv 2004/42/EF og forordning (EF) nr. 765/2008 og
(EU) nr. 305/2011 (EUT L 169 af 25.6.2019, s. 1).
(
10
) Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller
ved lov fastsatte bestemmelser om produktansvar (EFT L 210 af 7.8.1985, s. 29).
(
11
) Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske
personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger
og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (EUT L 119 af 4.5.2016,
s. 1).
(
12
) Europa-Parlamentets og Rådets forordning (EU) 2018/1725 af 23. oktober 2018 om beskyttelse af
fysiske personer i forbindelse med behandling af personoplysninger i Unionens institutioner, organer,
kontorer og agenturer og om fri udveksling af sådanne oplysninger og om ophævelse af forordning (EF)
nr. 45/2001 og afgørelse nr. 1247/2002/EF (EUT L 295 af 21.11.2018, s. 39).
(
13
) Europa-Parlamentets og Rådets direktiv (EU) 2016/680 af 27. april 2016 om beskyttelse af fysiske
personer i forbindelse med kompetente myndigheders behandling af personoplysninger med henblik
på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige
sanktioner og om fri udveksling af sådanne oplysninger og om ophævelse af Rådets rammeafgørelse
2008/977/RIA (EUT L 119 af 4.5.2016, s. 89).
(
14
) Europa-Parlamentets og Rådets direktiv 2002/58/EF af 12. juli 2002 om behandling af personoplys-
ninger og beskyttelse af privatlivets fred i den elektroniske kommunikationssektor (direktiv om databe-
skyttelse inden for elektronisk kommunikation) (EFT L 201 af 31.7.2002, s. 37).
(
15
) Europa-Parlamentets og Rådets forordning (EU) 2022/2065 af 19. oktober 2022 om et indre marked
for digitale tjenester og om ændring af direktiv 2000/31/EF (forordning om digitale tjenester) (EUT L 277
af 27.10.2022, s. 1).
(
16
) Europa-Parlamentets og Rådets direktiv (EU) 2019/882 af 17. april 2019 om tilgængelighedskrav for
produkter og tjenester (EUT L 151 af 7.6.2019, s. 70).
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0156.png
156
(
17
) Europa-Parlamentets og Rådets direktiv 2005/29/EF af 11. maj 2005 om virksomheders urimelige
handelspraksis over for forbrugerne på det indre marked og om ændring af Rådets direktiv 84/450/EØF
og Europa-Parlamentets og Rådets direktiv 97/7/EF, 98/27/EF og 2002/65/EF og Europa-Parlamentets og
Rådets forordning (EF) nr. 2006/2004 (direktivet om urimelig handelspraksis) (EUT L 149 af 11.6.2005,
s. 22).
(
18
) Rådets rammeafgørelse 2002/584/RIA af 13. juni 2002 om den europæiske arrestordre og om proce-
durerne for overgivelse mellem medlemsstaterne (EFT L 190 af 18.7.2002, s. 1).
(
19
) Europa-Parlamentets og Rådets direktiv (EU) 2022/2557 af 14. december 2022 om kritiske enheders
modstandsdygtighed og om ophævelse af Rådets direktiv 2008/114/EF (EUT L 333 af 27.12.2022,
s. 164).
(
20
) EUT C 247 af 29.6.2022, s. 1.
(
21
) Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om medicinsk udstyr, om
ændring af direktiv 2001/83/EF, forordning (EF) nr. 178/2002 og forordning (EF) nr. 1223/2009 og om
ophævelse af Rådets direktiv 90/385/EØF og 93/42/EØF (EUT L 117 af 5.5.2017, s. 1).
(
22
) Europa-Parlamentets og Rådets forordning (EU) 2017/746 af 5. april 2017 om medicinsk udstyr til in
vitro-diagnostik og om ophævelse af direktiv 98/79/EF og Kommissionens afgørelse 2010/227/EU (EUT
L 117 af 5.5.2017, s. 176).
(
23
) Europa-Parlamentets og Rådets direktiv 2006/42/EF af 17. maj 2006 om maskiner og om ændring af
direktiv 95/16/EF (EUT L 157 af 9.6.2006, s. 24).
(
24
) Europa-Parlamentets og Rådets forordning (EF) nr. 300/2008 af 11. marts 2008 om fælles bestemmel-
ser om sikkerhed (security) inden for civil luftfart og om ophævelse af forordning (EF) nr. 2320/2002
(EUT L 97 af 9.4.2008, s. 72).
(
25
) Europa-Parlamentets og Rådets forordning (EU) nr. 167/2013 af 5. februar 2013 om godkendelse og
markedsovervågning af landbrugs- og skovbrugstraktorer (EUT L 60 af 2.3.2013, s. 1).
(
26
) Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 af 15. januar 2013 om godkendelse og
markedsovervågning af to- og trehjulede køretøjer samt quadricykler (EUT L 60 af 2.3.2013, s. 52).
(
27
) Europa-Parlamentets og Rådets direktiv 2014/90/EU af 23. juli 2014 om skibsudstyr og om ophævel-
se af Rådets direktiv 96/98/EF (EUT L 257 af 28.8.2014, s. 146).
(
28
) Europa-Parlamentets og Rådets direktiv (EU) 2016/797 af 11. maj 2016 om interoperabilitet i
jernbanesystemet i Den Europæiske Union (EUT L 138 af 26.5.2016, s. 44).
(
29
) Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om godkendelse og
markedsovervågning af motorkøretøjer og påhængskøretøjer dertil samt af systemer, komponenter og
separate tekniske enheder til sådanne køretøjer, om ændring af forordning (EF) nr. 715/2007 og (EF) nr.
595/2009 og om ophævelse af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1).
(
30
) Europa-Parlamentets og Rådets forordning (EU) 2018/1139 af 4. juli 2018 om fælles regler for
civil luftfart og oprettelse af Den Europæiske Unions Luftfartssikkerhedsagentur og om ændring af
Europa-Parlamentets og Rådets forordning (EF) nr. 2111/2005, (EF) nr. 1008/2008, (EU) nr. 996/2010,
(EU) nr. 376/2014 og direktiv 2014/30/EU og 2014/53/EU og om ophævelse af Europa-Parlamentets og
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0157.png
157
Rådets forordning (EF) nr. 552/2004 og (EF) nr. 216/2008 og Rådets forordning (EØF) nr. 3922/91 (EUT
L 212 af 22.8.2018, s. 1).
(
31
) Europa-Parlamentets og Rådets forordning (EU) 2019/2144 af 27. november 2019 om krav til
typegodkendelse af motorkøretøjer og påhængskøretøjer dertil samt systemer, komponenter og separate
tekniske enheder til sådanne køretøjer for så vidt angår deres generelle sikkerhed og beskyttelsen af
køretøjspassagerer og bløde trafikanter og om ændring af Europa-Parlamentets og Rådets forordning
(EU) 2018/858 og ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 78/2009, forordning
(EF) nr. 79/2009 og forordning (EF) nr. 661/2009 og Kommissionens forordning (EF) nr. 631/2009, (EU)
nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr.
1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012,
(EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 og (EU) 2015/166 (EUT L 325 af 16.12.2019,
s. 1).
(
32
) Europa-Parlamentets og Rådets forordning (EF) nr. 810/2009 af 13. juli 2009 om en fællesskabsko-
deks for visa (visumkodeks) (EUT L 243 af 15.9.2009, s. 1).
(
33
) Europa-Parlamentets og Rådets direktiv 2013/32/EU af 26. juni 2013 om fælles procedurer for
tildeling og fratagelse af international beskyttelse (EUT L 180 af 29.6.2013, s. 60).
(
34
) Europa-Parlamentets og Rådets forordning (EU) 2024/900 af 13. marts 2024 om gennemsigtighed
og målretning i forbindelse med politisk reklame (EUT L, 2024/900, 20.3.2024, ELI: http://data.euro-
pa.eu/eli/reg/2024/900/oj).
(
35
) Europa-Parlamentets og Rådets direktiv 2014/31/EU af 26. februar 2014 om harmonisering af med-
lemsstaternes lovgivning vedrørende tilgængeliggørelse på markedet af ikke-automatiske vægte (EUT L
96 af 29.3.2014, s. 107).
(
36
) Europa-Parlamentets og Rådets direktiv 2014/32/EU af 26. februar 2014 om harmonisering af med-
lemsstaternes love om tilgængeliggørelse på markedet af måleinstrumenter (EUT L 96 af 29.3.2014,
s. 149).
(
37
) Europa-Parlamentets og Rådets forordning (EU) 2019/881 af 17. april 2019 om ENISA (Den
Europæiske Unions Agentur for Cybersikkerhed), om cybersikkerhedscertificering af informations- og
kommunikationsteknologi og om ophævelse af forordning (EU) nr. 526/2013 (forordningen om cybersik-
kerhed) (EUT L 151 af 7.6.2019, s. 15).
(
38
) Europa-Parlamentets og Rådets direktiv (EU) 2016/2102 af 26. oktober 2016 om tilgængeligheden af
offentlige organers websteder og mobilapplikationer (EUT L 327 af 2.12.2016, s. 1).
(
39
) Europa-Parlamentets og Rådets direktiv2002/14/EF af 11. marts 2002 om indførelse af en generel
ramme for information og høring af arbejdstagerne i Det Europæiske Fællesskab (EFT L 80 af 23.3.2002,
s. 29).
(
40
) Europa-Parlamentets og Rådets direktiv (EU) 2019/790 af 17. april 2019 om ophavsret og beslægtede
rettigheder på det digitale indre marked og om ændring af direktiv 96/9/EF og 2001/29/EF (EUT L 130 af
17.5.2019, s. 92).
(
41
) Europa-Parlamentets og Rådets forordning (EU) nr. 1025/2012 af 25. oktober 2012 om europæisk
standardisering, om ændring af Rådets direktiv 89/686/EØF og 93/15/EØF og Europa-Parlamentets og
Rådets direktiv 94/9/EF, 94/25/EF, 95/16/EF, 97/23/EF, 98/34/EF, 2004/22/EF, 2007/23/EF, 2009/23/EF
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0158.png
158
og 2009/105/EF og om ophævelse af Rådets beslutning 87/95/EØF og Europa-Parlamentets og Rådets
afgørelse nr. 1673/2006/EF (EUT L 316 af 14.11.2012, s. 12).
(
42
) Europa-Parlamentets og Rådets forordning (EU) 2022/868 af 30. maj 2022 om europæisk datastyring
og om ændring af forordning (EU) 2018/1724 (forordning om datastyring) (EUT L 152 af 3.6.2022, s. 1).
(
43
) Europa-Parlamentets og Rådets forordning (EU) 2023/2854 af 13. december 2023 om harmoniserede
regler om fair adgang til og anvendelse af data og om ændring af forordning (EU) 2017/2394 og direktiv
(EU) 2020/1828 (dataforordningen) (EUT L, 2023/2854, 22.12.2023, ELI: http://data.europa.eu/eli/reg/
2023/2854/oj).
(
44
) Kommissionens henstilling 2003/361/EF af 6. maj 2003 om definitionen af mikrovirksomheder, små
og mellemstore virksomheder (EUT L 124 af 20.5.2003, s. 36).
(
45
) Kommissionens afgørelse af 24. januar 2024 om oprettelse af Det Europæiske Kontor for Kunstig
Intelligens (C/2024/390).
(
46
) Europa-Parlamentets og Radets forordning (EU) nr. 575/2013 af 26. juni 2013 om tilsynsmassige krav
til kreditinstitutter og investeringsselskaber og om andring af forordning (EU) nr. 648/2012 (EUT L 176
af 27.6.2013, s. 1).
(
47
) Europa-Parlamentets og Radets direktiv 2008/48/EF af 23. april 2008 om forbrugerkreditaftaler og
om ophavelse af Radets direktiv 87/102/EOF (EUT L 133 af 22.5.2008, s. 66).
(
48
) Europa-Parlamentets og Radets direktiv 2009/138/EF af 25. november 2009 om adgang til og
udovelse af forsikrings- og genforsikringsvirksomhed (Solvens II) (EUT L 335 af 17.12.2009, s. 1).
(
49
) Europa-Parlamentets og Radets direktiv 2013/36/EU af 26. juni 2013 om adgang til at udove virk-
somhed som kreditinstitut og om tilsyn med kreditinstitutter, om andring af direktiv 2002/87/EF og om
ophavelse af direktiv 2006/48/EF og 2006/49/EF (EUT L 176 af 27.6.2013, s. 338).
(
50
) Europa-Parlamentets og Radets direktiv 2014/17/„EU af 4. februar 2014 om forbrugerkreditaftaler
i forbindelse med fast ejendom til beboelse og om andring af direktiv 2008/48/EF og 2013/36/EU og
forordning (EU) nr. 1093/2010 (EUT L 60 af 28.2.2014, s. 34).
(
51
) Europa-Parlamentets og Radets direktiv (EU) 2016/97 af 20. januar 2016 om forsikringsdistribution
(EUT L 26 af 2.2.2016, s. 19).
(
52
) Rådets forordning (EU) nr. 1024/2013 af 15. oktober 2013 om overdragelse af specifikke opgaver til
Den Europæiske Centralbank i forbindelse med politikker vedrørende tilsyn med kreditinstitutter (EUT L
287 af 29.10.2013, s. 63).
(
53
) Europa-Parlamentets og Rådets forordning (EU) 2023/988 af 10. maj 2023 om produktsikkerhed i
almindelighed, om ændring af Europa-Parlamentets og Rådets forordning (EU) nr. 1025/2012 og Europa-
Parlamentets og Rådets direktiv (EU) 2020/1828 og om ophævelse af Europa-Parlamentets og Rådets
direktiv 2001/95/EF og Rådets direktiv 87/357/EØF (EUT L 135 af 23.5.2023, s. 1).
(
54
) Europa-Parlamentets og Rådets direktiv (EU) 2019/1937 af 23. oktober 2019 om beskyttelse af
personer, der indberetter overtrædelser af EU-retten (EUT L 305 af 26.11.2019, s. 17).
(
55
) EUT L 123 af 12.5.2016, s. 1.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0159.png
159
(
56
) Europa-Parlamentets og Rådets forordning (EU) nr. 182/2011 af 16. februar 2011 om de generelle
regler og principper for, hvordan medlemsstaterne skal kontrollere Kommissionens udøvelse af gennem-
førelsesbeføjelser (EUT L 55 af 28.2.2011, s. 13).
(
57
) Europa-Parlamentets og Rådets direktiv (EU) 2016/943 af 8. juni 2016 om beskyttelse af fortrolig
knowhow og fortrolige forretningsoplysninger (forretningshemmeligheder) mod ulovlig erhvervelse, brug
og videregivelse (EUT L 157 af 15.6.2016, s. 1).
(
58
) Europa-Parlamentets og Rådets direktiv (EU) 2020/1828 af 25. november 2020 om adgang til
anlæggelse af gruppesøgsmål til beskyttelse af forbrugernes kollektive interesser og om ophævelse af
direktiv 2009/22/EF (EUT L 409 af 4.12.2020, s. 1).
BILAG I
Liste over EU-harmoniseringslovgivning
Afsnit A. Liste over EU-harmoniseringslovgivning baseret på den nye lovgivningsmæssige ramme
1. Europa-Parlamentets og Rådets direktiv 2006/42/EF af 17. maj 2006 om maskiner og om ændring af
direktiv 95/16/EF (EUT L 157 af 9.6.2006, s. 24)
2. Europa-Parlamentets og Rådets direktiv 2009/48/EF af 18. juni 2009 om sikkerhedskrav til legetøj
(EUT L 170 af 30.6.2009, s. 1)
3. Europa-Parlamentets og Rådets direktiv 2013/53/EU af 20. november 2013 om fritidsfartøjer og
personlige fartøjer og om ophævelse af direktiv 94/25/EF (EUT L 354 af 28.12.2013, s. 90)
4. Europa-Parlamentets og Rådets direktiv 2014/33/EU af. 26. februar 2014 om harmonisering af med-
lemsstaternes love om elevatorer og sikkerhedskomponenter til elevatorer (EUT L 96 af 29.3.2014,
s. 251)
5. Europa-Parlamentets og Rådets direktiv 2014/34/EU af 26. februar 2014 om harmonisering af med-
lemsstaternes love om materiel og sikringssystemer til anvendelse i en potentielt eksplosiv atmosfære
(EUT L 96 af 29.3.2014, s. 309)
6. Europa-Parlamentets og Rådets direktiv 2014/53/EU af 16. april 2014 om harmonisering af medlems-
staternes love om tilgængeliggørelse af radioudstyr på markedet og om ophævelse af direktiv 1999/5/EF
(EUT L 153 af 22.5.2014, s. 62)
7. Europa-Parlamentets og Rådets direktiv 2014/68/EU af 15. maj 2014 om harmonisering af medlemssta-
ternes lovgivning om tilgængeliggørelse på markedet af trykbærende udstyr (EUT L 189 af 27.6.2014,
s. 164)
8. Europa-Parlamentets og Rådets forordning (EU) 2016/424 af 9. marts 2016 om tovbaneanlæg og om
ophævelse af direktiv 2000/9/EF (EUT L 81 af 31.3.2016, s. 1)
9. Europa-Parlamentets og Rådets forordning (EU) 2016/425 af 9. marts 2016 om personlige værnemidler
og om ophævelse af Rådets direktiv 89/686/EØF (EUT L 81 af 31.3.2016, s. 51)
10. Europa-Parlamentets og Rådets forordning (EU) 2016/426 af 9. marts 2016 om apparater, der for-
brænder gasformigt brændstof, og om ophævelse af direktiv 2009/142/EF (EUT L 81 af 31.3.2016, s. 99)
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0160.png
160
11. Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om medicinsk udstyr, om
ændring af direktiv 2001/83/EF, forordning (EF) nr. 178/2002 og forordning (EF) nr. 1223/2009 og om
ophævelse af Rådets direktiv 90/385/EØF og 93/42/EØF (EUT L 117 af 5.5.2017, s. 1)
12. Europa-Parlamentets og Rådets forordning (EU) 2017/746 af 5. april 2017 om medicinsk udstyr til in
vitro-diagnostik og om ophævelse af direktiv 98/79/EF og Kommissionens afgørelse 2010/227/EU (EUT
L 117 af 5.5.2017, s. 176).
Afsnit B. Liste over anden EU-harmoniseringslovgivning
13. Europa-Parlamentets og Rådets forordning (EF) nr. 300/2008 af 11. marts 2008 om fælles bestemmel-
ser om sikkerhed inden for civil luftfart og om ophævelse af forordning (EF) nr. 2320/2002 (EUT L 97 af
9.4.2008, s. 72)
14. Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 af 15. januar 2013 om godkendelse og
markedsovervågning af to- og trehjulede køretøjer samt quadricykler (EUT L 60 af 2.3.2013, s. 52)
15. Europa-Parlamentets og Rådets forordning (EU) nr. 167/2013 af 5. februar 2013 om godkendelse og
markedsovervågning af landbrugs- og skovbrugstraktorer (EUT L 60 af 2.3.2013, s. 1)
16. Europa-Parlamentets og Rådets direktiv 2014/90/EU af 23. juli 2014 om skibsudstyr og om ophævel-
se af Rådets direktiv 96/98/EF (EUT L 257 af 28.8.2014, s. 146)
17. Europa-Parlamentets og Rådets direktiv (EU) 2016/797 af 11. maj 2016 om interoperabilitet i jernba-
nesystemet i Den Europæiske Union (EUT L 138 af 26.5.2016, s. 44)
18. Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om godkendelse og
markedsovervågning af motorkøretøjer og påhængskøretøjer dertil samt af systemer, komponenter og
separate tekniske enheder til sådanne køretøjer, om ændring af forordning (EF) nr. 715/2007 og (EF) nr.
595/2009 og om ophævelse af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1)
19. Europa-Parlamentets og Rådets forordning (EU) 2019/2144 af 27. november 2019 om krav til
typegodkendelse af motorkøretøjer og påhængskøretøjer dertil samt systemer, komponenter og separate
tekniske enheder til sådanne køretøjer for så vidt angår deres generelle sikkerhed og beskyttelsen af
køretøjspassagerer og bløde trafikanter og om ændring af Europa-Parlamentets og Rådets forordning
(EU) 2018/858 og ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 78/2009, forordning
(EF) nr. 79/2009 og forordning (EF) nr. 661/2009 og Kommissionens forordning (EF) nr. 631/2009, (EU)
nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr.
1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012,
(EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 og (EU) 2015/166 (EUT L 325 af 16.12.2019,
s. 1)
20. Europa-Parlamentets og Rådets forordning (EU) 2018/1139 af 4. juli 2018 om fælles regler for
civil luftfart og oprettelse af Den Europæiske Unions Luftfartssikkerhedsagentur og om ændring af
Europa-Parlamentets og Rådets forordning (EF) nr. 2111/2005, (EF) nr. 1008/2008, (EU) nr. 996/2010,
(EU) nr. 376/2014 og direktiv 2014/30/EU og 2014/53/EU og om ophævelse af Europa-Parlamentets og
Rådets forordning (EF) nr. 552/2004 og (EF) nr. 216/2008 og Rådets forordning (EØF) nr. 3922/91 (EUT
L 212 af 22.8.2018, s. 1) for så vidt angår konstruktion, fremstilling og omsætning af luftfartøjer, som
er omhandlet i nævnte forordnings artikel 2, stk. 1, litra a) og b), hvis det drejer sig om ubemandede
luftfartøjer og tilhørende motorer, propeller, dele og udstyr til fjernkontrol af disse luftfartøjer.
BILAG II
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0161.png
161
Liste over strafbare handlinger omhandlet i artikel 5, stk. 1, første afsnit, litra h), nr. iii)
Strafbare handlinger omhandlet i artikel 5, stk. 1, første afsnit, litra h), nr. iii):
— terrorisme
— menneskehandel
— seksuel udnyttelse af børn og børnepornografi
— ulovlig handel med narkotika eller psykotrope stoffer
— ulovlig handel med våben, ammunition eller sprængstoffer
— forsætligt manddrab og grov legemsbeskadigelse
— ulovlig handel med menneskeorganer eller -væv
— ulovlig handel med nukleare eller radioaktive materialer
— bortførelse, frihedsberøvelse eller gidseltagning
— forbrydelser, der er omfattet af Den Internationale Straffedomstols kompetence
— skibs- eller flykapring
— voldtægt
— miljøkriminalitet
— organiseret eller væbnet røveri
— sabotage
— deltagelse i en kriminel organisation, der er involveret i en eller flere af ovennævnte strafbare
handlinger.
BILAG III
Højrisiko-AI-systemer omhandlet i artikel 6, stk. 2
Højrisiko-AI-systemer i henhold til artikel 6, stk. 2, er de AI-systemer, der er opført under et af følgende
områder:
1. Biometri, for så vidt som dets anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
a) systemer til biometrisk fjernidentifikation.
Dette omfatter ikke AI-systemer, der er tilsigtet biometrisk verifikation, og hvis eneste formål er at
bekræfte, at en bestemt fysisk person er den person, vedkommende hævder at være
b) AI-systemer, der er tilsigtet biometrisk kategorisering i henhold til følsomme eller beskyttede egenska-
ber eller karakteristika på grundlag af udledning af disse egenskaber eller karakteristika
c) AI-systemer, der er tilsigtet følelsesgenkendelse.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0162.png
162
2. Kritisk infrastruktur: AI-systemer, der tilsigtes anvendt som sikkerhedskomponenter i forvaltningen og
driften af kritisk digital infrastruktur, vejtrafik eller forsyning af vand, gas, varme og elektricitet.
3. Uddannelse og erhvervsuddannelse:
a) AI-systemer, der tilsigtes anvendt til at bestemme fysiske personers adgang til eller optagelse eller
deres fordeling på uddannelsesinstitutioner på alle niveauer
b) AI-systemer, der tilsigtes anvendt til at evaluere læringsresultater, herunder når disse resultater anven-
des til at styre fysiske personers læringsproces på uddannelsesinstitutioner på alle niveauer
c) AI-systemer, der tilsigtes anvendt til at bedømme det nødvendige uddannelsesniveau, som den enkelte
vil få eller vil kunne få adgang til, i forbindelse med eller inden for uddannelsesinstitutioner på alle
niveauer
d) AI-systemer, der tilsigtes anvendt til at overvåge og opdage forbudt adfærd blandt studerende under
prøver i forbindelse med eller inden for uddannelsesinstitutioner på alle niveauer.
4. Beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig virksomhed:
a) AI-systemer, der tilsigtes anvendt til rekruttering eller udvælgelse af fysiske personer, navnlig til at
indrykke målrettede jobannoncer, analysere og filtrere jobansøgninger og evaluere kandidater
b) AI-systemer, der tilsigtes anvendt til at træffe beslutninger, der påvirker vilkårene for arbejdsrelaterede
forhold, forfremmelse eller afskedigelse i arbejdsrelaterede kontraktforhold, til at fordele opgaver på
grundlag af individuel adfærd eller personlighedstræk eller personlige egenskaber eller til at overvåge og
evaluere personers præstationer og adfærd i sådanne forhold.
5. Adgang til og benyttelse af væsentlige private tjenester og væsentlige offentlige tjenester og ydelser:
a) AI-systemer, der tilsigtes anvendt af offentlige myndigheder eller på vegne af offentlige myndigheder
til at vurdere fysiske personers berettigelse til væsentlige offentlige bistandsydelser og -tjenester, herunder
sundhedstjenester, samt til at tildele, nedsætte, tilbagekalde eller kræve tilbagebetaling af sådanne ydelser
og tjenester
b) AI-systemer, der tilsigtes anvendt til at evaluere fysiske personers kreditværdighed eller fastslå deres
kreditvurdering, med undtagelse af AI-systemer, der anvendes til at afsløre økonomisk svig
c) AI-systemer, der tilsigtes anvendt til at foretage risikovurdering og prisfastsættelse for så vidt angår
fysiske personer i forbindelse med livs- og sygeforsikring
d) AI-systemer, der er tilsigtet at evaluere og klassificere nødopkald fra fysiske personer eller til at blive
anvendt til at sende beredskabstjenester i nødsituationer eller til at tildele prioriteter i forbindelse hermed,
herunder udrykning af politi, brandslukning og lægehjælp samt patientsorteringssystemer for førstehjælp
6. Retshåndhævelse, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret eller national
ret:
a)AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-insti-
tutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder eller på deres
vegne til at vurdere risikoen for, at en fysisk person bliver offer for strafbare handlinger
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0163.png
163
b)AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-insti-
tutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder som polygrafer
eller lignende værktøjer
c)AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-insti-
tutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til at vurdere
pålideligheden af bevismateriale i forbindelse med efterforskning eller retsforfølgning af strafbare hand-
linger
d)AI-systemer, der tilsigtes anvendt af retshåndhævende myndigheder eller på deres vegne eller af
EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til at
vurdere risikoen for, at en fysisk person begår eller på ny begår lovovertrædelser, der ikke udelukkende er
baseret på profilering af fysiske personer som omhandlet i artikel 3, stk. 4, i direktiv (EU) 2016/680, eller
til at vurdere fysiske personers eller gruppers personlighedstræk og personlige egenskaber eller tidligere
kriminelle adfærd
e) AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-insti-
tutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til profilering af
fysiske personer som omhandlet i artikel 3, stk. 4, i direktiv (EU) 2016/680 i forbindelse med afsløring,
efterforskning eller retsforfølgning af strafbare handlinger.
7. Migrationsstyring, asylforvaltning og grænsekontrol, for så vidt som deres anvendelse er tilladt i
henhold til relevant EU-ret eller national ret:
a) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af
EU-institutioner, -organer, -kontorer eller -agenturer som polygrafer eller lignende værktøjer
b) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af
EU-institutioner, -organer, -kontorer eller -agenturer til at vurdere en risiko, herunder en sikkerhedsrisiko,
en risiko for irregulær migration eller en sundhedsrisiko, som udgøres af en fysisk person, der har til
hensigt at rejse ind i eller er indrejst i en medlemsstat
c) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af
EU-institutioner, -organer, -kontorer eller -agenturer til at bistå kompetente offentlige myndigheder i
behandlingen af ansøgninger om asyl, visum eller opholdstilladelser og hertil relaterede klager med
henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, herunder tilhørende vurdering af
pålideligheden af bevismateriale
d) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af
EU-institutioner, -organer, -kontorer eller -agenturer i forbindelse med migrationsstyring, asylforvaltning
eller grænsekontrol med henblik på at opdage, genkende eller identificere fysiske personer, bortset fra
kontrol af rejselegitimation.
8. Retspleje og demokratiske processer:
a) AI-systemer, der tilsigtes anvendt af judicielle myndigheder eller på deres vegne til at bistå en judiciel
myndighed med at undersøge og fortolke fakta og retten og anvende retten på konkrete sagsforhold eller
til at blive anvendt på en lignende måde i forbindelse med alternativ tvistbilæggelse
b) AI-systemer, der tilsigtes anvendt til at påvirke resultatet af et valg eller en folkeafstemning eller
fysiske personers stemmeadfærd i forbindelse med udøvelsen af deres stemme ved valg eller folkeafstem-
ninger. Dette omfatter ikke AI-systemer, hvis output fysiske personer ikke er direkte eksponeret for,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0164.png
164
såsom værktøjer, der anvendes til at organisere, optimere eller strukturere politiske kampagner ud fra et
administrativt eller logistisk synspunkt.
BILAG IV
Teknisk dokumentation omhandlet i artikel 11, stk. 1
Den tekniske dokumentation, der er omhandlet i artikel 11, stk. 1, skal som minimum indeholde følgende
oplysninger, alt efter hvad der er relevant for det pågældende AI-system:
1. En generel beskrivelse af AI-systemet, herunder:
a) det tilsigtede formål, udbyderens navn samt systemets dato og version, der afspejler sammenhængen
med tidligere versioner
b) hvis det er relevant, hvordan AI-systemet interagerer med eller kan bruges til at interagere med
hardware eller software, herunder med andre AI-systemer, der ikke er en del af selve AI-systemet
c) versionerne af relevant software eller firmware og eventuelle krav vedrørende opdateringer
d) en beskrivelse af alle de former, hvori AI-systemet bringes i omsætning eller ibrugtages, såsom
softwarepakke indlejret i hardware, downloads eller API�½er
e) en beskrivelse af den hardware, som AI-systemet tilsigtes at køre på
f) hvis AI-systemet er komponent i produkter, fotografier eller illustrationer, der viser disse produkters
eksterne karakteristika, mærkning og interne layout
g) en grundlæggende beskrivelse af den brugergrænseflade, der stilles til rådighed for idriftsætteren
h) brugsanvisning til idriftsætteren og en grundlæggende beskrivelse af den brugergrænseflade, der stilles
til rådighed for idriftsætteren, hvis det er relevant.
2. En detaljeret beskrivelse af elementerne i AI-systemet og af processen for dets udvikling, herunder:
a) de metoder og trin, der er brugt i udviklingen af AI-systemet, herunder, hvis det er relevant, anvendelse
af forhåndstrænede systemer eller værktøjer leveret af tredjeparter, og hvordan disse er blevet anvendt,
integreret eller ændret af udbyderen
b) systemets konstruktionsspecifikationer, dvs. AI-systemets og algoritmernes generelle logik, navnlig de
vigtigste valg med hensyn til udformning, herunder begrundelser og antagelser, herunder med hensyn til
personer eller grupper af personer, som systemet tilsigtes anvendt på, de overordnede klassificeringsvalg,
hvad systemet er udformet til at optimere for og relevansen af de forskellige parametre, en beskrivelse
af systemets forventede output og outputkvalitet samt beslutninger om eventuelle trade-offs i de tekniske
løsninger, der er valgt for at overholde kravene i kapitel III, afdeling 2
c) en beskrivelse af systemarkitekturen, der forklarer, hvordan softwarekomponenterne bygger på eller
føder ind i hinanden og integreres i den samlede anvendelse; de beregningskraftsressourcer, der anvendes
til at udvikle, træne, afprøve og validere AI-systemet
d) hvis det er relevant, datakravene i form af datablade, der beskriver de anvendte træningsmetoder og
-teknikker og de anvendte træningsdatasæt, herunder en generel beskrivelse af disse datasæt, oplysninger
om deres oprindelse, omfang og vigtigste karakteristika, hvordan dataene er indhentet og udvalgt, mærk-
ningsprocedurer (f.eks. for læring med tilsyn) og datarensningsmetoder (f.eks. påvisning af outliere)
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0165.png
165
e) vurdering af de foranstaltninger til menneskeligt tilsyn, der er nødvendige i overensstemmelse med
artikel 14, herunder en vurdering af de tekniske foranstaltninger, der er nødvendige for at lette idriftsæt-
ternes fortolkning af AI-systemets output, i overensstemmelse med artikel 13, stk. 3, litra d)
f) hvis det er relevant, en detaljeret beskrivelse af på forhånd fastlagte ændringer af AI-systemet og dets
ydeevne sammen med alle relevante oplysninger vedrørende de tekniske løsninger, der er valgt for at
sikre, at AI-systemet til stadighed overholder de relevante krav i kapitel III, afdeling 2
g) de anvendte validerings- og afprøvningsprocedurer, herunder oplysninger om de anvendte validerings-
og afprøvningsdata og deres vigtigste karakteristika, parametre til måling af nøjagtighed, robusthed
og overholdelse af andre relevante krav i kapitel III, afdeling 2, samt potentielt forskelsbehandlende
virkninger samt afprøvningslogfiler og alle afprøvningsrapporter, der er dateret og underskrevet af de
ansvarlige personer, herunder med hensyn til forudbestemte ændringer som omhandlet i litra f)
h) indførte cybersikkerhedsforanstaltninger.
3. Detaljerede oplysninger om overvågningen af AI-systemet, dets funktion og kontrollen hermed, navn-
lig med hensyn til dets kapacitet og begrænsninger i ydeevne, herunder nøjagtighedsgraden for specifik-
ke personer eller grupper af personer, som systemet tilsigtes anvendt på, og det samlede forventede
nøjagtighedsniveau i forhold til det tilsigtede formål, de forventede utilsigtede resultater og kilder til
risici for sundhed og sikkerhed, grundlæggende rettigheder og forskelsbehandling i lyset af AI-systemets
tilsigtede formål, foranstaltningerne til menneskeligt tilsyn i overensstemmelse med artikel 14, herunder
de tekniske foranstaltninger, der er indført for at lette idriftsætternes fortolkning af AI-systemets output,
samt specifikationer for inputdata, alt efter hvad der er relevant.
4. En beskrivelse af ydeevneparametrenes egnethed til det specifikke AI-system.
5. En detaljeret beskrivelse af risikostyringssystemet i overensstemmelse med artikel 9.
6. En beskrivelse af relevante ændringer, som udbyderen foretager af systemet i løbet af dets livscyklus.
7. En liste over de helt eller delvis anvendte harmoniserede standarder, hvis referencer er offentliggjort
i Den Europæiske Unions Tidende, samt, hvis disse harmoniserede standarder ikke er blevet anvendt,
en detaljeret beskrivelse af de løsninger, der er anvendt for at opfylde kravene i kapitel III, afdeling 2,
herunder en liste over andre relevante tekniske specifikationer, som er anvendt.
8. En kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæring.
9. En detaljeret beskrivelse af det system, der er indført til evaluering af AI-systemets ydeevne, efter at
systemet er bragt i omsætning, i overensstemmelse med artikel 72, herunder planen for overvågning efter
omsætningen, der er omhandlet i artikel 72, stk. 3.
BILAG V
EU-overensstemmelseserklæring
EU-overensstemmelseserklæringen, der er omhandlet i artikel 47, skal indeholde følgende oplysninger:
1. AI-systemets navn, type og enhver yderligere entydig reference, der gør det muligt at identificere og
spore AI-systemet
2.udbyderens navn og adresse eller, hvis det er relevant, den bemyndigede repræsentants navn og adresse
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0166.png
166
3.en erklæring om, at den i artikel 47 omhandlede EU-overensstemmelseserklæring udstedes på udbyde-
rens ansvar
4.en erklæring om, at AI-systemet er i overensstemmelse med denne forordning og eventuelt med
al anden relevant EU-ret, der fastsætter bestemmelser om udstedelse af den i artikel 47 omhandlede
EU-overensstemmelseserklæring
5.hvis et AI-system indbefatter behandling af personoplysninger, en erklæring om, at AI-systemet over-
holder forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680
6.referencer til de relevante anvendte harmoniserede standarder eller referencer til anden fælles specifika-
tion, som der erklæres overensstemmelse med
7.hvis det er relevant, navnet og identifikationsnummeret på det bemyndigede organ, en beskrivelse af
den gennemførte overensstemmelsesvurderingsprocedure og identifikation af den udstedte attest
8.udstedelsessted og -dato for erklæringen, navn og stilling på den person, der har underskrevet den, samt
en angivelse af, for hvem eller på hvis vegne vedkommende har underskrevet, og underskrift.
BILAG VI
Procedurer for overensstemmelsesvurdering baseret på intern kontrol
1. Proceduren for overensstemmelsesvurdering baseret på intern kontrol er overensstemmelsesvurderings-
proceduren baseret på punkt 2, 3 og 4.
2. Udbyderen verificerer, at det etablerede kvalitetsstyringssystem overholder kravene i artikel 17.
3. Udbyderen undersøger oplysningerne i den tekniske dokumentation med henblik på at vurdere, hvor-
vidt AI-systemet overholder de relevante væsentlige krav i kapitel III, afdeling 2.
4. Udbyderen verificerer også, at udformnings- og udviklingsprocessen for AI-systemet og dets overvåg-
ning efter omsætningen som omhandlet i artikel 72 er i overensstemmelse med den tekniske dokumenta-
tion.
BILAG VII
Overensstemmelse baseret på en vurdering af kvalitetsstyringssystemet og en vurdering af den
tekniske dokumentation
1. Indledning
Overensstemmelse baseret på en vurdering af kvalitetsstyringssystemet og en vurdering af den tekniske
dokumentation er overensstemmelsesvurderingsproceduren baseret på punkt 2-5.
2. Oversigt
Det godkendte kvalitetsstyringssystem for udformning, udvikling og afprøvning af AI-systemer i henhold
til artikel 17 undersøges i overensstemmelse med punkt 3 og er underlagt den i punkt 5 omhandlede
overvågning. AI-systemets tekniske dokumentation undersøges i overensstemmelse med punkt 4.
3. Kvalitetsstyringssystem
3.1. Udbyderens ansøgning skal omfatte:
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0167.png
167
a) udbyderens navn og adresse samt navn og adresse på udbyderens bemyndigede repræsentant, hvis
ansøgningen indgives af denne
b) listen over AI-systemer, der er omfattet af det samme kvalitetsstyringssystem
c) den tekniske dokumentation for hvert AI-system, der er omfattet af det samme kvalitetsstyringssystem
d) dokumentationen vedrørende kvalitetsstyringssystemet, som skal omfatte alle de aspekter, der er anført
i artikel 17
e) en beskrivelse af de procedurer, der er indført for at sikre, at kvalitetsstyringssystemet fortsat er
fyldestgørende og effektivt
f) en skriftlig erklæring om, at samme ansøgning ikke er blevet indgivet til et andet bemyndiget organ.
3.2. Det bemyndigede organ vurderer kvalitetsstyringssystemet for at afgøre, om det opfylder kravene
omhandlet i artikel 17.
Afgørelsen meddeles udbyderen eller dennes bemyndigede repræsentant.
Meddelelsen skal indeholde konklusionerne af vurderingen af kvalitetsstyringssystemet og en begrundel-
se for afgørelsen.
3.3. Det godkendte kvalitetsstyringssystem skal fortsat gennemføres og vedligeholdes af udbyderen,
således at det forbliver hensigtsmæssigt og effektivt.
3.4. Enhver tilsigtet ændring af det godkendte kvalitetsstyringssystem eller listen over AI-systemer, der er
omfattet af dette, skal af udbyderen meddeles det bemyndigede organ.
Det bemyndigede organ vurderer de foreslåede ændringer og afgør, om det ændrede kvalitetsstyringssy-
stem stadig opfylder de i punkt 3.2 omhandlede krav, eller om en fornyet vurdering er nødvendig.
Det bemyndigede organ meddeler udbyderen sin afgørelse. Meddelelsen skal indeholde konklusionerne af
undersøgelsen af de foreslåede ændringer og en begrundelse for afgørelsen.
4. Kontrol af den tekniske dokumentation
4.1. Ud over den i punkt 3 omhandlede ansøgning, skal udbyderen til det bemyndigede organ indsende
en ansøgning om vurdering af den tekniske dokumentation vedrørende det AI-system, som denne agter at
bringe i omsætning eller ibrugtage, og som er omfattet af det kvalitetsstyringssystem, der er omhandlet i
punkt 3.
4.2. Ansøgningen skal indeholde:
a) udbyderens navn og adresse
b) en skriftlig erklæring om, at samme ansøgning ikke er blevet indgivet til et andet bemyndiget organ
c) den i bilag IV omhandlede tekniske dokumentation.
4.3. Den tekniske dokumentation vurderes af det bemyndigede organ. Hvis det er relevant og begrænset
til, hvad der er nødvendigt for, at det bemyndigede organ kan udføre sine opgaver, gives det fuld adgang
til de anvendte trænings-, validerings- og afprøvningsdatasæt, herunder, hvis det er relevant, og med
forbehold af sikkerhedsforanstaltninger, via API�½er eller andre relevante tekniske midler og værktøjer, der
muliggør fjernadgang.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0168.png
168
4.4. I forbindelse med vurderingen af den tekniske dokumentation kan det bemyndigede organ kræve, at
udbyderen fremlægger yderligere dokumentation eller udfører yderligere afprøvninger for at muliggøre
en korrekt vurdering af AI-systemets overensstemmelse med kravene i kapitel III, afdeling 2. Hvis
det bemyndigede organ ikke er tilfreds med de afprøvninger, som udbyderen har foretaget, skal det
bemyndigede organ selv foretage de nødvendige afprøvninger direkte, alt efter hvad der er relevant.
4.5. Hvis det er nødvendigt for at vurdere, om højrisiko-AI-systemet er i overensstemmelse med kravene
i kapitel III, afdeling 2, skal det bemyndigede organ, efter at alle andre rimelige metoder til at verificere
overensstemmelsen er udtømt eller har vist sig utilstrækkelige, og efter begrundet anmodning gives
adgang til AI-systemets træningsmodeller og trænede modeller, herunder dets relevante parametre. En
sådan adgang er omfattet af gældende EU-ret om beskyttelse af intellektuel ejendom og forretningshem-
meligheder.
4.6. Det bemyndigede organs afgørelse meddeles udbyderen eller dennes bemyndigede repræsen-
tant. Meddelelsen skal indeholde konklusionerne af vurderingen af den tekniske dokumentation og en
begrundelse for afgørelsen.
Hvis AI-systemet er i overensstemmelse med kravene i kapitel III, afdeling 2, udsteder det bemyndigede
organ en EU-vurderingsattest for teknisk dokumentation. Attesten skal indeholde udbyderens navn og
adresse, undersøgelseskonklusionerne, eventuelle betingelser for dets gyldighed og de nødvendige data til
identifikation af AI-systemet.
Attesten og bilagene hertil skal indeholde alle relevante oplysninger, der gør det muligt at vurdere
AI-systemets overensstemmelse med kravene, herunder, hvis det er relevant, kontrol under brug.
Hvis AI-systemet ikke er i overensstemmelse med kravene i kapitel III, afdeling 2, afviser det bemyndige-
de organ at udstede en EU-vurderingsattest for teknisk dokumentation og oplyser ansøgeren herom og
giver en detaljeret begrundelse for afslaget.
Hvis AI-systemet ikke opfylder kravet vedrørende de data, der anvendes til at træne det, skal AI-sy-
stemet gentrænes, inden der ansøges om en ny overensstemmelsesvurdering. I dette tilfælde skal det
bemyndigede organs begrundede afgørelse om afslag på udstedelse af en EU-vurderingsattest for teknisk
dokumentation indeholde specifikke betragtninger om kvaliteten af de data, der er anvendt til at træne
AI-systemet, navnlig om årsagerne til manglende overholdelse.
4.7. Enhver ændring af AI-systemet, der kan påvirke AI-systemets overholdelse af kravene eller syste-
mets tilsigtede formål, skal vurderes af det bemyndigede organ, der har udstedt EU-vurderingsattesten for
teknisk dokumentation. Udbyderen skal underrette det bemyndigede organ om sin hensigt om at indføre
nogen af ovennævnte ændringer, eller hvis denne på anden måde bliver opmærksom på forekomsten af
sådanne ændringer. Det bemyndigede organ vurderer de tilsigtede ændringer og afgør, om disse ændringer
kræver en ny overensstemmelsesvurdering i overensstemmelse med artikel 43, stk. 4, eller om de kan
behandles ved hjælp af et tillæg til EU-vurderingsattesten for teknisk dokumentation. I sidstnævnte tilfæl-
de vurderer det bemyndigede organ ændringerne, meddeler udbyderen sin afgørelse og udsteder, såfremt
ændringerne godkendes, et tillæg til EU-vurderingsattesten for teknisk dokumentation til udbyderen.
5. Overvågning af det godkendte kvalitetsstyringssystem
5.1. Formålet med den overvågning, der udføres af det bemyndigede organ, der er omhandlet i punkt 3,
er at sikre, at udbyderen behørigt overholder vilkårene og betingelserne i det godkendte kvalitetsstyrings-
system.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0169.png
169
5.2. Med henblik på vurdering skal udbyderen give det bemyndigede organ adgang til de lokaler, hvor
udformningen, udviklingen eller afprøvningen af AI-systemerne finder sted. Udbyderen skal yderligere
give det bemyndigede organ alle nødvendige oplysninger.
5.3. Det bemyndigede organ aflægger jævnligt kontrolbesøg for at sikre, at udbyderen vedligeholder og
anvender kvalitetsstyringssystemet, og det udsteder en revisionsrapport til udbyderen. I forbindelse med
disse kontrolbesøg kan det bemyndigede organ foretage yderligere afprøvninger af de AI-systemer, for
hvilke der er udstedt en EU-vurderingsattest for teknisk dokumentation.
BILAG VIII
Oplysninger, der skal indsendes ved registrering af højrisiko-AI-systemer i overensstemmelse med
artikel 49
Afsnit A — Oplysninger, der skal indsendes af udbydere af højrisiko-AI-systemer i overensstemmelse
med artikel 49, stk. 1
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til højrisiko-AI-systemer,
der skal registreres i overensstemmelse med artikel 49, stk. 1:
1. udbyderens navn, adresse og kontaktoplysninger
2. hvis oplysninger forelægges af en anden person på vegne af udbyderen, denne persons navn, adresse og
kontaktoplysninger
3. den bemyndigede repræsentants navn, adresse og kontaktoplysninger, hvis det er relevant
4. AI-systemets handelsnavn og enhver yderligere entydig reference, der gør det muligt at identificere og
spore AI-systemet
5. en beskrivelse af det tilsigtede formål med AI-systemet og af de komponenter og funktioner, der
understøttes af dette AI-system
6. en grundlæggende og kortfattet beskrivelse af de oplysninger, der anvendes af systemet (data, input),
og dets driftslogik
7. AI-systemets status (i omsætning eller i drift, ikke længere i omsætning/i drift, tilbagekaldt)
8. type, nummer og udløbsdato for den attest, der er udstedt af det bemyndigede organ, samt navn eller
identifikationsnummer på det pågældende bemyndigede organ, hvis det er relevant
9. en scannet kopi af den i punkt 8 omhandlede attest, hvis det er relevant
10. enhver medlemsstat, hvor AI-systemet har været bragt i omsætning, ibrugtaget eller gjort tilgængeligt
i Unionen
11. en kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæring
12. brugsanvisning i elektronisk form, dog gives disse oplysninger ikke for højrisiko-AI-systemer inden
for retshåndhævelse og migrationsstyring, asylforvaltning og grænsekontrol, der er omhandlet i bilag III,
punkt 1, 6 og 7
13. en URL for yderligere oplysninger (valgfrit).
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0170.png
170
Afsnit B — Oplysninger, der skal indsendes af udbydere af højrisiko-AI-systemer i overensstemmelse
med artikel 49, stk. 2
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til højrisiko-AI-systemer,
der registreres i overensstemmelse med artikel 49, stk. 2:
1. udbyderens navn, adresse og kontaktoplysninger
2. hvis oplysninger forelægges af en anden person på vegne af udbyderen, denne persons navn, adresse og
kontaktoplysninger
3. den bemyndigede repræsentants navn, adresse og kontaktoplysninger, hvis det er relevant
4. AI-systemets handelsnavn og enhver yderligere entydig reference, der gør det muligt at identificere og
spore AI-systemet
5. en beskrivelse af det tilsigtede formål med AI-systemet
6. den eller de betingelser i medfør af artikel 6, stk. 3, på grundlag af hvilke(n) AI-systemet ikke betragtes
som højrisiko
7. en kort sammenfatning af grundene at, AI-systemet ikke betragtes som højrisiko i forbindelse med
anvendelse af proceduren i artikel 6, stk. 3
8. AI-systemets status (i omsætning eller i drift, ikke længere i omsætning/i drift, tilbagekaldt)
9. enhver medlemsstat, hvor AI-systemet har været bragt i omsætning, ibrugtaget eller gjort tilgængeligt i
Unionen.
Afsnit C — Oplysninger, der skal indsendes af idriftsættere af højrisiko-AI-systemer i overensstemmelse
med artikel 49, stk. 3
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til højrisiko-AI-systemer,
der registreres i overensstemmelse med artikel 49, stk. 3:
1. idriftsætterens navn, adresse og kontaktoplysninger
2. navn, adresse og kontaktoplysninger på enhver person, der indsender oplysninger på vegne af idriftsæt-
teren
3. URL�½en for indlæsningen af AI-systemet i EU-databasen for udbyderen af AI-systemet
4. et sammendrag af resultaterne af den konsekvensanalyse vedrørende grundlæggende rettigheder, der er
foretaget i overensstemmelse med artikel 27
5. et sammendrag af konsekvensanalysen vedrørende databeskyttelse foretaget i overensstemmelse med
artikel 35 i forordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680 som specificeret i
nærværende forordnings artikel 26, stk. 8, hvis det er relevant.
BILAG IX
Oplysninger, der skal indsendes ved registrering af højrisiko-AI-systemer anført i bilag III i forbin-
delse med afprøvning under faktiske forhold i overensstemmelse med artikel 60
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0171.png
171
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til afprøvning under
faktiske forhold, der registreres i overensstemmelse med artikel 60:
1. et EU-dækkende unikt individuelt identifikationsnummer for afprøvningen under faktiske forhold
2. navn og kontaktoplysninger på udbyderen eller den potentielle udbyder og på de idriftsættere, der er
involveret i afprøvningen under faktiske forhold
3. en kort beskrivelse af AI-systemet, dets tilsigtede formål og andre oplysninger, der er nødvendige for at
identificere systemet
4. et sammendrag af de vigtigste karakteristika ved planen for afprøvning under faktiske forhold
5. oplysninger om suspendering eller afslutning af afprøvningen under faktiske forhold.
BILAG X
Lovgivningsmæssige EU-retsakter om store IT-systemer inden for området med frihed, sikkerhed
og retfærdighed
1. Schengeninformationssystemet
a) Europa-Parlamentets og Rådets forordning (EU) 2018/1860 af 28. november 2018 om brug af Schen-
geninformationssystemet i forbindelse med tilbagesendelse af tredjelandsstatsborgere med ulovligt ophold
(EUT L 312 af 7.12.2018, s. 1)
b) Europa-Parlamentets og Rådets forordning (EU) 2018/1861 af 28. november 2018 om oprettelse,
drift og brug af Schengeninformationssystemet (SIS) på området ind- og udrejsekontrol, om ændring af
konventionen om gennemførelse af Schengenaftalen og om ændring og ophævelse af forordning (EF) nr.
1987/2006 (EUT L 312 af 7.12.2018, s. 14)
c) Europa-Parlamentets og Rådets forordning (EU) 2018/1862 af 28. november 2018 om oprettelse, drift
og brug af Schengeninformationssystemet (SIS) på området politisamarbejde og strafferetligt samarbejde,
om ændring og ophævelse af Rådets afgørelse 2007/533/RIA og om ophævelse af Europa-Parlamentets
og Rådets forordning (EF) nr. 1986/2006 og Kommissionens afgørelse 2010/261/EU (EUT L 312 af
7.12.2018, s. 56).
2. Visuminformationssystemet
a) Europa-Parlamentets og Rådets forordning (EU) 2021/1133 af 7. juli 2021 om ændring af forordning
(EU) nr. 603/2013, (EU) 2016/794, (EU) 2018/1862, (EU) 2019/816 og (EU) 2019/818 for så vidt angår
fastsættelse af betingelserne for adgang til andre EU-informationssystemer med henblik på visuminforma-
tionssystemet (EUT L 248 af 13.7.2021, s. 1)
b) Europa-Parlamentets og Rådets forordning (EU) 2021/1134 af 7. juli 2021 om ændring af Europa-Par-
lamentets og Rådets forordning (EF) nr. 767/2008, (EF) nr. 810/2009, (EU) 2016/399, (EU) 2017/2226,
(EU) 2018/1240, (EU) 2018/1860, (EU) 2018/1861, (EU) 2019/817 og (EU) 2019/1896 og om ophævelse
af Rådets beslutning 2004/512/EF og Rådets afgørelse 2008/633/RIA, med henblik på reform af visumin-
formationssystemet (EUT L 248 af 13.7.2021, s. 11).
3. Eurodac
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0172.png
172
Europa-Parlamentets og Rådets forordning (EU) 2024/1358 af 14. maj 2024 om oprettelse af »Eurodac«
til sammenligning af biometriske oplysninger med henblik på effektiv anvendelse af Europa-Parlamentets
og Rådets forordning (EU) 2024/1315 og (EU) 2024/1350 og Rådets direktiv 2001/55/EF og på identifi-
cering af tredjelandsstatsborgere og statsløse med ulovligt ophold og om medlemsstaternes retshåndhæ-
vende myndigheders og Europols adgang til at indgive anmodning om sammenligning med Eurodaco-
plysninger med henblik på retshåndhævelse, om ændring af Europa-Parlamentets og Rådets forordning
(EU) 2018/1240 og (EU) 2019/818 og om ophævelse af Europa-Parlamentets og Rådets forordning (EU)
nr. 603/2013 (EUT L, 2024/1358, 22.5.2024, ELI: http://data.europa.eu/eli/reg/2024/1358/oj).
4. Ind- og udrejsesystemet
Europa-Parlamentets og Rådets forordning (EU) 2017/2226 af 30. november 2017 om oprettelse af
et ind- og udrejsesystem til registrering af ind- og udrejseoplysninger og oplysninger om nægtelse af
indrejse vedrørende tredjelandsstatsborgere, der passerer medlemsstaternes ydre grænser, om fastlæggelse
af betingelserne for adgang til ind- og udrejsesystemet til retshåndhævelsesformål og om ændring af kon-
ventionen om gennemførelse af Schengenaftalen og forordning (EF) nr. 767/2008 og (EU) nr. 1077/2011
(EUT L 327 af 9.12.2017, s. 20).
5. Det europæiske system vedrørende rejseinformation og rejsetilladelse
a) Europa-Parlamentets og Rådets forordning (EU) 2018/1240 af 12. september 2018 om oprettelse af et
europæisk system vedrørende rejseinformation og rejsetilladelse (ETIAS) og om ændring af forordning
(EU) nr. 1077/2011, (EU) nr. 515/2014, (EU) 2016/399, (EU) 2016/1624 og (EU) 2017/2226 (EUT L 236
af 19.9.2018, s. 1)
b) Europa-Parlamentets og Rådets forordning (EU) 2018/1241 af 12. september 2018 om ændring af
forordning (EU) 2016/794 med henblik på oprettelse af et europæisk system vedrørende rejseinformation
og rejsetilladelse (ETIAS) (EUT L 236 af 19.9.2018, s. 72).
6. Det europæiske informationssystem vedrørende strafferegistre for statsborgere i tredjelande og statsløse
Europa-Parlamentets og Rådets forordning (EU) 2019/816 af 17. april 2019 om oprettelse af et centralt
system til bestemmelse af, hvilke medlemsstater der ligger inde med oplysninger om straffedomme
afsagt over tredjelandsstatsborgere og statsløse personer (ECRIS-TCN) for at supplere det europæiske
informationssystem vedrørende strafferegistre, og om ændring af forordning (EU) 2018/1726 (EUT L 135
af 22.5.2019, s. 1).
7. Interoperabilitet
a) Europa-Parlamentets og Rådets forordning (EU) 2019/817 af 20. maj 2019 om fastsættelse af en ram-
me for interoperabilitet mellem EU-informationssystemer vedrørende grænser og visum og om ændring
af Europa- Parlamentets og Rådets forordning (EF) nr. 767/2008, (EU) 2016/399, (EU) 2017/2226, (EU)
2018/1240, (EU) 2018/1726 og (EU) 2018/1861, Rådets beslutning 2004/512/EF og Rådets afgørelse
2008/633/RIA (EUT L 135 af 22.5.2019, s. 27)
b) Europa-Parlamentets og Rådets forordning (EU) 2019/818 af 20. maj 2019 om fastsættelse af en
ramme for interoperabilitet mellem EU-informationssystemer vedrørende politisamarbejde og retligt sam-
arbejde, asyl og migration og om ændring af forordning (EU) 2018/1726, (EU) 2018/1862 og (EU)
2019/816 (EUT L 135 af 22.5.2019, s. 85).
BILAG XI
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0173.png
173
Teknisk dokumentation omhandlet i artikel 53, stk. 1, litra a) — teknisk dokumentation for udby-
dere af AI-modeller til almen brug
Afsnit 1
Oplysninger, der skal forelægges af alle udbydere af AI-modeller til almen brug
Den tekniske dokumentation omhandlet i artikel 53, stk. 1, litra a), skal som minimum indeholde følgende
oplysninger, alt efter hvad der er relevant for modellens størrelse og risikoprofil:
1. En generel beskrivelse af AI-modellen til almen brug, herunder:
a) de opgaver, som modellen tilsigtes at udføre, og typen og arten af AI-systemer, som den kan integreres
i
b) gældende acceptable anvendelsespolitikker
c) frigivelsesdato og distributionsmetoder
d) parametrenes arkitektur og antal
e) modalitet (f.eks. tekst, billede) og format af input og output
f) licensen.
2. En detaljeret beskrivelse af elementerne i den model, der er omhandlet i punkt 1, og relevante
oplysninger om udviklingsprocessen, herunder følgende elementer:
a) de tekniske midler (f.eks. brugsanvisning, infrastruktur, værktøjer), der er nødvendige for, at AI-model-
len til almen brug kan integreres i AI-systemer
b) modellens konstruktionsspecifikationer og træningsprocessen, herunder træningsmetoder og -teknik-
ker, de vigtigste valg med hensyn til udformning, herunder begrundelser og antagelser, hvad modellen er
udformet til at optimere for og relevansen af de forskellige parametre, alt efter hvad der er relevant
c) oplysninger om de data, der anvendes til træning, afprøvning og validering, hvis det er relevant,
herunder dataenes type og oprindelse og kurateringsmetoder (f.eks. rensning, filtrering osv.), antallet af
datapunkter, deres omfang og vigtigste karakteristika, hvordan dataene er indhentet og udvalgt, samt alle
andre foranstaltninger til at opdage uegnede datakilder og metoder til at opdage identificerbare bias, hvor
det er relevant
d) de beregningskraftsressourcer, der anvendes til at træne modellen (f.eks. antal flydende kommatalsbe-
regninger), træningstid og andre relevante detaljer vedrørende træningen
e) modellens kendte eller anslåede energiforbrug.
For så vidt angår litra e) kan energiforbruget, hvis modellens energiforbrug er ukendt, baseres på oplys-
ninger om anvendte beregningskraftsressourcer.
Afsnit 2
Yderligere oplysninger, der skal forelægges af udbydere af AI-modeller til almen brug med systemisk
risiko
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0174.png
174
1. En detaljeret beskrivelse af evalueringsstrategierne, herunder evalueringsresultater, på grundlag af
tilgængelige offentlige evalueringsprotokoller og -værktøjer eller på anden måde af andre evalueringsme-
toder. Evalueringsstrategierne skal omfatte evalueringskriterier, parametre og metoder til identifikation af
begrænsninger.
2. Hvis det er relevant, en detaljeret beskrivelse af de foranstaltninger, der er truffet med henblik på
at gennemføre intern og/eller ekstern kontradiktorisk afprøvning (f.eks. red teaming), modeltilpasninger,
herunder tilpasning og finjustering.
3. Hvis det er relevant, en detaljeret beskrivelse af systemarkitekturen, der forklarer, hvordan software-
komponenterne bygger på eller føder ind i hinanden og integreres i den samlede anvendelse.
BILAG XII
Gennemsigtighedsoplysninger omhandlet i artikel 53, stk. 1, litra b) — teknisk dokumentation for
udbydere af AI-modeller til almen brug til downstreamudbydere, der integrerer modellen i deres
AI-system
Oplysningerne omhandlet i artikel 53, stk. 1, litra b), skal som minimum omfatte følgende:
1. En generel beskrivelse af AI-modellen til almen brug, herunder:
a) de opgaver, som modellen tilsigtes at udføre, og typen og arten af AI-systemer, som den kan integreres
i
b) gældende acceptable anvendelsespolitikker
c) frigivelsesdato og distributionsmetoder
d) hvis det er relevant, hvordan modellen interagerer eller kan bruges til at interagere med hardware eller
software, der ikke er en del af selve modellen
e) versioner af relevant software vedrørende anvendelsen af AI-modellen til almen brug, hvis det er
relevant
f) parametrenes arkitektur og antal
g) modalitet (f.eks. tekst, billede) og format af input og output
h) licensen til modellen.
2. En beskrivelse af elementerne i modellen og af processen for dens udvikling, herunder:
a) de tekniske midler (f.eks. brugsanvisning, infrastruktur, værktøjer), der er nødvendige for, at AI-model-
len til almen brug kan integreres i AI-systemer
b) modalitet (f.eks. tekst, billede osv.) og format af input og output og deres maksimale størrelse (f.eks.
kontekstvinduesstørrelse osv.)
c) oplysninger om de data, der anvendes til træning, afprøvning og validering, hvis det er relevant,
herunder dataenes type og oprindelse og kurateringsmetoder.
BILAG XIII
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0175.png
175
Kriterier for udpegelse af AI-modeller til almen brug med systemisk risiko, jf. artikel 51
Med henblik på at fastslå, at en AI-model til almen brug har kapaciteter eller virkninger, der svarer til
dem, der er fastsat i artikel 51, stk. 1, litra a), tager Kommissionen hensyn til følgende kriterier:
a) antal parametre i modellen
b) datasættets kvalitet eller størrelse, f.eks. målt ved hjælp af tokens
c) den mængde beregningskraft, der anvendes til træning af modellen, målt i flydende kommatalsbereg-
ninger eller angivet ved en kombination af andre variabler såsom anslåede træningsomkostninger, anslået
tid til træningen eller anslået energiforbrug til træningen
d) modellens input- og outputmetoder, f.eks. tekst til tekst (store sprogmodeller), tekst til billede, multi-
modalitet og de nyeste tærskler til bestemmelse af kapaciteter med stor virkning for hver modalitet, samt
den specifikke type input og output (f.eks. biologiske sekvenser)
e) benchmarks og evalueringer af modellens kapaciteter, herunder hensyntagen til antal opgaver uden
yderligere træning, tilpasningsevne til at lære nye, særskilte opgaver, dens grad af autonomi og skalerbar-
hed og de værktøjer, den har adgang til
f) om den har stor indvirkning på det indre marked på grund af dens omfang, hvilket formodes at være
tilfældet, når den er blevet gjort tilgængelig for mindst 10 000 registrerede erhvervsbrugere etableret i
Unionen
g) antal registrerede slutbrugere.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0176.png
176
Bemærkninger til lovforslaget
Almindelige bemærkninger
Indholdsfortegnelse
1.
2.
Indledning
Lovforslagets hovedpunkter
2.1.
Afgrænsning af reglerne om kunstig intelligens
2.1.1.
2.1.2.
2.2.
Gældende ret
Digitaliseringsministeriets overvejelser og den foreslåede ordning
Udpegning af uafhængige nationale kompetente myndigheder
2.2.1.
2.2.2.
Gældende ret
Digitaliseringsministeriets overvejelser og den foreslåede ordning
2.3.
De nationale kompetente myndigheders opgaver mv.
2.3.1.
2.3.2.
Gældende ret
Digitaliseringsministeriets overvejelser og den foreslåede ordning
2.4.
Sanktioner
2.4.1.
2.4.2.
Gældende ret
Digitaliseringsministeriets overvejelser og den foreslåede ordning
3.
4.
5.
6.
7.
8.
9.
10.
11.
Forholdet til databeskyttelsesforordningen og databeskyttelsesretten
Økonomiske konsekvenser og implementeringskonsekvenser for det offentlige
Økonomiske og administrative konsekvenser for erhvervslivet m.v.
Administrative konsekvenser for borgerne
Klimamæssige konsekvenser
Miljø- og naturmæssige konsekvenser
Forholdet til EU-retten
Hørte myndigheder og organisationer m.v.
Sammenfattende skema
straffebestemmelser inden for det nationale råderum, som
forordningen om kunstig intelligens giver mulighed for.
Lovforslaget supplerer forordningen om kunstig intelligens,
som har til formål at forbedre det indre markeds funktion
og fremme udbredelsen af menneskecentreret og troværdig
1. Indledning
Formålet med dette lovforslag er at supplere reglerne i for-
ordningen om kunstig intelligens. Forslaget fastsætter såle-
des supplerende nationale bestemmelser om kompetence- og
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0177.png
177
kunstig intelligens (AI) og samtidig sikre et højt niveau af
beskyttelse af sundhed, sikkerhed og grundlæggende rettig-
heder.
Forordningen om kunstig intelligens trådte i kraft den 2.
august 2024. Forordningen finder anvendelse fra den 2. au-
gust 2026. Dog finder forordningens kapitel I (almindelige
bestemmelser) og II (forbudte former for AI-praksis) anven-
delse fra den 2. februar 2025. Kapitel III, afdeling 4 (be-
myndigende myndigheder og bemyndigede organer), kapitel
V (AI-modeller til almen brug), VII (forvaltning) og XII
(sanktioner) og artikel 78 (fortrolighed) finder anvendelse
fra den 2. august 2025, med undtagelse af artikel 101 (bøder
til udbydere af AI-modeller til almen brug). Forordningens
artikel 6, stk. 1 (højrisiko kunstig intelligens-systemer, der
omhandler produkter), og de tilsvarende forpligtelser i for-
ordningen finder hertil anvendelse fra den 2. august 2027.
Forordningen om kunstig intelligens har direkte virkning i
Danmark, hvilket betyder, at der som udgangspunkt ikke må
være anden dansk lovgivning, der regulerer forhold, som
er reguleret i forordningen. Danmark er således forpligtet
til at supplere dansk lovgivning i overensstemmelse med
forordningens bestemmelser med virkning fra den 2. august
2025.
Flere bestemmelser i forordningen kræver, at der vedtages
supplerende bestemmelser i Danmark af hensyn til anven-
delsen af forordningen, herunder kompetence- og straffebe-
stemmelser.
Forordningen om kunstig intelligens har trinvis anvendel-
se. Med dette lovforslag foreslås supplerende bestemmelser,
som skal indrette dansk lovgivning med hensyn til de dele af
forordningen, som finder anvendelse fra den 2. februar 2025
samt den 2. august 2025. Der foreslås endvidere enkelte be-
stemmelser af materiel karakter, som har til hensigt at give
udpegede kompetente myndigheder kompetence til blandt
andet at afkræve alle oplysninger, som er nødvendige for
myndighedernes tilsynsvirksomhed, herunder til fastlæggel-
se af, om et forhold hører under myndighedernes kompeten-
ce.
Digitaliseringsministeriet bemærker, at de enkelte bestem-
melser i forordningen om kunstig intelligens har forskellige
anvendelsestidspunkter. Som eksempel kan nævnes, at det
blandt andet følger af præambelbetragtning 179, at forord-
ningen bør finde anvendelse fra den 2. august 2026, men
under hensyntagen til den uacceptable risiko, der på visse
områder er forbundet med anvendelsen af AI, finder forbud-
dene og de almindelige bestemmelser i forordningen dog
anvendelse allerede fra den 2. februar 2025. Kapitel XII
om sanktioner finder imidlertid først anvendelse fra den 2.
august 2025. Forbudte former for AI-praksis kan derfor først
medføre sanktioner fra den 2. august 2025. Ikrafttrædelses-
datoen i lovforslaget er således i overensstemmelse med
anvendelsestidspunkterne i forordningen om kunstig intelli-
gens.
Digitaliseringsministeriet vil hertil fremsætte forslag til
yderligere supplerende lovgivning til de øvrige kapitler i
forordningen om kunstig intelligens forud for, at disse dele
af forordningen om kunstig intelligens skal finde anvendel-
se.
2. Lovforslagets hovedpunkter
2.1. Afgrænsning af reglerne om kunstig intelligens
2.1.1. Gældende ret
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret, som supplerer og gennemfører forordningen om kuns-
tig intelligens og dermed regler om udpegning af nationale
kompetente myndigheder i overensstemmelse med forord-
ningen. Der er endvidere ikke i dansk ret fastsat generelle
regler om kunstig intelligens.
Det følger af artikel 1, stk. 1, at forordningen om kunstig
intelligens har til formål at forbedre det indre markeds
funktion og fremme udbredelsen af menneskecentreret og
troværdig kunstig intelligens (AI) og samtidig sikre et højt
niveau af beskyttelse af sundhed, sikkerhed og de grund-
læggende rettigheder, der er nedfældet i chartret, herunder
demokratiet, retsstatsprincippet og miljøbeskyttelse, mod de
skadelige virkninger af AI-systemer i Unionen og støtte in-
novation.
Det følger af artikel 2, stk. 1, at forordningen finder anven-
delse på:
a) udbydere, der bringer AI-systemer i omsætning eller
ibrugtager sådanne eller bringer AI-modeller til almen
brug i omsætning i Unionen, uanset om disse udbydere
er etableret eller befinder sig i Unionen eller i et tredje-
land
b) idriftsættere af AI-systemer, der er etableret eller befin-
der sig i Unionen
c) udbydere og idriftsættere af AI-systemer, der er etable-
ret eller befinder sig i et tredjeland, hvis det output, der
produceres af systemet, anvendes i Unionen
d) importører og distributører af AI-systemer
e) producenter af et produkt, der sammen med deres pro-
dukt og under eget navn eller varemærke bringer et
AI-system i omsætning eller ibrugtager det
f) bemyndigede repræsentanter for udbydere, der ikke er
etableret i Unionen
g) berørte personer, der befinder sig i Unionen.
Forordningen om kunstig intelligens omfatter eksempelvis
udbydere, såsom udviklere af AI-systemer, der screener
CV’er, samt idriftsættere, som eksempelvis de virksomhe-
der, der køber det pågældende system og anvender det i
rekrutteringsøjemed.
I forordningens artikel 2, stk. 2-12, er der fastsat regler
om, hvornår en række konkrete bestemmelser ikke finder
anvendelse.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0178.png
178
2.1.2. Digitaliseringsministeriets overvejelser og den fore-
slåede ordning
Forordningen om kunstig intelligens kræver national lovgiv-
ning, hvorfor lovforslaget har til formål at indføre supple-
rende regler i forbindelse med tilsynet med forordningen om
kunstig intelligens kapitel II, navnlig med forbudte former
for AI-praksis. Med dette lovforslag foreslås det kun at ind-
føre supplerende lovgivning til de dele af forordningen, der
træder i kraft den 2. februar 2025 og den 2. august 2025.
Det er Digitaliseringsministeriets vurdering, at den foreslå-
ede lov vil have samme anvendelsesområde som forordnin-
gen om kunstig intelligens.
Der henvises i øvrigt til lovforslagets § 1 og de specielle
bemærkninger hertil.
2.2. Udpegning af nationale kompetente myndigheder
2.2.1. Gældende ret
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret, som supplerer og gennemfører forordningen om kuns-
tig intelligens og dermed regler om udpegning af nationale
kompetente myndigheder i overensstemmelse med forord-
ningen.
Det følger af artikel 70, stk. 1, i forordningen om kunstig
intelligens, at hver medlemsstat opretter eller udpeger som
nationale kompetente myndigheder mindst én bemyndigen-
de myndighed og mindst én markedsovervågningsmyndig-
hed. Disse nationale kompetente myndigheder udøver deres
beføjelser uafhængigt, upartisk og uden bias for derved at
beskytte objektiviteten i deres aktiviteter og opgaver og for
at sikre anvendelsen og gennemførelsen af forordningen.
Det følger endvidere af artikel 28, stk. 1, i forordningen
om kunstig intelligens, at hver medlemsstat udpeger eller
opretter mindst én bemyndigende myndighed med ansvar
for at indføre og gennemføre de nødvendige procedurer for
vurdering, udpegelse og notifikation af overensstemmelses-
vurderingsorganer og for overvågning heraf. Disse procedu-
rer udvikles i samarbejde mellem de bemyndigende myndig-
heder i alle medlemsstater.
Det følger af artikel 70, stk. 2, 3. pkt., at medlemsstaterne
udpeger en markedsovervågningsmyndighed til at fungere
som centralt kontaktpunkt for forordningen.
Det følger herudover af præambelbetragtning nr. 153 i for-
ordningen om kunstig intelligens, at der i hver medlems-
stat bør udpeges mindst én bemyndigende myndighed og
mindst én markedsovervågningsmyndighed som nationale
kompetente myndigheder til at føre tilsyn med anvendel-
sen og gennemførelsen af forordningen om kunstig intelli-
gens. For at øge organisationseffektiviteten for medlemssta-
ternes vedkommende og oprette et centralt kontaktpunkt for
offentligheden og andre modparter på nationalt plan og EU-
plan bør hver medlemsstat udpege en markedsovervågnings-
myndighed, der skal fungere som centralt kontaktpunkt.
2.2.2. Digitaliseringsministeriets overvejelser og den fore-
slåede ordning
Det er Digitaliseringsministeriets vurdering, at det er hen-
sigtsmæssigt, at Digitaliseringsstyrelsen, Datatilsynet og
Domsstolsstyrelsen i henhold til artikel 70, stk. 1, i forord-
ningen om kunstig intelligens udpeges som markedsover-
vågningsmyndigheder for tilsynet med forbudte former for
AI praksis i henhold til artikel 5 i forordningen om kunstig
intelligens.
Det er Digitaliseringsministeriets vurdering, at Digitalise-
ringsstyrelsen, Datatilsynet og Domstolsstyrelsen har de
nødvendige erfaringer med og indsigt i området til at blive
udpeget som markedsovervågningsmyndigheder for tilsynet
med forbudte former for AI-praksis i henhold til artikel 5 i
forordningen om kunstig intelligens.
Det foreslås, at Digitaliseringsstyrelsen udpeges som mar-
kedsovervågningsmyndighed for de forbudte former for AI-
praksis, som er omfattet af artikel 5, stk. 1, litra a-c, og arti-
kel 5, stk. 1, litra e-f, i forordningen om kunstig intelligens,
mens Datatilsynet udpeges som markedsovervågningsmyn-
dighed for de forbudte former for AI-praksis, der er omfattet
af artikel 5, stk. 1, litra d, og artikel 5, stk. 1, litra g. Det
foreslås dog, at Datatilsynet kun udpeges som markedsover-
vågningsmyndighed for de dele af artikel 5, stk. 1, litra d og
g, som ikke er omfattet af det danske retsforbehold.
Hertil vurderes det hensigtsmæssigt, at Digitaliseringsstyrel-
sen udpeges som bemyndigende myndighed, i henhold til
artikel 28, stk. 1, samt artikel 70, stk. 1.
Derudover foreslås det, at Digitaliseringsstyrelsen udpeges
som centralt kontaktpunkt i henhold til artikel 70, stk. 2, 3.
pkt., i forordningen om kunstig intelligens.
Dette afspejler beslutningen om at udpege Digitaliserings-
styrelsen som centralt kontaktpunkt for forordningen om
kunstig intelligens.
Det er endvidere Digitaliseringsministeriets vurdering, at
Domstolsstyrelsen bør udpeges som markedsovervågnings-
myndighed for de dele af tilsynet med forbudte former
for AI-systemer, som vedrører domstolenes administrative
anvendelse af AI-systemer. Afgørelser om domstolenes an-
vendelse af AI-systemer, når disse anvendes som led i dom-
stolenes judicielle funktioner, træffes dog af vedkommende
ret.
Forordningen om kunstig intelligens fastsætter, at de natio-
nale kompetente myndigheder skal udøve deres beføjelser
uafhængigt, upartisk og uden bias for derved at beskytte
objektiviteten i deres aktiviteter og opgaver og for at sikre
anvendelsen og gennemførelsen af forordningen.
Der er efter forordningen om kunstig intelligens tale om
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0179.png
179
et krav til funktionel uafhængighed, hvor de kompetente
myndigheder er uafhængige ved varetagelsen af deres op-
gaver. Dette vil indebære, at regeringen ikke har instrukti-
onsbeføjelse over for kompetente myndigheder vedrørende
konkrete sager, der afgøres efter forordningen om kunstig
intelligens, dette lovforslag, eller regler udstedt i medfør
heraf, herunder i forhold til prioritering og udarbejdelse af
vejledning i medfør at dette lovforslag eller regler udstedt i
medfør heraf.
Forordningen om kunstig intelligens sikrer, at de udpegede
nationale kompetente myndigheder vil blive uafhængige af
eventuelle overordnede myndigheder.
Det skal bemærkes, at for så vidt angår Digitaliseringsstyrel-
sens tilsyn med forbudte AI-systemer, placeres tilsynet i et
kontor i Digitaliseringsstyrelsen, der allerede har erfaring
med at føre uafhængige tilsyn i henhold til EU-lovgivning,
hvor blandt andet instruksadgangen er afskåret.
Da forordningen om kunstig intelligens ikke stiller skærpede
krav til, hvordan kompetente myndigheder organisatorisk
skal indrettes – i modsætning til databeskyttelsesforordnin-
gen – vurderes det som unødigt indgribende at pålægge
de øvrige kompetente myndigheder specifikke rammer for,
hvordan forpligtelsen om uafhængighed skal løftes internt.
Det foreslås i lovforslaget, at afgørelser truffet af de nationa-
le kompetente myndigheder efter forordningen om kunstig
intelligens, den foreslåede lov og regler udstedt i medfør
heraf ikke skal kunne indbringes for anden administrativ
myndighed.
Det er formålet med den foreslåede bestemmelse at sikre
overensstemmelse med kravene i artikel 70, stk. 1, 2. pkt., i
forordningen om kunstig intelligens om de nationale kompe-
tente myndigheders uafhængighed.
Der henvises i øvrigt til lovforslagets §§ 2 og 3 og de speci-
elle bemærkninger hertil.
2.3. De nationale kompetente myndigheders opgaver mv.
2.3.1. Gældende ret
Som anført under pkt. 2.1. findes der ikke regler, som sup-
plerer og gennemfører forordningen om kunstig intelligens
og dermed regler om de nationale kompetente myndigheders
opgaver og beføjelser, når disse er udpeget i henhold til
forordningen om kunstig intelligens.
Det fremgår af artikel 74, stk. 1, i forordningen om kunstig
intelligens, at forordning (EU) 2019/1020 (forordningen om
markedsovervågning og produktoverensstemmelse) finder
anvendelse på AI-systemer, der er omfattet af forordningen
om kunstig intelligens. Med henblik på effektiv håndhæ-
velse af forordningen om kunstig intelligens skal enhver
henvisning til en erhvervsdrivende i henhold til forordning
(EU) 2019/1020 forstås således, at den omfatter alle opera-
tører, der er omfattet af forordningen om kunstig intelligens
artikel 2, stk. 1, i forordningen om kunstig intelligens, og
enhver henvisning til et produkt i henhold til forordning
(EU) 2019/1020 skal forstås således, at den omfatter alle
AI-systemer, der henhører under anvendelsesområdet for
forordningen om kunstig intelligens.
Af præambelbetragtning nr. 156 i forordningen om kuns-
tig intelligens fremgår det blandt andet, at markedsover-
vågningsmyndigheder, der er udpeget i henhold til for-
ordningen, alle bør have håndhævelsesbeføjelser som fast-
sat i forordningen om kunstig intelligens og forordning
(EU) 2019/1020 om markedsovervågning og produktover-
ensstemmelse (markedsovervågningsforordningen).
Markedsovervågningsforordningen er suppleret i dansk ret
ved lov nr. 799 af 9. juni 2020, med senere ændringer, om
produkter og markedsovervågning. I medfør af § 9, stk.
1, i den nævnte lov varetager Sikkerhedsstyrelsen opgaven
som kontrolmyndighed, medmindre andet følger af § 9, stk.
2. Den pågældende lov finder imidlertid ikke anvendelse på
produkter omfattet af forordningen om kunstig intelligens
efter lovens § 2.
Det følger af artikel 99, stk. 1, i forordningen om kunstig
intelligens, blandt andet, at medlemsstaterne i overensstem-
melse med de vilkår og betingelser, der er fastsat i forord-
ningen om kunstig intelligens, fastsætter regler om sanktio-
ner og andre håndhævelsesforanstaltninger, som også kan
omfatte advarsler og ikkeøkonomiske foranstaltninger, for
operatørers overtrædelse af forordningen om kunstig intelli-
gens og træffer alle nødvendige foranstaltninger for at sikre,
at de gennemføres korrekt og effektivt, og dermed tager
hensyn til de retningslinjer, som Europa-Kommissionen har
udstedt i henhold til artikel 96 i forordningen om kunstig
intelligens. Artikel 99, stk. 1, finder anvendelse allerede fra
den 2. august 2025.
Det følger videre af artikel 28, stk. 1, i forordningen om
kunstig intelligens, at hver medlemsstat udpeger eller opret-
ter mindst én bemyndigende myndighed med ansvar for at
indføre og gennemføre de nødvendige procedurer for vurde-
ring, udpegelse og notifikation af overensstemmelsesvurde-
ringsorganer og for overvågning heraf. Disse procedurer ud-
vikles i samarbejde mellem de bemyndigende myndigheder
i alle medlemsstater.
2.3.2. Digitaliseringsministeriets overvejelser og den fore-
slåede ordning
Markedsovervågningsmyndighederne skal i medfør af for-
ordningen om kunstig intelligens føre tilsyn med forbudte
former for AI-praksis fra den 2. august 2025. Det foreslås,
at der fra denne dato i medfør af artikel 99, stk. 1, fastsæt-
tes nationale regler om blandt andet sanktioner og andre
håndhævelsesforanstaltninger, for operatørers overtrædelse
af artikel 5, stk. 1, litra a-g, i forordningen om kunstig
intelligens.
Digitaliseringsministeriet finder det mest hensigtsmæssigt,
at markedsovervågningsmyndighedernes kompetence svarer
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0180.png
180
til de relevante kompetencer, som myndighederne i medfør
af henvisningen i artikel 74, stk. 1, i forordningen om kuns-
tig intelligens, til markedsovervågningsforordningen som
minimum vil skulle besidde fra den 2. august 2026.
Markedsovervågningsmyndighederne er ansvarlige for at
gennemføre aktiviteter og foranstaltninger, der skal sikre, at
AI-systemer opfylder de krav, som er fastsat i forordningen
om kunstig intelligens.
Digitaliseringsministeriet foreslår på den baggrund, at der
blandt andet fastsættes regler om, at markedsovervågnings-
myndighederne, fra fysiske og juridiske personer omfattet
af artikel 2, stk. 1, litra a-f, i forordningen om kunstig intel-
ligens, kan afkræve alle oplysninger, som er nødvendige for
myndighedernes tilsynsvirksomhed, herunder til fastlæggel-
se af, om forhold hører under myndighedernes kompetence.
Hensigten med den foreslåede bestemmelse er at sikre, at
markedsovervågningsmyndighederne har tilstrækkelig mu-
lighed for at søge en sag oplyst. Det er essentielt for både
erhvervsdrivende og brugere, at markedsovervågningsmyn-
dighedernes afgørelser træffes på så oplyst et grundlag som
muligt. Dette har blandt andet afgørende betydning for vur-
deringen af, hvor indgribende en foranstaltning der skal
træffes samt for at sikre proportionalitet.
Der foreslås hertil, at markedsovervågningsmyndighederne
til enhver tid mod behørig legitimation og uden retskendelse
skal have adgang til alle erhvervsmæssige lokaliteter hos de
fysiske og juridiske personer, som er omfattet af artikel 2,
stk. 1, litra a-f, i forordningen om kunstig intelligens, når det
er nødvendigt for at påse overholdelse af forordningen om
kunstig intelligens, denne lov eller regler udstedt i medfør af
loven.
Hensigten med bestemmelsen er at sikre, at markedsover-
vågningsmyndighederne kan udføre en effektiv kontrol med
overholdelsen af forordningen om kunstig intelligens. Digi-
taliseringsministeriet vurderer desuden, at muligheden for
kontrolbesøg uden retskendelse vil have en afskrækkende
effekt i forhold til udbredelsen af forbudte AI-systemer.
Digitaliseringsministeriet foreslår herudover, at markeds-
overvågningsmyndighederne skal kunne være bistået af en
eller flere uafhængige sagkyndige i forbindelse med kontrol-
besøg og tekniske undersøgelser.
Det foreslås desuden, at markedsovervågningsmyndigheder-
ne skal kunne udstede påbud om overholdelse af artikel 5,
stk. 1, litra a-g, i forordningen om kunstig intelligens, denne
lov og regler fastsat i medfør af denne lov. Hertil foreslås
det, at markedsovervågningsmyndighederne skal kunne ud-
stede midlertidige forbud mod levering, markedsføring, ud-
stilling eller anden tilgængeliggørelse af et AI-system, hvis
AI-systemet vurderes at kunne udgøre en risiko.
Den foreslåede bestemmelse vil give markedsovervågnings-
myndighederne mulighed for midlertidigt at forbyde leve-
ring, markedsføring eller tilgængeliggørelse af AI-systemer,
hvis de vurderes at være forbudte i henhold til artikel 5,
stk. 1, litra a-g. Bestemmelsen vil alene kunne anvendes i
de tilfælde, hvor der er en formodning for, at et AI-system
udgør en fare, og hvor det vurderes uforsvarligt ud fra et
forsigtighedsprincip, at AI-systemet fortsat er i anvendelse,
imens markedsovervågningsmyndigheden foretager de nød-
vendige undersøgelser af systemet med henblik på at træffe
afgørelse.
Det foreslås herudover, at markedsovervågningsmyndighe-
derne skal kunne offentliggøre sine afgørelser i sager om
forbudte former for AI-praksis. Offentliggørelse vil kunne
ske med henblik på at oplyse offentligheden om, at AI-sy-
stemet udgør en forbudt form for AI-praksis i henhold til
artikel 5, stk. 1, litra a-g.
I den forbindelse bemærkes det, at visse fortrolige oplysnin-
ger ikke vil kunne offentliggøres som led i offentliggørelse
af myndighedens afgørelser. Dette gælder blandt andet op-
lysninger om tekniske indretninger eller fremgangsmåder
eller om drifts- eller forretningsforhold el.lign., for så vidt
det er af væsentlig økonomisk betydning for den person el-
ler virksomhed, oplysningerne angår, at oplysningerne ikke
videregives. Offentliggørelse af afgørelser vil desuden være
underlagt fortrolighedsreglerne fastlagt i forordningen om
kunstig intelligens artikel 78.
Det bemærkes, at enkelte bestemmelser i forordningen om
kunstig intelligens træder i kraft på forskellige tidspunkter
efter artikel 113 i forordningen om kunstig intelligens. Ka-
pitel I og II finder anvendelse fra den 2. februar 2025, og
kapitel III, afdeling 4, kapitel V, VII og XII og artikel 78
finder anvendelse fra den 2. august 2025, med undtagelse af
artikel 101.
Med nærværende lovforslag foreslås regler om de nationa-
le kompetente myndigheders opgaver, tilsyn og kontrol i
forhold til tilsynet med forbudte former for AI-praksis i
henhold til kapitel II i forordningen om kunstig intelligens.
Det foreslås herudover, at den bemyndigende myndighed ef-
ter forhandling med ministeren for digitalisering skal kunne
fastsætte nærmere regler om indførelse og gennemførelse
af nødvendige procedurer for vurdering, udpegelse og notifi-
kation af overensstemmelsesvurderingsorganer og for tilsyn
hermed i henhold til artikel 28, stk. 1, i forordningen om
kunstig intelligens samt suspension eller tilbagetrækning af
udpegning i henhold til artikel 36, stk. 4, i forordningen om
kunstig intelligens.
Eksempelvis kan disse regler omfatte krav om, at en jurid-
isk person, der ønsker at blive notificeret som overensstem-
melsesvurderingsorgan, skal være akkrediteret af DANAK
for de AI-systemer, som organet ønsker at foretage overens-
stemmelsesvurdering af.
Det foreslås i forbindelse hermed, at den bemyndigende
myndighed skal kunne delegere udpegningen af overens-
stemmelsesvurderingsorganer i et nærmere angivet omfang
til andre offentlige myndigheder eller private institutioner,
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0181.png
181
i henhold til artikel 28, stk. 2, i forordningen om kunstig
intelligens.
Med den foreslåede bestemmelse vil den bemyndigende
myndighed blandt andet få mulighed for at fastsætte regler
til implementering af nødvendige bestemmelser i kapitel
3, afdeling 4 (om bemyndigende myndigheder og bemyndi-
gede organer), i forordningen om kunstig intelligens, der
finder anvendelse fra den 2. august 2025.
Med den foreslåede bestemmelse vil der blandt andet kun-
ne fastsættes regler om indførelse og gennemførelse af nød-
vendige procedurer for vurdering, udpegelse og notifikation
af overensstemmelsesvurderingsorganer. Der vil endvidere
kunne blive fastsat regler om akkreditering, og om hvilke
opgaver disse udpegede organer skal udføre.
Der henvises i øvrigt til lovforslagets §§ 4-9 og de specielle
bemærkninger hertil.
2.4. Sanktioner
2.4.1. Gældende ret
Som anført under pkt. 2.1 findes der ikke regler, som sup-
plerer forordningen om kunstig intelligens og dermed heller
ikke regler om sanktionering af overtrædelser af bestemmel-
ser i forordningen om kunstig intelligens.
Det følger af artikel 99, stk. 1, i forordningen om kunstig
intelligens, at medlemsstaterne – i overensstemmelse med
de vilkår og betingelser, der er fastsat i forordningen om
kunstig intelligens – fastsætter regler om sanktioner og an-
dre håndhævelsesforanstaltninger, som også kan omfatte ad-
varsler og ikkeøkonomiske foranstaltninger, for operatørers
overtrædelse af forordningen om kunstig intelligens, og at
medlemsstaterne træffer alle nødvendige foranstaltninger for
at sikre, at de gennemføres korrekt og effektivt, og dermed
tager hensyn til de retningslinjer, som Kommissionen har
udstedt i henhold til artikel 96. Det følger endvidere, at
sanktionerne skal være effektive, stå i et rimeligt forhold
til overtrædelsen og have afskrækkende virkning. Der tages
hensyn til SMV’ers, herunder iværksættervirksomheders, in-
teresser og deres økonomiske levedygtighed.
Det følger videre af artikel 99, stk. 3, at manglende over-
holdelse af forbud mod de i artikel 5 anførte former
for AI-praksis straffes med administrative bøder på op til
35.000.000 EUR eller, hvis lovovertræderen er en virksom-
hed, op til 7 pct. af dens samlede globale årlige omsætning
i det foregående regnskabsår, alt efter hvilket beløb der er
størst.
Det følger herudover af artikel 99, stk. 5, at afgivelse af
ukorrekte, ufuldstændige eller vildledende oplysninger til
bemyndigede organer eller nationale kompetente myndighe-
der som svar på en anmodning straffes med administrative
bøder på op til 7.500.000 EUR eller, hvis lovovertræderen er
en virksomhed, op til 1 pct. af dens samlede globale årlige
omsætning i det foregående regnskabsår, alt efter hvilket
beløb der er størst.
Ved ”bemyndiget organ” forstås et overensstemmelses-
vurderingsorgan, der er notificeret i overensstemmelse
med denne forordning og anden relevant EU-harmonise-
ringslovgivning. Et overensstemmelsesvurderingsorgan ud-
fører overensstemmelsesvurderingsaktiviteter, herunder af-
prøvning, certificering og inspektion af AI-systemer.
Slutteligt bemærkes det, at det følger af artikel 99, stk.
9, i forordningen om kunstig intelligens, at afhængigt af
medlemsstaternes retssystem kan reglerne om administrative
bøder anvendes på en sådan måde, at bøderne pålægges af
kompetente nationale domstole eller af andre organer, alt
efter hvad der er relevant i disse medlemsstater.
2.4.2. Digitaliseringsministeriets overvejelser og den fore-
slåede ordning
2.4.2.1. Bødestraf
Det er Digitaliseringsministeriets vurdering, at sanktioner
for overtrædelser af forordningens bestemmelser efter dansk
ret fastsættes som en strafferetlig sanktion i henhold til arti-
kel 99, stk. 9, 1. pkt., jf. artikel 99, stk. 3 og 5.
Digitaliseringsministeriet finder, at det i lovforslaget bør
fastsættes, hvilke bestemmelser i forordningen der er straf-
belagt ved overtrædelser. På den måde kan der skabes klar-
hed over hvilke bestemmelser, der er strafferetligt sanktione-
ret.
På den baggrund foreslås det, at overtrædelser af følgende
bestemmelser i forordningen skal kunne sanktioneres straf-
feretligt med bøde:
– Overtrædelser af bestemmelserne om forbudte former
for AI-praksis i henhold til artikel 5, stk. 1, litra a-g, i
forordningen om kunstig intelligens.
– Afgivelse af ukorrekte, ufuldstændige eller vildleden-
de oplysninger til bemyndigede organer eller nationale
kompetente myndigheder som svar på en anmodning, jf.
artikel 99, stk. 5, i forordningen om kunstig intelligens.
Det foreslås herudover, at overtrædelse af følgende bestem-
melser i nærværende lovforslag skal kunne sanktioneres
strafferetligt med bøde:
– Undladelse af at efterkomme markedsovervågningsmyn-
dighedens krav efter § 5.
– Hindring i at markedsovervågningsmyndigheden får ad-
gang til lokaliteter efter § 6, stk. 1, eller hindring af
markedsovervågningsmyndigheden i at foretage tekniske
undersøgelser af et AI-system efter § 6, stk. 2.
– Undladelse af et efterkomme et påbud eller et midlerti-
digt forbud udstedt efter § 8.
Der henvises i den forbindelse også til pkt. 2.4.2.2. nedenfor
og lovforslagets § 11 om muligheden for at fastsætte regler
om anvendelse af administrative bødeforelæg.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0182.png
182
Det er endvidere Digitaliseringsministeriets vurdering, at det
er mest hensigtsmæssigt, hvis forældelsesfristen for overtræ-
delse af den foreslåede lov, regler udstedt i medfør af loven
eller forordningen om kunstig intelligens fastsættes til fem
år, under hensyntagen til, at de omfattede straffesager kan
antage en vis størrelse og kompleksitet.
Der henvises til lovforslagets § 10 og de specielle bemærk-
ninger hertil.
2.4.2.2. Administrative bødeforelæg
Med lovforslagets § 11 foreslås det, at de kompetente nati-
onale myndigheder efter forhandling med justitsministeren
skal kunne fastsætte regler om, at markedsovervågnings-
myndighederne i nærmere angivne sager om overtrædelse
af forordningen om kunstig intelligens, loven eller regler ud-
stedt i medfør heraf kan udstede administrative bødeforelæg.
Forslaget udgør en hjemmel til fastsættelse af regler, der
muliggør hurtig og effektiv behandling af ukomplicerede
overtrædelser. Kompetencen i stk. 1 vil alene gælde ved
åbenbare og objektivt konstaterbare overtrædelser, hvor
overtrædelserne generelt er ensartede og ukomplicerede og
uden bevismæssige tvivlsspørgsmål, og hvor bødeudmålin-
gen ligger fast.
Bemyndigelsesbestemmelsen vil kun kunne anvendes efter
forhandling med justitsministeren. Det vil hertil være en
betingelse, at der skal være tale om sager, der er enkle og
ukomplicerede uden bevistvivl og uden tvivl om sanktions-
niveau for normalbøder i førstegangstilfælde.
Forslaget retter sig kun mod sager, hvor den, der har begået
det strafbare forhold, tilstår det strafbare forhold og er rede
til at betale. I tilfælde, hvor den, der har begået overtræ-
delsen, ikke erklærer sig rede til at betale bøden inden en
nærmere angivet frist, vil domstolene afgøre bødespørgsmå-
let. I sådanne tilfælde vil den relevante kompetente nationa-
le myndighed skulle indgive politianmeldelse sammen med
en redegørelse for den kompetente myndigheds vurdering,
herunder en vurdering af niveauet for bøden.
Der henvises i øvrigt til lovforslagets §§ 10 og 11 og de
specielle bemærkninger hertil.
3. Forholdet til databeskyttelsesforordningen og databe-
skyttelsesretten
Behandling af personoplysninger i relation til forordningen
om kunstig intelligens er reguleret af Europa-Parlamentets
og Rådets forordning nr. 2016/679 af 27. april 2016 (databe-
skyttelsesforordningen) samt lov nr. 502 af 23. maj 2018 om
supplerende bestemmelser til forordningen om beskyttelse
af fysiske personer i forbindelse med behandling af person-
oplysninger og om fri udveksling af sådanne oplysninger
(databeskyttelsesloven).
Det forudsættes med den foreslåede ordning, at en række
myndigheder, herunder Digitaliseringsstyrelsen, Datatilsynet
og Domstolsstyrelsen, som led i sagsbehandlingen vil skulle
behandle personoplysninger. Markedsovervågningsmyndig-
hederne er dataansvarlige for den del af behandlingen af
personoplysninger, der foregår i myndigheden.
Det forslås i lovforslaget, at markedsovervågningsmyndig-
hederne kan afkræve alle oplysninger, som er nødvendige
for myndighedernes tilsynsvirksomhed, herunder til fastlæg-
gelse af, om et forhold hører under myndighedernes kompe-
tence fra de fysiske og juridiske personer, som er omfattet
af artikel 2, stk. 1, litra a-f, i forordningen om kunstig intel-
ligens.
Ifølge databeskyttelsesforordningens artikel 6, stk. 2 og 3, er
det muligt at implementere mere specifikke bestemmelser,
der tilpasser anvendelsen af artikel 6, stk. 1, litra c, og
artikel 6, stk. 1, litra e. Den foreslåede bestemmelse i § 5
udgør således supplerende retsgrundlag til databeskyttelses-
forordningens artikel 6, stk. 1 litra e.
I det omfang myndighederne som led i sagsbehandlingen
undtagelsesvist vil komme til at behandle følsomme oplys-
ninger omfattet af databeskyttelsesforordningens art. 9, vil
behandlingen i sådanne tilfælde være nødvendig af hensyn
til væsentlige samfundsinteresser, som angivet i databeskyt-
telsesforordningens artikel 9, stk. 2, litra g. Behandlingen
vurderes hertil nødvendig for, at markedsovervågningsmyn-
digheden kan løfte tilsynsforpligtelsen i henhold til artikel 5,
stk. 1, litra a-g, i forordningen om kunstig intelligens.
Det vurderes, at den foreslåede bestemmelse er proportional
i forhold til de legitime mål og respekterer det væsentlig-
ste indhold af retten til databeskyttelse, da behandlingen
er betinget af nødvendighed. Det foreslås endvidere i lov-
forslagets § 7, at markedsovervågningsmyndighederne kan
offentliggøre deres afgørelser i sager om forbudte former for
AI-praksis i henhold til artikel 5. stk. 1, litra a-g, i forordnin-
gen om kunstig intelligens.
Offentliggørelsesordningen kan i nogle tilfælde medføre, at
oplysninger, som omfattes af databeskyttelsesforordningens
artikel 10, offentliggøres. Den foreslåede bestemmelse ud-
gør således supplerende retsgrundlag til databeskyttelsesfor-
ordningens artikel 10.
Digitaliseringsministeriet vurderer, at de samfundsmæssige
hensyn bag offentliggørelse er tilstrækkeligt tungtvejende
til at etablere en offentliggørelsesordning. Offentliggørelse i
henhold til den foreslåede § 7 vil dog kun være nødvendig,
når offentliggørelsen sker af hensyn til varetagelsen af pri-
vate eller offentlige interesser, der klart overstiger hensynet
til de interesser, der begrunder hemmeligholdelse af oplys-
ningerne. Det bemærkes, at der ikke vil være tale om syste-
matisk offentliggørelse, men alene offentliggørelse baseret
på en konkret vurdering af sagens omstændigheder.
Markedsovervågningsmyndighederne er endvidere beretti-
gede – og efter omstændighederne også forpligtede – til at
undlade at offentliggøre oplysninger fra sager, som tilsynet
har behandlet, hvis offentlighedens interesse i at få kendskab
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0183.png
183
til oplysningerne findes at burde vige for afgørende hensyn
til private og offentlige interesser. I tvivlstilfælde vil det
være naturligt at indhente en udtalelse herom fra den data-
ansvarlige, som er part i sagen, og eventuelt tillige fra den
registrerede.
Digitaliseringsministeriet skal afslutningsvist bemærke, at
det forudsættes, at de øvrige bestemmelser i databeskyt-
telsesforordningen og databeskyttelsesloven, herunder de
grundlæggende principper i databeskyttelsesforordningens
artikel 5 også iagttages, når der behandles personoplysnin-
ger i medfør af de forslåede bestemmelser.
Der henvises i øvrigt til lovforslagets § 7 og de specielle
bemærkninger hertil.
4. Økonomiske konsekvenser og implementeringskonse-
kvenser for det offentlige
Det bemærkes overordnet, at lovforslaget supplerer forord-
ningen om kunstig intelligens, som har økonomiske konse-
kvenser og implementeringskonsekvenser for det offentlige.
Lovforslaget forventes på den baggrund ikke i sig selv at
have økonomiske konsekvenser eller implementeringskon-
sekvenser for det offentlige af betydning. Lovforslaget har
ikke i sig selv i øvrigt økonomiske konsekvenser eller im-
plementeringskonsekvenser af betydning for kommunerne
eller regionerne.
Forordningen om kunstig intelligens medfører økonomiske
konsekvenser for de kompetente myndigheder, som skal føre
tilsyn på baggrund heraf, som dog ikke kan henføres til lov-
forslaget. De forøgede udgifter vedrører løn til medarbejde-
re, der varetager tilsyns- og håndhævelsesopgaver i relation
til forordningen om kunstig intelligens, samt til almindeligt
kontorhold, herunder it-understøttelse, efteruddannelse, rej-
seudgifter ved deltagelse i internationalt arbejde m.v. Dette
omfatter navnlig udgifter, som Datatilsynet, Digitaliserings-
styrelsen og Domstolsstyrelsen skal afholde i forbindelse
med tilsynet med forbudte former for AI-systemer.
For så vidt angår lovforslagets bemyndigelsesbestemmelser
vil der i forbindelse med udstedelsen af eventuelle bekendt-
gørelser blive foretaget en vurdering af eventuelle økonomi-
ske konsekvenser og implementeringskonsekvenser for det
offentlige.
Digitaliseringsministeriet har herudover overvejet, hvorvidt
lovforslaget følger de syv principper for digitaliseringsklar
lovgivning. Da lovforslaget fungerer som et forordningsbe-
stemt supplement til forordningen om kunstig intelligens,
har det ikke selvstændig relevans i forbindelse med de syv
principper. Der er heller ikke foreslået yderligere suppleren-
de bestemmelser, som kunne være relevante i denne sam-
menhæng. Det bemærkes dog, at det supplerende lovforslag
er udformet således, at de syv principper for digitaliserings-
klar lovgivning iagttages i videst muligt omfang.
5. Økonomiske og administrative konsekvenser for er-
hvervslivet m.v.
Det bemærkes overordnet, at lovforslaget supplerer forord-
ningen om kunstig intelligens, som har økonomiske og ad-
ministrative konsekvenser for erhvervslivet mv.
For så vidt angår lovforslagets bemyndigelsesbestemmelser
vil der i forbindelse med udstedelsen af eventuelle bekendt-
gørelser blive foretaget en vurdering af eventuelle økonomi-
ske og administrative konsekvenser for erhvervslivet mv.
Lovforslaget har været sendt til Erhvervsstyrelsens Områ-
de for Bedre Regulering (OBR), der på det foreliggende
grundlag har vurderet, at lovforslaget medfører administra-
tive konsekvenser i form af omkostninger for erhvervsli-
vet. De administrative konsekvenser følger af fremskaffel-
sen af oplysninger til markedsovervågningsmyndigheden for
virksomheder, hvor der ligeledes kan være tale om ikke-for-
budte AI-systemer, jf. § 5.
På baggrund af ovenstående vurderes det, at de samlede ad-
ministrative konsekvenserne ikke overstiger bagatelgrænsen
for forelæggelsen for Regeringens økonomiudvalg på 4 mio.
kr., hvorfor de ikke kvantificeres nærmere.
6. Administrative konsekvenser for borgerne
Lovforslaget supplerer forordningen om kunstig intelligens,
som har administrative konsekvenser for borgerne.
Lovforslaget forventes på den baggrund ikke i sig selv at
have administrative konsekvenser for borgerne af betydning.
7. Klimamæssige konsekvenser
Lovforslaget medfører ikke klimamæssige konsekvenser.
8. Miljø- og naturmæssige konsekvenser
Lovforslaget medfører ikke miljø- og naturmæssige konse-
kvenser.
9. Forholdet til EU-retten
Lovforslaget fastsætter supplerende bestemmelser til Euro-
pa-Parlamentets og Rådets forordning (EU) 2024/1689 af
13. juni 2024 om harmoniserede regler for kunstig intel-
ligens og om ændring af forordning (EF) nr. 300/2008,
(EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU)
2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU,
(EU) 2016/797 og (EU) 2020/1828 (forordningen om kuns-
tig intelligens), EU-Tidende 2024, nr. L af 12. juli 2024.
Forordningen om kunstig intelligens finder ikke i sin helhed
anvendelse i Danmark. Enkelte af forordningens bestemmel-
ser omfattes af det danske retsforbehold i henhold til proto-
kol nr. 22 om Danmarks stilling. I medfør af retsforbeholdet
deltager Danmark ikke i EU’s samarbejde på visse områder,
herunder områder relateret til politiarbejde, og EU-retlige
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0184.png
184
regler, der vedrører disse områder, er derfor ikke gældende i
Danmark.
Forordningen om kunstig intelligens er vedtaget under hen-
visning til artikel 114 og 16 i TEUF. I henhold til artikel
2a i protokol nr. 22 om Danmarks stilling er regler, der er
fastsat på grundlag af artikel 16 i TEUF og som vedrører
medlemsstaternes behandling af personoplysninger under
udøvelsen af aktiviteter, der er omfattet af TEUF tredje del,
afsnit V, kapitel 4 eller 5, ikke bindende for og finder ikke
anvendelse i Danmark. Det følger af præambelbetragtning
nr. 41 i forordningen om kunstig intelligens, at i medfør af
artikel 2 og 2a i protokol nr. 22 om Danmarks stilling, er de
regler, der er fastsat i artikel 5, stk. 1, litra g, i forordningen
om kunstig intelligens, i det omfang den finder anvendel-
se på brugen af systemer til biometrisk kategorisering til
aktiviteter inden for politisamarbejde og retligt samarbejde
i straffesager, artikel 5, stk. 1, litra d, i det omfang den
finder anvendelse på brugen af AI-systemer, der er omfattet
af nævnte bestemmelse, artikel 5, stk. 1, litra h, og stk.
2-6, og artikel 26, stk. 10, ikke bindende for og finder ikke
anvendelse i Danmark.
sestidspunkterne i forordningen om kunstig intelligens. I den
mellemliggende periode vil civilretlige anliggender kunne
håndhæves ved domstolene.
10. Hørte myndigheder og organisationer m.v.
Et udkast til lovforslag har i perioden fra den 1. november
2024 til den 29. november 2024 (28 dage) været sendt i
høring hos følgende myndigheder og organisationer m.v.:
Advokatsamfundet, AE – Arbejderbevægelsens Erhvervs-
råd, Akademikerne, ATP, Datatilsynet, Danske Advokater,
Danske Iværksættere, Dansk Industri, Den Danske Dom-
merforening, Domstolsstyrelsen, Erhvervshus Midtjylland,
Erhvervshus Nordjylland, Erhvervshus Sjælland, Erhvervs-
hus Sydjylland, Erhvervshus Fyn, Erhvervshus Hovedsta-
den, Fagbevægelsens Hovedorganisation (FH), FDIH, In-
stitut for Menneskerettigheder, Ingeniørforeningen IDA,
IT-Politisk Forening, KMD, KL – Kommunernes Lands-
forening, Prosa, KOMBIT, Landbrug & Fødevarer, Rådet
for Socialt Udsatte, SMV Danmark, Teleindustrien, Dansk
IT, Digital Lead, Dataetisk Råd, DIGST/ERST Sekretari-
at, Dansk Arbejdsgiverforening, Dansk Erhverv, Danske
Universiteter, Danske Regioner, DIRA (Dansk Robot Net-
værk), Finans Danmark, Forbrugerrådet Tænk, F & P, Fon-
den Dansk Standard, FSR, GTS-foreningen, HK Danmark,
IBIZ-center, IT-Branchen, MADE, Nets DanID, NNIT,
Odense Robotics, Psykiatrifonden, Rigsrevisionen, Rigsom-
budsmanden i Grønland, Rigsombudsmanden på Færøerne
og Rådet for Digital Sikkerhed.
Forordningen om kunstig intelligens har trinvis anvendel-
se. Kapitel II om forbudte former for AI-praksis finder
anvendelse fra den 2. februar 2025. Kapitel XII om sank-
tioner finder imidlertid først anvendelse fra den 2. august
2025. Forbudte former for AI-praksis kan derfor først med-
føre sanktioner fra den 2. august 2025. Ikrafttrædelsesdatoen
i lovforslaget er således i overensstemmelse med anvendel-
11. Sammenfattende skema
Positive konsekvenser/mindreudgifter Negative konsekvenser/merudgifter (hvis
(hvis ja, angiv omfang/hvis nej, anfør »In- ja, angiv omfang/hvis nej, anfør »Ingen«)
gen«)
Økonomiske konsekvenser for stat, kom- Ingen
Ingen
muner og regioner
Implementeringskonsekvenser for stat, Ingen
Ingen
kommuner og regioner
Økonomiske konsekvenser for erhvervsli- Ingen
Ingen
vet m.v.
Administrative konsekvenser for er-
Ingen
Erhvervsstyrelsens Område for Bedre Re-
hvervslivet m.v.
gulering (OBR) har på det foreliggende
grundlag vurderet, at lovforslaget medfø-
rer administrative konsekvenser i form
af omkostninger for erhvervslivet. De ad-
ministrative konsekvenser følger af frem-
skaffelsen af oplysninger til markedsover-
vågningsmyndigheden for virksomheder,
hvor der ligeledes kan være tale om ikke-
forbudte AI-systemer, jf. § 5.
De samlede administrative konsekvenser-
ne overstiger ikke bagatelgrænsen for
forelæggelsen for Regeringens økonomi-
udvalg på 4 mio. kr., hvorfor de ikke
kvantificeres nærmere.
Ingen
Administrative konsekvenser for borgerne Ingen
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0185.png
185
Klimamæssige konsekvenser
Miljø- og naturmæssige konsekvenser
Forholdet til EU-retten
Ingen
Ingen
Ingen
Ingen
Lovforslaget fastlægger supplerende bestemmelser til forordningen om kunstig in-
telligens. Grundet Danmarks retsforbehold er visse dele af forordningen, især de
relateret til politisamarbejde og retligt samarbejde i straffesager, ikke gældende.
Det følger af præambelbetragtning nr. 41 i forordningen om kunstig intelligens, at
i medfør af artikel 2 og 2a i protokol nr. 22 om Danmarks stilling, er de regler,
der er fastsat i artikel 5, stk. 1, litra g, i forordningen om kunstig intelligens, i det
omfang den finder anvendelse på brugen af systemer til biometrisk kategorisering til
aktiviteter inden for politisamarbejde og retligt samarbejde i straffesager, artikel 5,
stk. 1, litra d, i det omfang den finder anvendelse på brugen af AI-systemer, der er
omfattet af nævnte bestemmelse, artikel 5, stk. 1, litra h, og stk. 2-6, og artikel 26,
stk. 10, ikke bindende for og finder ikke anvendelse i Danmark.
Ja
Nej
X
hed til at fungere som centralt kontaktpunkt for forordnin-
gen om kunstig intelligens og underretter Kommissionen om
identiteten af det centrale kontaktpunkt.
Det følger endvidere af artikel 28, stk. 1, i forordningen
om kunstig intelligens, at hver medlemsstat udpeger eller
opretter mindst én bemyndigende myndighed med ansvar
for at indføre og gennemføre de nødvendige procedurer for
vurdering, udpegelse og notifikation af overensstemmelses-
vurderingsorganer og for overvågning heraf. Disse procedu-
rer udvikles i samarbejde mellem de bemyndigende myndig-
heder i alle medlemsstater.
Det foreslås i
stk. 1,
at Digitaliseringsstyrelsen, Datatilsynet
og Domsstolsstyrelsen udpeges som nationale kompetente
myndigheder, jf. artikel 70, stk. 1, i forordningen om kunstig
intelligens.
Med den foreslåede bestemmelse udpeges Digitaliserings-
styrelsen, Datatilsynet og Domsstolsstyrelsen som nationale
kompetente myndigheder.
Med bestemmelsen sikres det, at kravet i forordningen om
kunstig intelligens artikel 70, stk. 1, om udpegning af kom-
petente myndigheder er iagttaget.
Ved ”nationale kompetente myndigheder” forstås en bemyn-
digende myndighed eller en markedsovervågningsmyndig-
hed i henhold til artikel 3, nr. 48, i forordningen om kunstig
intelligens.
De bemyndigende myndigheder og markedsovervågnings-
myndigheder skal varetage deres opgaver og beføjelser uaf-
hængigt af den pågældende ressortminister og skal være
uafhængige af udefrakommende indblanding fra offentlige
og private enheder. Dette indebærer også, at de bemyndigen-
de myndigheder og markedsovervågningsmyndigheder ikke
Er i strid med de fem principper for im-
plementering af erhvervsrettet EU-regule-
ring (der i relevant omfang også gælder
ved implementering af ikke-erhvervsrettet
EU-regulering) (sæt X)
Bemærkninger til lovforslagets enkelte bestemmelser
Til § 1
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret, som supplerer forordningen om kunstig intelligens.
Det foreslås i
§ 1,
at loven supplerer Europa-Parlamentets
og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om
harmoniserede regler for kunstig intelligens og om ændring
af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU)
nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU)
2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797 og
(EU) 2020/1828 (forordningen om kunstig intelligens) jf.
bilag 1.
Til § 2
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret om udpegning af nationale kompetente myndigheder
i form af bemyndigende myndigheder og markedsovervåg-
ningsmyndigheder i henhold til artikel 70, stk. 1, i forord-
ningen om kunstig intelligens.
Det følger af artikel 70, stk. 1, i forordningen om kunstig
intelligens, at hver medlemsstat opretter eller udpeger som
nationale kompetente myndigheder mindst én bemyndigen-
de myndighed og mindst én markedsovervågningsmyndig-
hed med henblik på overholdelse af forordningen. Disse
nationale kompetente myndigheder udøver deres beføjelser
uafhængigt, upartisk og uden bias for derved at beskytte
objektiviteten i deres aktiviteter og opgaver og for at sikre
gennemførelsen af forordningen.
Af forordningens artikel 70, stk. 2, 3. pkt., følger det, at
medlemsstaterne udpeger en markedsovervågningsmyndig-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0186.png
186
vil kunne modtage eller søge instrukser fra andre, herunder
vedkommende ressortminister, uanset at de i øvrigt er orga-
nisatorisk underlagt det pågældende ressortministerium.
De nationale kompetente myndigheders eventuelle overord-
nede myndigheder har således ikke instruktionsbeføjelse i
de opgaver og sager, som behandles i medfør af den foreslå-
ede lov, herunder i forbindelse med de nationale kompetente
myndigheders udførelse af tilsyn og kontrol. De nationale
kompetente myndigheder er dermed funktionelt uafhængige
af overordnede myndigheder.
De nationale kompetente myndigheder kan i forbindelse
med myndighedernes øvrige arbejde være underlagt instruk-
tioner fra overordnede myndigheder, uden at det påvirker
den funktionelle uafhængighed på området omfattet af for-
ordningen om kunstig intelligens.
For enkelte sager eller på enkelte områder kan der være
behov for særegen fagspecifik ekspertise med henblik på at
sikre, at sagerne afgøres på en måde, der stemmer overens
med praksis på tilgrænsende fagområder, som henhører un-
der andre myndigheders ressort end den eller de udpegede
kompetente myndigheder. I disse tilfælde bør kravet om
uafhængighed ikke forhindre muligheden for, at en kompe-
tent myndighed kan rådføre sig eller regelmæssigt udveks-
le synspunkter med andre myndigheder, herunder retshånd-
hævende myndigheder, krisestyringsmyndigheder eller øvri-
ge markedsovervågnings- eller datatilsynsmyndigheder samt
indhente teknisk bistand m.v.
Det foreslås i
stk. 2,
at Digitaliseringsstyrelsen udpeges som
bemyndigende myndighed, jf. artikel 28, stk. 1, og artikel
70, stk. 1, i forordningen om kunstig intelligens, centralt
kontaktpunkt, jf. artikel 70, stk. 2, 3. pkt., i forordningen om
kunstig intelligens, og markedsovervågningsmyndighed for
de dele af tilsynet med forbudte former for AI-praksis, som
er omfattet af artikel 5, stk. 1, litra a-c, og artikel 5, stk. 1,
litra e-f, i forordningen om kunstig intelligens.
Ved ”bemyndigende myndighed” forstås den nationale myn-
dighed, der er ansvarlig for at indføre og gennemføre de
nødvendige procedurer for vurdering, udpegning og notifi-
kation af overensstemmelsesvurderingsorganer og for over-
vågning heraf i henhold til artikel 3, stk. 19, i forordningen
om kunstig intelligens.
Ved ”overensstemmelsesvurderingsorgan” forstås et organ,
der som tredjepart udfører overensstemmelsesvurderings-
aktiviteter, herunder afprøvning, certificering og inspek-
tion. ”Overensstemmelsesvurdering” vedrører processen til
påvisning af, om de krav til højrisiko-AI-systemer, som er
fastsat i kapitel III, afdeling 2, i forordningen om kunstig
intelligens, er opfyldt.
Ved ”markedsovervågningsmyndighed” forstås den nationa-
le myndighed, der udfører aktiviteterne og træffer foranstalt-
ningerne i henhold til forordning (EU) 2019/1020 i henhold
til artikel 3, stk. 26, i forordningen om kunstig intelligens.
Med den foreslåede bestemmelse vil Digitaliseringsstyrelsen
blive udpeget som både bemyndigende myndighed og som
centralt kontaktpunkt. Det foreslås dermed, at Digitalise-
ringsstyrelsen tillægges de beføjelser mv., som følger af det-
te lovforslag og forordningen om kunstig intelligens. Derud-
over sikres det, at kravet i forordningen om kunstig intelli-
gens artikel 70, stk. 1, om udpegning af kompetente myn-
digheder samt kravet i forordningens artikel 70, stk. 2, 3.
pkt., om udpegning af et centralt kontaktpunkt er iagttaget.
Med den foreslåede bestemmelse vil Digitaliseringsstyrelsen
endvidere blive udpeget som markedsovervågningsmyndig-
hed for de dele af tilsynet med forbudte former for AI-prak-
sis, som er omfattet af artikel 5, stk. 1, litra a-c, og artikel
5, stk. 1, litra e-f, i forordningen om kunstig intelligens. Ar-
tikel 5, stk. 1, litra a-c, og artikel 5, stk. 1, litra e-f, i
forordningen om kunstig intelligens, vedrører blandt andet
visse AI-systemer, der anvender subliminale, bevidst mani-
pulerende eller vildledende teknikker, visse AI-systemer, der
udnytter sårbarheder på grundlag af alder, handicap eller en
særlig social eller økonomisk situation, og visse AI-syste-
mer, som bruges til evaluering eller klassificering af fysiske
personer, hvis sociale bedømmelse fører til visse former for
skadelig eller ugunstig behandling af fysiske personer eller
grupper af personer. Artikel 5, stk. 1, litra e-f, vedrører
blandt andet AI-systemer, der opretter eller udvider ansigts-
genkendelsesdatabaser gennem ikkemålrettet indsamling af
ansigtsbilleder fra internettet eller kameraovervågning og
visse AI-systemer, der bruges til at udlede følelser hos en
fysisk person på arbejdspladser og uddannelsesinstitutioner.
Det foreslås i
stk. 3,
at Datatilsynet udpeges som markeds-
overvågningsmyndighed for de dele af tilsynet med forbudte
former for AI-praksis, der er omfattet af artikel 5, stk. 1,
litra d, og artikel 5, stk. 1, litra g, i forordningen om kunstig
intelligens.
Med den foreslåede bestemmelse vil Datatilsynet blive ud-
peget som markedsovervågningsmyndighed for de dele af
tilsynet med forbudte former for AI-praksis, der er omfattet
af artikel 5, stk. 1, litra d, og artikel 5, stk. 1, litra g. Artikel
5, stk. 1, litra d, vedrører visse AI-systemer, som bruges til
at foretage risikovurderinger baseret på profilering af en fy-
sisk person eller en vurdering af deres personlighedstræk og
personlige egenskaber for at vurdere eller forudsige risikoen
for, at en fysisk person begår en strafbar handling. Artikel 5,
stk. 1, litra g, vedrører blandt andet AI-systemer, der bruges
til biometrisk kategorisering, som kategoriserer fysiske per-
soner individuelt på grundlag af deres biometriske data med
henblik på at udlede deres race, politiske anskuelser, fagfor-
eningsmedlemskab, religiøse eller filosofiske overbevisning,
seksuelle forhold eller seksuelle orientering. Datatilsynet er
dog kun markedsovervågningsmyndighed for de dele af arti-
kel 5, stk. 1, litra d og g, som ikke er omfattet af det danske
retsforbehold.
Det foreslås i
stk. 4,
at Domstolsstyrelsen udpeges som
markedsovervågningsmyndighed for de dele af tilsynet med
forbudte former for AI-systemer, som vedrører domstolenes
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0187.png
187
anvendelse af AI-systemer, når domstolene ikke handler i
deres egenskab af domstol. Dette vil indebære, at Domstols-
styrelsens tilsyn alene omfatter domstolenes administrative
forhold og ikke deres judicielle funktioner.
Det foreslås i
stk. 5,
at for tilsynet med domstolenes anven-
delse af AI-systemer, som ikke omfattes af stk. 4, træffes
afgørelser af vedkommende ret. Afgørelsen kan kæres til
højere ret. For særlige domstole, hvis afgørelser ikke kan
indbringes for højere ret, kan den afgørelse, der er nævnt i
1. pkt., kæres til den landsret, i hvis kreds retten er beliggen-
de. Kærefristen er 4 uger fra den dag, afgørelsen er meddelt
den pågældende.
Bestemmelsen vil indebære, at afgørelser om domstolenes
anvendelse af AI-systemer, når disse anvendes som led
i domstolenes judicielle funktioner, vil blive truffet af
vedkommende ret.
Endvidere foreslås det, at afgørelser truffet efter stk. 5,
vil kunne kæres til højere ret inden for en kærefrist på 4
uger. For særlige domstole, hvis afgørelser ikke kan indbrin-
ges for højere ret, vil afgørelsen kunne kæres til den lands-
ret, i hvis kreds retten er beliggende.
Til § 3
Der er på nuværende tidspunkt ikke fastsat regler i dansk ret
om klageadgang i forbindelse med de nationale kompetente
myndigheders afgørelser.
Det foreslås i
§ 3,
at de nationale kompetente myndigheders
afgørelser efter denne lov, regler udstedt i medfør heraf samt
forordningen om kunstig intelligens ikke kan indbringes for
anden administrativ myndighed.
Bestemmelsen udelukker, at de nationale kompetente myn-
digheders afgørelser er undergivet administrativ rekurs. Så-
danne afgørelser kan indbringes direkte for domstolene efter
grundlovens § 63.
Med bestemmelsen sikres der overensstemmelse med kra-
vene i artikel 70, stk. 1, 2. pkt., i forordningen om kuns-
tig intelligens om de nationale kompetente myndigheders
uafhængighed. Digitaliseringsministeriet vurderer, at det er
nødvendigt for at sikre markedsovervågningsmyndigheder-
nes uafhængighed, at en afgørelse truffet af markedsover-
vågningsmyndigheden ikke kan omgøres eller ændres af
myndighedens sædvanlige overordnede.
Til § 4
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret om de nationale kompetente myndigheders opgaver i
henhold til forordningen om kunstig intelligens.
Det foreslås i
§ 4,
at de nationale kompetente myndigheder
påser overholdelsen af forordningen om kunstig intelligens,
denne lov og regler udstedt i medfør heraf.
Bestemmelsen skal sammen med de foreslåede §§ 5-9 sikre,
at de nationale kompetente myndigheder kan udføre deres
opgaver i henhold til forordningen, herunder foretage kon-
trol og tilsyn.
De nationale kompetente myndigheder omfatter henholdsvis
bemyndigende myndigheder og markedsovervågningsmyn-
digheder.
Til § 5
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret om markedsovervågningsmyndighedernes mulighed for
at afkræve oplysninger fra fysiske og juridiske personer som
led i et tilsyn i henhold til forordningen om kunstig intelli-
gens.
Det fremgår af præambelbetragtning nr. 156 i forordnin-
gen om kunstig intelligens, at markedsovervågningsmyn-
digheder, der er udpeget i henhold til forordningen, alle
bør have håndhævelsesbeføjelser som fastsat i forordnin-
gen om kunstig intelligens og forordning (EU) 2019/1020
om markedsovervågning og produktoverensstemmelse (mar-
kedsovervågningsforordningen).
Det følger af markedsovervågningsforordningens artikel 14,
stk. 4, litra a-c, at markedsovervågningsmyndigheden som
minimum skal tillægges beføjelsen til at pålægge erhvervs-
drivende at forelægge relevante dokumenter, tekniske speci-
fikationer, data eller oplysninger om overensstemmelse og
tekniske aspekter af produktet, herunder adgang til oplysnin-
ger om eller fra software, i det omfang en sådan adgang er
nødvendig for at vurdere produktets overensstemmelse med
lovgivningen. Samtidig skal markedsovervågningsmyndig-
heden have beføjelser til at pålægge erhvervsdrivende at
levere oplysninger om forsyningskæden og distributionsnet-
tet, om produkters tilstedeværelse på markedet og om andre
modeller, der har de samme tekniske egenskaber som det
pågældende produkt, og oplysninger om ejerskabet til et
websted, når de pågældende oplysninger er nødvendige for
sagen.
Det foreslås i
§ 5,
at markedsovervågningsmyndighederne
fra fysiske og juridiske personer omfattet af artikel 2, stk. 1,
litra a-f, i forordningen om kunstig intelligens, kan afkræve
alle oplysninger, som er nødvendige for myndighedernes til-
synsvirksomhed, herunder til fastlæggelse af, om et forhold
hører under myndighedernes kompetence.
Det er hensigten med den foreslåede bestemmelse, at der
kan indhentes oplysninger fra fysiske og juridiske personer
omfattet af artikel 2, stk. 1, litra a-f, i forordningen om
kunstig intelligens, hvis det findes nødvendigt.
Oplysningspligten er af væsentlig betydning for, at markeds-
overvågningsmyndighederne kan udføre en effektiv kon-
trol. Vurderingen af, hvilke oplysninger, der vil blive ind-
hentet, vil altid bero på en proportionalitetsvurdering og
karakteren af den dokumentation, der kan kræves, vil variere
fra sag til sag. Oplysningspligten vil blandt andet kunne
anvendes til, at markedsovervågningsmyndighederne kan
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0188.png
188
pålægge fysiske og juridiske personer omfattet af artikel
2, stk. 1, litra a-f, i forordningen om kunstig intelligens,
at forelægge relevante dokumenter, tekniske specifikationer,
data eller oplysninger om overensstemmelse og tekniske
aspekter af AI-systemet, herunder adgang til software, i det
omfang en sådan adgang er nødvendig for at vurdere AI-sy-
stemets overensstemmelse med lovgivningen. Markedsover-
vågningsmyndighederne vil også kunne pålægge fysiske og
juridiske personer omfattet af artikel 2, stk. 1, litra a-f, i for-
ordningen om kunstig intelligens, at levere oplysninger om
forsyningskæden og distributionsnettet, om AI-systemets til-
stedeværelse på markedet og om andre modeller, der har de
samme tekniske egenskaber som det pågældende AI-system,
og oplysninger om ejerskabet til et websted, når de pågæl-
dende oplysninger er nødvendige for sagen.
De oplysninger, markedsovervågningsmyndighederne vil
kunne kræve, skal være relevante for det, kontrollen skal
belyse, og være tilgængelige for virksomheden. Dette skal
ses i sammenhæng med, at markedsovervågningsmyndighe-
derne kun må anmode om data, der er strengt nødvendige
for at vurdere den risiko, som AI-systemer udgør, i overens-
stemmelse med artikel 78, stk. 2, i forordningen om kunstig
intelligens.
Markedsovervågningsmyndighederne vil i deres anvendelse
af den foreslåede § 5 skulle respektere fortroligheden af
oplysninger og data, som myndigheden kommer i besiddel-
se af under udførelsen af dennes opgaver og aktiviteter i
overensstemmelse med artikel 78, stk. 1, i forordningen om
kunstig intelligens. Det indebærer eksempelvis, at markeds-
overvågningsmyndighederne skal håndtere oplysningerne på
en sådan måde, at den beskytter intellektuelle ejendomsret-
tigheder og fysiske eller juridiske personers fortrolige forret-
ningsoplysninger eller forretningshemmeligheder, herunder
kildekoder, offentlige og nationale sikkerhedsinteresser og
strafferetlige eller administrative procedurers gennemførelse
mv.
Den foreslåede bestemmelse afgrænses af det almindelige
forbud mod at udsætte andre for selvinkriminering, som
det blandt andet kan udledes af Den Europæiske Menneske-
rettighedskonventions artikel 6 og § 10 i retssikkerhedslo-
ven. Er der konkret mistanke om, at det af oplysningerne
vil fremgå, at den pågældende har begået noget strafbart, vil
det således ikke kunne kræves, at oplysningerne udleveres. I
et sådant tilfælde må sagen overlades til politiets efterforsk-
ning.
Til § 6
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret om markedsovervågningsmyndighedernes mulighed for
at foretage kontrolbesøg som led i et tilsyn i henhold til
forordningen om kunstig intelligens.
Det fremgår af præambelbetragtning nr. 156 i forordnin-
gen om kunstig intelligens, at markedsovervågningsmyn-
digheder, der er udpeget i henhold til forordningen, alle
bør have håndhævelsesbeføjelser som fastsat i forordnin-
gen om kunstig intelligens og forordning (EU) 2019/1020
om markedsovervågning og produktoverensstemmelse (mar-
kedsovervågningsforordningen).
Det følger af markedsovervågningsforordningens artikel 14,
stk. 4, litra d og e, at markedsovervågningsmyndigheden
som minimum skal tillægges beføjelsen til uden forudgåen-
de varsel at foretage inspektion på stedet og fysisk kontrol
af produkter, samt beføjelsen til at få adgang til alle lokaler,
arealer eller transportmidler, som den pågældende erhvervs-
drivende anvender som led i sit erhverv, sin forretning, sit
livsværk eller sit fag, for at identificere manglende overens-
stemmelse og indhente dokumentation.
Det foreslås i
stk. 1,
at markedsovervågningsmyndighederne
til enhver tid mod behørig legitimation og uden retskendelse
har adgang til alle erhvervsmæssige lokaliteter hos fysiske
og juridiske personer omfattet af artikel 2, stk. 1, litra a-f, i
forordningen om kunstig intelligens, når det er nødvendigt
for at påse overholdelse af forordningen om kunstig intelli-
gens, denne lov eller regler udstedt i medfør af loven.
Den foreslåede bestemmelse har til formål at sikre, at
markedsovervågningsmyndighederne kan udføre en effektiv
kontrol med overholdelse af forordningen om kunstig intel-
ligens. Bestemmelsen sikrer, at markedsovervågningsmyn-
dighederne har adgang til alle erhvervsmæssige lokaliteter
hos fysiske og juridiske personer omfattet af artikel 2, stk.
1, litra a-f, i forordningen om kunstig intelligens, når det
er nødvendigt for at påse overholdelse af forordningen om
kunstig intelligens, denne lov eller regler udstedt i medfør
heraf.
Den foreslåede ordning vurderes at være proportional, da
markedsovervågningsmyndighederne alene vil kunne anven-
de kontroladgangen i sager, hvor det er afgørende for kon-
trollens effektivitet. Ligeledes vurderes ordningen at være
nødvendig af hensyn til formålet med forordningen om
kunstig intelligens, da adgangen til kontrolbesøg skal sikre
beskyttelse af borgere mod farerne ved forbudte AI-syste-
mer. Det bemærkes, at krav om forudgående retskendelse
er ressourcekrævende, og en fastholdelse af et krav om
retskendelse kan derfor medføre en unødig forsinkelse af
myndighedens kontrolindsats. Herudover vil et krav om
forudgående retskendelse blot være af formel karakter, da
kontroladgangen netop er nødvendig af hensyn til effektiv
kontrol med overholdelse af forordningen om kunstig intel-
ligens.
På ovenstående baggrund vurderes det, at den foreslåede
ordning med kontrolbesøg uden retskendelse fremmer en ef-
fektiv håndhævelse af forordningen om kunstig intelligens,
beskytter samfundets og borgernes interesser, forebygger
misbrug og skaber en afskrækkende effekt mod overtrædel-
ser af forordningen om kunstig intelligens. Det er dog afgø-
rende, at disse besøg sker under betryggende retssikkerheds-
garantier.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0189.png
189
Adgangen til kontrolbesøg uden retskendelse vil således ske
under strenge retningslinjer og kun efter en konkret vurde-
ring. Kontrolbesøg skal altid dokumenteres, og virksomhe-
der har mulighed for at klage over kontrolbesøg. Kontrol-
besøg i henhold til § 6, stk. 1, vil således forudsætte, at
markedsovervågningsmyndighederne i det konkrete tilfælde
vurderer, at det ikke er muligt at udøve effektiv kontrol
med mindre indgribende midler. Markedsovervågningsmyn-
dighederne skal derfor i det konkrete tilfælde vurdere, at
kontrolbesøget er nødvendigt af hensyn til formålet med
kontrolbesøget samt proportionalt. Dette vil indebære, at
markedsovervågningsmyndighederne forinden skal forsøge
at indhente oplysninger efter lovforslagets § 5, medmindre
formålet med kontrollen ikke kan opnås herved i det konkre-
te tilfælde.
Den foreslåede bestemmelse giver markedsovervågnings-
myndighederne adgang til alle lokaler eller arealer, som den
erhvervsdrivende anvender som led i sit erhverv, sin forret-
ning, sit håndværk eller sit fag. Det vil blandt andet omfatte
fabrikations-, salgs- og lagerlokaliteter og kan eksempelvis
også være kontorlokaler, baglokaler eller udendørs områder
tilhørende den erhvervsdrivende. Bestemmelsen giver dog
ikke en udvidet adgang til lokaler hos private.
Anvendelsen af den foreslåede bestemmelse vil skulle ske
under hensyntagen til bestemmelserne i retssikkerhedsloven,
herunder de almindelige regler om fravigelse af varsling af
tilsyn. Herudover skal særligt retssikkerhedslovens § 10, om
retten til ikke at inkriminere sig selv, iagttages ved anven-
delsen af bestemmelsen.
Det vil kun være muligt for markedsovervågningsmyndighe-
derne at anvende den foreslåede bestemmelse til at tilveje-
bringe oplysninger til brug for kontrollen. Det betyder, at
bestemmelsen kan anvendes med henblik på at konstatere,
om AI-systemer, der henhører under anvendelsesområdet i
forordningen om kunstig intelligens, er i overensstemmelse
med reglerne, eller om en erhvervsdrivende lever op til sine
forpligtelser. Det kan f.eks. være en kontrol, hvor der er be-
hov for at føre tilsyn med AI-systemer fra en lokalitet uden
offentlig adgang. Det skal således være formålet med adgan-
gen, at der skal indhentes oplysninger, der er nødvendige
for selve kontrollen. Adgangshjemlen gælder både i relation
til proaktive kontroller, hvor markedsovervågningsmyndig-
hederne har planlagt kontrolopgaven på forhånd, og reaktive
kontrolopgaver, som oftest sker efter en udefrakommende
begivenhed, som f.eks. en anmeldelse eller ulykke.
Hvis det ud fra en samlet betragtning af blandt andet oven-
stående elementer vurderes, at det vil være nødvendigt
at kontrollere AI-systemer fra ikke-offentligt tilgængelige
lokaliteter, vil markedsovervågningsmyndighederne således
kunne anvende bestemmelsen.
Konkret vil det f.eks. være nødvendigt, hvis markedsover-
vågningsmyndighederne ikke kan foretage en effektiv kon-
trol, fordi der kræves en teknisk vurdering af AI-systemet
med assistance fra en teknisk ekspert.
Den foreslåede bestemmelse giver desuden mulighed for, at
kontrollen kan finde sted uanmeldt, såfremt myndigheden
konkret vurderer, at formålet med kontrollen forspildes ved
en forudgående anmeldelse over for den kontrolunderlag-
te. Det er afgørende for kontrollens effektivitet, at kontrollen
kan ske uanmeldt, da varsling kan give virksomheder mulig-
hed for at fjerne dokumentationen for overtrædelserne.
Markedsovervågningsmyndighederne vil kunne foretage
uanmeldt kontrol, hvor der vurderes at foreligge dokumenta-
tion for en overtrædelse hos den kontrolunderlagte. Konkre-
te eksempler kan være, hvis en udbyder forsætligt tilgænge-
liggør et forbudt AI-system, og markedsovervågningsmyn-
digheden har en formodning om, at dette foreligger doku-
menteret hos udbyderen. Myndighedens formodning kan
eksempelvis være baseret på oplysninger modtaget fra pres-
seomtale.
Uanmeldte kontrolbesøg tænkes alene anvendt, når der er
risiko for, at dokumentationen for den formodede overtræ-
delse vil kunne bortskaffes eller gå tabt ved en anmeldt
kontrolundersøgelse. Hvis dette ikke er tilfældet, skal myn-
digheden anmelde kontrolbesøget.
Hvis det derimod ikke vil være nødvendigt, herunder pro-
portionalt med det markedsovervågningsmyndigheden vil
opnå ved at få adgang til de pågældende lokaler, vil bestem-
melsen ikke kunne anvendes. Markedsovervågningsmyndig-
hederne er så henvist til at føre tilsyn fra lokaler, der er
offentligt tilgængelige, eller til at afkræve oplysninger i
medfør af den foreslåede § 5.
Det foreslås i
stk. 2,
at markedsovervågningsmyndighederne
som led i kontrolbesøget kan foretage tekniske undersøgel-
ser af et AI-system på stedet.
Den foreslåede bestemmelse har til formål at sikre, at mar-
kedsovervågningsmyndighederne kan udføre effektiv kon-
trol ved at sikre, at markedsovervågningsmyndighederne
kan foretage tekniske undersøgelser under kontrolbesøg, jf.
stk. 1, med henblik på at påse overholdelse af forordningen
om kunstig intelligens, denne lov eller regler udstedt i med-
før af loven.
Den foreslåede bestemmelse vil kunne anvendes, når mar-
kedsovervågningsmyndighederne vurderer, at det er nødven-
digt at foretage en teknisk undersøgelse som led i et kontrol-
besøg, jf. stk. 1, for at sikre en korrekt sagsoplysning med
henblik på at kunne vurdere, om der foreligger en overtræ-
delse af forordningen om kunstig intelligens, denne lov eller
regler udstedt i medfør af loven. Det vil blandt andet kunne
omfatte undersøgelser af datasæt og algoritmer til brug for
vurdering af, hvorvidt et AI-system anvendes til brug for
følelsesgenkendelse.
Bestemmelsen vil eksempelvis være anvendelig i tilfælde
af, at omstændigheder under kontrolbesøget nødvendiggør,
at undersøgelser eller tests udføres på stedet, mens kontrol-
besøget pågår. Det kan eksempelvis være, hvis udbyderens
datasæt er af en sådan størrelse, at markedsovermyndighe-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0190.png
190
den ikke har den tekniske kapacitet eller IT-faciliteter til
at modtage datasættet og udføre tests heraf internt hos mar-
kedsovervågningsmyndigheden selv.
Det foreslås i
stk. 3,
at markedsovervågningsmyndighederne
kan være bistået af en eller flere uafhængige sagkyndige i
forbindelse med adgangen efter stk. 1 og tekniske undersø-
gelser efter stk. 2.
I forbindelse med kontrol, der kræver særligt udstyr el-
ler specialistviden, kan markedsovervågningsmyndigheder-
ne have behov for bistand fra en eller flere sagkyndige med
henblik på at oplyse sagen i tilstrækkeligt omfang. Den eller
de sagkyndige har med den foreslåede bestemmelse adgang
til samme sted som markedsovervågningsmyndigheden, så
længe den eller de sagkyndige ledsages af mindst en medar-
bejder fra markedsovervågningsmyndigheden.
Det beror på en konkret og individuel vurdering, om en
sagkyndig er uafhængig. Eksempelvis kan markedsovervåg-
ningsmyndigheden ikke medbringe en sagkyndig til et kon-
trolbesøg hos en erhvervsdrivende, hvis den pågældende
sagkyndige samtidig er konkurrent til den erhvervsdriven-
de. Er der tale om et område, hvor der er meget få sagkyndi-
ge, vil der således skulle foretages en afvejning af, hvor stort
behovet er for at medbringe en sagkyndig over for beskyttel-
sen af den erhvervsdrivendes forretningshemmeligheder, der
må anses som tungtvejende.
Det foreslås i
stk. 4,
at politiet om nødvendigt yder bistand
til kontrollens gennemførelse.
Politiets bistand kan være aktuel i en situation, hvor mar-
kedsovervågningsmyndighederne nægtes adgang til en loka-
litet ad frivillighedens vej. Der kan i sådanne særlige tilfæl-
de være behov for, at politiet anvender magt for at få adgang
til lokaliteten.
Til § 7
Der er på nuværende tidspunkt ikke fastsat regler i dansk ret
om de nationale kompetente myndigheders offentliggørelse
af afgørelser i henhold til forordningen om kunstig intelli-
gens.
Det følger af artikel 99, stk. 1, i forordningen om kunstig
intelligens, at i overensstemmelse med de vilkår og betingel-
ser, der er fastsat i denne forordning, fastsætter medlemssta-
terne regler om sanktioner og andre håndhævelsesforanstalt-
ninger, som også kan omfatte advarsler og ikkeøkonomiske
foranstaltninger, for operatørers overtrædelse af denne for-
ordning og træffer alle nødvendige foranstaltninger for at
sikre, at de gennemføres korrekt og effektivt, og dermed
tager hensyn til de retningslinjer, som Kommissionen har
udstedt i henhold til artikel 96.
Det følger af artikel 78, stk. 1, i forordningen om kunstig in-
telligens, at Kommissionen, markedsovervågningsmyndig-
hederne og bemyndigede organer og enhver anden fysisk el-
ler juridisk person, der er involveret i anvendelsen af denne
forordning, respekterer i overensstemmelse med EU-retten
eller national ret fortroligheden af oplysninger og data, som
de kommer i besiddelse af under udførelsen af deres opgaver
og aktiviteter, på en sådan måde, at de navnlig beskytter: a)
intellektuelle ejendomsrettigheder og fysiske eller juridiske
personers fortrolige forretningsoplysninger eller forretnings-
hemmeligheder, herunder kildekode, med undtagelse af de
tilfælde, der er omhandlet i artikel 5 i Europa- Parlamentets
og Rådets direktiv (EU) 2016/943 (57), b) den effektive
gennemførelse af denne forordning, navnlig for så vidt an-
går inspektioner, undersøgelser eller revisioner, c) offentlige
og nationale sikkerhedsinteresser, d) strafferetlige eller ad-
ministrative procedurers gennemførelse og e) informationer,
der er klassificeret i henhold til EU-retten eller national ret.
Det foreslås i
§ 7,
at markedsovervågningsmyndighederne
kan offentliggøre sine afgørelser i sager om forbudte former
for AI-praksis i henhold til artikel 5, stk. 1, litra a-g, i
forordningen om kunstig intelligens.
Bestemmelsen skal sikre, at de udpegede markedsovervåg-
ningsmyndigheder, som en nødvendig håndhævelsesforan-
staltning, kan offentliggøre afgørelser i sager om forbudte
former for AI-praksis i henhold til artikel 5, stk. 1, litra
a-g, i forordningen om kunstig intelligens, når tungtvejende
samfundsmæssige hensyn taler for offentliggørelse.
Offentliggørelse i henhold til den foreslåede § 7 kan omfatte
navnet på den juridiske eller fysiske person, som er adres-
sat for afgørelsen samt oplysninger om strafbare forhold el-
ler mulige strafbare forhold. Markedsovervågningsmyndig-
hederne kan blandt andet vælge at offentliggøre afgørelser i
henhold til den foreslåede § 7 for at afværge konkret eller
overhængende fare for skade på personer eller for betydelige
formuetab. Offentliggørelse kan endvidere ske, hvis offent-
liggørelsen er nødvendig for, at forbrugere kan varetage
deres interesser i forhold til de fysiske eller juridiske per-
soner, som der offentliggøres oplysninger om. Offentliggø-
relse kan dog aldrig ske, hvis offentliggørelsen vil medføre
uforholdsmæssig stor skade for den juridiske eller fysiske
person i forhold til de samfundsmæssige hensyn, som taler
for offentliggørelse. Det afgørende er, om offentlighedens
interesse i at få kendskab til oplysningerne findes at burde
vige for afgørende hensyn til private og offentlige interesser.
Det bemærkes, at der ikke er tale om en generel hjemmel til
systematisk offentliggørelse, men udelukkende om en mu-
lighed for offentliggørelse baseret på en konkret vurdering,
hvor de relevante hensyn i den enkelte sag nøje afvejes.
Der henvises i øvrigt til pkt. 3 i lovforslagets almindelige
bemærkninger.
Til § 8
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret om markedsovervågningsmyndighedernes opgaver i for-
bindelse med tilsynet i henhold til forordningen om kunstig
intelligens.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0191.png
191
Det foreslås i
stk. 1,
at markedsovervågningsmyndighederne
kan udstede påbud om overholdelse af artikel 5, stk. 1, litra
a-g, i forordningen om kunstig intelligens, denne lov og
regler fastsat i medfør af denne lov.
Den foreslåede ordning i § 8 medfører, at markedsovervåg-
ningsmyndighederne vil kunne påbyde fysiske og juridiske
personer omfattet af artikel 2, stk. 1, litra a-f, i forordningen
om kunstig intelligens, at overholde artikel 5, stk. 1, litra
a-g, i forordningen om kunstig intelligens, denne lov og
regler fastsat i medfør af denne lov.
Det foreslås i
stk. 2,
at markedsovervågningsmyndigheder-
ne kan udstede et midlertidigt forbud mod levering, mar-
kedsføring, udstilling eller anden tilgængeliggørelse af et
AI-system, hvis AI-systemet vurderes at kunne udgøre en
risiko. Forbuddet kan rettes mod de fysiske og juridiske
personer, som er omfattet af artikel 2, stk. 1, litra a-f, i
forordningen om kunstig intelligens. Forbuddets varighed
kan ikke strække sig ud over, hvad der er nødvendigt for at
træffe kontrolforanstaltninger til brug for undersøgelser eller
vurderinger af AI-systemets sikkerhed.
Med den foreslåede bestemmelse kan markedsovervåg-
ningsmyndighederne udstede midlertidige forbud mod leve-
ring, markedsføring, udstilling eller anden tilgængeliggørel-
se af etAI-system, hvis AI-systemet vurderes at kunne udgø-
re et forbudt AI-system i henhold til artikel 5, stk. 1, litra
a-g. Et forbud efter den foreslåede bestemmelse vil kunne
rettes mod fysiske og juridiske personer i henhold til artikel
2, stk. 1, litra a-f.
Bestemmelsen giver mulighed for at træffe en midlertidig
afgørelse om forbud mod et AI-system, mens markedsover-
vågningsmyndighedernes sagsbehandling og oplysning af
sagen pågår. Markedsovervågningsmyndighederne foretager
i den forbindelse en proportionalitetsafvejning, så de midler,
der anvendes, ikke er mere indgribende end nødvendigt i
forhold til det formål, markedsovervågningsmyndighederne
ønsker at opnå.
Den foreslåede bestemmelse finder anvendelse i sager, hvor
der er en formodning om, at et AI-system udgør en fare,
og hvor hensynet til brugeren gør, at det ud fra et forsig-
tighedsprincip vurderes uforsvarligt, at AI-systemet fortsat
er i omsætning, imens markedsovervågningsmyndigheden
foretager de nødvendige undersøgelser systemet for derved
endeligt at afklare risikoen og træffe endelig afgørelse.
Det er en forudsætning for anvendelsen af bestemmelsen, at
der ikke blot er tale om mindre eller formelle mangler, som
ikke medfører en reel fare. En bagatelagtig mangel kunne
eksempelvis være mindre administrative fejl uden betydning
for systemets sikkerhed. Forbuddets varighed må ikke over-
stige, hvad der er nødvendigt for at gennemføre de relevan-
te undersøgelser og vurderinger. Proportionalitetsprincippet
sikrer, at markedsovervågningsmyndighederne handler hur-
tigt og effektivt for at minimere unødige gener for de invol-
verede parter.
Det foreslås i
2. pkt.,
at forbuddet kan rettes mod fysiske
og juridiske personer omfattet af artikel 2, stk. 1, litra a-f, i
forordningen om kunstig intelligens. Den foreslåede bestem-
melse finder derfor anvendelse på udbydere, der bringer AI-
systemer i omsætning eller ibrugtager sådanne eller bringer
AI-modeller til almen brug i omsætning i Unionen, uanset
om udbyderne er etableret i eller uden for Unionen; idrift-
sættere af AI- systemer, der er etableret eller befinder sig
i et tredjeland, hvis det output, der produceres af systemet,
anvendes i Unionen; importører og distributører af AI-sy-
stemer; producenter af et produkt, der sammen med deres
produkt og under eget navn eller varemærke bringer et AI-
system i omsætning eller ibrugtager det samt bemyndigede
repræsentanter for udbydere, der ikke er etableret i Unionen.
Det foreslås i
3. pkt.,
at forbuddets varighed ikke kan stræk-
ke sig ud over, hvad der er nødvendigt for at træffe kontrol-
foranstaltninger til brug for undersøgelser eller vurderinger
af AI-systemets sikkerhed.
Angivelsen af, at forbuddets varighed ikke kan strække sig
ud over, hvad der er nødvendigt for at foretage de nævnte
undersøgelser, er ligeledes udtryk for det almindelige pro-
portionalitetsprincip. Markedsovervågningsmyndighederne
sikrer i den forbindelse, at de nødvendige undersøgelser
foretages uden unødigt ophold for derved at mindske even-
tuelle gener for den erhvervsdrivende.
Til § 9
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret om de bemyndigende myndigheders opgaver, tilsyn og
kontrol.
Det følger af artikel 28, stk. 1, i forordningen om kunstig in-
telligens, at hver medlemsstat udpeger eller opretter mindst
én bemyndigende myndighed med ansvar for at indføre og
gennemføre de nødvendige procedurer for vurdering, udpeg-
ning og notifikation af overensstemmelsesvurderingsorganer
og for overvågning heraf. Disse procedurer udvikles i sam-
arbejde mellem de bemyndigende myndigheder i alle med-
lemsstater.
Det foreslås i
stk. 1,
at den bemyndigende myndighed kan
efter forhandling med ministeren for digitalisering fastsætte
nærmere regler om indførelse og gennemførelse af nødven-
dige procedurer for vurdering, udpegelse og notifikation af
overensstemmelsesvurderingsorganer og for tilsyn hermed i
henhold til artikel 28, stk. 1, i forordningen om kunstig in-
telligens samt suspension eller tilbagetrækning af udpegning
i henhold til artikel 36, stk. 4, i forordningen om kunstig
intelligens.
Med den foreslåede bestemmelse får den bemyndigende
myndighed mulighed for at fastsætte regler om, at bemyndi-
gende myndigheder efter ansøgning kan udpege bemyndige-
de organer til at foretage overensstemmelsesvurderingspro-
cedurer. Overensstemmelsesvurdering vedrører processen til
påvisning af, om de krav til højrisiko-AI-systemer, som er
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0192.png
192
fastsat i kapitel III, afdeling 2, i forordningen om kunstig
intelligens, er opfyldt.
Det foreslås i
stk. 2,
at den bemyndigende myndighed kan
delegere udpegningen af overensstemmelsesvurderingsorga-
ner i et nærmere angivet omfang til andre offentlige myndig-
heder eller private institutioner, i henhold til artikel 28, stk.
2, i forordningen om kunstig intelligens.
Bestemmelsen skal give mulighed for, at private og offent-
lige myndigheder efter delegation kan udføre akkrediterin-
gsfunktioner i henhold til artikel 28, stk. 2, i forordningen
om kunstig intelligens. Akkreditering omhandler attestering
– foretaget af et nationalt akkrediteringsorgan – af, at et
overensstemmelsesvurderingsorgan opfylder de krav, der
gælder for overensstemmelsesvurderingsorganer i henhold
til kapitel III, afdeling 4, i forordningen om kunstig intelli-
gens.
Til § 10
Der er på nuværende tidspunkt ikke fastsat regler i dansk
ret om straf for overtrædelse af regler i forordningen om
kunstig intelligens.
Det følger af artikel 99, stk. 1, i forordningen om kunstig
intelligens, at i overensstemmelse med de vilkår og betingel-
ser, der er fastsat i denne forordning, fastsætter medlemssta-
terne regler om sanktioner og andre håndhævelsesforanstalt-
ninger, som også kan omfatte advarsler og ikkeøkonomiske
foranstaltninger, for operatørers overtrædelse af denne for-
ordning og træffer alle nødvendige foranstaltninger for at
sikre, at de gennemføres korrekt og effektivt, og dermed
tager hensyn til de retningslinjer, som Kommissionen har
udstedt i henhold til artikel 96.
Af præambelbetragtning nr. 41 i forordningen om kunstig
intelligens følger det, at i medfør af artikel 2 og 2a i proto-
kol nr. 22 om Danmarks stilling, der er knyttet som bilag
til TEU og TEUF, er de regler, der er fastsat i forordningen
om kunstig intelligens artikel 5, stk. 1, første afsnit, litra g),
i det omfang den finder anvendelse på brugen af systemer
til biometrisk kategorisering til aktiviteter inden for politi-
samarbejde og retligt samarbejde i straffesager, artikel 5,
stk. 1, første afsnit, litra d), i det omfang den finder anven-
delse på brugen af AI-systemer, der er omfattet af nævnte
bestemmelse, artikel 5, stk. 1, første afsnit, litra h), og stk.
2-6, og artikel 26, stk. 10, der er vedtaget på grundlag af
artikel 16 i TEUF vedrørende medlemsstaternes behandling
af personoplysninger under udøvelsen af aktiviteter, der er
omfattet af tredje del, afsnit V, kapitel 4 eller 5, i TEUF, ikke
bindende for og finder ikke anvendelse i Danmark.
Det foreslås i lovforslagets
stk. 1,
at det fastsættes, hvilke
bestemmelser i forordningen og loven, der er strafbelagt ved
overtrædelser.
Det foreslås i
stk. 1, nr. 1,
at den, der overtræder bestemmel-
serne om forbudte former for AI-praksis i henhold til artikel
5, stk. 1, litra a-g i forordningen om kunstig intelligens
straffes med bøde, medmindre højere straf er forskyldt efter
anden lovgivning.
Med den foreslåede bestemmelse straffes overtrædelse af
artikel 5, stk. 1, litra a-g, i forordningen om kunstig intelli-
gens.
Digitaliseringsstyrelsen er markedsovervågningsmyndighed
for de forbudte former for AI-praksis, som er omfattet af
artikel 5, stk. 1, litra a-c, og artikel 5, stk. 1, litra e-f, i
forordningen om kunstig intelligens. Artikel 5, stk. 1, litra a-
c, vedrører forbudte former for AI-praksis, herunder blandt
andet visse AI-systemer, der anvender subliminale, bevidst
manipulerende eller vildledende teknikker, visse AI-syste-
mer, der udnytter sårbarheder på grundlag af alder, handicap
eller en særlig social eller økonomisk situation, og visse
AI-systemer, som bruges til evaluering eller klassificering
af fysiske personer, hvis sociale bedømmelse fører til vis-
se former for skadelig eller ugunstig behandling af fysiske
personer eller grupper af personer. Artikel 5, stk. 1, litra
e-f, vedrører blandt andet AI-systemer, der opretter eller
udvider ansigtsgenkendelsesdatabaser gennem ikkemålrettet
indsamling af ansigtsbilleder fra internettet eller kamerao-
vervågning og visse AI-systemer, der bruges til at udlede
følelser hos en fysisk person på arbejdspladser og uddannel-
sesinstitutioner. Disse forbudte former for AI-praksis kan
med den foreslåede bestemmelse straffes med bøde.
Datatilsynet er markedsovervågningsmyndighed for de for-
budte former for AI-praksis, der er omfattet af artikel 5, stk.
1, litra d og artikel 5, stk. 1, litra g, i det omfang disse ikke
er omfattet af det danske retsforbehold. Artikel 5, stk. 1,
litra d, vedrører visse AI-systemer, som bruges til at foretage
risikovurderinger baseret på profilering af en fysisk person
eller en vurdering af deres personlighedstræk og personlige
egenskaber for at vurdere eller forudsige risikoen for, at en
fysisk person begår en strafbar handling. Artikel 5, stk. 1,
litra g, vedrører blandt andet AI-systemer, der bruges til
biometrisk kategorisering, som kategoriserer fysiske person-
er individuelt på grundlag af deres biometriske data med
henblik på at udlede deres race, politiske anskuelser, fagfor-
eningsmedlemskab, religiøse eller filosofiske overbevisning,
seksuelle forhold eller seksuelle orientering. Disse forbudte
former for AI-praksis kan med den foreslåede bestemmelse
også straffes med bøde, i det omfang disse ikke er omfattet
af det danske retsforbehold. Danmark er som følge af rets-
forbeholdet ikke bundet af forordningens artikel 5, stk. 1,
litra g, i det omfang den finder anvendelse på brugen af
systemer til biometrisk kategorisering til aktiviteter inden
for politisamarbejde og retligt samarbejde i straffesager, og
artikel 5, stk. 1, litra d, i det omfang den finder anvendelse
på brugen af AI-systemer, der er omfattet af nævnte bestem-
melse.
Domstolsstyrelsen er markedsovervågningsmyndighed for
de dele af tilsynet med forbudte former for AI-systemer,
som vedrører domstolenes administrative anvendelse af AI-
systemer. Afgørelser om domstolenes anvendelse af AI-sy-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0193.png
193
stemer, når disse anvendes som led i domstolenes judicielle
funktioner, træffes dog af vedkommende ret.
Det foreslås i stk. 1,
nr. 2,
at den, der afgiver ukorrekte,
ufuldstændige eller vildledende oplysninger til bemyndigede
organer eller nationale kompetente myndigheder som svar
på en anmodning i henhold til artikel 99, stk. 5, kan straffes
med bøde.
De foreslåede bestemmelser tjener to formål:
– At opfylde forordningens krav om sanktionering efter
artikel 99, stk. 3, jf. stk. 9, hvor forordningen har et loft
for bøder på 35.000.000 euro eller, hvis lovovertræderen
er en virksomhed, op til 7 pct. af dens samlede globale
årlige omsætning i det foregående regnskabsår, alt efter
hvilket beløb der er størst.
– At opfylde forordningens krav om sanktionering efter
artikel 99, stk. 5, jf. stk. 9, hvor forordningen har et loft
for bøder på 7.500.000 euro eller, hvis lovovertræderen
er en virksomhed, op til 1 pct. af dens samlede globale
omsætning i det foregående regnskabsår, alt efter hvilket
beløb der er størst.
Forbeholdet om, at højere straf kan være forskyldt efter den
øvrige lovgivning, har til formål at sikre, at handlinger, der
tillige indebærer en overtrædelse af bestemmelser, der kan
medføre højere straf, kan henføres under sådanne bestem-
melser. Hvis det strafbare forhold omfattes af § 10, stk. 1, nr.
2, samt straffelovens §§ 162 og 163 om afgivelse af urigtige
oplysninger til offentlige myndigheder, henhører forholdet
således under den bestemmelse, hvorefter den højeste straf
er forskyldt.
Formålet med den foreslåede bestemmelse er at supplere
artikel 99, stk. 1, i forordningen om kunstig intelligens,
hvorefter medlemsstaterne – i overensstemmelse med de vil-
kår og betingelser, der er fastsat i forordningen – fastsætter
regler om blandt andet sanktioner.
Det bemærkes, at det følger af forordningens artikel 99, stk.
6, at for SMV’er, herunder iværksættervirksomheder, skal
hver bøde, der er omhandlet i artikel 99 være op til den
procentsats eller det beløb, der er omhandlet i blandt andet
stk. 3 og 5, alt efter hvilken af dem der er lavest.
Det bemærkes hertil, at ved udmåling af bødestraf skal de
fastsatte beløbsgrænser i henhold til artikel 99, stk. 3 og 5, i
forordningen om kunstig intelligens overholdes.
Det foreslås i stk. 1,
nr. 3,
at den, der undlader at give
markedsovervågningsmyndighederne oplysninger efter § 5
straffes med bøde, medmindre højere straf er forskyldt efter
anden lovgivning.
Med den foreslåede bestemmelse sikres det, at det kan sank-
tioneres, hvis fysiske og juridiske personer undlader at imø-
dekomme krav fra markedsovervågningsmyndighederne om
at afgive oplysninger, som er nødvendige for myndigheder-
nes tilsynsvirksomhed, herunder til fastlæggelse af, om et
forhold hører under myndighedernes kompetence.
Den foreslåede bestemmelse afgrænses af det almindelige
forbud mod at udsætte andre for selvinkriminering, som det
blandt andet kan udledes af Den Europæiske Menneskeret-
tighedskonventions artikel 6 og § 10 i retssikkerhedsloven.
Det foreslås i stk. 1,
nr. 4,
at den, der undlader at give
markedsovervågningsmyndighederne adgang eller hindrer
markedsovervågningsmyndighederne i at foretage tekniske
undersøgelser af et AI-system efter § 6, stk. 1 og 2, straffes
med bøde, medmindre højere straf er forskyldt efter anden
lovgivning.
Med den foreslåede bestemmelse sikres det, at det kan
sanktioneres, hvis de fysiske og juridiske personer, som er
omfattet af artikel 2, stk. 1, litra a-f, i forordningen om
kunstig intelligens, ikke giver markedsovervågningsmyndig-
heden adgang til lokaliteter omfattet af den foreslåede § 6,
stk. 1. Tilsvarende sikres det, at det kan sanktioneres, hvis
de fysiske og juridiske personer, som er omfattet af artikel
2, stk. 1, litra a-f, i forordningen om kunstig intelligens,
hindrer markedsovervågningsmyndigheden i at foretage tek-
niske undersøgelser af et AI-system på stedet.
Eksempelvis kan der sanktioneres, hvis en kontrolunder-
lagt nægter at udlevere adgangskoder, som markedsovervåg-
ningsmyndigheden skal bruge for at få adgang til nødven-
dige oplysninger på en computerterminal eller server. Til-
svarende kan det sanktioneres, hvis den kontrolunderlagte
krypterer alle oplysninger, så myndighederne skal omgå
krypteringen for at få adgang. Endvidere kan der sanktione-
res ved fysisk hindring, f.eks. hvis den kontrolunderlagte
blokerer adgangen til lokaliteter, som markedsovervågnings-
myndigheden har behov for at tilgå i forbindelse med deres
undersøgelser.
Det foreslås endeligt i stk. 1,
nr. 5,
at den, der undlader at
efterkomme påbud eller forbud efter § 8, kan straffes med
bøde.
Med den foreslåede bestemmelse vil eksempelvis et midler-
tidigt forbud om at tilgængeliggøre et AI-system, der er
udstedt af markedsovervågningsmyndighederne efter § 8,
stk. 2, således kunne medføre bødestraf, medmindre højere
straf er forskyldt efter anden lovgivning.
Det bemærkes, at strafudmålingen for overtrædelser omfat-
tet af § 10, stk. 1, skal følge artikel 99, stk. 7, i forordningen
om kunstig intelligens. Det indebærer, at der i hver enkelt
sag skal tages behørigt hensyn til de oplistede hensyn i
artikel 99, stk. 7, i forordningen om kunstig intelligens. Der
skal eksempelvis tages hensyn til overtrædelsens art, grov-
hed og varighed, om der er andre skærpende eller formil-
dende faktorer ved sagens omstændigheder såsom opnåede
økonomiske fordele eller undgåede tab som direkte eller in-
direkte følge af overtrædelsen, den måde, hvorpå de nationa-
le kompetente myndigheder fik kendskab til overtrædelsen,
navnlig om operatøren har underrettet om overtrædelsen og i
givet fald i hvilket omfang. Straffelovens § 51, stk. 3 og 10.
kapitel om straffens fastsættelse finder i øvrigt anvendelse.
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0194.png
194
Der henvises i øvrigt til pkt. 2.4.2.2 i lovforslagets almin-
delige bemærkninger om udmøntningen af forordningens
bestemmelser om administrative bøder i dansk ret.
Det foreslås i
stk. 2,
at i forskrifter, der udstedes i medfør
af loven, kan der fastsættes straf af bøde for overtrædelse af
bestemmelser i forskrifterne.
Forslaget indebærer således, at der er adgang til at fastsætte
straffebestemmelser i forskrifter, der udstedes i medfør af
loven, herunder ved manglende overholdelse af udstedte for-
bud.
Det foreslås i
stk. 3,
at der kan pålægges selskaber m.v.
(juridiske personer) strafansvar efter reglerne i straffelovens
5. kapitel.
Det bemærkes, at det fremgår af artikel 99, stk. 8, i forord-
ningen om kunstig intelligens, at hver medlemsstat fastsæt-
ter regler om, i hvilket omfang administrative bøder kan
pålægges offentlige myndigheder og organer, der er etable-
ret i den pågældende medlemsstat.
Statslige myndigheder og kommuner kan ifølge straffelo-
vens § 27, stk. 2, alene straffes i anledning af overtrædelser,
der begås ved udøvelse af virksomhed, der svarer til eller
kan sidestilles med virksomhed udøvet af private. Offentlige
myndigheder kan således alene ifalde strafansvar efter reg-
lerne i straffelovens kapitel 5, i det omfang myndigheden
optræder på en måde, der kan sammenlignes med virksom-
hed, der udøves af en privatperson eller af et selskab, det vil
sige i egenskab af driftsherre.
Reglerne i straffelovens kapitel 5 omfatter derimod ikke lov-
overtrædelser, der begås som led i myndighedsudøvelse. I
sådanne tilfælde kan der alene blive tale om personligt straf-
ansvar for de ansvarlige enkeltpersoner.
Det foreslås i
stk. 4,
at forældelsesfristen for overtrædelse af
forordningen om kunstig intelligens, denne lov, eller regler
udstedt i medfør heraf er 5 år.
Af straffelovens § 93, stk. 1, følger de almindelige forældel-
sesfrister for strafbare lovovertrædelser, der skal beregnes
efter det strafmaksimum, der er foreskrevet for lovovertræ-
delsen. Det er således strafferammen for den pågældende
lovovertrædelse og ikke den konkrete forskyldte straf, som
er afgørende for beregningen af forældelsesfristen. Foræl-
delsesfristen er efter straffelovens § 93, stk. 11, 2 år, når der
ikke er hjemlet højere straf end fængsel i 1 år for overtræ-
delsen.
Den foreslåede bestemmelse vil indebære, at forældelsesfri-
sten for overtrædelse af den foreslåede lov, regler udstedt
i medfør af loven eller forordningen om kunstig intelligens
fastsættes til 5 år, under hensyntagen til, at de omfattede
straffesager kan antage en vis størrelse og kompleksitet.
Der henvises i øvrigt til pkt. 2.4.2 i lovforslagets almindeli-
ge bemærkninger.
Til § 11
Der er på nuværende tidspunkt ikke fastsat regler i dansk ret
om udstedelse af administrative bødeforelæg for overtrædel-
se af regler i forordningen om kunstig intelligens.
Det følger af artikel 99, stk. 3, i forordningen om kunstig
intelligens, at ved manglende overholdelse af forbud mod
de i artikel 5 anførte former for AI-praksis straffes overtræ-
delsen med administrative bøder på op til 35.000.000 EUR
eller, hvis lovovertræderen er en virksomhed, op til 7 %
af dens samlede globale årlige omsætning i det foregående
regnskabsår, alt efter hvilket beløb der er størst.
Det foreslås i stk.
1,
at ministeren for digitalisering efter
forhandling med justitsministeren kan fastsætte regler om, at
markedsovervågningsmyndigheder i nærmere angivne sager
om overtrædelse af forordningen om kunstig intelligens, lo-
ven eller regler udstedt i medfør heraf i et bødeforelæg kan
tilkendegive, at sagen kan afgøres uden retssag. Det er en
betingelse, at den, der har begået overtrædelsen, erklærer
sig skyldig i overtrædelsen og erklærer sig rede til inden
en nærmere angivet frist at betale bøden, som er angivet i
bødeforelægget.
Kompetencen i stk. 1 gælder alene ved åbenbare og objek-
tivt konstaterbare overtrædelser, hvor overtrædelserne gene-
relt er ensartede og ukomplicerede og uden bevismæssige
tvivlsspørgsmål, og hvor bødeudmålingen ligger fast.
Bemyndigelsesbestemmelsen vil kun kunne anvendes efter
forhandling med justitsministeren. Hertil er det en betingel-
se, at der skal være tale om sager, der er enkle og ukompli-
cerede uden bevistvivl eller tvivl om sanktionsniveau for
normalbøder i førstegangstilfælde i forskellige situationer, er
opfyldt. Bestemmelsen forventes først at kunne anvendes,
når der er etableret en omfattende tilsynspraksis, som gør
det muligt at afgøre, hvilke sager der kan leve op til disse
betingelser.
Der vil kunne udstedes administrative bødeforelæg til såvel
fysiske som juridiske personer. Bestemmelsen retter sig kun
mod sager, hvor den, der har begået det strafbare forhold,
tilstår det strafbare forhold. I tilfælde, hvor den, der har
begået overtrædelsen, ikke erklærer sig rede til at betale
bøden inden en nærmere angivet frist, vil domstolene afgøre
bødespørgsmålet. I sådanne tilfælde vil den relevante natio-
nale kompetente myndighed skulle indgive politianmeldelse
sammen med en redegørelse for den nationale kompetente
myndigheds vurdering, herunder en vurdering af niveauet
for bøden.
Det foreslås i
stk. 2,
at retsplejelovens regler om krav til
indholdet af et anklageskrift og om, at en sigtet ikke er
forpligtet til at udtale sig, tilsvarende finder anvendelse på
bødeforelæg.
Henvisningen til retsplejelovens regler indebærer for det
første, at bødeforelægget skal opfylde de krav, der fremgår
af retsplejelovens § 834, stk. 1, nr. 2 og 3, og stk. 2. Bøde-
L 154 - 2024-25 - Bilag 1: Høringssvar vedr. forslag til lov om supplerende bestemmelser til forordningen om kunstig intelligens, fra digitaliseringsministeren
2983986_0195.png
195
forelægget skal således blandt andet angive den regel, der
påstås overtrådt, og lovovertrædelsens kendetegn, som de
fremgår af reglen, lovovertrædelsens navn, hvis loven inde-
holder angivelse heraf, straffehjemlen og en kort beskrivelse
af det forhold, der påstås begået, med sådan angivelse af
tid, sted, genstand, udførelsesmåde og andre nærmere om-
stændigheder, som er nødvendige for en tilstrækkelig tydelig
beskrivelse.
Henvisningen til retsplejelovens regler indebærer for det
andet, at den, der påstås at have begået overtrædelsen, ikke
har pligt til at udtale sig, og at den pågældende skal vejledes
herom.
Det foreslås i
stk. 3,
at hvis bøden betales i rette tid, eller
bliver inddrevet efter vedtagelsen eller afsonet, bortfalder
videre forfølgning. Vedtagelsen har samme gentagelsesvirk-
ning som en dom.
Der henvises i øvrigt til pkt. 2.4.2 i lovforslagets almindeli-
ge bemærkninger.
Til § 12
Det foreslås i lovforslagets
§ 12,
at loven træder i kraft
den 2. august 2025. Med den foreslåede ikrafttrædelsesdato
fraviges udgangspunktet om to årlige ikrafttrædelsesdatoer
for erhvervsrettet lovgivning. Udgangspunktet fraviges, for-
di det følger af Danmarks EU-retlige forpligtelser, at de
nationale regler skal træde i kraft på et bestemt tidspunkt.
Det følger af artikel 113, litra b, i forordningen om kunstig
intelligens, at en række regler finder anvendelse fra den 2.
august 2025.
Kapitel II om forbudte former for AI-praksis finder imidler-
tid allerede anvendelse fra den 2. februar 2025 i henhold til
artikel 113, litra a. Reglerne i denne lov foreslås at træde i
kraft på det tidspunkt, hvor forbudte former for AI-praksis
kan medføre sanktioner i henhold til kapitel III om sanktio-
ner, der finder anvendelse fra den 2. august 2025.
På den baggrund foreslås den 2. august 2025 som ikrafttræ-
delsesdato.
Til § 13
Det foreslås i
§ 13,
at loven ikke skal gælde for Færøerne og
Grønland.