Udvalget for Digitalisering og It 2023-24
DIU Alm.del
Offentligt
2835560_0001.png
GRÆNSER FOR TECH-GIGANTERNES
UDVIKLING OG ANVENDELSE
AF KUNSTIG INTELLIGENS
Delafrapportering 2 fra regeringens ekspertgruppe om tech-giganter
Regeringens ekspertgruppe
TECH-GIGANTER
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0002.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
Februar 2024
Erhvervsministeriet
Slotsholmsgade 10-12
1216 København K
+45 33 92 33 50
[email protected]
ISBN 978-87-90643-02-7 (digital)
ISBN 978-87-90643-16-4 (trykt)
Publikationen kan hentes på:
www.em.dk
Design og layout: Erhvervsministeriets kommunikationsenhed
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0003.png
04
08
12
14
17
21
24
29
30
32
FORORD
INDLEDNING
EKSPERTGRUPPENS ANBEFALINGER OM
KUNSTIG INTELLIGENS
TECH-GIGANTERNES MEDANSVAR FOR
INFORMATIONSTROVÆRDIGHED PÅ DERES PLATFORME
BESKYTTELSE AF BØRN OG UNGE MOD SKADELIG
ANVENDELSE OG UDVIKLING AF KUNSTIG INTELLIGENS
PÅ TECH-GIGANTERNES TJENESTER
REGULERING AF TECH-GIGANTERS AUTORISEREDE
BRUG AF OPHAVSRETLIGT BESKYTTET MATERIALE
TECH-GIGANTERNES MARKEDSDOMINANS INDEN
FOR UDVIKLINGEN AF KUNSTIG INTELLIGENS
EKSPERTGRUPPENS SAMMENSÆTNING
EKSPERTGRUPPENS KOMMISORIUM
KILDELISTE
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0004.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
FORORD
AF FORMAND FOR EKSPERTGRUPPEN,
PROFESSOR MIKKEL FLYVERBOM
Kunstig intelligens har udviklet sig til en af vor
tids største teknologiske omvæltninger, og vi
må tage stilling til, hvilken rolle den skal spille i
vores samfund. Kunstige intelligens-systemer
er ikke et nyt fænomen. De har længe været
anvendt til at lave personlige anbefalinger
og målrette reklamer på sociale medier, og
kunstig intelligens kan bruges til at bearbejde
store datasæt på måder, som mennesker ikke
kan. Med frigivelsen af ChatGPT i slutningen
2022 fik den brede offentlighed adgang til en
særlig form for kunstig intelligens – generativ
kunstig intelligens – der selvstændigt kan
udforme tekster, billeder, lyd eller video, som
er designet til at ligne menneskeskabt indhold.
Alt dette skaber både nye muligheder og nye
udfordringer. Kunstig intelligens kan poten-
tielt bidrage til at løse samfundsmæssige
udfordringer som klima og miljø, øge produk-
tiviteten i arbejdsstyrken, ligesom den giver
nye muligheder i sundhedsvæsenet. Men
kunstig intelligens kan også bruges til at skabe
og sprede falsk og vildledende indhold og til
at manipulere og fastholde brugerne – særligt
børn og unge. Det kan ændre både trovær-
digheden af og tilliden til information i vores
samfund. Udviklingen af kunstig intelligens
kan også fratage forfattere og kunstnere deres
ophavsret og muligheder for at tjene penge på
deres værker. Og udbredt brug af generativ
kunstig intelligens belaster klimaet.
Kunstig intelligens sætter turbo på nogle af
de negative konsekvenser ved tech-gigan-
ternes udrulning af digital teknologi. Det må
vi tage alvorligt. Hvis kunstig intelligens skal
bidrage positivt til samfundet, kræver det, at
vi sætter en række hegnspæle, der begrænser
skadevirkningerne og skaber rum for ansvar-
lig og værdifuld brug af kunstig intelligens.
Det er ekspertgruppens ambition med disse
anbefalinger.
Allerede nu bliver kunstig intelligens indbyg-
get i en række tjenester, som flytter tekno-
logien ind i vores arbejds- og privatliv og gør
den mere usynlig. På sigt vil kunstig intelli-
gens blive en integreret del af vores måde at
arbejde, bruge og tilgå information på. Lige
nu går udviklingen meget stærkt, og mange
af konsekvenserne for vores samfund er
ukendte og uigennemskuelige. Samtidig har
tech-virksomheder en interesse i at få kunstig
intelligens til at fremstå som et vilkår og en
naturkraft, vi ikke kan påvirke, men blot må
tilpasse os. Men det er vigtigt at huske, at den
hastige udrulning af kunstig intelligens kunne
se anderledes ud.
Design af teknologier er aldrig neutral, og
kunstig intelligens hænger i dag uløseligt
sammen med tech-giganters forretningsmo-
deller og kommercielle interesser, herunder
behovet for at tiltrække investeringer. Udvik-
lingen af generativ kunstig intelligens kræver
omfattende computerkraft, økonomiske og
4
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0005.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
miljømæssige ressourcer og adgang til store
mængder af data, som kun få virksomheder
besidder. Derfor er det også tydeligt, at udvik-
lingen af kunstig intelligens primært sker i et
kapløb mellem tech-giganter – og på baggrund
af geopolitisk rivalisering mellem USA og Kina
– der har mere fokus på at komme først, end
på ansvarlighed, rettigheder og beskyttelse af
den enkelte borger.
Således er udviklingen af kunstig intelligens
i øjeblikket drevet af de ’klassiske’ kommer-
cielle og teknologiske kræfter, der har styret
andre digitale forandringer som udviklingen
af sociale medier, søgemaskiner og online plat-
forme. Mange af ekspertgruppens tidligere
anbefalinger om forretningsmodeller, data-
høst, algoritmer, fastholdelse og adfærdsma-
nipulation er derfor vigtige at have in mente,
når der tages stilling til kunstig intelligens.
Ekspertgruppens udgangspunkt er, at kunstig
intelligens er både et teknologisk gennembrud
og en samfundsmæssig udfordring, som vi må
forholde os nysgerrigt og nuanceret til. Det,
vi sætter fokus på i disse anbefalinger, er ikke
alt ved kunstig intelligens, da vores mandat er
begrænset til tech-giganter, men specifikt den
uheldige cocktail af kommercielt fokuserede
tech-giganter, hastigt udrullet kunstig intelli-
gens og et relativt uforberedt samfund.
Lige nu falder mange diskussioner om kunstig
intelligens tilbage på en skelnen mellem ’de
modige’, der vil eksperimentere og arbejde
med kunstig intelligens, og ’de frygtsomme’,
der kun ser farerne og vil stoppe udviklingen.
Men den opdeling giver ikke mening. Kunstig
intelligens kræver en nuanceret og balance-
ret tilgang, som når vi taler om andre viden-
skabelige og teknologiske nyskabelser såsom
medicin og kemikalier. Når vi som samfund
regulerer udviklingen og brugen af medicin og
kemikalier, skaber vi plads til det gavnlige, men
begrænser samtidig det skadelige. Ny medicin
må for eksempel først komme på markedet
og bruges, når vi kender til bivirkninger, har
udviklet krav om korrekt anvendelse, bl.a. via
recepter, og fundet måder at begrænse poten-
tielle risici. Vi må tage et lignende ansvar for at
skabe de rette rammer, så kunstig intelligens
kan bidrage positivt til samfundsudviklingen.
Ekspertgruppens første sæt anbefalinger
handlede om at
rydde op
i en række problema-
tikker ved tech-giganters forretningsmodeller,
som vi som samfund for længst burde have sat
en stopper for. Anbefalingerne i denne rapport
er et bud på, hvordan vi kan
indhegne
og give
kunstig intelligens den plads i vores samfund,
som både gør det muligt at udnytte de gode
muligheder og begrænse skadevirkningerne.
Det er vigtigt at understrege, at ekspertgrup-
pens ærinde ikke er at tale for eller imod en
given teknologisk udvikling, men at sætte
fokus på de
drivkræfter, vilkår
og
samfundsmæs-
sige forandringer,
som tech-giganter skaber via
deres tilgange og produkter.
5
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0006.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
Ekspertgruppens anbefalinger er ikke udtøm-
mende, og udviklingen er svær at spå om. Det
er dog vores opfattelse, at en stor del af pro-
blemerne med kunstig intelligens kan løses
gennem en kombination af ny regulering,
håndhævelse af eksisterende lovgivning og
et politisk fokus på at få offentlige og private
udviklere af kunstig intelligens til at tage
medansvar for, at teknologien understøtter
demokratiet og beskytter borgerne og deres
rettigheder.
Problematikkerne er i sagens natur grænse-
overskridende. Løsningerne skal derfor i høj
grad findes internationalt, herunder i EU, som
i internationalt regi er langt fremme i forhold
til at regulere tech-giganterne. EU er det pri-
mære sted at lave fælles spilleregler og hånd-
hæve den lovgivning, der allerede er på plads.
Danmark bør derfor spille en aktiv og dagsor-
densættende rolle i EU og globalt. Men det er
også vigtigt, at vi i Danmark tager de skridt,
der kan bane vej for en ansvarlig digital frem-
tid med kunstig intelligens.
6
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0007.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
HVAD ER KUNSTIG INTELLIGENS?
Kunstig intelligens (eller AI) er systemer, der med varierende grad af autonomi og
på baggrund af data kan løse opgaver inden for f.eks. tekst, lyd eller billede. Eks-
pertgruppen har særligt drøftet generativ kunstig intelligens. Det er kunstig intel-
ligens, som skaber indhold ud fra data på baggrund af sandsynlighed, f.eks. sprog-
modeller såsom ChatGPT, Mistral, Metas Llama 2 og Google Bard. Det er den form
for kunstig intelligens, som er mest omdiskuteret i forhold til at påvirke samfundet
i fremtiden. Ekspertgruppen har dog også behandlet andre former for kunstig
intelligens, f.eks. anbefalingsalgoritmer, som tilpasser indholdet på en hjemmeside
til den enkelte bruger.
EKSPERTGRUPPENS FORSTÅELSE AF TECH-GIGANTER
Ekspertgruppen forstår tech-giganter som de teknologivirksomheder, der med
udbredelsen i samfundet og antal brugere af deres digitale tjenester har en særlig
og ofte dominerende betydning for centrale samfundsområder og brugernes
grundlæggende rettigheder.
Tech-giganter er virksomheder, som i varierende grad bygger deres forretnings-
model på at indsamle enorme mængder data om brugerne. Den data bruger og
videreformidler tech-giganterne til bl.a. tredjeparter, der f.eks. anvender oplysnin-
gerne til målrettede reklamer, til at optimere deres egen forretning og til at fast-
holde brugerne.
7
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0008.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
INDLEDNING
Kunstig intelligens har mange potentialer, men
indebærer også en række risici og udfordrin-
ger. En af ekspertgruppens primære bekym-
ringer handler om informationstroværdighed.
Med kunstig intelligens er det blevet nemt
at skabe og sprede indhold, som selv eksper-
ter har svært ved at vurdere ægtheden af. En
anden bekymring er, om der er tilstrækkeligt
klare retningslinjer og det nødvendige fokus
på beskyttelse af menneskerettigheder, data-
beskyttelse og ophavsretten. Særligt bekym-
rende er også anvendelsen af kunstig intelli-
gens over for børn og unge, der bliver udsat
for upassende indhold eller manipulation uden
tilstrækkelig beskyttelse. Kunstig intelligens-
systemer kan også være baseret på data med
bias. De systemer, hvor algoritmer er trænet
på data med bias, kan føre til utilsigtet for-
skelsbehandling og risikerer at reproducere og
forstærke eksisterende fejl og fordomme.
Tech-giganterne spiller en afgørende rolle i
udviklingen og anvendelsen af kunstig intel-
ligens. De investerer betydelige ressourcer
i forskning, udvikling og implementering af
kunstig intelligens. Meta har f.eks. indikeret,
at de alene i 2023 ville bruge 225 mia. kr. på
udvikling af deres kunstig intelligens-kapaci-
tet,
1
og ekspertgruppen forventer, at de andre
store aktører også investerer massivt. Dertil
kommer, at flere og flere platforme bruger
kunstig intelligens, i form af f.eks. sprogmo-
deller og chatbots, til at lave brugerspecifikt
indhold for at gøre brugeroplevelsen bedre
og fastholde brugerne i længere tid.
2
Sprog-
modellerne analyserer og genererer tekst,
mens chatbots interagerer med brugere i en
samtalelignende form. Samtidig ejer tech-
giganterne flere af de cloud-tjenester, der er
en del af fundamentet for deres egne og andre
virksomheders kunstige intelligens-systemer.
Koblingen mellem kunstig intelligens og
tech-giganter øger derfor risiciene ved kun-
stig intelligens. Dels fordi tech-giganterne har
en stor magt og indflydelse globalt. Dels fordi
vi som samfund og offentlighed har en stærkt
begrænset indsigt i og adgang til tech-gigan-
terne og deres datasæt. Deres forretningsmo-
deller og beslutninger kan have vidtrækkende
konsekvenser for samfundet - og vi ved det
først, når det er for sent. For at sikre ansvarlig
og etisk brug af kunstig intelligens i fremtiden
er det derfor afgørende at adressere og regu-
lere de særlige udfordringer, som kombinati-
onen af kunstig intelligens og tech-giganter
medfører.
8
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0009.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
HVAD ER EN BOT? OG HVAD ER EN CHATBOT?
En bot, eller robot, refererer generelt til et computerprogram, der udfører automatise-
rede opgaver. Bots kan bruges til en bred vifte af formål og efterligner eller erstatter ofte
menneskelig brugeradfærd. Bots kan f.eks. like, dele eller poste indhold på sociale medier.
En chatbot er et computerprogram, som brugeren kan tale eller skrive med. Chatbots er skabt til
at hjælpe brugere med forskellige opgaver, f.eks. besvare spørgsmål, gennemføre køb eller finde
information. Chatbots har eksisteret i mange år, men bliver med kunstig intelligens mere avan-
cerede og bedre til at tilpasse sig den enkelte bruger. Eksempler på chatbots er Siri, Alexa eller
Google Assistant. Andre chatbots er udviklet til at tale med brugeren og imitere en rigtig person.
Det er f.eks. chatbotten My AI, der er indbygget i Snapchat.
På baggrund af de særlige udfordringer, der
er med kombinationen af kunstig intelligens
og tech-giganter, kommer ekspertgruppen
med 13 anbefalinger. Delafrapporteringen
er den anden udgivelse fra ekspertgruppen.
Afrapporteringen er bygget op omkring fire
temaer med hver deres anbefalinger:
intelligens bliver ansvarlig, så også potentia-
lerne kan høstes.
Vi skal sikre, at myndighederne både interna-
tionalt og i Danmark har ressourcer og viden
til at føre tilsyn og håndhæve regler i forhold
til de allerstørste spillere. Samtidig skal den
regulatoriske ramme løbende opdateres,
så den følger udviklingen inden for kunstig
intelligens.
Danmark og Europa skal gøre det klart, hvor-
dan tech-giganternes udvikling og anvendelse
af kunstig intelligens skal foregå. Det skal ske
med respekt for menneskerettighederne og
de demokratiske værdier samtidig med, at
der sikres gode rammer for innovation. Det
kan i den forbindelse overvejes, om det kan
give mening at samle rådgivende ekspertise
på tværs af myndigheder og akademia ét sted
i form af et "kunstig intelligens-institut" eller
lignende.
Størstedelen af anbefalingerne kræver et
effektivt samarbejde i EU og velfungerende
håndhævelse både nationalt og i Europa-Kom-
missionen. Det er afgørende for at sikre, at
produkter og tjenester baseret på kunstig
1
2
Tech-giganternes medansvar for informations-
troværdighed på deres platforme.
Beskyttelse af børn og unge mod skadelig
anvendelse og udvikling af kunstig intelligens
på tech-giganternes tjenester.
Regulering af tech-giganters uautoriserede
brug af ophavsretligt beskyttet materiale.
Tech-giganternes markedsdominans inden for
udviklingen af kunstig intelligens.
Med de fire temaer ønsker ekspertgruppen
at adressere et udsnit af de udfordringer, som
tech-giganternes udvikling og anvendelse af
kunstig intelligens fører med sig. Formålet
er at sætte rammer, der sikrer, at tech-gigan-
ternes udvikling og anvendelse af kunstig
3
4
9
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0010.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
intelligens - ligesom andre digitale teknologier
- lever op til øvrige EU-regler som eksempel-
vis databeskyttelses- og ophavsretsregler. I
december 2023 indgik Europa-Kommissionen,
Rådet for Den Europæiske Union og Euro-
pa-Parlamentet en aftale om forordningen om
harmoniserede regler for kunstig intelligens
(AI Act).
3
AI Act bliver et vigtigt skridt i forhold
til at få sat de nødvendige rammer for kunstig
intelligens.
Kunstig intelligens og digitale tjenester regu-
leres dermed allerede i EU - dels gennem den
kommende AI Act, dels gennem Digital Ser-
vices Act, Digital Markets Act og GDPR. Eks-
pertgruppens anbefalinger kan derfor give
anledning til yderligere regulering eller revi-
dering af eksisterende EU-regulering. Yderli-
gere kan anbefalingerne danne grundlag for
danske alliancer med andre EU-lande, indspil
om effektive håndhævelses- og samarbejdsini-
tiativer til den nye Europa-Kommission i 2024
og det kommende danske EU-formandskab i
2025. Desuden er det vigtigt, at der arbejdes
aktivt for et mere forpligtende samarbejde
globalt.
Mange af de problemstillinger, som ekspert-
gruppen allerede har behandlet i sin første
afrapportering om demokratisk kontrol med
tech-giganternes forretningsmodeller, bliver
kun forstærket med fremkomsten af kunstig
intelligens. De 13 anbefalinger fra ekspert-
gruppen bygger derfor direkte oven på anbe-
falinger fra ekspertgruppens første rapport.
EKSPERTGRUPPENS AFGRÆNSNINGER
Ekspertgruppen har ikke haft et mål om at identificere alle udfordringer ved kunstig intelligens eller
komme med udtømmende anbefalinger.
Ekspertgruppen har ikke beskæftiget sig med de
sikkerheds- og forsvarspolitiske konsekven-
ser
ved udviklingen og anvendelsen af kunstig intelligens. Der er derfor ingen anbefalinger om og
i så fald hvordan, Danmark kan anvende tech-giganternes produkter og løsninger i sikkerheds- og
forsvarspolitikken.
Ekspertgruppen har heller ikke beskæftiget sig med
danske virksomheders og den offentlige
sektors anvendelse og mulige afhængighed
af tech-giganternes tjenester og produkter, herunder
kunstig intelligens-systemer.
Endelig har ekspertgruppen ikke beskæftiget sig med, at flere tech-giganter åbent erklærer, at de
arbejder mod
Artificial General Intelligence,
AGI, en superintelligens, hvor maskiner ender med at
kunne meget af det, mennesker kan.
Flere af ovenstående spørgsmål kan i stedet indgå i ekspertgruppens videre arbejde med temaet om
tech-giganters indflydelse på den digitale infrastruktur.
10
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0011.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
EU-REGULERING AF DIGITALE TJENESTER OG KUNSTIG INTELLIGENS
AI Act
Der blev i december 2023 indgået en aftale i EU om forordningen om harmoniserede regler for
kunstig intelligens (AI Act). AI Act er de første bindende regler for anvendelse af kunstig intel-
ligens på verdensplan. Forordningen indfører forbud mod kunstig intelligens med uacceptabel
risiko, f.eks. "social scoring". AI Act stiller også krav til kunstig intelligens med høj risiko, f.eks. i
forbindelse med rekruttering eller offentlig sagsbehandling. I forordningen indgår også et trans-
parenskrav, så brugere skal gøres bekendt med, at et produkt eller en tjeneste bruger kunstig
intelligens, f.eks. chatbots, eller hvis indhold er genereret med kunstig intelligens, f.eks. deepfakes.
Digital Services Act
Forordningen om digitale tjenester (Digital Services Act eller DSA) trådte i kraft i november 2022
og gælder fra februar 2024. DSA regulerer digitale formidlingstjenester, f.eks. sociale medier,
online markedspladser og søgemaskiner. DSA gør det bl.a. muligt at anmelde ulovligt indhold, at
klage til tjenesten, hvis den ikke fjerner ulovligt indhold, og at sikre bedre indsigt i, hvilket ind-
hold tjenesterne har fjernet. De største digitale platforme skal årligt identificere og analysere de
systemiske risici forbundet med deres tjenester og reducere risici forbundet med bl.a. spredning
af ulovligt indhold, negative følger for grundlæggende rettigheder, manipulation af demokratiske
valg og negative påvirkninger for børn og unge.
Digital Markets Act
Forordningen om åbne og fair markeder i den digitale sektor (Digital Markets Act eller DMA)
trådte i kraft i november 2022. Virksomhederne skal leve op til reglerne fra marts 2024. DMA
regulerer de største digitale platforme, der har mange brugere, høj omsætning og er aktive i mere
end tre medlemsstater, f.eks. Facebook, Instagram, Googles søgemaskine og Amazon. DMA skal
sikre fair konkurrencevilkår for de erhvervsbrugere og slutbrugere, der anvender platformene,
bl.a. ved at fastsætte krav og forpligtelser for de omfattede virksomheder – f.eks. om adgang til
data og anvendelse af fair og ikke-diskriminerende vilkår.
General Data Protection Regulation
Databeskyttelsesforordningen (GDPR) har fundet anvendelse siden 2018 og indeholder en lang
række krav, der skal overholdes ved behandling af personoplysninger. Udvikling af kunstig intel-
ligens sker ved brug af datasæt, der ofte indeholder personoplysninger. Databeskyttelsesreg-
lerne indeholder derfor allerede i dag en lang række generelle principper, der skal overholdes ved
udvikling og brug af kunstig intelligens, såfremt der indgår personoplysninger.
11
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0012.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS.
EKSPERTGRUPPENS
ANBEFALINGER OM
KUNSTIG INTELLIGENS
1
INFORMATIONSTROVÆRDIGHED
2
BESKYTTELSE AF
BØRN OG UNGE
1.1
Indsats mod skadeligt og vildledende
indhold genereret af kunstig intelligens
1.2
Tech-giganter skal deklarere indhold genereret
af kunstig intelligens på deres platforme
1.3
Effektiv forsker- og myndighedsadgang
til kunstig intelligens-modeller
2.1
Chatbots skal være slået fra som
standardindstilling, ikke kræve betaling at
fravælge og være fri for manipulerende design
2.2
Design af kunstig intelligens skal tage højde
for børn og unge som sårbare forbrugere
2.3
Beskyttelse af børn og unge mod
kunstig intelligens i legetøj
2.4
Skærpet fokus på risici ved kunstig
intelligens for børn og unge
12
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0013.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS.
3
UAUTORISERET BRUG
AF OPHAVSRETLIGT
BESKYTTET MATERIALE
3.1
Tech-giganterne skal dokumentere,
at de ikke bryder ophavsretten
3.2
EU-regler om licensaftaler i forhold
til brug af ophavsretligt materiale og
oprettelse af europæisk tilsyn
3.3
Europæisk klageadgang for rettighedshavere
4
MARKEDSDOMINANS
4.1
Bedre rammer for udvikling af kunstig intelligens-
løsninger som alternativ til tech-giganterne
4.2
Retningslinjer for brug og indkøb af kunstig
intelligens i den offentlige sektor
4.3
Europæisk regulering af kunstig intelligens over for
tech-giganterne skal håndhæves og videreudvikles
13
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0014.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
TECH-GIGANTERNES MEDANSVAR FOR
INFORMATIONSTROVÆRDIGHED PÅ DERES
PLATFORME
EKSPERTGRUPPENS ANBEFALINGER OM INFORMATIONSTROVÆRDIGHED
1.1. Indsats mod skadeligt og vildledende indhold genereret af kunstig intelligens.
1.2. Tech-giganter skal deklarere indhold genereret af kunstig intelligens på deres platforme.
1.3. Effektiv forsker- og myndighedsadgang til kunstig intelligens-modeller.
Kunstig intelligens udfordrer informationstro-
værdigheden på tech-giganternes platforme.
Kunstig intelligens – herunder i bots – er værk-
tøjer, der i de forkerte hænder kan bidrage til
øget polarisering i befolkningen og svigtende
tillid til demokratiske institutioner. Det kan
have betydning for sammenhængskraften og
demokratiet - og udgør dermed en risiko for
informationstroværdigheden i hele samfundet.
Kunstig intelligens gør det let at lave og
dele falsk eller manipuleret indhold på tech-
giganternes platforme i form af tekst, billede
eller lyd. Billeder eller lyd skabt af kunstig
intelligens (såkaldte
deepfakes)
kan med stor
overbevisning manipulere eller efterligne en
persons stemme eller udseende. Vi har alle-
rede set eksempler på, hvordan politikere,
skuespillere eller privatpersoner indgår i vide-
oer, hvor de gør eller siger noget, de aldrig har
gjort eller sagt.
4
Det falske og manipulerede indhold kan også
være af krænkende karakter, eksempelvis
hvis ofres ansigter bliver hentet fra billeder på
sociale medier og indsat på pornografisk eller
ulovligt materiale. I januar 2024 blev falske
nøgenbilleder af en verdenskendt sangerinde
eksempelvis delt på sociale medier som X og
Telegram. Ét billede nåede at blive set 47 mil-
lioner gange, før det blev fjernet.
5
Ekspert-
gruppen forventer kun, at problemet bliver
større og mere udbredt. Det falske indhold kan
målrettes bestemte samfundsgrupper og opnå
stor udbredelse via automatisk deling gennem
bots. Samtidig kan materialet være så overbe-
visende, at selv eksperter og politiet kan have
svært ved at skelne det ægte fra det falske. Det
kan eksempelvis gøre det svært at efterforske
sager om seksuelt misbrug af børn.
Tech-giganternes anvendelse af kunstig intel-
ligens og anbefalingsalgoritmer på deres plat-
forme påvirker, hvordan brugergenereret ind-
hold bliver prioriteret, forstærket og udbredt
til brugerne af deres platforme. Derfor anbe-
falede ekspertgruppen i sin delrapport om
forretningsmodeller bl.a., at tech-giganter skal
tage mere ansvar for deres anbefalingsalgo-
ritmer.
6
Den anbefaling er blevet endnu mere
vigtig med udbredelsen af kunstig intelligens,
idet tech-giganterne i høj grad er toneangi-
vende for udviklingen på området.
14
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0015.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
1.1. Indsats mod skadeligt og vildledende
indhold genereret af kunstig intelligens
Ekspertgruppen anbefaler, at der i EU sker
en præcisering af tech-giganternes pligt til at
håndtere de systemiske risici, som udbredel-
sen af skadeligt og vildledende indhold gene-
reret af kunstig intelligens på deres platforme
rejser. Det kan bl.a. være manipuleret tekst,
billede eller lyd, der påvirker brugernes grund-
læggende rettigheder, samfundsdebatten eller
valgprocesser negativt.
I de seneste år er begreber som
fake news
og
desinformation vokset ind i det danske sprog.
Debatten har i høj grad handlet om trovær-
digheden af den information, der florerer
på tech-giganternes platforme. Udviklingen
af generativ kunstig intelligens gør kun den
debat endnu mere relevant, fordi bl.a. deep
fakes tager desinformation og fake news til et
helt nyt niveau. Det udfordrer troværdighe-
den af de informationer, vi får online.
Som led i Digital Services Act stilles der krav til
tech-giganterne om at identificere og imødegå
den negative indvirkning, som deres tjene-
ster og platforme rejser for f.eks. samfunds-
debatten og valgprocesser. Ekspertgruppen
anbefaler derfor, at Europa-Kommissionen
gennem retningslinjer præciserer, hvordan
tech-giganterne forventes at håndtere de
risici, der er forbundet med udbredelsen af
skadeligt og vildledende indhold genereret af
kunstig intelligens på deres platforme. Ret-
ningslinjerne skal bl.a. præsentere best prac-
tice og anbefalinger til mulige risikobegræn-
sende foranstaltninger, og de skal tage højde
for mulige konsekvenser for bl.a. ytrings- og
informationsfriheden.
1.2. Tech-giganter skal deklarere indhold
genereret af kunstig intelligens på deres
platforme
Ekspertgruppen anbefaler, at der i EU ind-
føres krav om, at tech-giganter skal mærke
indhold genereret af kunstig intelligens. Det
er vigtigt, at brugerne kan skelne mellem
indhold, der er genereret af kunstig intelli-
gens, og andet indhold på tech-giganternes
tjenester. Med AI Act stilles der krav om, at
udbydere af generativ kunstig intelligens-
systemer skal udvikle deres systemer, så ind-
hold genereret af kunstig intelligens auto-
matisk mærkes i et maskinlæsbart format.
Dermed bliver det lettere for
maskiner
at
identificere, når indhold er genereret af kun-
stig intelligens. AI Act stiller også krav om, at
skabere af indhold genereret af kunstig intel-
ligens, herunder deepfakes, skal deklarere, at
indholdet er genereret af kunstig intelligens,
så brugerne tydeligt kan se det. Dem, der
skaber indhold med kunstig intelligens, skal
deklarere det i overensstemmelse med reg-
lerne i AI Act, hvilket vil blive håndhævet af
tilsynsmyndighederne.
SOCIALE MEDIER ER OFTE DE UNGES KILDE TIL NYHEDER
Der er markante forskelle på forskellige befolkningsgruppers kilde til nyheder på internettet.
Blandt de 15-24-årige angiver den største andel (69 pct.) sociale medier som kilde til deres nyhe-
der. I de ældre befolkningsgrupper er det hovedsageligt TV-stationernes hjemmesider, der bruges
som nyhedskilde.
7
En ny undersøgelse, som Berlingske har fået udarbejdet af Kantar Gallup, viser
desuden, at 43 pct. af de 18-35 årige får mindst halvdelen af deres daglige nyheder fra sociale
medier. Udfordringen ved at få mange af sine nyheder fra sociale medier er bl.a., at indholdet ikke
altid er underlagt f.eks. et redaktøransvar, og at nyhederne derfor kan være utroværdige og falske
og derved lede til misinformation.
8
15
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0016.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
Ekspertgruppen ønsker dog at gå længere,
så tech-giganterne værner om informations-
troværdigheden på deres platforme. Derfor
bør de være forpligtede til at deklarere ind-
hold genereret af kunstig intelligens, hvis der
deles udeklareret indhold på deres platforme.
Tech-giganter bør forpligtes til at udvikle
værktøjer på deres tjenester, som kan aflæse
den mærkning, som AI Act kræver. Hvis ind-
hold genereret af kunstig intelligens når et
omfang, hvor det udgør størstedelen af ind-
holdet på tech-giganternes tjenester, bør det
overvejes, om det er det menneskeskabte eller
"validerede" indhold - f.eks. fra en offentlig
myndighed - som skal deklareres.
Derfor anbefales det, at der i udmøntningen
af Digital Services Act arbejdes for en så vidt-
rækkende anvendelse af artikel 40 som muligt.
Det indebærer bl.a., at uafhængige forskere,
Europa-Kommissionen og nationale tilsyn får
adgang til de oplysninger, der er nødvendige
for at overvåge, analysere og vurdere anbefa-
lingssystemer, træningsdata, mv.
Regeringen har tidligere tilsluttet sig ekspert-
gruppens anbefaling om at understøtte for-
skeres adgang til tech-giganternes data samt
udvide adgangen til også at gælde publicisti-
ske medier,
9
som er tilmeldt Pressenævnet.
Den vidtrækkende anvendelse af artikel 40
i Digital Services Act skal derfor indebære:
1.
Understøttelse af danske forskeres adgang
til data, herunder bistå med best practices
og øvrig hjælp i forhold til at sikre uhindret
adgang til data.
2.
Arbejde for at der i fortolkningen af artikel
40 sikres, at forskere og myndigheder kan få
adgang til bl.a. sprogmodellers træningsdata,
der anvendes af onlineplatforme og onlinesø-
gemaskiner omfattet af Digital Services Act.
1.3. Effektiv forsker- og myndighedsad-
gang til kunstig intelligensmodeller
Ekspertgruppen anbefaler, at myndigheder
og forskere sikres adgang til data fra tech-gi-
ganterne, der er nødvendige for at kunne
foretage undersøgelser om f.eks. sprogmodel-
lers iboende risici og udfordringer, samt om
de efterlever gældende love og regler. I dag
har vi som samfund meget lidt indblik i tech-
giganternes maskinrum.
16
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0017.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
BESKYTTELSE AF BØRN OG UNGE MOD SKADELIG
ANVENDELSE OG UDVIKLING AF KUNSTIG
INTELLIGENS PÅ TECH-GIGANTERNES TJENESTER
EKSPERTGRUPPENS ANBEFALINGER OM BESKYTTELSE AF BØRN OG UNGE
2.1. Chatbots skal være slået fra som standardindstilling, ikke kræve betaling at fravælge og være
fri for manipulerende design.
2.2. Design af kunstig intelligens skal tage højde for børn og unge som sårbare forbrugere.
2.3. Beskyttelse af børn og unge mod kunstig intelligens i legetøj.
2.4. Skærpet fokus på risici ved kunstig intelligens for børn og unge.
Tech-giganternes fastholdelsesmekanismer,
såsom streaks og infinity scrolls, har store
konsekvenser for børn og unge. Fastholdel-
sesmekanismerne kan være både manipule-
rende og afhængighedsskabende.
10
Derud-
over høster tech-giganterne store mængder
data, som bruges til at målrette indholdet til
den enkelte. Børn og unge har derfor brug
for ekstra beskyttelse mod eksempelvis ikke-
alderssvarende indhold, fastholdelsesmeka-
nismer og datahøst. Det slog ekspertgruppen
fast i sin første afrapportering. Regeringen har
allerede fulgt op på flere af anbefalingerne,
bl.a. ved at fremsætte og få vedtaget et lovfor-
slag, der har hævet aldersgrænsen for, hvor-
når man kan give samtykke til behandling af
personoplysninger i forbindelse med udbud
af informationssamfundstjenester, fra 13 år til
15 år.
Udviklingen inden for kunstig intelligens
forstærker platformenes muligheder for at
fastholde og påvirke børn og unge, hvilket
gør ekspertgruppens tidligere anbefalin-
ger endnu mere relevante. Børn og unge er
særligt modtagelige over for de virkemidler,
som kunstig intelligens-systemerne anvender.
Systemerne er typisk indrettet til at fastholde
opmærksomheden, og de kan påvirke alt fra
medievaner til verdensopfattelse og selvbil-
lede. Det kan f.eks. ske gennem videoanbefa-
linger på YouTube eller algoritmer på TikTok,
der foreslår, hvilket indhold brugerne skal se.
Tech-giganterne har gennem årene undveget
deres ansvar for indhold, der er uegnet for
børn og unge, ved at skrive i deres betingel-
ser, at man skal være 13 år for at bruge deres
tjenester – velvidende at børn under 13 år alli-
gevel bruger dem. Og tech-giganterne tjener
penge på, at børnene er der. En ny Harvard-
undersøgelse baseret på amerikanske data
viser f.eks., at sociale medier sidste år genere-
rede 11 mia. dollars i indtægter fra reklamer
rettet mod børn og teenagere, inkl. næsten
2 mia. dollars i annonceoverskud fra brugere
på 12 år og derunder.
11
Det er derfor afgø-
rende, at indhold og funktioner på tech-gi-
ganternes tjenester er alderssvarende, hvis et
barn bruger eller sandsynligvis bruger deres
tjenester.
17
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0018.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
Senest er en chatbot blevet integreret i Snap-
chat, som bliver brugt af børn og unge – og som
de skal betale for at få fjernet. Ud over at chat-
bots høster store mængder af data om bru-
gerne, er Snapchats My AI f.eks. blevet kritise-
ret for at rådgive børn og unge om selvskade
og misbrug,
12
og chatbots kan også påvirke
brugeren til f.eks. at afgive data, blive på plat-
formen eller lave ekstra køb.
2.1. Chatbots skal være slået fra som
standardindstilling, ikke kræve betaling
at fravælge og være fri for manipule-
rende design
Ekspertgruppen anbefaler, at kunstig intel-
ligens-chatbots som standardindstilling skal
være slået fra på digitale tjenester som sociale
medier og gaming (både spil og gaming-sider),
hvis børn bruger eller sandsynligvis bruger
dem. Hvis børn og unge aktivt har valgt en
(alderssvarende) kunstig intelligens-chatbot
til, skal de til enhver tid kunne slå dem fra
igen uden betaling til platformene. Formålet
med anbefalingen er at sikre børn og unges
autonomi på de digitale tjenester og fjerne
de økonomiske barrierer ved, at brugere skal
betale for at få fjernet chatbots, som de ikke
ønsker at benytte. At det på specifikke plat-
forme ikke er muligt at fravælge chatbots
uden betaling illustrerer, hvordan datahøst
i chatbots hænger tæt sammen med tech-
giganternes forretningsmodeller.
Derudover anbefaler ekspertgruppen, at
tech-giganter får et skærpet ansvar for at
sikre, at kunstig intelligens-chatbots på digi-
tale tjenester som sociale medier og gaming
ikke indeholder manipulerende design. Det
skal forhindre, at børn og unge bliver fast-
holdt i interaktion med chatbotten, hvilket kan
påvirke børn og unges adfærds-, købs- og for-
brugsmønstre og høste deres data.
EKSEMPLER PÅ INDBYGGET KUNSTIG INTELLIGENS I DIGITALE TJENESTER
Flere sociale medier har indbyggede chatbots. Snapchats chatbot My AI er f.eks. en kunstig intelli-
gens, som imiterer en menneskelig ven, der kan svare på spørgsmål om alt fra, hvilke ingredienser
der skal i en kage til at have en samtale om brugerens dag. Sådanne chatbots kan være med til at
fastholde børnene på sociale medier. For alle brugere er My AI en integreret del af Snapchat, som
brugerne skal betale for at fjerne.
13
Streamingtjenester og videodelingsplatforme som YouTube, Netflix, Amazon Prime Video og Spo-
tify bruger kunstig intelligens til at levere personspecifikke anbefalinger til brugerne. Tjenesterne
analyserer brugerens tidligere adfærd, præferencer og interaktioner for at forudsige, hvilket ind-
hold brugeren sandsynligvis vil kunne lide.
Kunstig intelligens indbygges også i børns legetøj. F.eks. kan børn lege med bamser og dukker, der
interagerer med barnet i dets leg. Barnet kan tale med bamsen, stille spørgsmål og lave fantasilege
sammen.
14
18
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0019.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
2.2. Design af kunstig intelligens-funk-
tioner skal tage højde for børn og unge
som sårbare forbrugere
Ekspertgruppen anbefaler, at der i EU arbejdes
for, at tech-giganternes tjenester, som børn
og unge har adgang til, skal tage højde for, at
børn og unge er særligt sårbare forbrugere og
beskytte dem mod udnyttelse af deres sårbar-
heder, særligt hvis der anvendes kunstig intel-
ligens-funktioner. Det gælder risici forbundet
med indhold, adfærd, kontakt og kommercielle
vilkår.
15
Derudover bør der iværksættes en analyse
af, i hvilken grad tech-giganters anvendelse af
kunstig intelligens bruges til at udnytte sår-
barheder hos børn og unge. Her bør indreg-
nes risikofaktorer, som specifikt er forbundet
med kunstig intelligens, der imiterer menne-
sker og ikke mindst børn. I forlængelse heraf
bør det undersøges, hvordan tech-giganterne
bruger den indhentede viden til at få børn og
unge til at bruge mere tid på tech-giganter-
nes platforme, end de ellers ville have gjort,
eller til f.eks. at købe varer, de ellers ikke ville
have købt. Resultaterne af analysen kan spilles
ind i den kommende revision af EU’s forbru-
gerbeskyttende regler, EU’s forbrugerdags-
orden for 2025-2030, samarbejdet mellem
håndhævende forbrugermyndigheder og ret-
ningslinjerne til AI Act. Særligt bør regeringen
arbejde for, at de forbrugerbeskyttende regler
i EU - i endnu højere grad end i dag - sikrer, at
brugergrænseflader for børn og unge er uden
manipulation og vildledning, og at den kom-
mende EU-forbrugerdagsorden har fokus på
anvendelsen af kunstig intelligens over for
børn og unge.
2.3. Beskyttelse af børn og unge mod
kunstig intelligens i legetøj
Ekspertgruppen anbefaler, at der stilles skær-
pede krav til legetøj, der indeholder kunstig
intelligens, som f.eks. dukker eller robotkæle-
dyr. Det er i den forbindelse nødvendigt med
en klar definition af, hvad legetøj dækker over,
i en tid hvor markedet for ”virtuelle venner”,
f.eks. en chatbot eller kæreste, er stigende
verden over.
Kunstig intelligens bevæger sig ind på flere og
flere domæner i vores private liv, herunder ind
på børneværelserne og i børns legetøj. Selvom
kunstig intelligens kan åbne døren for nye
muligheder for interaktion og læring blandt
børn, står vi også over for en række udfordrin-
ger. Det gælder særligt beskyttelsen af børns
data og retten til privatliv. Men også mere
etiske og pædagogiske dilemmaer, hvis legetøj
med kunstig intelligens kan tilpasse sig barnets
lege og personlighed og potentielt imitere et
venskab med barnet. Derfor anbefales det, at
der i den kommende legetøjsforordning indfø-
res krav om, at legetøj med indbygget kunstig
intelligens underlægges kravene om højrisko
i AI Act og bliver tredjepartcertificeret, inden
legetøjet kan blive brugt af børn og unge.
19
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0020.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
2.4. Skærpet fokus på risici ved kunstig
intelligens for børn og unge
Ekspertgruppen anbefaler, at der er sær-
ligt fokus på risici for børn og unge, når der
udformes og håndhæves regulering over for
tech-giganter, hvis tjenester benytter kunstig
intelligens til f.eks. at promovere og producere
indhold. Det er afgørende, at tech-giganter
tager regulering og retningslinjer alvorligt.
Derfor anbefaler ekspertgruppen, at tech-gi-
ganterne skal have ansvaret for, at indholdet og
funktionerne på deres tjenester er alderssva-
rende, hvis et barn bruger eller sandsynligvis
bruger tjenesterne. Yderligere bør tech-gigan-
ter - som et minimum - her og nu tilslutte sig det
kommende EU-adfærdskodeks om aldersva-
rende design (Age Appropriate Design Code).
Anbefalingen hænger sammen med rappor-
ten om tech-giganternes forretningsmodeller,
hvor ekspertgruppen anbefalede, at der indfø-
res et alderssvarende adfærdskodeks.
Derudover anbefaler ekspertgruppen, at der
arbejdes for, at Europa-Kommissionen udste-
der retningslinjer til artikel 35 i Digital Services
Act for, hvordan tech-giganter skal handle for
at imødegå systemiske risici ved kunstig intel-
ligens i deres apps, sites og tjenester, som børn
bruger eller sandsynligvis bruger. Det skal ske
i samarbejde med koordinatorerne for digi-
tale tjenester og under hensyntagen til bl.a.
børns grundlæggende rettigheder. Derudover
skal udfordringer forbundet med de særlige
risici ved kunstig intelligens for børn og unge
spilles ind EU’s kommende forbrugeragenda
for 2025-2030 samt være en del af arbejdet i
Europa-Kommissionens ”Better Internet for
Kids”-strategi, som Digital Services Act også
refererer til. Det kan f.eks. ske som led i det
arbejde, som Europa-Kommissionen vil iværk-
sætte under strategiens søjle 1 om ”Sikre
digitale oplevelser (bedre beskyttelse af børn
online)”.
Yderligere anbefaler ekspertgruppen, at der
udstedes retningslinjer, der uddyber og tyde-
liggør AI Act’s forbud mod direkte manipula-
tion. Det indebærer, at det i retningslinjerne
og standarderne til forordningen tydeliggøres,
hvordan udbydere af højrisiko kunstig intelli-
gens-systemer skal tage særlig højde for, om
personer under 18 år har adgang til eller bliver
påvirket af systemet, når risikostyringssyste-
met implementeres.
20
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0021.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
REGULERING AF TECH-GIGANTERS UAUTORISEREDE
BRUG AF OPHAVSRETLIGT BESKYTTET MATERIALE
EKSPERTGRUPPENS ANBEFALINGER OM UAUTORISERET BRUG AF OPHAVSRET-
LIGT BESKYTTET MATERIALE
3.1. Tech-giganterne skal dokumentere, at de ikke bryder ophavsretten.
3.2. EU-regler om licensaftaler i forhold til brug af ophavsretligt materiale og oprettelse af
europæisk tilsyn.
3.3. Europæisk klageadgang for rettighedshavere.
Når tech-giganterne træner deres kunstig
intelligens-modeller, kræver det store mæng-
der data. Det kan f.eks. være billeder og tek-
ster fra forskellige kilder. Det har vist sig, at
flere sprogmodeller bygger på materiale fra
bl.a. kulturlivet og forskningsverdenen, som
har været tilgængeligt på internettet, og som
formentlig er beskyttet af ophavsretten.
16
Kort sagt er rettighedshavernes værker uret-
mæssigt blevet brugt til træning af tech-gigan-
ternes sprogmodeller.
Tech-giganterne honorerer sjældent af egen
drift rettighedshaverne for de værker, som
er blevet brugt til at træne deres modeller.
Og rettighedshaverne er ofte ikke klar over,
at deres værker bliver brugt af tech-gigant-
erne. Det er en stor udfordring, og med den
nuværende regulering har rettighedshaverne
hverken krav på at få indsigt i, hvordan og i
hvilket omfang deres værker er blevet brugt.
Gennemsigtighed i forhold til tech-giganter-
nes brug af ophavsretligt beskyttet materiale
er afgørende for rettighedshaverne. Både for
at sikre, at modellerne ikke trænes på indhold,
som tech-giganterne ikke har tilladelse til at
bruge, og for at give rettighedshaverne bedre
forudsætninger for at indgå aftaler og blive
honoreret for brugen af deres materiale.
Med AI Act kommer der krav om transparens
for udbydere af såkaldte generelle formålsmo-
deller, eksempelvis ChatGPT, som er kunstig
intelligens, der er designet til at udføre en bred
vifte af opgaver på tværs af forskellige domæ-
ner. Kravet betyder, at udbyderne af generelle
formålsmodeller skal offentliggøre oplysnin-
ger om anvendelsen af træningsdata, som er
beskyttet i ophavsretslovgivningen. Det tvin-
ger udbydere af generelle formålsmodeller til
i højere grad at tjekke, om de datasæt, model-
lerne bliver trænet på, er erhvervet og anvendt
på lovlig vis.
Udviklingen af kunstig intelligens går stærkt,
og det er derfor afgørende, at der med afsæt
i transparenskravene i AI Act stilles yderligere
krav til tech-giganter, der bruger ophavsretligt
beskyttet materiale. Ekspertgruppen har kon-
krete bud på, hvordan det kan gøres.
21
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0022.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
3.1. Tech-giganterne skal dokumentere,
at de ikke bryder ophavsretten
Ekspertgruppen anbefaler, at der indføres krav
om, at tech-giganterne skal kunne dokumen-
tere, at de ikke har overtrådt ophavsretslov-
givningen. Ekspertgruppen anbefaler i den
forbindelse, at der skal gælde en formodnings-
regel om, at der indgår ophavsretligt beskyttet
indhold i kunstig intelligens-modeller. Heref-
ter vil tech-giganterne skulle dokumentere, at
de ikke har benyttet ophavsretligt beskyttet
indhold uden samtykke fra rettighedshaverne.
Det kan f.eks. ske ved, at tech-giganterne giver
indsigt i, hvilke datasæt deres modeller er
trænet på, eller at de redegør for træningsdata
ved spørgsmål fra rettighedshavere. Anbe-
falingen skal inddrages i arbejdet i relevante
ophavsretlige fora i EU.
3.2. EU-regler om licensaftaler i forhold
til brug af ophavsretligt materiale og
oprettelse af europæisk tilsyn
Ekspertgruppen anbefaler, at der etableres et
system for indgåelse af kollektive licensaftaler
i forbindelse med udnyttelse af ophavsretligt
beskyttede værker til træning af generative
kunstig intelligens-systemer. Tech-giganterne
vil dermed få mulighed for at indgå aftaler om
brug af en stor mængde værker og samtidig
sikre, at rettighedshaverne modtager beta-
ling for brug af deres indhold. Licensaftalerne
bliver allerede i dag brugt, når komponister og
musikere indgår kollektive aftaler med f.eks.
DR om afspilning af musik på DRs radiokanaler.
Derudover anbefaler ekspertgruppen et euro-
pæisk tilsyn med tech-giganters brug af op-
havsretligt beskyttet materiale i generative
OPHAVSRETLIGT BESKYTTET MATERIALE
Ophavsretten beskytter bl.a. bøger, musik, billedkunst, brugskunst, film, radio- og tv-udsendelser
og hjemmesider. Generelt gælder det, at den, der har skabt et litterært eller kunstnerisk værk, har
ophavsretten til værket. Det betyder, at ophavspersonen eller rettighedshaveren har eneret til at
fremstille eksemplarer af værket og gøre det tilgængeligt for andre indtil 70 år efter ophavsper-
sonens død.
Ulovlige kopier af bøger eller forskningsartikler har været omdrejningspunktet i en række uden-
landske retssager mod bl.a. Microsoft, Google og Alphabet.
17
Senest har New York Times anlagt en
sag mod Microsoft og OpenAI for brud på ophavsrette.
18
Der findes også eksempler på, at danske
rettighedshaveres værker har været anvendt i forbindelse med træning af kunstige intelligenser.
Det tyske mediehus Axel Springer indgik i december 2023 en aftale med OpenAI, der betyder, at
brugere af ChatGPT vil kunne modtage sammenfatninger af udvalgt globalt nyhedsindhold fra
Axel Springers medier.
19
22
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0023.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
kunstig intelligens-systemer. Hverken rettig-
hedshavere eller myndigheder har på nuvæ-
rende tidspunkt indblik i, om tech-giganters
generative kunstig intelligens-systemer er
trænet på indhold, som er anvendt i strid med
ophavsretten. Et europæisk tilsyn skal sikre,
at ophavsretligt beskyttet materiale ikke
bliver brugt på uretmæssig vis. Håndhævelsen
kunne ske gennem Europa-Kommissionens
nye AI Office, som bl.a. skal håndhæve AI Act.
Eksempelvis i tilfælde hvor tech-giganten ikke
giver rettighedshaveren (tilstrækkelig) indsigt
i, hvilke af rettighedshaverens værker syste-
met er trænet på. Det forudsætter imidlertid,
at tech-giganter pålægges forpligtelser i form
af transparens, licensaftaler eller lignende,
som klageadgangen kan vedrøre, jf. anbefaling
3.2.
3.3. Europæisk klageadgang for rettig-
hedshavere
Ekspertgruppen anbefaler, at der indføres en
europæisk klageadgang for rettighedshaverne
i forhold til de forpligtelser, der pålægges
tech-giganter i forbindelse med anvendelse
af ophavsretligt beskyttet materiale i deres
generative kunstig intelligens-systemer.
c
23
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0024.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
TECH-GIGANTERNES MARKEDSDOMINANS INDEN
FOR UDVIKLINGEN AF KUNSTIG INTELLIGENS
EKSPERTGRUPPENS ANBEFALINGER OM MARKEDSDOMINANS
4.1. Bedre rammer for udvikling af europæiske kunstig intelligens-løsninger som alternativ til
tech-giganterne.
4.2. Retningslinjer for brug og indkøb af kunstig intelligens i den offentlige sektor.
4.3. Europæisk regulering af kunstig intelligens over for tech-giganterne skal håndhæves og
videreudvikles.
I fremtiden vil markederne for kunstig intelli-
gens sandsynligvis være præget af store gene-
relle modeller for kunstig intelligens, der vil
blive brugt og tilpasset af andre virksomheder.
I øjeblikket er tech-giganterne langt fremme i
udviklingen af sprogmodeller, og ekspertgrup-
pen forudser, at de også kommer til at domi-
nere på andre områder.
Tech-giganterne har flere konkurrencefordele,
som kan gøre det svært for andre virksomhe-
der at udvikle alternativer. For det første råder
tech-giganterne over meget store ressourcer
og teknisk kapacitet. For det andet har tech-gi-
ganterne egne cloud-løsninger og adgang til
store mængder brugerdata, som er afgørende
i udviklingen af kunstig intelligens-modeller.
For det tredje har tech-giganterne mulighed
for at koble nye kunstig intelligens-produkter
og -tjenester sammen med andre tjenester i
deres virksomheder, såsom Microsofts Offi-
ce-pakke, sociale medier, søgemaskiner og
apps.
20
Dermed kan de profitere langt bredere
på deres investeringer, ligesom deres kunstig
intelligens-modeller kan drage fordel af yder-
ligere adgang til data, jo flere tjenester de
benyttes på. Resultatet kan blive, at meget af
den viden, som brugerne får fra f.eks. chatbots,
bliver genereret af den eller de chatbots, som
vinder markedet. Det kan betyde, at de domi-
nerende chatbots får endnu mere viden om
os og dermed opnår en slags vidensmonopol.
Den manglende konkurrence kan også betyde,
at mindre danske virksomheder kommer til at
betale for meget for tech-giganternes kunstig
intelligens-løsninger.
I Europa er vi langt fremme med at regulere
tech-giganterne. Men reguleringen skal imple-
menteres og ikke mindst håndhæves effektivt,
hvis den skal have den ønskede effekt. Der-
udover er det vigtigt at igangsætte initiativer,
så borgere og virksomheder ikke alene har
adgang til kunstig intelligens-modeller, som
hovedsageligt er udviklet af tech-giganter fra
tredjelande.
24
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0025.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
Det er vigtigt, at der er et fokus på at skabe et
frit og lige marked og sikre, at forbrugere, virk-
somheder og offentlige institutioner har et
reelt valg blandt kunstig intelligens-systemer.
Vi skal skabe gode vilkår for udvikling af sprog-
modeller, som baserer sig på europæiske vær-
dier og normer såsom respekt for menneske-
rettighederne, demokrati og ligestilling. Her
kan open source-modeller spille en rolle. Både
fordi der er mere transparens omkring, hvor-
dan modellen er opbygget, og hvordan træ-
ningsalgoritmerne fungerer, og fordi de giver
andre virksomheder mulighed for at bygge
videre på modellerne og skabe nye tjenester.
Vi skal også bakke op om og samarbejde med
europæiske lande, hvor de er længere end
Danmark i at udvikle sprogmodeller. Kun
på den måde kan vi fremme udviklingen af
alternativer til tech-giganternes sprogmo-
deller og dermed modvirke tech-giganternes
markedsdominans.
industripolitik, som orienterer sig mod nye
teknologier inden for mikrochips, kvantetek-
nologi og kunstig intelligens. Her kan Strate-
gic Technologies for Europe Platform (STEP)
hjælpe med at sende midler i retning af nye
teknologier. Eksisterende initiativer inden
for EU’s industripolitik, f.eks. EU's Chips Act
og nye kvanteerklæring "Quantum Pact", kan
også være med til at fremme udviklingen og
udbredelse af kunstig intelligens i Europa.
Danmark skal aktivt forsøge at udvikle og
bidrage til de mange europæiske initiativer
samt hjemtage midler fra puljerne.
På nationalt plan bør det undersøges, om
sprogdata, der afspejler dansk sprog og
danske kulturelle normer og værdier, i højere
grad kan gøres tilgængelige som trænings-
data for danske og europæiske virksomheder,
der arbejder med at udvikle sprogmodeller
som alternativer til tech-giganterne. Konkret
gennem en 1) kortlægning, 2) vurdering og 3)
tilgængeliggørelse af de danske sprogdata, der
besidder størst potentiale på området. Arbej-
det skal tage højde for igangværende initiati-
ver og gældende regler, herunder ophavsret-
ten og konkurrencelovgivningen, og kan med
fordel ske i samarbejde med de øvrige nordi-
ske og europæiske lande.
4.1. Bedre rammer for udvikling af kun-
stig intelligens-løsninger som alternativ
til tech-giganterne
Ekspertgruppen anbefaler, at regeringen ar-
bejder for et innovativt og stærkt iværksæt-
termiljø, hvor danske og europæiske virk-
somheder, der udvikler kunstig intelligens,
kan tiltrække de nødvendige investeringer til
at udvikle og skalere deres virksomhed. Det
vil styrke danske og europæiske virksomhe-
ders muligheder for at udvikle alternativer
til tech-giganters tjenester. Som led heri skal
Danmark og Europa uddanne, tiltrække og
fastholde de nødvendige IT- og datavidenska-
belige kompetencer.
Med anbefalingen skal der arbejdes for et
digitalt indre marked med henblik på et inno-
vations- og vækstmiljø for tech-virksomheder
i Europa. Det kræver bl.a. en fælles europæisk
4.2. Retningslinjer for brug og indkøb
af kunstig intelligens i den offentlige
sektor
Ekspertgruppen anbefaler, at der bliver skabt
de bedste rammer for nye, innovative kunstig
intelligens-løsninger i den offentlige sektor.
Eksempelvis kan offentlige ordregivere gå
i markedsdialog og derigennem udnytte en
bredere skare af virksomhedernes viden ved
udarbejdelsen af udbudsmaterialer samt be-
nytte funktionskrav og innovationsklausuler,
der kan fremme nye løsninger.
25
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0026.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
Den offentlige sektor bør gå forrest og
anvende løsninger inden for kunstig intelli-
gens, der giver mulighed for at realisere poten-
tialerne, og samtidig sikrer beskyttelsen af
borgernes rettigheder samt en høj dataetik.
Datatilsynet udsendte i oktober 2023 en
vejledning om offentlige myndigheders brug
af kunstig intelligens samt en kortlægning
af brug af kunstig intelligens i den offentlige
sektor. Derudover har Digitaliseringsstyrel-
sen udgivet guides til offentlige myndigheder
om ansvarlig anvendelse af generativ kunstig
intelligens i januar 2024.
Ekspertgruppen ønsker dog at gå længere
end det og anbefaler derfor, at der udstedes
supplerende retningslinjer samt udarbejdes
best practices for ansvarligt indkøb og brug af
kunstig intelligens i den offentlige sektor. Det
kan være med til at sikre effektivt offentligt
indkøb på området og give mulighed for at rea-
lisere kvalitetsmæssige og økonomiske poten-
tialer til gavn for borgerne. Ekspertgruppen
anbefaler herudover, at der gennemføres mere
bindende foranstaltninger for de offentlige
myndigheder for ansvarligt indkøb. Det bør
undersøges, om der er behov for ændringer af
udbudsloven for at sikre ansvarligt offentligt
indkøb i forhold til både beskyttelse af borger-
nes rettigheder og dataetik.
Med AI Act stilles der krav til offentlige myn-
digheders brug af kunstig intelligens afhæn-
gigt af, hvilken risikokategori anvendelsen
falder ind under. En væsentlig del af den
offentlige sagsbehandling og forvaltning vil
forventeligt blive anset som højrisiko under AI
Act og vil derfor skulle leve op til en række spe-
cifikke krav. Anbefalingen skal derfor tænkes
sammen med de kommende krav i AI Act, og
fælles retningslinjer for brug af kunstig intelli-
gens i den offentlige sektor skal tage udgangs-
punkt i AI Act.
26
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0027.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
4.3. Europæisk regulering af kunstig
intelligens over for tech-giganterne skal
håndhæves og videreudvikles
Ekspertgruppen anbefaler, at regeringen
arbejder for, at AI Act bliver implementeret
effektivt og konsistent i Danmark og håndhæ-
vet effektivt af Europa-Kommissionen. Det er
helt afgørende for at sikre en fair konkurrence
og danske virksomheders muligheder såvel
som beskyttelsen af borgernes grundlæg-
gende rettigheder, som forordningen lægger
op til. Som led heri er det centralt, at danske
myndigheder følger udviklingen på marke-
derne for kunstig intelligens nøje, samt at de
har den nødvendige tekniske viden, ressourcer
og mulighed for hurtigt at gribe ind. Det kan i
den forbindelse være relevant at undersøge
mulighederne for at samle rådgivende eksper-
tise på tværs af myndigheder og akademia ét
sted, f.eks. i form af et "kunstig intelligens-in-
stitut". Det skyldes, at det kræver vedvarende
forsknings- og myndighedsfokus på højeste
internationale niveau at følge udviklingen
inden for kunstig intelligens på grund af tekno-
logiens kompleksitet, udviklingens hastighed
samt de potentialer og udfordringer, som tek-
nologien har.
Også i implementeringen og håndhævelsen
af Digital Markets Act skal Europa-Kommis-
sionen have fokus på betydningen af kunstig
intelligens. Ekspertgruppen anbefaler derfor,
at regeringen arbejder for, at Europa-Kommis-
sionen tager stilling til, om tech-giganternes
cloud-tjenester såsom AWS, Azure og Google
Cloud skal udpeges som centrale platformstje-
nester, der i så fald vil være underlagt kravene
i Digital Markets Act. Endelig bør regeringen
arbejde for, at Europa-Kommissionen under-
søger, om der er nogle kunstig intelligens-tje-
nester, der på sigt skal inkluderes i listen over
tjenester, der kan omfattes af Digital Markets
Act.
27
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0028.png
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0029.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
EKSPERTGRUPPENS
SAMMENSÆTNING
Ekspertgruppen har ved afgivelse af denne delafrapportering haft følgende sammensætning:
Mikkel Flyverbom (formand), Copenhagen Business School
Lars Thinggaard, Tech for Life
Lone Sunesen, TV MIDT/VEST
Mie Oehlenschläger, Tech & Childhood
Miriam Michaelsen, Medierådet for Børn og Unge
Pernille Tranberg, DataEthics
Peter Svarre, digital strateg, foredragsholder og forfatter
Rebecca Adler-Nissen, Københavns Universitet
Rikke Frank Jørgensen, Institut for Menneskerettigheder
Sune Lehmann, Danmarks Tekniske Universitet
Thomas Bolander, Danmarks Tekniske Universitet
Erhvervsministeriet har udgjort ekspertgruppens sekretariat i samarbejde med andre
relevante ministerier, herunder Digitaliserings- og Ligestillingsministeriet, Kulturministeriet,
Udenrigsministeriet, Justitsministeriet og Børne- og Undervisningsministeriet.
29
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0030.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
EKSPERTGRUPPENS
KOMMISORIUM
De internationale tech-giganter har en meget
stor indflydelse på samfundslivet, økonomien
og almindelige menneskers hverdag både
nationalt og internationalt. Regeringen har
igangsat en række initiativer, men der vil forsat
være brug for politisk udvikling og nye tiltag.
Regeringen nedsætter på den baggrund – som
led i regeringens udspil "Tech-giganter: mere
retfærdig konkurrence og bedre forbruger-
beskyttelse" fra august 2021 – en ekstern
ekspertgruppe. Ekspertgruppen får til formål
at understøtte regeringens arbejde med at
håndtere problemstillinger, som er forbun-
det med tech-gigant-dagsordenen i et natio-
nalt og internationalt perspektiv.
erne, samt hvordan disse anvendes til videre-
salg, markedsføring mv.
Mange af de mest udbredte online platforme
er ejet af internationale tech-giganter, og
forum for kommunikation og den offentlig
debat i dag. På den måde får tech-giganterne
en stor indflydelse på spillereglerne i den
offentlige debat og demokratiske samtale.
Ligeledes er der også udfordringer i forbin-
delse med spredning af ulovligt og skadeligt
indhold, unfair konkurrencevilkår, skatte-
forhold, digital mistrivsel hos børn og unge,
uigennemsigtige algoritmer og polariserende
mekanismer. Yderligere udfordrer tech-gigant-
erne også ordentlige arbejdmarkedsvilkår,
herunder særligt lønmodtagerrettigheder.
Endelig spiller tech-giganterne en stigende
udenrigs- og sikkerhedspolitisk rolle i kon-
tekst af den fortsatte teknologiske stormagts-
rivalisering mellem USA og Kina, hvorfor det
vil være vigtigt at balancere kritisk dialog med
perspektiver på muligheder for vidensdeling,
innovation og samarbejde.
Baggrund
Konsekvenserne af tech-giganternes udvikling
og indflydelse har betydning på en lang række
områder, herunder på skatte, kultur- og kon-
kurrenceområdet. Fælles for de store tech-gi-
ganter er, at deres indtog på det danske marked
er båret af en stor efterspørgsel på deres
ydelser fra både virksomheder og borgere.
Tech-giganters tilstedeværelse og udvikling
medfører dog samtidig en række udfordringer,
som også har grænseoverskridende karakter.
Tech-giganterne opererer som oftest ud fra
en forretningsmodel, der er baseret på at
indsamle så meget data om deres brugere
som muligt. Det er i praksis umuligt for brug-
erne at vide, hvilke data som de frivilligt
og ufrivilligt har videregivet til tech-gigant
Opgavebeskrivelse
Ekspertgruppen skal overordnet fungere som
forum for drøftelse af strukturelle problemstil-
linger, hvor tech-giganternes forretningsmo-
del udfordrer vores samfund, kultur, økonomi,
trivsel mv. I forlængelse heraf vil regeringen
have mulighed for at anmode ekspertgruppen
om at forholde sig til og vurdere konkrete sager
og dilemmaer inden for tech-dagsordenen.
30
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0031.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
Konkret skal ekspertgruppen:
Drøfte udfordringer ved tech-gigan-
ternes forretningsmodel og dens kon-
sekvens for det danske samfund, her-
under for den demokratiske samtale.
Komme med oplæg til, herunder belyse
mulige positive såvel som negative
konsekvenser, hvordan den demokra-
tiske kontrol med tech-giganterne, her-
under med særligt fokus på deres for-
retningsmodel, kan styrkes.
Identificere andre problemstillinger for
det danske samfund i lyset af de struk-
turelle udfordringer, der følger af tech-
giganternes forretningsmodel samt
kvalificere disse og deres konsekvenser
for det danske samfund.
Fremlægge forslag og konkrete anbe-
falinger, herunder overveje om det skal
løses i nationalt eller EU-regi, til håndte-
ring af disse problemstillinger.
Inddrage og drøfte internationale erfa-
ringer i arbejdet, for at sikre en ansvarlig
teknologisk udvikling, der understøtter
Danmarks demokrati, velstand og sikker-
hed i en globalt forbundet verden.
Den enkelte ressortminister har mulighed
for at fremsætte ønske om, at ekspertgruppen
kan inddrages i forhold til konkrete pro-
blemstillinger og dilemmaer inden for dennes
ressortområde. Ekspertgruppen skal i sit ar-
bejde sikre løbende inddragelse af Dataetisk
Råd.
Organisering
Ekspertgruppens formand og medlemmer
udpeges personligt af erhvervsministeren.
Ekspertgruppen forventes at bestå af 12 med-
lemmer med ekspertise og erfaring inden for
tech-gigant dagsordenen.
Ekspertgruppen nedsættes i første omgang
for en toårig periode.
Ekspertgruppen vil blive sekretariatsbetjent
af Erhvervsministeriet.
31
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0032.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
KILDELISTE
1.
The Stack (2023),
Meta to spend up to $33 bil-
lion on AI, as Zuckerberg pledges open approach to
LLMs.
Lokaliseret den 25. januar 2024 på Meta
AI investment to hit $33b as Zuck touts open
approach (the-stack.technology)
The Verge (2024),
X’s Grok chatbot has no reason
to exist.
Lokaliseret den 25. januar 2024 på
X’s Grok chatbot has no reason to exist - The
Verge, CNBC (2023),
LinkedIn passes 1 billion
members and launches new AI chatbot to help
you get a job,
Lokaliseret den 25. januar 2024
på LinkedIn passes 1 billion members, launches
new AI chatbot (cnbc.com), The Verge (2023),
Meta is putting AI chatbots everywhere.
Lokalise-
ret den 25. januar 2024 på Meta AI assistant,
dozens of AI characters, come to WhatsApp,
Instagram - The Verge
Council of the EU (2023),
Artificial intelligence
act: Council and Parliament strike a deal on the
first rules for AI in the world.
Lokaliseret den 25.
januar 2024 på Artificial intelligence act: Coun-
cil and Parliament strike a deal on the first rules
for AI in the world - Consilium (europa.eu)
Se f.eks. Jyllands-Posten (2023),
Kunstig intel-
ligens truer valg i Europa og USA: »Det er en
informationskrig i et omfang, vi ikke har set før.
Lokaliseret den 25. januar 2024 på Kunstig
intelligens truer valg i Europa og USA: »Det er
en informationskrig i et omfang, vi ikke har set
før« (jyllands-posten.dk)
Se f.eks. TV2 (2024).
Falske nøgenbilleder af ver-
densstjerne ligner koordineret chikane, siger eks-
pert.
Lokaliseret den 6. februar 2024 på Falske
nøgenbilleder af verdensstjerne ligner koordi-
neret chikane, siger ekspert.
6.
Jf. anbefaling 3.3 i ekspertgruppens rapport
om demokratisk kontrol med tech-giganternes
forretningsmodeller.
Kulturministeriet (2021),
Mediernes udvikling
i Danmark.
Lokaliseret den 25. januar 2024 på
Rapportering om mediernes udvikling i Dan-
mark: Internetbrug og sociale medier 2021
(kum.dk)
Berlingske (2024),
En løgn spreder sig med
rekordfart over hele verden. Men de unge elsker
TikTok og vender de gamle medier ryggen.
Lokali-
seret den 25. januar 2024 på En løgn spreder
sig med rekordfart over hele verden. Men de
unge elsker TikTok og vender de gamle medier
ryggen (berlingske.dk)
Jf. anbefaling 3.4 i ekspertgruppens afrapporte-
ring om tech-giganternes forretningsmodeller
Montag, Lachman, Herrlich & Zweig (2019),
Addictive features of Social Media/Messenger
Platforms and Freemium Games against the Back-
ground of Psycological and Economic Theories.
Raffoul A, Ward ZJ, Santoso M, Kavanaugh JR,
Austin SB (2023)
Social media platforms generate
billions of dollars in revenue from U.S. youth: Fin-
dings from a simulated revenue model.
PLoS ONE
18(12).
Se f.eks. DR (2023), Eksperts værste AI-frygt er
blevet til virkelighed: Snapchatbot giver børn
detaljerede råd om at selvskade.
Lokaliseret den
25. januar 2024 på Eksperts værste AI-frygt er
blevet til virkelighed: Snapchatbot giver børn
detaljerede råd om at selvskade | Teknologi |
DR
7.
2.
8.
3.
9.
10.
4.
11.
12.
5.
32
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0033.png
GRÆNSER FOR TECH-GIGANTERNES UDVIKLING OG ANVENDELSE AF KUNSTIG INTELLIGENS
13.
Snapchat,
Hvad er My AI på Snapchat, og hvordan
kan jeg bruge den?
Lokaliseret den 25. januar
2024 på Hvad er My AI på Snapchat, og hvor-
dan kan jeg bruge den? – Snapchat Support
Se f.eks. Business Insider (2023),
AI-powered
teddy bears could read personalized bedtime sto-
ries to kids within 5 years, the boss of a major toy
producer said. Lokaliseret den 25. januar 2024 på
AI Teddy Bears Could Read Bedtime Stories to Kids
by 2028: Toymaker (businessinsider.com)
Livingstone, S., & Stoilova, M. (2021).
The
4Cs: Classifying Online Risk to Children.
(CO:RE
Short Report Series on Key Topics). Ham-
burg: Leibniz-Institut für Medienforschung |
Hans-Bredow-Institut (HBI); CO:RE - Children
Online: Research and Evidence. Lokaliseret den
25. januar 2024 på ssoar-2021-livingstone_et_
al-The_4Cs_Classifying_Online_Risk.pdf
Se f.eks.
RettighedsAlliancen (2023), Rettigheds-
Alliancen får fjernet det ulovlige datasæt Books3,
der bruges til at træne kunstig intelligens.
Lokali-
seret den 25. januar 2024 på RettighedsAlli-
ancen får fjernet det ulovlige datasæt Books3,
der bruges til at træne kunstig intelligens |
RettighedsAlliancen
Pearl Cohen (2023),
Google and OpenAI Were
Hit with Lawsuits on the Use of AI.
Lokaliseret
den 25. januar 2024 på https://www.pearlco-
hen.com/google-and-openai-were-hit-with-la-
wsuits-on-the-use-of-ai/
New York Times (2023),
The Times Sues OpenAI
and Microsoft Over A.I. Use of Copyrighted Work.
Lokaliseret den 25. januar 2024 på New York
Times Sues OpenAI and Microsoft Over Use
of Copyrighted Work - The New York Times
(nytimes.com)
19.
OpenAI (2023),
Partnership with Axel Springer to
deepen beneficial use of AI in journalism.
Lokali-
seret den 25. januar 2024 på Partnership with
Axel Springer to deepen beneficial use of AI in
journalism (openai.com)
Se f.eks. Autoridade de Concorrência (2023),
Issues Paper – Competition and Generative Artifi-
cial Intelligence.
Lokaliseret den 25. januar 2024
på Issues Paper - Competition and Generative
Artificial Intelligence.pdf (concorrencia.pt)
14.
20.
15.
16.
17.
18.
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0034.png
34
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0035.png
35
DIU, Alm.del - 2023-24 - Endeligt svar på spørgsmål 107: Spm. om retningslinjer og risikovurderinger for brug af kunstig intelligens m.v.
2835560_0036.png
Regeringens ekspertgruppe
TECH-GIGANTER