Udvalget for Digitalisering og It 2023-24, Udvalget for Digitalisering og It 2023-24
DIU Alm.del Bilag 47, DIU Alm.del Spørgsmål 65
Offentligt
2789028_0001.png
Til Digitaliseringsministeriet
cc Datatilsynet, Erhvervsministeriet og Forbrugerombudsmanden
Dok. 252617
20. juni 2023
Opfordring til at undersøge konsekvenserne af
generativ kunstig intelligens
Forbrugerrådet Tænk skal hermed i samarbejde med en lang række andre forbrugerorganisatio-
ner i Europa henlede opmærksomheden på de risici, som forbrugerne udsættes for som følge af
den hurtige udvikling af generativ kunstig intelligens (AI).
Selvom systemerne potentielt kan forbedre forbrugernes liv, er vi bekymrede over de alvorlige
ulemper, som de også kan medføre. I løbet af bare få måneder har vi set en massiv udbredelse
af denne teknologi, og eksempler på negative konsekvenser for forbrugerne.
De generative AI-systemer bruges allerede i vidt omfang af forbrugerne i og uden for Europa.
For eksempel indarbejder virksomhederne i stigende grad chatbots i produkter og tjenester.
Det norske forbrugerråd har i dag offentliggjort en rapport, der afdækker de største risici for for-
brugerne ved generativ AI, bl.a. hvad angår sikkerhed og privatliv, men det påvises også, hvordan
systemerne kan medføre en stigning i vildledning, manipulation, diskrimination, bedrageri samt
mis- og desinformation.
Link til rapporten af 20. juni 2023:
https://storage02.forbrukerradet.no/media/2023/06/generative-
ai-rapport-2023.pdf
Rapporten fremlægger endvidere forslag til, hvordan problemerne med generativ AI kan løses.
Løsningsforslagene omfatter, at der opfordres til overholdelse og effektiv håndhævelse af gæl-
dende EU-lovgivning (bl.a. på områderne forbrugerbeskyttelse, produktsikkerhed og databeskyt-
telse) samt at der indføres nye lovgivningsmæssige foranstaltninger med henblik på at forbedre
forbrugerbeskyttelsen mod AI-relaterede risici, herunder at virksomheder, der udvikler og udbre-
der generative AI-systemer, pålægges nye forpligtelser.
Selvom der endnu ikke er vedtaget lovregler specifikt vedrørende brugen af AI-systemer, skal vi
opfordre til, at I som myndigheder indleder en undersøgelse af de risici og skadevirkninger, som
disse tjenester udgør for forbrugerne, samt at I, når det er muligt, anvender gældende EU-lovgiv-
ning med henblik på at forhindre, at forbrugerne udsættes for skadevirkninger.
I rapporten fremhæves særligt følgende områder, der indebærer problemer for forbrugerne:
Sikkerhed
Ryesgade 3A, 2. th, DK-2200 København N, T +45 7741 7741, www.taenk.dk
DIU, Alm.del - 2023-24 - Spørgsmål 65: Spm. om henvendelsen fra Forbrugerrådet Tænk, »Opfordring til at undersøge konsekvenserne af generativ kunstig intelligens«
2789028_0002.png
AI-tjenesten ChatGPT bruges bl.a. til at stille sundhedsrelaterede spørgsmål eller ligefrem
yde
lægehjælp.
Dette giver anledning til bekymring for forbrugernes sundhed. Da systemerne har en
tendens til at producere indhold, der ser overbevisende og korrekt ud, men som er faktuelt forkert,
kan konsekvenserne for forbrugernes sikkerhed være alvorlige. Det er ikke længe siden, at
Chat-
GPT gav forældede råd om brystkræft
og opfandt sundhedsorganisationer, der bakkede op om
påstandene.
Forbrugerbeskyttelse
Da AI-chatbots er designet til at efterligne menneskers tale- og skrivemønstre, adfærd og følelser,
er de i sagens natur manipulerende og upålidelige og er ikke på nuværende tidspunkt underlagt
hverken offentligt eller privat tilsyn. For eksempel laver de
falske medieartikler.
OpenAI udtaler også offentligt, at selvom ChatGPT gør et fremragende indtryk, kan det ikke be-
tragtes som en pålidelig kilde til information, og det blev oprindeligt lanceret til forskningsformål
1
.
Alligevel udbydes produkterne verden over som handelsvarer til organisationer, der implemente-
rer dem til egne formål såsom chatbot-funktionaliteter,
udarbejdelse af juridiske dokumenter
eller
understøttelse af offentlige forvaltningers arbejde.
Databeskyttelse
Da de generative AI-systemer lærer ved hjælp af materiale, der indsamles på internettet, inde-
holder disse læringsdata normalt store mængder persondata, som er blevet behandlet uden et
lovligt juridisk grundlag.
Den
italienske databeskyttelsesmyndigheds beslutning
om midlertidigt at forhindre OpenAI i at
behandle italienske brugeres persondata vidner om alvoren af de potentielle krænkelser af data-
beskyttelsen.
Det er derfor tvivlsomt om databeskyttelsesforordningen (GDPR) overholdes af OpenAI og de
andre udviklere af de store AI-sprogmodeller. For eksempel fremgår det af OpenAI’s privatlivspo-
litik, at retten til berigtigelse måske ikke altid vil være mulig, hvilket kan udgøre et brud på retten
til berigtigelse i henhold til GPDR.
Af den grund har vi i Forbrugerrådet Tænk opfordret Datatilsynet i Danmark til at undersøge,
hvorvidt
Snapchats
My
AI
overholder
GDPR
https://taenk.dk/system/files/2023-
06/Brev%20til%20Datatilsynet%20vedr.%20My%20AI%20p%C3%A5%20Snapchat-
251196.18.0.pdf
Sårbare forbrugere
1
"We launched ChatGPT as a research preview so we could learn more about the system’s strengths and weaknesses
and gather user feedback to help us improve upon its limitations."
https://openai.com/blog/chatgpt-plus
(Sidst tilgået 26.
maj 2023)
Side 2 / 3
DIU, Alm.del - 2023-24 - Spørgsmål 65: Spm. om henvendelsen fra Forbrugerrådet Tænk, »Opfordring til at undersøge konsekvenserne af generativ kunstig intelligens«
2789028_0003.png
Vi kan også være bekymrede over den indvirkning, som generativ AI kan have på mere sårbare
mennesker – fx børn, der er udsat for skærme og onlineindhold fra en meget tidlig alder. Vi har
allerede
en vis evidens og erfaringer,
hvad angår den negative indvirkning, som algoritmer på
sociale medier kan have på mindreårige. De nye funktioner i chatbots og andre generative AI-
systemer forværrer kun disse risici.
Konkurrence
Det har fundamental betydning for fremtidens markeder for generativ AI, hvem der kontrollerer
de generative AI-modellers udvikling og læring, og hvordan de bruges. De, der kontrollerer tek-
nologien, har et betydeligt potentiale til at skabe afhængigheder, fastsætte egne brugsvilkår og
bestemme, hvilke virksomheder, der har adgang til teknologien og på hvilke betingelser. Denne
forankring af magt giver anledning til bekymring for, at de ledende tech-virksomheder bliver ”ga-
tekeepere”, der kan udelukke konkurrenter, skabe monopoler, mindske forbrugernes valgmulig-
heder og gøre det muligt for meget store virksomheder at forme vores samfund.
Begrænsninger i den AI-specifikke lovramme
Selvom EU's AI-lovgivning muligvis
kan give svar på nogle af vores bekymringer,
så træder den
formentlig først fuldt i kraft om 3-4 år, hvilket efterlader forbrugerne ubeskyttede mod en teknologi,
som i mellemtiden ikke er tilstrækkeligt reguleret, og som udvikler sig i meget højt tempo. Det er
på nuværende tidspunkt desuden uklart, i hvilket omfang generativ AI såsom chatbots vil være
omfattet af retsakten om kunstig intelligens.
Det betyder, at myndighederne allerede nu har en vigtig rolle som de ansvarlige for at sikre, at
alle AI-systemer, uanset om de er reguleret af AI-retsakten eller ej, er sikre og overholder eksi-
sterende EU-regler for sikkerhed, databeskyttelse, forbrugerbeskyttelse og konkurrence.
Opfordring til, at de danske myndigheder undersøger konsekvenserne af generativ AI
Set i lyset af de bekymringer, vi her har beskrevet, skal vi opfordre til, at danske myndigheder
hurtigst muligt iværksætter en undersøgelse af forholdene. Vores paraplyorganisation BEUC, den
europæiske forbrugerorganisation, har allerede skrevet til netværkene for hhv.
forbrugerbeskyt-
telsesmyndigheder
(CPC) og
produktsikkerhedsmyndigheder
(CSN) om dette emne.
Vi forventer, der bliver behov for en effektiv og tæt koordinering mellem de forskellige myndighe-
der med henblik på en vurdering af, hvilke risici generative AI-systemer som ChatGPT og lignende
chatbots udgør for forbrugerne. Ligeledes finder vi, at der er behov for offentlig kontrol med disse
teknologier, hvilket skal etableres og igangsættes.
Hvis I har brug for en uddybning af ovenstående, er I velkomne til at kontakte os på [email protected].
Venlig hilsen
Uffe Rabe Krag
Politisk chef
Anette Høyrup
Chefjurist
Side 3 / 3