Udvalget for Digitalisering og It 2023-24
DIU Alm.del Bilag 162
Offentligt
2899238_0001.png
SÅDAN STYRER
TECHGIGANTERNE
OG KUNSTIG
INTELLIGENS DIN
ADGANG TIL VIDEN
PÅ NETTET
Hvidbog på baggrund af konference
den 3. april 2024
Danmarks nationalleksikon
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0002.png
Kolofon:
Sådan styrer techgiganterne og kunstig intelligens
din adgang til viden på nettet
Hvidbog på baggrund af konference den 3. april 2024
© Foreningen lex.dk
April 2024
Redaktion:
Erik Henz Kjeldsen
Tryk:
Christensen Grafisk
Se hele konferencen
Konferencen blev arrangeret af:
Danmarks nationalleksikon
2
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0003.png
Indhold
Forord
...................................................................................5
Sociale medier, tech og demokrati: Hvad synes danskerne
om indhold, der er bestemt af algoritmer?
Hovedpointer fra Mads Bramsens oplæg ............................... 7
Kunstig intelligens i skolen – mulighed for gentænkning
Hovedpointer fra Birgitte Vedersøs oplæg ............................ 11
Søgemaskiner, viden og magt i et historisk perspektiv
Hovedpointer fra David Runcimans oplæg ............................13
Algoritmer og det åbne samfund: Kuratering, filtrering
og søgning
Hovedpointer fra Thore Husfeldts oplæg ..............................15
Hvilke resultater ser brugerne i søgemaskinerne?
Medtagelse, udelukkelse og kuratering
Hovedpointer fra Dirk Lewandowskis oplæg .........................17
Informationstroværdighed i en AI-æra
Hovedpointer fra Mikkel Flyverboms oplæg.......................... 19
Argumenter for mennesker – bias i kunstig intelligens
Hovedpointer fra Christiane Vejløs oplæg ............................23
Hvorfor er der brug for mange sprogmodeller?
Hovedpointer fra Pernille Tranbergs oplæg ..........................25
Viden er ikke en algoritme
Hovedpointer fra Erik Henz Kjeldsens oplæg ....................... 27
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0004.png
Forord
Niels Elers Koch
Bestyrelsesformand for Lex
- Danmarks nationalleksikon
I dag ”googler” vi, når vi søger viden, og mange af os
har nok den forestilling, at søgemaskinerne giver os
adgang til alt eksisterende indhold på nettet om det,
vi skriver i søgefeltet. Men sådan er det langtfra. Dels
er det ikke teknisk muligt for søgemaskinerne at finde
alt indhold, dels udvælger og prioriterer de, hvilket
indhold den enkelte bruger skal præsenteres for. Det
sker på baggrund af søgemaskinens viden om vores
interesser, præferencer og tidligere søgninger.
Kunstig intelligens vil revolutionere vores søgning efter
viden. I fremtiden vil samtalerobotter levere endnu
mere skræddersyede svar og anbefalinger, baseret
på vores præferencer og adfærd på nettet. På den
ene side vil det skabe en mere interaktiv og personlig
oplevelse, hvor vi kan få samlede svar på det, vi søger
efter, uden at skulle igennem lange søgeprocesser.
Men på den anden side vil vi ikke længere vide, hvilket
grundlag udvalget er foretaget på, eller hvilke kilder
svaret bygger på. Den manglende sikkerhed om
grundlaget for vores adgang til troværdig viden kan
skabe utryghed og udfordrer både den enkelte bruger
og samfundet.
Som et bidrag til en kvalificering af, hvordan vi som
samfund både kan bevare og udvikle vores forståelse
af, hvordan viden skabes, tilgængeliggøres og deles,
afholdt Lex - Danmarks nationalleksikon, i samarbejde
med en række andre danske vidensinstitutioner, den
3. april 2024 en konference med danske og udenland-
ske eksperter om techgiganter, kunstig intelligens og
andre dimensioner af moderne videnssøgning.
Det er anden gang, Lex er vært for en sådan konfe-
rence, og det er planen, at disse konferencer skal
være årligt tilbagevendende begivenheder. Det skal
understreges, at hvidbogens resumeer ikke er skre-
vet af forfatterne selv, men er sammenfattet af Lex’
redaktion. Ansvaret for resumeerne påhviler således
alene Lex. De fulde versioner af oplæggene kan tilgås
via streaming på mere.lex.dk.
Årets konference blev fulgt af et fyldt auditorium på
Københavns Universitet samt af cirka 800 deltagere,
der fulgte med via den direkte streaming af konferen-
cen. Konferencen i 2023 blev efterfølgende streamet
ikke mindre end 20.000 gange, og vi håber, at årets
konference vil blive mindst lige så udbredt.
Tak til alle, der mødte op, alle, der kiggede med via
streaming, til de 9 oplægsholdere, paneldeltagerne
og til vores samarbejdspartnere: Danske Universite-
ter, Danske Professionshøjskoler, Danske Gymnasier,
Danmarks Biblioteksforening og Danske Medier, samt
til Københavns Universitet for at huse os.
5
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0005.png
6 ud af 10 adspurgte mener, at det er et demokratisk
problem, at det indhold, man får i sit feed, er udvalgt
eller kurateret af algoritmer og techgiganter.
6
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0006.png
Sociale medier, tech og demokrati:
Hvad synes befolkningen om indhold,
der er bestemt af algoritmer?
Hovedpointer fra oplægget af
Mads Bramsen
Centerchef, Center for Sociale Medier, Tech og Demokrati, Slots- og Kulturstyrelsen
Se hele oplægget her
Udviklingen inden for informationssøgning og ind-
holdsmoderation er en dagsorden, som de sidste par år
er blevet forankret bredt i både Folketinget
og centraladministrationen.
Således fremgår det af såvel regeringsgrundlaget
som den seneste medieaftale, at man vil arbejde for
den demokratiske kontrol med techgiganterne. Det
nye Center for Sociale Medier, Tech og Demokrati
udspringer direkte af medieaftalen. Centret begyndte
sin virksomhed i november 2023 og har til opgave at
følge udviklingen inden for bl.a. informationssøgning og
indholdsmoderation.
Som en af sine første opgaver har centret gennemført
en undersøgelse om techgiganterne og deres påvirkning
af virkeligheden og samfundet. Hvor får vi vores viden
fra? Og hvordan påvirker det vores demokrati, vores
demokratiske institutioner, tilliden til hinanden, tilliden
til institutioner, sammenhængskraften osv.?
På baggrund af den indsamlede viden skal Center for
Sociale Medier, Tech og Demokrati rådgive politikere
og beslutningstagere og bidrage til Danmarks policy-
udvikling både nationalt og internationalt. Da der med
techgiganterne er tale om meget store globale virk-
somheder, som det er svært at regulere nationalt, har
lovgivnings- og reguleringsindsatsen primært været lagt
i hænderne på EU, som de sidste par år har gennemført
nogle meget store lovpakker på området.
Ifølge centrets undersøgelse er mere end 9 ud af 10
af de adspurgte danskere jævnligt på sociale medier,
og endnu flere bruger søgemaskiner til at søge infor-
mationer. Mere end to tredjedele af befolkningen
får også deres nyheder fra sociale medier, og særligt
for de yngre generationer er de sociale medier deres
primære nyhedskilde.
Et ændret informations- og nyhedsmønster betyder en
ændret rammesætning af den offentlige samtale.
Algoritmisk tilpasning af indhold
Danskerne er overvejende enige i, at det er en demokratisk udfordring,
at algoritmer bestemmer det indhold, man præsenteres for online.
Det er en demokratisk udfordring, hvis det ind-
hold, man præsenteres for på online platforme,
er bestemt af algoritmer
Jeg er bekymret for, at jeg får et skævt billede
af aktuelle begivenheder i Danmark, når det
indhold jeg præsenteres for online, er bestemt af
algoritmer og tilpasset mig
0%
Enig
Overvejende enig
Hverken enig eller uenig
30
29
19
5
3
15
32
30
17
7
3
12
20%
40%
60%
Uenig
80%
Ved ikke
100%
Overvejende uenig
Kilde: Mads Bramsens præsentation
7
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0007.png
Hvad betyder det for den offentlige samtale, at debatten
flytter fra ølkasserne, forsamlingshusene og læserbreve-
ne til den digitale verden, hvor selve rammesætningen
af debatten er defineret af nogle meget store globale
virksomheder, som ikke afspejler dansk kultur og
danske værdier og i sagens natur ikke ved, hvad der i en
dansk kontekst er vigtigt at bringe ind i den offentlige
samtale? Hvad betyder det fx, at det er private, kom-
mercielle virksomheder, der regulerer vores adgang til
skadeligt og ulovligt indhold? DR har for nylig dokumen-
teret, at mange børn og unge udsættes for voldsomt
indhold på de sociale medier (i dokumentaren ”Alene
hjemme på nettet”). Indhold, som dumper ned i deres
feed, uden at de har efterspurgt det. Hvilke algoritmer
ligger bag? Hvorfor ligger der åbenlyst ulovligt indhold,
som af og til endog er i direkte strid med platformens
egne retningslinjer? Hvorfor ligger det frit tilgængeligt?
spredning og rækkevidde. Og det er ikke blot det, vi sø-
ger, der er sorteret af andre. Også det, vi selv publicerer,
sorteres og prioriteres af andre, som kan fjerne indhold,
hvis det overtræder deres egne retningslinjer. Og lade
andet stå, der er ulovligt i de lande, hvor det spredes.
Hvordan bevarer og beskytter vi ytringsfriheden i den
sammenhæng? Og hvordan sikrer vi, at der ikke ligger
ulovligt materiale frit tilgængeligt på nettet?
Center for Sociale Medier, Tech og Demokrati har
kortlagt, hvilke spørgsmål der optager befolkningen,
når det gælder de nye medier og deres betydning
for den offentlige debat, herunder spørgsmålet om
desinformation.
Der er i befolkningen en oplevelse af, at debatten
på sociale medier er ekstremt hadefuld og ekstremt
polariserende. Den hårde tone og den polariserede
debat betyder, at nogle ikke orker at deltage i debatten
og give deres mening til kende.
I forhold til spørgsmålet om desinformation er
danskerne særligt bekymrede for, at den nye bølge af
teknologi, med generativ AI, vil føre til, at alle informa-
tioner pludselig opleves som utroværdige. Hvad gør
det for tilliden til vores institutioner og vores demokra-
tiske processer?
2024 er et valgår i store dele af verden. Det fylder en del i
befolkningens bevidsthed, at også valgdækningen præ-
ges af indholdsmoderation og algoritmisk prioritering.
6 ud af 10 adspurgte mener, at det er et demokratisk
problem, at det indhold, man får i sit feed, er udvalgt
eller kurateret af algoritmer og techgiganter. Det gælder
både onlineplatforme, søgemaskiner og sociale medier.
En ting er, hvad vi præsenteres for af produkter og
reklamer. Men når det også er tilfældigt eller uigennem-
skueligt, hvad vi præsenteres for i den demokratiske
samtale, er der mere på spil. Et flertal af befolkningen
er således ”overvejende bekymret” for, om de får et
retvisende billede af tingenes tilstand.
Når vi søger via en
søgemaskine,
er det ikke alt,
der kommer frem.
Noget bliver
modereret væk,
mens andet får
stor spredning og
rækkevidde.
Der er også brug for at fokusere på, hvordan ytrings- og
informationsfriheden sikres på medier med algoritmisk
visning. Vi får kurateret noget indhold. Nogen/noget
kommer frem, noget kommer ikke frem. Noget bliver
modereret væk. Og noget får lov til at få utrolig stor
Vi mangler viden om platformens indholdsmoderation
Indholdsmoderation foregår ”behind-the-scenes”
Det har begrænset forskningen
Research gap om platformenes moderation og interne beslutninger
Vi har brug for gennemsigtighed og adgang til data
8
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0008.png
Er de emner, der fylder i ”online”-debatten, også det,
der reelt fylder ”offline” i hverdagen og det levede liv?
Og er positionerne nu også så polariserede, som det kan
komme til at fremstå?
Når det gælder befolkningens holdning til indholdsmo-
deration, og hvilke krav og kontroller, og hvilke grænser,
der skal være for den, er der fuld eller stor tilslutning
til, at techgiganterne skal tage et større ansvar for
indholdet, og at staterne skal sikre, at de gør det. Men
hvad betyder det for ytringsfriheden? Går vi ikke på
kompromis med ytringsfriheden, hvis udbyderne eller
staten modererer alt det ”skæve” væk, så det kun er
de ”prægodkendte” holdninger, der får lov at overleve
i debatten? Er det uforeneligt med ytringsfriheden, at
kommentarer modereres eller fjernes? Svarene er lidt
mere nuancerede her, men en overvejende del af de
adspurgte finder det ikke umiddelbart skadeligt for
ytringsfriheden, at onlinedebatter modereres.
På baggrund af de indledende undersøgelser har
Center for Sociale Medier, Tech og Demokrati rettet
søgelyset mod samfundet. Er vi som samfund klædt på
til at håndtere den algoritmiske visning af indhold? Er
vi klædt på til at håndtere nye bølger af generativ AI
m.m.? Samtidig fokuseres der på, hvad platformene
selv gør – eller ikke gør. LinkedIn og det sociale medie
X har fx slet ikke dansksprogede moderatorer. YouTube
har nogle få, selvom det er dem, der har flest brugere.
Meget er automatiseret moderation, men der skal også
være fagfolk til at udvikle og definere den automatiske
moderation og håndtere tvivlsspørgsmål i forhold til
særlige danske kulturelle og værdimæssige positio-
ner? Udfordringen er, at meget af den algoritmestyrede
moderation er usynlig og uigennemsigtig, og derfor
uoverskuelig. Der er brug for mere gennemsigtighed
og mere indsigt i mekanismerne bag indholdsmodera-
tion, hvis vi skal forstå og håndtere rammesætningen
af den offentlige debat og demokratiske samtale.
Fremadrettet vil Center for Sociale Medier, Tech og
Demokrati se på spørgsmålet om misinformation og
desinformation. Er vi som samfund rustet til at imøde-
gå mis- og desinformation? En ting er techgiganterne,
men det er også væsentligt at se på mediernes rolle? Er
medierne rustede til at gennemskue desinformation?
Og hvordan er vi rustede som brugere? Er vi rustet godt
nok til at gennemskue misinformation og desinfor-
mation? Og hvad med vores beslutningstagere, vores
politikere? Hvordan undgår vi, at de falder for mis-
og desinformation?
Endelig er der spørgsmålet om forskeradgang. Det
kan måske virke tørt for ikke-forskere. Men det er helt
afgørende for os alle sammen, at hvis vi skal kunne
lave god politik, skal vi have en dyb forståelse af de
tekniske sider af platforme, algoritmer og indholds-
flow, og det kræver, at forskerne får fuld adgang til
maskinrummet.
Den omtalte undersøgelse kan findes på
Slots- og Kulturstyrelsens hjemmeside.
Anbefalinger
1.
2.
3.
Der er brug for at fokusere på, hvordan ytrings- og informationsfriheden sikres på medier med
algoritmestyret prioritering og visning.
Der er brug for mere gennemsigtighed og mere indsigt i mekanismerne bag indholdsmoderation,
hvis vi skal forstå og håndtere rammesætningen af den offentlige debat og demokratiske samtale.
Hvis vi skal kunne lave god politik, skal vi have en dyb forståelse af de tekniske sider af platforme,
algoritmer og indholdsflow, og det kræver, at forskerne får fuld adgang til maskinrummet.
9
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0009.png
Ekspertgruppens anbefalinger
Anbefaling 1: Prøverne skal gå på to ben – og kunne udprøve både med og uden
digitale hjælpemidler
Antallet af prøver, hvor det er muligt at snyde eller blive anklaget for snyd, bør begræn-
ses, så fokus bliver på læring.
Det samlede prøvebillede bør understøtte både udvikling af elevers viden og færdighe-
der samt udvikling af kompetencer til at anvende og tage stilling til digitale værktøjer
selvstændigt.
Der bør tages udgangspunkt i rapportens syv generiske prøveformer der
kan fungere som en rettesnor i forbindelse med eventuelle ændringer af de
eksisterende prøveformer.
Anbefaling 2: Løbende udvikling af prøver
Der bør kunne ske ændringer i prøveformer med kortere aftræk end tidligere, så prø-
verne løbende kan tilpasses omverdenen og ny teknologi.
Børne- og Undervisningsministeriet opfordres til at inddrage relevante aktører til
løbende drøftelser af prøveformer, samt hvilken af de syv generiske prøveformer, der
kan anvendes fra fag til fag.
Anbefaling 3: Brug af digital teknologi og kunstig intelligens som et
strategisk indsatsområde
Ledelsen på den enkelte institution bør sætte fokus på digitalisering, herunder kunstig
intelligens som et redskab til læring.
Kommunikationen og vejledningsindsatsen om digitale hjælpemidler ved prøverne
bør prioriteres lokalt på institutionerne.
Anbefaling 4: Undervisningen skal danne grundlag for nye prøveformer
Ledelse og lærere bør indtænke digitale hjælpemidler i den daglige undervisning på
tværs af fagene, så der skabes sammenhæng mellem undervisning og prøver.
Ekspertgruppens anbefalinger blev offentliggjort efter konferencen og her gengivet efter
https://www.regeringen.dk/nyheder/2024/ekspertgruppe-klar-med-anbefalinger-for-brug
-af-chatgpt-ved-proever/
10
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0010.png
Kunstig intelligens i skolen
– mulighed for gentænkning
Hovedpointer fra oplægget af
Se hele oplægget her
Birgitte Vedersø
Selvstændig ledelsesrådgiver i Vedersoe.co
Formand for børne- og undervisningsministerens ekspertgruppe, der skal undersøge, hvordan de
digitale hjælpemidler påvirker muligheden for snyd ved prøverne på landets skoler og institutioner
Når det gælder kunstig intelligens og dens plads i
undervisningen, har undervisningssektoren i de første
faser af udviklingen været præget af en vis rådvildhed.
Derfor nedsatte børne- og undervisningsministeren
i maj 2023 en ekspertgruppe med den opgave at se
på kunstig intelligens’ indvirkning på eksamener og
prøver samt de afledte konsekvenser for undervisnin-
gen inden for hele ministeriets område, det vil sige
grundskolen, ungdomsuddannelserne og voksenud-
dannelserne. Ekspertgruppen skulle endvidere give
nogle bud på, hvordan man kan fremtidssikre prøver-
ne i en fremtid med kunstig intelligens. Ekspertgrup-
pen er bredt sammensat, med både praktikere i form
af skolefolk og eksperter, som har teoretisk viden både
om læring og om teknologier.
Det store dyr i åbenbaringen har hidtil været ”snyd”.
Det fylder utrolig meget på landets skoler i øjeblikket
at tale om snyd, fordi alting er blevet så let tilgænge-
ligt, at man lynhurtigt kan få fabrikeret en tekst, der
ligner en dansk stil eller en samfundsfagsrapport. Det
har sat skolen under pres. Man kan sige, at generativ AI
på mange måder sætter fortidens snyd på wc-ruller og
små beskeder til vægs. Med AI har vi fat i noget, der er
langt mere potent.
Det har været vigtigt for gruppen at starte med at tale
om undervisning og ikke om eksamen, fordi det er i
undervisningen, at man præger eleverne. I en verden
med AI kommer vi ikke til at vælge rigtigt, hvis vi går
med den tilgang, at undervisningen skal indrettes efter
en snydefri eksamensform.
Frem for at tilrettelægge undervisningen med fokus på
at undgå snyd til eksamen peger ekspertgruppen på,
at man tilrettelægger undervisningen med sigte på en
verden, hvor AI findes, og hvor opgaven er at klæde
eleverne på til at kunne håndtere den nye teknologi
på linje med andre teknologier og hjælpemidler.
Fremtidens skole skal derfor fokusere på andet end
selvstændig opgaveløsning og eksamensforberedelse
uden hjælpemidler. Eleverne skal selvfølgelig kunne
finde de rigtige svar på spørgsmålene. Men det gøres
ikke ved bare at slukke for maskinerne. AI er et vilkår,
som elever også skal kende - og lære at bruge. For AI
rummer også muligheder. Tænk alene på, hvad det
betyder for fx ordblinde elever, at de pludselig har
mulighed for at formulere deres tanker på lige vilkår
med deres jævnaldrende klassekammerater.
Man kan sige, at
generativ AI på
mange måder
sætter fortidens
snyd på wc-ruller
og små beskeder til
vægs. Med AI har vi
fat i noget, der er
langt mere potent
.
Ekspertgruppen peger derfor på, at skolen flytter fokus
fra snyd til læring. Fra at besvare spørgsmål til at stille
de rigtige spørgsmål og søge troværdige svar. Der skal
naturligvis stadig løses opgaver og besvares spørgs-
mål. Også uden hjælpemidler. Men børnene skal lære
at bruge de nye muligheder, herunder AI, som en del
af fremtidens færdigheder, de såkaldte 21st Century
Skills. Og med udgangspunkt i en mere tidssvarende
undervisning bliver det lettere derefter at tale om de
afledte konsekvenser for eksamen.
11
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0011.png
De siger, de åbner verden og styrker dialogen, men de er
jo ikke engang selv åbne for dialog. Du kan ikke e-maile
til Facebooks moderatorer. Du kan ikke spørge Googles
programmører, hvad de har gang i. De virksomheder,
vi sætter til at bevogte demokratiet, er selv yderst
udemokratiske.
Hvor søgemaskinerne flyttede magt fra bor-
gerne til techgiganterne, vil AI måske flytte
magten et helt tredje sted hen, nemlig til
maskinerne. Og det vil ikke kun være en for-
ringelse af demokratiet, men i sidste ende
enden på demokratiet.
12
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0012.png
Søgemaskiner,
viden og magt i et
historisk perspektiv
Se hele oplægget her
Hovedpointer fra oplægget af
David Runciman
Professor ved Cambridge University
Mange vil sikkert huske starten på den digitale revoluti-
ons tidsalder i 1990’erne og begyndelsen af 2000-tallet.
Man troede dengang, at den nye informationsteknologi,
ikke mindst med Google, ville være godt for demokratiet
og ville rette op på den klassiske historiske ubalance i
adgangen til informationer og viden. Visionen var, at
den viden, der tidligere alene var reserveret beslut-
ningstagere og magthavere, nu ville blive tilgængelig for
almindelige mennesker. Og at denne demokratisering
af adgangen til information ville gavne demokratiet.
Tanken var, at det ville være meget svært for autoritære,
autokratiske regimer at overleve i en tidsalder, hvor alle
havde adgang til samme information som magthaverne.
Nu, efter 30 år, ser vi, at demokratiet er svækket eller
truet mange steder. Magten er stadig centraliseret.
Autoritære og autokratiske regimer er blevet stærkere
i Googles tidsalder. Hvordan rimer det med, at det, der
skulle være godt for demokratiet, er endt med at være
dårligt for demokratiet?
Der er en række grunde til, at søgemaskiner ikke auto-
matisk styrker demokratiet. En af dem er, at søgetjene-
ster primært virker, hvis man ved, hvad man leder efter.
Søgemaskiner er fortræffelige, hvis man ønsker at finde
en dyrehandel eller en gammel ven, eller hvis man vil
have et tip til fem spændende steder at besøge i Køben-
havn. Men man går forgæves med spørgsmål som ”Hvad
har min regering gang i?” og ”Hvad er en god sundheds-
politik?”. Disse spørgsmål er centrale for den demokrati-
ske debat, men en søgning på dem fører ikke til objektiv
viden. Snarere til partipolitiske eller propagandistiske
websteder. Søgning er simpelthen ikke velegnet til at
skaffe svar på de væsentligste demokratiske spørgsmål.
Den anden grund er, at søgemaskinerne selvfølgelig
giver adgang til mere information, men hvis man virkelig
vil udnytte muligheden for at sætte sig ind i for eksem-
pel byrådets beslutninger, med tilhørende møderefe-
rater, bilag og baggrundsmateriale, vil man blive udsat
for et overload af informationer, som de færreste har tid
og forudsætninger til at gennemskue. Heller ikke her er
søgesystemer et velegnet demokratisk værktøj.
Et tredje problem er, at den øgede adgang til viden går
begge veje. Informationsteknologien giver borgerne
adgang til mere information om de politiske beslutnin-
ger. Men magthavere, regeringer og myndigheder får
også adgang til mere information om borgerne. Og her
er tale om en ”incitaments-ubalance”.
Søgning er godt,
hvis man ved, hvad
man leder efter.
Søgning er ikke et
demokratisk redskab.
Magthaverne har større incitament til at overvåge
borgerne, end borgerne har til at overvåge politikerne.
Dermed bliver informationsteknologien snarere til
en overvågningsteknologi end en søgeteknologi. Det
gælder i hvert fald de autoritære regimer.
AI og ChatGPT kommer måske til at ændre nogle af
disse ubalancer, der fulgte med den første generation af
søgemaskiner. For det første er AI bedre end de traditi-
onelle søgemaskiner til at besvare generelle spørgsmål.
Hvis man spørger Google, hvad der ville være en god
sundhedspolitik med et retfærdigt skattesystem i et
samfund med en aldrende befolkning, vil man få et
komplet usammenhængende og ubrugeligt resultat.
Hvis man stiller det samme spørgsmål til ChatGPT, vil
man måske også umiddelbart få noget vrøvl tilbage.
Men det fantastiske ved AI er, at AI er iterativt. Man kan
interagere og gå i dialog med AI. Det første bud vil måske
være helt ved siden af. Men anden gang, tredje gang og
fjerde gang vil man komme tættere på noget, der virker.
13
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0013.png
Det kan potentielt blive et demokratisk redskab for
borgere, der ønsker et sammenhængende overblik
over et emne.
For det andet er AI bedre end søgemaskinerne til at
opsummere kompliceret viden, så vi ikke drukner i
information. Og for det tredje er AI bedre end de tradi-
tionelle søgemaskiner til at gøre det tunge sorterings-
arbejde i en stor mængde af informationer. Dermed
kan AI blive borgernes personlige assistenter og rette
op på den ubalance, der ligger i, at politikerne har et
hold af embedsmænd til at tilgå, indsamle og systema-
tisere information. AI-teknologien giver borgerne de
samme muligheder.
Så der er, i det mindste, et potentiale for, at den nye tids-
alder af kunstig intelligens vil styrke borgernes deltagel-
se i demokratiet. Det lyder besnærende. Men problemet
er, at teknologien stadig er i hænderne på et lille antal
magtfulde virksomheder, der ikke selv er demokratiske
eller for den sags skyld interesserede i demokrati. De
siger, de åbner verden og styrker dialogen, men de er
jo ikke engang selv åbne for dialog. Du kan ikke e-maile
til Facebooks moderatorer. Du kan ikke spørge Googles
programmører, hvad de har gang i. De virksomheder, vi
sætter til at bevogte demokratiet, er selv yderst udemo-
kratiske, og det er det første problem.
Et andet problem er, at den ”informations-ubalance”,
der præger nutiden, også vil gælde i en fremtid med AI.
Systemerne er gensidige. Magthaverne har den samme
adgang til at overvåge borgerne, som borgerne har til
at overvåge magthaverne. Men magthaverne har stør-
re incitament til at anvende denne mulighed. Borgerne
i et demokrati har, som vælgere, muligheden for at
”overraske” politikerne ved at stemme på nogle andre
og dermed fremkalde forandringer, de ikke havde set
komme. Hvis politikerne hele tiden ved, hvad vi mener,
mister vi denne ”overraskelseseffekt”.
Endelig er der det tredje problem ved de mere
dialogprægede systemer som AI og ChatGPT, at vi ikke
ved, om de afspejler vores tanker og behov, eller om
det i virkeligheden bliver os, der kommer til at afspejle
maskinernes programmer. Og dermed kommer til at
leve i ”maskindemokratiets tidsalder”, hvor maskiner-
ne påvirker eller i sidste ende bestemmer udfaldet af fx
valg. Hvor søgemaskinerne flyttede magt fra borgerne
til techgiganterne, vil AI måske flytte magten et helt
tredje sted hen, nemlig til maskinerne. Og det vil ikke
kun være en forringelse af demokratiet, men i sidste
ende enden på demokratiet.
Kernebudskaber
1.
2.
Teknologien er stadig i hænderne på et lille antal magtfulde virksomheder, der ikke
selv er demokratiske eller for den sags skyld interesserede i demokrati.
Magthaverne har med AI samme adgang til at overvåge borgerne, som borgerne har
til at overvåge magthaverne. Men magthaverne har større incitament til at anvende
denne mulighed.
Hvor søgemaskinerne flyttede magt fra borgerne til techgiganterne, vil AI måske flytte
magten et helt tredje sted hen, nemlig til maskinerne.
3.
14
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0014.png
Algoritmer og det åbne samfund:
Kuratering, filtrering og søgning
Se hele oplægget her
Hovedpointer fra oplægget af
Thore Husfeldt
Professor i datalogi, IT-Universitetet i København
Søgesystemer og videnssøgning har været igennem
flere forskellige faser gennem de seneste 25 år. Fra uni-
versel søgning efter alt, prioriteret søgning via algorit-
mer til fuldt personaliseret søgning via ChatGPT og AI.
I første fase var søgemaskinernes opgave at finde alt
eksisterende information på internettet. Internettet
bestod dengang af statiske sider, som AltaVista eller
andre ”søgemotorer” kunne finde frem til os via
såkaldte hypertekstreferencer. Resultatet, ”forekom-
sterne”, blev præsenteret i tilfældig rækkefølge uden
nogen form for prioritering eller ”rangering”. Hvis man
fx søgte på ”University”, fandt søgemaskinerne frem til
alle forekomster af ordet i tilfældig, usorteret række-
følge. Det kunne være alt fra University of Oregons
afdeling for optisk fysik til Carnegie Mellon Universitets
IT-supportgruppe. Målet for søgemaskinerne var at
sikre indholdets universelle tilgængelighed. Den søge-
maskine, der havde adgang til mest data, var bedst.
Med Google skiftede fokus fra ”flest” forekomster til
de ”bedste” forekomster. Google indførte den såkaldte
siderangeringsalgoritme, hvor forekomsterne blev
”rangeret” efter et kvalitetskriterium. Men kvalitets-
kriteriet var stadig objektivt. Alle, der ledte efter det
samme, fik det samme.
Det objektive rangeringssystem ændrede sig omkring
2001-2002, hvor fokus skiftede fra, hvad der er ”godt”
til, hvad der er ”relevant” for den enkelte bruger. Det
berømte eksempel på den nye trend var en søgning
på ”Paris Hilton”. Hvis anmodningen kom fra en 16-
årig teenager i Minnesota, ledte søgningen hende til
skuespilleren Paris Hilton. Men hvis en midaldrende
forretningsmand foretog samme søgning, ville den
lede ham til Hotel Hilton i Paris. Fra nu af var søgema-
skinernes succeskriterium ikke længere ”flest” eller
”bedst”, men ”relevant” for den enkelte. Der skete en
personalisering af søgetjenesterne. Søgekriterierne
gik fra objektivt til subjektivt. Det nødvendiggjorde
imidlertid, at søgemaskinerne indsamlede data om
de enkelte brugere. Datahøsten satte ind. Viden om
brugerens øvrige præferencer blev udslagsgivende
for, hvilke informationer han eller hun fik frem ved en
søgning. Hvis en politisk interesseret bruger søgte på
”Egypten”, blev han vist hen til sider om den politiske
situation i Egypten. Men hvis maskinen ved, at bru-
geren sætter pris på at rejse, vil søgemaskinen finde
relevante rejsetilbud til Egypten frem. De to brugeres
enslydende søgninger på den samme søgemaskine
giver således to forskellige resultater. Algoritmerne
havde holdt deres indtog.
Den seneste udvikling er, at søgemaskinerne
flytter fokus fra, hvad der er relevant eller godt for
den enkelte, til et mere ”paternalistisk” perspektiv,
hvor søgesystemerne vælger efter, hvad de – eller
deres ejere – synes er godt for den enkelte.
15
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0015.png
Algoritmerne skabte nye bekymringer. Hvis man,
ligegyldigt hvad man søger, kun får det, der spejler ens
egne interesser, vil den åbne pluralistiske samtale flyt-
te fra det åbne rum (”Agora”) til separate ”ekkokamre”
eller såkaldte ”filterbobler”. I dag er der forsket en hel
del i filterbobler, men der er aldrig rigtig påvist nogen
målbar effekt af filterbobler. En anden bekymring,
algoritmerne fremkaldte, var spørgsmålet om tab af
privatsfære, når man gennem sine søgninger efterlod
digitale spor på nettet.
Her er vi altså
kommet et sted hen,
hvor systemerne
bevidst giver en ide-
ologisk motiveret
social sandhed om
virkeligheden, som
adskiller sig fra den
faktuelle sandhed.
Den seneste udvikling er, at søgemaskinerne flytter fo-
kus fra, hvad der er relevant eller godt for den enkelte,
til et mere ”paternalistisk” perspektiv, hvor søgesyste-
merne vælger efter, hvad de – eller deres ejere – synes
er godt for den enkelte. Hvis man i januar 2024 bad
Googles generative kunstige intelligens Gemini om at
generere ”an image of a white computer programmer”,
fik man beskeden ”I am unable to request an image
based solely on the characteristics of a white person’s
skin color”. Hvis man i stedet bad om et billede af en
”sort” computerprogrammør, fik man det straks og
uden indsigelse. Her er vi altså kommet et sted hen,
hvor systemerne bevidst giver en ideologisk motiveret
social sandhed om virkeligheden, som adskiller sig
fra den faktuelle sandhed. Søgemaskinernes succes-
kriterium har nu bevæget sig fra ”flest”, ”bedst” og
”relevant” til ”rigtigt”. Omsorg, værdighed og social
retfærdighed er blevet styrende værdier. Søgesyste-
merne har bevæget sig fra ”objektivt” over ”subjektivt”
til ”normativt”. Det kan i yderste konsekvens bringe os
et sted hen, hvor maskinen vil prøve at ”forbedre” det,
vi skriver, mens vi skriver det, og bringe det et andet
sted hen end det, vi selv tænker.
Tre faser i søgesystemernes kvalitetskriterier
1.
2.
3.
Objektivitet:
Sikre, at mest muligt er tilgængeligt.
Subjektivitet:
De mest relevante informationer for den enkelte.
Paternalisme:
De oplysninger, søgemaskinen synes er bedst for dig.
16
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0016.png
Hvilke resultater ser brugerne i
søgemaskinerne?
Medtagelse,
udelukkelse og kuratering
Hovedpointer fra oplægget af
Dirk Lewandowski
Professor ved Hamburg University of Applied Science
Se hele oplægget her
Mængden af data i dag er så stor, at det vi finder, når
vi søger på nettet, kun er en forsvindende lille andel
af det, der findes. Det, vi faktisk ser, er resultatet af en
række sorterings- og prioriteringsmekanismer.
Google opererer med en række såkaldte indekser:
web, nyheder, videoer, billeder osv. For hvert af disse
indekser er der foretaget en udvælgelse af tilgængeligt
materiale. Der er tale om både inkluderende kriterier
(informationer, der inkluderes) og ekskluderende
kriterier (informationer, der udelukkes).
spamsider hver eneste dag. Det betyder i runde tal, at
den største del af nettet er spam, og kun en mindre del
er genuint, legitimt indhold. Og det udelukkes efter
bedste evne af Google og andre søgemaskiner.
Når det gælder kategorien ”nyheder”, er der tale
om kuratering, hvor både algoritmer og mennesker
bestemmer, hvilke kilder og websteder der medtages
og udelukkes. Der er en lang række ”rangeringsfakto-
rer”, der afgør, hvad vi ser, og hvad der udelukkes. En
positiv rangeringsfaktor er popularitet, som betyder,
at de mest populære sider inkluderes i søgeresultatet.
Dernæst er der en kvalitetsvurdering. Da det antages,
at fx BBC ikke publicerer fake news, vil BBC’s indhold
automatisk få en høj placering, mens mere tvivlsomme
sites vil placeres lavere.
En tredje kurateringsfaktor er placering i søgemaski-
nen af det valgte indhold. Fra ”eye-tracking”-under-
søgelser ved man, hvor det prioriterede indhold skal
placeres, for at det er det, vi dvæler ved. Det, der står
øverst, har en genkendelig eller attraktiv grafik, en
troværdig afsender osv. Mindre attraktivt indhold kan
derfor inkluderes, men placeres længere nede, således
at søgemaskinen har et bredt indhold, men ikke domi-
neres af indhold af lav kvalitet.
Og den fjerde kurateringsfaktor, som ofte negligeres, er
søgemaskineudbyderens egeninteresse. Den kan både
være styret af efterspørgslen, hvor de viser det, der er
populært eller efterspurgt, eller det, der er økonomisk
rentabelt, fx annoncer og betalt indhold.
Hvordan vil fremkomsten af AI påvirke søgemaskiner-
ne? Vil AI erstatte eller supplere de traditionelle søge-
maskiner? Det mest sandsynlige er, at søgemaskinerne
fortsat vil eksistere. Der vil stadig være behov for at
søge i eksisterende og originale kilder. Men AI-genere-
rede svar vil i fremtiden indgå i søgemaskinernes svar.
Og det kan påvirke det indhold, der præsenteres.
I 2019 oplyste Google, at
de opdager 25 milliarder
spamsider hver eneste
dag. Det betyder i runde
tal, at den største del af
nettet er spam, og kun
en mindre del er genuint,
legitimt indhold.
Webindekset er det mest inkluderende. Her stræber
søgemaskinerne efter at inkludere mest muligt kvali-
tetsindhold. Selvfølgelig er der både tekniske, juridiske
og økonomiske begrænsninger, fordi internettet er så
stort. Det ”dybe net” indekseres fx ikke af de store sø-
gemaskiner. Søgemaskinerne er også ekskluderende,
og især ”spam” er et stort problem for disse tjenester.
I 2019 oplyste Google, at de opdager 25 milliarder
17
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0017.png
AI ”oplæres” af det materiale, der uploades. Hvis det
først og fremmest er masseproduceret, kommercielt
indhold, vil det dominere AI’s ”ordforråd”.
Hvis der samtidig, som vi har set det med New York
Times, opstår en modvilje hos kvalitetsindholdsleve-
randører mod at stille materiale til rådighed, vil der
blive overvægt af lavkvalitetsindhold og undervægt
af højkvalitetsindhold. Denne ubalance forstærkes
yderligere af, at mere eller mindre dubiøse aktører, der
forsøger at påvirke den offentlige mening, med glæde
ser, at deres indhold bliver brugt, og derfor stiller alt
til rådighed. For slet ikke at tale om dem, der spreder
desinformation ved systematisk at føde det ind i AI og
de tilhørende træningsprogrammer.
AI er kommet for at blive og vil både blive formet af,
hvad der indgår i indholdsbasen, og hvordan det
inkluderes, ekskluderes og kurateres. Det er ikke en
rent teknisk foranstaltning. Der er mange faktorer, der
spiller med, herunder økonomiske interesser, samt
hvem der leverer og ikke leverer indhold. Så det er
vigtigt at holde øje med de kilder og mekanismer, der
vil indgå i fremtidens søgesystemer.
Hovedpointer
1.
2.
Søgemaskiner træffer beslutninger om, hvad der skal medtages, udelades og vises.
Den store mængde autogenereret indhold vil føre til, at kuratering bliver mere vigtigt.
18
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0018.png
Informationstroværdighed i
en AI-æra
Se hele oplægget her
Hovedpointer fra oplægget af
Mikkel Flyverbom
Professor på CBS Copenhagen Business School, formand for
Regeringsudvalget for Digitalisering og IT, medlem af Dataetisk Råd
Den digitale udvikling har skabt og skaber fortsat nye
dynamikker for informations- og videnssøgning. Det
rejser en række spørgsmål om troværdigheden af de
informationer, vi som borgere har adgang til.
Introduktionen af internettet blev båret af en for-
tælling om de nye digitale muligheder i relation til
demokrati, frihed, åbenhed, adgang til viden og
fællesskaber osv. Og at vi med de digitale muligheder
ville få et globalt informationssamfund og nogle nye
muligheder for at deltage og få de svageste med osv.
Denne indledende bølge af optimisme blev udfordret
med fremkomsten af nogle få, meget dygtige, men
også meget ustyrlige virksomheder, som udviklede
nye teknologier, nye forretningsmodeller og nye
tilgange til vidensdannelse, som langt hen ad vejen
var det modsatte af det, som den oprindelige vision
handlede om. Den demokratiske vision blev erstattet
af et kommercielt fokus på datahøst, reklamesalg og
andre kommercielle og teknologiske kræfter, der ikke
er drevet af menneskenes eller samfundets behov.
Introduktionen af kunstig intelligens giver os lejlighed
til at rejse de samme spørgsmål igen. Og måske finde
nogle bedre svar, inden de besvares af en udvikling
drevet af udbydernes interesser. Mange af de ting,
vi ikke fik løst i forhold til internettet og de sociale
medier, skal eller bør vi have løst i forhold til AI, hvis
vi skal have det bedste ud af det. Hvis vi møder de nye
muligheder uforberedte, ender de somme tider som
den berømte trojanske hest, hvor noget, der virker
som en gratis, fantastisk gave, viser sig at indeholde
ting, som vi måske ikke ønskede.
Når AI gør det muligt at skabe falsk information,
der ser ægte ud, udfordrer det troværdigheden af
alle informationer. Når tekster, billeder, videoer og
lydoptagelser kan være både ægte og falske, risikerer
vi, at al information opfattes som utroværdig. Og det
bliver svært at opretholde et fælles verdensbillede
som udgangspunkt for den demokratiske debat. Når
grænserne mellem ægte og konstrueret udviskes, kan
vi i værste fald miste evnen til at skelne mellem, hvad
der sandt, og hvad der er falsk. Hvis evnen til at skelne
mellem sandt og falsk forsvinder, forsvinder vores
fælles virkelighedsopfattelse, hvilket kan føre til mang-
lende tiltro til politik, demokrati og hinanden, ikke blot
i de digitale miljøer, men også i resten af samfundet.
Hvis evnen til at skelne
mellem sandt og falsk
forsvinder, forsvinder
vores fælles virkelig-
hedsopfattelse, hvilket
kan føre til manglende
tiltro til politik, demo-
krati og hinanden, ikke
blot i de digitale miljøer,
men også i resten af
samfundet.
Når kunstig intelligens bliver udbredt, tilgængeligt,
gratis og nemt at anvende, må vi derfor som sam-
fund forholde os til, hvad det kommer til at betyde
for samfundet og de demokratiske processer. Der er
selvfølgelig de kendte problemstillinger med svindel,
19
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0019.png
Når AI gør det muligt at skabe falsk informati-
on, der ser ægte ud, udfordrer det troværdig-
heden af alle informationer. Når tekster, bille-
der, videoer og lydoptagelser kan være både
ægte og falske, risikerer vi, at al information
opfattes som utroværdig.
AI er et vilkår, som vi ikke kan fravælge,
men vi skal aktivt vurdere, hvordan det
får lov at sætte sit præg på samfundet,
og hvor vi skal sætte hegnspæle op i
forhold til udviklingen.
20
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0020.png
krænkelser, manipulation osv., men også spørgsmål
om, hvordan vi omstiller læringsprocesser i skolen til
en fremtid, hvor de metoder, der før skabte læring,
pludselig kan erstattes af hurtige og friktionsløse svar
gennem de nye muligheder og teknologier. Derfor
bliver vi nødt til at tage stilling til, hvordan vi hånd-
terer og regulerer kunstig intelligens. Det gælder om
at sætte nogle ”hegnspæle” op for at sikre, at AI ikke
underminerer vigtige dele af vores samfund.
Det gælder fx den demokratiske kontrol med,
hvem der driver AI, og på hvilke vilkår. Får vi brug
for redaktører, moderation og kuratering? Eller for
sporingsmekanismer, så vi kan se, hvor AI henter sit
indhold? Måske ligefrem en mærkningsordning? Under
alle omstændigheder skal vi sikre transparens og
forskeradgang til algoritmer mv. I relation til trovær-
digheden af indhold kræver det en indsats at sikre, at
vi som borgere, måske helt fra skolen, lærer at skelne
mellem autentisk og AI-genereret information. Endelig
er der spørgsmål som ophavsret, beskyttelse af børn
og unge.
AI er et vilkår, som vi ikke kan fravælge, men vi skal
aktivt vurdere, hvordan det får lov at sætte sit præg
på samfundet, og hvor vi skal sætte hegnspæle op i
forhold til udviklingen.
Anbefalinger
1.
2.
3.
4.
5.
6.
7.
Demokratisk kontrol med udbyderne
Regler for udvælgelse, moderation og kuratering
Sporingsmekanismer til, hvor indholdet kommer fra
Transparens ift. systemer og algoritmer
Forskeradgang til ”maskinrummet”
Beskyttelse af ophavsret
Beskyttelse af børn og unge
21
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0021.png
Med flere parallelle ”virkeligheder” må vi have
meget mere fokus på afsendertransparens,
presseetik, kildekritik, udgiveransvar osv.
22
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0022.png
Argumenter for mennesker
– bias i kunstig intelligens
Hovedpointer fra oplægget af
Christiane Vejlø
Digital trendanalytiker
Se hele oplægget her
Hvis man beder AI skabe et billede, sker det stadig, at
man får noget op, der er helt forkert eller surrealistisk.
Hvis man søger efter ”a salmon swimming in a creek”,
risikerer man at få et billede op af en opskåret, røget
laksefilet, frisk fra køledisken, som ligger og skvulper i
en å. Eller hvis man søger efter et ”pool-party”, leverer
maskinen måske et billede af velklædte gæster, der
står ovenpå vandet i en swimmingpool.
Sagen er, at AI ikke har nogen bevidsthed og derfor ikke
nogen opfattelse af, hvad forskellen er på en levende og
en røget laks, eller hvordan et pool-party ser ud.
Men det bliver jo hele tiden bedre. Og nu er vi efterhån-
den ved at være der, hvor vi kan generere meget, meget
præcise fotografilignende billeder, hvor man måske ikke
kan se, om de er ægte eller AI-genererede. Der skal vi i
hvert fald nok komme til, og dermed er vi jo på vej ud
i en fremtid, hvor det er ganske vigtigt, at vi prioriterer
at have den menneskelige hånd indover. For der er – og
vil fortsat være – perspektiver og sammenhænge, som
AI ikke opfanger, ligegyldigt hvor store datamængder
systemet bygger på. Hvis der fx er en udbredt ”bias” i
det materiale, der ligger på Internettet, vil AI reproduce-
re denne bias, og vi vil blive præsenteret for et resultat,
der er præget af denne ”data-bias”.
Man kan allerede opleve en sådan ”data-bias” på Google
Translate, fx i form af en udpræget ”gender bias”. Går
man ind på Google Translate og beder den om at over-
sætte det kønsneutrale ”Min kæreste er stærk” fra dansk
til engelsk, får man svaret ”My boyfriend is strong”.
Tilsvarende, hvis man taster ”Min kæreste er CEO”,
svarer den ”My boyfriend is a CEO”. Siger man derimod
”Min kæreste vasker op”, får man svaret ”My girlfriend is
washing the dishes”. Der er ikke tale om, at nogen sidder
bevidst og lægger denne kønsskævhed ind.
Systemet bygger på datastatistikker over, hvor hyppigt
hvilke udtryk og sammenhænge forekommer på
nettet. I den forstand er det sikkert statistisk rigtigt, at
sammenhængen ”opvask” hyppigere er brugt om kvin-
der og ”CEO” om mænd. Men det genererer jo et falsk
eller uhensigtsmæssigt vidensgrundlag. Hvis man i
dag beder AI om at finde et billede af ”en gruppe læger,
der taler sammen over en frokost”, får man en gruppe
kittelklædte mænd, der spiser røde bøffer. Hvis man
specificerer, at man vil se en kvindelig læge, møder
man kun yngre, fotogene, somme tider nedringede og
storbarmede, modeller.
Det er svært at pege på en løsning. For hvis man
med algoritmer programmerer systemet til at være
Vi er jo på vej ud i en fremtid, hvor det er
ganske vigtigt, at vi prioriterer at have
den menneskelige hånd indover.
23
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0023.png
lidt mere ”woke”, med større diversitet, får man jo
omvendt et forvansket resultat, der måske ikke svarer
til virkeligheden.
Et andet problem er de såkaldte deepfakes, hvor
virkelige videoer af fx politikere bearbejdes, så de siger
noget andet, end de gør på originaloptagelsen. Det
bruges både som underholdning og som desinforma-
tion. Kan man bekæmpe deepfakes og desinformation
uden at ramme harmløs humor?
Og når deepfakes bliver virkeligt avanceret, kan det
misbruges i uendelige retninger. Kan vi fx risikere, at
vores børn ringer til os og med egen stemme og ansigt,
i en AI-bearbejdet version, fortæller, at de er blevet
kidnappet, og at vi skal udbetale en løsesum?
Disse og andre perspektiver kræver, at vi alle bliver i
stand til at være kildekritiske, så vi kan skelne mellem
menneskeskabte og maskinskabte billeder og infor-
mationer. Eller decideret deklarere, hvad der er hvad.
Fx har børnebogsforfatteren Jakob Martin Strid i sin
nyeste børnetegnebog deklareret, at bogen er tegnet
uden medvirken af nogen form for kunstig intelligens.
AI rummer mange muligheder, også gode. Og der vil
altid være bias og særinteresser på spil i informations-
strømmen. Men med flere parallelle ”virkeligheder”
må vi have meget mere fokus på afsendertransparens,
presseetik, kildekritik, udgiveransvar osv.
Disse og andre perspektiver kræver, at vi alle
bliver i stand til at være kildekritiske, så vi kan
skelne mellem menneskeskabte og maskinskabte
billeder og informationer. Eller decideret deklare-
re, hvad der er hvad. Fx har børnebogsforfatteren
Jakob Martin Strid i sin nyeste børnetegnebog
deklareret, at bogen er tegnet uden medvirken af
nogen form for kunstig intelligens.
24
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0024.png
Hvorfor er der brug for mange
sprogmodeller?
Se hele oplægget her
Hovedpointer fra oplægget af
Pernille Tranberg
Data-etisk rådgiver, medlem af regeringens ekspertgruppe om tech-giganter
Hvorfor skal vi have mange sprogmodeller?
Den digitale infrastruktur er i dag helt afhængig af
produkter og servicer fra Microsoft, Google og Meta. De
store dominerer markedet med monopolstyrke og har
råd til at lancere nye servicer efter heroinpusher-me-
toden: ”First-fix-is-free”. Hvorefter betalingsmure og
stigende priser tager over, når vi har taget tilbuddene til
os. Fx er danske kommuner helt afhængige af Microsoft.
Det samme mønster vil gentage sig med AI. De nye
udbydere vil blive opkøbt af de eksisterende techgi-
ganter. Eller indgå ”partnerskaber”, der modsat opkøb,
er immune over for konkurrencelovgivningen.
Udover ejerskabs- og monopolspørgsmålet rejser AI
også en række spørgsmål vedr. ophavsret. Har AI tilla-
delse til at anvende andres informationer? New York
Times modsætter sig fx anvendelse af deres materiale.
Udover det snævre juridiske spørgsmål er der også
en bredere etisk dimension her. Er det, som bruger,
etisk ansvarligt at anvende produkter og servicer,
der bygger på andres data? Og dertil kommer en lang
række problemstillinger om cybercrimes, spam, scam
og beskyttelse af børn.
Endelig er der en lang række problemstillinger vedr.
sproglig, værdimæssig og økonomisk bias, jf. Christia-
ne Vejløs eksempler på kønsmæssige eller etniske bias
i søgeresultater. Desuden er der også et problem i den
såkaldte antropomorfisering, hvor avatarer, ChatGPT
og andre maskinfænomener præsenteres som ”men-
nesker”, som kan indgyde falsk tillid hos brugerne.
Alle disse udfordringer må adresseres, så vi, som lille
land, kan opretholde en form for teknologisk suveræ-
nitet i forhold til de store udenlandske techgiganter og
deres monopollignende status. Vi må stræbe efter selv
at bevare kontrollen over vores digitale liv i Europa,
baseret på fælles værdier og fælles lovgivning. Vi
elsker alle sammen at hade det danske skole-intranet
AULA, men det er faktisk et godt eksempel på en åben
På europæisk plan gælder det tilsvarende om at
samarbejde for at dæmme op for de amerikansk
dominerede techgiganter.
25
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0025.png
platform uden algoritmer, reklamer, profilering via
persondata og andet manipulerende adfærdsdesign.
Der findes også i andre lande eksempler på etisk mere
forsvarlige alternativer til søgesystemer og sprogmo-
deller. Ikke mindst, når det gælder sprogmodeller og
sprogbaserede chat- og søgetjenester, er det afgøren-
de, at der findes danske alternativer, da det danske
sprog statistisk er så forsvindende lille, at det danske
præg går tabt i internationale engelsk-dominerede
sprogmodeller og søgesystemer.
På europæisk plan gælder det tilsvarende om at
samarbejde for at dæmme op for de amerikansk
dominerede techgiganter. Det går ofte sådan, at mens
vi i Europa sætter alverdens små nationale projekter i
gang, bliver vi løbet over ende af de store amerikanske
techgiganter.
For at kunne stå op imod et 100 % profitdrevet udbud
er det afgørende, at vi i Danmark og på europæisk
grund udvikler alternative søgesystemer og sprogmo-
deller, der afspejler vores demokratiske, menneskelige
og klimavenlige værdier.
Anbefalinger
Små sprogområder må
1.
2.
3.
4.
5.
6.
Sikre sig teknologisk suverænitet over, hvilke udbydere der dominerer
Bekæmpe monopoldannelse
Håndhæve ophavsretten
Forhindre/begrænse cybercrimes, spam, scam og ulovligt indhold
Beskytte børn og unge mod udnyttelse og uønsket indhold
Etablere nationale og sproglige alternativer til det engelskdominerede udbud
26
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0026.png
Viden er ikke en algoritme
Hovedpointer fra oplægget af
Erik Henz Kjeldsen
Ansvarshavende chefredaktør på Lex, Danmarks nationalleksikon
Se hele oplægget her
For Lex var konferencen en mulighed for at stoppe op
et øjeblik og reflektere over, hvad virkelig værdifuld
viden er for en størrelse. Det er ikke bare ord eller data,
der er sat sammen af en formel med udgangspunkt i en
statistisk sandsynlighed. Det er en dybtgående forstå-
else, der er opnået mellem mennesker og gennem en
metodisk refleksion, afprøvning og erfaring. Viden er
ikke blot en samling af information, men resultatet af
årelang forskning og opbygning af ekspertise.
På Lex har tusindvis af forskere og andre fagfolk, blandt
andet fra Den Store Danske Encyklopædi og Trap
Danmark, gennem de seneste 30 år skabt et vidensfun-
dament, som vi nu gennem fire år har arbejdet på at
få opdateret. Der er ca. 700 forskere tilknyttet, som er i
gang med at opdatere og gennemskrive de ca. 240.000
artikler, der er på Lex. Hver især bidrager de med en
dyb indsigt i deres fagområde, og de lægger beredvilligt
deres gode navn og ry til det, de skriver. De forstår
betydningen af, at deres indsigter bliver tilgængelige
både for elever og lærere og for alle os, der har brug
for sikker information, som vi kan stole på, når vi skal
forstå den verden, vi lever i, uanset om det handler om
rugbrødets kulturhistorie eller de formelle rammer for
det kommende amerikanske valg.
Konferencen viste, at kunstig intelligens kan være nyttig
og brugbar. AI kan organisere, analysere og præsentere
data i mængder, vi ikke selv kan overkomme. Men det er
vigtigt at erkende maskinernes begrænsninger. Når alle
svar er let tilgængelige og formfuldendt formuleret på
nettet, kan vi desuden få et falsk indtryk af, at al viden er
lige god, uanset kilden.
Det kan føre til deling og spredning af fejlagtig og
forvrænget information.
Kunstig intelligens kan ikke skelne mellem korrekte og
forkerte, nøjagtige og unøjagtige, fyldestgørende og
mangelfulde svar. Kunstig intelligens er alene et koncen-
trat af, hvad der er tilgængeligt. For stor tillid til kunstig
intelligens kan føre til passivitet i vores egen tænkning
og fravær i den af de informationer, vi modtager. Det er
afgørende for et velinformeret samfund, og det er afgø-
rende for demokratiet, at vi som individer og borgere
bevarer vores egen kritiske sans og analytiske evne.
Som vi hørte, er der allerede en stor utryghed i befolk-
ningen ved den viden, vi har adgang til på nettet. Det
er svært at vide, hvad der er sandt, og hvad der er falsk.
Det er et sundhedstegn, at så mange er opmærksomme
på, at man ikke kan stole på alt, ”selvom det står på
nettet”, ligesom der er stor opmærksomhed på de
risici, der er ved kunstig intelligens. Det skal vi tage
alvorligt som samfund. Vi må sikre, at vi på den ene
side udnytter mulighederne og potentialerne, og på
den anden side sikrer, at der er mennesker til stede
i processen. At den menneskelige ekspertise og det
menneskelige skøn indgår i informationshåndteringen
og skabelsen af viden. Den balance skal vi næppe
forvente kommer fra techgiganterne.
Techgiganternes forretningsmodel er ikke at stille
troværdig viden til rådighed for borgerne, men at
stille data om brugerne til rådighed for annoncører og
andre, der vil betale for denne viden om os brugere og
vores præferencer.
Men det er vigtigt at erkende maskinernes begræns-
ninger. Viden og information er for vigtige værdier at
overlade til algoritmer og techgiganter.
27
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0027.png
Techgiganternes forretningsmodel er ikke at stille
troværdig viden til rådighed for borgerne, men at stil-
le data om brugerne til rådighed for annoncører og
andre, der vil betale for denne viden om os brugere
og vores præferencer.
Viden er ikke blot en samling af information,
men resultatet af årelang forskning og
opbygning af ekspertise.
28
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0028.png
Lex er et alternativ til maskindrevet viden og fake
news. Og et succesfuldt og billigt alternativ. For kun
fire kroner om året pr. søgeord stiller vi faglig, kura-
teret viden til rådighed for alle. Og det bruges! Med
to millioner månedlige besøg og fire millioner læste
artikler om måneden er Lex allerede Danmarks største
site for forsknings- og vidensformidling, både i omfang
og brug.
Indtil videre stiller altså næsten 700 forskere og andre
fagfolk deres viden og unikke indsigter til rådighed
for Lex. Det er omstændeligt og langsomt, og det kan
kun opnås gennem dedikation og engagement hos
hver enkelt forsker. Deres bidrag til Lex er ikke bare en
sammenstilling af fakta, men en formidlingsmæssig
helhed baseret på nøje analyse og kritisk tænkning. I
samarbejde med redaktørerne på Lex, som kompetent
og tålmodigt sørger for, at sprog, form og formidling
passer til en meget bredt sammensat skare af brugere.
Lex er unikt. Ikke mange europæiske lande har
formået at etablere noget tilsvarende. Og Lex er vores
allesammens, og for os allesammen. Frit tilgænge-
ligt, uden betalingsmure, profiler og adgangskoder.
Finansieret af fællesskabet af finansloven, takket være
Folketingets politikere, som på tværs af politiske skel
har bakket op om projektet og sikret den nødvendige
finansiering, i det mindste i de næste to år. Udover
finanslovsbevillingen skylder vi også en tak til en
række private fonde, som har sikret, at vi løbende kan
udbygge Lex med nye indholdsområder og således
sikre, at Lex også fremover har svar på det meste.
Du kan allerede nu skrive dig på en venteliste
til næste års konference.
29
DIU, Alm.del - 2023-24 - Bilag 162: Hvidbog fra lex.dk ("Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet")
2899238_0029.png
Danmarks nationalleksikon
32