Udvalget for Digitalisering og It 2022-23 (2. samling)
DIU Alm.del Bilag 35
Offentligt
2669877_0001.png
EN FREMTIDSSIKRET
VELFÆRDSSTAT MED AI
April 2022
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
INDHOLD
ANBEFALINGER
1
Anbefalinger
1.1. Vælg AI som beslutningsstøtte, når det handler om mennesker
1.2. Borgerrepræsentanter og faglig bredde i udviklingsprojekter
1.3. Dataetiske konsekvensvurderinger i lovgivning og udvikling
1.4. Ny teknologi skal øge kvaliteten
1.5. Lovgivningen skal opdateres
1.6. Fokus på tillid
VISION
2
En borgervision
2.1. En effektiv og tilgængelig forvaltning
2.2. Tillid
2.3. Borgerinddragelse i offentlige digitaliseringsprojekter
2.4. Digitale rettigheder
PRAKSIS
3
Borgervisionen i praksis
3.1. AI skal være en støtte for sagsbehandlerne
3.2. Man skal gøre sig fortjent til borgernes tillid
3.3. Arbejdskultur og ledelse
3.4. Gode eksempler - god praksis
3.5. Værktøjer
Begreber brugt i rapporten
Fodnoter
Podcast: Techtopia
5
6
6
6
6
6
6
6
7
8
9
9
12
13
15
16
16
17
19
21
21
22
23
Bagside
2
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0003.png
INDLEDNING
Vi har god erfaring med digitalisering. Vi kan ændre vo-
res årsopgørelse hos SKAT sent onsdag aften, og vi kan
skrive børnene op til daginstitution uden at skulle møde
op på pladsanvisningen. Det gør livet lettere for os som
borgere og det er med til at smidiggøre administratio-
nen af den velfærdsstat, som er grundlaget for vores
samfund. Med brug af kunstig intelligens kan vi nå et nyt
niveau af digitalisering.
Kunstig intelligens giver mulighed for at kombinere langt
flere typer data. Programmerne kan automatisk tage
ved lære undervejs og algoritmer kan hjælpe os med at
se mønstre og forudsige, hvad der kommer til at ske og
hvordan vi bør reagere på det. Kunstig intelligens kan
hjælpe til at indsamle og formidle viden og erfaringer,
forbedre den enkeltes undervisning, forbedre sagsbe-
handling og holde styr på energiforbrug, møbler og
udstyr. Det kan give kortere sagsbehandlingstid, bedre
skoler, forebygge sammenbrud på grund af slitage og
hjælpe med at genanvende og genbruge materialer og
udstyr til fordel for både økonomi og miljø. Men begre-
ber som overvågning af medarbejdere og borgere, profi-
lering, automatiserede afgørelser, prædiktive analyser og
spareøvelser er også omdrejningspunktet for den kritik,
skepsis og tilbageholdenhed, der præger debatten. Vi
har i forbindelse med udarbejdelsen af rapporten spurgt
2.000 danskere og interviewet fire kommunaldirektører
om, hvad der er vigtigst i forhold til brug af AI og hvad
der skal til for at sikre en god implementering.
Formålet med denne rapport er at give nogle ideer til
væsentlige indsatsområder og til, hvordan man finder
vej udenom de værste faldgruber. Udgangspunktet for
rapporten er en borgervision om det bedste velfærds-
system set fra borgerens synspunkt og hvordan det kan
lade sig gøre i praksis. Det er ikke en vision for, hvor vi
skal være om 10 år. Visionen starter nu. Med alle de pro-
jekter, der er i gang i kommuner, regioner og styrelser, er
det vigtigt, at vi begynder at styre i den samme retning.
Rapporten er skrevet med hjælp fra SIRI-Kommissionens medlemmer. En særlig tak til arbejdsgruppen:
Christina Melander, DDC
Linda Fauerholm, HK
Lisbeth Knudsen, MM
Mads Rydahl, Unsilo
Anders Hvid, DareDisrupt
Henrik Bodskov, IBM
Birgitte Eiriksson, Justitia
Natasha Friis Saxberg, IT-B
Thomas Ploug, AAU
Kim Simonsen, fhv formand, HK
Thomas Damkjær Petersen, IDA
Frederikke Søe, IDA
Grit Munk, IDA
Stor tak til Eik Møller, kommunaldirektør i Ballerup, Kim Herlev Jørgensen, kommunaldirektør i Fredensborg,
Stine Johansen, kommunaldirektør i Helsingør, og Sarah Gaarde, økonomi- og arbejdsmarkedsdirektør i Vejle.
I forbindelse med rapporten er der udgivet 3 Techtopia podcasts udarbejdet af journalist Marie Høst og Tina Ryoon, IDA.
Metode
Rapporten bygger på en undersøgelse, som Userneeds har gennemført for IDA i februar 2022.
Der er kommet 2.000 svar fra et repræsentativt udsnit af befolkningen mellem 18-70 år.
3
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0004.png
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
4
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0005.png
En fremtidssikret
velfærdsstat med AI
ANBEFALINGER
5
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
1. ANBEFALINGER
1.1. VÆLG AI SOM BESLUTNINGSSTØTTE, NÅR DET
HANDLER OM MENNESKER
Automatisering kan blive en stor fordel for den offentlige
forvaltning til sagsbehandling på en lang række områder.
Men når det handler om afgørelser, der angår mere
personlige spørgsmål og helbredsspørgsmål, bør AI kun
bruges som beslutningsstøtte for de fagpersoner, der
skal træffe afgørelserne.
1.4. NY TEKNOLOGI SKAL ØGE KVALITETEN
Indførelse af AI skal være til gavn for borgere og medar-
bejdere og blandt andet bidrage til at højne kvaliteten
i sagsbehandlingen, at sager behandles hurtigt og give
plads til at medarbejderne er tilgængelige ved tvivl.
1.2. BORGERREPRÆSENTANTER OG
FAGLIG BREDDE I UDVIKLINGSPROJEKTER
Brug af AI kræver kompetencer på it, jura, konkret
faglighed og forståelse for etik. Det kræver derfor bred
inddragelse af it-eksperter, jurister og sagsbehandlerne
på de fagområder, som den kunstige intelligens skal bru-
ges på, samt repræsentanter for de borgere, der bliver
påvirket af værktøjet. Borgerrepræsentanter kan være
forældre til skolebørn, patientgrupper, organisationer
for ældre, pårørende eller hjemløse. Opgaven for disse
repræsentanter er at sikre, at udviklingen i projekterne
er i overensstemmelse med borgervisionens mål om at
kunne have tillid til systemet, ret til privatliv, kunne følge
med udviklingen og blive set, hvis der er tvivl, misforstå-
elser eller fejl.
1.5. LOVGIVNINGEN SKAL OPDATERES
Man skal kunne fravælge profilering indenfor særli-
ge områder, for eksempel børnenes trivsel i skolen,
sundhedsprofil eller medieforbrug. Forvaltningsloven
er teknologineutral, men med digitaliseringen er det
nødvendigt, at lovgivningen tilpasses. Der er ikke behov
for at ændre på gældende bestemmelser, men der bør
tilføjes to nye om henholdsvis at stille præcise krav til
transparens (som i Norge og Sverige) og forklarlighed. I
forhold til transparens handler det både om datatrans-
parens, altså hvilke data, der anvendes til hvilket formål
og hvordan, algoritmetransparens i forhold til de algorit-
mer, der anvendes i forbindelse med behandlingen af en
sag, samt systemtransparens – det vil sige åbenhed om
sagsgange, vurderinger og beslutninger, der er indbygget
i et system.
1.3. DATAETISKE KONSEKVENSVURDERINGER
I LOVGIVNING OG UDVIKLING
Dataetiske konsekvensvurderinger skal være en del af
lovgivningen på lige fod de miljø- og økonomiske konse-
kvensvurderinger, der vedlægges ethvert nyt lovforslag.
Med udsigt til en langt mere omfattende indsamling
og samkøring af data skal det sikres, at politikerne kan
forholde sig til, hvilke dataetiske konsekvenser ny lovgiv-
ning vil have. Politikere skal konstant tage stilling til, hvor
der skal strammes op og hvor der skal udvikles og inve-
steres – og politikere har holdninger til, hvordan samfun-
det bør se ud. Derfor er det nødvendigt, at de dataetiske
konsekvenser af ny lovgivning står meget klarere, end
tilfældet er i dag. På samme måde kan dataetiske konse-
kvensværktøj bruges i udviklingen af IA.
1.6. FOKUS PÅ TILLID
I takt med den stigende digitalisering og øget brug af
kunstig intelligens er det nødvendigt i stigende grad at
arbejde med tillid. Både i forhold til at afklare, hvordan
vi bedst forstår AI-begrebet og hvordan vi italesætter
tillidselementer.
6
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0007.png
En fremtidssikret
velfærdsstat med AI
VISION
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0008.png
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
2 EN BORGERVISION
Hvordan digitaliseringen skal starte og hvad velfærdsstaten skal kunne bedre, set fra
et borgerperspektiv.
Borger vision for en velfærdsstat med AI
Som borger i Danmark skal jeg have tillid til, at den offentlige sektor
håndterer mine personlige data i fuld respekt for mig og mit privatliv.
Jeg skal altid have et kvalificeret svar, når jeg henvender mig til den
offentlige forvaltning. Forvaltningen behandler mine sager hurtigt
og er let tilgængelig ved tvivl eller fejl.
Jeg skal have ejerskab over mine egne data og overblik over, hvem
der har adgang og hvad de bruges til.
En analyse, som SIRI-Kommissionen har foretaget af
danskernes holdninger til digitalisering af det offentlige
viser, at danskerne i relativ høj grad har tillid til, hvordan
den offentlige sektor håndterer og beskytter deres data.
Analysen viser blandt andet, at 75% i høj eller meget høj
grad har tillid til, hvordan deres læge behandler deres data.
63% oplyser, at de i høj eller meget høj grad har tillid til,
hvordan sundhedsmyndighederne behandler deres data.
Analysen viser dog også, at kun 46% og kun i et vist om-
fang, har tillid til, at deres børns skole håndterer deres data
med respekt. Der er altså også områder, hvor danskerne
stadig ikke stoler fuldt på, hvordan den offentlige sektor
behandler deres data. Den tillid skal vi have styrket. Tillid er
den helt afgørende og grundlæggende faktor for en frem-
tidig digital understøttelse af den danske velfærdsstat.
Når systemer baseret på kunstig intelligens, herefter AI,
er i fokus hos den offentlige forvaltning, så er det fordi,
systemerne er i stand til at håndtere problemstillinger, der
informationsmæssigt er mere komplicerede, end vi som
mennesker kan håndtere og overskue. AI-systemer ud-
mærker sig også ved at kunne udnytte og tilegne sig viden
i langt større datamængder end traditionelle systemer.
1
I analysen har vi derfor også spurgt til, hvor godt et
overblik danskerne har over, hvad deres data bliver brugt
til. Her har 48% svaret, at de ikke ved nok om, hvad deres
data bliver brugt til. Derudover oplyser 77% af respon-
denterne, at de gerne vil vide mere, hvis det var lettere at
overskue. En vigtig pointe er dog også, at 73% af respon-
denterne mener, at det ikke er deres eget ansvar at hol-
de øje med, hvordan persondata bliver brugt. De mener,
der skal være en stram lovgivning, der sikrer, at det kun
er det mest nødvendige, der indsamles og bruges.
2
Derfor er det vigtigt, at danskerne på en forståelig måde
bliver oplyst om, hvilke data der bliver brugt, hvordan
data anvendes og til hvilket formål, hvis vi skal skabe
den nødvendige tillid. Men også, at politikere og myn-
digheder tager ansvar for, at vi ikke overlader uoverskue-
lige beslutninger til borgerne.
Tillid er den helt afgørende og
grundlæggende faktor for en
fremtidig digital understøttelse
af den danske velfærdsstat.
2.1. EN EFFEKTIV OG TILGÆNGELIG FORVALTNING
En effektiv forvaltning er let tilgængelig, reagerer på
henvendelser med det samme og er hurtig til at komme
med kvalificerede svar og afgørelser.
8
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0009.png
Man skal kunne få forklaret afgørelser eller svar, man
ikke forstår og der skal være mulighed for at klage, når
man er uenig i en afgørelse. Det er også helt afgørende,
at der er mulighed for at få rettet fejlagtige oplysninger.
91% af respondenterne fra analysen mener, at det skal
være muligt at få rettet i sine data, hvis de er forkerte.
3
Endelig er det vigtigt, at alle borgere kan deltage trygt i
et digitalt samfund.
“Når jeg siger, at vi skal være verdensmestre i nem og
let digital borgerservice, så synes jeg også det er en
kæmpe udfordring, at vi står med 17-22 % af befolk-
ningen som har behov for digital inklusion. De er
simpelthen ikke digitale eller er kun delvis digitale. I
den offentlige sektor betjener vi ikke kun borgere der
er rentable og digitale. Vi er til for alle mennesker. Jeg
skal sørge for at alle mennesker kan få nem og let bor-
gerservice. Så jeg er bekymret for den polarisering der
kan ske i en befolkning når vi digitaliserer helt vildt.”
Stine Johansen, kommunaldirektør,
Helsingør Kommune
2.2. TILLID
”Hver tredje dansker stoler ikke på kunstig intelligens
i det offentlige”, var en overskrift i Version2 den 7. juni
2021.
4
Tillid er helt afgørende for en fremtid med flere
data i spil. Tillid får vi kun, hvis den enkelte borger har en
følelse af at kunne være i kontrol med, hvilke oplysnin-
ger om hans eller hendes privatliv, der er i omløb, hvem
der har adgang til oplysningerne og hvad de bruges
til. Det gælder både i det offentlige system og blandt
private virksomheder.
“Danmark er et land som er baseret på frihed og tillid.
Det er grundværdier i denne del af verden og de vær-
dier, synes jeg, vi skal værne dybt og inderligt om.”
Stine Johansen, kommunaldirektør,
Helsingør Kommune
De mange signaturprojekter i kommuner og regioner
har ofte det gode formål at hjælpe udsatte borgere.
Andre gange handler det om at effektivisere og billiggøre
sagsbehandling. Begge formål er fuldt legitime, men i for-
skellige sammenhænge. Hurtige afgørelser og svar på an-
søgninger og forespørgsler fra borgerne er med til at øge
tilliden til, at vi har en dygtig og effektiv offentlig sektor. I
Vejle Kommune arbejder man med et projekt med brug
af maskinlæring til fakturabetaling. Det kræver en del af
nå dertil, men på sigt er målet, at betaling kan klares med
maskinlæring, understøttet af stikprøvekontroller.
5
Vores analyse viser, at 67% er helt eller overvejende
enige i, at data gerne må bruges til eksempelvis at
forudsige oversvømmelser af ens kælder. Men brugen
af borgernes personlige data på områder som skole,
sundhed eller økonomi kræver, at borgerne har forstå-
else for, hvad data bliver brugt til, hvem der har adgang
til dem, og hvor data forsvinder hen bagefter. Her viser
analysen for eksempel, at 47% af respondenterne er
helt eller overvejende uenige i, at kommunen må hente
oplysninger til at forudsige, hvordan deres børn klarer sig
i skolen. 46% vil dog gerne lade kommunen få data fra
trivselsundersøgelserne, mens 23% er imod. Det er altså
ikke nødvendigvis dataindsamlingen, der er problemet,
men hvad det bliver brugt til.
6
Der knytter sig særlige
omstændigheder til brugen af prædiktive algoritmer -
ikke mindst når det gælder ens børn.
”Fokus på tillid handler også om at få talt om, hvad
det er og hvad det ikke er…. Lad os se på, hvad er
mulighederne, hvad kan vi bruge det til og hvad vil vi
aldrig bruge det til.”
Sarah Gaarde, økonomi- og arbejdsmarkeds-
direktør, Vejle Kommune
Generelt er der en række nøglebegreber forbundet med
at sikre tillid til behandlingen af data i det offentlige. Det
er blandt andet følelsen af at have ejerskab over egne
data, transparens eller gennemsigtighed, altså at vide,
hvad ens data bliver brugt til, samt muligheden for
samtykke på en velafbalanceret måde, der hverken er for
uoverskuelig eller for overfladisk.
Ejerskab og overblik over egne data
Personlige data om andre mennesker er ikke noget, man
finder på gaden og må beholde og bruge, som man har
lyst til. Data tilhører det menneske, de omhandler og
skal behandles med respekt for det enkelte menneske
og dennes privatliv. Men vi har brug for at dele data.
Med hinanden, med samfundet og med de velfærdsin-
stitutioner, som sørger for vores sundhed, uddannelse,
hjælp til sociale ydelser og meget andet.
At have ejerskab over egne data er udgangspunktet for
at være bevidst om, hvilken rolle ens data kan spille -
både i forhold til at drive en effektiv forvaltning og som
et bidrag til forskning, innovation og en mere bæredyg-
tig drift af vores samfund. Ejerskab handler også om at
have mest mulig kontrol over, hvad ens data bliver brugt
til. Analysen af danskernes holdninger til digitalisering
i det offentlige viser, at 73% af respondenterne er helt
9
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0010.png
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
eller overvejende enige i, at en myndighed må dele ens
data med andre myndigheder og bruge dem til andre
formål, så snart der er givet samtykke til dette.
7
Transparens
Transparens – eller gennemsigtighed – defineres her som
adgang til oplysninger, som fører til viden. Transparens er
afgørende for, om en borger, et tilsyn, domstolene eller
den bredere offentlighed bliver i stand til at udøve en vis
kontrol over en myndighed og det sikrer, at myndighe-
den kan ”kigges efter i sømmene” og stilles til ansvar for
handlinger og adfærd. Transparens er også nødvendigt
for, at vi har indsigt nok til at klage over en afgørelse.
Transparens er derfor også et forvaltningsretligt princip
og en central del af EU’s databeskyttelsesforordning.
8
Transparens er også nødvendigt for, at man som borger
forstår og kan acceptere de muligheder og afgørelser,
man bliver præsenteret for. Kunstig intelligens bliver ofte
brugt i sammenhænge, der involverer og påvirker men-
nesker. Det er derfor nødvendigt, at vi forstår, hvad det
er, der bliver gjort og hvorfor. Hvilket niveau af forklaring,
vi har brug for, afhænger af, om det er eksperter eller
borgere, der skal forstå afgørelsen.
Transparens er altså grundlæggende for at skabe tillid til
at bruge AI i den offentlige sektor. Men det er afgørende,
at de informationer, der bliver givet videre til borgeren,
er overskuelige og forståelige. Det er ikke en hjælp til
tillidsopbygning eller til mere handlekraftige borgere, at
man ”drukner” borgerne i informationer for herefter at
erklære, at man har informeret fuldt og helt.
Hos borgerne kan der skelnes mellem tre grupper med
lidt forskellige behov:
1. Slutbrugeren, f.eks. en forsikringskunde, hvis sag
er blevet afgjort ved hjælp af kunstig intelligens,
har brug for at vide, hvordan systemet er nået
frem til den konkrete afgørelse (inferens), hvordan
og hvorfra data om dem er indsamlet og kvalite-
ten af dem (dataproveniens) og om der er risiko
for fejl ved de specifikke resultater (evt. bias).
2. Berørte borgere, f.eks. de forsikringskunder, hvis
forsikringsvilkår ændres på baggrund af andre
kunders sager, har behov for at kende inferens,
dataproveniens og risikoen for bias af relevans for
deres egen sag, men på et mere overordnet niveau.
3. Befolkningen som helhed og dermed også f.eks.
presse, forskere og interesseorganisationer
har behov for at kunne få adgang til en generel
præcision af inferens, hvilke datakilder, der er
anvendt og om der er bias tilknyttet særlige be-
folkningsgrupper, f.eks. baseret på geografi, alder,
etnicitet eller seksuel orientering.
9
Når man designer en algoritme til at løse en opgave i en
forvaltning, ligger der således en opgave i at være sikker
på, at man kan forklare borgerne specifikt eller gene-
relt, hvordan algoritmen virker og finde en model for,
hvordan man relativt simpelt med tekst eller visuelt kan
fortælle det til borgeren.
Samtykke
Et samtykke er at sige ja. Men et gyldigt samtykke i da-
tasammenhæng skal være frivilligt, specifikt, informeret
og utvetydigt. Et samtykke skal kunne trækkes tilbage
og data skal kunne slettes, og i sundhedssammenhæn-
ge skal det være ”låst” til behandlingen. Et reelt samtykke
forudsætter, at samtykket afgives frivilligt. Et valg er ikke
frivilligt, hvis borgeren indgår en risiko ved ikke at afgive
samtykke; for eksempel hvis nogle behandlinger eller
medicin kun er tilgængeligt, hvis man afgiver samtykke
til datadeling.
Endelig er borgerens mulighed for monitorering og
kontrol grundlæggende. Vi skal kunne se og følge med i
hvem, der bruger vores data, til hvad og hvor længe. Det
er vigtigt, at informationen vedrørende anvendelse af
data er så specifik, at borgeren faktisk har et reelt billede
af, hvad der gives samtykke til. Det kan eksempelvis
være, at borgeren kan afgive samtykke til et eller flere
specifikke formål eller indenfor et forskningsområde.
Vi skal kunne se og følge med i
hvem, der bruger vores data, til
hvad og hvor længe. Det er vigtigt,
at informationen vedrørende an-
vendelse af data er så specifik, at
borgeren faktisk har et reelt bille-
de af, hvad der gives samtykke til.
10
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0011.png
I praksis vil man kunne give samtykke fra sag til sag, eller
man vil kunne organisere mere overordnede samtykker
på en portal. I vores analyse vil 75% af respondenterne
gerne kunne give samtykke til forskellige ting hver for
sig og de vil gerne kunne give samtykke til de forskellige
myndigheder på forhånd.
10
DataForGood
Foundation
Den danske DataForGood Founda-
tion er en non-profit fond med uaf-
hængigt tilsyn og en mission om at
sikre individuel datakontrol. Alle bru-
gere får en personlig boks, hvor man
kan beskytte, aktivere og dele sine
data og få et overblik over, hvem og
hvad man har givet samtykke til. Man
kan herfra give samtykke til, at ens
data sælges videre i en aggregeret og
anonymiseret form. Fonden agerer
neutral mellemmand som beskrevet i
EU’s forslag om lov om datastyring.
12
Borgerstyret datadeling
– et konkret eksempel på en løsning
En løsning, der arbejdes med fra flere sider, er mulighe-
den for at dele data i forskellige grader af anonymisering
og under fuld kontrol. Der findes allerede en lang række
danske og internationale organisationer, der tilbyder for-
skellige muligheder for databanker, som man kan lade
sig inspirere af. Her kan man for eksempel donere sine
personlige data til forskningsformål. Fælles for projekter-
ne er, at de tilbyder en overskuelig metode til at bestem-
me, hvem der skal vide hvad om dig og hvornår.
Ada Lovelace Institute, et uafhængigt forskningsinstitut
i London, blev skabt i 2018 med fokus på, at data og AI
skal hjælpe mennesker og samfundet. De tror på, at når
data og AI bliver brugt på denne måde, sikrer det, at mu-
ligheder, privilegier og fordele er fordelt ligeligt. Institut-
tet fremhæver tre juridiske mekanismer, der kan bidrage
til at fremme ansvarlig dataforvaltning:
Datatrust:
Her kan man angive, hvordan man
ønsker, at ens data kan bruges, og give en admi-
nistrator mulighed for at forvalte ens data. Det
kunne for eksempel være onlineværktøjer på ven
skole, hvor elevernes læringsdata opsamles og
bruges til at støtte fremskridt i elevernes arbejde.
Det giver skolen mulighed for at evaluere værk-
tøjer og sætte nye tiltag ind, samtidig med at
forældre og elever har fuldt overblik over, hvad
elevernes data bruges til og hvem der har adgang.
Datakooperativer:
Idéen bygger på den gamle
andelsforeningstanke om at samle dataressour-
cerne og forvalte dem kollektivt. Resultaterne
kan bruges i forhold til lokalområdet, virksom-
heder eller institutioner.
Kontraktmæssige mekanismer:
Her skabes
et økosystem af datadeling på gensidigt aftalte
vilkår og med en uafhængig dataansvarlig.
Formålet er at skabe et tillidsfuldt miljø, selvom
man ikke nødvendigvis kender de parter, man
deler data med.
11
Polypoly
Den europæiske virksomhed Polypoly
har udviklet app’en PolyPod. En
PolyPod flytter brugerens private data,
så de bliver opbevaret på brugerens
eget device. Formålet er at modvirke de
nuværende datamonopoler og ændre
data-økonomien. PolyPod’en fungerer
dels som en data-pengepung, hvor
brugerne kan importere deres data fra
eksterne platforme og derefter admini-
strere dem, men også som en platform,
hvor virksomheder og organisationer
kan tilbyde features og services uaf-
hængigt af monopolerne.
13
11
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0012.png
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
2.3. BORGERINDDRAGELSE
I OFFENTLIGE DIGITALISERINGSPROJEKTER
En forbedring i borgernes tillid til brug af AI kræver ikke
mindst transparens, medindsigt og en følelse af at
kunne komme til orde og blive taget alvorligt. Analysen
viser blandt andet, at 66% af respondenterne er helt
eller overvejende enige i, at der bør være borgerrepræ-
sentanter til stede, når der udvikles nye projekter med
kunstig intelligens.
14
I sager, hvor der er tale om res-
sourcestærke borgere - for eksempel helt almindelige
forældre til børn i folkeskolen - giver det mening med et
højt informationsniveau og medinddragelse i udviklin-
gen af de enkelte projekter. Det kan for eksempel være,
hvis kommunen indkøber et undervisningsprogram, der
”nudger” eleven baseret på analyser af den enkelte elevs
kompetencer og mest effektive læringsmåde. Analysen
sker på baggrund af en bred indsamling af data om
eleven. Det bør her oplyses, hvem der skal have adgang
til de data, hvor længe de skal gemmes, og hvor og hvor-
dan de opbevares.
I sager, hvor systemet skal omhandle vores svageste
medborgere – for eksempel demente eller hjemløse - er
det vigtigt, at der er fagkompetente repræsentanter
for borgergruppen, der kan tage borgernes perspektiv i
udviklingen af nye forsøg og projekter.
En - muligvis utilsigtet - konsekvens af det stigende
antal forsøg med AI og især prædiktive analyser af
borgerne er et skift i synet på borgerens rolle i forhold
til det offentlige. Forskere beskriver udviklingen som en
ændring fra et fagbureaukratisk syn på borgeren som
retssubjekt og et værdigrundlag om at sikre borgernes
almene rettigheder til at se borgeren som fritvælgende
under New Public Management-æraen med et mål om
at sikre en effektiv forvaltning. Herefter kom New Public
Governance-tilgangen om den samskabende borger og
ønsket om at muliggøre innovation og fornyelse. Nu er
vi ved at bevæge os over i en risiko-orienteret forståelse
af borgeren.
15
Borgeren er altså ikke længere én, der skal
passes på, eller én, der skal have muligheden for frit valg.
Heller ikke én, der i samarbejde med sagsbehandleren
finder den rigtige løsning. Borgeren er nu med forvaltnin-
gens syn blevet én, der måske kan komme på afveje og
skal hjælpes, allerede inden det går galt.
En - muligvis utilsigtet -
konsekvens af det stigende antal
forsøg med AI og især prædiktive
analyser af borgerne er et skift i
synet på borgerens rolle i forhold
til det offentlige.
Prædiktive algoritmer bliver i stigende grad brugt i den
offentlige sektor til at lave prognoser af fremtidig adfærd
samt risikoprofiler af borgerne.
16
Prædiktive analyser kan
bidrage til sagsbehandlingen ved at vurdere den enkelte
borgers sandsynlige fremtid baseret på mønstre i andre
borgeres data. Man bevæger sig altså fra, at borgeren
ses som en medaktør til at være genstand for statistisk
beregning. Det er i denne sammenhæng yderst vigtigt
at være bevidst om, hvad brugen af teknologien betyder
for det syn, man har på borgeren. Skal teknologien sikre
borgerens rettigheder? Handler det om at øge effektivi-
teten? Og bliver borgeren inddraget i selve beslutningen
om, hvorvidt prædiktive algoritmer overhovedet skal
bruges? Eller bliver borgeren bare en sandsynlig fremtid
i algoritmens input til sagsbehandlingen? Ifølge vores
analyse, så har borgerne ingen intention om at blive
reduceret til et statistisk input.
Det er en udfordring, at prædiktive analyser er karak-
teriseret ved at ”gå bagom” borgeren. På baggrund af
de data, der findes om os, bliver vi sammenlignet med
andre borgere. Hvis ens data indeholder en oplysning
om, at man er anden- eller tredjegenerations indvandrer
af ikke-vestlig baggrund, så er det i sig selv blevet brugt
som et parameter for, at man risikerer at blive langtidsle-
dig, uanset uddannelse.
17
Skal prædiktive analyser bruges, er det derfor vigtigt, at
der er åbenhed om de faktorer, der ligger bag de forslag,
den prædiktive analyse munder ud i, så borgeren har
mulighed for at gøre indsigelse, rette eventuelle fejl eller
misforståelser eller forklare sig.
12
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0013.png
2.4. DIGITALE RETTIGHEDER
I Danmark er det særligt vigtigt med transparens, da
der sker en omfattende dataindsamling om borgerne
og myndighederne har meget vide rammer for brug af
disse data. Det gælder også ny brug af data, som oprin-
deligt blev indsamlet til et andet formål - også kaldet
formålsforskydning. Når SKAT får mulighed for at følge
med i vores salg af aflagte ejendele på sociale medier,
får myndigheden for eksempel også, som en bivirkning,
adgang til en lang række personlige oplysninger, der på
ingen måde relaterer sig til vores skatteindbetaling. Rets-
sikkerhedsmæssigt er det derfor vigtigt at vide, hvordan
vi skal forholde os som borgere, hvad vi kan forvente, og
hvordan vi skal reagere, hvis vi opdager fejl, misforståel-
ser eller mangler. Samtidig er der også en positiv retssik-
kerhedskonsekvens i, at sager, der kan behandles ens,
faktisk bliver behandlet ens over hele landet.
Forvaltningsloven er teknologineutral og gælder for
både analog og digital sagshåndtering. Men med brug
af ”big data”, maskinlæring og metoder som prædiktive
analyser og profilering står vi et andet sted etisk end i
den analoge forvaltning. Som Folketingets Ombuds-
mand har udtrykt det:”Digitale løsninger har ikke, som
vi mennesker, dårlige dage, hvor de præsterer ringere. Er
der en fejl i en digital løsning, vil den blive gentaget alle
ugens dage og alle dagens timer og minutter”.
18
”Digitale løsninger har ikke, som vi mennesker, dårlige
dage, hvor de præsterer ringere. Er der en fejl i en digital
løsning, vil den blive gentaget alle ugens dage og alle
dagens timer og minutter”.
Hvis en myndighed, der benytter sig af maskinlæring,
ender i en ”black box”-situation, hvor ingen kan redegøre
for, hvordan resultatet er fremkommet, svækkes trans-
parensen. Maskinlæring er en del af kunstig intelligens,
hvor computeren er i stand til selv at lære af de mønstre,
programmet afdækker - for eksempel tidligere data og
handlinger. Computeren kan derved selv finde ud af,
hvordan den skal løse et problem. Ulempen er, at det
kan være næsten umuligt at gennemskue, hvordan com-
puteren nåede frem til løsningen. Det er en problematik,
der skal afklares, hvordan man vil håndtere.
Med GDPR har vi overordnet en række juridiske rettighe-
der, herunder et princip om formålsbestemthed. Altså at
data indsamlet med ét formål, ikke må bruges til formål,
der er uforenelige med de oprindelige formål. I så fald
skal borgeren oplyses om dette. Formålet med denne
regel er at sikre gennemsigtighed. Men den danske da-
tabeskyttelseslov fra 2017 giver mulighed for at fravige
dette princip, blandt andet fordi man gerne vil have
muligheden for at benytte sig af algoritmisk profilering.
Det betyder også, at myndighederne ikke har pligt til at
oplyse om, at man bruger indsamlede persondata til
profilering. Sammen med udfordringerne med at forstå,
hvordan algoritmerne virker, resulterer dette i mang-
lende transparens og dårligere muligheder for at følge
med i en sag eller klage, hvis man er uenig i en afgørelse
eller en profilering. Dette er en udfordring for at bevare
borgernes tillid til at bruge algoritmer. Samtidig skal man
også være opmærksom på, at klager er væsentlige for
udviklingen af bedre it-systemer. Utilfredshed er altså
ikke noget, man bør ignorere eller undgå at give op-
mærksomhed, men derimod en væsentlig vejviser til et
bedre resultat.
Utilfredshed er altså ikke noget,
man bør ignorere eller undgå
at give opmærksomhed, men
derimod en væsentlig vejviser
til et bedre resultat.
Udover specifik lovgivning er der altså også behov for en
række etiske principper, som lovgivningen bør leve op
til. Det er for eksempel relevant at spørge, om man skal
stille øgede krav til oplysning ved profilering, så borge-
ren kan reagere, hvis der er fejl eller misforståelser, eller
vi som samfund kan reagere, hvis enkelte grupper dis-
krimineres som en utilsigtet konsekvens af den måde,
algoritmen er opbygget på. I oplægget til den kommen-
de EU-regulering på AI er der typer af personprofiler, man
foreslår helt skal forbydes.
19
Institut for Menneskerettig-
heder anbefaler, at man ændrer databeskyttelsesloven,
så myndighederne skal give borgeren besked om, hvilke
oplysninger, der bruges i en profileringsmodel til at støt-
te eller træffe en afgørelse om borgeren.
20
13
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0014.png
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
14
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0015.png
En fremtidssikret
velfærdsstat med AI
PRAKSIS
15
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0016.png
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
3 BORGERVISIONEN I PRAKSIS
Hvis borgervisionen skal blive til virkelighed, kræver det ændringer på flere planer.
Borgervisionen i praksis
Medarbejdere i en offentlig forvaltning skal være trygge ved, at AI
er et sikkert støtteredskab af høj kvalitet til sagsbehandlingen.
Det er vigtigt at sikre borgernes tillid til nye systemer og at vi
bruger AI i fuld respekt for borgernes privatliv.
Der er fokus på at eksperimentere med at udnytte dataetisk
uproblematiske informationer til at løse nogle af de mange
problemer, vi står overfor som samfund.
Indkøb af nye AI-systemer sker på baggrund af fagligt samarbejde
på tværs af it-folk, jurister, fagfolk og borgerrepræsentanter.
Vi skal blive skarpe på, hvordan AI skal påvirke sagsbe-
handlingen, hvordan vi sikrer borgernes tillid, hvilken
rolle ledelsen skal spille i processen og hvordan vi skaber
en kultur, der sikrer det rigtige samspil mellem menne-
sker og maskiner.
“Jeg tror faktisk, det vil have stor betydning for den
enkelte socialrådgiver, at man har en algoritme der
siger, at ‘i denne her situation synes jeg, du skal gøre
det her’ ”
Kim Herlev Jørgensen,
kommunaldirektør Fredensborg Kommune
Det stiller krav til en god og gennemarbejdet algoritme
og det stiller krav til de data, algoritmen trænes på, så vi
undgår bias grundet enten blinde vinkler hos udviklerne
eller fejl i tidligere sager.
Den situation, man skal undgå, er et system, der baseret
på tidligere praksis med alle dens fejl og mangler, kom-
mer med anbefalinger, der gentager fortidens fejl. Det
er jo netop dem, vi gerne vil af med. Formålet med at
indføre AI i sagsbehandling er, at vi skal blive bedre.
Derfor er det relevant at skelne mellem AI brugt som
beslutningsstøtte og AI brugt som et beslutningsgene-
rende værktøj eller til fuldautomatiserede afgørelser. AI
brugt som beslutningsstøtte kan for eksempel prioritere
eller oplyse eksisterende sager. En fuldautomatiseret
afgørelse kan derimod være, at systemet automatisk
godkender eller afviser en ansøgning om tilskud.
21
3.1. AI SKAL VÆRE EN STØTTE
FOR SAGSBEHANDLERNE
Det er vigtigt at være meget bevidst om, hvilken rolle AI
og maskinlæring skal spille i den sagsbehandling, der har
stor indflydelse på den enkelte borgers liv. Risikoen er, at
der sker en menneskelig dekobling i sager, hvor menne-
skers unikke situation er i centrum.
Omvendt kan AI være med til at hæve kvaliteten og
ensartetheden i sagsafgørelser, hvis det for eksempel
bruges til at øge adgangen til relevant viden om lignen-
de sager fra resten af landet. En sådan støttefunktion er
for eksempel set i IBM’s computersystem ”Watson”, der
havde til formål at gennemlæse titusindvis af lægevi-
denskabelige artikler om diagnoser og behandlinger og
derefter komme med forslag til diagnoser ud fra patien-
ter med lignende symptomer. Formålet med en sådan
støttefunktion er hurtigt og let at øge vidensniveauet
hos den enkelte sagsbehandler.
16
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0017.png
I Estland findes en omdiskuteret brug af kunstig intelli-
gens ved domstolene. I rutineafgørelser, som omhand-
ler mindre end 7.000 euro, kan en computer foretage en
automatisk vurdering af, hvem der har skylden. Parterne
uploader deres dokumenter i systemet og derefter ana-
lyserer computeren dem. Der er mulighed for at appel-
lere til en menneskelig dommer, hvis en af parterne er
utilfreds med afgørelsen. Estlands CIO for digitalisering
mener, at der er for mange standardiserede procedurer
og administrative opgaver, som dommerne unødven-
digt bruger tid på og ved at udnytte kunstig intelligens
kan man reducere ventetiden ved domstolene. Et vigtigt
princip i det estiske systems brug af kunstig intelligens er
dog, at hvis det har store konsekvenser for folks liv eller
helbred, skal et menneske involveres.
22
I projektet ”Underretninger i fokus” under TrygFondens
Børneforskningscenter i samarbejde med VIA Univer-
sity College, er målet at understøtte socialrådgivernes
obligatoriske risikovurdering af underretninger – de
bliver brugt som beslutningsstøtte. I den nok så kendte,
men hurtigt afsluttede ”Gladsaxemodel”, var formålet
at opspore fremtidige, sandsynlige problemer, inden
der overhovedet var mistanke om en sag. Teknologien
blev her i stedet beslutningsgenererende, altså at give
anledning til, at der startes en sag.
23
I sager af mindre kompliceret art, som for eksempel
behandling af en ansøgning om tilladelse til at bygge en
carport eller betale en faktura, kan AI med fordel bruges
til direkte beslutningsforslag, mens der på socialområ-
det ofte er behov for en langt mere individuel holistisk
vurdering, som ikke er egnet til at blive digitaliseret.
Ombudsmanden skriver om automatiserede processer:
”En forudsætning for en hel eller delvis automatisering
af sagsbehandlingen på et område er således som
udgangspunkt, at afgørelserne eller de automatiserede
dele af afgørelserne kan træffes efter rent objektive
kriterier, dvs. efter på forhånd fastsatte faktuelle kriterier
og en fast givet retsvirkning af et givet faktum.”
24
Også med AI som beslutningsstøtte er det nødvendigt
at stille en række spørgsmål til it-systemet for at sikre
etisk og ansvarlig brug. I statens it-projektmodel anven-
des fem faser: Idéfasen, analysefasen, gennemførelses-
fasen, realiseringsfasen og afslutningsfasen. Allerede fra
første fase bør borgere, myndigheder, sagsbehandlere,
leverandører, tekniske eksperter og tilsynsførende ind-
drages for at høre deres holdninger, ønsker til gevinster
ved systemet, få afklaret risici og afdække, hvad der er af
muligheder for at bruge AI. De kan også pege på alterna-
tiver til at bruge AI og i hvilken grad og hvor, det er nød-
vendigt at inddrage mennesker i beslutningsprocessen.
25
Endeligt skal det være tydeligt, hvordan algoritmen
fungerer, så den kan forstås og udfordres af både sagsbe-
handlere og borgere.
26
Både af hensyn til borgernes rets-
sikkerhed og for at få den nødvendige kritik og feedback
til at udvikle de systemer, vi bruger i den offentlige sektor.
Det skal derfor være tydeligt,
hvordan algoritmen fungerer, så
den kan forstås og udfordres af
både sagsbehandlere og borgere
3.2. MAN SKAL GØRE SIG FORTJENT
TIL BORGERNES TILLID
Prædiktive algoritmer
Prædiktive algoritmer er en måde, man kan analysere data
til brug for at forudse eksempelvis adfærd, udfald og begi-
venheder. Analysen sker på baggrund af statistiske model-
ler, som er udvundet af datamining, machine learning og
forudsigelig modellering. På den måde fungerer prædikti-
ve modeller som værktøjer til at forudse og forebygge på
baggrund af mønstre i aktuelle og historiske data.
Prædiktive algoritmer bruges i stigende grad i sundheds-
sektoren. Ved eksempelvis at indsamle og samkøre
større mængder data om borgernes sundhed, skabes et
endnu større vidensgrundlag for sundhedsforvaltningen
og forskere til at kunne forudsige, hvilke behandlinger
der skal forskes i. Samtidig lærer vi mere om, hvorfor
sygdomme udvikler sig, som de gør.
Formålet i projekter som ”Underretninger i fokus” og Glad-
saxemodellen var at forudsige et barns mistrivsel. Men
hvornår bliver forebyggelse til overvågning? Forskellen på
beslutningsstøtte og beslutningsgenererende brug af tek-
nologien viser et dilemma mellem ønsket om at forebygge
sociale problemer og ønsket om at beskytte borgerens ret
til privatliv og integritet. Dette dilemma kræver inddragelse
af både it-eksperter og fagprofessionelle for at beslutte,
hvorvidt der er behov for prædiktive algoritmer i en sags-
behandling og om der findes prædiktive algoritmer, der er
egnede og ikke mindst gode nok, og om der er behov for
at informere borgerne om, at det sker, samt hvorfor
og hvordan eller om der skal findes en alternativ løsning.
17
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
Transparens
Transparens bliver kritisk, når myndighederne anvender
AI-modeller med maskinlæring, hvor det kan være svært
at forstå eller forklare, hvordan systemet er kommet
frem til resultatet. Det er det, man også kender som
”blackbox-problematikken”.
Transparens handler både om, hvordan algoritmen funge-
rer, og hvordan den bliver anvendt.
27
I forhold til, hvordan
algoritmen fungerer, skelner man mellem interpretabi-
lity (at kunne fortolke eller oversætte) og explainability
(at kunne forklare). Modeller kan være relativt nemme
”at læse” uden tekniske hjælpemidler og derfor lette at
fortolke eller ”oversætte”. Men de kan også være så kom-
plekse, at de kun kan forklares. Det vil sige, at man ved
hjælp af tekniske løsninger kan generere forklaringer, som
beskriver, hvordan hele eller dele af modellen fungerer.
I forhold til, hvordan algoritmen anvendes, er fire typer
informationer relevante: For det første er det relevant at
kende de datasæt, som er brugt til udvikling af model-
len. Hvis der er tale om tidligere afgørelser, hvor der er
fejl, så vil fejlene gå igen i modellen. For det andet er det
nødvendigt at kende modellens kvalitet. Hvis fejlraten
er for høj, går det udover retssikkerheden. For det tredje
er det vigtigt, at man kan få at vide, hvad modellen skal
bruges til og om den er egnet til formålet. For det fjerde
er det vigtigt, at der er klare rammer for tilsyn og oplys-
ning om, hvordan modellen forklares overfor borgeren.
Institut for Menneskerettigheder anbefaler, at disse
oplysninger bør kunne findes i et algoritmeregister over,
hvilke myndigheder, der anvender profileringsmodeller
og hvordan.
28
Transparens handler også om at vise, hvordan algoritmer
bliver brugt. Det vil sige, hvor i forløbet automatisering har
spillet en rolle. Her er det nødvendigt løbende at evalue-
re på, hvilke konsekvenser algoritmerne medfører. Hver
enkelt algoritme bør evalueres og man bør se på, om
der er et mønster i - for eksempel hvor algoritmen under-
kender en faglig vurdering og omvendt. Ligesom man
over tid bør se på, om der sker en drejning i de afgørelser,
man foretager.
”Det skal man være ekstremt bevidst om, når man
automatiserer med algoritmer, der giver en black-
box-problematik. Vi kan kaste vores kræfter ind i at
forstå, hvad der sker i blackboxen eller vi kan kaste
vores kræfter ind der, hvor mennesket er bedst, nemlig
til at være det tænkende, reflekterende menneske. Det
kan man gøre i et evalueringsperspektiv, hvor man tør
holde sine algoritmer op og se på, hvad de har haft af
konsekvenser og hvad der har været af drejninger. Er vi
blevet bedre med algoritmerne til det vi gerne ville?”
Sarah Gaarde, økonomi- og arbejdsmarkeds-
direktør, Vejle Kommune
Denne tilgang gør det vigtigt at se på beslutningshie-
rarkier. Det handler om, hvornår og hvem i processen,
der beslutter, hvad der skal ske. Et beslutningshierarki vil
være forskelligt fra algoritme til algoritme.
”Dataetiske konsekvensvurderinger er hamrende vig-
tigt at have med. Den kan jeg simpelthen ikke under-
støtte nok, men jeg vil jeg gerne tilføje beslutningshierar-
kier, som et afgørende parameter. Det man er så bange
for, det er hvem, der beslutter, hvem der har det udløsen-
de ”say” på om man vælger at gå til højre eller venstre.
Det kan beslutningshierarkier skabe tryghed om”
Sarah Gaarde, økonomi- og arbejdsmarkeds-
direktør, Vejle Kommune
Bias
Bias kan give anledning til krænkelse, diskrimination og
stigmatisering og er en af de store udfordringer i udvik-
lingen af AI systemer.
Bias betyder fejl i resultaterne af dataanalyserne og
defineres som forudindtagethed i beslutninger eller
metodisk fejlbehæftet datagrundlag for beslutninger.
29
Fejl i datagrundlaget er problematisk, fordi fejlene vil på-
virke algoritmen og man risikerer, at systemet anbefaler
løsninger, som gentager tidligere fejl i sagsbehandlingen.
Kvaliteten af de data, man udvikler og træner algoritmen
på, er derfor afgørende for, om it-systemet kommer til at
virke efter hensigten.
Et eksempel var Amazons automatiserede rangering
af jobansøgere, der på baggrund af tidligere ansættel-
sesmønstre, hvor majoriteten af de ansatte var mænd,
frasorterede alle kvindelige ansøgere.
30
Det er værd at
bemærke, at det tog et års tid, inden det gik op for virk-
somheden, at der var noget galt i den automatiserede
ansættelsesprocedure.
18
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0019.png
Der er ikke nogen tvivl om, at vi som mennesker også er
forudindtagede i en eller anden grad og har blinde vinkler.
Men udfordringen er, at hvis en algoritme bliver fordoms-
fuld, så bliver det systematisk og kan gå udover rigtig
mange mennesker, ligesom det på grund af blackbox-pro-
blematikken kan være svært at gennemskue, hvor fejlen er.
Både virksomheder og myndigheder, der er ansvarlige
for at behandle persondata, har en forpligtigelse til at
sørge for, at data er korrekte og om nødvendigt opda-
terede. Det betyder, at man som dataansvarlig skal føre
kontrol med, at der ikke behandles urigtige eller vildle-
dende oplysninger. Offentlige myndigheder har journa-
liseringspligt. Her gælder det, at hvis man finder urigtige
oplysninger i en journal, må de typisk ikke slettes, men
man skal notere i journalen, at oplysningen er forkert og
eventuelt tilføje de rigtige oplysninger.
31
Forudindtagethed i beslutninger kan være baseret på
enten conscious bias (explicit bias) - bevidste fordom-
me - eller unconscious bias (implicit bias) - ubevidste
fordomme, populært kaldet blinde vinkler. Det er bias,
som programmøren af den kunstige intelligens ikke er
opmærksom på, at han/hun har og derfor kan risikere at
overføre til AI’en. Et eksempel på dette er udfordringen
ved ansigtsgenkendelse, der giver markant mest præcise
resultater anvendt på hvide mænd og omvendt virker
dårligst på sorte kvinder, blandt andet fordi programmer-
ne bliver afprøvet og trænet på data baseret på pro-
grammørerne, som oftest er mænd.
32
Som mennesker
indlejrer vi vores forudindtagethed (bias) i teknologien.
Hvis man for eksempel har systemer, der trænes af men-
nesker, så spiller det en rolle, at de trænes af forskellige
mennesker, så vi får en mangfoldighed i den måde, man
håndterer, læser og forstår situationer på. Både for at få
bedre løsninger, fordi mangfoldighed tit er garanti for de
bedste løsninger, men også fordi nuancerne spiller en
rolle for, hvordan vi etisk set evaluerer situationer.
33
Med brug af AI er man altså ikke garanteret objektive
resultater: Man får resultater, der er præcis lige så gode
som de data, algoritmen trænes på og fodres med.
3.3. ARBEJDSKULTUR OG LEDELSE
Skal AI implementeres til gavn for medarbejdere og
borgere, så kræver det et fokusskifte væk fra økonomisk
effektivisering og kortsigtede automatiseringsgevin-
ster til et fokus på at skabe merværdi for borgeren og
for medarbejderne. Det handler bl.a. om at se den nye
teknologi som en del af et organisatorisk forandrings-
projekt. Ledelseslaget i den offentlige sektor må i langt
højere grad end i dag se digital udvikling som en del af
kerneopgaverne. Det kræver at man sætter sig i fører-
sædet i udviklings- og indkøbsfasen og stiller krav til de
systemer, der købes ind. Det er forvaltningens fagper-
sonale, der ved, hvilke data, der er nyttige og hvilke ud-
fordringer, der skal løses. Man skal definere sine behov,
men ikke nødvendigvis løsningen.
“Vi er som topchefer nødt til at gå forrest, vi er nødsa-
get til at blive inviteret eller invitere os selv ind i denne
her udvikling. For ellers må vi bare konstatere, at det
er andre, der løber med at sælge os viden ad hoc”
Kim Herlev Jørgensen,
kommunaldirektør, Fredensborg Kommune
“Vi drukner i data – Jeg tror rigtig mange offentlige
ledere kæmper for at sige, hvad er det lige nøjagtig vi
skal bruge og hvad er det, der giver værdi… Man får en
hel pakke (fra en leverandør, red.), man kan hverken
vælge noget til eller fra, man kan ikke vælge at købe en
del af pakken, selvom man kun har behov for den del.
Man skal købe det hele hver eneste gang og så bruger
vi kun den del, vi skal bruge af det. Så prøver vi selv at
sætte det op på en måde, hvor vores medarbejdere får
et interface der gør, at de kun har det, de skal bruge.”
Stine Johansen, kommunaldirektør, Helsingør
Med brug af AI er man altså ikke
garanteret objektive resultater:
Man får resultater, der er præcis
ligeså gode som de data, algorit-
men trænes på og fodres med.
“Det er meget lidt indflydelse vi som offentlig myn-
dighed, og dem, der bruger systemerne, faktisk har på
systemudviklingen. Det er systemudviklernes ønske
om hele tiden at forfine og forbedre deres systemer,
som faktisk driver det her frem.”
Kim Herlev Jørgensen,
kommunaldirektør, Fredensborg Kommune
19
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
Nøglen til at få det fulde udbytte af nye teknologier er
først og fremmest, at der blandt ledere og medarbejde-
re er en fælles forståelse af, at nye teknologier også skal
skabe kvalitative forbedringer for borgere og brugere,
samt være en vej til at skabe et mere udviklende arbejde
for medarbejderne.
Et nøglegreb er medarbejderinddragelse. Medarbej-
dernes bidrag og engagement er afgørende for, at den
offentlige forvaltning kan gennemføre organisatorisk
og teknologisk forandring. Engagementet kommer, når
medarbejderne inddrages og anerkendes som en udvik-
lingsressource i modsætning til at blive efterladt med en
bekymring for at miste jobbet. Inddragelse er med til at
skabe motivation og nysgerrighed, som er den allervig-
tigste faktor for, at digitale udviklingsprojekter lykkes.
De faglige kompetencer skal bringes i spil på en ny måde
og det kræver nysgerrighed, kreativitet, kritisk tænkning,
kommunikation, problemløsning og samarbejde.
“Jeg oplever, at berøringsangsten overfor teknologi
er faldende.”
Stine Johansen, kommunaldirektør,
Helsingør Kommune
Det forudsætter både viden og nye praktiske færdighe-
der at få AI inddraget som en del af arbejdsprocessen
og kompetenceudvikling sker ikke af sig selv. Arbejds-
pladsen og selve digitaliseringsprocessen skal være en
central læringsarena. Ledelsen skal skabe rum til, at med-
arbejderne arbejder med de konkrete teknologier og
autentiske problemstillinger - og at de samarbejder og
lærer af hinanden. Formel uddannelse og teoretisk viden
spiller også en vigtig rolle, men den skal bringes aktivt i
spil i forhold til den konkrete problemstilling.
I SIRI-Kommissionens tidligere undersøgelser har det
stået klart, at det ikke er teknologierne, som af sig selv
skaber værdi og forandring. Ledelsesmæssigt skal man
være opmærksom på, at gevinstrealiseringen sker i et
samarbejde mellem ledere og kompetente medarbejde-
re og at medarbejderne er en ressource og skal kunne se
den nye teknologi som et værdiskabende redskab.
34
“En del ledere ser ikke den digitale og teknologiske
udvikling som en integreret del af deres kerneopgave
endnu. Det er fortsat noget, man når til, når de andre
opgaver er håndteret. Det gør det svært for medarbej-
derne at vide, om ledelsen er interesseret i området
og dermed vil der sandsynligvis ikke være den store
fokus på, hvordan digitalisering (og data) kan medvir-
ke til at løfte kerneopgaven”
Eik Møller, kommunaldirektør,
Ballerup Kommune
Implementering af AI kræver, at ledelsen ændrer strategi
i forhold til styring af opgaver, da den del af opgaveløs-
ningen, der handler om databearbejdning, vil være ude
af menneskehænder og blive overtaget af algoritmer. Et
konkret forslag er, at oprette en MR-afdeling, en Machine
Ressource afdeling, ved siden af HR-afdelingen, som dels
evaluerer AI-løsninger på lige fod med MUS-samtaler,
dels ser på de etiske udfordringer ved samarbejdsrela-
tionen mellem AI-systemerne og medarbejderne.
35
“Innovation trives bedst de steder, hvor der er høj
grad af psykologisk tryghed og tillid folk i mellem,
fordi så føler man ikke at man risikerer noget ved at
komme med en skæv ide.”
Eik Møller, kommunaldirektør,
Ballerup Kommune
Det er nødvendigt at skabe en kultur for, at fagpersoner
involveres og eksempelvis kan stille spørgsmålstegn
ved AI-modellerne og måske ovenikøbet have et forum
til at søge råd og have en faglig diskussion, når man
oplever at være uenig med de forslag og anbefalinger,
algoritmerne kommer med. Det kræver både en sikker
faglighed, men også god forståelse af kunstig intelligens
at gå imod en algoritmisk anbefaling. I en undersøgelse
foretaget af Københavns Universitet oplever socialråd-
giverne det som en udfordring, at deres faglighed bliver
underkendt. Det skal derfor være tydeligt, hvordan
algoritmen fungerer, så den kan forstås og udfordres af
både sagsbehandlere og borgere.
36
En del af udfordrin-
“Hvad gør den gode leder? Lad vær med at tale så
meget om, hvorfor vi skal arbejde med teknologi, men
begynd selv at gøre det. Begynd at spørge efter det
og begynd at interessere dig for det i dialogerne med
medarbejderne.”
Eik Møller, kommunaldirektør,
Ballerup Kommune
Nøglen til succesfulde digitaliseringsprojekter handler
med ledelsesmæssige øjne grundlæggende om at skabe
organisatorisk forankring og orkestrere en forandrings-
proces, hvor man eksperimenterer og lærer løbende.
20
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0021.png
gen er, at den enorme computerkraft i AI-softwaren,
som gør det muligt at bearbejde store mængder data
og finde hidtil uopdagede mønstre, udfordrer medarbej-
dernes motivation, mandat og mod. Der sker dermed
en forskydning af magtforholdet mellem computeren
og fagmedarbejderen og det får betydning, når med-
arbejderen før eller siden står i et dilemma mellem
algoritmens bud på en årsag eller løsning og fagmedar-
bejderens egen vurdering.
37
Derfor er medarbejderens
handlekraft som menneske, organisationens lydhørhed
og konstant evaluering af algoritmernes bidrag vigtig for
at sikre en ordentlig implementering af AI til en offentlig
forvaltning med høj kvalitet i sagsbehandlingen.
”Med blackbox-problematikken sker det også en kul-
turdrejning, en udfordring af embedsmandens rolle.
Når jeg står overfor byrådet, så er min ekspertise, at
jeg altid kan forklare, hvordan tingene hænger sam-
men. Sådan er rollen jo for mange af os embedsmænd.
Med algoritmer vil vi ikke altid være i stand til at for-
klare sammenhængene, så man begynder at pille ved,
hvilken rolle vi har som ansatte i en offentlig myn-
dighed. Derfor vil brug af algoritmer også medføre en
drøftelse af, hvad det betyder for roller og ansvar.”
Sarah Gaarde,
økonomi- og arbejdsmarkedsdirektør,
Vejle Kommune
I sundhedssektoren forsker man i syntetiske data til at
finde nye behandlingsmuligheder ved at analysere store
mængder sundhedsdata. De originale sundhedsdata
bliver kørt igennem et matematisk program, som tilføjer
støj til datasættet, så de personhenførbare oplysnin-
ger ikke længere fører tilbage til en konkret person. De
syntetiske data bibeholder stadig sammenhænge og
spredning, så de forbliver statistisk valide. Formålet er, at
sundhedsdata fra enkeltpersoner hjælpe mange andre
patienter uden at deres datasikkerhed bliver kompro-
mitteret. Der forskes p.t. i at sikre, at dataene ikke er
personhenførbare.
38
3.5. VÆRKTØJER
Dataetisk Råds konsekvensvurderinger
Dataetisk Råd har udviklet et værktøj, som skal hjælpe
virksomheder med at bruge dataetik i praksis. Værktøjet
indeholder en 5-trins guide, som skal øge kendskabet til,
hvordan man arbejder med dataetik og hvilke spørgs-
mål, der er relevante at stille sig selv og andre i konkrete
dataetiske problemstillinger. Modellen består af fem trin:
Trin 1 - Identificer hvordan du håndterer data i dit projekt,
og hvad dit overordnede formål er, Trin 2 – Analyser
hvilke hensyn, der taler for og imod din databehandling,
Trin 3 – Afvej modstående hensyn, Trin 4 – Beslut hvilke
hensyn, der vejer tungest, Trin 5 – Evaluer de dataetiske
konsekvenser løbende.
39
Det digitale etikkompas
Det digitale etikkompas er et værktøj udarbejdet af
Dansk Design Center, Industriens Fond og Dansk Industri
i samarbejde med en række partnere. Formålet er at
uddanne små og mellemstore virksomheder (SMV) i,
hvordan man anvender designetisk tænkning, metoder
og redskaber. Derudover kan værktøjet styrke SMV’er-
nes konkurrenceevne gennem udvikling af produkter
og formidling, som tager udgangspunkt i designetisk
tænkning.
40
Dataetisk Råds værktøj til samkøring af data
Værktøjet har til formål at understøtte den etiske dimen-
sion af forholdet mellem på den ene side fordelene ved
at samkøre data ved brug af nye teknologier i den offent-
lige forvaltning og på den anden side borgernes grund-
læggende rettigheder, retssikkerhed og andre relevante,
grundlæggende samfundsmæssige værdier. Formålet
med værktøjet er at offentlige myndigheder gør sig de
nødvendige overvejelser forud for beslutninger om
samkøring af data ved brug af nye teknologier. Værktøjet
består af et vurderingsskema og en konsekvensanalyse.
41
3.4. GODE EKSEMPLER - GOD PRAKSIS
Den offentlige sektor ligger inde med store mængder
data, som ikke indeholder personfølsomme data, eller
hvor borgernes data er aggregerede eller syntetiske. Her
er der muligheder for at sætte turbo på både en effektiv
indsats mod politiske mål som for eksempel en grøn-
nere kommune og på erfaringsopsamling om kvalitets-
sikring af data, opbygning af databaser og deling af data
nationalt og internationalt.
Samtidig er det muligt at arbejde med tendenser og for-
udsige behov blandt større borgergrupper uden at skulle
stå til ansvar for at håndtere en lang række persondata
korrekt. Ved at benytte anonymiserede registerdata fra
Danmarks Statistik på et aggregeret niveau, kan man få
et billede af kommunens kommende behov, eksempel-
vis på ældreområdet og et fingerpeg om, hvor mange
penge kommunen skal afsætte og hvor mange med-
arbejdere kommunen skal bruge for at kunne løfte en
opgave, uden at det kan spores, hvilke borgere, der får
brug for hjælp.
21
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
BEGREBER BRUGT I RAPPORTEN
Kunstig intelligens / AI:
Et systems evne til at tilegne, behandle
og anvende viden og/eller færdigheder. Et af de største og mest
afgørende områder indenfor kunstig intelligens er maskinlæring
(machine learning).
Maskinlæring
handler om at få maskiner (computere og robotter)
til at lære af deres erfaring inspireret af den måde, mennesker lærer
af erfaringen. Et eksempel er at træne lærende modeller, herun-
der neurale netværk, til at blive bedre til at genkende forskellige
egenskaber ved data, f.eks. billeder, tekst og video. Der findes også
relativt simple teknikker indenfor recommendation-systemer,
som hører under maskinlæring. Et recommendation-system er en
algoritme, som udvælger ting som den tror en bruger kunne være
interesseret i, f.eks. film på Netflix eller bøger på Amazon.
Algoritmer:
Algoritmer baserer sig på matematiske modeller.
Forenklet sagt, kan man tænke på det som en opskrift på, hvad
computeren skal gøre. Det er f.eks. komplicerede algoritmer, der
muliggør at computere kan omdanne vores talte sprog til et sprog,
som computeren kan handle på. Dette sker eksempelvis når man
beder sin telefon om at finde billeder af en skuespiller eller svare på,
hvor langt, der er til månen.
Bias:
Maskinlæringssystemer gennemgår store mængder data og
”lærer” af at finde mønstre i data, som kan understøtte beslutnings-
tagen. Men så snart data er historiske, ukomplette eller ikke er
repræsentative for en specifik befolkningsgruppe, så vokser risikoen
for ukorrekt beslutningstagen og dermed fejlslutninger, der eksem-
pelvis kan være diskriminerende. For at forhindre bias forsøger man
at arbejde med dokumenterede og balancerede træningsdata, hvor
der laves test på datasættet for at sikre, at det ikke giver (proxy-)
effekter, der kan være diskriminerende mod bestemte grupperinger.
Transparens / gennemsigtighed:
Transparens, eller gennemsig-
tighed, defineres som adgang til oplysninger, som fører til viden.
I værktøjer som AI menes der, at det skal være let at gennemskue
baggrunden for de handlinger og beslutninger der bliver taget.
Prædiktive algoritmer:
Prædiktive algoritmer er en måde man kan
analysere data til brug for at forudse eksempelvis adfærd, udfald,
og begivenheder. Analysen sker på baggrund af statistiske modeller.
På den måde fungerer prædiktive modeller som værktøjer til at for-
udse og forebygge på baggrund af mønstre i aktuelle og historiske
data.
Algoritmisk profilering:
En algoritmisk profileringsmodel er en
computerdrevet matematisk formel, som på baggrund af statistiske
data eller variabler vurderer, om et objekt – eksempelvis en borger
– har en bestemt egenskab – for eksempel om borgeren er
berettiget til et tilskud. Profileringsmodeller udvikles og ”trænes” på
baggrund af store mængder data, blandt andet om allerede afgjorte
sager på området. Modellerne kan analysere og behandle data og
finde sammenhænge og mønstre, der er langt mere komplekse,
end hvad mennesker er i stand til, og de kan derfor være en stor
ressource i sagsbehandlingen. Men brugen af modellerne stiller
også store krav til blandt andet datakvalitet, testprocedurer og
tilsynet med modellens udvikling og resultat.
Samtykke:
Et samtykke er at sige ja. Men et gyldigt samtykke i
datasammenhæng skal være frivilligt, specifikt, informeret og utve-
tydigt. Et samtykke skal kunne trækkes tilbage og data skal kunne
slettes. Et reelt samtykke forudsætter, at samtykket afgives frivilligt.
Et valg er ikke frivilligt, hvis borgeren indgår en risiko ved ikke at
afgive samtykke; f.eks. hvis nogle behandlinger eller medicin kun er
tilgængeligt, hvis man afgiver samtykke til datadeling.
Personfølsomme data:
En personoplysning er enhver form for
information, der kan henføres til en bestemt person, også selv
om personen kun kan identificeres, hvis oplysningen kombineres
med andre oplysninger. Personoplysninger kan for eksempel være
personnumre, registreringsnumre, et billede, et fingeraftryk, en
stemme, lægejournaler eller biologisk materiale, når det i praksis er
muligt at identificere en person ud fra oplysningerne eller i kombi-
nation med andre. Man siger, at oplysningen er "personhenførbar".
Anonymiserede persondata:
Oplysninger, der er gjort anonyme,
sådan at ingen fysiske personer kan identificeres ud fra oplysnin-
gerne eller i kombination med andre oplysninger, er ikke længere
beskyttet af databeskyttelsesreglerne. Det skyldes, at databeskyt-
telsesreglerne kun finder anvendelse, så længe oplysningerne kan
føres tilbage til en identificerbar eller identificeret fysisk person. Det
er en betingelse, at anonymiseringen er uigenkaldelig.
Syntetiske data:
Syntetiske data bliver skabt ved, at et originalt
datasæt køres igennem et matematisk program, som lægger støj
på datasættet på en måde, så de syntetiske data ikke kan henfø-
res til konkrete personer og samtidig bibeholder en spredning og
sammenhæng, som gør dem statistisk valide. Det giver mulighed
for at dele data uden at gå på kompromis med datasikkerheden. Der
forskes p.t. i, om det faktisk er muligt, at det kan gøres, så det bliver
umuligt at opspore ophavspersonerne.
Digitale rettigheder:
Med digitale rettigheder menes, hvordan
borgernes oplysninger skal behandles på nettet. Dette indebærer
for eksempel at offentlige institutioner, skal spørge om lov inden de
indsamler og bruger personfølsomme data. At de data som bliver
indsamlet, bliver opbevaret korrekt, samt at man til enhver tid kan
få oplyst hvilke data der er indsamlet om en, hvordan de er brugt og
at man kan kræve at de bliver slettet.
Black box:
En Black box opstår når en maskinlærings algoritme selv
finder løsningen på et problem eller selv tager en beslutning og
programmøren ikke har indsigt i, hvordan computeren er kommet
frem til resultatet.
Beslutningsstøttende værktøj:
Beslutningsstøttende værktøj er,
når en AI for eksempel hjælper sagsbehandlere ved at komme med
forslag til mulige løsninger, men overlader beslutningen til sagsbe-
handleren.
Beslutningsgenererende værktøj:
Et beslutningsgenererende værk-
tøj er, når en AI selv finder frem til en konklusion på en sag.
22
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0023.png
FODNOTER
Kilder:
1
DS/PAS 2500:1:2020 Kunstig intelligens, del 1: Gennemsigtighed
2
Analyse foretaget af IDA for SIRI-Kommissionen, februar 2022
3
Analyse foretaget af IDA for SIRI-Kommissionen, februar 2022
4
https://www.version2.dk/artikel/v2-undersoegelse-hver-tredje-
dansker-stoler-ikke-paa-kunstig-intelligens-offentlige-1092739
5
Interview med Sarah Gaarde, Økonomi- og Arbejdsmarkedsdirektør,
Vejle Kommune, 30. marts 2022
6
Analyse foretaget af IDA for SIRI-Kommissionen, februar 2022
7
Analyse foretaget af IDA for SIRI-Kommissionen, februar 2022
8
Marya Ahktar ”Transparens i det offentliges brug af maskinlæring”
samt Institut for Menneskerettigheder ”Når algoritmer handler –
Rettigheder og retssikkerhed i offentlige myndigheders brug af
profileringsmodeller”, 2021
9
Dansk Standard: DS/PAS 2500-1:2020 Kunstig Intelligens Del 1:
Gennemsigtighed
10
Analyse foretaget af IDA for SIRI-Kommissionen, februar 2022
11
Pernille Tranberg, ” Et datademokrati har individuel datakontrol”
12
https://dataforgoodfoundation.com/
13
https://polypoly.com/en-gb/
14
Analyse foretaget af IDA for SIRI-Kommissionen, februar 2022
15
Helene Friis Ratner ”Prædiktive algoritmer: Den forebyggende stat og
den risikoscorede borger” i ”Fra Velfærdsstat til Overvågningsstat –
Algoritmernes magt i den offentlige forvaltning”, red: Michael Jarlner
og Kim Escherich
16
Hvordan anvender vi bedst algoritmer og kunstig intelligens i vel-
færdssamfundet? (au.dk)
17
https://ida.dk/viden-og-netvaerk/idas-podcast/blinde-vinkler/
blinde-vinkler-10-ai-i-jobcentrene-hjaelpende-eller-stemplende
18
Fenger, Niels, 2019, Hvordan digitaliserer vi uden at skade vores
retsikkerhed?, Folketingets Ombudsmands beretning 2019
19
Se bl.a. https://ec.europa.eu/commission/presscorner/detail/da/
ip_21_1682
20
Rapporten ”Når algoritmer sagsbehandler – Rettigheder og rets-
sikkerhed i offentlige myndigheders brug af profileringsmodeller”
Institut for Menneskerettigheder, oktober 2021
21
Rapporten ”Når algoritmer sagsbehandler – Rettigheder og retssikker-
hed i offentlige myndigheders brug af profileringsmodeller”
Institut for Menneskerettigheder, oktober 2021
22
”Estland er kunstig intelligens en trold der skal tæmmes” Mandag
Morgen, 6. august 2019.
23
Helene Friis Rattner, i ”Fra velfærdsstat til overvågningsstat” i
”Fra Velfærdsstat til Overvågningsstat – Algoritmernes magt i den
offentlige forvaltning”, red: Michael Jarlner og Kim Escherich
24
Rapporten ”Når algoritmer sagsbehandler – Rettigheder og retssikker-
hed i offentlige myndigheders brug af profileringsmodeller”
Institut for Menneskerettigheder, oktober 2021
25
Dansk Standard, DS/PAS 2500-2:2020, Kunstig intelligens, Del 2:
Beslutningsstøttende anvendelse i offentlig sagsbehandling
26
Thomas Hildebrandt i https://ida.dk/viden-og-netvaerk/
idas- podcast/blinde-vinkler/blinde-vinkler-10-ai-i-jobcentrene-
hjaelpende-eller-stemplende
27
Institut for Menneskerettigheder ”Når algoritmer handler
– Rettigheder og retssikkerhed i offentlige myndigheders
brug af profileringsmodeller”, 2021
28
Institut for Menneskerettigheder ”Når algoritmer handler
– Rettigheder og retssikkerhed i offentlige myndigheders
brug af profileringsmodeller”, 2021
29
DS/PAS 2500-2:2020
30
https://www.reuters.com/article/us-amazon-com-jobs-
automation-insight/amazon-scraps-secret-ai-recruiting-to-
ol-that-showed-bias-against-women-idUSKCN1MK08G, samt
https://ida.dk/viden-og-netvaerk/idas-podcast/blinde-vinkler/
teknologi-kan-fjerne-fordomme-ved-rekruttering
31
Birgitte Kofod Olsen, Håndbog i dataansvarlighed, DJØF Forlag 2020
32
Dokumentarfilmen ”Coded Bias”, https://www.codedbias.com/
33
Thomas Ploug, Aalborg Universitet https://ida.dk/viden-og-netvaerk/
kunstig-intelligens/kunstig-intelligens-befinder-sig-i-en-diversitets-
krise
34
SIRI-Kommissionen i samarbejde med bl.a. Hanne Shapiro og Karsten
Frøhlich Hougaard, Teknologisk Institut. Se bl.a. https://ida.dk/om-ida/
siri-kommissionen/digitalisering-job-og-kompetencer, samt https://
ida.dk/om-ida/nyt-fra-ida/danskernes-digitale-kompetencer-skal-
loeftes
35
Galsgaard. Horst og Bolander, ”Implementering af Kunstig intelligens
kræver tværfaglig indsats”, debatindlæg ing.dk 10. august 2020
36
Thomas Hildebrandt i https://ida.dk/viden-og-netvaerk/idas-
podcast/blinde-vinkler/blinde-vinkler-10-ai-i-jobcentrene-
hjaelpende-eller-stemplende
37
Galsgaard. Horst og Bolander, ”Implementering af Kunstig intelligens
kræver tværfaglig indsats”, debatindlæg ing.dk 10. august 2020
38
Se f.eks. Syntetiske sundhedsdata kan sikre bedre forebyggelse og
behandling - Novo Nordisk Fonden og
https://sund.ku.dk/nyheder/2019/12/ny-bevilling-til-forskning-i-
syntetiske-sundhedsdata/
39
Dataetik - Sådan gør du | Dataetisk Råd (dataetiskraad.dk)
40
Det digitale etikkompas | Industriens Fond | Viden former fremtiden
41
https://dataetiskraad.dk/samkoering-af-data
23
DIU, Alm.del - 2022-23 (2. samling) - Bilag 35: Rapporten En fremtidssikret velfærdsstat med AI
2669877_0024.png
EN FREMTIDSSIKRET VELFÆRDSSTAT MED AI
Et ord som står mange gange i denne rapport er
TILLID.
At tillid til kunstig intelligens fra danskernes side er en
forudsætning for at brugen af kunstig intelligens bliver en succes. Hvis vores tillid er det allervigtigste, hvordan
opbygger og fastholder man den i så fald? Og har vi overhovedet grund til at have tillid?
Det undersøger journalist, Marie Høst i disse tre Techtopia Specials, lavet for SIRI-Kommissionen.
Hvad er tillid og hvad betyder det i forhold til AI?
Gæster:
Gert Tinggaard Svendsen,
Professor ved Institut
for Statskundskab på Aarhus Universitet.
Christian Ingemann,
Udviklingschef ved Tænketanken Mandag Morgen
Thomas Ploug,
Professor i Dataetik ved Institut for
Kommunikation og Psykologi på Aalborg Universitet
Vi dykker ned i en konkret case med brug at
kunstig intelligens til profilering af borgere, nemlig
ASTA algoritmen, som risikovurderer borgere for
langtidsledighed.
Gæster
Gitte Westh,
Arbejdsmarkedsrådgiver i Job- og
virksomhedsservice hos Lyngby-Taarbæk kommune
Asbjørn Ammitzbøll Flügge,
Ph.D-stipendiat ved Datalogisk Institut: Software,
Data, People & Society på Københavns Universitet.
Helene Friis Ratner,
lektor i uddannelsesvidenskab ved DPU
Gæster
Thomas Bolander,
professor ved Department of
Applied Mathematics and Computer Science på DTU
Thomas Damkjær Petersen,
medstifter af og formand for SIRI kommissionen
Lisbeth Bech-Nielsen,
medlem af folketinget
for SF som erhvervs, finans og IT-ordfører
ida.dk/viden-og-netvaerk/idas-podcast/techtopia
Læs mere om SIRI-Kommissionen på ida.dk/om-ida/siri-kommissionen
Layout og illustrationer: Bjarne Erick
Hvad er det egentlig kunstig intelligens kan - og
ikke kan. Hvordan maskinintelligens adskiller sig fra
menneskelig intelligens og hvordan arbejdsopga-
verne derfor helst skal fordeles?