Socialudvalget 2009-10, Sundhedsudvalget 2009-10, Udvalget vedrørende Det Etiske Råd 2009-10, Udvalget for Videnskab og Teknologi 2009-10
SOU Alm.del Bilag 110, SUU Alm.del Bilag 182, UER Alm.del Bilag 7, UVT Alm.del Bilag 89
Offentligt
785620_0001.png
785620_0002.png
785620_0003.png
785620_0004.png
785620_0005.png
785620_0006.png
785620_0007.png
785620_0008.png
785620_0009.png
785620_0010.png
785620_0011.png
785620_0012.png
785620_0013.png
785620_0014.png
785620_0015.png
785620_0016.png
785620_0017.png
785620_0018.png
785620_0019.png
785620_0020.png
785620_0021.png
785620_0022.png
785620_0023.png
785620_0024.png
785620_0025.png
785620_0026.png
Sociale robotterUdtalelse fra Det Etiske Råd
� Det Etiske Råd, 2010Grafisk tilrettelægning: Det Etiske RådIllustrationer: OncotypePublikationen kan læses og hentes på Det Etiske Råds hjemme-side, www.etiskraad.dk og www.homoartefakt.dk
INDHOLD
FORORD / 5SOCIALE ROBOTTER OG ETIK / 7Sociale robotter som relationsteknologi / 8Omsorgsrelationer / 9Foregivelsens etik / 12Når lærende robotter kan tage egne beslutninger / 14
DET ETISKE RÅDS ANBEFALINGEROM SOCIALE ROBOTTER / 161. Sociale robotter og velfærdsteknologi som del afomsorg, terapi og pleje / 162. Produktansvar og sociale robotter / 183. Når sociale robotter foregiver at have et indre liv / 204. Sociale robotter, overvågning og privathed / 22
Sociale robotter /3
FORORD
I efteråret 2007 lancerede Det Etiske Råd en folkelig debat om nye in-telligente teknologier, der bringer den menneskelige biologi og maski-nelle artefakter ganske tæt på hinanden. Det skete med websitet www.homoartefakt.dk, og debatten udfoldede sig herefter i medierne og veden lang række debatarrangementer over hele landet. Efter den folkeligedebat præsenterer Rådet nu sin holdning i to udtalelser – én om socialerobotter og én om cyborgteknologi (integration af IT-teknologi med denmenneskelige hjerne og centralnervesystemet). Dette er Rådets udtalel-se om sociale robotter. Udtalelsen kan læses selvstændigt, men kan ogsåsuppleres ved at se film og læse baggrundsartikler på www.homoarte-fakt.dk.Udtalelsen er vedtaget på Det Etiske Råds møde den 17. november 2009.Den er udarbejdet af en arbejdsgruppe bestående af Klavs Birkholm(formand), Peder Agger, Thomas G. Jensen og Peter Øhrstrøm. ThomasLaursen fra Det Etiske Råds Sekretariat har været projektleder og pen-nefører for udtalelsen.
Peder AggerFormand for Det Etiske Råd
Lise Wied KirkegaardSekretariatschef
Sociale robotter /5
SOCIALE ROBOTTER OG ETIKDen teknologiske udvikling af robotter omfatter ikke længere blot indu-strirobotter, der kan programmeres til at løse veldefinerede og komplekseopgaver inden for fremstillingen af produkter som biler, mobiltelefoner,køleskabe, m.m.Nu og i fremtiden vil robotter også være at finde midt imellem mennesker– til brug for hjælp og støtte i sociale relationer. Robotter til anvendelse isociale og følelsesmæssige relationer er under udvikling i forskningsla-boratorier i Europa, USA og Japan. Ved siden af industrirobotterne findesder dermed en anden type robotter, ’sociale robotter’ der kan interagere,med mennesker i dagligdags situationer. Især i Japan er adskillige af disse’sociale robotter’ i dag tilstede på markedet: der findes fx en receptio-nistrobot, ligesom man kan erhverve sig forskellige robotter, der kan værebehjælpelige med løsning af opgaver i hjemmet.I Danmark har den offentlige debat om ’sociale robotter’ de senere år væ-ret præget af en interesse for den japanske robotsæl Paro, der fra 2007 blevintroduceret i enkelte danske plejehjem.1Robotsælen kan betragtes somet interaktivt og intelligent kæledyr. Dens mange følesensorer og densindbyggede kunstige intelligens2betyder, at den reagerer med pibendelyde af tilfredshed eller utilfredshed på brugerens berøringer og tale. Denbliver dermed genstand for, at brugeren kan udvise omsorg, og det har enberoligende og terapeutisk effekt på nogle demente mennesker.Den aktuelle og potentielle anvendelse af sociale robotter er særligt in-den for fire områder: omsorgssektoren, hjælp i hjemmet, underholdningog militær anvendelse. I Danmark er menneskers første møder med ro-botter sket i plejesituationer (fx robotsælen Paro) og i underholdnings-situationer (fx livagtige robotdukker, der kan svare på tiltale). Men an-vendelse af robotter til hjælp i hjemmet, en egentlig ”butlerrobot” er nok,heller ikke så langt ude i fremtiden. I Japan kan man allerede i dag køberobotter, der kan hjælpe med børnepasning og med simple manuelle op-gaver som at række brugeren genstande (fx løfte ting for mennesker, derhar begrænset bevægefrihed).12Læs mere om robotsælen Paro på www.homoartefekt.dk: http://www.homoartefakt.dk/in-dex.php?article=6&bw=512Læs mere om begrebet kunstig intelligens på www.homoartefakt.dk: http://www.homoarte-fakt.dk/index.php?article=6&bw=512
Sociale robotter /7
Allerede nu er det altså sådan, at der opstår nye relationer mellem men-nesker og maskiner. Det er relationer, som giver anledning til flere for-skellige etiske overvejelser, uafhængigt af, hvordan det i fremtiden vil gåmed udviklingen af kunstig intelligens og den selvstændighed eller auto-nomi, som det måske dermed er muligt at udstyre robotter med.En del forskere inden for kunstig intelligens mener, at robotter i fremti-den vil kunne udvikles til væsener, der har bevidsthed, følelser og viljenæsten som mennesker. Alle er enige om, at det ikke er lige om hjørnet,og at der er utallige videnskabelige og ingeniørmæssige udfordringer påvejen frem mod et sådant mål. Nogle mener, det er principielt umuligt,men der er også mange forskere, der mener, at det er principielt muligt.3Men som sagt eksisterer der allerede nu relationer mellem mennesker ogrobotter, som indeholder etiske problemstillinger - også selv om nuvæ-rende sociale robotter helt sikkert ikke er væsener, der kan siges at haveet indre liv med følelser, bevidsthed og fri vilje.Denne udtalelse fra Det Etiske Råd handler først og mest om de socia-le robotter og de etiske aspekter, der opstår som følge af, at robotternefungerer som relationsteknologi. Robotter som relationsteknologi er al-lerede virkelighed og vil i stigende grad blive hverdagsteknologi, uansethvor langt det vil være muligt at gå i skabelsen af robotter med kunstigintelligens og handlemæssige frihedsgrader.Relationsteknologi opfattes i det følgende som teknologi, der har virkningog anvendelighed i kraft af, at mennesker indgår i en følelsesmæssig ellersocial relation til teknologien. Man kan sige, at den sociale og følelses-mæssige interaktion mellem brugeren og det relevante stykke teknologierselvebrugergrænsefladen, når der er tale om relationsteknologi: Ro-botsælen Paro virker kun beroligende på brugeren, hvis brugeren fak-tisk giver omsorg til Paro og lader sig påvirke følelsesmæssigt af den. Ogen butlerrobot i hjemmet vil kun virke optimalt, hvis den kan ’begå’ sigblandt mennesker og overholde intimitetsgrænser, høflighedsregler, mv.
Sociale robotter som relationsteknologiDer er i hvert fald tre væsentlige etiske spørgsmål forbundet med brugenaf sociale robotter som relationsteknologi.3Læs mere om robotter og og den filosofiske diskussion om forholdet mellem sjæl og legemepå www.homoartefakt.dk: http://www.homoartefakt.dk/index.php?article=6&bw=512
8/ Sociale robotter og etik
1. For det første er der spørgsmålet om, hvad det vil betyde for omsorgs-relationer og intimitetsgrænser, når robotter og mennesker begynderat indgå i sociale og følelsesmæssige relationer med hinanden.2. For det andet kan man spørge, i hvilket omfang det i sig selv er etiskproblematisk, hvis sociale robotter i stadigt stigende omfang kan lignemennesker i udseende, kommunikation og adfærd og dermedfore-give,at de er selvstændigt følende og agerende væsener, altså ’somom’ de er menneskelige væsener.3. For det tredje er der spørgsmålet om, hvad det vil betyde, hvis socialerobotter kan udstyres med evnen til at tage ved lære og handle mednogle frihedsgrader – det vil sige vælge én handling mellem flere al-ternativer, hvor valget ikke kan siges at være entydigt bestemt af densindbyggede system og de algoritmer og den øvrige teknologi, somproducenten har udstyret den med.
OmsorgsrelationerInden for de senere år er begrebet ’velfærdsteknologi’ begyndt at fyldenoget i den offentlige debat både nationalt og internationalt, og statenhar afsat tre milliarder kroner til investering i arbejdskraftbesparendeteknologi (herunder velfærdsteknologi) indtil 2015. Udvikling af vel-færdsteknologi kan være et godt teknologisk satsningsområde for Dan-mark, blandt andet fordi Danmark har en veludbygget plejesektor (pleje-hjem, hjælpemidler i hjemmet, m.m.). Håbet er, at Danmark kan indtageen førende rolle i udvikling af velfærdsteknologi, og at velfærdsteknologikan være med til at gøre omsorgen og den fysiske pleje af ældre til enbedre og måske mere værdig oplevelse for ældre i fremtiden. Derudoverkan det forbedre plejepersonalets ofte fysisk krævende arbejdsforhold.Sidst, men ikke mindst, er udvikling af velfærdsteknologi motiveret af de-mografiske forhold: Der bliver i fremtiden færre til at pleje flere ældre, såindførelse af teknologi, der kan reducere mængden og omfanget af denbasale fysiske pleje, kan på den baggrund forekomme oplagt.Begrebet velfærdsteknologi dækker dog over langt mere end sociale ro-botter. Det omfatter alle typer avanceret teknologi, der kan hjælpe denældre til at være mere selvhjulpen end ellers. Det kan fx være toiletter,hvor rengøring foregår automatisk, sådan at der ikke er behov for en ple-jer i denne situation. Det samme kan man forestille sig med badekabinerog lign., og mange sådanne ting er allerede under udvikling eller i pro-duktion. Samme teknologier kan også tænkes at bidrage til, at flere ældrekan blive i deres eget hjem og være mere selvhjulpne og dermed uafhæn-gige af andre menneskers hjælp til rengøring eller personlig pleje.Sociale robotter /9
Det mest iøjnefaldende etiske problem ved anvendelse af denne type tek-nologi – inklusive egentligt sociale robotter som robotsælen Paro – hand-ler om, hvorvidt disse ting vil glide ind i ældres hverdag som et supplementtil eller erstatning for menneskelig kontakt. Det er en relevant bekymring,også selvom de konkrete forsøg med anvendelsen af robotsælen Paro pådanske plejehjem blandt andet viser, at de ældre demente menneskernæsten udelukkende fastholder interessen for Paro, hvis de hjælpes tildet af personalet. Det vil sige, at den sociale robot Paro er eksempel på enteknologi, der måske ikke indebærer faren for at blive anvendt til at sparemenneskelige ressourcer.Man kan måske se en etisk fordel i, at man ikke i samme grad som nu ernødt til at modtage andre menneskers hjælp til personlig hygiejne, somoverskrider den enkeltes intimitetsgrænser. Argumentet kan dernæstvære, at der bliver mere overskud til egentligt værdifuldt menneskeligtsamvær (som fx samtale og det bare at være til stede), når familiemed-lemmer og ansatte plejere ikke længere skal bruge så meget tid på at hjæl-pe den enkelte med personlig hygiejne og lign.På den anden side er der bekymring for, at indførelsen af velfærdstekno-logi - og måske især indførelsen af sociale robotter som Paro eller butler-robotter - vil medføre en formindsket menneskelig kontakt og en svagerefornemmelse af forpligtelse til at yde omsorg mellem mennesker, der el-lers har følelsesmæssige og familiære bånd til hinanden. Bekymringener så at sige, at sociale robotter vil træde i stedet for den menneskeligekontakt snarere end at supplere den.Det er åbenlyst, at sociale robotter kan overtage nogle af de hjælpefunk-tioner, som mennesker hjælper hinanden med i dag. Dermed kan de æn-dre på billedet af hvilke hjælpehandlinger, der hører til den kategori, somvi opfatter som mellemmenneskelig omsorg og kontakt. Hvis det fx bliverstadigt mere normalt, at velfærdsteknologi og herunder robotter tager sigaf den kropslige hygiejne og pleje, som er forbundet med intimsfæren, såvil vores billede af, hvad der eregentligmenneskelig omsorg formentligtogså blive ændret. Måske vil menneskelig omsorg så mere specifikt ogmere eksklusivt blive opfattet som samvær og samtale.Etisk set vil man kunne opfatte denne situation som et fremskridt elleret tilbageskridt. Nogle vil mene, at det giver den enkelte mere frihed ogværdighed, hvis han eller hun ikke er tvunget til at vænne sig til hjælpfra andre mennesker på områder, der udfordrer intimsfæren. Andre vil
10/ Sociale robotter og etik
mene, at der vil gå noget tabt fra den menneskelige omsorg, hvis men-nesker afskærmes for meget fra hinandens kropslige sårbarhed og i forhøj grad afvænnes fra den kropslige kontakt, der måske er en uundværligdel af omsorgen mellem et menneske, der har brug for hjælp og et andetmenneske, der giver hjælpen.Opsummerende er der to typer af etiske spørgsmål knyttet til sociale ro-botter i omsorgsrelationer:For det første er der spørgsmålet om, hvorvidt sociale robotter i omsorgs-relationer vil supplere eller erstatte menneskelig kontakt.Men for det andet er der spørgsmålet om, hvilke hjælpeaktiviteter detoverhovedet vil være ønskeligt, at den sociale robot overtager eller sup-plerer den menneskelige omsorgsrelation med.Sociale robotter, der som robotsælen Paro er terapeutiske, tilbyder måskenoget helt andet, end mennesker (eller kæledyr) kan tilbyde. Den ældredementes samvær med Paro virker både aktiverende og beroligende, ogmåske virker den også egentligt behandlende, fordi den dementes hjernetrænes og holdes i ’bedre stand’ end ellers muligt. I danske forsøg medSociale robotter /11
robotsælen Paro har der ikke indtil videre været en klar skelnen mellemhenholdsvis almindeligt aktiverende brug og egentlig genoptræning afellers tabte funktioner i hjernen. Der er dermed endnu ikke evidens foren helbredende virkning, mens der er erfaringer, der siger, at nogle ældredemente kan have gavn af Paro i den forstand, at deres humør og livskva-litet hæves, mens de er aktiveret med robotsælen.Det er givet, at den form for kontakt ikke kan tilbydes af mennesker ellersågar af rigtige kæledyr. For det er kun en robotsæl som Paro, der findersig i at blive nusset og aet og talt til i præcis den tid, som den demente æl-dre har brug for. Det separate etiske spørgsmål, der rejses her, er snarerespørgsmålet om, hvorvidt denne terapi virker, og i hvor høj grad den i såfald bør prioriteres i forhold til andre terapeutiske tiltag. Endelig er der såspørgsmålet om, hvorvidt ’det foregivne’ i situationen i sig selv udgør etetisk problem? Er det med andre ord problematisk, at den terapeutiskeeffekt afhænger af et slags ’bedrag’: nemlig at robotsælen er interesseret idin omsorg og i en eller anden forstand er mere end en ting?
Foregivelsens etikBåde forskning og vores hverdagserfaring fortæller os, at der ikke skalmeget til, for at der kan opstå følelsesmæssige relationer mellem menne-sker og de ting, vi omgiver os med. Der skal heller ikke meget til, for at vibegynder at relatere til ting omkring os, ’som om’ disse ting havde et indreliv, der minder om vores eget.Vi kender besjælingen af ting, vi omgiver os med, fra børns leg med deresdukker eller hvad som helst, der kan optræde som aktører i deres fanta-sifulde leg. Men den avancerede robotforskning har også længe erkendt,at det er menneskets evne til at besjæle og personificere genstande, somman må bygge på, hvis man vil have robotter, der skal indgå i sociale sam-menhænge med mennesker. Denne erkendelse er nu i flere årtier blevetudviklet på tværs af ingeniørmæssig kunnen og socialpsykologiske stu-dier.Et tidligt eksempel på denne trend i robotforskningen er den sociale ro-bot ”Kismet” – en sjovt udseende torso med store læber, øjne og ører.Kismet er konstrueret til at studere især børns interaktion med robotten,og den er konstrueret ud fra den erkendelse, at nogle få markante trækved robottens udseende og dens måde at reagere på er afgørende for, omden indbyder til, at mennesker danner følelsesmæssige relationer til den.Kismet ligner ikke et menneske, men den har nogle menneskelige træk
12/ Sociale robotter og etik
kombineret med katteagtige ører. Kismet kan rette sit blik imod ting, ogden har forskellige indbyggede skalaer for, hvornår den skal udvise tegnpå kedsomhed eller spænding. Interessant er det også, at Kismet ikke harnogen sprogopfattelse, men kan reagere på tonefaldet i en stemme, uan-set hvilket sprog, der tales. Det kaldes prosodi og svarer til små børn ellerkæledyr, der instinktivt opfatter ros eller forbud alene ud fra tonefaldet.Kismet såvel som den terapeutiske robotsæl Paro er altså eksempler på,at der trods alt ikke skal en fuldt udviklet kognitiv kunstig intelligens til,før det er muligt for mennesker at indgå i en form for social eller følelses-mæssig relation til robotten. Spørgsmålet er nu, om det i sig selv er et etiskproblem, at der opstår sådanne relationer mellem mennesker og maski-ner og måske især, at sådanne relationer er baseret på et element af ”fore-givelse”: Den sociale robotforegiverat have bestemte følelser eller indretilstande som respons på interaktionen med mennesket, og dette skaberen fornemmelse af, at man står over for et væsen, der har krav på omsorg,og som man kan kommunikere med. Er denne foregivelse et etisk pro-blem, også selv om ingen søger at bedrage brugeren af robotten til at tro,at robotten er noget mere end en maskine?Der er i hvert fald to mulige etiske bekymringer forbundet hermed. Denførste bekymring handler om selve ubehaget ved elementet af snyd ogved, at det ikke er helt værdigt at tilbyde især børn og ældre demente (detvil sige i varierende grad skrøbelige og umyndige mennesker) rene simu-lationer af sociale relationer, som ellers kun opstår i omsorgen mellemmennesker og andre levende væsner. Man kan sige, at det er en umid-delbar bekymring, som mange mennesker instinktivt reagerer med, nårde præsenteres for sociale robotter som fx robotsælen Paro. Bekymringenindeholder to elementer: At der er tale om snyd i forhold til den ’ægte’vare, og at den relation man får til maskinen, i sig selv er uværdig for etmenneske at indgå i.Den anden etiske bekymring handler mere om, hvilke afledte virkningerdenne relationsteknologi kan få for opfattelsen af mellemmenneskeligerelationer. Måske er det nemlig sådan, at en udbredt anvendelse af relati-onsteknologier som Paro og robotdukker, mv. kan medføre uønskværdigeforandringer af menneskers måder at opfatte og behandle hinanden på.Et forskningsprojekt har vist, at brugere af Sonys tidligere markedsførterobothund Aibo har en tendens tilbådeat opfatte robothunden som enteknologisk dimsogsom et væsen med indre mental tilstand. Det skyl-des, at Aibo vækker følelser hos dem, som om den var et levende væsenSociale robotter /13
(uagtet at de altså – adspurgt – naturligvis udmærket er klar over, at Aiboer en maskine). Lige så klart er det imidlertid, at brugerne ikke opfatterAibo som et væsen, der har et moralsk krav på omsorg og hensyntagen.Flere forskere peger på, at det udviklingspsykologisk kan være et pro-blem, hvis især børn optrænes med en idealtype for sociale relationer,som indebærer, at den ene ’part’ (der simuleret er et væsen med indre fø-lelser) kan vække følelser hos den anden part (mennesket, barnet), menuden at der til følelserne er knyttet en gensidig moralsk omsorgsrelation.Bekymringen er, at dette kan overføres til relationen mellem menneskerog skabe øget narcissisme eller egoisme, hvor den ene part knytter sig fø-lelsesmæssigt til den anden part uden at føle en moralsk respekt for denandens omsorgsbehov.
Når lærende robotter kan tage egne beslutningerAllerede i 1942 formulerede science fiction-forfatteren Isaac Asimov trerobotlove. De tre love var tænkt som regler, der kunne sikre, at robotter,som træffer afgørelser og beslutninger på egen hånd, ikke kan handle påmåder, der er uhensigtsmæssige for mennesker. Kort sagt går lovene udpå, at en robot ikke må skade et menneske, robotten skal adlyde men-nesker med mindre det er i konflikt med den førstnævnte lov, og endeligskal robotten beskytte sin egen eksistens, såfremt dette ikke er i konfliktmed de to første love (læs mere her: http://www.homoartefakt.dk/index.php?article=6&bw=512).Med udgangspunkt i de tre love skrev Isaac Asimov en række historier,som imidlertid viser, hvor svært det er at fastsætte simple regler for enetisk set hensigtsmæssig adfærd. Robotter, der skal tage stilling til megetkomplekse etiske spørgsmål, er da også et stykke ude i fremtiden. Ikkedesto mindre eksisterer der forskning og faglig diskussion om problem-stillingen vedrørende sikkerhed og teknologi i forhold til robotter, der vilkunne træffe beslutninger og handle på egen hånd.Det skyldes, at fremtidige muligheder, som i dag kan lyde som ren fiktion,naturligvis er relevante i en etisk diskussion, såfremt der faktisk er taleom muligheder, der ifølge fagpersoner på feltet vil kunne realiseres på etgivet tidspunkt. Men det skyldes også, at sociale robotter allerede nu ogi nær fremtid vil kunne have handlingsmæssige frihedsgrader, der giverrelevante etiske overvejelser, også selv om disse frihedsgrader ikke på no-gen meningsfuld måde kan sidestilles med det, vi opfatter som frihed idet menneskelige handlingsliv.
14/ Sociale robotter og etik
For uanset hvad man ellers måtte lægge i begrebet om menneskelig selv-bestemmelse og frihed, står det klart, at personlige og sociale robotterselv inden for en overskuelig fremtid vil være i stand til at tage ved læreaf deres erfaringer – fx som ’butler’ i et hjem – og i dette miljø vil de havenogle frihedsgrader i forhold til, hvilket valg, der træffes i en konkret si-tuation.Robotten vil naturligvis ikke have uanede muligheder, men tanken medsociale robotter er, at de skal være udstyret med sanser og algoritmer, dergør dem i stand til at tage ved lære på samme måde, som børn tager vedlære – det vil sige ved, at et menneske viser eller forklarer, hvordan manudfører en given handling (fx rækker én en genstand).Det umiddelbart håndgribelige etiske problem i forbindelse med læren-de robotter er spørgsmålet om ansvar. For hvis en robot er i stand til atlære gennem sin interaktion med det givne miljø, hvem har så ansvaretfor udfaldet af de ’nye’ handlinger, som robotten udfører og som den ikkefuldstændigt deterministisk er programmeret til at udføre på en præcistforeskrevet måde.Kan man sige, at producenten kan holdes ansvarsfri som følge af selve detforhold, at robotten er udstyret med læringsprogrammer, der skal gøredens opgaveløsning fleksibel og dermed ikke helt forudsigelig? Hvem haransvaret, hvis robotten fejlfunktionerer set ud fra den hensigt, som robot-tens ejer havde med en given ordre eller handling? Hvis fx robotten for-veksler en given genstand med en anden genstand, som ødelægges, hvisder gribes for hårdt om den – eller værre endnu, volder skade på et men-neske -, og hvis dette kan tilskrives, at den tilfældigvis har gennemgået enuhensigtsmæssig læring – hvem har så ansvaret, når nu fleksibel og ikkeforudsigelig læring er selve pointen med robottens måde at fungere på?Det afgørende spørgsmål er her, om man mener, det er en nødvendig be-tingelse for tilskrivelse af ansvar, at den, der har ansvaret, også må havefuld kontrol over hele situationen. Det er imidlertid ikke tilfældet. For-ældre er i nogen grad ansvarlige for deres umyndige børns handlinger,uanset om forældrene kan siges at være direkte skyld i disse handlingereller ej. På samme måde har arbejdsgivere, fx en fabriksejer, et ansvar forarbejdsulykker, også selvom han ikke er direkte skyld i dem, og selv omhan eventuelt ikke kunne forudsige eller forhindre dem. Endelig har pro-ducenter et ansvar for at overholde sikkerhedskrav, mv., sådan at bruge-ren af produktet ikke udsættes for skade ved anvendelsen af produktet.Sociale robotter /15
DET ETISKE RÅDS ANBEFALINGEROM SOCIALE ROBOTTERDet Etiske Råd mener, at udviklingen af robotter til brug blandt menne-sker som hjælp i deres hverdag, som underholdning eller som terapi er enudvikling, der med tiden vil indebære flere og flere etiske overvejelser, ogheriblandt sådanne, som det på nuværende tidspunkt er svært at forud-sige og beskrive. Derfor er det vigtigt, at robotteknologien løbende følgesog kommenteres ud fra en etisk synsvinkel. De følgende kortfattede an-befalinger bør betragtes som Rådets etiske retningslinjer for nogle af demest centrale og mest aktuelle problemstillinger inden for sociale robot-ter og relationsteknologi. Anbefalingerne vil kunne bruges af politikereog andre aktører på området som gode punkter at have in mente, når dereventuelt skal lovgives på området, og når nye teknologier udvikles.
1. Sociale robotter og velfærdsteknologi som del afomsorg, terapi og plejeDet Etiske Råd er positivt indstillet over for anvendelsen af sociale robot-ter som fx robotsælen Paro i sammenhænge, hvor en sådan teknologi kanindgå som supplement til den øvrige pleje og terapi. Det Etiske Råd sy-nes også, man bør fremme velfærdsteknologi, der kan overtage dele afden kropslige pleje, som for mange mennesker kan virke overskridendei forhold til intimitetsgrænser, og som desuden kan medvirke til at lettedet nogle gange fysisk hårde arbejde, som plejepersonalet ellers må levemed.Det er dog afgørende vigtigt, at disse teknologier aldrig bliver indførtsom en erstatning for egentlig menneskelig kontakt, samvær og omsorg.Tværtimod mener Det Etiske Råd, at det bør tilstræbes at anvende tekno-logierne med henblik på, at de menneskelige ressourcer kan reserverestil ydelsen af former for omsorg, som i langt højere krav kræver egentligmenneskelig kontakt – nemlig omsorg gennem ømhed, berøring, sam-vær og samtale. I samme åndedrag må Rådet imidlertid slå fast, at dengode omsorg ofte hænger sammen med handlinger, der er bundet til ennødvendighed eller afhængighed: ømhed, berøring, samvær og samtaleer omsorgsformer, der ofte opstår ud af, at der er et behov for hjælp i formaf støtte til kropslig pleje, at komme rundt, etc.Det Etiske Råd mener, at teknologiudvikling på dette område bør værepræget af princippet om at fremme mulighederne for menneskelig kon-
16/ Det Etiske Råds anbefalinger
om sociale robotter
takt, og ikke træde i stedet for menneskelig kontakt med ting, der efterdenne målestok altid vil være helt utilstrækkelige erstatningsprodukter.Det Etiske Råd mener, at udviklingen af sociale robotter og relationstek-nologi til anvendelse over for sårbare borgere bør følges opmærksomt un-der inddragelse af etiske hensyn. Det Etiske Råd peger derfor på vigtighe-den af, at egentlige forskningsforsøg med teknologier som fx robotsælenParo forelægges til godkendelse hos det videnskabsetiske komitésystem.På plejehjem kan sociale robotter som robotsælen Paro indføres som endel af de øvrige almindelige tilbud. Men et projekt skal godkendes, hvisder er tale om egentlig forskning, hvor der foretages systematiske obser-vationer af interaktionen mellem mennesker og relationsteknologienmed henblik på at måle teknologiens terapeutiske effekt. Det Etiske Rådmener, det er gavnligt, at forskningsforsøg gennemføres, og Rådet menerogså, det er gavnligt, at sådanne forskningsforsøg i de videnskabsetiskekomiteer løbende vurderes ud fra etiske hensyn. Denne proces giver envis sikkerhed for, at sociale, etiske og samfundsmæssige hensyn har væretovervejet, før teknologier implementeres fx i dagligdagen på plejehjem.Der er efter Rådets opfattelse en oplagt risiko for, at teknologier som fxrobotsælen Paro og velfærdsteknologi til kropspleje fx i situationer medstram økonomi vil blive anvendt til at mindske den menneskelige omsorgfrem for udelukkende at supplere den. Dette behøver ikke være udtryk forond vilje. Men en teknologi, der er indført med gode intentioner om atvære et supplement, er snublende nær at anvende til bekvemmelighed ogSociale robotter /17
som ren nødforanstaltning især i tilfælde af, at der faktisk er for få plejereeller for få penge til at lønne plejere med. Derfor mener Det Etiske Råd, aten introduktion af disse former for teknologi i plejesektoren kan øge nød-vendigheden af at cementere og udvikle stærke faglige og menneskeligestandarder i omsorgssektoren – standarder, som fortsat skal sikre, at derer fokus på at yde den bedst tænkelige menneskelige omsorg og dermedhjælpe de ældre til at have et så godt liv som muligt.Det Etiske Råd anbefaler desuden, at beslutninger om at indføre robot-teknologi i en konkret plejesammenhæng træffes af et forum, hvori ogsåde plejekrævende er repræsenterede, og hvor etiske overvejelser indgår ibaggrunden for beslutningen.Det Etiske Råd er således overvejende positivt indstillet over for anven-delsen af avanceret teknologi til brug for følelsesmæssig terapi og til brugfor aflastning af den kropslige pleje, så længe der er tale om et supple-ment til menneskelig kontakt eller endnu bedre, hvis det kan virke somen styrkelse af den menneskelige kontakt i den forstand, at teknologienfrigiver flere menneskelige ressourcer til omsorg i form af ømhed, sam-vær og samtale. Dog vil en frasortering af den menneskelige kontakt i denkropslige pleje uden tvivl medføre en form for sterilisering – en mang-lende sans for og agtelse for den kropslige kontakts betydning. Blandt an-det derfor bør man være opmærksom på, at der bevares en god balancemellem teknologisk assisteret pleje og den manuelt, menneskelige pleje.Det Etiske Råd mener derfor også, det i vid udstrækning bør overlades tilde plejekrævendes egen afgørelse, om de ønsker den ene eller den andenform for pleje.
2. Produktansvar og sociale robotterPå lidt længere sigt må man som omtalt forvente, at sociale robotter vilkunne bruges som ”butlere” i hjemmet eller i institutioner, hvor der ermennesker med behov for fysisk hjælp. Sociale robotter vil kunne værefleksible i deres opgaveløsning, og de vil i højere og højere grad kunnetilpasse sig den enkelte brugers eget miljø og vaner, mv.Denne fleksibilitet hænger nøje sammen med, at sociale robotter vil væreudstyret med evnen til at lære nye handlinger, som ikke er programme-ret forud for robottens ibrugtagning i hjemmet. Evnen til at lære er byg-get ind i robotten, men de enkelte handlinger er handlinger, som ikke erforudsigelige i detaljer, idet det netop er pointen, at brugeren skal kunnelære robotten at gøre de handlinger, som netop den enkelte bruger har
18/ Det Etiske Råds anbefalinger om sociale robotter
behov for i sit særlige miljø. Det er robotforskernes velunderbyggede vi-sion, at læring skal kunne foregå på en måde, der meget ligner den måde,mennesker lærer på – det vil i første omgang sige, at man simpelthen vi-ser robotten, hvordan man gør (for eksempel tager en karton ud af køle-skabet og sætter den på spisebordet).De sociale robotters evne til at lære skaber et etisk problem, der handlerom ansvar: Kan virksomheden bag robotten siges at have ansvaret for enfejl, som robotten foretager, hvis selve handlingen ikke er programmeretind i robotten på forhånd? Der er naturligvis ikke tale om, at robotter kanlære hvad som helst på et hvilket som helst abstraktionsniveau. Robot-ten er begrænset af rækkevidden af sin ’indre’ kunstige intelligens (tale-genkendelse, visuel genkendelse, forståelse af rumlighed, efterabning afsociale spilleregler mv.) såvel som af sit ’ydre’ (det mekaniske bevægeap-parat og sanseapparat).Dermed er det heller ikke meget spektakulære fejlhandlinger, som mani første omgang fokuserer på. Det handler basalt set om robottens evnetil fx at genkende genstande og koble brugerens navne for bestemte gen-stande til de rigtige genstande ’ude i virkeligheden’ og reagere på beske-der på en hensigtsmæssig måde. Man kan forestille sig, at robotten bliverbedt om at gribe om en genstand, men i stedet kommer til at gribe hårdtfat om en persons arm, måske fordi vedkommende står det sted, hvorgenstanden plejer at være og robotten ikke visuelt er i stand til at skelnedet ene fra det andet. Hvem har ansvaret for sådanne fejl, når hver hand-ling og hver funktion ikke er bygget detaljeret ind i robottens design frastarten? Er det producenten, eller er det den eller de, der har taget robot-ten i brug, som har ansvaret?Det Etiske Råd mener, at den delvise uforudsigelighed af en lærende ro-bots handlinger under alle omstændigheder bør betyde, at der fastsæt-tes præcise og restriktive regler for, hvilke rent fysiske ’evner’ man måudstyre en robot med, som skal kunne markedsføres til brug i hjemmet.Derudover bør der naturligvis også være krav om, at den sociale robotssystem for læring, sansning og bevægelighed er testet op mod nogle vel-konsoliderede faglige standarder. Disse forholdsregler bør sikre, at denfleksible og lærende robot ikke kan volde væsentlig materiel eller person-skade, selv ikke i de tilfælde, hvor den så at sige har ’lært noget forkert’.Den sociale robots delvise afhængighed af en konsistent læring giver des-uden grund til ekstra vagtsomhed og ekstra sikkerhedsregler i forhold tilanvendelsen hos mennesker, der er demente eller på anden vis ikke erfuldt ud fornuftshabile.Sociale robotter /19
3. Når sociale robotter foregiver at have et indre livDet er en væsentlig del af ideen med sociale robotter, at de er nemme atomgås, og at de kan udføre deres rolle og arbejde ved at kommunikerenaturligt med mennesker på måder, der minder om de måder, menne-sker kommunikerer med hinanden på. En social robot har ikke et tasta-tur, hvor brugeren skal taste ind, hvad brugeren gerne vil have gjort. Ensocial robot skal derimod kunne reagere med parathed, når brugeren kig-ger hen på robotten og eventuelt tiltaler den. En social robot skal ogsåkunne aflæse tegn på brugerens emotionelle sindstilstand ved med denssensorer at afkode brugerens verbale sprog, kropssproget, kropstempe-ratur mv. – og den skal kunne reagere passende på disse signaler (fx ikkeforstyrre brugeren, hvis det ser ud som om, han eller hun ikke vil forstyr-res).Dette grundlæggende teknologiske koncept medfører, at interaktionsfor-men mellem mennesker delvist kopieres og overføres til forholdet mel-lem menneske og maskine (den sociale robot). Man kan sige, at socialrobotteknologi målrettet arbejder på – i forskellige grader – at forstærkeden almindeligt forekommende menneskelige tendens til imaginært atpersonificere og levendegøre genstande i omverdenen. Sociale robotter,der enten delvist ligner mennesker eller kæledyr, udstyres med meka-nismer, der foregiver at være umiddelbare udtryk for indre følelser – fxsimple ansigtsudtryk, fokuserende øjne eller veltilfredse pibelyde som
20/ Det Etiske Råds anbefalinger om sociale robotter
hos den terapeutiske robotsæl Paro (se tidligere). Teknologien lægger påden måde op til, at brugeren ’spiller spillet’ og i sine handlinger og inter-aktion med den sociale robot faktisk fortolker de ydre tegn hos robottensom noget, der modsvares af en følelsesmæssig tilstand.Er der noget etisk problematisk i dette ’spil’ eller denne foregivelse af, atder er et gensidigt følelsesmæssigt eller interpersonelt forhold mellemmennesket og maskinen? Det Etiske Råd mener, at der i hvert fald er toetiske aspekter af denne foregivelse, som både robotfirmaerne og detmodtagende samfund bør overveje:For det førstevil foregivelsen af emotionelle tilstande og indre liv hos ro-botten fungere i et kontinuum fra en slags bedrag til det rene ’spil’ hvor,brugeren er helt bevidst om robottens status som et maskinelt lege- elleromsorgsinstrument. Graden af bedrag vil afhænge af brugerens alder ogaf brugerens livsomstændigheder. Det er med andre ord sådan, at man ihøjere grad fører brugeren bag lyset, når der er tale om børn eller voksnemennesker, der ikke er fornuftshabile (fx svært demente mennesker). DetEtiske Råd mener ikke, at elementet af snyd eller foregivelse nødvendig-vis er et problem – heller ikke når brugeren er et menneske, der ikke erfornuftshabil. Dette under forudsætning af, at omgangen med en socialrobot som fx Paro har en gavnlig virkning på brugerens velbefindende.Dog mener Det Etiske Råd, at de ansvarlige personer (fx plejere af æl-dre demente) hele tiden bør vurdere, om brugerens værdighed krænkes:hvordan påvirkes brugerens identitet og ikke mindst, hvordan påvirkesde sociale relationer rundt om brugeren? Det bør fx vurderes, om denstærkt demente ældre bliver barnliggjort og set ned på af de andre, fordivedkommende er optaget af en maskine og måske i en sådan grad, at ved-kommende end ikke er klar over, at der er tale om en maskine.For det andetkan man spørge, om en udbredt anvendelse af sociale ro-botter og relationsteknologi kan føre til en afstumpning af det menneske-lige følelsesliv. Dette etiske spørgsmål er uafhængigt af bedragsaspektet,fordi spørgsmålet handler om, hvorvidt selv den blotte leg eller bevidsteforegivelse af en følelsesmæssig relation til sociale robotter i sidste endekan have uønskværdige psykosociale konsekvenser.Det er med tanke på en risiko for afstumpning af det menneskelige fø-lelsesliv, at nogle robotforskere og debattører mener, der bør være reglerfor, hvordan man behandler robotter, der på forskellig vis går direkte indi en følelsesmæssig relation til mennesker og som måske med tiden ogsåSociale robotter /21
ligner et menneske temmelig meget i udseende og adfærd. For hvis manvænner sig til at behandle disse menneskelignede maskiner efter for-godtbefindende, hvordan vil det så gå med respekten for og empatien formennesker af kød og blod?4Som tidligere nævnt har brugerundersøgelser vist, at brugerne er følel-sesmæssigt engageret i de sociale robotter. Der kan opstå uheldige psy-kologiske følgevirkninger, fordi robotten på meget realistiske måder ef-terligner et forhold til et menneskeligt væsen eller et kæledyr, mens selveforholdet dog stadigt er et ensidigt forhold, hvor kun den ene part fårnoget ud af det. Man kan bekymre sig for, at dette skaber præcedens foregocentrerede sociale relationer også blandt mennesker. Relationer, hvorden ene er ude efter at få noget følelsesmæssigt ud af det, uden at føle sigmoralsk ansvarlig for den andens velbefindende.Denne bekymring og diskussion vedrørende sociale robotter minder omde bekymringer, som man kan fremføre vedrørende en udbredt anven-delse af (voldelige) computerspil, avatarer og forskellige ’kunstige iden-titeter’ i sociale netværk på Internettet. Kan disse nye relationer og kom-munikationsformer føre til en forråelse af menneskelige relationer? DetEtiske Råd har ikke noget klart svar på spørgsmålet.Rådet vil dog pege på, at lovgivere og det øvrige samfund bør være op-mærksomme på udviklingen og eventuelt regulere markedet især påde områder, hvor sociale robotter vil blive markedsført over for børn ogunge. Her kan der vise sig et oplagt behov for at beskytte børn og ungemod en psykosocialt uønskværdig udvikling.
4. Sociale robotter, overvågning og privathedTeknologier til overvågning og registrering af menneskers handlinger ogforbrugsmønstre er som bekendt allerede vidt udbredte i samfundet. Dereksisterer også mange forskellige reguleringer af, hvad og hvornår der måovervåges, hvilke oplysninger der må registreres, og hvordan oplysningermå gemmes af myndigheder. mv.5Den etiske debat om privatlivets fredover for forskellige nyttighedsvurderinger af overvågning og registreringaf personlige oplysninger er derfor heller ikke nogen ny debat. Det er hel-ler ikke sådan, at indførelsen af sociale robotter i den henseende rejsernye etiske spørgsmål i forbindelse med privatlivets fred og beskyttelse af45Se fx: http://www.homoartefakt.dk/index.php?article=6&bw=512Persondataloven er den mest centrale lovgivning i Danmark, når det handler om beskyttelseaf personfølsomme oplysninger mv.
22/ Det Etiske Råds anbefalinger om sociale robotter
personlige oplysninger. Det er derimod sådan, at brugen af sociale robot-ter i hjemmet eller på institutioner er en teknologianvendelse, der kanindebære de klassiske etiske overvejelser vedrørende privathed og eks-ponering af personlige oplysninger for uvedkommende.En social robot kan opnå information om sin bruger på to forskellige må-der. Det er information, der særligt aktualiserer spørgsmålet om overvåg-ning og fortrolighed, hvis disse informationer gives videre til andre syste-mer og dermed potentielt til andre mennesker, myndigheder, m.m. Denene form for informationer svarer til de informationer, som en almindeligcomputer kan rumme: faktuelle informationer om personnumre, adres-seoplysninger, helbredsoplysninger, fotos, bankoplysninger og en langtrække andre personfølsomme data.Den anden form for informationer, som en social robot kan tænkes at in-deholde, er lidt mere særegen for denne type teknologi: en velfungerendesocial robot skal kunne lære og registrere brugerens vaner, forbrugsmøn-stre mv. For eksempel med det formål at kunne bestille nye madvarerover nettet, kontakte apoteket eller lign. Teknologiens muligheder ermange på lidt længere sigt. Robotten vil på den måde lagre informatio-ner, der mere har karakter af adfærdsinformationer og information omSociale robotter /23
brugerens handlemønstre. Denne type information svarer lidt til denforbrugsanalyse, der automatisk sker, når man fx handler ind på nettetved store indkøbssteder (for eksempel bøger og musik). Hvis brugerentillader det, afleverer computeren en såkaldt ’cookie’ til internetbutikken,hvilket gør det muligt at fremsende målrettede tilbud baseret på tidligereadfærd. Den type adfærdsbaserede informationer vil i høj grad være no-get, som en social robot vil kunne indeholde og sende videre til andresystemer som fx internetbaserede butikker, myndigheder mv. – men densociale robots lærende omgang med sin bruger gør det potentielt muligtat lagre informationer om mere intime ting (toiletbesøg, antal besøg afandre mennesker, antal timer fjernsynskiggeri på en bestemt kanal, etc.).Det Etiske Råd mener, at sociale robotter bør udstyres med en så begræn-set tilgang til eksterne informationssystemer som muligt – og der børvære høje sikkerhedskrav i forbindelse med en social robots adgang tilInternettet og andre systemer i de tilfælde, hvor robotten er af en type, dervil kunne lagre detaljeret viden om personfølsomme oplysninger (hvadenten der er tale om statiske data eller adfærdsdata). På den anden sideer det klart, at en social robot vil være betydelig mere nyttig, hvis den i højgrad kan kommunikere elektronisk med for eksempel tjenester på inter-nettet.Det Etiske Råd mener, at sociale robotter i vid udstrækning bør være om-fattet af samme type regulering, som i dag gælder for computere og inter-netsystemer. Her er der sikkerhedskrav til softwareudviklere, udbydere afinternetadgang og udbydere af internettjenester som fx butikker og ban-ker, som skal sikre, at man kan anvende Internettet uden at løbe storerisici for, at personfølsomme oplysninger spredes uden brugerens videnherom. Med en computer og internetadgang er det til gengæld sådan, atbrugeren naturligvis kan lagre præcis de informationer om sig selv, somhan eller hun har lyst til. Og det er også sådan, at brugeren kan vælge atvideregive disse oplysninger til dem, han eller hun selv ønsker at videre-give dem til fx via internettet. Men Det Etiske Råd mener, der kan væregrund til en øget forbrugerbeskyttelse i forhold til de sociale robotter,som teknisk set vil blive i stand til at samle og lagre informationer om ad-færd og helbred. En regulering af området kunne for eksempel tage højdefor, at sikkerhedsniveauer må være forskellige alt efter typer af informa-tion. Brugeren kan måske have mulighed for at videregive en opgave tilrobotten om at holde køleskabet ajour med madvarer og i den forbin-delse måske tillade, at forbrugsmønstre kan videregives til tjenester, derså via robotten kan informere brugeren om tilbud på lignende madvarer
24/ Det Etiske Råds anbefalinger om sociale robotter
mv. (blot for at nævne et tænkt eksempel). Derudover kan man forestillesig, at robotten teknisk set kun har mulighed for sådan en funktionali-tet i forbindelse med et snævert felt af oplysningstyper. Når det kommertil oplysninger, som robotten kommer til at indeholde som følge af denløbende omgang med sin bruger (fx oplysninger om medicinindtag, læ-sevaner, interesser, etc.), kan man forestille sig, at robotten ’tvinges’ til atopføre sig som en almindelig computer – det vil sige her er det kun muligtat videregive oplysningerne, hvis brugeren manuelt betjener en bruger-grænseflade på robotten eller betjener sin computer, til hvilken robottenpå anmodning sender oplysningerne videre til.
Sociale robotter /25
Det Etiske RådRavnsborggade 2-4. 4. sal2200 København NTlf: 35 37 58 33E-mail: [email protected]www.etiskraad.dk