Hei, det ser ut som du bruker en utdatert nettleser. Vi anbefaler at du har siste versjon av nettleseren installert. Tekna.no støtter blant annet Edge, Firefox, Google Chrome, Safari og Opera. Dersom du ikke har mulighet til å oppdatere nettleseren til siste versjon, kan du laste ned andre nettlesere her: http://browsehappy.com
Hopp til innhold
Robot teknologi- mann som tar på en digital skjerm

Tema: Ledelse og utvikling

Robotetikk

Tekst av John M. Raaheim Publisert: 22. juni 2016

Roboter vil snart overta jobbene våre hevder noen. Det er i så fall ikke pent gjort. Nærmest uetisk. Men kan algoritmer og roboter være etiske eller uetiske? Her er det delte meninger.

Three Laws of Robotics

Allerede i 1942 formulerte science-fiction forfatteren Isaac Asimov det han kalte Three Laws of Robotics i novellen Runaround: 1) En robot må ikke skade et menneske, eller gjennom passivitet, tillate at et menneske blir skadet. 2) En robot må adlyde ordrer gitt av mennesker med unntak for slike ordre som er i konflikt med første lov. 3) En robot må beskytte seg selv så langt handlinger for slik beskyttelse ikke kommer i konflikt med første og andre lov (her fritt oversatt).

En ny verden av roboter

Asimovs roboter var av det slaget vi i dag kanskje ville kalle humanoider. Roboter med armer og bein, kropp og hode, og egne tanker. De robotene som truer jobbene våre i dag er ikke nødvendigvis produsert med slike ekstremiteter. Vi snakker om roboter i helse og omsorg, om autonome selvkjørende biler, militære autonome roboter og om roboter og systemer for de fleste andre formål i samfunnet slik som den algoritmen som for noen år siden førte til at den amerikanske yrkessjåføren John H. Gass fikk førerkortet inndratt. En ansiktsgjenkjenningsalgoritme forvekslet Gass med en annen. I USA skanner man rutinemessig førerkort for å avsløre mennesker som opptrer med falske navn eller som har ugyldige førerkort.

Kan en autonom omsorgsrobot med oppgave å passe på at en pasient får medisinene i riktig dose til rett tid ta ansvar når pasienten ikke vil ta medisinen sin? Kan en autonomt selvkjørende personbil velge etisk i en situasjon der mennesker, i bilen eller utenfor, uansett vil bli skadet? Kan en autonom armert militær robot gjøre «riktige valg» stilt overfor aksepterte militære mål delvis skjult blant sivilister.

Kan roboter være etiske?

Nei mener Robert Norman i Philosophy Now. Å delegere etiske beslutninger til roboter er uetisk fordi roboter tenker i binærkode, de tenker ikke etisk. Dataprogrammer og algoritmer vil aldri kunne prosessere kompleksiteten i selv enkle etiske dilemmaer. Med- og motforestillingene mennesker må forholder seg til i slike situasjoner lar seg ikke kalkulere. En robot kan ikke forholde seg til inkompatible forestillinger, den ser bort fra disse.

Etikk som logikk

Andre mener at logikk ligger bak våre etiske valg og at dette er et godt utgangspunkt for å programmere roboter. Men de logisk baserte programmeringsspråkene har problemer med å konkludere når man stilles overfor hypotetiske scenarier som er avgjørende når man skal forholde seg til etiske dilemmaer. Men hva med deep learning, maskinlæring, der robotene lærer selv og av hverandre? Kan slik utvikling løse utfordringene? Her er det ikke en programkode man kan gå etter for å finne ut hvorfor roboten handlet som den gjorde og det blir en utfordring i seg selv. Vil mennesker kunne stole på slike roboter?

Ny intelligent «rase» 

Britiske forskningsråd for ingeniørvitenskap og humaniora har introdusert et sett prinsipper for robotdesignere. Disse slår fast at roboter er produkter produsert av mennesker. De kan ikke ansvarlig gjøres. Ansvaret må menneskene bak dem ta. Men hva om vi kommer til et stadium der kunstig skapte tenkende maskiner når et nivå der vi må ta stilling til spørsmålet om en ny intelligent «rase» er «født»? Vil vi da en gang måtte ta stilling til om disse »maskinene» har krav på moralsk verdighet, rettigheter og lover som beskytter dem?

Les også