Regissør Tonje Hessen Schei diskuterer iHuman med Inge Harkestad på Lerchendalkonferansen 2020. Fotograf: Jens Petter Larsen

IKT-bloggen

Kommentar: iHuman og kunstig intelligens

Tekst av Inge Harkestad 12. mars 2020

Dokumentarfilmen iHuman tar opp mange problemstillinger rundt kunstig intelligens. Men hva er egentlig kunstig intelligens?

Av Inge Harkestad og styret i Tekna Big Data

Hva er egentlig kunstig intelligens? Og hvilke problemstillinger reiser denne teknologien?

Dokumentarfilmen iHuman, som Tekna nylig satte opp en spesialvisning av i Oslo, tar opp mange interessante og viktige problemstillinger rundt kunstig intelligens.

Brad Smith, president i Microsoft, sier i iHuman at vi er den første generasjonen som må besvare enkelte grunnleggende spørsmål om kunstig intelligens, blant annet hva denne teknologien vil bety for samfunnet. Og som også Max Tegmark understreker i filmen, dreier mange av disse spørsmålene seg ikke nødvendigvis om teknologi, men om hvilket samfunn vi ønsker.

Det er likevel en fordel å ha en basisforståelse av hva kunstig intelligens er og ikke er. For å underbygge en god debatt, vil vi her prøve å rydde litt i begreper og oppfatninger.

Hva er egentlig kunstig intelligens?

Det finnes mange ulike definisjoner, men Store norske leksikon sier det slik: Kunstig intelligens er informasjonsteknologi som kan justere sin egen aktivitet og derfor tilsynelatende fremstår som intelligent. Dette er ikke en perfekt beskrivelse, men det danner et godt utgangspunkt.

Skal man se litt mer i dybden på kunstig intelligens, er det et bredt fagfelt som består av flere ulike teknologier. Det omfatter blant annet datasystemer basert på regler (algoritmer) og datasystemer basert på data og såkalt maskinlæring.

I iHuman sier Max Tegmark at kunstig intelligens er ikke-biologisk intelligens, og at intelligens er evnen til å oppnå mål. Vi er litt bekymret for at en beskrivelse som «evne til å oppnå mål» kan gi feile assosiasjoner. Alle datasystemer kan brukes til å oppnå mål, men kun ved å være et verktøy. I den forstand er ikke kunstig intelligens veldig annerledes enn andre verktøy.

Det er greit å være obs på at kunstig intelligens slik den er i dag – såkalt smal eller spesialisert kunstig intelligens – ikke er en slags data-kopi av menneskelig intelligens. Veldig mye av det vi i dag forbinder med biologisk intelligens, som å tenke, forstå og ta initiativ, er langt utenfor rekkevidden til hva datasystemer kan gjøre.

iHuman snakker om generell kunstig intelligens. Hva er det, og hvor langt unna er det?

Generell kunstig intelligens er, slik det beskrives i iHuman, et datasystem som kan gjøre en hvilken som helst oppgave minst like godt som et menneske. Er det mulig å lage dette, og i så fall når?

Hva som vil skje i fremtiden, vet selvfølgelig ingen. Men i 2017 svarte 352 eksperter på spørsmål om når de trodde kunstig intelligens ville overgå mennesker på nær sagt alle områder. I snitt mente de at det ville ta 45 år før det var 50 % sjanse for at dette kunne skje (asiatiske eksperter lå lavere, med 30 år). Andre undersøkelser viser også lang tidshorisont. Og merk at dette ikke er tidspunktet der det vil finnes generell kunstig intelligens, men der ekspertene tror det er 50–50 sjanse for at det kan finnes. Husk for øvrig at eksperter ikke nødvendigvis er bedre til å spå fremtiden enn andre.

Uansett er det sannsynlig at enkelte «delvis generelle» former kunstig intelligens vil utvikles før vi får systemer som kan matche mennesker på alle oppgaver. For eksempel kan det godt hende at et datasystem vil passere den såkalte Turingtesten om relativt få år, ved å kunne nettprate så godt at et menneske ikke klarer å si sikkert om det er et menneske eller en maskin på andre siden.

Er generell kunstig intelligens farlig for oss?

I filmer fremstilles gjerne generell kunstig intelligens som en trussel mot menneskeheten. Men generell kunstig intelligens trenger ikke være et onde. Hvis vi klarer å gjøre datasystemene bedre til generell problemløsning, vil det utvide verktøykassen vår og sette oss i stand til å gjøre mye bra.

Man bør også være obs på at generell kunstig intelligens ikke er det samme som bevisste, selvstendige og superintelligente skapninger. Datasystemer med kunstig intelligens er fortsatt bare datasystemer, ikke tenkende vesener.

I all overskuelig fremtid er det usannsynlig at kunstig intelligens vil bli en trussel slik science-fiction-filmene viser. Som kunstig-intelligens-eksperten Andrew Ng har sagt: «Worrying about evil AI killer robots today is a little bit like worrying about overpopulation on the planet Mars.» På et tidspunkt kan selvfølgelig både bevisste, kunstig intelligente skapninger og overbefolkning på Mars bli reelle problemer, men det er veldig mye annet vi bør bekymre oss om før den tid.

I stedet for å bekymre oss for generell kunstig intelligens som ikke eksisterer i dag, bør vi heller fokusere på misbruk av den såkalte smale eller spesialiserte kunstige intelligensen. Kunstig intelligens kan være en viktig støtte for oss mennesker, forutsatt at det brukes på en etisk og ansvarlig måte og som et støtteverktøy slik at mennesker fortsatt har det siste ordet.

Kan kunstig intelligens lære av seg selv?

Visse former for kunstig intelligens, kalt maskinlæring, kan lære av seg selv innenfor gitte rammer som er satt av utviklerne og teknologien som er valgt. For ordens skyld har ikke datasystemer egen vilje og kan ikke selv «bestemme seg for» å lære noe. De kan heller ikke «forstå» det de lærer. For eksempel kan et datasystem lære å sortere bilder av hunder og katter ved å se på pikselmønstre, men det vil ikke dermed forstå eller kunne utlede noe om hva hunder og katter faktisk er.

Tradisjonelt har man bestemt hvordan et datasystem skal fungere gjennom å gi det instrukser i form av nøyaktig beskrevne fremgangsmåter (algoritmer). Med maskinlæring blir i stedet noe av funksjonaliteten bestemt ved at man mater inn treningsdata – kjente eksempler, tidligere erfaringer, simuleringer eller lignende. Dette kan blant annet gjøres ved å tilpasse et såkalt nevralt nettverk til dataene. Et slik nettverk kan ses på som en stor statistisk / matematisk modell.

Merk at nettverket ikke «selv» tar beslutninger, det tar kun inn data og gir ut data. Eventuell «adferd» blir programmert på den tradisjonelle måten, altså ved å lage algoritmer som sier hva systemet skal gjøre basert på inn- og utdata og prioritering (vekting) av ulike parametere.

Maskiners læringsprosess fungerer litt annerledes enn den menneskelige. Læringen bruker litt andre mekanismer, krever mer ressurser, og skjer i utgangspunktet ikke av seg selv.

Det er mulig å la datamaskiner utlede sammenhenger og koblinger som ikke var definert i utgangspunktet – også med andre metoder enn maskinlæring (eksempelvis ontologier og logisk resonnering). Selv om dette ikke kan løse oppgaver av uendelig kompleksitet, kan det med hell brukes til smalere oppgaver. Dette kan fint kombineres med resultater av maskinlæringsmodeller. 

Hvordan fungerer egentlig maskinlæring?

Ofte inneholder treningsdataene en «fasit» laget av mennesker; da benyttes det som kalles veiledet læring. Hvis det finnes nok data, kan datasystemet bli godt nok trent til å overgå mennesker. For eksempel kan et datasystem som er trent opp på millioner av ansiktsbilder, bli bedre til å gjenkjenne ansikter enn mennesker flest.

Iblant bruker man treningsdata som ikke inneholder en fasit, såkalt ikke-veiledet læring. Poenget med dette er ofte å analysere dataene for å finne mønstre.

Det finnes også en form for maskinlæring hvor datasystemet «på egen hånd» finner ut hvordan det best kan utføre en oppgave, såkalt forsterket læring. Det må da dreie seg om et avgrenset problemområde hvor datasystemet kan prøve og feile og selv avgjøre om ulike handlinger gir gode eller dårlige resultater. Et eksempel er å spille brettspill som sjakk: Det er lett å beskrive problemet, altså sjakkreglene, og det er mulig for en datamaskin å prøve og feile og avgjøre om sjakktrekkene fører til seier eller tap. Denne teknologien har, i tillegg til sjakk, for eksempel blitt brukt til å forbedre energiforbruk i datasentre – noe som også er et avgrenset problemområde.

Forsterket læring fremstår nå som den teknologien hvor kunstig intelligens i størst grad kan sies å lære av seg selv, men det er altså begrensninger på hva dette kan benyttes til.

Hvorfor snakkes det mye om etikk og verdier i forbindelse med kunstig intelligens?

Etikk og verdier er selvfølgelig viktig uansett hvilke systemer man lager, datasystemer eller andre.

Men maskinlæring står i en særstilling blant datasystemer fordi utviklerne ikke gir eksakte instruksjoner. I stedet velger de hvilke treningsdata som skal brukes (mer om det under) eller lager regler for hva som vil være positive eller negative resultater under prøving og feiling. Dette kan innebære å gjøre verdivalg.

Det er dessuten viktig å være obs på konsekvensene av kunstig intelligens fordi det er et generelt og potensielt effektivt verktøy som kan brukes til mange ulike anvendelser.

Hvilke teknologiske problemer finnes for kunstig intelligens?

En av de viktige teknologiske problemstillingene ved kunstig intelligens, er skjeve, ikke-representative eller diskriminerende datasett. For eksempel vil maskinlæring gjenspeile den kulturen og historikken som implisitt finnes i treningsdataene, men det er ikke all historikk vi ønsker å videreføre. Les mer om dette her (refleksjoner etter tidligere diskusjonsmøte).

iHuman viser til et eksempel fra USA der politiet har dradd til nabolag med minoriteter, stoppet og ransaket folk, og registrert stadig mer data som igjen har ført til at praksisen har blitt forsterket. For øvrig en praksis som nylig ble tema i den amerikanske valgkampen.

Det er også viktig å være obs på at kunstig intelligens ikke er ufeilbarlig. Et maskinlæringssystem produserer ikke absolutte sannheter. Det gir resultater som ligner på tidligere resultater, er ustabile og kan lures, og er begrenset av kvaliteten på blant annet treningsdata, algoritmer og modellstrukturer.

Et annet sentralt problem er at maskinlæring fremstår som en svart boks: Som hovedregel kan man ikke gi fullgode forklaringer på hvordan datasystemet kommer frem til de enkelte resultatene. Derfor jobbes det for tiden med forklarbar kunstig intelligens, XAI (som dette kommende frokostseminaret tar opp), og andre grep som kan gi bedre innblikk i hvordan resultatene fremkommer og hvilke data de er basert på.

Hvilke samfunnsproblemer finnes for kunstig intelligens?

Det er viktig ved enhver teknologi å spørre ikke kun hva teknologien kan brukes til, men hva den bør brukes til. Ta for eksempel ansiktsgjenkjenning, en teknologi der maskinlæring har medført store fremskritt. Ansiktsgjenkjenning kan være et gode hvis det gjør det enklere og tryggere å åpne tastelåsen på iPhone, men et onde hvis det brukes for å overvåke personer som går seg nedover en offentlig gate.

iHuman tar for seg en rekke samfunnsproblemer som potensielt kan forverres gjennom ukritisk innsamling av persondata og bruk av kunstig intelligens. Eksempler er diskriminering, falske nyheter, manipulering, polarisering, ekkokamre, svekket personvern, overvåkning, befolkningskontroll og maktkonsentrasjon.

Filmen er et godt utgangspunkt for å ta disse viktige samtalene, og vi håper den vil inspirere til debatt.

Se også:
Tonje Schei Hessen diskuterer iHuman med Inge Harkestad på Lerchendalkonferansen 2020

Les også

Relaterte kurs og arrangementer