Hei, det ser ut som du bruker en utdatert nettleser. Vi anbefaler at du har siste versjon av nettleseren installert. Tekna.no støtter blant annet Edge, Firefox, Google Chrome, Safari og Opera. Dersom du ikke har mulighet til å oppdatere nettleseren til siste versjon, kan du laste ned andre nettlesere her: http://browsehappy.com
Hopp til innhold
Heidi E. I. Dahl foran publikum

Tema: IKT

Hvilken virkelighet får vi med kunstig intelligens?

Tekst av Heidi E. I. Dahl og Inge Harkestad Publisert: 15. mars 2019

Noen refleksjoner rundt kunstig intelligens og etikk - inkludert kultur, historie og kampen om sannheten - etter Tekna Big Datas debattmøte «AI og etikk».

Noen refleksjoner etter Tekna Big Datas debattmøte «AI og etikk»:

Kunstig intelligens fanger opp eksisterende historie og kultur

Den formen for kunstig intelligens som er mest i vinden, er maskinlæring. Litt enkelt sagt innebærer det å lære opp et system med treningsdata, i stedet for å programmere det med entydige regler.

En interessant konsekvens av dette er at systemet – i alle fall til en viss grad – vil gjenspeile den virkeligheten som treningsdataene beskriver. Et maskinlæringssystem kan fange opp mye av kulturen og historien som implisitt finnes i dataene.

I mange tilfeller er dette nyttig og bra. Det kan for eksempel brukes til å lage nye systemer basert på tidligere «best practice».

Men det er ikke alltid historiske data gir den beste veien videre.

Iblant ønsker vi ikke at nye systemer bare skal være «deskriptive» og dermed gjenspeile og videreføre skjevheter i samfunnet. F.eks. ønsker vi ikke å favorisere hvite fremfor mørkhudede eller menn fremfor damer, selv om det har vært en del av historien vår. I stedet ønsker vi «normative» systemer: Vi ønsker at nye løsninger basert på kunstig intelligens skal bidra til forbedring.

Men hva er «normen»? Hvordan ser en slik forbedret virkelighet ut? Akkurat det er ofte kulturelt bestemt. Det som er ønskelig i Kina, er kanskje uakseptabelt i Norge. Og ofte finnes det ingen åpenbar fasit. Hvordan vekter man egentlig ønsket om å bli beskyttet fra kriminelle og terrorister, opp mot ønsket om ikke å bli overvåket?

Et annet spørsmål er hva man bruker slike systemer til. Når man først har anskaffet et flunkende nytt system med merkelappen «kunstig intelligens», er det fristende å utnytte det til det fulle. Da er det viktig å forstå hvilke begrensninger systemet har, og å vurdere de etiske sidene ved bruken. Ta for eksempel et system som vurderer gjentakelsesfare for kriminalitet. Skal dette systemet brukes til å utmåle straff og ta beslutninger om prøveløslatelse, eller skal det brukes til å forebygge kriminalitet og rehabilitere kriminelle?

Kampen om sannheten

Kunstig intelligens kan ikke bare gjengi virkeligheten som vi kjenner den, men også forfalske virkeligheten.

Det finnes i dag tekstgeneratorer der du kan fore inn én setning og få tilbake en lang, sammenhengende tekst. Det finnes nettsider som med ett klikk gir deg et realistisk portrettbilde av en ikke-eksisterende person. Og det finnes teknologi for å lage falske videoer av ekte personer. For eksempel kan man vise Trump eller Putin si noe som de faktisk aldri har sagt.

Dermed har vi kommet til et punkt i historien der det ikke lenger vil være mulig, i alle fall for folk flest, å skille mellom ekte og falske bilder, videoer og tekster. Det vil også bli svært vanskelig å skille mellom ekte og falske nyheter.

Samfunnet vårt er bygget på tillit. Hva vil skje med denne tilliten hvis vi ikke lenger klarer å skille ekte fra falsk?

Og hva vil skje med den offentlige samtalen (og for den saks skyld den private) når to personer leser samme nettside og ser ulikt innhold på grunn av persontilpasning?

Kildekritikk vil bli stadig viktigere, men samtidig også vanskeligere. Kanskje trenger vi mer enn noen gang troverdige aktører som kan lose oss gjennom informasjons- og mediestrømmen. Dette er en rolle som media selv tradisjonelt har tatt, men som det kan bli utfordrende å kombinere med dagens forretningsmodeller, som synes å baseres i stadig større grad på nettsideklikk. Tar media denne utfordringen, eller vil det vokse frem andre typer tillitsaktører?

Hvordan havner vi i førersetet?

Kunstig intelligens har potensial til å endre forretningsmodeller og maktbalanse i langt flere deler av samfunnet enn mediebransjen.

På mange områder vil store amerikanske og kinesiske selskap som Facebook, Google og Sina Weibo ha naturlige fortrinn fremfor norske selskaper. De har tilgang på enorme datamengder som de kan bruke til forskning, teknologiutvikling, opptrening av grunnleggende kompenter i kunstig intelligens og utvikling av spesifikke produkter og tjenester.

Fra et norsk perspektiv er det verdt å problematisere disse selskapenes kulturelle og historiske utgangspunkt. De vil ikke alltid utvikle løsninger i tråd med norsk virkelighet – eller den samfunnsutviklingen vi ønsker oss.

Noe av ubalansen i datamengder kan utjevnes av god datakvalitet og relevante, lokale data. Noe kan utjevnes av eksisterende reguleringer, som den nye personopplysningsloven (GDPR).

Men kunstig intelligens handler om mer enn håndtering av personopplysninger. Kanskje trenger vi et eget regelverk for kunstig intelligens? Det er mulig at et slikt regelverk også bør omfatte mer tradisjonelle IKT-systemer og andre typer databehandling.

Kanskje trenger vi merkekrav eller sertifisering. Kanskje trenger vi utvidede rettigheter for innsyn i algoritmer og data. Kanskje trenger vi et algoritmetilsyn.

Men det er ikke åpenbart hvor omfattende en innsynsrett eller tilsynsrett bør være. Alle systemer er ikke like viktige, og alle har ikke samme konsekvenser. For eksempel bør det stilles andre krav til et beslutningssystem for trygdeytelser, enn et industrielt system som styrer en vindmøllepark. Det kan også være naturlig å stille andre krav til tidskritiske systemer enn saksbehandlingssystemer.

Hvordan forklarer, formidler og forbedrer vi kunstig intelligens?

Når et system får konsekvenser for mennesker, er det viktig at systemet er transparent og at resultatene er etterprøvbare og forklarbare: Det bør generelt være mulig å forklare hvorfor systemet kom frem til den konklusjonen det gjorde. Men hva betyr egentlig det? Skal en bruker bare kunne avkreve forklaring på den beslutningen som gjaldt ham eller henne, eller også hvilke treningsdata som systemet har blitt lært opp på?

Et system bør selvfølgelig ikke diskriminere. Men hvordan kan et slikt krav utformes i praksis, og hvordan kan man kontrollere at kravet oppnås for alle relevante grupper?

Systemet bør også fortsette å lære. Man bør kunne gi det tilbakemeldinger basert på tidligere resultater, og det bør finnes mekanismer for å forbedre systemet fortløpende.

Sist, men ikke minst bør systemeiere, leverandører og teknologer anstrenge seg for å forklare systemenes begrensninger og konsekvenser for brukere og folk flest. Det ligger et stort ansvar i å lage slike systemer. Alle gode krefter, inkludert oss teknologer, må ta ansvar for ikke bare å lage gode systemer, men også forklare dem og gjøre dem forståelige.

Dette handler mye om tillit.

Hvis vi kombinerer god teknologi, etisk refleksjon og åpenhet, kan vi forhåpentligvis utnytte kunstig intelligens til å lage systemer som både tilpasses den virkeligheten vi lever i, og den vi ønsker oss.


Hvilke tanker gjør du deg om dette? Kom gjerne med innspill og synspunkter i kommentarfeltet under.

PS: En stor takk til deltakerne på debattmøtet «AI og etikk» for gode og inspirerende samtaler.

Les også