Se opptaket fra webseminaret om forklarbar kunstig intelligens

IKT-bloggen

Forklarbar kunstig intelligens

Tekst av Inge Harkestad 15. mai 2020 Streaming

Maskinlæring – spesielt dyp læring – kan gi gode svar, men ikke nødvendigvis forklare hvorfor svarene ble som de ble.

14. mai 2020 inviterte Tekna Big Data og Tekna Forskerne til nettseminar om forklarbar kunstig intelligens.

Se Inge Harkestad og Heidi Dahl ønske velkommen i videoen under.

Inga Strümke: Forklaringer, forståelse og forvirring

Enkelte typer kunstig intelligens, så som nevrale nettverk, omtales gjerne som svarte bokser – ikke fordi det er noe der som er hemmelig, men fordi det er noe der vi ikke forstår. Fordi de består av store, kompliserte modeller som vi ikke intuitivt forstår.

Hvem du er, påvirker hvilken forklaring du har behov for. Er du en styreleder, kan du ha behov for å forstå hva som skjer i den svarte boksen for å vite om det er trygt å sette penger på beslutningene dens. Er du en bruker eller kunde, bryr du deg kanskje ikke om hvordan modellen fungerer, men om den gir deg en overbevisende historie om hvordan verden fungerer. En du en forsker eller modellutvikler, trenger du gjerne å kunne finne ut om modellen din har funnet de riktige sammenhengene i dataene, i tillegg du at må kunne forklare modellen for andre.

For å få dette til, trenger vi metoder. Og det utvikles nå stadig nye metoder for forklarbarhet.

Lær mer om dette – og blant annet om dimensjonenes forbannelse – i videoen under.

Se Ingas presentasjon her (pdf). 

Anders Løland: Metodegjennomgang – utvalgte forklaringsmetoder

Forklarbar kunstig intelligens handler ofte om å lage en modell oppå en annen modell: Vi lager vi en forklarings-maskinlæringsmodell på toppen av den maskinlæringsmodellen vi prøver å forklare.

Det finnes forskjellige typer forklaringsmodeller. Det nyttigste vil være generelle forklaringsmodeller som kan brukes uavhengig av modellene som skal forklares. To eksempler på dette er LIME og Shapley-verdier. Shapley-rammeverket er mer matematisk og teoretisk fundert enn LIME, og derfor riktigere, men også tyngre å beregne.

Hvilken forklaringsmetode er best? Det kommer an på målet med analysen. Det vil være nødvendig å ha en verktøykasse av forklaringsmetoder.

Lær mer om blant annet modellspesifikke, modellagnostiske (modelluavhengige) og kontrafaktiske forklaringer i videoen under.

Se Anders' presentasjon her (pdf).

Cathrine Pihl Lyngstad: Forklarbar AI i praksis

NAV har definert prinsipper for ansvarlig kunstig intelligens – i praksis stort sett maskinlæring.

I første omgang bruker ikke NAV maskinlæring der det gis anbefalinger eller fattes vedtak direkte for brukerne. I stedet handler det om å gi beslutningsstøtte til veiledere. Eksempler er hvilken bistand arbeidsledige trenger, hvilke arbeidsrettede tiltak som bør anbefales eller om en sykemeldt bør kalles inn til et dialogmøte.

Det store spørsmålet når man skal lage en forklarbar løsning, er hva som må forklares og hvordan. For å få til dette til, kartlegger NAV ulike interessentgrupper, rettslige krav og konteksten for forklaringen. Deretter starter en iterativ og brukersentrisk prosess.

Lær mer om hvordan NAV jobber med forklarbar kunstig intelligens, og få tips, i videoen under.

Se Cathrines presentasjon her (pdf).

Diskusjon

Etter innledningene stilte Heidi Dahl spørsmål fra seerne. Se svarene fra og Inga, Anders og Cathrine i videoen under.

Lenker fra innlederne

Her kan du lese eller høre mer:

Les også

Relaterte kurs og arrangementer