Hei, det ser ut som du bruker en utdatert nettleser. Vi anbefaler at du har siste versjon av nettleseren installert. Tekna.no støtter blant annet Edge, Firefox, Google Chrome, Safari og Opera. Dersom du ikke har mulighet til å oppdatere nettleseren til siste versjon, kan du laste ned andre nettlesere her: http://browsehappy.com
Hopp til innhold
Astrup manipulert til å ligne på Stoltenberg

HADDE DU BLITT LURT? Ser du hvem vi har «deepfaket» på dette bildet? Foto: Sondre Tallaksrud.

Astrup: – Det er ikke greit i det hele tatt – det er svært problematisk

Digitaliseringsminister Nikolai Astrup er bekymret for misbruk av «deepfake». En teknologi som er i rivende utvikling.

At du nå kan se ut som en annen person både i form av bilder og film – kan skape store problemer for troverdigheten til alt som legges ut på nettet. Nikolai Astrup er bekymret for hvordan folk kan misbruke politikere framover.

– All teknologi kan både brukes og misbrukes, og deepfake-teknologien er det grunn til å bekymre seg for. Vi ser jo at det er enkelt å etterligne politikere og skape falske nyheter. Utfordringen her er at teknologien kommer til å bli så god at muligheten for å drive påvirkning på demokratiske prosesser blir stor, og det gir sterk grunn til bekymring, sier ministeren.

– Perfekte deepfake er bare måneder unna

At deepfake er i voldsom utvikling er det liten tvil om. På Youtube kan du blant annet se Barack Obama bli «deepfaket», du kan se portrettet av Mona Lisa bli «levende», og det finnes sider på nettet som fikser alt for deg, så lenge du har bilde eller film av de to personene du vil koble sammen. Deepfake-spesialisten Hao Li, mener perfekte deepfake bare er måneder unna.

Nikolai Astrup med mikrofon taler på en scene
Nikolai Astrup er bekymret for eventuelle misbruk av «deepfake». Foto: Sondre Tallaksrud.

Astrup mener et viktig forsvar mot dette er at unge lærer seg å være kritiske til hva man ser på nettet.

– Derfor er det viktig at medietilsynet gjør en jobb med dette i dag. Jeg tror det å sørge for digital dømmekraft inn i utdanningen helt fra barneskolealder er viktig for å kunne skille ekte fra falske nyheter. Regjeringen har lagt fram nye læreplaner hvor dømmekraft er en viktig del av det barna skal lære allerede fra tidlig alder.

– Så vi har ikke noe forsvar mot dette i dag?

– I EU jobbes det en god del med denne problemstillingen, og vi følger det arbeidet tett. Men vi har ikke alle svarene i dag, det er rett og slett fordi utviklingen går så fort at vi må bevege oss enda raskere for å klare å henge med . Det er ikke teknologien i seg selv som er utfordringen , men hvordan den anvendes.

– Hvordan ville du reagert hvis du så en som holdt en tale med ditt ansikt?

– Det er ikke greit i det hele tatt – det er svært problematisk.

– Man trenger vel noe som gjør at folk kan være sikre på hvem som egentlig snakker?

– Ja det gjør man. Jeg har ikke svar på det i dag, men dette er vi nødt til å jobbe mye mer med fremover, sier ministeren.

– Vi får aldri et sikkert forsvar

Inge Harkestad, som er spesialrådgiver innen digitalisering i Tekna, tror vi aldri vil få et sikkert forsvar mot denne teknologien.

– Vi har ikke noe fullgodt, teknologisk forsvar mot falske nyheter og manipulert innhold, og jeg tror ikke vi noensinne vil få det. Husk at dette også fantes før internett-alderen. Det finnes teknologi som kan hjelpe oss, og mer vil bli utviklet, men vi kommer ikke unna sunn fornuft og refleksjon, sier han.

Han er glad regjeringen satser på å styrke digitalt dømmekraft i læreplanene.

– Kildekritikk og digital dømmekraft i vid forstand vil bli stadig viktigere, noe læreplanene definitivt må gjenspeile. Samtidig er det kanskje de unge som har best digital dømmekraft i dag. Det kan bli mer utfordrende å endre tankesettet til voksne. Før var jo bilder og videoer jevngodt med bevis, men den verdenen finnes ikke lenger.

Han mener det kan bli et teknologisk våpenkappløp mellom forsvar og angrep på sikt.

– Vi trenger teknologi for å gjøre oss tryggere på at innholdet ikke har blitt endret, og på at det kommer fra den vi tror det kommer fra. Det kan lages teknologi for å avdekke deepfakes, men den samme teknologien kan brukes til å gjøre deepfakes vanskeligere å avsløre.

– Det blir et våpenkappløp der de som jukser sannsynligvis vil ha et lite forsprang mesteparten av tiden, sier Harkestad.

Astrup mener det er viktig å tenke på at teknologien i seg selv ikke er farlig. Blir den brukt på riktig måte kan vi ha stor nytte av den i framtiden.

– Det er viktig at teknologien som ligger bak deepfake også har en nytteverdi, det er jo den samme teknologien som gjør at vi kan lage syntetiske datasett, for eksempel til testdata, og det kommer til å være viktig for utviklingen av kunstig intelligens i både offentlig og privat sektor – det å ha muligheten til å bruke syntetiske data.