BEKYMRET: Helge Haugland i Kripos forteller at de er bekymret for utviklingen. Foto: Kripos.
Kripos er bekymret: Eksplosjon av KI-overgrepsmateriale mot barn
Det kan bli over 132 000 varslinger i år.
Kripos forteller at de får inn en økende mengde overgrepsbilder av barn, som er laget av kunstig intelligens.
Bilder på nettet, kanskje bilder du selv har tatt blir brukt til å generere dette materialet. Dette gjøres ved hjelp av modeller som ChatGPT.
– Vi er bekymret over utviklingen av flere grunner, forteller Helge Haugland i Kripos.
– Utviklingen gjør det også lettere å manipulere bilder og filmer av personer som er åpent tilgjengelig.
Ekstrem økning i varslinger
Han forteller at jobben til Kripos blir vanskeligere og tar mer tid.
Hvilket materiale er bildene generert fra? Hvem er ofrene?
– Blant annet må vi fremover forholde oss til at overgrepsmateriale kan være ekte, men at det har blitt manipulert av kunstig intelligens-verktøy for å gjøre det vanskeligere å identifisere ofrene og overgriperne.
– Videre vil det være at vi bruker mye ressurser på å forsøke å identifisere ofre eller gjerningspersoner som ikke eksisterer da det er fremstilt av KI-verktøy i sin helhet. Utviklingen gjør det også lettere å manipulere bilder og filmer av personer som er åpent tilgjengelig.
Tall fra NCMEC viser en økende mengde overgrepsmateriale som er KI-generert globalt:
2023: 4 700 varslinger.
2024: 67 000 varslinger.
Første kvartal av 2025: 33 100 varslinger.
Hvis utviklingen fortsetter kan det altså bli over 132 000 varslinger i år, rundt det dobbelte av fjoråret.
I 2024 fikk Kripos 15 rapporter fra Open AI som omhandlet seksuell utnytting av barn. Per 16. september 2025 har Kripos fått 20 rapporter fra Open AI som omhandler seksuell utnytting av barn.
– Det varierer i forhold til hvor lett det er å avdekke hvem som har laget materiale. Strafferammen for besittelse, produksjon og deling av overgrepsmateriale er tre år, sier Haugland.
I sommer ble en mann i 20-årene dømt til åtte måneder fengsel for besittelse av KI-generert overgrepsmateriale.
Les også: Kvantedatamaskiner som sikkerhetstrussel: – Noen mener det allerede er for sent
Dømt til åtte måneders fengsel
I sommer ble en mann i 20-årene dømt til åtte måneder fengsel for besittelse av KI-generert overgrepsmateriale. Dette er den første dommen i Norge av en viss størrelse der materialet utelukkende er produsert ved hjelp av kunstig intelligens.
Mannen hadde kjøpt materialet på nett for fem euro og oppbevart nærmere 8 000 bilder med grove, seksualiserte fremstillinger av barn.
En annen mann i 50-årene har også blitt dømt etter straffelovens paragraf 311, som sier det er ulovlig å produsere fremstillinger av seksuelle overgrep mot barn. Han fikk 45 dager i fengsel.
– Vær restriktiv i hva du deler
Patrick Bours, som er professor ved Institutt for informasjonssikkerhet og kommunikasjonsteknologi mener det er to logiske grunner til at vi ser mer og mer av slikt materiale.
– Den første er at nye KI-verktøy for bildegenerering blir tilgjengelige mer eller mindre hver dag, og noen av dem har ingen innebygde filtre for å unngå generering av denne typen bilder.
– Så for mange blir det stadig enklere å generere slikt materiale selv, noe som åpenbart er en negativ utvikling. Den andre, en mer positiv utvikling, er at det er en slik økning i rapporterte tilfeller, fordi det er flere som rapporterer disse bildene, og det finnes flere (og bedre) verktøy for å oppdage slike bilder.
– Så en del av økningen forklares ikke av det faktum at det er en økning i overgrepsmateriale, men at det oppdages og rapporteres mer.
– Hvordan skal man unngå at egne bilder blir brukt til slik generering?
– Jeg tror svaret rett og slett er å være restriktiv i hva du deler.
– Jeg tror svaret rett og slett er å være restriktiv i hva du deler. Og deling ville være både på nett med «hele verden», så vel som privat med én enkelt person. Jo flere bilder som er tilgjengelige av en person, desto mer kan misbrukes, for eksempel i deep fakes der et ansikt på et pornografisk bilde kan erstattes av ansiktet til et offer.
– Og privat deling av dette nakenbildet med partneren din kan høres ut som en spennende eller sexy idé på det tidspunktet, men over tid kan det vise seg å ikke være den smarteste hvis et forhold bryter sammen eller enheten det er lagret på blir hacket, sier han.
– Utviklingen er særdeles urovekkende
Elisabet Haugsbø, som er president i Tekna er bekymret for utviklingen.
– Jeg tenker at utviklingen er særdeles urovekkende. Både den fysiske og den digitale verden skal være et trygt sted for barn og voksne, men det er de ikke. Det er ikke bare overgrepsmateriale som disse KI-modellene blir brukt til.
– De blir også brukt i forbindelse med svindel, datainnbrudd og andre lovbrudd som videre svekker tryggheten også i vår fysiske verden.
– Det har lenge vært snakket om, og advart mot, at når man deler bilder av barn kan disse utnyttes.
Hun forteller at Tekna helt klart mener at mer av ansvaret og kravene må legges på dem som utvikler og distribuerer KI-modeller. Det kan ikke være slik at det er opp til enkeltindivider å trygge seg selv i møte med svært mektig teknologi.
– Det har lenge vært snakket om, og advart mot, at når man deler bilder av barn kan disse utnyttes. Igjen stiller jeg spørsmål ved om samfunnet mener det er riktig at det skal være opp til hvert enkelt individ å sørge for at man ikke deler bilder på plattformer som er laget for å dele bilder.
– Tekna skal gjøre vårt beste for å legge press på at ansvaret må legges på dem som utvikler og distribuerer både plattformer og KI-modeller, men inntil da er mitt beste tips å være restriktiv med å dele bilder – og spesielt bilder av barn, sier hun.