Det høres ut som en selvmotsigelse. Men den kunstige intelligensen (KI) setter nå vår kritiske sans på ytterligere prøve. Deepfake er begrepet vi skal lære å forholde oss til. Språkfolket må gjerne melde sin relevanse og lansere en norsk oversettelse.

Inntil videre kan vi riste støvet av det å bli margelurt. Bedratt inntil margen, til kjernen og vår realitetsoppfatning. Det er dette deepfake handler om, å kødde med det vi umiddelbart oppfatter som sannhet. Bevis og fakta. Manipulerte bilder og filmer som virker så virkelighetsnære at det er umulig, i alle fall nesten, å avsløre det som falskt.

Pop-ikonet Tailor Swift fikk nylig smake den kunstige intelligensens sure slagside, da falske nakenbilder av henne ble spredt på nett. Inga Strümke, som arbeider med KI ved NTNU, forklarer at slike manipuleringer er ganske enkle å få til når det finnes mange bilder av personen som blir utsatt.

Når maskinen mates med foto og film av vedkommende i ulike vinkler, kan svært naturtro, manipulerte bilder og filmer klekkes ut. Dermed er kjente og hyppig avbildede personer ekstra utsatt, men også kvinnen i gata rammes. Siden seksuell trakassering stadig rammer flest damer.

Den positive siden er at vi har uavhengige forskere som kan ruste oss mot å bli margelurt på alle fronter. Samt seriøse medieredaksjoner, som kanskje aldri har hatt en viktigere samfunnsrolle enn akkurat nå

Det er en enorm krenkelse å få nakenfoto eller seksualiserte bilder og filmer av seg selv spredt på nett. Når disse ikke engang trenger ha rot i virkeligheten sier det seg selv at mulighetene for dypt skadelig, ondsinnet og massiv mobbing, hevnporno og trakassering, får et grenseløst spillerom.

I tillegg poengterer Strümke at den nye teknologien kan brukes til på påvirke nasjonale og globale maktfaktorer gjennom politiske valg. Spesielt er kampanje-samfunn som USA utsatt for slik manipulering, der det heller ikke er etablert et sterk fokus på kildekritisk tenkning. Der tilliten til mediene også er lav.

Når filmer, bilder og klipp av politikere spres der motkandidater sier og gjør uhyrlige ting, kan det bikke makten over på gale hender. Spesielt siden det amerikanske samfunnet er vant med konspirasjonsteorier og kuppforsøk fra president-hold allerede, kan vanvittige manipuleringer virke troverdige.

Tiden der vi kunne anse bildemateriale, eller digitalt innhold generelt, som et slags bevismateriale på sannhet er definitivt over, slår ekspertisen fast. Vi kan rett og slett ikke tro på det vi ser lenger, med mindre vi ser det i det virkelige livet. Det er vanskelig å ta inn hvor margelurt vi kan bli fremover.

Ina Gravem Johansen Foto: Aliona Pazdniakova

Kryss i taket til de foreldrene som holder kritisk tenkning som en av de viktigste pilarene i oppdragelsen. For kunnskap om og bruk av særdeles aktiv kildekritikk må bli det nye kompasset for å forstå verden og manøvrere i samfunnet uten å bli svindlet på utallige måter. Dermed blir også de redaktørstyrte mediene enda viktigere fremover, som hele tiden jobber med å sile fakta fra det falske.

Det norske samfunnet baserer seg på høy grad av tillit. En så langt svært vellykket formel som KI-fenomenene lett kan misbruke om vi ikke parerer med økt kritisk sans. For eksempel er det avdekket at en del av den israelske krigføringen mot Gaza handler om å dele manipulerte filmer som setter motparten i et dårlig lys. Trolig vil vi her hjemme oppleve svindelforsøk der en nær bekjents manipulerte stemme ringer, og lurer deg mens garden ligger nede.

For å begrense den falske og skadelige informasjonen har alle med digital tilgang et stort individuelt ansvar for å ikke dele krenkende innhold. For eksempel nakenbilder, enten de er ekte eller manipulerte. Norsk lovgivning har siden 2021 hatt en paragraf som gjør både produksjon og deling av krenkelser straffbart. Deepfaken mot Tailor Swift har aktualisert debatten om en strengere lovregulering også i USA.

På spørsmål om det er noen måter å avsløre filmer som prøver å margelure oss, svarer Morten Goodwin ved Universitetet i Agder, at man kan se etter kroppsspråk som virker rart. Eller en plutselig kroppslig raritet, for eksempel at hodet mister kontakten med halsen et kort øyeblikk. Ser man dette er personen et produkt av KI. Men om kort tid er trolig også disse holdepunktene borte, for hver uke lanseres nye og enda bedre algoritmer, spesialisert til å lure oss.

KI er imponerende teknologi, som lett misbrukes til krenkelser, maktmisbruk og hensynsløs profitering. Dette er virkelig ikke lystig nytt, men det er helt avgjørende at både individer og samfunn forholder seg til situasjonen. Den positive siden er at vi har uavhengige forskere som kan ruste oss mot å bli margelurt på alle fronter. Samt seriøse medieredaksjoner, som kanskje aldri har hatt en viktigere samfunnsrolle enn akkurat nå.

Vil du bidra med din mening? Send debattinnlegg på epost her