Falske «nyheter», falske profiler, falske videoer og syntestiske mennesker:

Hvem kan vi stole på?

ANSVAR: - Felles for alle disse falske «nyhetene», videoene og bildene er at de spres i sosiale medier. Bør Facebook, YouTube, Twitter, WhatsApp og andre mediakanaler ta større ansvar for denne feilinformasjonen? spør Øyvind Brunvoll.   Foto: Romsdals Budstikke

ARTIKKELFORFATTER: Øyvind Brunvoll. 

debatt

Før var det slik at ting helst skulle ha stått i lokalavisa eller vært på Dagsrevyen før vi trodde på det. Og slik håper vi som jobber i de redaktørstyrte mediene at det fortsatt vil være.

Men uærlige sjeler og en stadig mer avansert teknologi rundt kunstig intelligens gjør det sannelig ikke lett for oss. Som om ikke «fake news» var nok å holde styr på, står vi nå overfor en mye verre utfordring. «Deep fake» er den største nye trenden som skaper problemer for den som prøver å leve av å fortelle sannheten.

Da Amy Webb i Future Today Institute presenterte 2020-trendene under den årlige storkonferansen i Online News Association i New Orleans, var deep fake det første hun trakk fram. Syntetiske mennesker var det andre, og sammen utgjør de en stadig større trussel for tilliten til det vi hører og ser.

Husker du da du for tre år siden plutselig kunne bytte fjes på en app på mobilen? Du tok et bilde av deg sjøl og en venn — og så byttet dere ansikt med hverandre. Ganske artig — og startskuddet for langt mer avanserte og mer skremmende muligheter. I sommer var det mange som la inn egne bilder på en app for å se hvordan de ble seende ut med skjegg, langt hår, uten hår eller som gammel. Appene blir stadig mer avanserte.

I USA er det en svært god imitator som heter Bill Hader. Han var med på noen talkshow for noen år siden der han blant annet etterlignet stemmene til Arnold Schwarzenegger, Al Pacino og Tom Cruise. Nå har opptakene av disse imitasjonene kommet i en enda mer imponerende utgave. Ny teknologi gjør det nemlig mulig å legge de virkelige ansiktstrekkene til de kjente skuespillerne inn i ansiktet til Bill Hader, og det ser ut som at det er de som sitter der og snakker. Fortsatt kreves det gode datakunnskaper for å få det til, og eksemplene i denne artikkelen er hentet fra en youtuber som kaller seg Ctrl Shift Face.

Dette er eksempler på uskyldig moro. Og på YouTube er de merket som deep fake. Men hva når noen legger ansiktet ditt inn på folk som utfører en forbrytelse? Eller på aktører i en pornofilmscene? Da blir deep fake plutselig et alvorlig problem for deg.

Nettssikkerhetsselskapet Deeptrace fant nesten 15.000 deepfake videoer på nettet i oktober — en dobling i løpet av de siste ni månedene. 96 prosent av dem var i pornobransjen der aktørene har fått ansikt og stemmer fra kjente mennesker.

Et annet eksempel er da noen tok et filmopptak med Facebook-gründer Mark Zuckerberg og la inn helt andre meninger enn det Zuckerberg står for. Det er umulig å se at det ikke er han som faktisk sier det du hører. Barack Obama og Hillary Clinton er utsatt for det samme.

En annen video som går er når Donald Trump tilsynelatende overtar som den sleipe advokaten Saul i «Better Call Saul» — en spinoff-serie etter Breaking Bad. Stemmen er Trump, fjeset er Trump, men ordene er ikke hans.

Hvis slike falske videoer blir merket som falske, er de ikke så farlige. Men vi ser at de i dag spres som om de er ekte. Ikke nødvendigvis av ekte mennesker — men kanskje av falske profiler som brukes i et eller annet propagandasystem for å påvirke demokratiet i en eller annen retning. Å skille hva som er riktig og hva som er galt, blir bare vanskeligere å finne ut av.

Men hvis du aksepterer at noen tukler med virkeligheten, kan det også brukes til noe fornuftig. Som da David Beckham plutselig kunne snakke om kampen mot malaria på ni forskjellige språk, takket være de samme teknologiske verktøyene. Det blir noe ganske annet enn de dubbede filmene du har kunnet sett nedover Europa i årevis.

Vi har lenge sagt at «krigens første offer er sannheten». I krig er feilinformasjon er del av spillet. I dag er det en del av politikken. Om man er uenig med det noen sier, kommer lett slengende et «fake news». Det så vi til og med i kommunevalget i Molde i september.

Men tilbake til deep fake: Det har gått ett år siden Kina lanserte sine første syntetiske nyhetsankere på TV. Disse syntetiske medarbeiderne er greie å ha med å gjøre. De leser opp det de er opplært til, de møter opp presis, de tar ikke ferie, har ikke sjuke unger, går ikke på fylla og er fortsatt ikke blitt innblandet i noen metoo-skandaler. Skjønt det kommer vel det også.

Hvis du er på Instagram, har du kanskje sett Miquela Sousa (@lilmiquela). 19-åringen med 1,6 millioner følgere på Instagram er av spansk-brasiliansk opprinnelse, hun er modell for Calvin Klein og Prada og hun utgir sine egne poplåter. Problemet er bare at hun egentlig ikke finnes. Både hun og vennene Bermuda og Blawko er konstruerte — akkurat som det fantastiske livet hun lever. Du klarer å se det når du vet det, men det er ikke lenge til det er umulig å skille falsk fra ekte.

Og du skulle kanskje tro at hun mistet massevis av følgere da det ble kjent at hun ikke var ekte? Ikke i det hele tatt. Følgerne var blitt glade i henne og brydde seg fint lite om hun var ekte eller ikke. Onsdag la hun ut en video på Youtube der hun fortalte sine følgere («miqaliens») at hun var forelsket.

Neste trinn er at du sjøl kan få din egen personlige syntetiske influenser — din egen Skybert eller Styggen på ryggen — eller en drømmeversjon av deg sjøl. Teknologien utvikler seg i vanvittig tempo. Syntetiske mennesker som lever liv styrt av kunstig intelligens er greie å forholde seg til så lenge de oppfører seg skikkelig. Men hva hvis de begynner å bli ufine? Når de går over streken, bryter lover og skader andre? Hvem har ansvaret? Det kommer til å bli noen runder med etisk debatt når den kunstige intelligensen styrer mer og mer.

Vi er i ferd med å skjønne at vi ikke kan stole på det vi ser. Photoshoppa motebilder har lært oss det. Og vi ser bilder som er tatt i helt andre sammenhenger enn det de presenteres i. Som da tilhengere av den britiske nasjonalisten Tommy Robinson i fjor spredte bilder av det som skulle være folk som protesterte mot fengslingen av Robinson. Bildet viste i virkeligheten Liverpool-fans som feiret gull i Champions League i hjembyen i mai 2005.

Felles for alle disse falske «nyhetene», videoene og bildene er at de spres i sosiale medier. Bør Facebook, YouTube, Twitter, WhatsApp og andre mediakanaler ta større ansvar for denne feilinformasjonen? I motsetning til redaktørstyrte mediehus, har de ingen vær varsom-plakat eller redaktørplakat å forholde seg til. De har kunnet skjule seg bak å være en «teknologisk plattform» der de kan slippe til det meste — så lenge det ikke vises et kvinnebryst. Nå ser vi at både Google og Facebook begynner å gjøre mottiltak for å avsløre deep fake som ikke er merket. De innser at de mange falske meldingene vil gå ut over omdømmet. Det er bedre at teknologene innser dette sjøl sammen med brukerne sine, enn at statlige myndigheter skal gå inn og regulere det.

Twitter fortalte under konferansen i New Orleans at de bare i første kvartal i år, slettet over 100.000 kontoer. De siste ukene har de stengt tusenvis av kontoer som ble brukt for å skape uenighet og uro blant demonstrantene i Hongkong.

Men om vi ikke kan stole på øynene, stoler vi mer på det vi hører. Det gjorde i alle fall mellomlederen i et britisk energifirma da han ble oppringt av sjefen som var på reise. Sjefen ba medarbeideren om å overføre 220.000 euro til en ungarsk leverandør, og det utførte han sjølsagt. Sjefen hørte ut som seg sjøl. Stemmen, tonefallet — alt virket normalt. Men det var ikke ham. Svindlere hadde klart å stjele sjefens stemme. Pengene gikk fra England til Ungarn, føyk videre til Mexico og forsvant i dimman til ulike kontoer som ingen har sett igjen.

Hvis vi ikke kan stole på det vi leser, ser eller hører — hvordan skal vi da vite hva som er ekte vare? Kanskje må vi back to basic: Personlig møte. Og så får vi enn så lenge anta at den vi møter ikke er en robotisert klone, spekket med kunstig intelligens.

Kilder: Det meste av det som står i denne kronikken er hentet fra ulike sesjoner på konferansen ONA19 i New Orleans. Du finner mer informasjon på konferansens hjemmesider.