MIT

Deepfake: Nixon erklærer sin sorg over mislykket månelanding

Før månelandingen 20. juli 1969 hadde president Nixon to taler klare – en til å feire Apollo 11s suksess, og en annen til å sørge over en katastrofe. Presidenten trengte heldigvis bare den oppløftende varianten, men 50 år etter holder han endelig talen – eller: en kunstig intelligens gjorde det på hans vegne. Filmen med den falske talen har nettopp vunnet en Emmy.

«Hvis man ikke vet det, aksepterer man virkelig mye – helt ukritisk.»

Ordene kommer fra Magnus Bjerg som har vært konseptutvikler på deepfakefilmen «In Event of Moon Disaster», som er produsert av Massachusetts Institute of Technology, MIT, og nettopp har vunnet en Emmy for dokumentarfilmer i kategorien «Outstanding Interactive Media».

Teamet bak videoen ønsker å vise «hvordan ny teknologi kan bøye, omdirigere og tilsløre sannheten omkring oss» og «utforske innflytelsen av gjennomgripende feilinformasjon og deepfaketeknologi i samfunnet vårt'.

I den historiske talen forklarer USAs tidligere president Richard Nixon hvordan månelandingen ikke gikk som planlagt. Men bildene og lyden er syntetiske. De er resultatet av det kunstig intelligens er i stand til. Og talen er derfor uekte.

Spørsmålet er: Kan du se det?

Slik avslører du deepfakes

Nixon-deepfake-videoen er basert på kunstig intelligens og såkalt dyplæring-teknologi. Kort fortalt betyr det at en datamaskin har analysert ansiktstrekkene og mimikken til en kjent person – slik at den kan konstruere en falsk utgave med bevegelser.

Og i samarbeid med en taleskuespiller frambrakte MIT-teamet syntetisk tale som passet til Nixons nye, manipulerte munnbevegelser.

«For oss handler det om å vise hva denne teknologien er i stand til, slik at vi kan begynne å snakke om det vi gjør når en gang – dagen før et valg – ser en video av en politiker som tilsynelatende sier noe dypt rasistisk. Vi er allerede oppmerksomme på at bilder kan være behandlet i Photoshop. Nå er tiden inne til at vi også er kritiske overfor levende bilder», sier Magnus Bjerg.

Han mener at deepfake-videoer i dag er så gode at de kan være vanskelige å oppdage.

Men hvis du er i tvil om en video er deepfake, kan du rette oppmerksomheten mot ansiktets kant. Ser konturene naturlige ut? Er hudtonen ensartet? Hvordan oppfører skyggene ved kraven seg? Har personen et unaturlig, dødt blikk i øynene? Er tennene underlige eller pikselert?

© MIT

Djevelen ligger i detaljene

Det nederlandske firmaet Sensity har konstruert en algoritme som kontrollerer deepfakeinnhold. Algoritmen har blitt fôret med flere tusen timers sanne og falske videoer, før den er satt til å finne forskjellene. Algoritmen gjennomgår hver enkelt piksel i hvert eneste bilde – ofte flere tusener per video – for å finne uoverensstemmelser.

Ifølge Henry Ajder, sjef for informasjonssikkerhet hos Sensity, må de dykke ned i de minste detaljene før de kan avsløre forfalskningene.

«Mange deepfakes kan ikke avsløres av det menneskelige øyet, og feilene ligger derfor typisk på pikselnivå. Algoritmen vår er blant annet trent til å finne piksler som ikke hører hjemme der de er: små klumper av piksler som enten er for mørke eller lyse», forteller Henry Ajder.

I desember 2018 sporet Deeptrace opp over 14 000 videoer på nettet som de klassifiserte som deepfakes.

Ifølge Magnus Bjerg har Deeptrace også kigget 'In Event of Moon Disaster' efter i sømmene. Og firmaets grundige algoritme kunne konstatere, at videoen var en deepfake.

Det falske ansiktet folder seg ut

Teknologien som så langt har blitt brukt til alt fra det pornografiske til det politiske, kan også brukes til andre formål, poengterer Magnus Bjerg:

"Deepfake-teknologien kan spare filmindustrien for en masse penge. Der er lavet film, hvor James Dean (død i 1955, red.) har en rolle. Og i dokumentarfilm kan man bruge teknologien til fx at anonymisere personer, som det er gjort med de medvirkende bøsser og lesbiske i den ukrainske dokumentar 'Welcome to Chechnya'."

Deepfakes ble for alvor kjent i den bredere offentligheten i 2017, da en bruker på nettstedet Reddit begynte å laste opp videoer, av først og fremst med pornografisk innhold. Like etter kunne brukerne finne videoer der ansiktene av berømte artister som Taylor Swift og Katy Perry var manipulert inn i pornofilmene.

Både Google, Facebook og Twitter lansert prosjekter som skal oppdage og fjerne de falske videoene før de rekker å spre feilinformasjonen på nettet.

Facebook har brukt millioner av dollar på å finansiere akademiske institusjoner som har billed- og videoanalyser på programmet og samtidig forsker på hvordan deepfakevideoer kan utryddes.

Og av samme årsak er Bjerg og resten av MIT-teamet tilbakeholdne med å forklare i detalj hvordan de har skapt videoen. Han sier også:

«Vi er ganske imponert – og sjokkert – over hvor god deepfakevideoen ble. Det er imidlertid betryggende at det tross alt tok oss tre måneder, så vi har litt tid å gå på, selv om det hele tiden blir raskere, billigere og bedre.»