'Historisk' tale: Snyder de også dig?

Lige nu bliver deepfake-teknologi mest brug til at lave falsk kendisporno, men en gruppe forskere har lavet en falsk video med Nixon, der også fører eksperter bag lyset

Det er praktisk talt umuligt at se, at videoen er falsk. Video: Francesca Panetta og Halsey Burgund, MIT

Sandt eller falsk?

Det er praktisk talt umuligt at se, når der er tale om deepfakes, altså avancerede falske videoer, der er lavet ved hjælp af kunstig intelligens.

På Massachusetts Institute of Technology (MIT) har en gruppe forskere udviklet en deepfake video, hvor USA's præsident Nixon holder en tale, hvor han fortæller, at astronauterne fra månelandingen i 1969 ikke kan vende tilbage til jorden.

Det skriver MIT i en pressemeddelelse.

'In Event of Moon Disaster'-talen blev rent faktisk skrevet i tilfælde af, at Apollo 11-missionen skulle gå galt, men den blev af gode grunde aldrig holdt.

Den danske journalist Magnus Bjerg var med til at udvikle konceptet og finde virksomheder, der skulle hjælpe med teknologien bag den falske video, og han fortæller, at det tog tre måneder at lave den falske tale.

- For at lave vores video arbejdede vi med to forskellige AI-systemer. Et til at lave mundbevægelserne og et til at skabe den syntetiske stemme. Det sidste var faktisk det sværeste og krævede mange dage i et lydstudie for at træne algoritmen, forklarer han.

Hvad er deepfake?

Deepfakes er falske videoer, der er blevet til ved hjælp af kunstig intelligens.

Man kan fx manipulere lyden, så det lyder som om, at folk siger noget andet, end der i virkeligheden bliver sagt, eller man kan manipulere en andet ansigt ind i videoen.

Ofte bruges der én algoritme, der lærer, hvordan man får noget til at se ægte ud. Den suppleres af en anden algoritme, der fanger ting, der ikke ser ægte ud, og på den måde bliver de falske videoer mere og mere overbevisende.

Deepfakes kan blandt andet misbruges til hævnporno, kendisporno og politisk manipulation.

 

- Det er jo særligt sårbart for mig i kraft af mit job som sexolog. Folk kan jo sagtens tro, at det rent faktisk er et billede af mig, da jeg til dagligt arbejder med sex. Men mit arbejde er at informere folk og ikke at sælge sex. Så det gør mig ked af det, når disse mennesker forsøger seksualisere mig. Foto: Ivan Boll 112 - 28. nov. 2018 - kl. 12:58 Joan Ørting misbrugt på pornoside

Troede, det var Nixon
MIT-projektet har vakt opsigt, siden det blev offentliggjort sidste efterår.

- Da vi viste filmen på IDFA-festivalen i Amsterdam, var der flere gæster, der troede, at Nixon rent faktisk indspillede sin backup-tale for at være klar til worst case scenario. De opdagede slet ikke, at både mundbevægelser og stemme var skabt af os, før vi selv fortalte dem det.

- Vi har også vist den til en række eksperter, der sagde, at de hvis de ikke vidste det, og havde set den på en mobiltelefon ikke ville kunne se, at der var tale om en deepfake. Det har skræmmende perspektiver. Netop derfor har vi lavet projektet - for at sprede kendskab til teknikkens muligheder, før det bliver brugt til at påvirke en valghandling, aktiekurser eller lignende.

Se også: Falsk kendis-porno er en juridisk gråzone

Skræmmende perspektiver
Virksomheder som Twitter, Facebook og Reddit er allerede gået til kamp mod deepfakes, og i Californien blev det i 2019 forbudt at lave deepfakes af folk, hvis ikke de havde givet deres samtykke - men der er også masser potentiale i teknologien.

- Snart vil du måske ikke bare kunne vælge mellem forskellige sprog i underteksterne, men også selv kunne bestemme, hvilket sprog Tom Cruise skal tale i den nye Mission Impossible-film, lyder det fra Magnus Bjerg. 

- Når det er sagt, er det klart, at der er nogle åbenlyse muligheder for misbrug. Hvad gør vi for eksempel, hvis der dagen inden et valg dukker en video op, hvor en politisk kandidat tilsyneladende siger noget modbydeligt racistisk i en privat samtale? Nogle forskere har forudset, at toppolitikere og direktører kommer til at lave 'defensiv selvovervågning', hvor de filmer alt, hvad de laver, så de hurtigt kan afvise den slags.

- Det lyder virkelig som science fiction, men er nogle af de ting, vi kommer til at overveje og tale om de kommende år, når vi ikke længere kan stole på, hvad vi ser med vores egne øjne.

Se også: Mona Lisa vækket til live med kunstig intelligens

På MIT lavede de ikke blot en konstrueret tale, men også en kort film, som du kan se her:

Video: Francesca Panetta og Halsey Burgund, MIT

196 kommentarer
Vis kommentarer