Nylig har Reddit gjort nyheter igjen med en subreddit der folk bruker et maskinlæringsverktøy kalt "Deep Fake" for automatisk å erstatte en persons ansikt med en annen i en video. Åpenbart, siden dette er internett, bruker folk det til to ting: falsk kjendisporno og å sette Nicolas Cage inn i tilfeldige filmer.
Mens du bytter andres ansikt på et fotografi har alltid vært relativt enkelt å bytte andres ansikt i en video pleide å være tidkrevende og vanskelig. Frem til nå er det hovedsakelig bare blitt gjort av VFX-studioer for store budsjett Hollywood-filmer, hvor ansiktet til en skuespiller blir byttet ut på deres stunt-dobbel. Men nå, med Deep Fake, kan alle med en datamaskin gjøre det raskt og automatisk.
Før du går videre, må du vite hvordan en Deep Fake ser ut. Sjekk ut SFW-videoen nedenfor, som er en samling av forskjellige kjendis-ansiktsbytter, hovedsakelig involverende Nic Cage.
Deep Fake-programvaren fungerer ved hjelp av maskinlæring. Den blir først trent med et målansikt. Forvrengte bilder av målet kjøres gjennom algoritmen, og den lærer hvordan de kan korrigeres for å ligne det uendrede målflaten. Når algoritmen deretter mates bilder av en annen person, antar den at de er forvrengte bilder av målet, og prøver å korrigere dem. For å få video fungerer Deep Fake-programvaren på hver ramme individuelt.
Årsaken til at Deep Fakes stort sett bare har involvert skuespillere er at det er mye opptak av dem tilgjengelig fra forskjellige vinkler som gjør trening mer effektiv (Nicolas Cage har 91 skuespillerkreditter på IMDB ). Men gitt hvor mange bilder og video folk legger ut på nettet, og at du egentlig bare trenger omtrent 500 bilder for å trene algoritmen, er det ingen grunn til at vanlige mennesker ikke kan bli målrettet også, men sannsynligvis med litt mindre suksess.
Hvordan få øye på en dyp forfalskning
Akkurat nå er Deep Fakes ganske enkelt å få øye på, men det vil bli vanskeligere etter hvert som teknologien blir bedre. Her er noen av gaveene.
Rare ansikter. I mange Deep Fakes ser ansiktene bare rare ut. Funksjonene stemmer ikke perfekt opp, og alt virker bare litt voksaktig som på bildet nedenfor. Hvis alt annet ser normalt ut, men ansiktet ser rart ut, er det sannsynligvis en Deep Fake.
Flimring . Et vanlig trekk ved dårlige Deep Fake-videoer er at ansiktet ser ut til å flimre, og de originale funksjonene dukker av og til inn. Det er normalt mer tydelig i kantene på ansiktet eller når noe passerer foran det. Hvis rare flimring skjer, ser du på en Deep Fake.
Ulike kropper. Deep Fakes er bare ansiktsbytter. De fleste prøver å få en god kroppsmatch, men det er ikke alltid mulig. Hvis personen ser ut til å være merkbart tyngre, lettere, høyere, kortere eller har tatoveringer de ikke har i det virkelige liv (eller ikke har tatoveringer de har i det virkelige liv), er det en god sjanse for at den er falsk. Du kan se et veldig åpenbart eksempel nedenfor, der Patrick Stewarts ansikt har vært byttet med J.K. Simmons i en scene fra filmen Whiplash. Simmons er betydelig mindre enn Stewart, så det ser bare rart ut.
Korte klipp. Akkurat nå, selv når Deep Fake-programvaren fungerer perfekt og skaper en nesten umulig å skille ansiktsbytte, kan den bare virkelig gjøre det i kort tid. Før for lenge begynner et av problemene ovenfor å skje. Derfor er de fleste Deep Fake-klipp som folk deler bare et par sekunder lange, resten av opptakene er ubrukelige. Hvis du får vist et veldig kort klipp av en kjendis som gjør noe, og det ikke er noen god grunn til at det er så kort, er det en anelse om at det er en Deep Fake.
Ingen lyd eller dårlig leppesynkronisering. Deep Fake-programvaren justerer bare ansiktsegenskaper; det gjør ikke magisk at en person høres ut som en annen. Hvis det ikke er lyd med klippet, og det ikke er noen grunn til at de ikke er lyd, er det en annen anelse om at du ser på en Deep Fake. På samme måte, selv om det er lyd, hvis de talte ordene ikke stemmer overens med de bevegelige leppene (eller leppene ser rart ut mens personen snakker som i klippet nedenfor), kan du ha en Deep Fake.
Utrolige klipp . Denne typen sier seg selv, men hvis du får vist et virkelig utrolig klipp, er det en god sjanse for at du faktisk ikke skal tro det. Nicolas Cage har aldri spilt som Loki i en Marvel-film. Det ville være kult, skjønt.
Tvilsomme kilder. Som med falske bilder, der videoen angivelig kommer fra, er ofte en stor anelse om dens ekthet. Hvis New York Times kjører en historie om det, er det langt mer sannsynlig at det er sant at noe du oppdager i et tilfeldig hjørne av Reddit.
Foreløpig er Deep Fakes mer en forferdelig nysgjerrighet enn et stort problem. Resultatene er lette å få øye på, og selv om det er umulig å tolerere det som blir gjort, er det ingen som ennå prøver å gi Deep Fakes ut som ekte videoer.
Etter hvert som teknologien blir bedre, vil de sannsynligvis være et mye større problem. For eksempel kan overbevisende falske opptak av Kim Jong Un som erklærer krig mot USA føre til stor panikk.