Onlangs heeft Reddit weer nieuws gemaakt met een subreddit waarin mensen een machine learning tool genaamd "Deep Fake" gebruiken om in een video automatisch het gezicht van een persoon te vervangen door een ander. Omdat dit internet is, gebruiken mensen het natuurlijk voor twee dingen: nepporno van beroemdheden en Nicolas Cage in willekeurige films invoegen.
Bij het wisselen van iemands gezicht op een foto heeft altijd relatief eenvoudig geweest , het wisselen van iemands gezicht in een video was vroeger tijdrovend en moeilijk. Tot nu toe werd het voornamelijk gedaan door VFX-studio's voor Hollywood-films met een groot budget, waarbij het gezicht van een acteur wordt verwisseld voor hun stuntdubbel. Maar nu, met Deep Fake, kan iedereen met een computer dit snel en automatisch doen.
Voordat je verder gaat, moet je weten hoe een Deep Fake eruitziet. Bekijk de SFW-video hieronder die een compilatie is van verschillende face-swaps van beroemdheden, voornamelijk met Nic Cage.
De Deep Fake-software werkt met machine learning. Het wordt eerst getraind met een doelwit. Vervormde beelden van het doel worden door het algoritme geleid en het leert hoe ze te corrigeren om op het ongewijzigde doelvlak te lijken. Wanneer het algoritme vervolgens afbeeldingen van een andere persoon ontvangt, gaat het ervan uit dat het vervormde afbeeldingen van het doelwit zijn en probeert het deze te corrigeren. Om video te krijgen, werkt de Deep Fake-software op elk frame afzonderlijk.
De reden dat Deep Fakes grotendeels alleen acteurs heeft betrokken, is dat er veel beeldmateriaal van hen beschikbaar is vanuit verschillende invalshoeken, wat de training effectiever maakt (Nicolas Cage heeft 91 waarnemend credits op IMDB ). Maar gezien het aantal foto's en video's dat mensen online posten en je eigenlijk maar ongeveer 500 afbeeldingen nodig hebt om het algoritme te trainen, is er geen reden waarom gewone mensen ook niet kunnen worden getarget, hoewel waarschijnlijk met iets minder succes.
Hoe herken je een diepe nep
Op dit moment zijn diepe vervalsingen vrij gemakkelijk te herkennen, maar het wordt moeilijker naarmate de technologie beter wordt. Hier zijn enkele van de weggeefacties.
Raar uitziende gezichten. In veel Deep Fakes zien de gezichten er gewoon raar uit. De functies komen niet perfect overeen en alles lijkt een beetje wasachtig, zoals in de onderstaande afbeelding. Als al het andere er normaal uitziet, maar het gezicht er raar uitziet, is het waarschijnlijk een diepe nep.
Flikkerend . Een veelvoorkomend kenmerk van slechte Deep Fake-video's is dat het gezicht lijkt te flikkeren en dat de originele kenmerken af en toe in beeld komen. Het is normaal gesproken duidelijker aan de randen van het gezicht of wanneer iets ervoor passeert. Als er rare flikkeringen optreden, kijk je naar een Deep Fake.
Verschillende lichamen. Deep Fakes zijn alleen face-swaps. De meeste mensen proberen een goede lichaamsmatch te krijgen, maar dat is niet altijd mogelijk. Als de persoon merkbaar zwaarder, lichter, groter, kleiner lijkt of tatoeages heeft die ze in het echte leven niet hebben (of geen tatoeages heeft die ze in het echte leven wel hebben), is de kans groot dat het nep is. Je kunt hieronder een heel duidelijk voorbeeld zien, waar het gezicht van Patrick Stewart was geruild met J.K. Simmons in een scène uit de film Whiplash. Simmons is aanzienlijk kleiner dan Stewart, dus het ziet er gewoon vreemd uit.
Korte clips. Op dit moment, zelfs als de Deep Fake-software perfect werkt en een bijna niet te onderscheiden face-swap creëert, kan het dit slechts voor een korte tijd echt doen. Binnenkort zal een van de bovenstaande problemen optreden. Dat is de reden waarom de meeste Deep Fake-clips die mensen delen maar een paar seconden lang zijn, de rest van de beelden is onbruikbaar. Als je een heel korte clip te zien krijgt van een beroemdheid die iets doet, en er is geen goede reden waarom het zo kort is, is het een aanwijzing dat het een Deep Fake is.
Geen geluid of slechte lipsynchronisatie. De Deep Fake-software past alleen gelaatstrekken aan; het maakt niet op magische wijze dat de ene persoon klinkt als de andere. Als er geen geluid is met de clip, en er is geen reden waarom ze niet kloppen, is het een andere aanwijzing dat je naar een Deep Fake kijkt. Evenzo, zelfs als er geluid is, als de gesproken woorden niet correct overeenkomen met de bewegende lippen (of als de lippen er vreemd uitzien terwijl de persoon praat zoals in de onderstaande clip), heb je misschien een diepe nep.
Ongelooflijke clips . Dit is nogal vanzelfsprekend, maar als je een echt ongelooflijke clip te zien krijgt, is de kans groot dat je het niet echt moet geloven. Nicolas Cage heeft nog nooit de hoofdrol gespeeld als Loki in een Marvel-film. Dat zou echter cool zijn.
Dubieuze bronnen. Zoals bij nepfoto's, waar de video zogenaamd vandaan komt, is vaak een grote aanwijzing voor de authenticiteit ervan. Als de New York Times er een verhaal over vertelt, is het veel waarschijnlijker dat iets dat je ontdekt in een willekeurige hoek van Reddit.
Voorlopig zijn Deep Fakes meer een gruwelijke nieuwsgierigheid dan een groot probleem. De resultaten zijn gemakkelijk te herkennen, en hoewel het onmogelijk is om goed te keuren wat er wordt gedaan, probeert nog niemand Deep Fakes als echte video's door te geven.
Naarmate de technologie echter beter wordt, wordt het waarschijnlijk een veel groter probleem. Overtuigende nepbeelden van Kim Jong Un die de VS de oorlog verklaart, kunnen bijvoorbeeld voor grote paniek zorgen.