V poslední době Reddit opět přináší novinky pomocí subredditu, ve kterém lidé používají nástroj strojového učení s názvem „Deep Fake“ k automatickému nahrazení tváře jedné osoby ve videu. Je zřejmé, že jelikož se jedná o internet, lidé ho používají pro dvě věci: falešný porno celebrit a vkládání Nicolase Cagea do náhodných filmů.
Při výměně něčí tváře na fotografii ano vždy to bylo relativně snadné , vyměňovat něčí tvář ve videu bývalo časově náročné a obtížné. Až dosud to dělají hlavně studia VFX pro velké hollywoodské filmy, kde je tvář herce vyměněna za jejich kaskadérský dvojník. Ale teď, s Deep Fake, to může rychle a automaticky udělat kdokoli s počítačem.
Než budete pokračovat, musíte vědět, jak Deep Fake vypadá. Podívejte se na video SFW níže, které je kompilací různých swapů tváří celebrit, hlavně s Nic Cageem.
Software Deep Fake funguje pomocí strojového učení. Nejprve se trénuje s cílovou tváří. Zkreslené obrazy cíle jsou spouštěny algoritmem a učí se, jak je opravit, aby se podobaly nezměněné tváři cíle. Když je pak algoritmu přiváděny obrazy jiné osoby, předpokládá, že se jedná o zkreslené obrazy cíle, a pokusí se je opravit. Chcete-li získat video, software Deep Fake pracuje na každém snímku jednotlivě.
Důvodem, proč Deep Fakes do značné míry zapojili herce, je to, že je k dispozici spousta záběrů z různých úhlů, což zefektivňuje trénink ( 91 působících kreditů na IMDB ). Vzhledem k množství fotografií a videí, které lidé zveřejňují online, a že k trénování algoritmu potřebujete opravdu jen asi 500 obrázků, není důvod, aby na ně nemohli být zacíleni také obyčejní lidé, i když pravděpodobně s trochou menšího úspěchu.
Jak odhalit hlubokou faleš
Právě teď jsou Deep Fakes docela snadno rozpoznatelné, ale s vylepšením technologie to bude těžší. Zde jsou některé dárky.
Divně vypadající tváře. Ve spoustě Deep Fakes vypadají tváře divně. Funkce se neshodují dokonale a vše se zdá být trochu voskové, jako na obrázku níže. Pokud všechno ostatní vypadá normálně, ale tvář vypadá divně, je to pravděpodobně Deep Fake.
Blikající . Společným rysem špatných videí Deep Fake je tvář, která bliká, a původní funkce se občas objevují. Obvykle je to zřetelnější na okrajích obličeje nebo když něco projde před ním. Pokud dojde k podivnému blikání, díváte se na Deep Fake.
Různá těla. Hluboké padělky jsou pouze výměny tváří. Většina lidí se snaží získat dobrou shodu těla, ale není to vždy možné. Pokud se zdá, že je člověk znatelně těžší, lehčí, vyšší, kratší nebo má tetování, které ve skutečnosti nemá (nebo nemá tetování, které ve skutečnosti má), je velká šance, že je falešné. Níže můžete vidět opravdu zřejmý příklad, kde byla tvář Patricka Stewarta vyměněn s J.K. Simmons ve scéně z filmu Whiplash. Simmons je podstatně menší než Stewart, takže to vypadá divně.
Krátké klipy. Právě teď, i když software Deep Fake funguje perfektně a vytváří téměř nerozeznatelný swap obličeje, dokáže to opravdu jen na krátkou dobu. Zanedlouho se začne dít jeden z výše uvedených problémů. Proto je většina klipů Deep Fake, které lidé sdílejí, dlouhá jen pár sekund, zbytek záznamu je nepoužitelný. Pokud se vám zobrazí velmi krátký klip celebrity, která něco dělá, a není žádný dobrý důvod, proč je to tak krátké, je to vodítko, že jde o Deep Fake.
Žádný zvuk nebo špatná synchronizace rtů. Software Deep Fake upravuje pouze rysy obličeje; nedělá to kouzlem, aby jedna osoba zněla jako druhá. Pokud s klipem není žádný zvuk a není důvod, aby zvuk nezněl, jedná se o další vodítko, kterým se díváte na Deep Fake. Podobně, i když je zvuk, pokud se mluvená slova neshodují správně s pohybujícími se rty (nebo rty vypadají divně, zatímco osoba mluví jako v klipu níže), můžete mít Deep Fake.
Neuvěřitelné klipy . Tento druh je samozřejmostí, ale pokud se vám zobrazí skutečně neuvěřitelný klip, existuje velká šance, že byste tomu vlastně neměli věřit. Nicolas Cage nikdy nehrál jako Loki ve filmu Marvel. To by však bylo super.
Pochybné zdroje. Stejně jako u falešných fotografií, odkud video údajně pochází, je často velkou stopou, pokud jde o jeho autenticitu. Pokud v New York Times běží příběh, je mnohem pravděpodobnější, že to bude něco, co objevíte v náhodném koutku Redditu.
Prozatím jsou Deep Fakes spíše děsivou zvědavostí než velkým problémem. Výsledky jsou snadno zjistitelné a přestože je nemožné omlouvat, co se děje, nikdo se zatím nepokouší vydávat Deep Fakes za originální videa.
Jak se bude technologie zlepšovat, bude pravděpodobně mnohem větší problém. Například přesvědčivé falešné záběry Kim Čong-una, který vyhlásil válku USA, by mohly způsobit velkou paniku.