Niedawno Reddit ponownie publikuje wiadomości dzięki subredditowi, w którym ludzie używają narzędzia uczenia maszynowego o nazwie „Deep Fake”, aby automatycznie zamieniać twarz jednej osoby na inną w filmie. Oczywiście, ponieważ jest to internet, ludzie używają go do dwóch rzeczy: fałszywego porno z celebrytami i wstawiania Nicolasa Cage'a do przypadkowych filmów.
Podczas zamiany czyjejś twarzy na zdjęciu ma zawsze było stosunkowo łatwe , zamiana czyjejś twarzy w filmie była kiedyś czasochłonna i trudna. Do tej pory było to robione głównie przez studia VFX na potrzeby wysokobudżetowych filmów z Hollywood, w których twarz aktora jest zamieniana na ich kaskaderski sobowtór. Ale teraz, dzięki Deep Fake, każdy, kto ma komputer, może to zrobić szybko i automatycznie.
Zanim przejdziesz dalej, musisz wiedzieć, jak wygląda Deep Fake. Obejrzyj poniższy film SFW, który jest kompilacją różnych zamiany twarzy celebrytów, głównie z udziałem Nic Cage.
Oprogramowanie Deep Fake działa z wykorzystaniem uczenia maszynowego. Najpierw trenuje się z twarzą docelową. Algorytm przepuszcza zniekształcone obrazy celu i uczy się, jak je korygować, aby przypominały niezmienioną twarz celu. Kiedy algorytm jest następnie karmiony obrazami innej osoby, zakłada, że są to zniekształcone obrazy celu i próbuje je poprawić. Aby uzyskać wideo, oprogramowanie Deep Fake działa na każdej klatce indywidualnie.
Powodem, dla którego Deep Fakes w dużej mierze zaangażowali tylko aktorów, jest to, że jest wiele ich nagrań dostępnych z różnych punktów widzenia, co sprawia, że trening jest bardziej skuteczny (Nicolas Cage ma 91 kredytów działających na IMDB ). Jednak biorąc pod uwagę liczbę zdjęć i filmów, które ludzie publikują w Internecie, oraz fakt, że do wytrenowania algorytmu potrzeba tylko około 500 obrazów, nie ma powodu, dla którego zwykli ludzie również nie mogą być celem, choć prawdopodobnie z trochę mniejszym powodzeniem.
Jak rozpoznać głęboką podróbkę
W tej chwili Deep Fakes są dość łatwe do wykrycia, ale będzie trudniejsze, gdy technologia będzie coraz lepsza. Oto kilka prezentów.
Dziwnie wyglądające twarze. W wielu Deep Fakes twarze wyglądają po prostu dziwnie. Funkcje nie są idealnie dopasowane i wszystko wydaje się nieco woskowate, jak na poniższym obrazku. Jeśli wszystko inne wygląda normalnie, ale twarz wygląda dziwnie, to prawdopodobnie Deep Fake.
Migocący . Wspólną cechą złych filmów Deep Fake jest migotanie twarzy i okazjonalne pojawianie się oryginalnych funkcji. Zwykle jest to bardziej widoczne na krawędziach twarzy lub gdy coś przed nią przechodzi. Jeśli zdarzy się dziwne migotanie, patrzysz na Deep Fake.
Różne organy. Deep Fakes to tylko zamiana twarzy. Większość ludzi próbuje uzyskać dobre dopasowanie ciała, ale nie zawsze jest to możliwe. Jeśli osoba wydaje się być zauważalnie cięższa, lżejsza, wyższa, niższa lub ma tatuaże, których nie ma w prawdziwym życiu (lub nie ma tatuaży, które mają w prawdziwym życiu), istnieje duża szansa, że jest fałszywa. Możesz zobaczyć naprawdę oczywisty przykład poniżej, gdzie była twarz Patricka Stewarta zamieniony z J.K. Simmons w scenie z filmu Whiplash. Simmons jest znacznie mniejszy niż Stewart, więc wygląda dziwnie.
Krótkie klipy. W tej chwili, nawet jeśli oprogramowanie Deep Fake działa doskonale i tworzy prawie nieodróżnialną zamianę twarzy, może to zrobić naprawdę tylko przez krótki czas. Niedługo zacznie się jeden z powyższych problemów. Dlatego większość klipów Deep Fake, które ludzie udostępniają, ma tylko kilka sekund, a reszta materiału jest bezużyteczna. Jeśli pokazano Ci bardzo krótki klip przedstawiający celebrytę, który coś robi, i nie ma żadnego powodu, by był taki krótki, to wskazówka, że to Deep Fake.
Brak synchronizacji dźwięku lub usterek. Oprogramowanie Deep Fake dostosowuje tylko rysy twarzy; nie sprawia, że jedna osoba w magiczny sposób brzmi jak inna. Jeśli w klipie nie ma dźwięku i nie ma powodu, aby nie było dźwięku, to kolejna wskazówka, że patrzysz na Deep Fake. Podobnie, nawet jeśli słychać dźwięk, jeśli wypowiadane słowa nie pasują prawidłowo do poruszających się ust (lub usta wyglądają dziwnie, gdy osoba mówi tak, jak w klipie poniżej), możesz mieć Deep Fake.
Niewiarygodne klipy . Ten jeden rodzaj jest oczywisty, ale jeśli pokazano Ci naprawdę niewiarygodny klip, jest duża szansa, że nie powinieneś w to wierzyć. Nicolas Cage nigdy nie zagrał jako Loki w filmie Marvela. Ale byłoby fajnie.
Wątpliwe źródła. Podobnie jak w przypadku fałszywych zdjęć, gdzie wideo rzekomo pochodzi, często jest dużą wskazówką co do jego autentyczności. Jeśli New York Times pisze na ten temat artykuł, jest o wiele bardziej prawdopodobne, że jest prawdą, że coś odkryjesz w przypadkowym zakątku Reddit.
Na razie Deep Fakes są bardziej przerażającą ciekawostką niż poważnym problemem. Rezultaty są łatwe do zauważenia i chociaż nie można zaakceptować tego, co się dzieje, nikt jeszcze nie próbuje przedstawiać Deep Fakes jako oryginalnych filmów.
Jednak wraz z rozwojem technologii będą one prawdopodobnie znacznie większym problemem. Na przykład przekonujące fałszywe nagrania przedstawiające Kim Jong Un wypowiadającego wojnę USA mogą wywołać poważną panikę.