Filmy Deepfake robią się przerażająco dobre

Sep 06 2018
Fałszywe filmy stworzone przez algorytmy wspomagane sztuczną inteligencją - deepfakes - są tutaj i prawie niemożliwe do wykrycia, dodając kolejną warstwę do wojen dezinformacyjnych.
Jeśli technologia będzie nadal podążać swoją obecną trajektorią, wykrywanie filmów deepfake wspomaganych przez sztuczną inteligencję stanie się niemożliwe. Plume Creative / Getty Images

Na tym etapie jego rozwoju coś niezaprzeczalnie przerażającego wciąż przebiega przez deepfakes, chwytliwą, ale mylącą etykietę dla fałszywych filmów tworzonych i manipulowanych za pomocą sztucznej inteligencji (AI) i głębokiego uczenia maszynowego.

Nie chodzi tylko o dziwne, trochę oderwane, nie do końca poprawne filmy wyprodukowane przez te coraz bardziej wyrafinowane programy. Chociaż tak, mogą być niepokojące. I to nie tylko dylemat etyczny związany z modyfikowaniem oryginalnych zdjęć i filmów. Chociaż to zdecydowanie szturchanie gniazda szerszeni.

Przede wszystkim chodzi o to, że szybko zbliżamy się do punktu, w którym po prostu możemy nie być w stanie zaufać własnym oczom. Czy to zdjęcie jest prawdziwym odzwierciedleniem tematu? Czy to wideo? Czy ta twarz pasuje do tego ciała? Czy te słowa pasują do tej twarzy?

Czy ten facet naprawdę może tak tańczyć?

Informatyka stojąca za Deepfakes

Pod koniec 2017 roku użytkownik Reddita znany jako Deepfakes, według Know Your Meme , ujawnił kilka filmów pornograficznych z zamianą twarzy - jest dokładnie tak smutny i kiepski, jak się wydaje; czyjaś twarz, często osoba publiczna, nałożona na czyjąś głowę - i zaczął się szał deepfakes.

Wkrótce potem Deepfakes uruchomił aplikację FakeApp i ludzie zaczęli ją przeskakiwać. Od tamtej pory powstały różnego rodzaju memy z tego i innych programów - niektóre śmieszne, niektóre po prostu przerażające, inne gorsze. Obejmują one twarz Nicolasa Cage'a na ciele Amy Adams (gra Lois Lane w filmie o Supermanie) i świetną produkcję BuzzFeed z udziałem komika Jordana Peele, jako byłego prezydenta Baracka Obamy, który ostrzega przed niektórymi z bardziej prawdopodobnie złowrogich zastosowań technologii w nieco NSFW wideo (które kończy się Fauxbama mówiąc: „Nie śpij, bi $% * es!”).

Najnowszy film o deepfake'u pojawił się dzięki uprzejmości TikTokera podszywającego się pod Toma Cruise'a. Trzy filmy są szokująco prawdziwe i pokazują między innymi Cruise uderzającego piłeczkę golfową. Filmy zostały stworzone przez Chrisa Ume , specjalistę od efektów wizualnych z Belgii.

Informatyka używana do tworzenia programów stojących za tymi filmami może być niezwykle złożona, znacznie bardziej intensywna niż ta, której używa się do prostych deepfake'ów. Skomplikowane algorytmy i terminy informatyczne, takie jak generatywne sieci przeciwstawne (GAN) i głębokie sieci neuronowe, uzupełniają artykuły naukowe dotyczące bardziej zaawansowanych technik edycji wideo.

Ogólnie rzecz biorąc, programy te badają wideo obiektu klatka po klatce i „uczą się” rozmiaru i kształtu oraz ruchów obiektu, aby można było je przenieść na inny obiekt na wideo. Podczas gdy głębokie podróbki ograniczały się głównie do zamiany twarzy badanych, bardziej zaawansowane programy mogą przenosić pozycje głowy w pełnym 3D, w tym takie rzeczy, jak pochylenie głowy, podniesiona brwi lub zaciśnięte usta. Wykonano pewną pracę nad ruchami całego ciała.

Im więcej tych programów wykrywa, tym więcej zmiennych jest zasilanych i „uczą się”, tym wydajniejsze, efektywniejsze i bardziej realistyczne stają się filmy.

Beyond Deepfakes

Należy zauważyć, że nie wszystkie techniki edycji wideo i zdjęć oparte na sztucznej inteligencji i uczeniu maszynowym to podróbki deepfake. Pracownicy naukowi, którzy pracują w terenie, postrzegają deepfakes jako amatorów, zdegradowanych do zwykłej zamiany twarzy.

Grupa z Uniwersytetu Kalifornijskiego w Berkeley pracuje nad techniką, która wprawia w ruch całe ciało - profesjonalnego tancerza - i zamienia je na ciało amatora na wideo. Przy odrobinie sztucznej inteligencji nawet ktoś z dwiema lewymi stopami może przynajmniej wyglądać na poruszającego się jak Barysznikow. Grupa Berkeley szczegółowo opisuje swoją pracę w artykule Everybody Dance Now .

Oczywiście technika nie jest doskonała. Ale to jest trudna sprawa. Nawet zdjęcie ruchomej twarzy wygenerowanej komputerowo jest trudne. Obecnie większość twarzy generowanych przez sztuczną inteligencję, nawet na deepfake'ach - szczególnie na deepfakeach - to oczywiste fałszerstwa. Coś, prawie zawsze, wydaje się trochę nie tak.

„Myślę, że jedną rzeczą są cienie twarzy” - mówi Tinghui Zhou, absolwent informatyki w Berkeley i jeden z autorów Everybody Dance Now. „My [ludzie] jesteśmy bardzo dobrzy w rozpoznawaniu, czy twarz jest prawdziwa, czy nie - szczegóły cieni, sposób poruszania się zmarszczek, ruch oczu - wszystkie te szczegóły muszą być dokładnie poprawne. Myślę, że system uczenia maszynowego obecnie nadal nie jest w stanie uchwycić tych wszystkich szczegółów ”.

Inny nowy system manipulacji wideo AI - lub, jak nazywają to jego architekci, „fotorealistyczna re-animacja filmów portretowych” - w rzeczywistości wykorzystuje jednego „źródłowego” aktora, który może zmienić twarz „docelowego” aktora.

Ty, „źródło” (na przykład), poruszasz ustami w określony sposób, komputery odwzorowują ruch, wprowadzają go do programu edukacyjnego, a program tłumaczy to na wideo, w którym Obama wypowiada twoje słowa . Śmiejesz się lub unosisz brew, i Obama też.

Artykuł na temat tego procesu, znany jako Deep Video Portraits , został przedstawiony na konferencji poświęconej grafice komputerowej i technikom interaktywnym w Vancouver w połowie sierpnia 2018 r. I ujawnia miejsce dla programu: Hollywood.

„Filmy generowane komputerowo są integralną częścią filmów fabularnych od ponad 30 lat. Praktycznie każda produkcja filmowa wysokiej klasy zawiera znaczny procent obrazów generowanych komputerowo (CGI), od Władcy Pierścieni po Benjamina Button ” - piszą autorzy . „Wyniki te są trudne do odróżnienia od rzeczywistości i często pozostaje niezauważone, że te treści nie są prawdziwe ... ale proces był czasochłonny i wymagał ekspertów dziedzinowych. Produkcja nawet krótkiego syntetycznego klipu wideo kosztuje miliony miesięcy pracy, nawet dla profesjonalnie wyszkolonych artystów, ponieważ muszą ręcznie tworzyć i animować ogromne ilości treści 3D ”.

Dzięki sztucznej inteligencji możemy teraz tworzyć te same obrazy w znacznie krótszym czasie. I taniej. I - jeśli nie teraz, to wkrótce - równie przekonująco.

Chodzenie po linie etycznej

Proces manipulowania istniejącym filmem lub tworzenia nowego wideo z fałszywymi obrazami, jak ostrzega komik Peele i inni, może być wręcz niebezpieczny w niepowołanych rękach. Niektórym wybitnym aktorkom i artystom estradowym ukradziono twarze i wpleciono je w filmy porno w najbardziej niepokojących wczesnych przykładach deepfake'ów. Używanie obrazów do tworzenia „ fałszywych wiadomości ” , jak ostrzegał Peele w swoim filmie o Obamie, jest bardzo realną możliwością.

Wiele sklepów podjęło już kroki, aby powstrzymać deepfakes. W rzeczywistości Reddit zamknął deepfakes subReddit. Pornhub obiecuje zakazać pornografii generowanej przez sztuczną inteligencję. Tumblr i Twitter to między innymi strony zakazujące podrabiania treści pornograficznych.

Ale te filmy mogą nie być szczególnie łatwe do nadzorowania, zwłaszcza że programy do ich tworzenia są ulepszane. Michael Zollhöfer, profesor informatyki na Uniwersytecie Stanforda i jeden z twórców Deep Video Portraits, mówi, że członkowie społeczności akademickiej są świadomi związanej z tym etyki. Zollhöfer, w komunikacie prasowym zapowiadającym jego projekt:

Branża medialna od wielu lat poprawia zdjęcia za pomocą oprogramowania do edycji zdjęć, co oznacza, że ​​większość z nas nauczyła się traktować to, co widzimy na zdjęciach, z przymrużeniem oka. Wraz z ciągłym ulepszaniem technologii edycji wideo musimy również zacząć być bardziej krytyczni wobec treści wideo, które konsumujemy każdego dnia, zwłaszcza jeśli nie ma dowodu pochodzenia.

Wszyscy zaangażowani w tworzenie tej technologii, mówi Zhou, muszą podjąć odpowiednie kroki, aby nie była ona niewłaściwie wykorzystywana. Pomocne będzie opracowanie oprogramowania do wykrywania ulepszonych lub zmienionych przez komputer filmów wideo oraz oznaczanie wideo niewidocznymi „znakami wodnymi”, aby pokazać, w ramach oceny kryminalistycznej, że zostały one wygenerowane komputerowo. Ponownie z Deep Video Portraits:

Należy zauważyć, że szczegółowe badanie i zrozumienie algorytmów i zasad stojących za najnowocześniejszymi narzędziami do edycji wideo, w miarę ich prowadzenia, jest również kluczem do opracowania technologii umożliwiających wykrycie ich wykorzystania ... Metody wykrywania manipulacji wideo i metody wykonywania edycji wideo opierają się na bardzo podobnych zasadach.

Mówi Zhou: „Myślę, że my, jako badacze, zdecydowanie ponosimy odpowiedzialność za podnoszenie świadomości społecznej w zakresie nadużywania tych technologii. Chcę jednak podkreślić: istnieje wiele pozytywnych zastosowań tych badań. prośby tancerzy, by wykorzystali nasze badania, aby pomóc im tańczyć. Istnieją pozytywne aspekty tej technologii ”.

Co nas czeka

Dziedzina stale się poprawia, ponieważ programy stają się coraz bardziej wyrafinowane, a maszyny coraz lepiej uczą się, jak przezwyciężyć oczywiste i mniej oczywiste błędy w tych generowanych komputerowo filmach i zdjęciach. Każdy może zgadnąć, dokąd może się udać. Jednak wiele niepokojących ulepszeń w technologii może nastąpić tak szybko, że możemy wkroczyć w erę, w której nie możemy już ufać temu, co widzimy i słyszymy.

A to prowadzi nas do innego rodzaju fałszywych filmów, które również mogą powodować poważne kłopoty, zwłaszcza w nadchodzących wyborach prezydenckich w 2020 roku: głupki. Na przykład w maju 2019 roku zniekształcone wideo przedstawiające Mówczynię Nancy Pelosi rozprzestrzeniło się błyskawicznie w mediach społecznościowych. Wydawało się, że wideo pokazuje, jak Pelosi bełkocze i potyka się podczas przemówienia. W rzeczywistości wideo zostało cyfrowo zmienione przez blogera sportowego i „superfana Trumpa” z Nowego Jorku, który następnie umieścił je na Facebooku. Film został szybko zdemaskowany, ale do tego czasu był już oglądany miliony razy. YouTube usunął go, twierdząc, że film narusza jego standardy. Jednak Facebook zachował to na stronie, mówiąc tylko, że wideo jest „fałszywe” i że spróbuje ograniczyć ilość udostępnianych.

Chociaż ten zmieniony film Pelosi nie jest technicznym fałszerstwem, Hany Farid, ekspert w dziedzinie kryminalistyki cyfrowej z Uniwersytetu Kalifornijskiego w Berkeley, powiedział NPR, że jest to jeszcze bardziej niepokojące. Są one oznaczone jako głupie, ponieważ są łatwiejsze i tańsze w produkcji niż deepfakes. Zwykle wymaga to zmiany szybkości wideo lub podstawowej edycji, aby stworzyć przekonujący nowy film.

„Zegar tyka” - powiedział Farid do NPR . „Film Nancy Pelosi był kanarkiem w kopalni węgla”.

TERAZ TO STRASZNE

Tak wielu amerykańskich prawodawców jest zaniepokojonych tymi fałszywymi filmami skierowanymi na wybory prezydenckie w USA w 2020 r., Że we wrześniu 2018 r. Kilku członków Kongresu USA zażądało formalnego sprawozdania na temat ich technologii i postępów od dyrektora National Intelligence.

Pierwotnie opublikowano: 5 września 2018 r