Deepfake-Videos werden beängstigend gut

Sep 06 2018
Gefälschte Videos, die mit AI-unterstützten Algorithmen erstellt wurden - Deepfakes - sind hier und kaum zu erkennen, was den Fehlinformationskriegen eine weitere Ebene hinzufügt.
Wenn die Technologie ihren aktuellen Kurs fortsetzt, wird es unmöglich, AI-unterstützte Deepfake-Videos zu erkennen. Plume Creative / Getty Images

In diesem Stadium seiner Entwicklung läuft immer noch etwas unbestreitbar Gruseliges durch Deepfakes, ein alles andere als irreführendes Label für gefälschte Videos, die mit Hilfe künstlicher Intelligenz (KI) und tiefem maschinellem Lernen erstellt und manipuliert wurden .

Es sind nicht nur die seltsamen, kleinen, nicht ganz richtigen Videos, die von diesen immer ausgefeilteren Softwareprogrammen produziert werden. Obwohl, ja, sie können beunruhigend sein. Und es ist nicht nur das ethische Dilemma, Originalfotos und -videos zu ändern. Obwohl das definitiv ein Hornissennest stößt.

Meistens ist es die ganze Idee, dass wir uns schnell einem Punkt nähern, an dem wir unseren eigenen Augen einfach nicht vertrauen können. Ist das Foto eine wahre Darstellung seines Motivs? Ist das Video? Passt dieses Gesicht zu diesem Körper? Passen diese Worte zu diesem Gesicht?

Kann dieser Typ wirklich so tanzen?

Die Informatik hinter Deepfakes

Bereits Ende 2017 enthüllte ein Reddit-Benutzer namens Deepfakes laut Know Your Meme einige pornografische Videos, die das Gesicht austauschen - es ist genau so traurig und lahm, wie es sich anhört. jemandes Gesicht, oft eine Persönlichkeit des öffentlichen Lebens, überlagerte den Kopf eines anderen - und die tiefe Fälschung begann.

Kurz darauf startete Deepfakes eine App, FakeApp, und die Leute sprangen darüber hinweg. Alle möglichen Memes aus diesem und anderen Programmen - einige lustig, einige einfach nur gruselig, andere schlimmer - wurden seitdem produziert. Dazu gehören Nicolas Cages Gesicht auf Amy Adams 'Körper (spielt Lois Lane in einem Superman-Film) und eine großartige BuzzFeed-Produktion mit dem Komiker Jordan Peele als ehemaligem Präsidenten Barack Obama, der vor einigen der möglicherweise unheimlicheren Anwendungen der Technologie in warnt ein leicht NSFW-Video (das mit dem Spruch von Fauxbama endet: "Bleib wach, bi $% * es!").

Das neueste Deepfake-Video wurde mit freundlicher Genehmigung eines TikTokers erstellt, der sich als Tom Cruise ausgibt. Drei Videos sind schockierend real und zeigen unter anderem, wie Cruise einen Golfball schlägt. Die Videos wurden von Chris Ume , einem Spezialisten für visuelle Effekte aus Belgien, erstellt.

Die Informatik, mit der die Programme hinter diesen Videos erstellt wurden, kann äußerst komplex und viel intensiver sein als die, die für einfache Deepfakes verwendet wird. Komplizierte Algorithmen und Begriffe aus der Informatik wie generative Adversarial Networks (GAN) und Deep Neural Networks prägen die wissenschaftlichen Arbeiten der fortgeschritteneren Videobearbeitungstechniken.

Im Allgemeinen untersuchen diese Programme das Video eines Motivs Bild für Bild und "lernen" die Größe, Form und Bewegungen des Motivs, damit sie auf ein anderes Motiv im Video übertragen werden können. Während Deepfakes hauptsächlich darauf beschränkt waren, die Gesichter der Probanden auszutauschen, können die fortgeschritteneren Programme vollständige 3D- Kopfpositionen übertragen, einschließlich einer Kopfneigung oder einer hochgezogenen Augenbraue oder eines Satzes geschürzter Lippen. Einige Arbeiten wurden an Ganzkörperbewegungen durchgeführt.

Je mehr diese Programme erkennen, desto mehr Variablen werden diesen Netzwerken zugeführt und "gelernt", desto effizienter, effektiver und realistischer werden die Videos.

Jenseits von Deepfakes

Es ist wichtig zu beachten, dass nicht alle Video- und Fotobearbeitungstechniken, die auf künstlicher Intelligenz und maschinellem Lernen basieren, Fälschungen sind. Diejenigen in Akademikern, die auf dem Gebiet arbeiten, sehen Deepfakes als amateurhaft an und müssen nur noch das Gesicht tauschen.

Eine Gruppe an der University of California in Berkeley arbeitet an einer Technik, die einen ganzen Körper in Bewegung setzt - einen professionellen Tänzer - und ihn auf Video auf den Körper eines Amateurs tauscht. Mit ein wenig KI-Zauberei kann sich sogar jemand mit zwei linken Füßen wie Baryshnikov bewegen. Die Berkeley-Gruppe beschreibt ihre Arbeit in der Zeitung Everybody Dance Now .

Die Technik ist natürlich nicht perfekt. Aber das ist kniffliges Zeug. Selbst das Abziehen eines computergenerierten sich bewegenden Gesichts ist schwierig. Ab sofort sind die meisten von KI erzeugten Gesichter, selbst bei Deepfakes - insbesondere bei Deepfakes - offensichtliche Fälschungen. Fast immer scheint etwas nicht zu stimmen.

"Ich denke, eines sind die Schattendetails der Gesichter", sagt Tinghui Zhou, ein Student der Informatik in Berkeley und einer der Autoren von Everybody Dance Now. "Wir [Menschen] können sehr gut erkennen, ob ein Gesicht echt ist oder nicht - die Schattendetails, wie sich die Falten bewegen, wie sich die Augen bewegen - all diese Details müssen genau richtig sein. Ich denke, das maschinelle Lernsystem Heutzutage ist es immer noch nicht möglich, all diese Details zu erfassen. "

Ein anderes neues KI-Videomanipulationssystem - oder, wie seine Architekten es nennen, eine "fotorealistische Neuanimation von Porträtvideos" - verwendet tatsächlich einen "Quell" -Darsteller, der das Gesicht eines "Ziel" -Darstellers verändern kann.

Sie, die "Quelle" (zum Beispiel), bewegen Ihren Mund auf eine bestimmte Weise, Computer bilden die Bewegung ab, geben sie in das Lernprogramm ein und das Programm übersetzt sie in ein Video, in dem Obama Ihre Worte mundtot macht . Sie lachen oder ziehen die Augenbrauen hoch, und Obama auch.

Ein Papier über diesen Prozess, bekannt als Deep Video Portraits , wurde Mitte August 2018 auf einer Konferenz über Computergrafik und interaktive Techniken in Vancouver vorgestellt und enthüllt einen Ort für das Programm: Hollywood.

"[C] Computer-generierte Videos sind seit über 30 Jahren ein wesentlicher Bestandteil von Spielfilmen. Nahezu jede High-End-Filmproduktion enthält einen signifikanten Prozentsatz computergenerierter Bilder (CGI) von Lord of the Rings bis Benjamin Button ", schreiben die Autoren . "Diese Ergebnisse sind schwer von der Realität zu unterscheiden und es bleibt oft unbemerkt, dass dieser Inhalt nicht real ist ... aber der Prozess war zeitaufwändig und erforderte Domain-Experten. Die Produktion selbst eines kurzen synthetischen Videoclips kostet Millionen im Budget und mehrere monatelange Arbeit, auch für professionell ausgebildete Künstler, da sie große Mengen an 3D-Inhalten manuell erstellen und animieren müssen. "

Dank AI können wir jetzt dieselben Bilder in viel kürzerer Zeit erstellen. Und billiger. Und - wenn nicht jetzt, bald - genauso überzeugend.

Eine ethische Gratwanderung

Der Prozess der Manipulation vorhandener Videos oder der Erstellung eines neuen Videos mit falschen Bildern, wie der Komiker Peele und andere warnen, kann in den falschen Händen geradezu gefährlich sein. Einige prominente Schauspielerinnen und Entertainer hatten ihre Gesichter gestohlen und in Pornovideos in den beunruhigendsten frühen Beispielen von Deepfakes verwoben. Die Verwendung von Bildern, um, wie Peele in seinem Obama-Video warnte, " falsche Nachrichten " zu produzieren, ist eine sehr reale Möglichkeit.

Viele Verkaufsstellen haben bereits Schritte unternommen, um Deepfakes zu stoppen. Tatsächlich hat Reddit die SubReddit-Deepfakes heruntergefahren. Pornhub verspricht, von KI erzeugte Pornos zu verbieten. Tumblr und Twitter sind unter anderem Websites, um pornografische Deepfakes zu verbieten.

Aber diese Videos sind für die Polizei möglicherweise nicht besonders einfach, zumal sich die Programme zu ihrer Erstellung verbessern. Michael Zollhöfer, Professor für Informatik in Stanford und einer der Köpfe hinter Deep Video Portraits, sagt, dass die Mitglieder der akademischen Gemeinschaft sich der Ethik bewusst sind. Von Zollhöfer in einer Pressemitteilung , in der sein Projekt angekündigt wird:

Die Medienbranche hat seit vielen Jahren Fotos mit einer Fotobearbeitungssoftware nachbearbeitet, was bedeutet, dass die meisten von uns gelernt haben, das, was wir auf Fotos sehen, mit einer Prise Salz aufzunehmen. Mit der ständig verbesserten Videobearbeitungstechnologie müssen wir auch anfangen, kritischer mit dem Videoinhalt umzugehen, den wir jeden Tag konsumieren, insbesondere wenn es keinen Herkunftsnachweis gibt.

Jeder, der an der Entwicklung dieser Technologie beteiligt ist, muss laut Zhou die richtigen Schritte unternehmen, um sicherzustellen, dass sie nicht missbraucht wird. Die Entwicklung von Software zur Erkennung computergestützter oder geänderter Videos und das Markieren des Videos mit unsichtbaren "Wasserzeichen", um unter forensischer Bewertung zu zeigen, dass sie computergeneriert sind, hilft. Wieder aus Deep Video Portraits:

Es ist wichtig anzumerken, dass die detaillierte Erforschung und das Verständnis der Algorithmen und Prinzipien hinter den neuesten Videobearbeitungswerkzeugen, wie wir sie durchführen, auch der Schlüssel zur Entwicklung von Technologien ist, die die Erkennung ihrer Verwendung ermöglichen ... Die Methoden zur Erkennung von Videomanipulationen und die Methoden zur Durchführung der Videobearbeitung beruhen auf sehr ähnlichen Prinzipien.

Zhou sagt: "Ich denke, wir als Forscher haben definitiv die Verantwortung, die Öffentlichkeit für den Missbrauch dieser Technologien zu sensibilisieren. Aber ich möchte betonen: Es gibt viele positive Verwendungszwecke dieser Forschung. Wir hatten sie." Anfragen von Tänzern, unsere Forschung zu nutzen, um ihnen beim Tanzen zu helfen. Es gibt positive Aspekte dieser Technologie. "

Was vor uns liegt

Das Feld verbessert sich weiter, da Programme immer ausgefeilter werden und Maschinen besser lernen, die offensichtlichen und weniger offensichtlichen Fehler in diesen computergenerierten Videos und Fotos zu überwinden. Wo es hingehen kann, ist unklar. Viele Sorgen über Verbesserungen der Technologie könnten jedoch so schnell gehen, dass wir in eine Ära eintreten könnten, in der wir dem, was wir sehen und hören, nicht mehr vertrauen können.

Und das bringt uns zu einer anderen Art von gefälschtem Video, das insbesondere bei den bevorstehenden Präsidentschaftswahlen 2020 ebenfalls große Probleme verursachen könnte: Dummköpfe. Im Mai 2019 verbreitete sich beispielsweise ein verzerrtes Video von Sprecherin Nancy Pelosi wie ein Lauffeuer in den sozialen Medien. Das Video schien Pelosi zu zeigen und durch eine Rede zu stolpern. In Wirklichkeit wurde das Video von einem Sportblogger und "Trump Superfan" aus New York digital verändert, der es dann auf Facebook hochlud. Das Video wurde schnell entlarvt, aber zu diesem Zeitpunkt wurde es bereits millionenfach angesehen. YouTube hat es entfernt und gesagt, dass das Video gegen seine Standards verstößt. Facebook behielt es jedoch auf der Website und sagte nur, das Video sei "falsch" und würde versuchen, die Anzahl der freigegebenen Videos zu begrenzen.

Während dieses veränderte Video von Pelosi keine technische Fälschung ist, sagte Hany Farid, ein Experte für digitale Forensik an der University of California in Berkeley, gegenüber NPR , was es noch besorgniserregender macht. Diese werden als Dummköpfe bezeichnet, weil sie für den Hersteller einfacher und billiger sind als Deepfakes. In der Regel muss die Geschwindigkeit des Videos oder die grundlegende Bearbeitung geändert werden, um ein überzeugendes neues Video zu erstellen.

"Die Uhr tickt", sagte Farid zu NPR . "Das Video von Nancy Pelosi war ein Kanarienvogel in einer Kohlenmine."

Jetzt ist das beängstigend

So viele US-Gesetzgeber sind besorgt über diese gefälschten Videos, die auf die US-Präsidentschaftswahlen 2020 abzielen, dass im September 2018 mehrere Mitglieder des US-Kongresses vom Direktor des Nationalen Geheimdienstes einen formellen Bericht über ihre Technologien und Fortschritte anforderten .

Ursprünglich veröffentlicht am 5. September 2018