Disney entwickelt hochwertige DeepFakes

Jetzt mischt auch Disney mit in der Erforschung von DeepFake Technologie, eigentlich logisch, wenn man deren enormes Potential für die Filmproduktion vor Augen hat. Voraussetzung für den professionellen Einsatz ist aber ein bessere Qualität als bisher. Waren die vielen Clips mit DeepFakes vor allem Demonstrationen, die bewiesen, daß die Technik funktioniert, wurde aber oft noch kein großes Gewicht auf Qualität gelegt, die auch bei hohen Auflösungen ansprechende / fotorealistische Ergebnisse produziert.


Disney hat jetzt zusammen mit der ETH Zürich eine Methode entwickelt, um vollautomatisch Gesichter per neuronalem Netzwerk in Videos und Bildern auszutauschen. Das heißt, daß das Gesicht eines Schauspielers durch das einer beliebigen Person ausgetauscht und so täuschend echt durch diesen animiert werden kann.



Es soll nach Angaben von Disney der erste Algorithmus sein, welcher in der Lage ist, Ergebnisse in Megapixel Qualität zu liefern, welche zudem auch zeitlich kohärent sind. Und tatsächlich sehen die Ergebnisse schon sehr gut aus.



Im Video wird erklärt, welche einzelnen Schritte die Methode für den Gesichtsaustausch dabei vollzieht und anhand von verschiedenen Personen demonstriert:






Am Ende des Videos wird die neue Methode mit mehreren anderen DeepFake Algorithmen verglichen - sie schneidet dabei deutlich besser ab als alle anderen bisherigen Verfahren. Die Erhöhung des Auflösung auf jetzt 1.024x1.024 Pixel ist ein großer Sprung - bisher besaßen DeepFake-Videos oft nur eine Auflösung von 256x256 Pixeln.


Disneys DeepFakes im Vergleich mit anderen Verfahren
Disneys DeepFakes im Vergleich mit anderen Verfahren

So passt die neue Methode zum Beispiel nicht nur den Kontrast des neuen Gesichts an die jeweilige Belichtungssituation an, sondern vermeidet auch ungewollte Differenzen im Gesichtsausdruck zwischen einzelnen Bildern, welche das Gesicht dann unrealistisch aussehen lassen.



Das Interesse an DeepFakes durch ein großes Filmstudio wie Disney ist logisch - musste doch bisher bei Re-Animationen von toten Schauspielern wie etwa Peter Cushing (Grand Moff Tarkin) oder Carrie Fisher (Prinzessin Leia) für Star Wars auf komplexe virtuelle Modelle der Schauspieler zurückgegriffen werden, um sehr zeitaufwändig wenige Sekunden lange Filmszenen mit diesen zu produzieren. Mithilfe eines ausgereiften DeepFake-Algorithmus wären solche Aufgaben wesentlich einfacher zu erledigen und würde viel Geld bei der Produktion sparen - ganz abgesehen von den vielen weiteren Möglichkeiten DeepFakes in Filmen einzusetzen.



Eine Herausforderung für die Zukunft sind natürlich Videos in denen die Gesichter der Schauspieler nicht frontal in die Kamera schauen.


Ähnliche News //
Umfrage
  • Was hältst du von den neuen Bild/Video-KIs?





    Ergebnis ansehen
slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash