News: In den Mund gelegt: Künstliche Intelligenz rendert Mund nach Audio-Datei

14.7.2017 - 11:34 Uhr

Die SIGGRAPH 2017 wirft schon wieder ihre Schatten voraus und auch das Thema “Künstliche Intelligenz” nimmt einen immer breiteren Platz im Rahmen der präsentierten Forschungsergebnisse ein. Ein schönes und zugleich vielleicht auch beängstigendes Beispiel stammt vom “GRAIL” (Graphics and Imaging Laboratory of the University of Washington's Department of Computer Science and Engineering).

!

Hierbei wurde aus der Tonspur einer Videoaufnahme von Barack Obama die Mundbewegung in einer anderen Videoaufnahme von Barack Obama synthetisch erzeugt. Wenn man dies nicht vorher weiß, kommt einem der dabei neu erzeugte Videoclip authentisch vor. Zum besseren Verständnis hier einmal eine nähere Erklärung des Projektes:

Dass eine solche Technologie nun verfügbar ist, bringt eine Menge Implikationen mit sich: Zuerst einmal wird damit die grundsätzliche Glaubwürdigkeit von Videomaterial zerstört. Und dies dürfte indirekt auch das Misstrauen gegenüber Medien weiter erhöhen. Einzige vorstellbare Lösung wird hier die digitale Signatur einer Videodatei sein. Also ähnlich wie bei den Cryptowärungen und der Blockchain könnte man eine Videodatei mit verschlüsselten Hashwerten als “echt” signieren. Eine nachträgliche Manipulation würde dann sofort erkennbar weil die Signatur nicht mehr passt. Diese Schlüssel müssen dann natürlich auch aus vertrauensvoller Quelle stammen. Das klingt so, als könnte hier ein ganz neuer Markt (auch für Kamerahersteller) entstehen.

Aber auch im künstlerischen Sinne könnte die Technologie interessant werden. Gerade bei der Nachsynchronisation ließe sich eine deutsche Übersetzung gleich mit korrekten Lippenbewegungen darstellen. Und umgekehrt könnte somit auch der Export des deutschen Films in den englischsprachigen Raum befeuert werden. Denn dem wird oft nachgesagt, dass vor allem Amerikaner extrem allergisch auf Synchronfassungen reagieren, wenn die Lippenbewegungen nicht exakt ausfallen.

Und nicht zuletzt könnte diese Technologie auch grundsätzlich dabei helfen statt O-Ton in szenischen Produktionen die Stimmen in der Post einfacher per Overdub nutzen zu können. Auch kleinere Sprachfehler (die sonst eine Szene gleich unbrauchbar machen würden) ließen sich hiermit bequem ausbügeln, indem die Lippen mal kurz automatisiert “nachgeführt” werden. (T)ja, Leute, es wird so kommen, ob wir wollen oder nicht...

(rudi)

mehr Informationen bei grail.cs.washington.edu
Kommentare lesen / schreiben

zur Newsmeldung auf slashCAM

   


die Seite in Desktopansicht

Passende News:

 

Top

AKTUELLE ARTIKEL

AKTUELLE NEWS

Actioncamerafinder -- Features von 47 Kameras vergleichen

20.Juli 2017 - 14:09 Uhr
Actioncamerafinder -- Features von 47 Kameras vergleichen

Videotutorial: Who is Who im Abspann: Film Credits und welcher Job dahinter steckt

20.Juli 2017 - 12:07 Uhr
Videotutorial: Who is Who im Abspann: Film Credits und welcher Job dahinter steckt

Meta-Musikvideo

19.Juli 2017 - 15:32 Uhr
Meta-Musikvideo "HD Delivery": Rappende Kamera-Crew

BBC: 360° Video ist keine Einstiegsdroge für VR

19.Juli 2017 - 11:18 Uhr
BBC: 360° Video ist keine Einstiegsdroge für VR



weitere News: