News: In den Mund gelegt: Künstliche Intelligenz rendert Mund nach Audio-Datei

14.7.2017 - 11:34 Uhr

Die SIGGRAPH 2017 wirft schon wieder ihre Schatten voraus und auch das Thema “Künstliche Intelligenz” nimmt einen immer breiteren Platz im Rahmen der präsentierten Forschungsergebnisse ein. Ein schönes und zugleich vielleicht auch beängstigendes Beispiel stammt vom “GRAIL” (Graphics and Imaging Laboratory of the University of Washington's Department of Computer Science and Engineering).

!

Hierbei wurde aus der Tonspur einer Videoaufnahme von Barack Obama die Mundbewegung in einer anderen Videoaufnahme von Barack Obama synthetisch erzeugt. Wenn man dies nicht vorher weiß, kommt einem der dabei neu erzeugte Videoclip authentisch vor. Zum besseren Verständnis hier einmal eine nähere Erklärung des Projektes:

Dass eine solche Technologie nun verfügbar ist, bringt eine Menge Implikationen mit sich: Zuerst einmal wird damit die grundsätzliche Glaubwürdigkeit von Videomaterial zerstört. Und dies dürfte indirekt auch das Misstrauen gegenüber Medien weiter erhöhen. Einzige vorstellbare Lösung wird hier die digitale Signatur einer Videodatei sein. Also ähnlich wie bei den Cryptowärungen und der Blockchain könnte man eine Videodatei mit verschlüsselten Hashwerten als “echt” signieren. Eine nachträgliche Manipulation würde dann sofort erkennbar weil die Signatur nicht mehr passt. Diese Schlüssel müssen dann natürlich auch aus vertrauensvoller Quelle stammen. Das klingt so, als könnte hier ein ganz neuer Markt (auch für Kamerahersteller) entstehen.

Aber auch im künstlerischen Sinne könnte die Technologie interessant werden. Gerade bei der Nachsynchronisation ließe sich eine deutsche Übersetzung gleich mit korrekten Lippenbewegungen darstellen. Und umgekehrt könnte somit auch der Export des deutschen Films in den englischsprachigen Raum befeuert werden. Denn dem wird oft nachgesagt, dass vor allem Amerikaner extrem allergisch auf Synchronfassungen reagieren, wenn die Lippenbewegungen nicht exakt ausfallen.

Und nicht zuletzt könnte diese Technologie auch grundsätzlich dabei helfen statt O-Ton in szenischen Produktionen die Stimmen in der Post einfacher per Overdub nutzen zu können. Auch kleinere Sprachfehler (die sonst eine Szene gleich unbrauchbar machen würden) ließen sich hiermit bequem ausbügeln, indem die Lippen mal kurz automatisiert “nachgeführt” werden. (T)ja, Leute, es wird so kommen, ob wir wollen oder nicht...

(rudi)

mehr Informationen bei grail.cs.washington.edu
Kommentare lesen / schreiben

zur Newsmeldung auf slashCAM

   


die Seite in Desktopansicht

Passende News:

 

Top

AKTUELLE ARTIKEL

AKTUELLE NEWS

Livestream Studio One Live-Streaming Encoder Box // NAB 2018

24.April 2018 - 15:57 Uhr
Livestream Studio One Live-Streaming Encoder Box // NAB 2018

Messevideo: AJA HDR Image Analyzer // NAB 2018

24.April 2018 - 08:11 Uhr
Messevideo: AJA HDR Image Analyzer // NAB 2018

Messevideo: Neue Funktionen Adobe Premiere Pro u. bestes, verstecktes Pro-Feature // NAB 2018

23.April 2018 - 12:42 Uhr
Messevideo: Neue Funktionen Adobe Premiere Pro u. bestes, verstecktes Pro-Feature // NAB 2018

Universeller Codec-Baukasten - FFmpeg 4.0 ist da

23.April 2018 - 10:20 Uhr
Universeller Codec-Baukasten - FFmpeg 4.0 ist da



weitere News: