Zum Beispiel können so verschiedenen Objekte (samt ihrer Bewegung korrelierende Bildobjekte wie etwa ihr Schatten und ihre Reflektionen!) spurenlos entfernt, dupliziert, eingefroren oder per Retiming zeitlich zueinander versetzt und etwa Bewegungs-synchronisiert werden. Im Beispielvideo werden so etwa einige chaotisch auf verschiedenen Trampolins springende Personen per Time-Remapping zu einer im Takt hüpfenden Gruppe.
Das speziell auf die Erkennung von Personen trainierte neuronale Netz erledigt dabei eine Vielzahl von aufwändigen klassischen Compositing-Aktionen: es rekonstruiert etwa eine im Hintergrund vorbeilaufende verdeckte Person; es weist jeder Person den ihr zugehörigen Schatten und Reflektionen zu und generiert daraus eine Maske und es trennt sogar zwei sich temporär überlappende Schatten in einzelne Repräsentationen auf.
Die Methode ermöglicht das sehr einfache Erstellen bewegte Masken / Layern von Personen samt ihrer korrelierenden Spuren im Bild und deren simple Manipulation (wie etwa per Retiming) in einem Compositingprogramm. Die Möglichkeiten des intelligenten, objektbasierten Videoeditings und -compositings durch so einen Algorithmus sind gewaltig: so lassen sich - etwa zum Zweck einer besseren Bildkomposition - ganz einfach die Bewegungen von Menschen in einem Video nachträglich vollkommen verändern. Und das Ganze funktioniert auch bei einer bewegten Kamera.
Der Wermutstropfen besteht noch in der sehr geringen Videoauflösung von 448 × 256 Pixeln - um zum Einsatz im professionellen Umfeld zu gelangen, müsste der Algorithmus noch weiter optimiert werden bzw. auf stärkerer Hardware laufen, aber AI-Forschungsprojekte sind ja immer auch erst einmal Machbarkeitsstudien. Es ist nur eine Frage der Zeit bis ein für praktische Anwendungen interessanter KI-Algorithmus bis zur allgemeinen Einsatzfähigkeit weiterentwickelt wird.
Im Video des Projekts wird schön erklärt, wie das neuronale Netz trainiert wird, um bewegte Objekte samt korrelierten Effekten zu erkennen und daraus eine eigene Ebene zu erstellen - so wird auch schön der vollkommen andere Ansatz von Deep Learning im Gegensatz zu traditionellem Programmieren veranschaulicht.
Hier die Vorstellung der Methode durch Two Minute Papers:
Das Paper Layered Neural Rendering for Retiming People in Video wird auf der am 4.Dezember beginnenden SIGGRAPH Asia offiziell vorgestellt, dann sollte auch der Programm-Code auf GitHub online gehen, der in klassischen Compositingprogrammen manipulierbare Layer aus herkömmlichen Videos erzeugen soll.
mehr Informationen
Kommentare lesen / schreiben
Passende News:
- Sony stellt Alpha 1 Flaggschiff DSLM mit 50 MP bei 30 fps und 8K 10 Bit Video vor
- Neue Monitore von LG: Thunderbolt 4, 98% DCI-P3 und bis zu 180Hz
- Blackmagic Desktop Video 12.0 - jetzt auch für M1-Macs
- Western Digital: Neue portable 4TB SSDs von SanDisk, WD und WD_BLACK
- Neue Monitore von Asus: ProArt PA278CV, TUF VG289Q1A und ROG XG27AQ
- DeepFake Hack bei „The Mandalorian“ realistischer als CGI von Industrial Light & Magic?
- FiLMiC Pro 6.13 ermöglicht 10-Bit SDR Video Aufnahme mit iPhone 12
- Atomos Shogun 7 Update ermöglicht Aufnahme von DCI 4Kp60 ProRes RAW mit Sony FX6
- Olive 0.2 Video Editor - kompletter Rewrite mit interessanten Features
- Cyber Monday Angebote von Sennheiser, Beyerdynamic, Tokina, Magix, Lockcircle, Lightworks und me
- Blackmagic Video Assist 3G/12G bekommen per Webcam Update Live-Streaming Funktionailtät
- Video-Messages: Vimeo bietet kostenlose Screen-Captures an