So hat er Harrison Ford in einigen Szenen des Films "Cowboys & Aliens" digital verjüngt. (S)einen exakten Workflow hat er leider (noch?) nicht offengelegt, jedoch resultiert das Ergebnis aus einer Kombination von Stable Diffusion mit ControlNet und EBSynth. Außerdem kam sehr wahrscheinlich das Denoising und die Magic Mask von Blackmagic Fusion zum Einsatz, die in einem früher offengelegten Workflow bereits eine ähnliche Rolle gespielt hat.
Laut Jim Derks hat der Prozess pro Szene gerade einmal 20 Minuten Verarbeitungszeit gekostet, wobei er auch keine konkreten Angaben zu der genutzten Hardware macht.
Das Ergebnis ist zwar noch keinesfalls perfekt, aber dennoch bereits so gut, dass einem Großteil potentieller Zuschauer der "Fake" nicht unbedingt auffallen würde. Gegenüber vielen anderen aktuellen KI-Anwendungen für Bewegtbild fällt in diesem Demovideo zudem besonders auf, wie gut die temporale Konsistenz des Ergebnisses geworden ist. Das jüngere Gesicht "sitzt" schon beeindruckend fest auf seinem älteren Original. Störende "Glitches" sind ohne pixel-peeping kaum auszumachen.
Damit zeigt dieses Beispiel vor allem eines: Die einfache Austauschbarkeit von Personen und Gegenständen in Videos steht vor der Tür. Und zwar nicht nur für ein paar Studios in Hollywood, sondern für jeden, der Zugang zu etwas GPU-Rechenleistung hat.
Die Qualität wird in kurzer Zeit auch für Heimanwender nahezu perfekt sein und wir werden bald erleben, wie man Änderungen an Clips in der Timeline per Sprache und Bereichsauswahl fast idiotensicher hinbekommt. Einfach gewünschtes Objekt selektieren und sagen/schreiben, was man daran ändern will. Viel mehr wird man dafür bald nicht mehr können müssen...
mehr Informationen
Kommentare lesen/schreiben
Passende News:
- Stable Video Diffusion - Freies KI-Diffusionsmodell zur Videoerzeugung vorgestellt
- Schlägt Meta Stable Diffusion XL mit Ästhetik? Emu trainiert "vom Feinsten"
- Stable Diffusion XL Style Studies - Stilberatung für das kreative Prompting
- Aus Text wird nun auch Audio: Stable Audio generiert Musik und Soundeffekte per KI
- Neue GPU-Benchmarks: AMD bei Stable Diffusion nun auf Augenhöhe mit Nvidia
- Quelloffen und kostenlos: Bild-KI Stable Diffusion XL 1.0 erschienen
- Midjourney 5.2 und Stable Diffusion XL - jetzt auch mit einfachem Out-Painting
- Stable Diffusion XL: KI-Bilder werden fotorealistischer
- AMDs neue Adrenalin Treiber 23.5.1 verdoppeln Rechenleistung in Stable Diffusion
- Microsoft Olive: Neues kostenloses Tool verdoppelt Performance von Stable Diffusion
- Diffusae - Stable Diffusion als KI-Plugin für Adobe After Effects
- Google optimiert Stable Diffusion für Smartphones: Ein Bild in nur 12 Sekunden