So sind die Bildfolgen nun stimmiger Dank besserer - wenn auch nicht perfekter - zeitlicher Kohärenz, es wabert weniger als früher und die Motive wirken realistischer. Menschen können allerdings immer noch nicht richtig gehen oder sich überhaupt wirklichkeitsgetreu bewegen, es kommt auch noch zu anatomischen Glitches, etwa beim Blinzeln. Auch flimmern gerne Bildteile, die ruhig sein sollten, andere Bereiche scheinen leicht zu morphen oder ähnliches.
Das KI-generierte Videomaterial sieht noch immer selten wie gefilmt, sondern am ehesten nach sehr hochwertigen und entsprechend aufwendigen Computeranimationen aus, wurde jedoch - und das ist ja das wirklich bemerkenswerte - in Minutenschnelle aus Textprompts und/oder einer Bildvorlage erstellt. Für den Animationsfilm stellen diese zunehmend besseren Möglichkeiten schon jetzt einiges auf den Kopf, nicht nur was die Workflows angeht, sondern wir werden sicherlich sehen, dass sich diese quasi (v)erträumten Looks auch als eine neue Bildsprache einbürgern.
mehr Informationen
Kommentare lesen/schreiben
Passende News:
- Blackmagic DaVinci Resolve 18.6.4 Update - RAW SDK 3.6 und erweiterte Scripting API
- AnimateAnyone - Foto und animierte Pose macht Video
- PIKA 1.0 angekündigt - Generative KI-Videos mit erstaunlicher Qualität
- Runway Gen-2 Style Presets, Motion Brush und verbesserte Kamerakontrolle
- Meta Emu Video / Edit - verbessert Konsistenz in generativen KI Videos
- Blackmagic DaVinci Resolve 18.6.3 Update - u.a. mehr Proxy Optionen
- Als die Bilder laufen lernten - Motion Brush bald in Runway Gen-2
- Rode Wireless Pro Firmware Update bringt variablen High-Pass Filter und andere Funktionen
- Blackmagic Camera Update 1.2 - u.a. präzisere Einstellräder und flimmerfreie Aufzeichnung
- Schreck lass nach? Runway fördert KI-generierte Dokumentarfilme
- Neuer Snapdragon 8 Gen 3 ermöglicht KI-Funktionen direkt auf dem Smartphone
- Samsung stellt mit T9 erstmalig SSD mit USB 3.2 Gen 2x2 mit bis zu 2.000 MB/s vor