AvatarCLIP: Neue KI generiert und animiert 3D-Avatare per Textbeschreibung

// 10:56 Fr, 28. Okt 2022von

Neue KI Algorithmen revolutionieren gerade die Erschaffung von Bildern, Videos und auch 3D-Modellen und machen die Methoden so einfacher zugänglich als bisher. Die gerade neu vorgestellt KI AvatarCLIP ermöglicht jetzt auch die Erstellung und die Animation von 3D-Avataren nur per Textinput. So erlaubt es AvatarCLIP im Gegensatz zu professioneller Software, die Expertenwissen erfordert, einen 3D-Avatar in einer beliebigen gewünschten Form und Textur zu generieren und dessen Bewegungen dann zu steuern - nur mittels Textkommandos.





Der Prozess erfolgt in drei Schritten: erst wird nach Textbeschreibung eine grobe Körperform erzeugt (im Clip zum Beispiel "ein sehr dünner Mann"), dann wird das Aussehen (Details des Körpers der sowie Kleidung) definiert ("ein Ninja") und dann schließlich eine Bewegung ("Basketball werfen"). Körper können ebenso basierend auf berühmten Persönlichkeiten ("Barack Obama") wie fiktionalen Charakteren ("Iron Man") oder nach einer allgemeinen Beschreibung (wie etwa "Gärtner" oder "Zauberer") generiert werden. Hier der Code von AvatarCLIP.



AvatarCLIP
AvatarCLIP



In Zukunft: automatisch generierte Animationsfilme?

Wie immer ist auch diese Arbeit noch früh und zeigt vor allem, daß die vorgeschlagene Methode grundsätzlich funktioniert - Fehler der Textur und andere Unstimmigkeiten werden in zukünftigen Versionen verbessert werden. Demonstriert wird aber, wie einfach in Zukunft dreidimensionale Avatare beliebiger Personen erzeugt und auch animiert werden könnten - Endziel wäre dann die automatische Generierung von ganzen Animationsfilmen nur nach Textbeschreibung samt Interaktionen der Figuren miteinander und der ebenfalls automatisch erzeugten Umwelt und deren Gegenständen.



Avatare bekannter Persönlichkeiten generiert durch AvatarCLIP
Avatare bekannter Persönlichkeiten generiert durch AvatarCLIP





Human Motion Diffusion Model: text-to-motion

Eine weitere neue KI, die ebenfalls interessant ist für User, die mit 3D-Modellen und Animationen arbeiten, ist das Human Motion Diffusion Model (MDM) der Tel Aviv University, welches per "text-to-motion" die Steuerung von Bewegungen von 3D Modellen von Menschen per Texteingabe ermöglicht. Hier der zugehörige Programmcode samt Modellen.




Ähnliche News //
Umfrage
  • Was hältst du von den neuen Bild/Video-KIs?





    Ergebnis ansehen
slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash