Virtuelle 3D Ansichten aus wenigen Photos berechnen // Siggraph 2019

Das Projekt " Local Light Field Fusion: Practical View Synthesis with Prescriptive Sampling Guidelines" errechnet neue 3D Views eines Objekts aus nur wenigen Photos und stellt diese z.B. auf einem Smartphone in Echtzeit dar. Auch diese Methode basiert auf Deep-Learning, sie nutzt neuronale Netze, um anhand einiger Photos über ein errechnetes lokales Lichtfeld neue Ansichten eines Objekts in 3D zu erstellen.


Der Algorithmus ist dabei in der Lage, die Anzahl der benötigten Photos aus leicht verschiedenen Perspektiven zu bestimmen und dem User per Augmented-Reality-Smartphone-App interaktiv eine Hilfestellung zu geben beim Schießen der benötigten Photos.Angezeigt werden die Positionen, von denen aus noch Photos aufgenommen werden müssen, um eine 3D-Teil-Ansicht zu ermöglichen.



Per Deep Learning werden erst aus jedem Photo mehrere Tiefenebenen extrapoliert, aus deren Gesamtheit denen lokale Lichtfelder errechnet werden können, welche dem User dann in Echtzeit die Sicht aus leicht unterschiedlichen Perspektiven auf ein Objekt mobil oder auf dem Desktop ermöglichen und es so dreidimensional erscheinen lassen. Auf der Website des Projekts ist auch der entsprechende Programmcode verfügbar, um diese 3D-Views aus einem Demobildsatz selbst zu erzeugen und interaktiv anzuschauen.







Ähnliche News //
Umfrage
  • Was hältst du von den neuen Bild/Video-KIs?





    Ergebnis ansehen
slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash