News: Die Lichtsetzung von Porträtphotos nachträglich ändern // Siggraph 2019

14.6.2019 - 09:36 Uhr

Auch dieses Mal wurden auf der Siggraph 2019 wieder eine Vielzahl extrem interessanter Projekte vorgestellt - viele davon bieten praktische neue Lösungen im Bereich digitaler Videobearbeitung sowie Animation/Simulation, wie etwa die virtuelle Neubeleuchtung von Portätphotos und Bauwerken oder das Entzerren von Weitwinkelportraits.

Die überwiegende Anzahl aller Projekte nutzt neuronale Netze, welche erst mit entsprechenden Daten (Bildern) trainiert werden, um dann anhand dieser Erfahrungen relativ gute Annahmen zu treffen über noch unbekannte Objekte, die sich aber ähnlich verhalten wie die bereits gelernten. Wir werden in den nächsten Tagen mehrere der relevantesten Projekte vorstellen. Wie immer gilt für Siggraph-Projekte, daß es sich um Forschungsarbeiten handelt, welche neue Wege aufzeigen - zur täglichen Anwendung in Zukunft müssen sie aber erst in die Form von Programmen/Plugins o.ä. gegossen werden.

Links Original - rechts das neu beleuchtete Portrait
Links Original - rechts das neu beleuchtete Portrait

Eines der interessantesten diesjährigen Siggraph Projekte ist wohl die nachträgliche Änderung der Beleuchtung von Porträtphotos aka "Single Image Portrait Relighting". Die exakte Ausleuchtung eines Gesichts mittels totaler Kontrolle der Belichtungssituation ist normalerweise semi-/professionellen Photographen vorbehalten - dieser Algorithmus ermöglicht jetzt die nachträgliche Änderung der Lichtsetzung samt deren Effekte wie glänzender Stellen und Schattenwurf auf ein Gesicht bei ganz normales Portraitphotos.

Der Algorithmus kann ein 640x640 großes Bild mit neuer Beleuchtung in nur 160 Millisekunden berechnen, es wären also in Zukunft mittels eines interaktiven Tools auch eine Vorschau in Echtzeit möglich, in der das Licht zum Beispiel eines Selfies virtuell neu gesetzt wird. Es reicht im Gegensatz zu früheren Ansätzen ein einziges Bild aus, zudem wird keine spezialisierte Hardware genutzt - es reicht das Bild einer normalen Handykamera.

Die Methode basiert auf einem neuronalen Netz das anhand eines kleinen Datensatz von 18 Personen, die unter verschiedenen gerichteten Lichtquellen in einem kontrollierten Lichtstufenaufbau erfaßt wurden, trainiert wurde. Anhand dieser gelernten Bilder überträgt das neuronale Netz dann die gewünschte Lichtsituation auf ein neues Gesicht. Wir überzeugend das Ergebnis ist, könnt ihr anhand des Demovideos selbst beurteilen.

(thomas)

mehr Informationen
Kommentare lesen / schreiben

zur Newsmeldung auf slashCAM

   


die Seite in Desktopansicht

Passende News:

 

Top

AKTUELLE ARTIKEL

AKTUELLE NEWS

28.Januar 2020 - 16:30 Uhr
Kostenlose FiLMiC DoubleTake App: Multicam-Aufnahmen mit zwei Kameras eines iPhones gleichzeitig

28.Januar 2020 - 10:41 Uhr
Samson Q9U: Broadcast-Mikrophon mit XLR und USB

27.Januar 2020 - 15:53 Uhr
Vimeo Create: Schnell Clips für Social Media produzieren

27.Januar 2020 - 09:56 Uhr
Intelligentes HDR für Fernseher durch das neue Dolby Vision IQ Format



weitere News: