Grundlagen: HDR Basics Teil 1 - Film vs. Foto, LED vs. OLED, und was sind eigentlich Nits?

02.01.2018 von Rudi Schmidts



Aktuell trifft man beim Themenfeld HDR auf einen Berg von Halbwissen. Wir versuchen einmal, die andere Hälfte auch einfach und fundamental zu beleuchten....

Was ist HDR?

Der Begriff HDR steht für High Dynamic Range, übersetzt also hoher Dynamik-Umfang. Aktuell steht der Begriff vor allem für die aktuellen Entwicklungen in der Displaytechnologie, die neuerdings deutlich heller strahlen können und gleichzeitig durch komplett abschaltbare Pixel wie bei der OLED-Technologie auch viel dunklere Schwarz-Töne wiedergeben können als bislang üblich.

Im Gegensatz zu HDR spricht man von SDR (Standard Dynamic Range) oder LDR (Low Dynamic Range), was einen geringeren Kontrastumfang beschreibt, den wir aktuell von Fernsehen oder Kino gewohnt sind.

Da der Dynamikumfang (Dynamic Range) durch das Verhältnis zwischen dem dunkelsten und hellsten Punkt in einem Bild definiert wird, erlauben die neuen Displaytechnologien nun die Wiedergabe eines deutlich höheren Dynamikumfangs als bei SDR. Damit geht natürlich auch eine Erhöhung des wahrgenommenen Bildkontrastes Hand in Hand, was gleichzeitig für mehr wahrgenommene Schärfe und für ein breiteres Farbspektrum sorgt.

Fürsprecher der HDR-Technologie erwarten deren Durchbruch vor allem deswegen, weil auch ungeübte Augen sofort einen Unterschied zwischen HDR und SDR erkennen können. Und das im Gegensatz zu 4K unabhängig von der Auflösung oder der Sehdistanz. Außerdem wird gerne betont, dass HDR kaum zusätzliche Bandbreite bei der Übertragung kostet, während man es z.b. bei einer Auflösungs-Erhöhung von HD auf UHD mit einer Vervierfachung der Datenrate zu tun hat.

Warum HDR? Das schaut bei Fotos doch unrealistisch aus...

In der Fotografie versteht man unter HDR etwas völlig anderes als im Film-Bereich. Bei der Fotografie belichtet man ein Motiv meistens mehrfach mit unterschiedlichen Belichtungszeiten und rechnet anschließend die verschiedenen Helligkeitsbereiche für ein SDR-Medium (z.B. Computer-Display oder Papier) um, indem man den Kontrastumfang der einzelnen Aufnahmen selektiv zusammenstaucht. Dies nennt man auch Dynamikkompression. Hierfür nutzt man meistens so genannte Tone Mapping-Verfahren, die ganze Bildbereiche (z.B. den ganzen Himmel) in der Helligkeit absenken oder anheben und mit veränderten Werten in das bestehende Bild kopieren. Details in diesen Bereichen erscheinen dann deutlicher, aber wirken auch oft unnatürlich, weil der Helligkeitseindruck über das Bild nicht mehr naturgetreu verteilt ist. Dies wird oft auch positiv als “hyperrealistischer Bildeindruck” bezeichnet:

Foto von Paul Carmona
Foto von Paul Carmona

Im Filmbereich geht es bei HDR jedoch aktuell eher um das Gegenteil. Hier versucht man die hohe Dynamik neuer Displays und Projektionstechniken auch mit realistischer Dynamik zu füllen, die möglichst “ungestaucht” wiedergegeben wird. Im schlechtesten Fall muss man die geringe Dynamik einer Kamera hierfür sogar strecken, wenn das Display mehr Dynamik darstellen kann als die Kamera liefert. Dies wäre dann eine unerwünschte Dynamikexpansion. Hierbei kommt es zu Farbabrissen/Posterisation. Selbiges wird auch zum Problem, wenn man SDR-Aufnahmen auf einen HDR-Farbraum streckt.

Simulierte Farbabrisse / Posterisation z.B. im Himmel
Simulierte Farbabrisse / Posterisation z.B. im Himmel

HDR im Filmbereich beschreibt also den Versuch die hohe Dynamik einer Filmaufnahme auch mit möglichst hoher Dynamik wiederzugeben, im Gegensatz zu einem hyperrealistischen Bildeindruck, der durch Dynamikkompression bei der Wiedergabe auf einem Medium mit geringer Dynamik entsteht.

Was sind Nits?

Im Zusammenhang mit der Güte von HDR stolpert man häufig über eine Angabe in “Nits”. Eine Nits-Angabe beschreibt im strengen Sinn die Leuchtdichte einer Fläche: Vereinfachend darf man solche Nits-Angaben einfach als genormte Helligkeitswerte verstehen. Die Größe von 1 Nit entspricht dabei der vormals üblichen Angabe in Candela pro qm, kurz cd/m2

Für eine sinnvolle Dynamik-Angabe in Nits sollten allerdings immer beide Grenzen der Dynamik genannt sein. Also die minimale Helligkeit eines dunklen Punktes und die maximale Helligkeit eines hellen Punktes. Ein Display mit 500 Nits zu bauen ist umso anspruchsvoller, je schwärzer das Schwarz, also je weniger Nits ein dunkler Punkt darstellen kann. Eine einseitige Helligkeitsangabe von beispielsweise 1.000 Nits sagt streng genommen noch gar nichts über eine prinzipielle HDR-fähigkeit aus.

Wie hängen Nits und Blendenstufen zusammen?

Nits sind linear skaliert und geben eine absolute Lichtmenge an. Blendenstufen sind logarithmisch skaliert und geben einen relativen Helligkeitsunterschied an. 100 Nits sind immer exakt gleich hell. Eine Blendenstufe ist immer exakt doppelt so hell.

Eine Verdoppelung der Nits entspricht immer genau einer Blendenstufe.

Der Schritt von einem Nit auf 2 Nits entspricht einer Blendenstufe und ist doppelt so hell. Der Schritt von 500 auf 1000 Nits ist auch eine Blendenstufe und doppelt so hell.

Blendenstufen können gleichzeitig als Kontrastverhältnis angegebenen werden. In der Messtechnik finden sich häufig hierzu auch Dezibel-Angaben:

Blendenstufen, Kontrastverhältnis und Dezibel
Blendenstufen, Kontrastverhältnis und Dezibel

OLED oder LCD für HDR?

LCD-Panels können aufgrund neuer Hintergrund-Beleuchtungstechnologien sehr hohe Helligkeitswerte von 1.000 Nits und mehr erreichen. OLED-Panels sind dagegen nicht so leuchtstark, bieten dafür tiefere Schwarzwerte, weil hier jedes Pixel selbst leuchtet und keine globale Hintergrundbeleuchtung für die Helligkeit zuständig ist.

Im Jahre 2017 bei der geplanten, breitflächigen Einführung von HDR-Geräten hatte sich zuerst als Konsens durchgesetzt, ab folgenden “Grenzwerten” von HDR zu sprechen:

Bei LCD Schwarzdarstellung kleiner als 0,05 Nits, Helligkeit min. 1.000 Nits

Bei OLED Schwarzdarstellung kleiner als 0,0005 Nits, Helligkeit min. 500 Nits

Laien (und Verkaufsprospekte) legen großen Wert die hohe Helligkeit (also maximale Nits-Zahlen) und stellen deswegen LCD oft als die bessere HDR-Wahl dar. Tatsächlich gilt jedoch OLED in Fachkreisen als das bessere Pferd im Stall.

Unter anderem weil der typische LCD-Kontrastumfang von 0,05 - 1.000 Nits nur einem Kontrastverhältnis von 1:20.000 entspricht ( also ca. 14 Blendenstufen).

Der geforderte OLED Kontrastumfang von 0,0005 - 500 Nits beträgt dagegen theoretisch 1:1.000.000, also fast 20 Blendenstufen.

Problematisch wird auch, dass mit steigender maximaler Helligkeit das Bild zu blenden beginnt. Daher wird es grundsätzlich als angenehmer empfunden, wenn die Dynamik “von unten heraus”, also durch differenzierbare Schatten erzeugt wird. Gerade bei einer schwächeren Umgebungsbeleuchtung, die man beim Filmkonsum in der Regel sowieso sucht, wird ein OLED-Bild in der Regel als attraktiver und natürlicher eingestuft, als ein typisches HDR-LED-Panel.

Allerdings bleiben hohe Nits-Werte eine zwingende Bedingung dafür, dass man auch in heller Umgebung überhaupt Motive mit hohem Dynamikumfang darstellen kann.

Was ist eigentlich die Spitzenhelligkeit?

Bei der Auswahl eines HDR-Monitors findet man neben der Nits-Angabe oft einen Zusatz wie Spitzenhelligkeit oder Peak Luminance. Tatsächlich können die meisten HDR-Monitore die beworbene “Spitzenleuchtdichte” entweder nur für eine kurze Zeit oder nur in einem prozentualen Ausschnitt des Bildes erreichen. Oft wird hierfür im Kleingedruckten ein 2 Prozent oder 10 Prozent-Fenster zitiert. Vor allem aus Hitzegründen kann diese maximale Helligkeit nur kurz oder nur in einer kleinen Fläche dargestellt werden.

Das ist nun nicht schon per Se eine schlechte Sache, denn Objekte in einem Motiv welche die Spitzenhelligkeit ausreizen sind neben der Sonne vor allem direkt gefilmte Lampen und Spitzlichter. Und diese nehmen selten mehr als zwei Prozent der Motiv-Fläche ein. Dennoch sollte dem Käufer bewusst sein, dass bei solchen Angaben die erworbene Dynamik über das ganze Bild geringer ist. Um Monitore zu vergleichen, sollte man daher immer auch einen Blick auf die dauerhaft erzielbare Helligkeit über den ganzen Bildbereich werfen. Und vergleicht man diese Werte dann mit “normalen” Computer-Displays, so erkennt man schnell, dass der Unterschied zum HDR-Modell meistens kaum mehr als eine Blendenstufe ist.

   

Kommentare

 

Top