Grundlagen: Wann hat eine Kamera (bei slashCAM) sehr gute Bildqualität?

02.06.2020 von Rudi Schmidts



Wer schon länger slashCAM verfolgt dürfte sicherlich eine grobe Vorstellung davon entwickelt haben, welche Eigenschaften eine Kamera in unseren Augen erfüllen sollte, um eine Empfehlung von uns zu bekommen. Allerdings gibt es aktuell keinen zusammenfassenden Artikel, der beschreibt, nach welchen Kriterien wir möglichst objektiv eine Kamera als "sehr gut" einschätzen. Einerseits ist dies natürlich prinzipiell schwer, da jeder Anwender ein anderes Anspruchsprofil mitbringt. Während dem einen ein stabilisierter Sensor mit gutem Autofokus besonders wichtig ist, gibt es andere Anwender, welche auf diese Funktionen überhaupt keinen Wert legen. Trotzdem gibt es auch ein paar Eigenschaften, bei denen ein breiter Konsens darüber besteht, wann die Bildqualität einer Kamera gut oder schlecht ist. Und auf diese Punkte wollen wir in diesem Artikel einmal näher eingehen...

Debayering/Auflösung

Das A und O für ein gutes Bild ist eine saubere Auflösung. Dennoch können schon hier die Geschmäcker verschieden sein: Denn die höchste messbare Auflösung erzielt ein Sensor bei einem ungefilterten 1:1 Readout. Bei diesem Readout entspricht jeder Pixel im aufgezeichneten Bild einem Sensel (also einer Photodiode) auf dem Sensor. Da Pixel jedoch einen RGB-Wert haben, Sensel jedoch nur entweder rot ODER grün ODER blau sein können, müssen für einen Pixel die Farben aus den benachbarten Senseln geschätzt werden. Dadurch entstehen bei bestimmten Mustern deutliche Artefakte.

Deswegen bevorzugen die meisten Anwender eine Tiefpassfilterung. Darunter versteht man salopp gesagt, das "Glattbügeln" feinster Details, in denen diese Artefakte ansonsten besonders deutlich sichtbar werden können. Dafür opfert man die knackigste, natürliche Kantenschärfe im Bild:

!

Diese Tiefpassfilterung kann grob auf drei Wegen geschehen:

- Durch einen OLPF (Optical LowPassFilter). Diese optische Lösung besteht aus einer Filterscheibe die vor dem Sensor liegt.

- Durch ein Objektiv mit geringer Auflösung oder

- durch ein spezielles Debayering vor der Aufzeichnung.

Sauber gelingt ein Debayering nur durch ein vorhergehendes Downsampling des Sensors von einer höheren Auflösung. Nahezu perfektes 4K-Debayering haben wir bislang bei Kameras ab 5K Sensorauflösung gesehen. Aber nur, wenn diese auch einen vollen Sensor-Readout (sog. Full Sensor Readout) nutzen können. Das ist nicht selbstverständlich, denn manche Kameras lesen vor dem Downscaling nicht jede Zelle des Sensors, sondern lassen evtl. Zeilen aus (Lineskipping) oder fassen auf anderem Weg die Sensel "unsauber" zusammen (Binning).

Dynamik/Belichtungsspielraum

Der nächste wichtige Punkt für eine gute Bildqualität liegt in der Dynamik des Sensors begraben. Je größer die Dynamik eines Sensors, desto größer ist Abstand zwischen hellstem und dunkelstem erfassbaren Bereich im Motiv. Mit mehr Dynamik vergrößert sich der Belichtungsspielraum einer Kamera, da für eine nachträgliche Korrektur und/oder für farbliche Gestaltungsmöglichkeiten in der Nachbearbeitung mehr Bildinformationen vorhanden sind. Umgekehrt schränkt eine Kamera mit wenig Dynamik diese Möglichkeiten ein und muss schon bei der Aufnahme so exakt wie möglich (und mit korrektem Weißabgleich) belichtet werden. Auch ein gutes Low-Light Verhalten bei wenig Licht korreliert stark mit der Dynamik des Sensors.

Hier einmal ein Beispiel einer Aufnahme, die um 6 Blendenstufen korrigiert wurde. Einmal mit einem sehr kleinen 4K Sensor (1/2,5-Zoll ≈ Cropfaktor 6) und einmal mit einem sauber auf 4K skalierten 6K-Vollformat Sensor mit Cropfaktor 1:

!

Signalverarbeitung/Codec

Egal wo das Signal letzten Endes debayert wird (also in der Kamera oder bei RAW in der Postproduktion) spielt natürlich auch noch der eingesetzte Codec eine entscheidende Rolle. Hier kann vor allem eine zu niedrige Datenrate dazu führen, dass Artefakte entstehen, die erst bei einer stärkeren Bearbeitung des Materials deutlich zu Tage treten. Gerade interne Codecs haben oft eher geringe maximale Datenraten.

Ebenfalls problematisch ist eine zu geringe Dynamikdichte bei der Aufzeichnung. So stehen bei einer 8 Bit Aufzeichnung für einen Sensor mit 14 Blendenstufen nur ca. 18 Helligkeitsabstufungen pro Blendenstufe (256/14) zur Verfügung, was in Farbverläufen zu unschönen Treppen Effekten führen kann (Posterisation). Dazu wird oft noch die Aufzeichung der Farbkomponenten stark reduziert (4:2:0), was farbige Kanten leicht auslaufen lässt.

Wenn eine Kamera jedoch 4:2:2 Aufzeichnung in 10 Bit mit gut angepasster Log-Kurve und ausreichender Datenrate beherrscht, sehen wir aktuell keinen prinzipiellen visuellen Nachteil gegenüber einer RAW-Aufzeichnung. Dies könnte sich evtl. noch einmal ändern falls wir in Zukunft Sensoren mit signifikant erhöhter Dynamik zu sehen bekommen.

Rolling Shutter

Auch wenn man in anderen Medien kaum darüber liest, halten wir das Verhalten des Rolling Shutters für einen sehr elementaren Punkt der Bildqualität. Vor allem aus ästhetischen Gründen empfinden wir jegliches Gebiege im Bild bei bewegter Kamera als extrem störend, weshalb wir persönlich eine "verwobbelte" Szene als grundsätzlich unbrauchbar bewerten. Selbst wenn man mit sehr ruhiger/ stabilisierter Hand oder sogar vom Stativ filmt: Bei viel Bewegung im Bild sorgen lange Rolling Shutter Zeiten für einen unnatürlichen Bewegungseindruck von Objekten.

Grundsätzlich betrachten wir Rolling Shutter Werte unter 17ms als gut. Nicht ohne Grund sind 15-16ms auch der typische Wert, den man bei Cinema-Kameras in den letzten Jahren vorfinden konnte (während uns hybride Foto-Kameras manchmal mit bis zu 40 ms erschreckten). Signifikant bessere Werte bei großen Sensoren sind uns bis 2019 nur bei der URSA Mini Pro G2 begegnet.

Glücklicherweise scheinen in letzter Zeit jedoch immer mehr Hersteller auf Sensoren mit kürzeren Rolling Shutter Zeiten zu setzen. Wohl auch aus einem funktionalen Zwang, denn Auslesezeiten unter 16 ms sind für Slow Motion Aufnahmen über 60 fps zwingend notwendig. Deswegen darf man in diesem Bereich begründet auf zukünftige Verbesserungen bei neuen Kameras hoffen...

Farben / Colour Science

Zu den Farben einer Kamera möchten wir noch bemerken, dass wir hier keine sinnvolle Möglichkeit sehen, diese objektiv zu bewerten. Wer in RAW aufzeichnet ist hier sowieso subjektiv auf die Nachbearbeitung angewiesen, während ein Codec in der Kamera für jedes Pixel im Bild ein festes RGB-Trippel festlegt. Dies ist jedoch dann komplett vom genutzten Bildprofil abhängig, was objektive Aussagen aufgrund der zahlreichen, möglichen Parameter ebenfalls nahezu unmöglich macht.

Zudem sind mittlerweile bei fast allen Herstellern die Farben -out of the box- sehr geschmackvoll abgestimmt. Und dank genormten Log-Profilen lassen sich in der Post selbst auf schwachen Rechnern mit guten Look-LUTs schnell ansprechende Farben erzielen. Wer sich etwas in das Thema Color Grading einfuchst sollte daher mit fast jeder aktuellen Kamera gute Ergebnisse erzielen können. Wenn es für die Kamera sogar ein ACES-Profil gibt, lässt sich damit praktisch jeder Look kameraübergreifend mit wenigen Klicks einrichten.

Summa Summarum bleibt die Color Science einer Kamera für uns eine weitaus subjektive Einschätzung, über die wir dennoch gerne auch mal ein paar Worte verlieren. Diese Aussagen sind jedoch definitiv unter "Geschmackssachen" einzuordnen. In die slashCAM-Bewertung einer Kamera sollten die Farben nach unserer Meinung nicht direkt eingehen. Es sei denn, uns fällt bei einer Kamera auf, dass irgendetwas ganz grob nicht stimmt...

   

Kommentare

 

Top