Warum der Rotkanal ein … ist.

„Kein Licht! Und das auch noch rot.“

Warum ist rotes Licht der Feind des guten Konzertfotos? Oder etwas technischer formuliert: Warum ist die Abbildungsqualität besonders bei roten Motiven so schlecht?

Zunächst muss ich betonen: ich bin kein Physiker und auch kein Fachmann für Kameratechnik. Aber das hindert mich ja nicht daran mir ein paar Gedanken zu machen und Wikipedia sei Dank kann ich auch ein paar Behauptungen über die Physik des Lichts aufstellen.
Vielleicht findet sich auch wer, der es besser weiß als ich. Nur zu, die Kommentare sind ja offen.

Also, was hat es nun auf sich mit den Besonderheiten im Rotkanal. Wenn man es sich einfach machen wollte könnte man sagen: Die Kamera ist viel schlechter als das menschliche Auge. Technik kann einfach nicht das leisten was die Biologie in Millionen Jahren erreicht hat. Punkt.

Ich hätte da einen Lösungsansatz für den man sich zwei/drei Dinge näher betrachten muss.

 

 

1. Die Physik des Lichts

Klingt gut – und kompliziert. Ist es aber eigentlich gar nicht. Schauen wir uns doch einfach mal an wie Licht so aussieht, wenn man es in seine Spektralfarben zerlegt. Denn schließlich interessiert uns ja der Unterschied zwischen Rot und den anderen Farben aus denen sich das Licht zusammensetzt.

Wer genau hinschaut wird bemerken, dass es viel mehr Rot im Lichtspektrum gibt als z.B. Grün. Oder anders formuliert. Das menschliche Auge ist  in der Lage viel mehr Abstufungen von Rot zu sehen als von den meisten anderen Farben.
Wo viel Rot ist, da ist ist schnell auch mal zu viel Rot. Und genau das ist bei den typischen Fotos mit ausgefressenen Farben der Fall. Der Rotkanal läuft sozusagen über. Warum das so ist wird klar, wenn man sich den schematischen Aufbau eines Typischen Bildsensors ansieht.

 

2. Bildsensoren und Bayer-Filter

Viele der heutzutage in Digitalkameras verwendeten Bildsensoren arbeiten mit einem sogenannten Bayer-Filter. Diese Filter ähneln einem Mosaik, das dafür sorgt, dass das Licht nach den Grundfarben Rot, Grün und Blau sortiert auf die einzelnen Pixel trifft. Prinzipell ist so ein Sensor nämlich Farbenblind. Der Bayer-Filter sorgt aber dafür, dass nur bestimmte Pixel überhaupt angesprochen werden, wenn z.B. bei rotes Licht auf den Sensor trifft. Der Rest wird errechnet und alle anderen Farben nach dem bekannten RGB-Prinzip gemischt.

Von den grünen Pixeln gibt es übrigens doppelt so viele wie von den roten und den blauen. Das hat wiederum mit der Beschaffenheit des menschlichen Auges zu tun.
Bleibt festzuhalten: Gerade einmal ein Viertel der auf einem Sensor zu Verfügung stehenden Pixel sind für Rot zuständig. Und auf diesem Vierten sollen alle Teile des Lichts zwischen 600 und 700nm Wellenlänge Platz finden. Zum Vergleich: Auf den blauen Pixeln tummeln sich nur die Wellenlängen zwischen 440 und 480nm. Diese Werte sind zwar nur von mir geschätzt, aber es bleibt der Fakt, dass es auf den roten Pixeln deutlich enger zugeht als auf den blauen. Das grüne Licht verteilt sich sowieso auf viel mehr Pixel und alle anderen Farben werden gemischt, verteilen sich also auch auf mehr Pixel.

Also, irgendwie ganz logisch, dass der Rotkanal der erste ist der überläuft und die typischen ausgefressenen Bildstellen produziert.

Die in manchen Kameras verbauten Foveon X3 Sensoren arbeiten übrigens ohne Bayer-Sensor und bieten aus diesem Grund einige Vorteile bei der Farbwiedergabe. Sie bringen aber auch ganz eigene Nachteile mit sich.

 

3. Am Ende versaut es eh der Bildschirm

Was nützt die beste Kamera mit dem besten Abbildungsverhalten im roten Spektrum, wenn es am Ende doch der Bildschirm versaut? Es reicht nämlich nicht alle Nuancen des roten Lichts auf den Sensor zu bannen. Das eingesammelte Licht muss auch gut widergegeben werden. Leider kämpfen Monitore hier mit den gleichen Problemen wie Bildsensoren, aus den gleichen Gründen. Oder anders ausgedrückt: Das menschliche Auge sieht zwar viel mehr Rot als Blau, diese Unterschiede können aber nur die wenigsten Bildschirme gut abbilden.

Und ob es an der Kamera gelegen hat, oder am Monitor auf den man grade schaut liegt, für den Betrachter des Fotos ist das egal.

Aus diesem Grund schaue ich mir, wenn ich kann, meine Fotos auch auf einem weniger guten Monitor an. Denn so sehen die meisten Menschen meine Fotos.

Was also tun bei zu viel Rot?

Was beim Fotografieren hilft ist Abblenden. Oder etwas allgemeiner formuliert: Unterbelichten. Der negative Effekt entsteht, weil der Rotkanal überbelichtet und genau da muss man gegensteuern um die Details im Bild zu erhalten.
Leider bringt gezieltes Unterbelichten bei rotem Licht auch alle Nachteile mit sich, die man erwarten kann. Oft werden die Bilder dadurch schlicht zu dunkel und man verliert dadurch wieder Details und Bildqualität. Aber zumindest sehr helles, rotes Licht wird beherrschbar wenn man entsprechend anders belichtet. Aus meiner Erfahrung heraus kann ich sagen, dass ich bei einem Wechsel auf rotes Licht während einem Konzert die Belichtungszeit oft halbiere, obwohl sich der subjektive Helligkeitseindruck gar nicht verändert hat.

So ein Sonsor guckt halt anders und unsere Augen passen sich oft an wechselnde Lichtsituationen an, ohne dass wir es merken.

 

Über den Autor

Wolfgang Heisel fotografiert seit mehr als fünf Jahren Bands, Konzerte und andere Live-Veranstaltungen. Seine Wahlheimat ist Köln, wo vor allem bei akustischer und rockiger Musik unterwegs ist.

5 Kommentare

  1. Ralph says: - antworten

    Apropos Bildqualität… dein Blog gefällt mir, hat aber einen sehr schlechten Kontrast zum Lesen. Fast so wie manche AGB auf dünnen Rückseiten…

  2. […] Nachtrag: Wolfgang Heisel zum Rotkanal […]

  3. […] tollen Artikel zu dieser Problematik habe ich im Blog von Wolfgang Heisel […]

  4. Roland says: - antworten

    Eine Idee dazu, die mir gerade einfiel. Weiß nicht, ob sie woanders vielleicht auch schon mal genannt wurde.

    Wenn eine Kamera eine Art „Vor-Weißabgleich“ machen könnte, um bei großem Rotanteil auf dem Sensor die Rot-Pixel auf ISO400 zu schalten, die Grün- und Blau-Pixel aber auf ISO1600 …könnte das dieses Problem zumindest zum Teil angehen…?
    Schon klar, dass es dafür auch eine Raw-Software geben müsste, die mit unterschiedlichen ISO-Werten pro Pixel-Farbe umgehen und etwas sinnvolles daraus machen könnte.
    Was mich direkt zu der Frage führt: Können heutige Sensoren das theoretisch schon (sodass die MagicLantern-Jungs mal herumexperimentieren könnten, ob sie das hinkriegen?!?), oder müsste man einen Sensor dafür ganz anders bauen?

    Ich hab jetzt ein paarmal mit dem Tip, die eine Blende unterzubelichten gearbeitet – super-großen Dank dafür! – dann aber oft doch wieder ganz viel Rot aus dem Bild herausgenommen. Halt so, dass man noch sieht, dass es rot war, aber dass es nicht das ganze Bild überstrahlt (Monochrombild mit rotem Tint vermeiden).

Hinterlasse eine Antwort