O.k, das ist die klassische Methode. Meine Frage ist: Funktioniert die an Digis überhaupt noch?
Solange die Kamera die Helligkeitswerte des Motivs linear überträgt, ist alles klar. Was aber, wenn Algorithmen eingebaut sind, die den Kontrastumfang des Motivs bereits onboard unabhängig vom User beeinflussen, z.B. die Lichter schützen und die Schatten aufhellen?
Ich zitiere aus der Bedienungsanleitung der D100 zum Kapitel Tonwertkorrektur:
"A- Automatik (Standardvorgabe): Die Kamera wählt automatisch die Gradationskurve, mit der sich der Bildkontrast am besten optimieren lässt. Die Korrektur fällt daher von Bild zu Bild unterschiedlich aus. Es wird die Verwendung eines G- oder D-Nikkors empfohlen."
Woher will die Kamera wissen, wie ich das Bild haben möchte? Gut, wenn sich so etwas abschalten läßt. Aber was, wenn nicht?
http://www.anywhea.de/surium/2kameras.html zeigt in einem Nebeneinandervergleich das unterschiedliche Verhalten verschiedener Digis (Original JPEGs, nur verkleinert):
Im ersten Beispiel sehen die Ergebnisse auf den ersten Blick recht ähnlich aus. Die Histogramme weisen dennoch ein unterschiedliches "Buckelverhalten" auf. Kamera "A" weist eine deutliche Tendenz zur Überstrahlung der Lichter auf (vermutlich Blooming), Kamera "B" dagegen hat noch erstaunlich viel Zeichnung in den Lichtern. Das ist im übrigen kein Einzelfall, sondern typisch für Kamera "B", was auf einen höheren Dynamikbereich hinweist. Oder auf einen raffinierteren Bildprozessor. Vielleicht ist beides ja auch dasselbe.
Im zweiten Beispiel sehen wir, obwohl das Motiv belichtungstechnisch nicht schwierig sein sollte, ein völlig anderes Verhalten - beide Kameras haben, obwohl die Belichtung absolut gleich war, das Motiv völlig unterschiedlich interpretiert. Vor allem die unterschiedlichen Histogramme sind interessant.
Zum Abschluss noch zu Beispiel 3, Kamera "A" versus "Kamera" "C". Beidesmal automatische Belichtung. "A" hat hier mehr Zeichnung in den Schatten. Man beachte auch die unterschiedliche Farbwiedergabe.
Gruß,
thomas