Seite 7 von 7

Verfasst: Di 27. Dez 2005, 14:21
von volkerm
Andreas H hat geschrieben:Letzteres. Ich glaube nicht daß Volker die 252 mit dem Belichtungsmesser am Monitor bestimmt hat. Ich denke er hat in der Bildverarbeitung einen Helligkeitswert abgegriffen. Damit ist der Monitor relativ belanglos.
Genau. Oder um ganz präzise zu sein: die so ermittelten Flächen-Mittelwerte sind ja bereits in dem Bild als Textkommentar eingefügt, ich habe das dort nur abgelesen.

Verfasst: Di 27. Dez 2005, 14:27
von gs
volkerm hat geschrieben:
gs hat geschrieben:Ok, bei +3,5 wirds dünn
Dünn ist schmeichelhaft formuliert. Wenn sich von +3.0 nach +3.5 die Ausgabe gar nicht ändert (in beiden Fällen 252), dann ist das bei +3.0 offenbar vollständig gesättigt.
Kommt natürlich drauf an wie man misst. Per Schwellenwert geht's jedenfalls einfacher. Interessant auch, dass USM abgeschaltet ist. Bei ON läßt sich der Engine sichtlich mehr entlocken. Aber egal, es ging mir nur ums Verfahren nach Ansel Adams und weniger um die S2. Eigene Tests diesbzgl. habe ich längst hinter mir ;)

Verfasst: Di 27. Dez 2005, 14:48
von gs
Andreas H hat geschrieben:
doubleflash hat geschrieben:Nichts ist daran falsch, und war für mich auch interessant, aber an dem S2 Bild merkt man nur, wie unterschiedlich die Monitore eingestellt sind.
Oder komme ich einfach nur nicht mit???
Letzteres. Ich glaube nicht daß Volker die 252 mit dem Belichtungsmesser am Monitor bestimmt hat. Ich denke er hat in der Bildverarbeitung einen Helligkeitswert abgegriffen. Damit ist der Monitor relativ belanglos.

Grüße
Andreas
Die Werte wurden per Flächenauswahl dem Histogramm in PS entnommen, sind aber mit Vorsicht zu genießen, denn wer misst, misst Mist und wer viel misst, misst noch mehr Mist! Wichtiger ist, was das Auge davon hält.

Verfasst: Di 27. Dez 2005, 19:06
von thg
gs hat geschrieben:Falls nicht schon in diesem Megathread angesprochen, eine einst von Ansel Adams beschriebene Methode, die hier mit einer S2 nachgestellt wurde:

http://www.pbase.com/jsmpsn/image/4126244/large
O.k, das ist die klassische Methode. Meine Frage ist: Funktioniert die an Digis überhaupt noch?
Solange die Kamera die Helligkeitswerte des Motivs linear überträgt, ist alles klar. Was aber, wenn Algorithmen eingebaut sind, die den Kontrastumfang des Motivs bereits onboard unabhängig vom User beeinflussen, z.B. die Lichter schützen und die Schatten aufhellen?

Ich zitiere aus der Bedienungsanleitung der D100 zum Kapitel Tonwertkorrektur:
"A- Automatik (Standardvorgabe): Die Kamera wählt automatisch die Gradationskurve, mit der sich der Bildkontrast am besten optimieren lässt. Die Korrektur fällt daher von Bild zu Bild unterschiedlich aus. Es wird die Verwendung eines G- oder D-Nikkors empfohlen."

Woher will die Kamera wissen, wie ich das Bild haben möchte? Gut, wenn sich so etwas abschalten läßt. Aber was, wenn nicht?

http://www.anywhea.de/surium/2kameras.html zeigt in einem Nebeneinandervergleich das unterschiedliche Verhalten verschiedener Digis (Original JPEGs, nur verkleinert):

Im ersten Beispiel sehen die Ergebnisse auf den ersten Blick recht ähnlich aus. Die Histogramme weisen dennoch ein unterschiedliches "Buckelverhalten" auf. Kamera "A" weist eine deutliche Tendenz zur Überstrahlung der Lichter auf (vermutlich Blooming), Kamera "B" dagegen hat noch erstaunlich viel Zeichnung in den Lichtern. Das ist im übrigen kein Einzelfall, sondern typisch für Kamera "B", was auf einen höheren Dynamikbereich hinweist. Oder auf einen raffinierteren Bildprozessor. Vielleicht ist beides ja auch dasselbe.

Im zweiten Beispiel sehen wir, obwohl das Motiv belichtungstechnisch nicht schwierig sein sollte, ein völlig anderes Verhalten - beide Kameras haben, obwohl die Belichtung absolut gleich war, das Motiv völlig unterschiedlich interpretiert. Vor allem die unterschiedlichen Histogramme sind interessant.

Zum Abschluss noch zu Beispiel 3, Kamera "A" versus "Kamera" "C". Beidesmal automatische Belichtung. "A" hat hier mehr Zeichnung in den Schatten. Man beachte auch die unterschiedliche Farbwiedergabe.

Gruß,
thomas