Funktioniert nur leider nicht. Ich habe das selbst mal ausprobiert, mit dem etwas irritierenden Ergebnis, dass der Dynamikumfang einer Kompaktdigi mit 2,5" Chip sich nicht von dem einer DSLR mit APS-Chip unterschied. Dieses Brett vor dem Kopf trug ich dann eine ganze Weile mit mir herum.Schaffmeister hat geschrieben:
Gemeint ist, dass ab einer gewissen Unter-/ Überbelichtung keine sichtbare Bildinformation mehr vorhanden ist (z.B. alles ein einheitliches Schwarz/Dunkelgrau oder Weiss/Hellgrau ist).
Das Verfahren ist Labortauglich - das Zonensystem nach Adams basiert darauf![]()
Also auf gehts: Eine Belichtungsreihe von -5 bis +5 schießen. Die Aufnahmedaten protokollieren (Tageslicht, Kunstlicht o.ä.; Kameraeinstellungen) und z.B. jeweils 50x50 Pixel aus der Bildmitte ausschneiden.
Diese dann nebeneinandersetzen - und fertig ist der Helligkeitskeil.
Irgendwann deuchte mir dann, dass ich mitnichten den Dynamikumfang der Kameras gemessen, sondern nur den Kontrastumfang des RGB-Farbraums dargestellt hatte. Ein einfacher Graustufenverlauf in Photoshop hätte dasselbe gebracht, wäre aber weniger aufwändig gewesen.
Im Grunde erzeugt man mit dem Addamschen Verfahren bei einer Digicam im Gegensatz zu analogem Film nur das Ergebnis, das man haben möchte, indem man sie auf Neutralgrau eicht und ihr dann sagt: Stelle nun mit jeder Belichtung nach + oder - das Ergebnis in der Wiedergabe jeweils eine Stufe heller oder dunkler dar.
Die analoge Fotografie beruht auf einer chemischen Reaktion. je länger und intensiver die Belichtung, desto stärker die Reaktion der Silberkristalle. Der Prozess ist einfach, reproduzierbar und vom Fotografen gut zu kontrollieren. Die digitale Fotografie dagegen beruht auf der Umwandlung und Verstärkung von elektrischen Signalen. Signale, die durch Computer interpretiert werden müssen, damit man überhaupt so etwas wie ein Bild sieht. Ob man diese Interpretation der JPEG-Engine der Kamera überlässt oder die Feineinstellungen über einen RAW-Konverter selbst vornimmt, spielt dabei im Prinzip keine Rolle (im Ergebnis schon, aber das ist hier nicht der Punkt).
Die Probleme fangen schon damit an, ein 12- oder 16-Bit Foto an einem 8-Bit Monitor darzustellen. Entweder man schneidet die Lichter ab oder die Schatten, oder man quetscht die Tonwertkurve zusammen, oder man spreizt sie. Wie gesagt, entweder man überlässt das der Kamera, oder den Optionen, die einem ein RAW-Konverter bietet.
Bei einem SW-Negativfilm kann ich den Grad der Schwärzung exakt und reproduzierbar steuern. Und vor allem direkt sehen. Bei einer Digi weiss ich jedoch niemals, wann das Signal (z.b. in den Schattenpartien) so verstärkt wurde, dass bereits eine deutliche Beschneidung des Dynamikbereichs eintritt. Software kann viel tricksen und richten. Entweder am heimischen Rechner oder gleich onboard in der Kamera. Das Problem für den User ist, dass er selten zwischen dem realen und dem simulierten Dynamikbereich unterscheiden kann. Bestes Beispiel ist der Tiefen-Lichter Filter von Photoshop: Ein Dreh, und die zugelaufenen Schattenpartien sehen gleich differenzierter aus. Sollte dabei das Rauschen zugenommen haben, kein Problem, auch dafür gibt's Software.
Die einzige Möglichkeit, etwas über den Dynamikbereich einer Digi zu sagen zu können, ist meiner Meinung nach, sie in der Praxis in Hochkontrastsituationen auszureizen, bzw. unter denselben Bedingungen mit anderen Digis zu vergleichen. Und sich dazu zu bekennen, dass das abschließende Urteil auf subjektiver Erfahrung beruht.
Gruß,
thomas