D50 & Auflösung

Alles rund um die D-SLR Modelle, eure Fragen und Antworten. Diskutiert in der Community.

Moderator: donholg

Andreas-M.
_
_
Beiträge: 4
Registriert: Mo 18. Mai 2009, 13:22
Wohnort: Gladbeck

D50 & Auflösung

Beitrag von Andreas-M. »

Hallo Nikon-Freunde !

Ich habe seit ca. 2,5 Jahren eine D50 (nun mit 16-85VR & 70-300 VR) & bin mit dieser Kombination eigentlich zufrieden.

Was mich ein wenig verwundert ist, daß meine Bilder nie größer als max. 3MB, eher kleiner sind (bei "fine & large") - nicht, daß das ein Drama wäre, da ich eh` keine erheblichen Vergrößerungen mache, nur ab & zu wäre ein größeres Volumen für Ausschnittsvergrößerungen nicht schlecht !

Sind 3 MB o.k. bei den 6,1 MP der D50, ist etwas defekt oder aber gibt es noch andere Einstellungen, die die Bildgröße beeinflussen ?

Wäre für "sachdienliche Hinweise" sehr dankbar !

lG Andreas-M.
cocktail-foto
Batterie11 A
Batterie11 A
Beiträge: 1450
Registriert: Sa 15. Jul 2006, 17:15
Wohnort: Kranichstein
Kontaktdaten:

Beitrag von cocktail-foto »

Es ist alles so wie es sein soll mit 3 MB!

Bei Landschaftsaufnahmen wo alles scharf ist (Blende zu) sind die Dateien am größten. Bei Portraits, wo viel unscharfer Hintergrund mit dabei ist, werden die Dateien kleiner. Das liegt an der Jpeg-Kompression.

Du kannst aber, wenn du mehr Qualität brauchst auch RAW/NEFs schießen, dann hast du noch Reserven in der Dynamik
mod_ebm
Technischer Admin
Technischer Admin
Beiträge: 4097
Registriert: Mi 19. Jan 2005, 18:46
Wohnort: Berlin
Kontaktdaten:

Beitrag von mod_ebm »

Hallo Andreas und herzlich willkommen im Forum!

Das Volumen der Dateien hat recht wenig damit zutun, wie gut du Ausschnitte aus deinen Aufnahmen nehmen kannst. Deine Kamera hat 6 Megapixel fix, also eine Aufösung vn 3008x2000 Pixel. Diese 6016000 Pixel hat deine ungeschnittene Aufnahme unabhängig davon, ob die resultierende JPEG-Datei 2, 3 oder 4 Megabyte groß ist. Die unterschiedlichen Dateigrößen kommen durch den Kompressionsmechanismus der JPEG-Kompression. Dieser passt sich simpel ausgesprochen an die Gegebenheiten der im Foto vorhandenen Bilder an. Große nahezu strukturlose Flächen (zum Beispiel das Bokeh oder eine weiße Wand) lassen sich deutlich leichter komprimieren als eine konfuse Struktur wie das Astwerk eines Baumes.

Möchtest du mehr Reserven beim Beschneiden eines Fotos, benötigst du eine Kamera mit höherer Auflösung also mehr Megapixeln. Die von Coctail-foto angesprochene Aufnahme in RAW/NEF hilft dir nur beim Retten von zu dunklen oder zu hellen Stellen.
Gruß Carsten
Andreas H
Sollte mal wieder fotografieren...
Sollte mal wieder fotografieren...
Beiträge: 8968
Registriert: Mo 17. Mai 2004, 01:44

Beitrag von Andreas H »

mod_ebm hat geschrieben:Die von Coctail-foto angesprochene Aufnahme in RAW/NEF hilft dir nur beim Retten von zu dunklen oder zu hellen Stellen.
Prinzipiell hilft NEF bei vielen Formen der Nachbearbeitung, weil man nicht auf einer fertigen JPEG-Kompression aufsetzen muß und Bearbeitungsschritte wie Tonwertkorrekturen und Unscharfmaskierung in einer optimalen Reihenfolge durchführen kann. Bei Ausschnittvergrößerunge kann das schon einen Unterschied machen.

Grüße
Andreas
Andreas-M.
_
_
Beiträge: 4
Registriert: Mo 18. Mai 2009, 13:22
Wohnort: Gladbeck

Beitrag von Andreas-M. »

Hallo Sebastian, Carsten & Andreas !

Danke für die Willkommenswünsche sowie die schnellen & informativen Antworten, die mir in der Tat weiterhelfen bzw. ich nun zumindest weiß, daß die D50 o.k. ist & ich nicht unwißentlich "falsche" Einstellungen" aktiv habe !

lG Andreas-M.
Andreas-M.
_
_
Beiträge: 4
Registriert: Mo 18. Mai 2009, 13:22
Wohnort: Gladbeck

Beitrag von Andreas-M. »

Hallo nochmal, insbesondere an Carsten !

...aber ist es denn nicht so, daß bei einer jpg-Komprimierung "überflüssige" Pixel aus dem Bild rausgerechnet werden & so eben danach nicht mehr die vollen 6,1 MP = Bildpunkte vorhanden sind ?

...oder reduziere ich die MP nur durch Beschneiden ?

Irgendwie scheint - zumindest mir (!) - der Zusammenhang zwischen MP der Kamera & MB eines Bildes nicht ganz klar zu sein - kann da ev. noch mal jemand verständlich zu etwas sagen ?

MlG & besten Dank vorab nochmals,
Andreas-M.
mod_ebm
Technischer Admin
Technischer Admin
Beiträge: 4097
Registriert: Mi 19. Jan 2005, 18:46
Wohnort: Berlin
Kontaktdaten:

Beitrag von mod_ebm »

Jein, der JPEG Algorithmus bewirken nicht durch Weglassen von Pixeln die Kompression sondern durch mehrere ineinander greifende Mechanismen.

Kurzer Exkurs:
JPEG ist ein mehrstufiger Mechanismus, basierend darauf, dass Bilder wie alle digitalen Daten aus Strömen aus 0en und 1en bestehen.

1) Aufsplittung der Bilder in die einzelnen Kanäle (R, G, B)

2) Zerschneiden der einzelnen Kanalinformationen in 8x8 Pixel große Stücke (Quantisierung)

3) JPEG enthält eine Liste von sehr häufig auftauchenden Bildstrukturen. Der Mechanismus sucht jetzt in dieser Liste nach einem dem gerade betrachteten Stück möglichst ähnlichen Eintrag. Dieses 8x8 Stück wird dann durch die Zahl der Position in dieser Liste ersetzt. Diese Liste basiert auf der Tatsache, dass die Natur sich im Kleinen immer wiederholt und "selbstähnlich" ist. Das ist der (durch das Wort "ähnlich") verlustbehaftete Teil der JPEG-Kompression!! (Discrete Cosinus Transformation, DCT)

4) Eine Lauflängencodierung: lange Folgen von 0en werden durch n*0 und lange Folgen von 1en durch n*1 ersetzt. Dadurch reduziert sich die Größe erneut, allerdings verlustfrei! (Runlength Encoding, RLE)

5) Der entstandene Datenstrom wird zum schluss noch durch eine Huffmann-Codierung geschickt. Häufige Datenmuster werden einem kürzeren Code ersetzt. Wenn jetzt zum Beispiel sehr häufig ein 100100 auftaucht, wird dieses durch eine 001 ersetzt. Ein weniger häufiges 010100 durch eine 010. Diese Gegenüberstelung wird dann in einer Tabelle abgelegt, die in der JPEG-Datei abgelegt wird. Auch diese Kompression ist verlustfrei!

Ich hoffe, das war nicht zu theoretisch und einigermaßen verständlich. So sollte auch klar sein, warum einfache, glatte Strukturen sich deutlich weiter komprimieren lassen.
Gruß Carsten
Benutzeravatar
Oymel
Braucht keine Motivprogramme
Braucht keine Motivprogramme
Beiträge: 1332
Registriert: Do 14. Dez 2006, 21:11
Wohnort: Hamburg
Kontaktdaten:

Beitrag von Oymel »

@carsten
wow! wieder was dazugelernt. danke!
gruß inge

D7100, 35/1.8G (DX), 50/1.8D, 85/1.8G, tamron 17-50/2.8, 55-300 VR, 18-200 VR, blitzdingens und kram
pebu!
Batterie5
Batterie5
Beiträge: 54
Registriert: Mi 18. Apr 2007, 11:01
Wohnort: Hofheim

Beitrag von pebu! »

...hmm, das war vielleicht doch etwas theoretisch für den Fragestellenden, oder? Wichtig ist doch für ihn zu wissen, daß sich die Auflösung durch die Datenreduktion nicht verändert. Die "Informationsmenge" der immer gleichbleibenden Anzahl an Bildpunkten wird nur je nach Art und Stärke der Kompression verändert, so kommt es bei Kameras mit einer festen Anzahl an MP immer zu unterschiedlich großen Dateien.

@Carsten zu deinem Exkurs.

Das "Zerschneiden" der Kanalinformation (ich glaube das RGB-Signal wird in einen anderen Farbraum mit Farbdifferenzsignalen umgerechnet) erfolgt in 8x8 Pixel große Makroblöcke, die dann mittels der diskreten Cosinus-Transformation in den Frequenzbereich umgerechnet werden. Diese 8x8 Matrix wird dann über verschiedene Quantisierungsmatrizen, die die Stärke der Kompression beeinflussen quantisiert. Die hohen irrelevanten Frequenzanteile der Makroblöcke werden so "wegkomprimiert". Die Blöcke werden dann mittels Zig-Zag-Scanning ausgelesen, was zur Folge hat, daß sich die hohen Koeffizienten am Anfang befinden, am Ende nur noch Nullen, die dann zu vernachlässigen sind. So erfolgt zunächst eine deutliche nichtverlustbehaftete Kompression. Einen Vergleich häufiger Bildstrukturen eines Makroblocks mit einer Liste ist mir aber irgendwie neu, bist du dir da sicher? Kenne die Komprimierung allerdings nur aus der "Bewegtbildecke", also MPEG, wobei ja die Intracodierung der JPEG-Codierung in etwa entspricht.
Gruß pebu!
mod_ebm
Technischer Admin
Technischer Admin
Beiträge: 4097
Registriert: Mi 19. Jan 2005, 18:46
Wohnort: Berlin
Kontaktdaten:

Beitrag von mod_ebm »

Hallo Pebu,

Mit dem ZigZag hast du recht, den hab ich vergessen. Der folgt nach der Quantisierung und der DCT. Huffmann und LRE sind aber sicher Bestandteil. Es wird wohl keine Kompression geben, die auf diese einfachen Mittel verzichtet.

Ich hab aber mit Absicht versucht, das so einfach wie möglich zu formulieren. Deine Beschreibung entspricht natürlich eher der akademischen Lehre. Technisch ist es aber das Gleiche wie meine Beschreibung. Die Umwandlung der Bilder in einen andern "Farbraum" zum differenzieren der Farbsignale entspricht eben meinem Trennen der Kanäle ;)

Nachtrag: Ich hab mal eben schnell einen Link gefunden, der das aber sehr kompliziert beschreibt: http://www-lehre.inf.uos.de/~mm/skript/ ... _nach.html . Da ist auch zu lesen, dass RGB in YUV(4:1:1) gewandelt wird. Auch Huffmann und LRE werden erwähnt.

Nachtrag 2: Meine Beschreibung der DCT war insofern ungenau, dass ich von Mustern sprach, in Wirklickeit sind es aber diese Cosinus-Funktionen, mit denen sich die Werte wiederherstellen lassen. Es sind mehrere Funktionen, je nach zu rekonstruierendem Muster. Je mehr Funktionen, desto genauer die Rekonstruktion aber auch je geringer die Kompression.
Gruß Carsten
Antworten