Hallo Nikon-Freunde !
Ich habe seit ca. 2,5 Jahren eine D50 (nun mit 16-85VR & 70-300 VR) & bin mit dieser Kombination eigentlich zufrieden.
Was mich ein wenig verwundert ist, daß meine Bilder nie größer als max. 3MB, eher kleiner sind (bei "fine & large") - nicht, daß das ein Drama wäre, da ich eh` keine erheblichen Vergrößerungen mache, nur ab & zu wäre ein größeres Volumen für Ausschnittsvergrößerungen nicht schlecht !
Sind 3 MB o.k. bei den 6,1 MP der D50, ist etwas defekt oder aber gibt es noch andere Einstellungen, die die Bildgröße beeinflussen ?
Wäre für "sachdienliche Hinweise" sehr dankbar !
lG Andreas-M.
D50 & Auflösung
Moderator: donholg
-
- _
- Beiträge: 4
- Registriert: Mo 18. Mai 2009, 13:22
- Wohnort: Gladbeck
-
- Batterie11 A
- Beiträge: 1450
- Registriert: Sa 15. Jul 2006, 17:15
- Wohnort: Kranichstein
- Kontaktdaten:
Es ist alles so wie es sein soll mit 3 MB!
Bei Landschaftsaufnahmen wo alles scharf ist (Blende zu) sind die Dateien am größten. Bei Portraits, wo viel unscharfer Hintergrund mit dabei ist, werden die Dateien kleiner. Das liegt an der Jpeg-Kompression.
Du kannst aber, wenn du mehr Qualität brauchst auch RAW/NEFs schießen, dann hast du noch Reserven in der Dynamik
Bei Landschaftsaufnahmen wo alles scharf ist (Blende zu) sind die Dateien am größten. Bei Portraits, wo viel unscharfer Hintergrund mit dabei ist, werden die Dateien kleiner. Das liegt an der Jpeg-Kompression.
Du kannst aber, wenn du mehr Qualität brauchst auch RAW/NEFs schießen, dann hast du noch Reserven in der Dynamik
-
- Technischer Admin
- Beiträge: 4097
- Registriert: Mi 19. Jan 2005, 18:46
- Wohnort: Berlin
- Kontaktdaten:
Hallo Andreas und herzlich willkommen im Forum!
Das Volumen der Dateien hat recht wenig damit zutun, wie gut du Ausschnitte aus deinen Aufnahmen nehmen kannst. Deine Kamera hat 6 Megapixel fix, also eine Aufösung vn 3008x2000 Pixel. Diese 6016000 Pixel hat deine ungeschnittene Aufnahme unabhängig davon, ob die resultierende JPEG-Datei 2, 3 oder 4 Megabyte groß ist. Die unterschiedlichen Dateigrößen kommen durch den Kompressionsmechanismus der JPEG-Kompression. Dieser passt sich simpel ausgesprochen an die Gegebenheiten der im Foto vorhandenen Bilder an. Große nahezu strukturlose Flächen (zum Beispiel das Bokeh oder eine weiße Wand) lassen sich deutlich leichter komprimieren als eine konfuse Struktur wie das Astwerk eines Baumes.
Möchtest du mehr Reserven beim Beschneiden eines Fotos, benötigst du eine Kamera mit höherer Auflösung also mehr Megapixeln. Die von Coctail-foto angesprochene Aufnahme in RAW/NEF hilft dir nur beim Retten von zu dunklen oder zu hellen Stellen.
Das Volumen der Dateien hat recht wenig damit zutun, wie gut du Ausschnitte aus deinen Aufnahmen nehmen kannst. Deine Kamera hat 6 Megapixel fix, also eine Aufösung vn 3008x2000 Pixel. Diese 6016000 Pixel hat deine ungeschnittene Aufnahme unabhängig davon, ob die resultierende JPEG-Datei 2, 3 oder 4 Megabyte groß ist. Die unterschiedlichen Dateigrößen kommen durch den Kompressionsmechanismus der JPEG-Kompression. Dieser passt sich simpel ausgesprochen an die Gegebenheiten der im Foto vorhandenen Bilder an. Große nahezu strukturlose Flächen (zum Beispiel das Bokeh oder eine weiße Wand) lassen sich deutlich leichter komprimieren als eine konfuse Struktur wie das Astwerk eines Baumes.
Möchtest du mehr Reserven beim Beschneiden eines Fotos, benötigst du eine Kamera mit höherer Auflösung also mehr Megapixeln. Die von Coctail-foto angesprochene Aufnahme in RAW/NEF hilft dir nur beim Retten von zu dunklen oder zu hellen Stellen.
Gruß Carsten
Prinzipiell hilft NEF bei vielen Formen der Nachbearbeitung, weil man nicht auf einer fertigen JPEG-Kompression aufsetzen muß und Bearbeitungsschritte wie Tonwertkorrekturen und Unscharfmaskierung in einer optimalen Reihenfolge durchführen kann. Bei Ausschnittvergrößerunge kann das schon einen Unterschied machen.mod_ebm hat geschrieben:Die von Coctail-foto angesprochene Aufnahme in RAW/NEF hilft dir nur beim Retten von zu dunklen oder zu hellen Stellen.
Grüße
Andreas
-
- _
- Beiträge: 4
- Registriert: Mo 18. Mai 2009, 13:22
- Wohnort: Gladbeck
-
- _
- Beiträge: 4
- Registriert: Mo 18. Mai 2009, 13:22
- Wohnort: Gladbeck
Hallo nochmal, insbesondere an Carsten !
...aber ist es denn nicht so, daß bei einer jpg-Komprimierung "überflüssige" Pixel aus dem Bild rausgerechnet werden & so eben danach nicht mehr die vollen 6,1 MP = Bildpunkte vorhanden sind ?
...oder reduziere ich die MP nur durch Beschneiden ?
Irgendwie scheint - zumindest mir (!) - der Zusammenhang zwischen MP der Kamera & MB eines Bildes nicht ganz klar zu sein - kann da ev. noch mal jemand verständlich zu etwas sagen ?
MlG & besten Dank vorab nochmals,
Andreas-M.
...aber ist es denn nicht so, daß bei einer jpg-Komprimierung "überflüssige" Pixel aus dem Bild rausgerechnet werden & so eben danach nicht mehr die vollen 6,1 MP = Bildpunkte vorhanden sind ?
...oder reduziere ich die MP nur durch Beschneiden ?
Irgendwie scheint - zumindest mir (!) - der Zusammenhang zwischen MP der Kamera & MB eines Bildes nicht ganz klar zu sein - kann da ev. noch mal jemand verständlich zu etwas sagen ?
MlG & besten Dank vorab nochmals,
Andreas-M.
-
- Technischer Admin
- Beiträge: 4097
- Registriert: Mi 19. Jan 2005, 18:46
- Wohnort: Berlin
- Kontaktdaten:
Jein, der JPEG Algorithmus bewirken nicht durch Weglassen von Pixeln die Kompression sondern durch mehrere ineinander greifende Mechanismen.
Kurzer Exkurs:
JPEG ist ein mehrstufiger Mechanismus, basierend darauf, dass Bilder wie alle digitalen Daten aus Strömen aus 0en und 1en bestehen.
1) Aufsplittung der Bilder in die einzelnen Kanäle (R, G, B)
2) Zerschneiden der einzelnen Kanalinformationen in 8x8 Pixel große Stücke (Quantisierung)
3) JPEG enthält eine Liste von sehr häufig auftauchenden Bildstrukturen. Der Mechanismus sucht jetzt in dieser Liste nach einem dem gerade betrachteten Stück möglichst ähnlichen Eintrag. Dieses 8x8 Stück wird dann durch die Zahl der Position in dieser Liste ersetzt. Diese Liste basiert auf der Tatsache, dass die Natur sich im Kleinen immer wiederholt und "selbstähnlich" ist. Das ist der (durch das Wort "ähnlich") verlustbehaftete Teil der JPEG-Kompression!! (Discrete Cosinus Transformation, DCT)
4) Eine Lauflängencodierung: lange Folgen von 0en werden durch n*0 und lange Folgen von 1en durch n*1 ersetzt. Dadurch reduziert sich die Größe erneut, allerdings verlustfrei! (Runlength Encoding, RLE)
5) Der entstandene Datenstrom wird zum schluss noch durch eine Huffmann-Codierung geschickt. Häufige Datenmuster werden einem kürzeren Code ersetzt. Wenn jetzt zum Beispiel sehr häufig ein 100100 auftaucht, wird dieses durch eine 001 ersetzt. Ein weniger häufiges 010100 durch eine 010. Diese Gegenüberstelung wird dann in einer Tabelle abgelegt, die in der JPEG-Datei abgelegt wird. Auch diese Kompression ist verlustfrei!
Ich hoffe, das war nicht zu theoretisch und einigermaßen verständlich. So sollte auch klar sein, warum einfache, glatte Strukturen sich deutlich weiter komprimieren lassen.
Kurzer Exkurs:
JPEG ist ein mehrstufiger Mechanismus, basierend darauf, dass Bilder wie alle digitalen Daten aus Strömen aus 0en und 1en bestehen.
1) Aufsplittung der Bilder in die einzelnen Kanäle (R, G, B)
2) Zerschneiden der einzelnen Kanalinformationen in 8x8 Pixel große Stücke (Quantisierung)
3) JPEG enthält eine Liste von sehr häufig auftauchenden Bildstrukturen. Der Mechanismus sucht jetzt in dieser Liste nach einem dem gerade betrachteten Stück möglichst ähnlichen Eintrag. Dieses 8x8 Stück wird dann durch die Zahl der Position in dieser Liste ersetzt. Diese Liste basiert auf der Tatsache, dass die Natur sich im Kleinen immer wiederholt und "selbstähnlich" ist. Das ist der (durch das Wort "ähnlich") verlustbehaftete Teil der JPEG-Kompression!! (Discrete Cosinus Transformation, DCT)
4) Eine Lauflängencodierung: lange Folgen von 0en werden durch n*0 und lange Folgen von 1en durch n*1 ersetzt. Dadurch reduziert sich die Größe erneut, allerdings verlustfrei! (Runlength Encoding, RLE)
5) Der entstandene Datenstrom wird zum schluss noch durch eine Huffmann-Codierung geschickt. Häufige Datenmuster werden einem kürzeren Code ersetzt. Wenn jetzt zum Beispiel sehr häufig ein 100100 auftaucht, wird dieses durch eine 001 ersetzt. Ein weniger häufiges 010100 durch eine 010. Diese Gegenüberstelung wird dann in einer Tabelle abgelegt, die in der JPEG-Datei abgelegt wird. Auch diese Kompression ist verlustfrei!
Ich hoffe, das war nicht zu theoretisch und einigermaßen verständlich. So sollte auch klar sein, warum einfache, glatte Strukturen sich deutlich weiter komprimieren lassen.
Gruß Carsten
...hmm, das war vielleicht doch etwas theoretisch für den Fragestellenden, oder? Wichtig ist doch für ihn zu wissen, daß sich die Auflösung durch die Datenreduktion nicht verändert. Die "Informationsmenge" der immer gleichbleibenden Anzahl an Bildpunkten wird nur je nach Art und Stärke der Kompression verändert, so kommt es bei Kameras mit einer festen Anzahl an MP immer zu unterschiedlich großen Dateien.
@Carsten zu deinem Exkurs.
Das "Zerschneiden" der Kanalinformation (ich glaube das RGB-Signal wird in einen anderen Farbraum mit Farbdifferenzsignalen umgerechnet) erfolgt in 8x8 Pixel große Makroblöcke, die dann mittels der diskreten Cosinus-Transformation in den Frequenzbereich umgerechnet werden. Diese 8x8 Matrix wird dann über verschiedene Quantisierungsmatrizen, die die Stärke der Kompression beeinflussen quantisiert. Die hohen irrelevanten Frequenzanteile der Makroblöcke werden so "wegkomprimiert". Die Blöcke werden dann mittels Zig-Zag-Scanning ausgelesen, was zur Folge hat, daß sich die hohen Koeffizienten am Anfang befinden, am Ende nur noch Nullen, die dann zu vernachlässigen sind. So erfolgt zunächst eine deutliche nichtverlustbehaftete Kompression. Einen Vergleich häufiger Bildstrukturen eines Makroblocks mit einer Liste ist mir aber irgendwie neu, bist du dir da sicher? Kenne die Komprimierung allerdings nur aus der "Bewegtbildecke", also MPEG, wobei ja die Intracodierung der JPEG-Codierung in etwa entspricht.
Gruß pebu!
@Carsten zu deinem Exkurs.
Das "Zerschneiden" der Kanalinformation (ich glaube das RGB-Signal wird in einen anderen Farbraum mit Farbdifferenzsignalen umgerechnet) erfolgt in 8x8 Pixel große Makroblöcke, die dann mittels der diskreten Cosinus-Transformation in den Frequenzbereich umgerechnet werden. Diese 8x8 Matrix wird dann über verschiedene Quantisierungsmatrizen, die die Stärke der Kompression beeinflussen quantisiert. Die hohen irrelevanten Frequenzanteile der Makroblöcke werden so "wegkomprimiert". Die Blöcke werden dann mittels Zig-Zag-Scanning ausgelesen, was zur Folge hat, daß sich die hohen Koeffizienten am Anfang befinden, am Ende nur noch Nullen, die dann zu vernachlässigen sind. So erfolgt zunächst eine deutliche nichtverlustbehaftete Kompression. Einen Vergleich häufiger Bildstrukturen eines Makroblocks mit einer Liste ist mir aber irgendwie neu, bist du dir da sicher? Kenne die Komprimierung allerdings nur aus der "Bewegtbildecke", also MPEG, wobei ja die Intracodierung der JPEG-Codierung in etwa entspricht.
Gruß pebu!
-
- Technischer Admin
- Beiträge: 4097
- Registriert: Mi 19. Jan 2005, 18:46
- Wohnort: Berlin
- Kontaktdaten:
Hallo Pebu,
Mit dem ZigZag hast du recht, den hab ich vergessen. Der folgt nach der Quantisierung und der DCT. Huffmann und LRE sind aber sicher Bestandteil. Es wird wohl keine Kompression geben, die auf diese einfachen Mittel verzichtet.
Ich hab aber mit Absicht versucht, das so einfach wie möglich zu formulieren. Deine Beschreibung entspricht natürlich eher der akademischen Lehre. Technisch ist es aber das Gleiche wie meine Beschreibung. Die Umwandlung der Bilder in einen andern "Farbraum" zum differenzieren der Farbsignale entspricht eben meinem Trennen der Kanäle
Nachtrag: Ich hab mal eben schnell einen Link gefunden, der das aber sehr kompliziert beschreibt: http://www-lehre.inf.uos.de/~mm/skript/ ... _nach.html . Da ist auch zu lesen, dass RGB in YUV(4:1:1) gewandelt wird. Auch Huffmann und LRE werden erwähnt.
Nachtrag 2: Meine Beschreibung der DCT war insofern ungenau, dass ich von Mustern sprach, in Wirklickeit sind es aber diese Cosinus-Funktionen, mit denen sich die Werte wiederherstellen lassen. Es sind mehrere Funktionen, je nach zu rekonstruierendem Muster. Je mehr Funktionen, desto genauer die Rekonstruktion aber auch je geringer die Kompression.
Mit dem ZigZag hast du recht, den hab ich vergessen. Der folgt nach der Quantisierung und der DCT. Huffmann und LRE sind aber sicher Bestandteil. Es wird wohl keine Kompression geben, die auf diese einfachen Mittel verzichtet.
Ich hab aber mit Absicht versucht, das so einfach wie möglich zu formulieren. Deine Beschreibung entspricht natürlich eher der akademischen Lehre. Technisch ist es aber das Gleiche wie meine Beschreibung. Die Umwandlung der Bilder in einen andern "Farbraum" zum differenzieren der Farbsignale entspricht eben meinem Trennen der Kanäle

Nachtrag: Ich hab mal eben schnell einen Link gefunden, der das aber sehr kompliziert beschreibt: http://www-lehre.inf.uos.de/~mm/skript/ ... _nach.html . Da ist auch zu lesen, dass RGB in YUV(4:1:1) gewandelt wird. Auch Huffmann und LRE werden erwähnt.
Nachtrag 2: Meine Beschreibung der DCT war insofern ungenau, dass ich von Mustern sprach, in Wirklickeit sind es aber diese Cosinus-Funktionen, mit denen sich die Werte wiederherstellen lassen. Es sind mehrere Funktionen, je nach zu rekonstruierendem Muster. Je mehr Funktionen, desto genauer die Rekonstruktion aber auch je geringer die Kompression.
Gruß Carsten