xebone hat geschrieben:
Mir scheint aber so dass hier die Rauschverhaltenoptimierer versuchen die MP Befürworter etwas abzustempeln bzw. in eine Ecke zu drängen ala "zum guten Fotographieren braucht man sowas nicht".
Ich hätte wirklich nichts gegen mehr Auflösung - ich weiß aber, dass ich persönlich sie nur selten nutzen könnte, da ich hauptsächlich mit den Limitierungen des Systems hinter der Kamera kämpfe.
xebone hat geschrieben:
Die Zeiten wo die Physik die höheren Pixeldichten also die Auflösung am Chip limitiert sind noch lange nicht da..."
Bei den 2/3 Sensoren dürfte das Limit bereits errreicht sein. Und bei APS-Size Sensoren oder kleiner beginnt sich die Beugungsunschärfe schon ab Blende 16 bemerkbar zu machen, bei Spitzenobjektiven sogar noch früher. Hat man dann ein Objektiv mit Anfangslichtstärke f5,6 , welches sein Optimum mit 2 Stufen Abblendung erreicht, dann bleibt gestalterisch wenig Spielraum, wenn man am Optimum bleiben will.
xebone hat geschrieben:... sodass wir von 6 auf 12MP mit Sicherheit noch einen deutlichen Gewinn haben..."
Unbestritten.
xebone hat geschrieben:... Offensichtlich trauen sich aber die Meisten "MP Befürworter" nicht viel dazu zusagen weil ich fast nur "Rauschverminderungsbefürworter" lese
(und die MP Befürworter da doch deutlich mehr sind)

..."
Mir fällt allerdings auch nur ein einziges Argument für noch mehr Pixel ein: Die Hoffnung auf noch schärfere, detailreichere Bilder.
xebone hat geschrieben:Noch ein abschliessendes Wort zu den Objektiven die man dann dafür braucht.
Ich hab auf meinen Bildern mit dem Tamron Macro 90 und dem 70-200 VR immer wieder Bilder darunter wo die Auflösung des Chips überstiegen wird (mit den entsprechenden Artefakten) - umgekehrt hatte ich noch kaum ein Bild - bzw. keines wo es mir auffiel- wo die Grenze der Objektive erreicht wird.
Objektive produzieren keine Artefakte. Artefakte entstehen, wenn Objektiv, Sensor und die firmwaremäßige Bildaufbereitung nicht optimal miteinander harmonieren und/oder an ihre Grenzen kommen. Was passiert dann? Wird die Information (der abzubildende Punkt, bzw. die Linie) unterschlagen? Kommt es zu Pseudoinformationen, bzw. Störungen (Artefakte, Moire)? Oder wird das Bild mithilfe ausgefeilter Algorithmen schon in der Kamera so intelligent verbessert, dass man es hinterher gar nicht merkt (Canon)?
Die Abbildung des Motivs kommt ja nicht 1:1 auf die Pixel, sondern muss vorher (meistens) den AA-Filter passieren, der das Auflösungsvermögen erst mal reduziert - um Moire zu vermeiden - und dann muss diese weichgezeichnete Abbildung wieder scharfgerechnet , die Farbwerte interpoliert, der Kontrast verstärkt werden usw. usw...
Und das alles nur, weil der Sensor so abscheulich dumm ist und mit analogen Abbildungen, wie sie Objektive erzeugen, so furchtbar schlecht umgehen kann.
Warum produzieren wohl Kameras, die denselben Chip verbaut haben, teilweise so unterschiedliche Ergebnisse? Weil das digitale Bild in erster Linie das Ergebnis von Software ist. Die Optik muss dem Chip möglichst optimal angepasst sein. Wenn sie zu scharf ist (führt zu Moire) muss man das firmwaremäßig hinbügeln, wenn sie nicht scharf genug ist, ebenfalls. Dieser Umstand relativiert die Bedeutung der schieren Pixelzahl als Mass für die Bildqualität.
Gruss,
thomas