zappa4ever hat geschrieben:Ich glaube auch nicht, dass es dir oder mir ums Rechthaben geht, sondern eher um einen Austausch verschiedener Ansichten - so ne Art Gehirnjogging. Ist ja in unserem Alter empfehlenswert und soll Demenz vorbeugen

Danke Roland, so sehe ich das auch. Andererseits macht sich meine Frau gerne über mich lustig, wenn ich alles so genau erkläre. Das ist wohl eine berufsbedingte Deformation. Da kann es nicht schaden, wenn ich auch mal versuche, mich von außen zu betrachten.
zappa4ever hat geschrieben:Die Schärfe nimm doch vom Fokuspunkt (ebene) zu den Rändern der Tiefenschärfe ab. Irgendwo wird jetzt eine Grenze gesetzt (z.B. nach meiner Herleitung durch die min. Winkelminuten, die ein Auge in einem bestimmten Abstand noch unterscheiden kann = Unschärfekreis).
Hm - so habe ich die Definition von Schärfentiefe nicht verstanden. Ich dachte immer, dass alles, was innerhalb des Bereichs der Schärfentiefe liegt, auch tatsächlich "scharf" sein soll. Natürlich denke ich, das man das mit einem Körnchen Salz sehen kann, denn der Unschärfekreis ist das Grenzkriterium für die die Schärfentiefe. Innerhalb des Bereichs ist es natürlich schon möglich, dass Objekte dort noch ein wenig schärfer abgebildet werden, das aber kann man womöglich nicht sehen, weil da dann oft die Sensorauflösung oder das Filmkorn die eigentlichen Grenzen der Bildschärfe bestimmen.
zappa4ever hat geschrieben:Gehst du jetzt vom Abtasttheorem aus,dann ist dies doch die max. Auflösung, die ein Chip darstellen kann. Wenn dieser nun die Ränder der Tiefenschärfe bestimmen sollte, dann könnte die Schärfe zur Fokusebene hin nicht mehr zunehmen. Das kann doch eigentlich nicht so sein. Es könnte nur sein, dass z.B. die Ränder der Tiefenschärfe durch die z.B. halbe erreichbare Auflösung charakterisiert werden.
Stimmt - tatsächlich sollte die Schärfe innerhalb des Schärfentiefebereichs zwischen den Grenzen und der eigentlichen Fokusebene nicht mehr sichtbar zunehmen.
In der Praxis und bei 100%-Betrachtung am Monitor kann das bei hoch auflösenden Sensoren aber durchaus der Fall sein. Der Unschärfekreis von 20µm für APS-C Sensoren entspricht in etwa der physikalischen Auflösung einer D70 (6 MPixel). Bei meiner D300 müsste die physikalische Auflösung aufgrund doppelt so hoher MPixel-Zahl etwa um den Faktor Wurzel 2 höher sein, und das ist dann bei 100% Ansicht am Bildschirm schon sichtbar - meist in Form einer subtilen Unschärfe, weil ich die Belichtungszeit mal wieder 'nen Tick zu langsam gewählt habe.
Hättest Du aber im Vergleich dazu früher einen Film mit ähnlichem Vergrößerungsfaktor unter der Lupe angeschaut, hättest Du einen solchen Effekt aufgrund des groben Filmkorns wohl kaum gesehen.
zappa4ever hat geschrieben:Und ob sich Leute an die Entfernung halten beim Betrachten der Bilder oder nicht, spielt doch auch keine Rolle. Dann muss eben der Unschärfekreis angepasst werden. Er verhält sich dann aber wieder bei allen Auflösungen identisch.
Wohl wahr. Allerdings kommt man dabei dann irgendwann zu Bildvergrößerungen, bei denen Auflösungsgrenzen und/oder Beugungseffekte sichtbar werden. Das kann man zwar mit Schärfungs- und Skalierungsalgorithmen noch etwas kaschieren, aber selbst solche hoch gerechneten Bilder sehen dann im Detail wieder unscharf aus - nur eben nicht pixelig.
zappa4ever hat geschrieben:Das hat sich ja auch gewandelt in den letzten Jahren. heute werden Bilder als unscharf kritisiert, die noch vor 10 Jahren in der analogen Fotografie durchaus als "normal" gegolten hätten. Das liegt an einer angepassten Betrachtungsweise heute am Monitor. Und so viele Bilder werden wohl auch gar nicht mehr ausgedruckt.
Allerdings - wenn ich mir heute meine alten "analogen" Dias in eingescannter Form ansehe, dann kommt mir oft das Grausen: Nach heutigen Maßstäbe sind viele dieser Bilder entweder schlicht unscharf oder leicht verwackelt. Das ist mir früher nie aufgefallen.
