Logo Logo
/// 

Sensorgröße nicht für Schärfentiefe verantwortlich



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Frage von klusterdegenerierung:


Ja doch, schon wieder die olle Kamelle.
Damals gab es ja genug Stimmen die mir widersprachen und dem festen Glauben unterlagen, das die Sensorgröße die Schärfentefe beeinflußt.

Dies stimmt natürlich nicht und ist nur umgangssprachlich so gemeint, weil man bei sich ändernder Sensorgröße dazu geneigt ist den sich ändernden Bildauschnitt (von vielen auch als Brennweite betitelt) mit einer equivalänten Brennweite oder Objektentfernungsverlagerung auszugleichen.

Dies lässt sich prima mit dem Dof Simulator nachstellen und überprüfen.
https://dofsimulator.net/en/

Als Test haben mir die Größen 1 Zoll, 35mm, 6x6 Mittelformat und 4x5 Inch Großbild gedient.
Dabei habe ich weder die Entfernung des Models noch den Standpunkt der Person oder die Brennweite und Blende geändert, nur die Sensorgröße.

Dann habe ich je einen Auschnitt aus allen genommen die der Größe des kleinsten Bildauschnitts (1 Zoll) genommen.
Man sieht also links das originale Bild und rechst immer einen Crop welcher so groß ist, wie die originale 1 Zoll Aufnahme, damit man die Schärfentiefe bei den großen- Bildauschnitten / Sensoren besser beurteilen kann.

Wer also beim wechsel von 34mm zu APS-C eine andere Schärfentiefe bekommt, bekommt sie, weil er entweder die Breiweite, Blende oder Standpunkt bzw alles zusammen wechselt.



Antwort von mash_gh4:

ja -- wenn du die optik nicht änderst und einfach nur einen kleineren sensor nutz, wirkt das natürlich nicht anders wie ein crop im ursprünglichen bild. allerdings ist dieses gedankenspiel relativ realitätsfern, weil man in normalfall doch eher ähnliche öffnungswinkel mit dem gesamten sensor abbilden will resp. um den verlängerungsfaktor veränderte brennweiten nutzen wird.



Antwort von Jan:

Ich kann nicht verstehen, warum man das nicht mitbekommen kann. Du nimmst Dir eine Kompaktkamera mit 1/2,33" Sensor mit Offenblende F3,5. Da kannst du gar nichts freistellen, außer einer kleinen Blume, also einem kleine Objekt, wenn du nahe dran gehst. Nimm dann eine Vollformatkamera und einem ähnlichem Ausschnitt, nimme Blende F3,5 und du kannst kannst locker ein Gesicht freistellen. Das Thema haben doch auch schon die professionellen Kameramänner vom ZDF mitbekommen, als sie das erste Mal mit einer Canon EOS 5 MK II bei Video mit Vollformat zu tun hatten und dauernd unscharfe Motive gefilmt haben, obwohl sie Profis sind. Sie hatten eben Erfahrung mit 2/3" Sensoren, aber nicht mir Vollformatsensoren. Bei Handy mit kleinen Sensoren geht das inzwischen auch ganz gut, aber eben mit Software. Selbst bei APS an meiner A6400 ist bei F 1,4 mit dem Sigma 56mm einfach nur ein paar Zentimeter der Schärfebereich, etwas, was du mit einer 1/2,33" Kamera gar nicht hinbekommen kannst, selbst wenn sie f1,4 hätte.








Antwort von elephantastic:

rein Theoretisch und logisch ist das so. Das Bokeh erzeugt ja offensichtlich das Objektiv. Und nur wenn man nen anderen Sensor hinter packt, verändert sich das ja nicht.
Stell dir mal vor, du zoomst digital, um die Schärfe zu ziehen und plötzlich ändert sich alles...
Aber in der Praxis willst du ja den Bildausschnitt und suchst dir dafür entsprechend eine Optik-Sensor-Kombi. Und dann macht 50mm f1.8 (S35) und 75mm f1.8 (FF) schon einen Unterschied.
In der Praxis hat man dann die Wahl zwischen einem f1.8 S35 Zoom und einem f2.8 FF Zoom. Wie groß da dann noch der Unterschied ist, muss man abwägen. Gibt ja z.B. auch so f0.9 Linsen für mft, während die Mittelformat linsen ne f4.5 haben oder so.


Achtung, hab kein Physik studiert (muss man hierfür sicherlich auch nicht). Korrigiert mich, wenn ich falsch liege.
Dis Blendenöffnung ist ja zum Beispiel 50/1.8 (50mm f/1.8) = 28mm.
Wenn ich jetzt für mft ein Objektiv mit gleichem Bildwinkel und DOF bauen will, muss es ja entsprechend ein 25mm f/0.9 = 28 Blendendurchmesser sein.
Das 18-35 mm 1.8 hat also bei 35mm eine Blendenöffnung von 19,4mm und ein 24-70mm f/2.8 bei 52,5mm (auf FF dann) 18,75. Ist also sogar schlechter für den 50mm möglichst-wenig-DOF-Look.
Schade finde ich aber zB., Dass es keine Festbrennweiten gibtt, die dann z.B. ein 50mm f/1.4 am FF durch ein S35 objektiv ersetzen. Also ein 33mm f/0.9 oder so. Müsste technisch ja möglich sein.



Antwort von cantsin:

Jan hat geschrieben:
Ich kann nicht verstehen, warum man das nicht mitbekommen kann. Du nimmst Dir eine Kompaktkamera mit 1/2,33" Sensor mit Offenblende F3,5. Da kannst du gar nichts freistellen, außer einer kleinen Blume, also einem kleine Objekt, wenn du nahe dran gehst. Nimm dann eine Vollformatkamera und einem ähnlichem Ausschnitt, nimme Blende F3,5 und du kannst kannst locker ein Gesicht freistellen.
Das liegt aber an den unterschiedlichen Brennweiten der beiden Kameras, die man normalerweise verwendet. Bei der 1/2,33"-Kameras ist 9mm Normalbrennweite, an der FF-Kamera 50mm. Da ändert sich natürlich die Schärfentiefe - die ist 9mm/3.5 viel größer als bei 50mm/3.5. Kluster bezog sich aber auf identische Brennweiten an verschiedenen Sensorgrößen.



Antwort von mash_gh4:

Jan hat geschrieben:
Du nimmst Dir eine Kompaktkamera mit 1/2,33" Sensor mit Offenblende F3,5. Da kannst du gar nichts freistellen, außer einer kleinen Blume, also einem kleine Objekt, wenn du nahe dran gehst.
auch bei einer kleinbildkamera mit gleicher brennweite (=ca. 6mm!), so wie es kluster hier eingefordert hat, wirst du dir verdammt schwer tun, irgendwas freizustellen...



Antwort von Axel:

Das ist alles richtig, aber praxisfern. In der Praxis ist sDoF mit größeren Sensoren noch shallower.

Eine ähnliche „Richtigstellung“ sah ich kürzlich in Bezug auf den Mythos, Tele würden komprimieren. In Wirklichkeit, argumentierten die Macher, handele es sich um die so genannte erzwungene Perspektive, die z.B. eine Person kleiner erscheinen lasse als die Sonne dahinter, dasselbe sei auch mit Weitwinkel möglich - z.B. Fuß tritt scheinbar auf winzigen Menschen. Was sie ausließen ist: die jeweilige optische Täuschung ist nur mit den jeweiligen Brennweiten möglich.

In der Theorie stimmt, dass Tele nur croppen und nicht komprimieren, in der Praxis komprimieren sie (=man selbst, durch die Art, wie man sie naheliegenderweise einsetzt).



Antwort von Frank Glencairn:

Alles ne Frage der Variablen.

Wenn man nur die Sensorgröße als einzige Variable betrachtet führt das zwangsläufig zu falschen Schlußfolgerungen (und in der Folge zu Mythenbildung).
Wenn man den Rest der Variablen (Brennweite - Blende - Abstand Kamera Motiv - Abstand Kamera Hintergrund - Abstand Motiv Hintergrund) mit dazu rechnet, macht es plötzlich mehr Sinn. Immer wenn ich den Wert eine dieser Variablen ändere, ändere ich das Ergebnis, aber Gleichungen mit 6 Variablen können sich viele schon nicht mehr im Kopf vorstellen, und das ganze wird gedanklich zu "fetter Sensor > fettes Bokeh" eingedampft.



Antwort von soulbrother:

klusterdegenerierung hat geschrieben:
Dann habe ich je einen Auschnitt aus allen genommen die der Größe des kleinsten Bildauschnitts (1 Zoll) genommen.
Wenn Du es anders ausdrücken würdest, wäre plötzlich klar, dass Du gar nix geändert hast, eben auch nicht die Sensorgröße!
Somit komplett sinnfrei...



Antwort von rush:

In der Praxis wird man auch selten so perfekt auf die kleinste Sensorgröße croppen können ohne einen (teils massiven) Auflösungsverlust mit in Kauf zu nehmen - daher ist diese Betrachtung zwar in der Theorie richtig aber eben nicht allzu praxisnah.



Antwort von klusterdegenerierung:

mash_gh4 hat geschrieben:
ja -- wenn du die optik nicht änderst und einfach nur einen kleineren sensor nutz, wirkt das natürlich nicht anders wie ein crop im ursprünglichen bild. allerdings ist dieses gedankenspiel relativ realitätsfern, weil man in normalfall doch eher ähnliche öffnungswinkel mit dem gesamten sensor abbilden will resp. um den verlängerungsfaktor veränderte brennweiten nutzen wird.
Damit hast Du natürlich Recht und spiegelt gleizeitig wieder, wie schizo dieses ganze Fullframe vs APS-C Verkaufsargument und handling drumrum ist,
denn es ist immer von Sensorgröße die Rede, nicht aber von equivalenzen.

Jeder der auf eine Fullframe updaten will denkt der größere Sensor macht mir jetzt mehr dof, einen Sch... macht der, der macht garnix. :-)
Ich weiß das es als Neuling natürlich müßig ist immer zu erwähnen das man eine andere dof bekommt, weil man alles andere ändert, statt genau das, weswegen man glaubt, das man ein anderes dof Verhalten bekommt.

Das ist schon etwas strange muß ich zugeben.



Antwort von klusterdegenerierung:

Jan hat geschrieben:
Ich kann nicht verstehen, warum man das nicht mitbekommen kann. Du nimmst Dir eine Kompaktkamera mit 1/2,33" Sensor mit Offenblende F3,5. Da kannst du gar nichts freistellen, außer einer kleinen Blume, also einem kleine Objekt, wenn du nahe dran gehst. Nimm dann eine Vollformatkamera und einem ähnlichem Ausschnitt, nimme Blende F3,5 und du kannst kannst locker ein Gesicht freistellen. Das Thema haben doch auch schon die professionellen Kameramänner vom ZDF mitbekommen, als sie das erste Mal mit einer Canon EOS 5 MK II bei Video mit Vollformat zu tun hatten und dauernd unscharfe Motive gefilmt haben, obwohl sie Profis sind. Sie hatten eben Erfahrung mit 2/3" Sensoren, aber nicht mir Vollformatsensoren. Bei Handy mit kleinen Sensoren geht das inzwischen auch ganz gut, aber eben mit Software. Selbst bei APS an meiner A6400 ist bei F 1,4 mit dem Sigma 56mm einfach nur ein paar Zentimeter der Schärfebereich, etwas, was du mit einer 1/2,33" Kamera gar nicht hinbekommen kannst, selbst wenn sie f1,4 hätte.
Hallo Jan, ich lade Dich gerne ein den dof Simulator genau für Deine These zu nutzen.
Mache uns von allen Varinten inkl. Settings einen Screenshot, aber achte bitte darauf, das Du nur die Sensorgröße in diesem Beispiel änderst.

Ich kann mir durchaus vorstellen, das Du zu einem ganz anderen Ergebnis kommst, da Du von was ganz anderem sprichst, aber nicht von "Sensorgröße"
Du machst eben genau das was alle machen, Abstand ändern, Blende ändern, Entfernung ändern usw usw, das ist aber nicht das wovon ich spreche.

Lasse alles wie es ist und ändere nur die Sensorgröße! :-)








Antwort von markusG:

Axel hat geschrieben:
In der Theorie stimmt, dass Tele nur croppen und nicht komprimieren, in der Praxis komprimieren sie (=man selbst, durch die Art, wie man sie naheliegenderweise einsetzt).
Den Effekt der Komprimierung hat man jahrzehntelang bei den Vertigo-Shots gesehen. Falls du das mit einsetzen meintest...



Antwort von klusterdegenerierung:

soulbrother hat geschrieben:
klusterdegenerierung hat geschrieben:
Dann habe ich je einen Auschnitt aus allen genommen die der Größe des kleinsten Bildauschnitts (1 Zoll) genommen.
Wenn Du es anders ausdrücken würdest, wäre plötzlich klar, dass Du gar nix geändert hast, eben auch nicht die Sensorgröße!
Somit komplett sinnfrei...
Kannst Du mir das bitte erklären?
Klar ändert sich garnix, wieso auch, denn ein Sensor ist eine passive Fläche, eine Fläche die Licht einfängt, die kann überhaupt nix am dof Verhalten beeinflussen.

Stelle es Dir so vor wie ein Loch in einem Fenster vor einem dunklen Raum.
Wenn Du dort ein Dina4 Blatt an einem definiertem Platz auf stellst, wird das Abbild auf dem DinA4 Baltt identisch zu dem Bild (in Bezug auf dof) auf einem Blatt in Briefmarkengröße, oder Plakatgröße aussehen.

Erst wenn Du mit dem Plakat soweit zurückgehst, dass das Motiv ganz drauf passt, oder hinter dem Loch eine Linse angebracht wird, die das Bild auf Briefmarkengröße bündelt, ändert sich das Bild, bzw das dof Verhalten.

Das spiegelt genau das wieder, was man für gewöhlich macht, man geht mit APSC ein paar Schritte zurück, damit das Motiv die Sensorgröße voll ausfüllt, oder man bleibt dort stehen und nimmet eine weitwinkliegere Brennweite. Beides führt zur Veränderung des dof Verhalten und bei keinen der Varianten hat die Sensorgröße ein Rolle gespielt.



Antwort von soulbrother:

klusterdegenerierung hat geschrieben:
soulbrother hat geschrieben:

Wenn Du es anders ausdrücken würdest, wäre plötzlich klar, dass Du gar nix geändert hast, eben auch nicht die Sensorgröße!
Somit komplett sinnfrei...
Kannst Du mir das bitte erklären?
Es ist egal, ob ich mit sonst gleichen Einstellungen an einem großen Sensor aufnehme, denn wenn ich danach auf den Ausschnitt des kleinen Sensors croppe, dann habe ich exakt dasselbe, sprich: Dann habe ich quasi mit dem kleinen Sensor aufgenommen.
Daher: Völlig sinnfrei das Ganze...



Antwort von iasi:

Zerstreuungskreisdurchmesser



Antwort von dienstag_01:

iasi hat geschrieben:
Zerstreuungskreisdurchmesser
Wohl eher Pixel pitch ;)



Antwort von carstenkurz:

2021. Sensorgröße und Schärfentiefe. Echtjetzt?



Antwort von dienstag_01:

carstenkurz hat geschrieben:
2021. Sensorgröße und Schärfentiefe. Echtjetzt?
2021? Immer!



Antwort von iasi:

dienstag_01 hat geschrieben:
iasi hat geschrieben:
Zerstreuungskreisdurchmesser
Wohl eher Pixel pitch ;)
Das erste Suchergebnis:
https://www.elmar-baumann.de/fotografie ... belle.html



Antwort von mash_gh4:

iasi hat geschrieben:
dienstag_01 hat geschrieben:

Wohl eher Pixel pitch ;)
Das erste Suchergebnis:
https://www.elmar-baumann.de/fotografie ... belle.html
ich glaube, dass der zerstreunungskreis in dieser diskussion hier keine rolle spielt.
der wird erst dann wirksam, wenn man die toleranz, wie sie sich auf grund der senselgröße bzw. abtastung der bildpunkte, in die schärfenbetrachtung einbezieht.
in der hier vorliegenden fragestellung geht's aber um ganz etwas anders, das damit nicht sehr viel zu tun hat.








Antwort von iasi:

mash_gh4 hat geschrieben:
iasi hat geschrieben:


Das erste Suchergebnis:
https://www.elmar-baumann.de/fotografie ... belle.html
ich glaube, dass der zerstreunungskreis in dieser diskussion hier keine rolle spielt.
der wird erst dann wirksam, wenn man die toleranz, wie sie sich auf grund der senselgröße bzw. abtastung der bildpunkte, in die schärfenbetrachtung einbezieht.
in der hier vorliegenden fragestellung geht's aber um ganz etwas anders, das damit nicht sehr viel zu tun hat.
Die Senselgröße hat mit dem Zerstreuungskreisdurchmesser doch gar nichts zu tun.

... wird der zulässige Zerstreuungskreisdurchmesser Z mit 1/1500 der Film- oder Sensordiagonalen des Fotoapparates beziffert ...
https://de.wikipedia.org/wiki/Zerstreuungskreis



Antwort von mash_gh4:

iasi hat geschrieben:
Die Senselgröße hat mit dem Zerstreuungskreisdurchmesser doch gar nichts zu tun.
und womit dann?



Antwort von iasi:

mash_gh4 hat geschrieben:
iasi hat geschrieben:
Die Senselgröße hat mit dem Zerstreuungskreisdurchmesser doch gar nichts zu tun.
und womit dann?
Mit dem Auflösungsvermögen des Auges - also dem "Unschärfedurchmesser", den wir noch als scharf wahrnehmen.
Und dieser Durchmesser ist abhängig von der Sensorgröße.
Bei Kleinbild ist er etwa doppelt so groß, wie bei MFT.



Antwort von mash_gh4:

iasi hat geschrieben:
Mit dem Auflösungsvermögen des Auges - also dem "Unschärfedurchmesser", den wir noch als scharf wahrnehmen.
nein! -- dort kann man den begriff zwar auch sinnvoll verwenden, weil es ganz anlog zu den nebeneinander liegenden senseln in der kamera bzw. deren größe und abstand auch im menschlichen auge eine nicht ganz unähnliche anordnung einzelner rezeptoren und deren abstand zueinader gibt, aber trotzdem darf man diese ganz einfach nachvollziehbaren ursachen, aus den sich diese größe herleitet, nicht ganz außer acht lassen od. völlig unreflektiert pauschal verwenden.

es gibt ohnehin auch zum bereits von dir verlinkten wikipedia-eintrag eine diskussion bzgl. einer zufriedenstellenderen definition od. unmissverständlicheren erklärungen, wo man auf diese verständnisprobleme näher eingeht:

http://wikipedia.de.nina.az/wiki/Diskus ... uungskreis



Antwort von iasi:

mash_gh4 hat geschrieben:
iasi hat geschrieben:
Mit dem Auflösungsvermögen des Auges - also dem "Unschärfedurchmesser", den wir noch als scharf wahrnehmen.
nein! -- dort kann man den begriff zwar auch sinnvoll verwenden, weil es ganz anlog zu den nebeneinander liegenden senseln bzw. deren größe und abstand auch im menschlichen auge eine nicht ganz unähnliche anordnung einzelner rezeptoren und deren abstand zueinader gibt, aber trotzdem darf man diese ganz einfach nachvollziehbaren ursachen, aus den sich diese größe herleitet, nicht ganz außer acht lassen od. völlig unreflektiert pauschal verwenden.

es gibt ohnehin auch zum bereits von dir verlinkten wikipedia-eintrag eine diskussion bzgl. einer zufriedenstellnderen definition od. unmissverständlicheren erklärungen, die auf diese verständnisprobleme näher eingeht:

http://wikipedia.de.nina.az/wiki/Diskus ... uungskreis
Die Diskussionen sind ja alle nett und schön, aber letztlich liefert eine Red Monstro eben doch ein anderes Bild, als eine Red Helium 8k. Und dies liegt nun einmal auch an der unterschiedlichen Vergrößerung von nebeneinanderliegenden Punkten aufgrund der Sensorgröße.
Um das Bild einer MFT-Kamera auf eine bestimmte Leinwandgröße zu strecken, braucht es eben im Vergleich zum KB-Sensor den Faktor 2.
Wenn als 0,015 mm bei MFT noch als scharf gesehen wird, dann sind es bei KB eben 0,03 mm.

Dieser Vergrößerungsfaktor wirkt sich dann eben auch auf die Anforderungen an die Optik etc. aus.



Antwort von Axel:

markusG hat geschrieben:
Axel hat geschrieben:
In der Theorie stimmt, dass Tele nur croppen und nicht komprimieren, in der Praxis komprimieren sie (=man selbst, durch die Art, wie man sie naheliegenderweise einsetzt).
Den Effekt der Komprimierung hat man jahrzehntelang bei den Vertigo-Shots gesehen. Falls du das mit einsetzen meintest...
Ich meinte eher, dass die Abstände zwischen eigentlich weit entfernten Dingen so wirken, als seien sie zusammengequetscht (=komprimiert).

zum Bild

Chasing the hawaiian sunset through an 800 mm lens.

Abgesehen von reinem Vogelbeobachten hat man den Effekt zwangsläufig, dass Vordergrund und Hintergrund ab einer gewissen Entfernung zusammenrücken. Das ist ein sehr dramatischer bis fast hysterischer Effekt, der vor allem Action zu mehr Dynamik verhelfen kann. Eine Weile galt dies für das andere Extrem, Super-Weitwinkel, auch. Da werden Abstände ja scheinbar größer und Abgründe tiefer. Die Actioncams haben in den letzten Jahrzehnten dafür gesorgt, dass die Wirkung nicht mehr so stark ist. Tele sind etwas schwieriger zu bewegen, weswegen sie noch weniger beliebt sind. Noch.

Der Vertigo-Effekt beruht ja darauf, dass Vordergrund und Hintergrund während des Dolly-Zooms im Bild gleich groß bleiben, was nur funktioniert, wenn man die Abstände durch eine Fahrt ändert, die den Zoom aufhebt. Wir alle wissen, wie es aussieht, wenn man von, sagen wir, 20mm auf 100mm zoomt. Es ändert sich an der Perspektive gar nichts. Das kann also super dazu dienen, zu zeigen, dass es tatsächlich nur eine Blickwinkelverengung mit gleichzeitiger Vergrößerung ist. Und von sich aus nichts komprimiert wird.



Antwort von mash_gh4:

Axel hat geschrieben:
markusG hat geschrieben:

Den Effekt der Komprimierung hat man jahrzehntelang bei den Vertigo-Shots gesehen. Falls du das mit einsetzen meintest...
Ich meinte eher, dass die Abstände zwischen eigentlich weit entfernten Dingen so wirken, als seien sie zusammengequetscht (=komprimiert).
das hat einfach nur damit zu tun, wie der lichtstrahl mit unterschiedlichem abstand zum beobachtungspunkt hin zusammenläuft. also ob die strahlen dabei eher parallel laufen oder sich stark kegelförmig weiten, was in letzterem falle natürliche eine ausgeprägtere tiefenstaffelung bzw. stärkere größenunterschiede bei gleich großen objekten in unterschiedlicher entfernung bewirkt.



Antwort von mash_gh4:

iasi hat geschrieben:
... letztlich liefert eine Red Monstro eben doch ein anderes Bild, als eine Red Helium 8k. Und dies liegt nun einmal auch an der unterschiedlichen Vergrößerung von nebeneinanderliegenden Punkten aufgrund der Sensorgröße.
ich weiß natürlich nicht, welch unendlich scharfen bilder sich vor deinem inneren auge auftun, wenn du in deinen geheimsten träumen mit derart unnahbaren kameras spielst, und mir ist natürlich auch bekannt, dass schon dein großes vorbild, der ansel adams, schon vor ewigen zeiten geraten hat: "Benutze immer die größte Kamera, die Du gerade noch tragen kannst", trotzdem halte ich deine hier vertretene begründung für unhaltbar.

ich würde deshalb nicht gleich argumentieren, dass ein winziger handy-sensor mit 110MP auflösung irgendwelchen vernünftigeren kamerasensoren haushoch überlegen ist, nur weil das zumindest im hinblick auf den zerstreungskreis in vielen fällen tatsächlich der fall ist, sondern es hat eben völlig andere gründe, warum man derartiges nicht unbedingt als erstrebenswertes optimum ansehen sollte.



Antwort von Jan:

Axel hat geschrieben:
Das ist alles richtig, aber praxisfern. In der Praxis ist sDoF mit größeren Sensoren noch shallower.

Eine ähnliche „Richtigstellung“ sah ich kürzlich in Bezug auf den Mythos, Tele würden komprimieren. In Wirklichkeit, argumentierten die Macher, handele es sich um die so genannte erzwungene Perspektive, die z.B. eine Person kleiner erscheinen lasse als die Sonne dahinter, dasselbe sei auch mit Weitwinkel möglich - z.B. Fuß tritt scheinbar auf winzigen Menschen. Was sie ausließen ist: die jeweilige optische Täuschung ist nur mit den jeweiligen Brennweiten möglich.

In der Theorie stimmt, dass Tele nur croppen und nicht komprimieren, in der Praxis komprimieren sie (=man selbst, durch die Art, wie man sie naheliegenderweise einsetzt).
Danke, mir geht es da auch nur um die Praxis. Auch wenn bei einer 1/2,3" Kamera die Originalbrennweite gleich 4,3mm (Beispiel Canon SX740) ist, so ist der sichtbare Weitwinkel-Bildwinkel auf dem LCD der Kamera oder am PC trotzdem 83,5° und das entspricht 24mm KB. Und ich habe mit der SX740 in der größten Weitwinkeleinstellung genau den selben Bildausschnitt wie von einer Vollformatkamera mit 24mm Weitwinkel.


Mag sein, dass wenn man die Original-Brennweiten in der Theorie ins Verhältnis setzt, ein anderes Ergebnis rauskommt.








Antwort von iasi:

mash_gh4 hat geschrieben:
iasi hat geschrieben:
... letztlich liefert eine Red Monstro eben doch ein anderes Bild, als eine Red Helium 8k. Und dies liegt nun einmal auch an der unterschiedlichen Vergrößerung von nebeneinanderliegenden Punkten aufgrund der Sensorgröße.
ich weiß natürlich nicht, welch unendlich scharfen bilder sich vor deinem inneren auge auftun, wenn du in deinen geheimsten träumen mit derart unnahbaren kameras spielst, und mir ist natürlich auch bekannt, dass schon dein großes vorbild, der ansel adams, schon vor ewigen zeiten geraten hat: "Benutze immer die größte Kamera, die Du gerade noch tragen kannst", trotzdem halte ich deine hier vertretene begründung für unhaltbar.

ich würde deshalb nicht gleich argumentieren, dass ein winziger handy-sensor mit 110MP auflösung irgendwelchen vernünftigeren kamerasensoren haushoch überlegen ist, nur weil das zumindest im hinblick auf den zerstreungskreis in vielen fällen tatsächlich der fall ist, sondern es hat eben völlig andere gründe, warum man derartiges nicht unbedingt als erstrebenswertes optimum ansehen sollte.
Was soll denn das Gefasel über die 110MP-Auflösung eines handy-sensor, wenn es um den Zerstreuungskreisdurchmesser geht?
Nochmal einfach gesagt, damit du es auch mal verstehst:
Die Auflösung hat nichts mit dem Zerstreuungskreisdurchmesser und der Schärfentiefe zu tun.

Letztlich geht es schlicht darum, dass man bei einem MFT-Sensor einen Bildpunkt der mit einem Durchmesser von 0,03mm unscharf abgebildet wird, so stark vergrößern muss, dass er unscharf wahrgenommen wird, während man eben bei einem KB-Sensor aufgrund geringerer Vergrößerung noch eine akzeptable (Un)Schärfe erhält.
Dabei ist es völlig gleichgültig ob dieser Kreis nun mit 8 oder 80 MP aufgelöst wird.

Bei einem echten Mittelformat darf dieser Kreis dann sogar 0,05mm groß sein, da er noch weniger herausvergrößert werden muss.

Daher ist dann nebenbei eben auch eine KB-Aufnahme mit einem Kodachrome 25 bei opimaler Blende immer noch nicht so scharf, wie eine 6x6-Aufnahme.



Antwort von mash_gh4:

iasi hat geschrieben:
Was soll denn das Gefasel über die 110MP-Auflösung eines handy-sensor, wenn es um den Zerstreuungskreisdurchmesser geht?
Nochmal einfach gesagt, damit du es auch mal verstehst:
Die Auflösung hat nichts mit dem Zerstreuungskreisdurchmesser und der Schärfentiefe zu tun.
bevor du hier noch mehr blödsinn verzapfst, nocheinmal einer dieser ohnehin bereits verlinkten verbesserungsvorschläge zum wikipedia-eintrag: "zerstreungskreis":

Besser wäre: "Wenn dieser Punkt größer als ein vorgegebenes Maß ist, gilt die Abbildung dieses Punktes als unscharf. Dieses vorgegebene Maß kann sich je nach Anwendungsfall an der Größe vom Filmkorn, am Punktabstand eines Bildsensors oder zum Beispiel auch an der Sehschärfe des menschlichen Auges orientieren."

der springende punkt ist hier also immer und alleinig die/der rezeptoren(=sensel)größe/-abstand bzw. die dadurch begrenzte abtatstungsauflösung, ab der die betreffende unschärfe überhaupt erst erkennbar bzw. wirksam wird!

aber mit der ursprünglichen fragestellung vom kluster hat das tatsächlich sehr wenig zu tun, wie ich ja ohnehin schon viel weiter oben erklärt habe.



Antwort von dienstag_01:

Ob und wenn ja wie sehr der Pixel Pitch Einfluss auf die Schärfentiefe hat, kann man sich auch im Dof-Simulator anzeigen lassen.

Ah, sorry, mash_gh4 hat das gerade genauer erklärt.



Antwort von iasi:

dienstag_01 hat geschrieben:
Ob und wenn ja wie sehr der Pixel Pitch Einfluss auf die Schärfentiefe hat, kann man sich auch im Dof-Simulator anzeigen lassen.

Ah, sorry, mash_gh4 hat das gerade genauer erklärt.
Was eine Rolle spielt, ist die Diagonal des Sensors und nicht die Anzahl der Pixel und deren Abstand.

Es ändert sich nichts an der Schärfentiefe, wenn der Kleinbildsensor nun 20 oder 50 MP hat.



Antwort von iasi:

mash_gh4 hat geschrieben:

aber mit der ursprünglichen fragestellung vom kluster hat das tatsächlich sehr wenig zu tun, wie ich ja ohnehin schon viel weiter oben erklärt habe.
Du scheinst dann klusters Aussage scheinbar übersehen zu haben:

Wer also beim wechsel von 34mm zu APS-C eine andere Schärfentiefe bekommt, bekommt sie, weil er entweder die Breiweite, Blende oder Standpunkt bzw alles zusammen wechselt.

https://de.wikipedia.org/wiki/Sch%C3%A4 ... _berechnen
;)

Und wenn du mal schaust, wirst du feststellen, dass der der Durchmesser des Zerstreuungskreises Z nun einmal Teil der Gleichung ist.

Und wenn man die Gleichung mit Z im Nenner richtig deutet, dann kommt man zu diesem Schluss:
Für Kamerasysteme mit unterschiedlichen Bilddiagonalen und somit entsprechend unterschiedlichen Normalbrennweiten gilt bei sonst gleichen Voraussetzungen (Blendenzahl, Bildwinkel und Bildauflösung), dass die Schärfentiefe umso geringer wird, je größer die Bilddiagonale ist.

Klusters Ansatz scheitert an der immer gleichen Bilddiagonale - er vergleicht letztlich nur 1 Zoll-Sensorgrößen.



Antwort von klusterdegenerierung:

iasi hat geschrieben:
Klusters Ansatz scheitert an der immer gleichen Bilddiagonale - er vergleicht letztlich nur 1 Zoll-Sensorgrößen.
Bei mir Scheitert garnix und ich vergleiche auch nicht nur 1 Zoll, vielmehr ist 1 Zoll nur der kleinste geminsame Nenner eines Bildauschnittes zu sehen, denn einen Ausschnitt wie bei 4x5 Inch bekommt man ja bei gleichem Standpunkt, Brennweite und Blende nicht mehr auf den 1 Zoll Sensor, müßte jedem einleuchten.

Um wirklich nochmal klar zu stellen und niemandem zu verärgen, haben ja alle irgendwie auch Recht mit ihren eigenen Aussagen, aber nur wenn man sie wirklich nur unter dem Aspekt sieht, das Sensorgröße nur eine Art Umschreibung ist, also ein Name für eine viel komplexere Sache.

Denn natürlich ändert sich sofort alles wenn man von APS-C zu FF wechselt, aber wirklich nur deswegen, weil jeder fasst alle Parameter auch gleichzeitig verändert oder beinflusst uns so nutzt natürlich niemand eine 50mm Optik auch bei APS-C, wenn er den gleichen Bildkreis bekommen möchte wie bei FF mit 50mm und wahrscheinlich ghet auch jeder noch ein paar Schritte vor oder zurück und Bums ist der FF DOF ein anderer, natürlich, weil es Physikalisch einfach nicht zu ändern ist.

Aber eben genauso physikalisch nicht zu ändern ist eben die Tatsache, wenn ich mit gleicher Brennweite, gleicher Blende, gleicher Objekt Entfernung und gleicher Hintergrundentferung nur die Sensofläche ändere, nichts am DOF Verhalten geändert wird.

Selbstverständlich gilt auch dies auch für eine Handylinse, auch dort darf dann keine Variable, sondern tatsächlich nur die gleiche Brennweite und Blende genutzt werden.
Ist dies der Fall, bleibt das DOF immer identisch und von diesem Standpunkt aus, ist die Aussage, das ein FF Sensor das DOF Verhalten ändert, nur bedingt richtigt.

Und so müßte es physikalisch korrekt heißen, FF Sensoren, bzw Sensoren ändern das DOF Verhalten, wenn ich nur eines der Rahmenparameter bzw Kameraeinstellunge oder Brennweiten ändere!
Man sagt ja auch nicht, das ein Auto bei wechsel der Reifen für das sich dadurch ändernde Bremsverhalten verantwortlich ist, sondern die anderen Reifen.
Klar hat auch das Auto damit zu tun, wie bei der Cam der Sensor, aber bremsen tut das Auto an der Stelle anders, weil man die Reifen gewechselt hat, nicht die Bremsen und nicht das Auto.



Antwort von cantsin:

Man kann's auch einfach so ausdrücken, was hoffentlich Missverständnisse vermeidet:

Je kleiner die Sensorgröße, desto kleiner die Brennweite eines Normalobjektivs - und je kleiner die Brennweite, desto mehr Schärfentiefe (bzw.: desto geringer die Freistellung).



Antwort von klusterdegenerierung:

Ja aber auch nur dann, wenn man diese Brennweiten bei sich ändernder Sensorgröße selber wechselt, denn von alleine passiert das natürlich nicht und von alleine bewegt sich weder die Cam von ihrem Standort, noch ändert sie selbständig die Blende, wenn wir mal von einer analogen nicht automatischen Cam/Brennweite ausgehen. ;-))



Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Ja aber auch nur dann, wenn man diese Brennweiten bei sich ändernder Sensorgröße selber wechselt, denn von alleine passiert das natürlich nicht und von alleine bewegt sich weder die Cam von ihrem Standort, noch ändert sie selbständig die Blende, wenn wir mal von einer analogen nicht automatischen Cam/Brennweite ausgehen. ;-))
Das meinte ich natürlich auch, dann vielleicht nochmal präziser formuliert:

Je kleiner die Sensorgröße, desto kleiner die Brennweite des jeweils zu ihr passenden Normalobjektivs - und je kleiner die Brennweite, desto mehr Schärfentiefe (bzw.: desto weniger Freistellung).








Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
Klusters Ansatz scheitert an der immer gleichen Bilddiagonale - er vergleicht letztlich nur 1 Zoll-Sensorgrößen.
Bei mir Scheitert garnix und ich vergleiche auch nicht nur 1 Zoll, vielmehr ist 1 Zoll nur der kleinste geminsame Nenner eines Bildauschnittes zu sehen, denn einen Ausschnitt wie bei 4x5 Inch bekommt man ja bei gleichem Standpunkt, Brennweite und Blende nicht mehr auf den 1 Zoll Sensor, müßte jedem einleuchten.

Wenn du bei einem KB-Sensor mit 25mm Brennweite einen MFT-Crop machst, dann hast du denselben Bildwinkel, dieselbe Diagonale wie bei einer MFT-Kamera mit 25mm Objektiv.

Du vergleichst dann MFT mit MFT.

Wenn du die Sensorgröße unberücksichtigt lässt, dann lässt du eben auch den Zerstreuungskreisdurchmesser unberücksichtigt.


zum Bild

https://www.filmundtvkamera.de/produkti ... rfentiefe/



Antwort von iasi:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Ja aber auch nur dann, wenn man diese Brennweiten bei sich ändernder Sensorgröße selber wechselt, denn von alleine passiert das natürlich nicht und von alleine bewegt sich weder die Cam von ihrem Standort, noch ändert sie selbständig die Blende, wenn wir mal von einer analogen nicht automatischen Cam/Brennweite ausgehen. ;-))
Das meinte ich natürlich auch, dann vielleicht nochmal präziser formuliert:

Je kleiner die Sensorgröße, desto kleiner die Brennweite des jeweils zu ihr passenden Normalobjektivs - und je kleiner die Brennweite, desto mehr Schärfentiefe (bzw.: desto weniger Freistellung).
eigentlich müsste es heißen:

1. je kleiner die Sensorgröße, desto kleiner der Zerstreuungskreisdurchmesser, desto größer die Schärfentiefe
2. je kleiner die Brennweite, desto größer die Schärfentiefe
3. je geringer der Objektabstand/Fokuspunkt, desto kleiner die Schärfentiefe
4. je kleiner die Blende, desto größer die Schärfentiefe

Ihr könnt nicht einfach den 1.Faktor unberücksichtigt lassen.
f²*g / (f² +- k*Z*(g-f))
f Brennweite
k Blende
g Objektabstand
Z Zerstreuungskreisdurchmesser

Und Z ergibt sich aus der Sensordiagonalen.

Wer also für KB und MFT mit demselben Z=0,03mm rechnen würde, der käme auf die falsche Schärfentiefe beim MFT-Sensor.



Antwort von klusterdegenerierung:

iasi hat geschrieben:
eigentlich müsste es heißen:
1. je kleiner die Sensorgröße, desto kleiner der Zerstreuungskreisdurchmesser, desto größer die Schärfentiefe
:-) haha Du bist echt lustig!
Geht ja direkt wieder los mit "je kleiner der Sensor" also wieder der Sensor!

Die Sensorgröße hat keinen Einfluss.



Antwort von Axel:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
eigentlich müsste es heißen:
1. je kleiner die Sensorgröße, desto kleiner der Zerstreuungskreisdurchmesser, desto größer die Schärfentiefe
:-) haha Du bist echt lustig!
Geht ja direkt wieder los mit "je kleiner der Sensor" also wieder der Sensor!

Die Sensorgröße hat keinen Einfluss.
In einem an den Haaren herbeigezogenen Beispiel hat laut Erik-Krause DoF-Rechner die A7Siii eine Schärfentiefe von 19 Metern, die A7iii nur von 6,80 Metern. Komplett unterschiedliche Pixelabstände. Die A6500 (APSC, aber deutlich kleineren Pixel-Pitch von 0,0389 mm) hat die *kleinste* Schärfentiefe beim selben Objektiv - 6,4 Meter, aber die *größte*, wenn man ein Objektiv mit demselben Blickwinkel, also weitwinkliger nimmt: 24 Meter!!!

Verblüffend finde ich, welchen Einfluss der CoC tatsächlich hat.

Bestätigt sehe ich mich darin, dass ein kleinerer Sensor auch mit deutlich kleinerem CoC weniger sDoF produziert, sobald man den gleichen Blickwinkel anstrebt. Als Daumenregel praxisrelevant.



Antwort von cantsin:

Axel hat geschrieben:
In einem an den Haaren herbeigezogenen Beispiel hat laut Erik-Krause DoF-Rechner die A7Siii eine Schärfentiefe von 19 Metern, die A7iii nur von 6,80 Metern. Komplett unterschiedliche Pixelabstände.
Vor allem hat die A7iii beinahe die doppelte Auflösung der A7s iii. Die ganzen Schärfentiefe-Berechnungen sind ja sowieso nur Heuristiken.

Wie hier im Forum schon öfters diskutiert, gibt es - im Gegensatz zu dem, was die meisten DoF-Tabellen suggerieren - keine absolute Schärfezone, sondern nur einen Schärfepunkt, plus kontinuierlichem Schärfeabfall davor und dahinter. Was dann noch "akzeptable" Schärfe ist, hängt deshalb von der Sensorauflösung bzw. dem Pixelpitch ab.

Weshalb man auch die DoF-Tabellen und -Objektivskalen, die noch aus Kleinbildzeiten für Filmfotografie berechnet wurden, an 40/50/60-Megapixel-Monster-Kameras ziemlich knicken kann.



Antwort von mash_gh4:

cantsin hat geschrieben:
Vor allem hat die A7iii beinahe die doppelte Auflösung der A7s iii. Die ganzen Schärfentiefe-Berechnungen sind ja sowieso nur Heuristiken.
ja -- weil z.b. die beugungsbedingten unschärfen dabei in der regel völlig ausgeklammert werden, die aber in der praxis eine große rolle spielen können...
cantsin hat geschrieben:
Wie hier im Forum schon öfters diskutiert, gibt es - im Gegensatz zu dem, was die meisten DoF-Tabellen suggerieren - keine absolute Schärfezone, sondern nur einen Schärfepunkt, plus kontinuierlichem Schärfeabfall davor und dahinter. Was dann noch "akzeptable" Schärfe ist, hängt deshalb von der Sensorauflösung bzw. dem Pixelpitch ab.

Weshalb man auch die DoF-Tabellen und -Objektivskalen, die noch aus Kleinbildzeiten für Filmfotografie berechnet wurden, an 40/50/60-Megapixel-Monster-Kameras ziemlich knicken kann.
danke! -- so ist es!

siehe auch:
viewtopic.php?f=35&t=149202&p=1093731#p1093731



Antwort von dienstag_01:

cantsin hat geschrieben:
Axel hat geschrieben:
In einem an den Haaren herbeigezogenen Beispiel hat laut Erik-Krause DoF-Rechner die A7Siii eine Schärfentiefe von 19 Metern, die A7iii nur von 6,80 Metern. Komplett unterschiedliche Pixelabstände.
Vor allem hat die A7iii beinahe die doppelte Auflösung der A7s iii. Die ganzen Schärfentiefe-Berechnungen sind ja sowieso nur Heuristiken.

Wie hier im Forum schon öfters diskutiert, gibt es - im Gegensatz zu dem, was die meisten DoF-Tabellen suggerieren - keine absolute Schärfezone, sondern nur einen Schärfepunkt, plus kontinuierlichem Schärfeabfall davor und dahinter. Was dann noch "akzeptable" Schärfe ist, hängt deshalb von der Sensorauflösung bzw. dem Pixelpitch ab.

Weshalb man auch die DoF-Tabellen und -Objektivskalen, die noch aus Kleinbildzeiten für Filmfotografie berechnet wurden, an 40/50/60-Megapixel-Monster-Kameras ziemlich knicken kann.
Ja, aber auch das Präsentationsmedium nicht vergessen.
Genau wie zu analogen Zeiten die Bildgröße und der Betrachtungsabstand eine Rolle gespielt haben (und für die Berechnung der Schärfentiefe festgelegt wurden), spielt heute die Monitorgröße und -auflösung sowie der Abstand eine Rolle.



Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
eigentlich müsste es heißen:
1. je kleiner die Sensorgröße, desto kleiner der Zerstreuungskreisdurchmesser, desto größer die Schärfentiefe
:-) haha Du bist echt lustig!
Geht ja direkt wieder los mit "je kleiner der Sensor" also wieder der Sensor!

Die Sensorgröße hat keinen Einfluss.
Aha - weil es unser kluster so will, gelten Gesetzmäßigkeiten nicht mehr.



Antwort von iasi:

cantsin hat geschrieben:
Axel hat geschrieben:
In einem an den Haaren herbeigezogenen Beispiel hat laut Erik-Krause DoF-Rechner die A7Siii eine Schärfentiefe von 19 Metern, die A7iii nur von 6,80 Metern. Komplett unterschiedliche Pixelabstände.
Vor allem hat die A7iii beinahe die doppelte Auflösung der A7s iii. Die ganzen Schärfentiefe-Berechnungen sind ja sowieso nur Heuristiken.

Wie hier im Forum schon öfters diskutiert, gibt es - im Gegensatz zu dem, was die meisten DoF-Tabellen suggerieren - keine absolute Schärfezone, sondern nur einen Schärfepunkt, plus kontinuierlichem Schärfeabfall davor und dahinter. Was dann noch "akzeptable" Schärfe ist, hängt deshalb von der Sensorauflösung bzw. dem Pixelpitch ab.

Weshalb man auch die DoF-Tabellen und -Objektivskalen, die noch aus Kleinbildzeiten für Filmfotografie berechnet wurden, an 40/50/60-Megapixel-Monster-Kameras ziemlich knicken kann.
Man spricht nicht umsonst von akzeptabler Unschärfe.
Aber die hat nichts mit der Sensorauflösung zu tun.
Es hat nichts mit dem Pixelpitch zu tun.

Eine Sony Alpha 7R IV hat einen Pixelpitch von 0,00376 mm. Bei der Schärfentiefenberechnung geht man bei dieser Sensorgröße von einem Zerstreuungskreisdurchmesser von 0,03mm aus.

Den zerstreuten Bildpunkt stellen also reichlich Pixel dar. Und dies ändert sich auch nicht bei einer 7SIII signifikant.








Antwort von Axel:

dienstag_01 hat geschrieben:
Ja, aber auch das Präsentationsmedium nicht vergessen.
Genau wie zu analogen Zeiten die Bildgröße und der Betrachtungsabstand eine Rolle gespielt haben (und für die Berechnung der Schärfentiefe festgelegt wurden), spielt heute die Monitorgröße und -auflösung sowie der Abstand eine Rolle.
Und ob der eine Rolle spielt!
Nämlich, wenn's nicht so richtig scharf ist.

Es gibt ja auch Smartphones mit 8k oder mehr, hab mich damit nicht so befasst. Wenn der Zerstreuungskreis wirklich die entscheidende Rolle spielte, dann müssten diese Kameras auch bei Mini-Sensoren (bzw. gerade dabei, da dann ja die Pixeldichte viel höher sein muss) die reinsten Bokehmonster sein.

Sie sind es bekanntlich nicht.

Wo liegt also der Denkfehler von uns allen?

Er liegt im Begriff Schärfentiefe. Die absolute Schärfe ist nur ein hypothetischer exakter Punkt. Die Schärfentiefe ist der Bereich akzeptabler Unschärfe, in deren vorderem Drittel in etwa der absolute Schärfepunkt angesiedelt ist. Alles innerhalb dieses Bereichs "ist" scharf. Das bedeutet aber nicht, dass alles außerhalb dieses Bereichs als starke Unschärfe empfunden werden muss. Wir haben doch jahrzehntelang die Hände gerungen, weil wir mit S-VHS und DV-Kameras fast absolute Schärfe hatten. Wir mussten bei Offenblende nah ran und einzoomen, damit überhaupt etwas ein bisschen unscharf wurde.

Was wir mit dem ästhetischen Mätzchen sDoF meinen ist nicht ein ärgerliches Knapp-vorbei-ist-auch-daneben, es ist eine Schärfe-Ebene, ein Layer, eingebettet in absichtsvoll wirkende Unschärfe, starke Schärfe mit einem steilen Abfall der Schärfe. Das erreichten wir vor 12 Jahren mit einer DoF-Maschine, die Vollformat, also einen großen Sensor, simulierte. Hören wir zum Thema Herrn Wonneproppen:


Zurück zu Bildgröße und Betrachtungsabstand. Linus von Linus Tech Tips hat letztes Jahr bewiesen, dass die Bildschirme zwar größer werden, dass aber der Betrachtungsabstand (den Leute, seine eigenen Mitarbeiter, Technologie-Freaks!, freiwillig einnehmen) ebenfalls größer geworden ist. Aber das nur nebenbei. Der Trend geht hin zu größeren und besser aufgelösten Bildern, und deswegen werden wir mit höheren Auflösungen, kleineren Pixeln und weniger menschlicher Toleranz für leichte Unschärfe zu tun kriegen, tendenziell.

Der Zerstreuungskreis kann als Faktor für einen sDoF-Stil, für absichtsvolle Freistellung, vernachlässigt werden.
iasi hat geschrieben:
Eine Sony Alpha 7R IV hat einen Pixelpitch von 0,00376 mm. Bei der Schärfentiefenberechnung geht man bei dieser Sensorgröße von einem Zerstreuungskreisdurchmesser von 0,03mm aus.

Den zerstreuten Bildpunkt stellen also reichlich Pixel dar. Und dies ändert sich auch nicht bei einer 7SIII signifikant.
In einem Foto schon. Bei entsprechender Vergrößerung würde das 7R-Detail unscharf und das 7S-Detail hinreichend scharf wirken. Kleinerer Pixelpitch braucht genaueren Fokus.



Antwort von iasi:

Axel hat geschrieben:
iasi hat geschrieben:
Eine Sony Alpha 7R IV hat einen Pixelpitch von 0,00376 mm. Bei der Schärfentiefenberechnung geht man bei dieser Sensorgröße von einem Zerstreuungskreisdurchmesser von 0,03mm aus.

Den zerstreuten Bildpunkt stellen also reichlich Pixel dar. Und dies ändert sich auch nicht bei einer 7SIII signifikant.
In einem Foto schon. Bei entsprechender Vergrößerung würde das 7R-Detail unscharf und das 7S-Detail hinreichend scharf wirken. Kleinerer Pixelpitch braucht genaueren Fokus.
Nein. Und selbst wenn man akzeptable Unschärfe bei 0,01mm ansetzen würde, wäre ein Unterschied zwischen 7R und 7S nicht zu erkennen.
Was bei solchen Vergrößerungen zuerst erkennbar würde, wäre die Pixelstruktur der 7S.



Antwort von Axel:

iasi hat geschrieben:
Axel hat geschrieben:



In einem Foto schon. Bei entsprechender Vergrößerung würde das 7R-Detail unscharf und das 7S-Detail hinreichend scharf wirken. Kleinerer Pixelpitch braucht genaueren Fokus.
Nein. Und selbst wenn man akzeptable Unschärfe bei 0,01mm ansetzen würde, wäre ein Unterschied zwischen 7R und 7S nicht zu erkennen.
Was bei solchen Vergrößerungen zuerst erkennbar würde, wäre die Pixelstruktur der 7S.
Wenn ich vergrößere verteile ich einen Pixel auf mehrere neue. Ich sehe auf dem Wiedergabemedium in der Regel keine individuellen Pixel mehr, das ist mehr als 20 Jahre her. Ein 320p-Video auf einem 4k-Monitor (siehe obigen Bloom-Clip) wird schlicht matschig ausssehen, und ein 72pi -Foto auf einem mittelgroßen 300dpi-Druck (hier spielt wieder die relative Größe mit rein) genauso. Es ist also die Frage, ab wann nach unten Details und Strukturen nicht mehr aufgelöst werden, unscharf werden, nicht, ab wann ich Pixel sehe. Das gibt es nicht mehr.



Antwort von iasi:

Axel hat geschrieben:
iasi hat geschrieben:


Nein. Und selbst wenn man akzeptable Unschärfe bei 0,01mm ansetzen würde, wäre ein Unterschied zwischen 7R und 7S nicht zu erkennen.
Was bei solchen Vergrößerungen zuerst erkennbar würde, wäre die Pixelstruktur der 7S.
Wenn ich vergrößere verteile ich einen Pixel auf mehrere neue. Ich sehe auf dem Wiedergabemedium in der Regel keine individuellen Pixel mehr, das ist mehr als 20 Jahre her. Ein 320p-Video auf einem 4k-Monitor (siehe obigen Bloom-Clip) wird schlicht matschig ausssehen, und ein 72pi -Foto auf einem mittelgroßen 300dpi-Druck (hier spielt wieder die relative Größe mit rein) genauso. Es ist also die Frage, ab wann nach unten Details und Strukturen nicht mehr aufgelöst werden, unscharf werden, nicht, ab wann ich Pixel sehe. Das gibt es nicht mehr.
Du widersprichst dir selbst. Einerseits willst du einen Schärfeunterschied zwischen 7R und 7S aufgrund der Pixelgröße erkennen, andererseits siehst du keine individuellen Pixel.



Antwort von Axel:

iasi hat geschrieben:
Du widersprichst dir selbst. Einerseits willst du einen Schärfeunterschied zwischen 7R und 7S aufgrund der Pixelgröße erkennen, andererseits siehst du keine individuellen Pixel.
Du brauchst keine individuellen Pixel zu sehen, um zu merken, dass Konturen oder Muster unscharf sind. Was meinst du, warum bei Objektivttests der Testchart, aufgenommen mit möglichst hoch auflösenden Kameras, vergrößert wird? Wenn man Pixel sehen würde, wären es die deines Anti-Retina-Computermonitors von 1990. In der Betonung auf Schärfe sieht man am besten den fundamentalen Unterschied zwischen Schärfe und Auflösung. Wenn man projizierte Bilder (Kino, Dunkelkammer) auf's Korn scharfstellen kann, sind sie nicht besonders hoch aufgelöst für die Betrachtungsgröße. Ob der Fotograf/Kameramann den Fokus bei der Aufnahme getroffen hat, ist davon völlig unabhängig. Schärfe erkennt man auch bei schlechter aufgelösten Bildern und kritische Unschärfe am besten bei höher aufgelösten. Weitere Zusammenhänge gibt es nicht.



Antwort von iasi:

Axel hat geschrieben:
iasi hat geschrieben:
Du widersprichst dir selbst. Einerseits willst du einen Schärfeunterschied zwischen 7R und 7S aufgrund der Pixelgröße erkennen, andererseits siehst du keine individuellen Pixel.
Du brauchst keine individuellen Pixel zu sehen, um zu merken, dass Konturen oder Muster unscharf sind. Was meinst du, warum bei Objektivttests der Testchart, aufgenommen mit möglichst hoch auflösenden Kameras, vergrößert wird? Wenn man Pixel sehen würde, wären es die deines Anti-Retina-Computermonitors von 1990. In der Betonung auf Schärfe sieht man am besten den fundamentalen Unterschied zwischen Schärfe und Auflösung. Wenn man projizierte Bilder (Kino, Dunkelkammer) auf's Korn scharfstellen kann, sind sie nicht besonders hoch aufgelöst für die Betrachtungsgröße. Ob der Fotograf/Kameramann den Fokus bei der Aufnahme getroffen hat, ist davon völlig unabhängig. Schärfe erkennt man auch bei schlechter aufgelösten Bildern und kritische Unschärfe am besten bei höher aufgelösten. Weitere Zusammenhänge gibt es nicht.
Wenn du einen Bildpunkt, der mit 0,03mm Unschärfekreis dargestellt ist, mit geringerer Pixelauflösung darstellst, wird er dadurch nicht schärfer als bei hoher Pixelauflösung.

Die scheinbare Schärfe bei niedriger Auflösung ist doch nur ein Mangel an Detaildarstellung. Wenn ein Bildpunkt eine geringe Zerstreuung aufweist, dann wird die Zerstreuung bei hoher Pixelauflösung auch reproduziert. Bei geringer Pixelauflösung gelingt dies irgendwann nicht mehr und du hast eine künstliche Schärfung.

Nebenbei: Filmkorn unterscheidet sich von Bild zu Bild, sodass die Kornstruktur "fließt", was eine Weichheit erzeugt.



Antwort von Axel:

iasi hat geschrieben:
Wenn du einen Bildpunkt, der mit 0,03mm Unschärfekreis dargestellt ist, ...
Das ist der Pixelabstand, ja? Das Raster. Es könnte grober sein, aber es ist 0,03mm. Okay
iasi hat geschrieben:
... mit geringerer Pixelauflösung darstellst, ...
Meinst du,
> derselbe Bildpunkt aus der Wirklichkeit, das Staubkorn oder der Fleck auf dem Staubkorn, aber nun auf einem Sensor mit größeren Pixeln, gröberem Raster?
Oder meinst du
> eine Darstellung in reduzierter Auflösung auf dem Wiedergabegerät/Papier?
iasi hat geschrieben:
... wird er dadurch nicht schärfer als bei hoher Pixelauflösung.
In beiden Fallen, geringerer Auflösung bei Aufnahme oder Wiedergabe, wird der Punkt u.U. gar nicht wiedergegeben, fällt durch's Raster, wie ein Mehlkorn durch ein Nudelsieb, wenn du dir das vorstellen kannst.

Weil das passieren kann und mit Details unterhalb der Auflösung millionenfach passiert, gehen also viele Details flöten. Es sind nicht unbedingt Details, die man vermisst, da man sie nur in Vergrößerung sehen kann. Wie in diesem Screenshot zum Schärfevergleich des neuen Sigma 35mm Art mit dem Sony GM von Gerald Undone:

zum Bild


Bei den Details, die das Objektiv auflöst (ist das eigentlich WoWus "Ortsfrequenz"?), handelt es sich um Metallic-Struktur auf einem stark gecroppten Ausschnitt. Wir diskutierten darüber, ob der Unterschied mit einer A7Siii auch zu sehen gewesen wäre. Vielleicht ja, vielleicht nein. Jedenfalls ist der Schärfeeindruck bei dem Objektiv besser, das schärfer ist. Ich habe behauptet - und stehe dazu -, dass Schärfe sich natürlich auch, aber nicht nur über die Feinheit der Details mitteilt und auch dann spürbar größer oder kleiner, besser oder schlechter ist, wenn sie mit geringerer Auflösung, als sie eigentlich liefern könnte, eingesetzt wird. Womit ich auch im Nebensatz erwähnt hätte, dass es ästhetisch erstrebenswert sein kann, Schärfe zu reduzieren.

Niemand weiß ohne direkten Vergleich, dass diese Strukturen überhaupt da sind, weil man sie in Normalgröße gar nicht sieht.
iasi hat geschrieben:
Die scheinbare Schärfe bei niedriger Auflösung ist doch nur ein Mangel an Detaildarstellung.
Von scheinbarer Schärfe rede ich gar nicht. Ich sagte, eine Unschärfe (Objektiv, wie im Beispiel in dem Undone-Video) wurde man evtl. bei einer A7R sehen, weil sie es auflösen kann, bei der A7S evtl. nicht, weil dieser Kokolores zu fein für's Pixelraster ist.
iasi hat geschrieben:
Wenn ein Bildpunkt eine geringe Zerstreuung aufweist, dann wird die Zerstreuung bei hoher Pixelauflösung auch reproduziert. Bei geringer Pixelauflösung gelingt dies irgendwann nicht mehr und du hast eine künstliche Schärfung.

zum Bild

iasi hat geschrieben:
Nebenbei: Filmkorn unterscheidet sich von Bild zu Bild, sodass die Kornstruktur "fließt", was eine Weichheit erzeugt.
Weichheit, na schön. Aber was heißt es, wenn ich die picture elements (auch in 24 B/s, mit Weichheit) sehen kann? Ich sehe die Auflösungsgrenzen. Mit bloßem Auge. Trotzdem kann ich in den Bildern, die diese Körnchen zeichnen, Schärfe und Unschärfe beurteilen. Darauf wollte ich hinaus.



Antwort von iasi:

Axel hat geschrieben:
iasi hat geschrieben:
Wenn du einen Bildpunkt, der mit 0,03mm Unschärfekreis dargestellt ist, ...
Das ist der Pixelabstand, ja? Das Raster. Es könnte grober sein, aber es ist 0,03mm. Okay
iasi hat geschrieben:
... mit geringerer Pixelauflösung darstellst, ...
Es ist der Zerstreuungskreisdurchmesser, den man üblicherweise für KB ansetzt.
D.h. ein Bildpunkt wird mit dieser Zertreuung noch als scharf wahrgenommen.

Der Pixelabstand ist geringer und liegt bei etwa 0,004mm
Axel hat geschrieben:

Meinst du,
> derselbe Bildpunkt aus der Wirklichkeit, das Staubkorn oder der Fleck auf dem Staubkorn, aber nun auf einem Sensor mit größeren Pixeln, gröberem Raster?
Oder meinst du
> eine Darstellung in reduzierter Auflösung auf dem Wiedergabegerät/Papier?
Du hast einen Bildpunkt, der mit dieser akzeptablen Unschärfe auf dem Sensor abgebildet wird. Dieser Kreis wird nun die Pixel belichten, die "unter" ihm liegen. Mehr Pixel bedeuten eine feinere Auflösung dieses zertreuten Bildpunktes - weniger Pixel eine gröbere. Aber das wird erst relevant, wenn die Sensorauflösung sehr niedrig ist.

Es geht dabei nicht um die Wiedergabe.
Die spielt eine Rolle, wenn man wirklich ins Extrem geht und eine 5m Monitorwand aus 1m Entfernung betrachten will, denn dann wären die 0,03mm Zertreuungskreisdurchmesser nicht mehr akzeptabel scharf.
Axel hat geschrieben:
iasi hat geschrieben:
... wird er dadurch nicht schärfer als bei hoher Pixelauflösung.
In beiden Fallen, geringerer Auflösung bei Aufnahme oder Wiedergabe, wird der Punkt u.U. gar nicht wiedergegeben, fällt durch's Raster, wie ein Mehlkorn durch ein Nudelsieb, wenn du dir das vorstellen kannst.

Weil das passieren kann und mit Details unterhalb der Auflösung millionenfach passiert, gehen also viele Details flöten. Es sind nicht unbedingt Details, die man vermisst, da man sie nur in Vergrößerung sehen kann. Wie in diesem Screenshot zum Schärfevergleich des neuen Sigma 35mm Art mit dem Sony GM von Gerald Undone:

zum Bild


Bei den Details, die das Objektiv auflöst (ist das eigentlich WoWus "Ortsfrequenz"?), handelt es sich um Metallic-Struktur auf einem stark gecroppten Ausschnitt. Wir diskutierten darüber, ob der Unterschied mit einer A7Siii auch zu sehen gewesen wäre. Vielleicht ja, vielleicht nein. Jedenfalls ist der Schärfeeindruck bei dem Objektiv besser, das schärfer ist. Ich habe behauptet - und stehe dazu -, dass Schärfe sich natürlich auch, aber nicht nur über die Feinheit der Details mitteilt und auch dann spürbar größer oder kleiner, besser oder schlechter ist, wenn sie mit geringerer Auflösung, als sie eigentlich liefern könnte, eingesetzt wird. Womit ich auch im Nebensatz erwähnt hätte, dass es ästhetisch erstrebenswert sein kann, Schärfe zu reduzieren.

Niemand weiß ohne direkten Vergleich, dass diese Strukturen überhaupt da sind, weil man sie in Normalgröße gar nicht sieht.
WoWu wollte ja auch nie von Schärfe reden, sondern von Detaildarstellung.
Ein Bildpunkt wird doch auch wirklich nur scharf abgebildet, wenn er auf der Fokusebene liegt. Davor und dahinter ist er dann eben nur "akzeptabel" unscharf und wird noch scharf wahrgenommen. Und wie stark diese Unschärfe also Zerstreuung sein darf, hängt von der Sensorgröße ab.
Ich finde auch, dass man Sensorauflösung nicht mit Schärfe verwechseln sollte. Mit mehr Pixeln kann ich eben die "Unschärfe" auch feiner auflösen und darstellen.
Auch halte ich es für besser, wenn die Sensorauflösung über dem liegt, was das Objektiv abbilden kann.
Axel hat geschrieben:
iasi hat geschrieben:
Die scheinbare Schärfe bei niedriger Auflösung ist doch nur ein Mangel an Detaildarstellung.
Von scheinbarer Schärfe rede ich gar nicht. Ich sagte, eine Unschärfe (Objektiv, wie im Beispiel in dem Undone-Video) wurde man evtl. bei einer A7R sehen, weil sie es auflösen kann, bei der A7S evtl. nicht, weil dieser Kokolores zu fein für's Pixelraster ist.
Wenn du dir die Vergleichsaufnahmen beim Slashcam-Vergleichstest ansiehst, dann stellst du fest, dass die R5 noch Details beim Auge zeigt, die man bei der A7SIII nicht mehr erkennen kann. Das hat doch nichts mit Schärfe zu tun. Und dies geht dann eben auch bis in die unscharfen Bereiche, wo die R5 noch einen zarten Verlauf zeigt, wo die A7SIII nur noch eine Fläche zeigt. Und dies wirkt dann eben vielleicht sogar schärfer.
Axel hat geschrieben:
iasi hat geschrieben:
Wenn ein Bildpunkt eine geringe Zerstreuung aufweist, dann wird die Zerstreuung bei hoher Pixelauflösung auch reproduziert. Bei geringer Pixelauflösung gelingt dies irgendwann nicht mehr und du hast eine künstliche Schärfung.

zum Bild

iasi hat geschrieben:
Nebenbei: Filmkorn unterscheidet sich von Bild zu Bild, sodass die Kornstruktur "fließt", was eine Weichheit erzeugt.
Weichheit, na schön. Aber was heißt es, wenn ich die picture elements (auch in 24 B/s, mit Weichheit) sehen kann? Ich sehe die Auflösungsgrenzen. Mit bloßem Auge. Trotzdem kann ich in den Bildern, die diese Körnchen zeichnen, Schärfe und Unschärfe beurteilen. Darauf wollte ich hinaus.
Darin liegt aber eben der große Unterschied zwischen Negativ und Sensor. Hier kommt doch dieser Eindruck des "Digitalen" her - eben des Scharfen.
Du hast die immer fixe Pixelstruktur und du hast die "fließende" Kornstruktur.
Niedrigere Sensorauflösung wirkt dabei sogar noch negativer als hohe, denn gerade Unschärfe wird mit hoher Auflösung eben feiner abgestuft und dargestellt.



Antwort von Axel:

iasi hat geschrieben:
Axel hat geschrieben:

Das ist der Pixelabstand, ja? Das Raster. Es könnte grober sein, aber es ist 0,03mm. Okay
Es ist der Zerstreuungskreisdurchmesser, den man üblicherweise für KB ansetzt.
D.h. ein Bildpunkt wird mit dieser Zertreuung noch als scharf wahrgenommen.

Der Pixelabstand ist geringer und liegt bei etwa 0,004mm
Hm, ich gebe zu, etwas verwirrt zu sein. Du auch? Bitte korrigieren:
> Der Pixelabstand (pitch) wird gemessen von der Mitte des Pixels zur Mitte des nächsten Pixels und besagt zunächst nichts über die Pixelgröße.
> Er muss zwangsläufig größer sein als die Pixelgröße.
> Der Zerstreuungskreis wird durch die Einstellungen und Eigenschaften des Objektivs bestimmt.
> Der Bildpunkt entsteht durch Belichtung eines Pixels und ist zuvor nur ein theoretischer Wert.
> Der Zerstreuungskreis darf größer sein als das Pixel, solange er nicht auf's nächste Pixel rüberstrahlt.
> Liegt der Zerstreuungskreis innerhalb der Ausdehnunggrenzen (Pitch, nicht Durchmesser/Größe/Fläche des Pixels), wird er scharf dargestellt.
> Überschreitet er die Grenze, wird er unscharf dargestellt.
iasi hat geschrieben:
Du hast einen Bildpunkt, der mit dieser akzeptablen Unschärfe auf dem Sensor abgebildet wird. Dieser Kreis wird nun die Pixel belichten, die "unter" ihm liegen. Mehr Pixel bedeuten eine feinere Auflösung dieses zertreuten Bildpunktes - weniger Pixel eine gröbere. Aber das wird erst relevant, wenn die Sensorauflösung sehr niedrig ist.
Der Bildpunkt ist das hypothetische Gegenstück zum Pixel. Es ist für visuelle Menschen wie mich einfacher, ihn mir als einen motivlichen Gegenstand aus der realen Welt vorzustellen, in Wirklichkeit ist es ein RGB-Wert. Per definitionem (Punkt, nicht Fläche) soll er vom kleinsten Bildelement des Sensors (=Pixel) dargestellt werden. Ist der durch die Sammellinse projizierte Strahl unangemessen breit, streut er auf mehrere Pixel, und das Bild ist unscharf.
iasi hat geschrieben:
Ich finde auch, dass man Sensorauflösung nicht mit Schärfe verwechseln sollte. Mit mehr Pixeln kann ich eben die "Unschärfe" auch feiner auflösen und darstellen.
Auch halte ich es für besser, wenn die Sensorauflösung über dem liegt, was das Objektiv abbilden kann.
Niemals ein scharfes Bild zu haben? Was ist mit Einzoomen in diese Megapixel-Matsche?
iasi hat geschrieben:
Wenn du dir die Vergleichsaufnahmen beim Slashcam-Vergleichstest ansiehst, dann stellst du fest, dass die R5 noch Details beim Auge zeigt, die man bei der A7SIII nicht mehr erkennen kann. Das hat doch nichts mit Schärfe zu tun. Und dies geht dann eben auch bis in die unscharfen Bereiche, wo die R5 noch einen zarten Verlauf zeigt, wo die A7SIII nur noch eine Fläche zeigt. Und dies wirkt dann eben vielleicht sogar schärfer.
Ich habe mich redlich bemüht, wirklich, die Unterschiede zwischen Schärfe und Auflösung herauszuarbeiten. Jetzt soll mal jemand anders.








Antwort von Jott:

Um eure Gehirnschraube noch mehr zu verwirren: über jedem Pixel/Sensel sitzt eine Mikrolinse, ein Brennglas. Der „Bildpunkt“ wird gebündelt und trifft kleiner und heller auf das Pixel.

Welche Auswirkung hat das für eure Überlegungen?



Antwort von Axel:

Jott hat geschrieben:
Um eure Gehirnschraube noch mehr zu verwirren: über jedem Pixel/Sensel sitzt eine Mikrolinse, ein Brennglas. Der „Bildpunkt“ wird gebündelt und trifft kleiner und heller auf das Pixel.

Welche Auswirkung hat das für eure Überlegungen?
Ich gebe auf.



Antwort von dosaris:

Jott hat geschrieben:
Um eure Gehirnschraube noch mehr zu verwirren: über jedem Pixel/Sensel sitzt eine Mikrolinse, ein Brennglas. Der „Bildpunkt“ wird gebündelt und trifft kleiner und heller auf das Pixel.

Welche Auswirkung hat das für eure Überlegungen?
keine klare Antwort möglich:

das hängt von der Art des debayerings ab.
Im einfachsten Fall eine "Milchglasscheibe",
aufwändigere Chips nutzen eine Rechenmethode dazu
(Ist bei meiner Pana-M43-Cam so beschrieben)



Antwort von Axel:

Bei dem Versuch, mir das bildlich vorzustellen, ändert sich eigentlich gar nichts an der Prämisse, dass ein Bildpunkt nur von einem Pixel erfasst werden darf. Wird er darüber hinaus zerstreut - und meinetwegen von mehreren Brenngläsern zugleich erfasst -, dann kann er nicht gut definiert dargestellt werden.

Mit zusammengekniffenen Augen, also etwas pauschalisiert, kann man sagen, dass höhere Auflösung in kleineren Pixeln bzw. kleinerem Pixelpitch, resultiert und dass einerseits schärfere Objektive nötig sind bzw. andererseits die Schärfentiefe abnimmt.

Das Beispiel mit dem durch Sandpapier gefrosteten CD-Dummy (DIY-DoF-Machine) zeigt aber, dass die unzureichende Schärfe durch zu großen Zerstreuungskreis nichts, absolut gar nichts mit shallow DoF zu tun hat. Sondern das hat am meisten mit Sensorfläche zu tun, den Threadtitel widerlegend.



Antwort von dosaris:

Axel hat geschrieben:
.., ändert sich eigentlich gar nichts an der Prämisse, dass ein Bildpunkt nur von einem Pixel erfasst werden darf. Wird er darüber hinaus zerstreut - und meinetwegen von mehreren Brenngläsern zugleich erfasst -, dann kann er nicht gut definiert dargestellt werden.
das Problem ist analog zur Übertragungsgeschwindigkeit auf einer Leitung zu sehen:

die Angabe 100 Mbps (analog zum Senselpitch) bedeutet nur, dass dies die max (nominale) Übertragungsrate ist,
die man in der Realität gerade nie erreichen wird.
Effektiv ist (Schärfe/Durchsatz) immer nur weniger nutzbar.



Antwort von iasi:

Axel hat geschrieben:
iasi hat geschrieben:

Es ist der Zerstreuungskreisdurchmesser, den man üblicherweise für KB ansetzt.
D.h. ein Bildpunkt wird mit dieser Zertreuung noch als scharf wahrgenommen.

Der Pixelabstand ist geringer und liegt bei etwa 0,004mm
Hm, ich gebe zu, etwas verwirrt zu sein. Du auch? Bitte korrigieren:
> Der Pixelabstand (pitch) wird gemessen von der Mitte des Pixels zur Mitte des nächsten Pixels und besagt zunächst nichts über die Pixelgröße.
> Er muss zwangsläufig größer sein als die Pixelgröße.
> Der Zerstreuungskreis wird durch die Einstellungen und Eigenschaften des Objektivs bestimmt.
> Der Bildpunkt entsteht durch Belichtung eines Pixels und ist zuvor nur ein theoretischer Wert.
> Der Zerstreuungskreis darf größer sein als das Pixel, solange er nicht auf's nächste Pixel rüberstrahlt.
> Liegt der Zerstreuungskreis innerhalb der Ausdehnunggrenzen (Pitch, nicht Durchmesser/Größe/Fläche des Pixels), wird er scharf dargestellt.
> Überschreitet er die Grenze, wird er unscharf dargestellt.
Hier liegt dein Denkfehler. Der Zerstreuungskreis ist (bei aktuellen Kameras) größer als ein Pixel und deckt mehrere Pixel ab.
Schärfentiefe ist nicht der Bereich, bei dem ein Bildpunkt gerade noch ein Pixel abdeckt, sondern bezieht sich auch die wahrnehmbare Unschärfe.

Beispiel:

Pixel Pitch:
Sony Alpha 7S III Body 35.6 x 23.8 mm 12.1 MP 8.4 µm 2020
Sony Alpha 7R IV Body 35.7 x 23.8 mm 61.0 MP 3.7 µm 2019

Zertreuungskreisdurchmesser (etwa Durchmesser d/1500):
Vollformat 0,03mm

Ein Bildpunkt wird also noch akzeptabel unscharf abgebildet, wenn er z.B. 50 Pixel belichtet.
Axel hat geschrieben:
iasi hat geschrieben:
Du hast einen Bildpunkt, der mit dieser akzeptablen Unschärfe auf dem Sensor abgebildet wird. Dieser Kreis wird nun die Pixel belichten, die "unter" ihm liegen. Mehr Pixel bedeuten eine feinere Auflösung dieses zertreuten Bildpunktes - weniger Pixel eine gröbere. Aber das wird erst relevant, wenn die Sensorauflösung sehr niedrig ist.
Der Bildpunkt ist das hypothetische Gegenstück zum Pixel. Es ist für visuelle Menschen wie mich einfacher, ihn mir als einen motivlichen Gegenstand aus der realen Welt vorzustellen, in Wirklichkeit ist es ein RGB-Wert. Per definitionem (Punkt, nicht Fläche) soll er vom kleinsten Bildelement des Sensors (=Pixel) dargestellt werden. Ist der durch die Sammellinse projizierte Strahl unangemessen breit, streut er auf mehrere Pixel, und das Bild ist unscharf.
Ja - der Brennpunkt liegt nicht direkt auf dem Sensor und der Bildpunkt wird dadurch zerstreut und unscharf. Aber bis zu einer (von der Sensorgröße abhängigen) gewissen Unschärfe wird er noch als scharf wahrgenommen.

zum Bild

Axel hat geschrieben:
iasi hat geschrieben:
Ich finde auch, dass man Sensorauflösung nicht mit Schärfe verwechseln sollte. Mit mehr Pixeln kann ich eben die "Unschärfe" auch feiner auflösen und darstellen.
Auch halte ich es für besser, wenn die Sensorauflösung über dem liegt, was das Objektiv abbilden kann.
Niemals ein scharfes Bild zu haben? Was ist mit Einzoomen in diese Megapixel-Matsche?
iasi hat geschrieben:
Wenn du dir die Vergleichsaufnahmen beim Slashcam-Vergleichstest ansiehst, dann stellst du fest, dass die R5 noch Details beim Auge zeigt, die man bei der A7SIII nicht mehr erkennen kann. Das hat doch nichts mit Schärfe zu tun. Und dies geht dann eben auch bis in die unscharfen Bereiche, wo die R5 noch einen zarten Verlauf zeigt, wo die A7SIII nur noch eine Fläche zeigt. Und dies wirkt dann eben vielleicht sogar schärfer.
Ich habe mich redlich bemüht, wirklich, die Unterschiede zwischen Schärfe und Auflösung herauszuarbeiten. Jetzt soll mal jemand anders.
Du solltest bei deinem Herausarbeiten dann aber eben nicht den Fehler begehen, Schärfe als die Übereinstimmung von Pixel und Bildpunkt mißzuverstehen.

Und für die, die denken, die Schärfentiefe sei nicht von der Sensorgröße abhängig:
Es geht einfach gesagt immer auch um den Vergrößerungsfaktor:
Denn der "noch scharfe" Zerstreuungskreis von 0,03mm Durchmesser beim Vollformat ist im Verhältnis zur Sensorgröße eben bei einem 1 Zoll-Sensor sehr viel größer.
Bei gleichem Bildausschnitt und "Normalbrennweiten" wird der 0,03mm-Kreis nun einmal unterschiedlich große Bereiche auf den Sensor abdecken.



Antwort von dosaris:

von der Anschauung ist es vielleicht sogar recht einfach darzustellen:

Zertreuungskreisdurchmesser ergibt sich aus der Objektiv-Konstruktion (+ Blende etc)
Sensel-/Pixel-Auflösung ist von der SensorChip-Konstruktion abhängig.

Beides ist völlig unabhängig voneinander



Antwort von Axel:

iasi hat geschrieben:
Du solltest bei deinem Herausarbeiten dann aber eben nicht den Fehler begehen, Schärfe als die Übereinstimmung von Pixel und Bildpunkt mißzuverstehen.
Ich habe deswegen eben verschiedene Definitionen noch einmal gegoogelt. Der Bildpunkt ist der Farbwert einer Rasterzelle, a.k.a. Pixel. Ein Pixel hat deshalb in Wirklichkeit keine Ausdehnung, weil es nur einen Punkt beschreibt (Punkt/Bildpunkt = ohne Ausdehnung).
Die Punktdichte, die Verteilung von Pixeln auf einer Fläche, ist effektiv die Auflösung.

Mit anderen Worten: da Bildpunkt und Pixel Synonyme sind, defnieren sie weder Schärfe noch Auflösung.

Schärfe ist streng definiert durch die Anzahl der Linien auf einem Testchart, die unterscheidbar sind. Die Auflösung ist dabei ein in der Praxis wichtiger Faktor, siehe Objektiv-Test. Beachte auch, dass ein Betrachter die Linien unterscheidet, dass er also selbst mehr oder weniger tolerant gegenüber Unschärfe ist. Das ist notwendig, weil es, wie hier sehr oft erwähnt, in der Praxis eigentlich nur relative Unschärfe gibt und selbst eine auf Nanometer genau eingestellte Entfernung viele Toleranzen (z.B. Fertigungstoleranzen des Objektivs) schon hinter sich hat.

Auflösung selbst ist durch die Anzahl der Pixel im Raster definiert. Es gibt keine Zuordnung zu einer festen Größe, diese geschieht erst durch die Interpretation / Ausgabe / Darstellung. Je größer das interpretierte Bild, umso mehr Abtastlücken, die nur durch mehr Pixel gefüllt werden könnten, also eine höhere Auflösung. Das Medium, das die Kamera-Pixel darstellt, besitzt eine eigene Pixeldichte, und die ursprünglich abgetasteten Werte werden immer neu verteilt und skaliert (siehe Yedlin).



Antwort von iasi:

Axel hat geschrieben:
iasi hat geschrieben:
Du solltest bei deinem Herausarbeiten dann aber eben nicht den Fehler begehen, Schärfe als die Übereinstimmung von Pixel und Bildpunkt mißzuverstehen.
Ich habe deswegen eben verschiedene Definitionen noch einmal gegoogelt. Der Bildpunkt ist der Farbwert einer Rasterzelle, a.k.a. Pixel. Ein Pixel hat deshalb in Wirklichkeit keine Ausdehnung, weil es nur einen Punkt beschreibt (Punkt/Bildpunkt = ohne Ausdehnung).
Die Punktdichte, die Verteilung von Pixeln auf einer Fläche, ist effektiv die Auflösung.

Mit anderen Worten: da Bildpunkt und Pixel Synonyme sind, defnieren sie weder Schärfe noch Auflösung.

Schärfe ist streng definiert durch die Anzahl der Linien auf einem Testchart, die unterscheidbar sind. Die Auflösung ist dabei ein in der Praxis wichtiger Faktor, siehe Objektiv-Test. Beachte auch, dass ein Betrachter die Linien unterscheidet, dass er also selbst mehr oder weniger tolerant gegenüber Unschärfe ist. Das ist notwendig, weil es, wie hier sehr oft erwähnt, in der Praxis eigentlich nur relative Unschärfe gibt und selbst eine auf Nanometer genau eingestellte Entfernung viele Toleranzen (z.B. Fertigungstoleranzen des Objektivs) schon hinter sich hat.

Auflösung selbst ist durch die Anzahl der Pixel im Raster definiert. Es gibt keine Zuordnung zu einer festen Größe, diese geschieht erst durch die Interpretation / Ausgabe / Darstellung. Je größer das interpretierte Bild, umso mehr Abtastlücken, die nur durch mehr Pixel gefüllt werden könnten, also eine höhere Auflösung. Das Medium, das die Kamera-Pixel darstellt, besitzt eine eigene Pixeldichte, und die ursprünglich abgetasteten Werte werden immer neu verteilt und skaliert (siehe Yedlin).
Bildpunkt und Pixel sind keine Synonyme.
Der scharfe Bildpunkt wird erzeugt, wenn der Brennpunkt exakt auf dem Sensor liegt.

Und selbst wenn du unter Bildpunkt ein Pixel verstehen willst, so ist dies bei einem Bayer-Sensor auch schon nicht mehr richtig.

Bei der Schärfentiefe spielt die Anzahl der Pixel keine Rolle.

Und auch Klusters Test liegt falsch, denn er vergleicht letztlich nur immer dieselbe Sensorfläche von 1 Zoll bei gleichem Bildwinkel.
Denn wenn man einen 1 Zoll Crop bei gleicher Blende, Brennweite und Abstand betrachtet, dann ist es eben immer eine 1 Zoll Sensorfläche - und dann ist natürlich klar, dass sich nichts unterscheidet, denn es gibt beim ganzen Versuchsaufbau keine Unterschiede.

Um es mal plastisch darzustellen, ein Bild.
Der gelbe Punkt soll ein Zerstreuungskreis sein.
Er deckt beim großen Sensor nun einmal einen kleineren Bereich ab, als beim kleinen. Wenn er beim großen Sensor noch akzeptabel scharf wahrgenommen würde, wäre er bei gleichem Durchmesser beim kleinen Sensor eben immer noch unscharf.
Um auch beim kleinen Sensor noch scharf wahrgenommen zu werden, müsste der Zerstreuungskreisdurchmesser kleiner sein.
Mit Pixeln hat das nichts zu tun. Unbenannt 1.jpg








Antwort von Axel:

iasi hat geschrieben:
Um es mal plastisch darzustellen, ein Bild.
Der gelbe Punkt soll ein Zerstreuungskreis sein.
Er deckt beim großen Sensor nun einmal einen kleineren Bereich ab, als beim kleinen. Wenn er beim großen Sensor noch akzeptabel scharf wahrgenommen würde, wäre er bei gleichem Durchmesser beim kleinen Sensor eben immer noch unscharf.
Um auch beim kleinen Sensor noch scharf wahrgenommen zu werden, müsste der Zerstreuungskreisdurchmesser kleiner sein.
Mit Pixeln hat das nichts zu tun.
Unbenannt 1.jpg
Das berücksichtigt nicht, dass der kleinere Sensor eine größere Pixeldichte haben kann als der größere. So ist es in dem Beispiel A6500-A7S nämlich. Heißt, dass die APSC-Kamera einen präziseren Fokus benötigt. Heißt wie gesagt nicht, dass sie ein höheres oder auch nur gleiches Freistellungspotenzial hat. Das scheint der einzige Punkt zu sein, auf den wir beiden uns einigen können.



Antwort von iasi:

Axel hat geschrieben:
iasi hat geschrieben:
Um es mal plastisch darzustellen, ein Bild.
Der gelbe Punkt soll ein Zerstreuungskreis sein.
Er deckt beim großen Sensor nun einmal einen kleineren Bereich ab, als beim kleinen. Wenn er beim großen Sensor noch akzeptabel scharf wahrgenommen würde, wäre er bei gleichem Durchmesser beim kleinen Sensor eben immer noch unscharf.
Um auch beim kleinen Sensor noch scharf wahrgenommen zu werden, müsste der Zerstreuungskreisdurchmesser kleiner sein.
Mit Pixeln hat das nichts zu tun.
Unbenannt 1.jpg
Das berücksichtigt nicht, dass der kleinere Sensor eine größere Pixeldichte haben kann als der größere. So ist es in dem Beispiel A6500-A7S nämlich. Heißt, dass die APSC-Kamera einen präziseren Fokus benötigt. Heißt wie gesagt nicht, dass sie ein höheres oder auch nur gleiches Freistellungspotenzial hat. Das scheint der einzige Punkt zu sein, auf den wir beiden uns einigen können.
Nochmal: Bei Zerstreuungskreisdurchmesser von 0,03 oder 0,019mm spielen Pixelabständen zwischen 0,002 oder 0,008 keine Rolle.
Die größere Pixeldichte erzeugt nur eine feinere Auflösung der optischen Unschärfe, ändert aber nichts an der Unschärfe. Man müsste schon Kleinbildsensoren mit PAL-Auflösung nehmen, um den Anschein von Schärfe zu erzeugen, indem der zertreute Punkt gerade mal ein Pixel abdeckt und zu einem Bildpunkt gerechnet wird. Das wäre dann ein Aufrastern.

Nochmal ein Beispiel:

Focal length (mm) 50
Selected f-stop 2.8
Subject distance 10m


circle of confusion 0,001mm -->
Depth of field
Near limit 9.89 m
Far limit 10.1 m
Total 0.23 m

circle of confusion 0,010mm -->
Depth of field
Near limit 8.99 m
Far limit 11.3 m
Total 2.28 m

circle of confusion 0,020mm -->
Depth of field
Near limit 8.16 m
Far limit 12.9 m
Total 4.74 m

circle of confusion 0,030mm -->
Depth of field
Near limit 7.48 m
Far limit 15.1 m
Total 7.62 m

Und nochmal: circle of confusion = Sensordiagonale /1500


Wir können auch noch etwas vergleichen:

Vollformat
also circle of confusion 0,030mm
Focal length 50mm also Normalbrennweite
Selected f-stop 2.8
Subject distance 10m

Depth of field
Near limit 7.48 m
Far limit 15.1 m
Total 7.62 m


MFT
also circle of confusion 0,015mm
Focal length 25mm also Normalbrennweite
Selected f-stop 2.8
Subject distance 10m

Depth of field
Near limit 5.96 m
Far limit 31 m
Total 25 m



Antwort von Jott:

https://www.youtube.com/watch?v=1jUvhJ_Tgzw



Antwort von iasi:

Ja - schau nur, wie scharf das alles Dank der 480p-Auflösung wirkt.
Es scheint wirklich als sei alles gleich scharf. :)



Antwort von Axel:

iasi hat geschrieben:
Nochmal: Bei Zerstreuungskreisdurchmesser von 0,03 oder 0,019mm spielen Pixelabständen zwischen 0,002 oder 0,008 keine Rolle.
Die größere Pixeldichte erzeugt nur eine feinere Auflösung der optischen Unschärfe, ändert aber nichts an der Unschärfe. Man müsste schon Kleinbildsensoren mit PAL-Auflösung nehmen, um den Anschein von Schärfe zu erzeugen, indem der zertreute Punkt gerade mal ein Pixel abdeckt und zu einem Bildpunkt gerechnet wird. Das wäre dann ein Aufrastern.
Ich habe mich für den Beitrag bedankt, weil ich gerade eine Tatsache begriffen habe, die mich die ganze Zeit genervt hat: der Zerstreuungskreis hat mit der Auflösung nichts zu tun!

Es ist aber wohl schon noch so, dass ein Zerstreuungskreisdurchmesser von 0,03 mm lediglich die Grenze anzeigt, wann etwas als scharf empfunden wird. Es gibt also bei KB Zerstreuungskreise, die um das Hundertfache kleiner sind? 0,03 ist das Maximum des noch zu Duldenden, aber nicht das Optimum? Das worst case scenario?

Denn wenn es nicht so wäre, dann könnten höhere Auflösungen auch nie mehr Detail auflösen. Sie würden lediglich mikroskopischen Matsch dithern.



Antwort von dienstag_01:

Die Faustformel, die Iasi verwendet, kommt aus der analogen Fotografie und passt nach wie vor für viele (ausgedruckte) Fotos.
Nur hat sich eben die Art der Betrachtung in den letzten Jahren fundamental geändert. Heutzutage überprüfen wir die Schärfe am Monitor in einer 1 zu 1 Pixelansicht.
Und da kommt man eben mit dieser Formel nicht mehr weit. Diesem Umstand haben Tiefeschärfenrechner wie DOF Simulator schon vor Jahren Rechnung getragen.



Antwort von Abercrombie:

Axel hat geschrieben:
Es ist aber wohl schon noch so, dass ein Zerstreuungskreisdurchmesser von 0,03 mm lediglich die Grenze anzeigt, wann etwas als scharf empfunden wird. Es gibt also bei KB Zerstreuungskreise, die um das Hundertfache kleiner sind? 0,03 ist das Maximum des noch zu Duldenden, aber nicht das Optimum? Das worst case scenario?
Aus dem Objektraum kann nur eine einzelne Ebene perfekt auf die Bildebene abgebildet werden. Alles was davor und dahinter ist, wird nicht mehr perfekt abgebildet. Allerdings gibt es einen fließenden Übergang von "noch scharf" zu "schon unscharf". Um diesen Wert mathematisch greifbar zu machen, brauchte man eine Bedingung und da kamen die 2 Winkelminuten und der Betrachtungsabstand von 50cm ins Spiel. Und in der analogen Fotografie reichte es das auf die d/1500 zu verkürzen, da es noch keine Möglichkeit zum Pixelpeepen gab. Konkret hat ein Agfa APX 25 aber auch eine andere Grenze als ein Ilford HP5, trotz gleicher KB-Dimension.
Bei Sensoren und sind die d/1500 obsolet.



Antwort von Axel:

Hier ein Vergleich 12 MB > 50 MP > 61 MP bei gleicher Sensorgröße, gleichem Objektiv und gleicher Blende (f1.4, geringe Schärfentiefe).
https://youtu.be/XNOlhZaowic?t=444
Hätte der Zerstreuungskreis einen auch nur erwähnenswerten, fußnotenwürdigen Einfluss auf die Schärfentiefe, hätte es einfach sein müssen, zumindest die 12 MP-Kamera sofort auszusondern. Aber es ist die Sensorgröße.



Antwort von iasi:

Axel hat geschrieben:
Hier ein Vergleich 12 MB > 50 MP > 61 MP bei gleicher Sensorgröße, gleichem Objektiv und gleicher Blende (f1.4, geringe Schärfentiefe).
https://youtu.be/XNOlhZaowic?t=444
Hätte der Zerstreuungskreis einen auch nur erwähnenswerten, fußnotenwürdigen Einfluss auf die Schärfentiefe, hätte es einfach sein müssen, zumindest die 12 MP-Kamera sofort auszusondern. Aber es ist die Sensorgröße.
Der Zerstreuungskreisdurchmesser hat NICHTS mit der Sensorauflösung zu tun.

Nochmal:
Zerstreuugskreisdurchmesser = Sensordiagonale / 1500

Die Sensorauflösung hat NICHTS mit der Schärfentiefe zu tun.

Höhere Auflösung liefert nur mehr Details und "zeichnet" auch die Unschärfe feiner.








Antwort von WoWu:

Es ist ja schon überraschend, dass das Thema Tiefenschärfe selbst nach Jahrzehnten von einigen noch immer nicht erfasst ist und die unterschiedlichsten Einflüsse mit Tiefenschärfe vermischt werden.
Bei der Berechnung der Tiefenschärfe handelt es sich um eine empirische Berechnung darauf basierend, dass ein Punkt dear Objektebenen in der Bildebene scharf dargestellt wird.
Dem überlagert sind diverse andere, schärfelimitierende Faktoren, die mit Tiefenschärfe absolut nichts zu tun haben.
Ein Faktor ist z,B. die MTF, die Bildanteile niedriger Ortsfrequenzen noch scharf darstellt, mit zunehmender Auflösung aber bis in den weit unscharfen Bereich abfällt.
In dessen Abhängigkeit werden die Bildanteile, die in der Tiefenschärfe bereits noch als „scharf“ angesehen würden, bereits unscharf.
Hier überlagern sich also bereits zwei Prozesse, die ursprünglich nichts miteinander zu tun hatten.
Und dass „Unschärfe“ höher aufgelöst wird, ist ziemlicher Quatsch und hat mit Tiefenschärfe schon gar nichts zu tun.
Warum ist es eigentlich so schwer, die unterschiedlichen Verfahren der Bildaufbereitung sauber zu trennen und nicht alles in den „Topf eines Begriffes“ zu werfen ?



Antwort von WoWu:

WoWu hat geschrieben:
Es ist ja schon überraschend, dass das Thema Tiefenschärfe selbst nach Jahrzehnten von einigen noch immer nicht erfasst ist und die unterschiedlichsten Einflüsse mit Tiefenschärfe vermischt werden.
Bei der Berechnung der Tiefenschärfe handelt es sich um eine empirische Berechnung darauf basierend, dass ein Punkt dear Objektebenen in der Bildebene scharf dargestellt wird.
Dem überlagert sind diverse andere, schärfelimitierende Faktoren, die mit Tiefenschärfe absolut nichts zu tun haben.
Ein Faktor ist z,B. die MTF, die Bildanteile niedriger Ortsfrequenzen noch scharf darstellt, mit zunehmender Auflösung aber bis in den weit unscharfen Bereich abfällt.
In dessen Abhängigkeit werden die Bildanteile, die in der Tiefenschärfe bereits noch als „scharf“ angesehen würden, bereits unscharf.
Hier werden also bereits zwei Prozesse überlagert, die ursprünglich wenig zusammenhängen.
Und dass „Unschärfe“ höher aufgelöst wird, ist ziemlicher Quatsch und hat mit Tiefenschärfe schon gar nichts zu tun.
Warum ist es eigentlich so schwer, die unterschiedlichen Verfahren der Bildaufbereitung sauber zu trennen und nicht alles in den „Topf eines Begriffes“ zu werfen ?




Antwort von Frank Glencairn:

Der Wolfgang hat gesprochen - Danke.
Jetzt können wir den Thread zu machen - Thema durch :D



Antwort von WoWu:

"Frank Glencairn" hat geschrieben:
Der Wolfgang hat gesprochen - Danke.
Jetzt können wir den Thread zu machen - Thema durch :D
Frank,
freu‘ Dich nicht zu früh, in ein paar Jahren kommt wieder einer damit weil keiner die Suchfunktion benutzen kann.
Deswegen tritt das Forum auch seit Jahren auf der Stelle und entwickelt sich nicht.



Antwort von Axel:

WoWu hat geschrieben:
"Frank Glencairn" hat geschrieben:
Der Wolfgang hat gesprochen - Danke.
Jetzt können wir den Thread zu machen - Thema durch :D
Frank,
freu‘ Dich nicht zu früh, in ein paar Jahren kommt wieder einer damit weil keiner die Suchfunktion benutzen kann.
Oh, keine Sorge. In ein paar Wochen, Monaten, Jahren (so Gott will) kommt in einem neuen Thread zum Thema Schärfentiefe/Tiefenschärfe zum Schluss die Antwort von oberster Instanz:
WoWu hat geschrieben:
Ein Faktor ist z,B. die MTF, die Bildanteile niedriger Ortsfrequenzen noch scharf darstellt, mit zunehmender Auflösung aber bis in den weit unscharfen Bereich abfällt.
WoWu hat geschrieben:
Deswegen tritt das Forum auch seit Jahren auf der Stelle und entwickelt sich nicht.
Entwickelt? Aus der Knospe entfaltet sich die Blüte und verblüht. Der Samen verfliegt. Das Rad des Lebens dreht sich weiter. Na und? Im Fernsehen wird ja auch alles wiederholt.



Antwort von WoWu:

Reines Füllposting ohne inhaltliche Substanz..
Gutes Beispiel für das, was ich oben erwähnt habe.



Antwort von dienstag_01:

Pixelpitch nicht?!
Schauen wir mal: https://blog.kasson.com/the-last-word/d ... -gfx-100s/



Antwort von iasi:

WoWu hat geschrieben:
Es ist ja schon überraschend, dass das Thema Tiefenschärfe selbst nach Jahrzehnten von einigen noch immer nicht erfasst ist und die unterschiedlichsten Einflüsse mit Tiefenschärfe vermischt werden.
Bei der Berechnung der Tiefenschärfe handelt es sich um eine empirische Berechnung darauf basierend, dass ein Punkt dear Objektebenen in der Bildebene scharf dargestellt wird.
Dem überlagert sind diverse andere, schärfelimitierende Faktoren, die mit Tiefenschärfe absolut nichts zu tun haben.
Ein Faktor ist z,B. die MTF, die Bildanteile niedriger Ortsfrequenzen noch scharf darstellt, mit zunehmender Auflösung aber bis in den weit unscharfen Bereich abfällt.
In dessen Abhängigkeit werden die Bildanteile, die in der Tiefenschärfe bereits noch als „scharf“ angesehen würden, bereits unscharf.
Hier überlagern sich also bereits zwei Prozesse, die ursprünglich nichts miteinander zu tun hatten.
Und dass „Unschärfe“ höher aufgelöst wird, ist ziemlicher Quatsch und hat mit Tiefenschärfe schon gar nichts zu tun.
Warum ist es eigentlich so schwer, die unterschiedlichen Verfahren der Bildaufbereitung sauber zu trennen und nicht alles in den „Topf eines Begriffes“ zu werfen ?

Was soll denn dass „Unschärfe“ höher aufgelöst wird bedeuten?
Höhere Sensorauflösung bildet Unschärfeverläufe nun einmal feiner abgestuft ab.
Es ändert aber nichts an der Schärfentiefe.

Ebenso redest du von schärfelimitierende Faktoren, um die es hier gar nicht geht, statt wirklich mal zu der Behauptung "Sensorgröße nicht für Schärfentiefe verantwortlich" etwas zu sagen.

Es geht eben nicht um einen Punkt der Objektebenen in der Bildebene scharf dargestellt wird. Es geht um Punkte, die mit akzeptabler Unschärfe (also akzeptablem Zerstreuungskreisdurchmesser) noch scharf auf der Bildebene dargestellt werden.
Denn scharf dargestellt werden nur Punkte auf der Fokusebene.

Wie groß dieser Zerstreuungskreis sein darf - also die akzeptable Unschärfe - hängt von der Sensorgröße ab.



Antwort von pillepalle:

Wie würde Jott sagen:" Bei der Schärfentiefe handelt es sich um längst vergessenes Druidenwissen." :)

VG








Antwort von klusterdegenerierung:

WoWu hat geschrieben:
Es ist ja schon überraschend, dass das Thema Tiefenschärfe selbst nach Jahrzehnten von einigen noch immer nicht erfasst ist und die unterschiedlichsten Einflüsse mit Tiefenschärfe vermischt werden.
Bei der Berechnung der Tiefenschärfe handelt es sich um eine empirische Berechnung darauf basierend, dass ein Punkt dear Objektebenen in der Bildebene scharf dargestellt wird.
Dem überlagert sind diverse andere, schärfelimitierende Faktoren, die mit Tiefenschärfe absolut nichts zu tun haben.
Ein Faktor ist z,B. die MTF, die Bildanteile niedriger Ortsfrequenzen noch scharf darstellt, mit zunehmender Auflösung aber bis in den weit unscharfen Bereich abfällt.
In dessen Abhängigkeit werden die Bildanteile, die in der Tiefenschärfe bereits noch als „scharf“ angesehen würden, bereits unscharf.
Hier überlagern sich also bereits zwei Prozesse, die ursprünglich nichts miteinander zu tun hatten.
Und dass „Unschärfe“ höher aufgelöst wird, ist ziemlicher Quatsch und hat mit Tiefenschärfe schon gar nichts zu tun.
Warum ist es eigentlich so schwer, die unterschiedlichen Verfahren der Bildaufbereitung sauber zu trennen und nicht alles in den „Topf eines Begriffes“ zu werfen ?
Och nö,
jetzt ist wieder wünsch Dir was mit WoWu!
Auflösung hat mit den optischen begebenheiten nichts zu tun, genauso wie früher hochauflösenden Filme nichts an der physikalischen Schärfentiefe geändert haben und wenn war es die Grundschärfe die sich gleichermassen erhöht hat.

Im übrigen heißt es Schärfentiefe!
Kann mir nicht vorstellen das WoWu es besser weiß als diese Autoren.



Antwort von WoWu:

Ich denke, das „magische Wort“ haben all die hier überlesen, die durch die Wiederholung ihrer Vorstellungen versuchen Fakten zu schaffen:
„Suchfunktion“ ; denn das Thema ist in der Vergangenheit hier nicht nur mehrfach sondern auch korrekter behandelt worden.
Im Vorteil ist immer der, der nicht nur lesen, sondern auch verstehen kann.



Antwort von cantsin:

Um mal einfache Logik zu bemühen:
Ein Bildpunkt, der bei einem 12MP Full Frame-Sensor noch scharf abgebildet/richtig aufgelöst wird, kann auf einem 48MP-FF-Sensor mit derselben Optik, derselben Fokuseinstellung und derselben Blende über vier Sensorpixel unscharf verschmiert sein.



Antwort von iasi:

cantsin hat geschrieben:
Um mal einfache Logik zu bemühen:
Ein Bildpunkt, der bei einem 12MP Full Frame-Sensor noch scharf abgebildet/richtig aufgelöst wird, kann auf einem 48MP-FF-Sensor mit derselben Optik, derselben Fokuseinstellung und derselben Blende über vier Sensorpixel unscharf verschmiert sein.
Es gibt da kein Verschmieren. Wenn wir von Schärfentiefe reden, dann geht es immer um "unscharf verschmiert". Und ein Bildpunkt, den wir noch als scharf akzeptieren, deckt selbst bei einem 12MP-Sensor weit mehr als einen oder auch vier Sensorpixel ab.
Bei einem FF-Sensor geht man immerhin von einem maximalen Zerstreuungskreisdurchmesser von 0,03 mm aus.



Antwort von roki100:

Ja, ich lese, aber verstehen tue ich nun wirklich nicht. Der eine so der andere so...also was denn nun? ;)



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Im übrigen heißt es Schärfentiefe!
Auf einigen der älteren Schneider Kreuznach Anamorphoten (Kino-Projektionsobjektive) stand hier statt "Focus" eben "Tiefenschärfe" (kleines schwarzes Rädchen über dem roten Strich):

zum Bild


Damit justierte man das Objektiv einmalig für den Projektionswinkel (Position relativ zur Leinwandfläche). Fokussiert wurde im Alltagsbetrieb dann an einem großen Handrad, mit dem das gesamte Objektiv, bzw. der gesamte Revolverkopf, vor- und zurück bewegt wurde (Position relativ zum Bildfenster).



Antwort von klusterdegenerierung:

WoWu hat geschrieben:
Ich denke, das „magische Wort“ haben all die hier überlesen, die durch die Wiederholung ihrer Vorstellungen versuchen Fakten zu schaffen:
„Suchfunktion“ ; denn das Thema ist in der Vergangenheit hier nicht nur mehrfach sondern auch korrekter behandelt worden.
Im Vorteil ist immer der, der nicht nur lesen, sondern auch verstehen kann.
huh, immer diese großen Worte, ich knie nieder vor unserem allwissenden Meister!



Antwort von klusterdegenerierung:

cantsin hat geschrieben:
Um mal einfache Logik zu bemühen:
Ein Bildpunkt, der bei einem 12MP Full Frame-Sensor noch scharf abgebildet/richtig aufgelöst wird, kann auf einem 48MP-FF-Sensor mit derselben Optik, derselben Fokuseinstellung und derselben Blende über vier Sensorpixel unscharf verschmiert sein.
Wenn sich weder die Optik, noch die Blende, noch die Camposition, noch die Objektposition und die fokussierung sich ändert, bewirkt ein Sensor mit mehr Megapixel nichts weiter als das selbe Bild mit mehr Auflösung. Schärfeninstanzen liegen immer noch an der selben Stelle.

Wenn man Glück hat bekommt man eine bessere Geasamtauflösung und das ganze Bild wirkt brillianter und lässt sich größer ausdrucken, aber der Schärfenverlauf nach hinten bleibt der gleiche.
Wenn Du an einer Fachkamera die Bildebene von 9x12 auf 18x 24 cm wechselst, bleibt die Schärfe die gleich, Du bekommst lediglich einen größeren Bildausschnitt als vorher.

Kann man übrigens alles selber ausprobieren und wer Lust auf Theorie hat kann das mit dem dof Simulater hervorragend erledigen.



Antwort von cantsin:

iasi hat geschrieben:
cantsin hat geschrieben:
Um mal einfache Logik zu bemühen:
Ein Bildpunkt, der bei einem 12MP Full Frame-Sensor noch scharf abgebildet/richtig aufgelöst wird, kann auf einem 48MP-FF-Sensor mit derselben Optik, derselben Fokuseinstellung und derselben Blende über vier Sensorpixel unscharf verschmiert sein.
Es gibt da kein Verschmieren. Wenn wir von Schärfentiefe reden, dann geht es immer um "unscharf verschmiert". Und ein Bildpunkt, den wir noch als scharf akzeptieren, deckt selbst bei einem 12MP-Sensor weit mehr als einen oder auch vier Sensorpixel ab.
Nicht, wenn man das Bild in 1:1-Pixelauflösung und entsprechender Vergrößerung betrachtet.
klusterdegenerierung hat geschrieben:
Wenn sich weder die Optik, noch die Blende, noch die Camposition, noch die Objektposition und die fokussierung sich ändert, bewirkt ein Sensor mit mehr Megapixel nichts weiter als das selbe Bild mit mehr Auflösung. Schärfeninstanzen liegen immer noch an der selnen Stelle.
Nur wenn man auf dem Punkt der Fokussierung bleibt. Der Schärfeabfall ist kontinuierlich und wird bei feinerer Pixelauflösung daher früher sichtbar.



Antwort von klusterdegenerierung:

Was bei den dof Vergleichen zb mit Smartphones und KB Kameras etc. immer gerne vergessen wird ist, das eine 2.8er Blende und eine 16mm Brennweite in einem Smartphone, noch lange keine 2.8er Blende etc. ist, es steht zwar drauf, aber das verhält sich auch nur so ungefähr, ähnlich wie f Stops und T Stops.

Könnte man dies exakt ermitteln und mit den gleichen Werten bei 35mm vergleichen, käme auch das gleiche raus.
So hätte ein Handy mit 24mm Brennweite bei f2.8 exakt die gleiche Schärfenverteilung wie eine FF Cam mit 24mm f2.8, nur eben einen anderen Bildkreis/Ausschnitt.

Aber das hatten wir ja schon.



Antwort von klusterdegenerierung:

cantsin hat geschrieben:
Nur wenn man auf dem Punkt der Fokussierung bleibt. Der Schärfeabfall ist kontinuierlich und wird bei feinerer Pixelauflösung daher früher sichtbar.
An der Schärfenmenge oder in die Tiefe wandernd ändert sich nichts, denn mehr Pixel können keine Schärfe verlagern, sie können sie nur detailreicher darstellen und vielleicht sieht die ein oder andere Unschärfe damit insgesamt schärfer aus, physikalisch kann sich aber nichts ändern.



Antwort von Jott:

klusterdegenerierung hat geschrieben:
Kann man übrigens alles selber ausprobieren

Selber ausprobieren??? Filmen oder Fotografieren gar? Wo denkst du hin?



Antwort von dienstag_01:

Leider ist der Unschärfekreis auch vom Pixelabstand abhängig:
https://blog.kasson.com/the-last-word/d ... -gfx-100s/
Großformatsensoren sei dank ;)



Antwort von WoWu:

cantsin hat geschrieben:
iasi hat geschrieben:


Es gibt da kein Verschmieren. Wenn wir von Schärfentiefe reden, dann geht es immer um "unscharf verschmiert". Und ein Bildpunkt, den wir noch als scharf akzeptieren, deckt selbst bei einem 12MP-Sensor weit mehr als einen oder auch vier Sensorpixel ab.
Nicht, wenn man das Bild in 1:1-Pixelauflösung und entsprechender Vergrößerung betrachtet.
klusterdegenerierung hat geschrieben:
Wenn sich weder die Optik, noch die Blende, noch die Camposition, noch die Objektposition und die fokussierung sich ändert, bewirkt ein Sensor mit mehr Megapixel nichts weiter als das selbe Bild mit mehr Auflösung. Schärfeninstanzen liegen immer noch an der selnen Stelle.
Nur wenn man auf dem Punkt der Fokussierung bleibt. Der Schärfeabfall ist kontinuierlich und wird bei feinerer Pixelauflösung daher früher sichtbar.
Die Aussage stimmt, das subjektive (Bild-)Ergebnisergebnis aber nicht, nur dass die Antwort nichts mit Tiefenschärfe zu tun hat, was ich oben schon angemerkt habe weil bei höherer Auflösung automatisch die Anforderung an die MTF des gesamten Kamerazuges wächst und damit die Objekte der hohen Ortsfrequenzen unscharf dargestellt werden. Das bedeutet, dass dem Schärfeverlust aus der Tiefenschärfe-Ebene quasi mit Zunahme der Auflösung eine weiteres Unschärfelayer der mangelnden MTF hinzugefügt wird, was wiederum bedeutet, dass Objekte, die in der Tiefenschärfe noch relativ scharf dargestellt würden, dann bereits aus Kontrastmangel unscharf (unschärfer) sind.
Solche Faktoren spielen in der hohen Auflösung eine entscheidende Rolle denn selbst wenn sämtliche Elemente 90% MTF aufweisen, ist das Bildergebnis bei einem 24mm Filmbild nur noch 53%, also knapp über dem, was wir als unscharf bezeichnen. Hat auch nur ein Element in der Kette nur 60% MTF, dann ist man schon bei 35% im Ergebnis.
Daher auch mein Einwand, dass man Tiefenschärfe auch nur in einem engen Rahmen betrachten muss, der mit zunehmender Auflösung immer enger wird, weil andere Faktoren, die aber mit Tiefenschärfe gar nicht zusammenhängen, sie überlagert.
Auflösung ist so ein Faktor.
Daher Ist Deine Einlassung in Bezug auf die Tiefenschärfe völlig richtig.
Der Tiefenschärfe Eindruck des Bildes wird aber deutlich abweichen, weil Elemente im Unschärfebereich anders aussehen werden und einen andern Schärfeeindruck vermitteln.
Daher spielt Auflösung in Bezug auf Bildschärfe (nicht Tiefenschärfe) schon eine große Rolle.



Antwort von WoWu:

klusterdegenerierung hat geschrieben:
cantsin hat geschrieben:
Nur wenn man auf dem Punkt der Fokussierung bleibt. Der Schärfeabfall ist kontinuierlich und wird bei feinerer Pixelauflösung daher früher sichtbar.
An der Schärfenmenge oder in die Tiefe wandernd ändert sich nichts, denn mehr Pixel können keine Schärfe verlagern, sie können sie nur detailreicher darstellen und vielleicht sieht die ein oder andere Unschärfe damit insgesamt schärfer aus, physikalisch kann sich aber nichts ändern.
….oder unschärfer …. siehe MTF
Aber das hat absolut nichts mit der Tiefenschärfe zu tun.



Antwort von Jörg:

WoWu schreibt
Das bedeutet, dass dem Schärfeverlust aus der Tiefenschärfe-Ebene quasi mit Zunahme der Auflösung eine weiteres Unschärfelayer der mangelnden MTF hinzugefügt wird, was wiederum bedeutet, dass Objekte, die in der Tiefenschärfe noch relativ scharf dargestellt würden, dann bereits aus Kontrastmangel unscharf (unschärfer) sind.
Solche Faktoren spielen in der hohen Auflösung eine entscheidende Rolle denn selbst wenn sämtliche Elemente 90% MTF aufweisen, ist das Bildergebnis bei einem 24mm Filmbild nur noch 53%, also knapp über dem, was wir als unscharf bezeichnen. Hat auch nur ein Element in der Kette nur 60% MTF, dann ist man schon bei 35% im Ergebnis.
versteht sich doch von selbst...



Antwort von WoWu:

Ja, nur dass es hier unter „Tiefenschärfe“ gehandelt wird und dass immer behauptet wird, höhere Auflösung würden die Sache verbessern.
(Moin Jörg)



Antwort von Jörg:

moin Wolfgang,
solch unentdeckter Schatz wie die Suchfunktion, lässt die Foren dieser Welt auf der Intensivstation
jämmerlich überleben...



Antwort von cantsin:

Man muss ihn nicht mögen, aber dieses Video erklärt das ganze laienverständlich:

https://www.youtube.com/watch?v=IC-nbC0I1lA



Antwort von klusterdegenerierung:

Jörg hat geschrieben:
moin Wolfgang,
solch unentdeckter Schatz wie die Suchfunktion, lässt die Foren dieser Welt auf der Intensivstation
jämmerlich überleben...




Antwort von funkytown:

Das Thema ist wirklich nicht tot zu kriegen. Ist das ein typisches deutsches Problem oder geht es nur ums recht haben?

Natürlich beinflusst die Sensorgröße auch die Schärfentiefe. Allerdings bringt diese isolierte Betrachtung nichts oder stiftet nur Verwirrung. Viel einfacher ist die Betrachtung von 3 Faktoren:

Abstand zum Objekt, Brennweite und Blende

Nun brauchen wir noch eine Bezugsgröße: Ich nehme jetzt mal eine Vollformatkamera.

Bei einem Abstand von 2 Meter, 28mm Objektiv und Blende f2 beträgt die Schärfentiefe 62cm. Wenn ich einer dieser Werte ändere, ändert sich auch die Schärfentiefe. Beispielsweise verringert sich die Schärfentiefe bei Blende f1.4 auf 43cm.

Nehmen wir nun eine Kamera mit einem kleineren Sensor, sagen wir einen MFT-Sensor. Dann ändert sich auch die Schärfentiefe nicht, wenn alle drei Parameter gleich bleiben. Auch bei einer MFT Kamera beträgt die Schärfentiefe 62cm mit einem 28mm Objektiv, Blende f2 und Abstand zum Objektiv 2 Meter.

Es gibt nur einen Haken: 28mm an einer MFT Kamera entsprechen einem 56mm Objektiv an Vollformat. Insofern stimmt es zwar, dass die Sensorgröße keinen direkten Einfluss auf die Schärfentiefe hat, in der Praxis natürlich schon.

Denn WEIL ich einen kleineren Sensor habe, muss ich ein anderes Objektv wählen und habe somit weniger Tiefenschärfe. Denn: Will ich das gleiche Bild haben wir mit dem 28mm Vollformat muss ich ein 14mm Objektiv wählen.

Das bedeutet: Da ich nun ein Parameter verändert habe (Brennweite), bekomme ich nun mit der MFT Kamera eine Schärfentiefe von 76cm bei gleichem Bildwinkel.

Und jetzt wird es spannend: Um den Verlust von 14cm wieder auszugleichen (76-62cm), brauche ich 2 Blenden mehr, d.h. bei 14mm, 2 Meter Abstand zum Objekt und Blende f1 bin ich wieder bei 62cm Tiefenschärfe. Ich kann natürlich auch näher zum Objekt gehen ;)

Also, man kann also vereinfacht sagen, dass die Sensorgröße natürlich die Schärfentiege beeinflusst, weil man unterschiedliche Objektve nutzt. Korinthenkacker wollen aber in erster Linie eins: recht behalten.



Antwort von dienstag_01:

funkytown hat geschrieben:
Das Thema ist wirklich nicht tot zu kriegen. Ist das ein typisches deutsches Problem oder geht es nur ums recht haben?

Natürlich beinflusst die Sensorgröße auch die Schärfentiefe. Allerdings bringt diese isolierte Betrachtung nichts oder stiftet nur Verwirrung. Viel einfacher ist die Betrachtung von 3 Faktoren:

Abstand zum Objekt, Brennweite und Blende

Nun brauchen wir noch eine Bezugsgröße: Ich nehme jetzt mal eine Vollformatkamera.

Bei einem Abstand von 2 Meter, 28mm Objektiv und Blende f2 beträgt die Schärfentiefe 62cm. Wenn ich einer dieser Werte ändere, ändert sich auch die Schärfentiefe. Beispielsweise verringert sich die Schärfentiefe bei Blende f1.4 auf 43cm.

Nehmen wir nun eine Kamera mit einem kleineren Sensor, sagen wir einen MFT-Sensor. Dann ändert sich auch die Schärfentiefe nicht, wenn alle drei Parameter gleich bleiben. Auch bei einer MFT Kamera beträgt die Schärfentiefe 62cm mit einem 28mm Objektiv, Blende f2 und Abstand zum Objektiv 2 Meter.

Es gibt nur einen Haken: 28mm an einer MFT Kamera entsprechen einem 56mm Objektiv an Vollformat. Insofern stimmt es zwar, dass die Sensorgröße keinen direkten Einfluss auf die Schärfentiefe hat, in der Praxis natürlich schon.

Denn WEIL ich einen kleineren Sensor habe, muss ich ein anderes Objektv wählen und habe somit weniger Tiefenschärfe. Denn: Will ich das gleiche Bild haben wir mit dem 28mm Vollformat muss ich ein 14mm Objektiv wählen.

Das bedeutet: Da ich nun ein Parameter verändert habe (Brennweite), bekomme ich nun mit der MFT Kamera eine Schärfentiefe von 76cm bei gleichem Bildwinkel.

Und jetzt wird es spannend: Um den Verlust von 14cm wieder auszugleichen (76-62cm), brauche ich 2 Blenden mehr, d.h. bei 14mm, 2 Meter Abstand zum Objekt und Blende f1 bin ich wieder bei 62cm Tiefenschärfe. Ich kann natürlich auch näher zum Objekt gehen ;)

Also, man kann also vereinfacht sagen, dass die Sensorgröße natürlich die Schärfentiege beeinflusst, weil man unterschiedliche Objektve nutzt. Korinthenkacker wollen aber in erster Linie eins: recht behalten.
OK, wenn man Argumente nicht versteht oder nicht verstehen will sind das Argumente von Rechthabern und selber hat man recht, ohne Rechthabern zu sein. Nach eigener Definition. Klingt logisch ;)



Antwort von cantsin:

funkytown hat geschrieben:
Bei einem Abstand von 2 Meter, 28mm Objektiv und Blende f2 beträgt die Schärfentiefe 62cm. Wenn ich einer dieser Werte ändere, ändert sich auch die Schärfentiefe. Beispielsweise verringert sich die Schärfentiefe bei Blende f1.4 auf 43cm.

Nehmen wir nun eine Kamera mit einem kleineren Sensor, sagen wir einen MFT-Sensor. Dann ändert sich auch die Schärfentiefe nicht, wenn alle drei Parameter gleich bleiben. Auch bei einer MFT Kamera beträgt die Schärfentiefe 62cm mit einem 28mm Objektiv, Blende f2 und Abstand zum Objektiv 2 Meter.
Der eigentliche Punkt ist - den auch das oben verlinkte Video gut erklärt -, dass es "Schärfentiefe" eigentlich gar nicht gibt, sondern nur einen Schärfepunkt (bzw. eine zweidimensionale Schärfeebene). Vor und hinter diesem Punkt nimmt die Schärfe kontinuierlich ab.

Was als "Schärfentiefe" bezeichnet wird, ist das, was vor und hinter dem Schärfepunkt trotz kontinuierlich abnehmender Schärfe noch subjektiv akzeptabel scharf ist.

Alle Tabellen, die dafür feste Werte bzw. Zentimeter-Angaben angeben, sind Heuristiken - und wenn man sie wörtlich nimmt, Quatsch.

Hinzu kommt das Problem, dass diese Tabellen noch aus der Zeit der analogen Kleinbildfotografie und von 13x9cm-Abzügen stammen. Wir haben heute aber 24 Megapixel-Fotos, die wir auf vergleichsweise riesigen Displays betrachten, oft auch noch in 1:1-Pixelzoom. Da ist das, was in Kleinbildzeiten noch "akzeptable" Schärfe war, nicht mehr akzeptabel, sondern sichtbar unscharf.



Antwort von funkytown:

cantsin hat geschrieben:
Alle Tabellen, die dafür feste Werte bzw. Zentimeter-Angaben angeben, sind Heuristiken - und wenn man sie wörtlich nimmt, Quatsch.
OK, wenn man Argumente nicht versteht oder nicht verstehen will sind das Argumente von Rechthabern und selber hat man recht, ohne Rechthabern zu sein. Nach eigener Definition. Klingt logisch ;)
Ich habe mir wirklich Mühe gegeben, das Thema einfach und praxistauglich zu erklären. Ich will keine Doktorarbeit draus machen. Mensch Leute, statt über den Sinn und Unsinn von Schärfentiefe im digitalen Zeitalter zu senieren, macht doch einfach schöne FIlme und Fotos :)



Antwort von TomStg:

funkytown hat geschrieben:
Ich habe mir wirklich Mühe gegeben, das Thema einfach und praxistauglich zu erklären.
Kann irgendwie nicht sein.

Bei meinem DOF-Rechner wird etwas anderes angezeigt als Du oben schreibst (mal abgesehen von der "Heuristik"):

Vollformat: Bl2 28mm 2m -> 62cm
MFT: Bl2 14mm 2m -> 130cm



Antwort von cantsin:

funkytown hat geschrieben:
Ich habe mir wirklich Mühe gegeben, das Thema einfach und praxistauglich zu erklären.
Das Problem ist nur, dass Deine Erklärungen, so, wie Du sie formuliert hast, nicht korrekt sind, weil es keinen in Zentimetern messbaren bzw. objektiven Tiefenschärfebereich gibt, sondern es sich um Bauernregeln aus 9x13-Kleinbildzeiten handelt, die fälschlicherweise für optische Gesetze gehalten werden...



Antwort von Axel:

Sehr zum Denken anregender Einwurf. Die Aufgaben einer Kleinbild-Fotokamera aus dem 20. Jahrhundert waren völlig andere als die einer modernen Hybriden- oder auch Großformat-Video- oder Cinema-Kamera. 9 x 13 dürfte etwa Webauflösung vergleichbar gewesen sein. Was kein Maßstab für Schärfe ist, sondern für die typische Entfernung zum Bild, also den Bildwinkel, wie groß das Bild im Blickfeld erscheint. Und da gebe ich cantsin Recht, dass der Trend zu größeren Bildern geht, auch zu relativ größeren, z.B. einem 6,7" Smartphone-Display mit Retina-Auflösung (ganz grob mit 9 x 13 vergleichbar, aber wegen 453 ppi wieder doch nicht). Es ist sehr schwer, diese Anwendungen auf sinnvolle Weise miteinander zu vergleichen, und vielleicht ist es ja auch gar nicht sinnvoll.



Antwort von dienstag_01:

cantsin hat geschrieben:
funkytown hat geschrieben:
Ich habe mir wirklich Mühe gegeben, das Thema einfach und praxistauglich zu erklären.
Das Problem ist nur, dass Deine Erklärungen, so, wie Du sie formuliert hast, nicht korrekt sind, weil es keinen in Zentimetern messbaren bzw. objektiven Tiefenschärfebereich gibt, sondern es sich um Bauernregeln aus 9x13-Kleinbildzeiten handelt, die fälschlicherweise für optische Gesetze gehalten werden...
Wie wird denn Schärfe gemessen? Oder gibt's die jetzt auch nicht?

Kleine Anmerung: ohne das Kriterium Betrachtungsabstand ist Tiefenschärfe nicht zu verstehen.



Antwort von srone:

ein zerstreungskreisdurchmesser von 0 wäre die grösstmögliche schärfe, ab wann nun aber der einduck von scharf zu unscharf kippt, ist von vielerlei faktoren betrachtungsseitig abhängig, wie zb monitorgrösse/auflösung, betrachtungsabstand etc. desweiteren sehe ich da auch noch den subjektiven faktor des betrachtenden, was für den einen noch ok ist kann für den anderen schon unscharf sein.

lg

srone



Antwort von cantsin:

dienstag_01 hat geschrieben:
Wie wird denn Schärfe gemessen? Oder gibt's die jetzt auch nicht?
Hatte ich doch geschrieben. Da Schärfe auf einem Punkt bzw. einer zweidimensionalen Ebene liegt, kann man sie (als Abstand von der Film- bzw. Sensorebene) metrisch messen.

Bei Schärfentiefe geht das nicht, weil die kein absolutes oder objektives Kriterium ist. Zitieren wir mal Wikipedia: "Die Schärfentiefe (häufig auch Tiefenschärfe genannt) ist ein Maß für die Ausdehnung des scharfen Bereichs im Objektraum eines abbildenden optischen Systems. Der Begriff spielt in der Fotografie eine zentrale Rolle und beschreibt die Größe des Entfernungsbereichs, innerhalb dessen ein Objekt hinlänglich scharf abgebildet wird." https://de.wikipedia.org/wiki/Sch%C3%A4rfentiefe

"Hinlänglich" ist subjektiv und somit nicht objektiv messbar. Die Frage, ab welchem Grad der Schärfeabfall zu hoch ist, um sich nicht mehr als "hinlänglich" scharfe Abbildung zu qualifizieren, ist daher auch nur als Daumenregel quantifizierbar.

In der Praxis ist es natürlich genau so, wie Du es sagst - da hängt der wahrgenommene Schärfebereich von Auflösung, Bildgröße und Betrachtungsabstand ab. Ich hatte dazu vor kurzem hier im Forum mal ein Praxisbeispiel gepostet:
viewtopic.php?f=1&t=153039&p=1099840#p1099776

EDIT: srone war schneller.

EDIT 2:
Das Problem sind DoF/Schärfentiefe-Erklärungen und -Visualisierungen wie diese hier, die hartnäckig falsche Vorstellungen zementieren: DoF-sketch.png Der Mythos bzw. Falschdarstellungen ist, dass es da (a) einen scharfen Bildbereich innerhalb der Tiefenschärfe sowie (b) einen unscharfen Bildbereich außerhalb der Tiefenschärfe gibt. In Wahrheit gibt es nur einen kontinuierlichen Schärfeabfall vor und hinter dem Schärfepunkt. Wenn dieses und viele andere Schaubilder also korrekt gezeichnet würden, müsste die Katze in der Mitte bzw. bei den Ohren scharf sein und von den Ohren dann der Blur sowohl zum Fotografen, als auch zum Berg hin kontinuierlich zunehmen. Nur dass beim unteren Bild der Blur weniger stark zunehmen würde.



Antwort von dienstag_01:

Schärfe kann man nicht direkt messen, die Messung basiert auf einem Vergleich (mit einer Referenz).
Nur mal am Rand.

Für die Schärfentiefe bei Digitalkameras ist der Pixelpitch zur entscheidenden Größe geworden, denn sobald ein 1 Pixel großer Bildpunkt 2 benachbarte Pixel überdeckt, ist er nicht mehr scharf. Und diese Unschärfe ist unter Umständen bei den am Screen üblichen/möglichen Betrachtungsabständen wahrnehmbar.
Der aus dem Pixelpitch resultierende Tiefenschärfebereich ist damit sozusagen absolut, egal wie sehr alle Parameter perfektioniert werden (Objektiv etc), innerhalb dieses Bereiches kann es keine Unschärfe geben.
Tiefenschärfe ist also vom Objektiv in die Cam gewandert.

Edit: Es gibt selbstverständlich sehr viele Anwendungen bei Foto/Video, wo man sehr gut mit einem größeren Tiefenschärfebereich glücklich wird. Die Werte aus der klassischen analogen Fotografie sollte man aber mit allergrößter Vorsicht verwenden. Da wirds schnell mal unscharf.



Antwort von cantsin:

dienstag_01 hat geschrieben:
Für die Schärfentiefe bei Digitalkameras ist der Pixelpitch zur entscheidenden Größe geworden, denn sobald ein 1 Pixel großer Bildpunkt 2 benachbarte Pixel überdeckt, ist er nicht mehr scharf.
Völlig d'accord. Nur sind dann alle heute gängigen DoF-Formeln und DoF-Berechner ungültig, weil sie das nicht berücksichtigen. Und sind DoF-Skalen an Wechselobjektiven dann sowieso Mumpitz.

Und die Tatsache ist eben auch, dass wir wegen der heute üblichen hohen Sensorauflösungen bzw. kleinen Pixelpitches bei gleichen Brennweiten, Blenden und Sensorgrößen ein deutlich schmaleres DoF haben als noch zu den Kleinbildfotografiezeiten, aus den die o.g. Faustformeln stammen. (EDIT: Das schreibst Du auch in Deinem Edit.) Das zeigt das Northrup-Video ja auch ganz anschaulich.



Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Für die Schärfentiefe bei Digitalkameras ist der Pixelpitch zur entscheidenden Größe geworden, denn sobald ein 1 Pixel großer Bildpunkt 2 benachbarte Pixel überdeckt, ist er nicht mehr scharf.
Völlig d'accord. Nur sind dann alle heute gängigen DoF-Formeln und DoF-Berechner ungültig, weil sie das nicht berücksichtigen. Und sind DoF-Skalen an Wechselobjektiven dann sowieso Mumpitz.

Und die Tatsache ist eben auch, dass wir wegen der heute üblichen hohen Sensorauflösungen bzw. kleinen Pixelpitches bei gleichen Brennweiten, Blenden und Sensorgrößen ein deutlich schmaleres DoF haben als noch zu den Kleinbildfotografiezeiten, aus den die o.g. Faustformeln stammen. (EDIT: Das schreibst Du auch in Deinem Edit.) Das zeigt das Northrup-Video ja auch ganz anschaulich.
Sorry, hatte mir den Film nicht angeschaut, aber so verstehe ich das auch.
Allerdings verstehe ich z.B. DoF Simulator so, dass er sich bei der Wahl des Zerstreuungskreises schon auf den Pixelpitch bezieht. So richtig klar wird das aber nicht beschrieben.



Antwort von cantsin:

dienstag_01 hat geschrieben:
Allerdings verstehe ich z.B. DoF Simulator so, dass er sich bei der Wahl des Zerstreuungskreises schon auf den Pixelpitch bezieht. So richtig klar wird das aber nicht beschrieben.
Hab's eben mal geprüft, indem ich zuerst die Sony A7R IV und danach die Sony A7s als Kamera/Sensor eingegeben habe. Resultat: Er berücksichtigt den Pixelpitch nicht.



Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Allerdings verstehe ich z.B. DoF Simulator so, dass er sich bei der Wahl des Zerstreuungskreises schon auf den Pixelpitch bezieht. So richtig klar wird das aber nicht beschrieben.
Hab's eben mal geprüft, indem ich zuerst die Sony A7R IV und danach die Sony A7s als Kamera/Sensor eingegeben habe. Resultat: Er berücksichtigt den Pixelpitch nicht.
Man kann das unten bei Zerstreuungskreis auswählen.



Antwort von iasi:

dienstag_01 hat geschrieben:
cantsin hat geschrieben:


Völlig d'accord. Nur sind dann alle heute gängigen DoF-Formeln und DoF-Berechner ungültig, weil sie das nicht berücksichtigen. Und sind DoF-Skalen an Wechselobjektiven dann sowieso Mumpitz.

Und die Tatsache ist eben auch, dass wir wegen der heute üblichen hohen Sensorauflösungen bzw. kleinen Pixelpitches bei gleichen Brennweiten, Blenden und Sensorgrößen ein deutlich schmaleres DoF haben als noch zu den Kleinbildfotografiezeiten, aus den die o.g. Faustformeln stammen. (EDIT: Das schreibst Du auch in Deinem Edit.) Das zeigt das Northrup-Video ja auch ganz anschaulich.
Sorry, hatte mir den Film nicht angeschaut, aber so verstehe ich das auch.
Allerdings verstehe ich z.B. DoF Simulator so, dass er sich bei der Wahl des Zerstreuungskreises schon auf den Pixelpitch bezieht. So richtig klar wird das aber nicht beschrieben.
Es geht um die unterschiedlichen Vergrößerungsfaktoren bei unterschiedlichen Negativ oder Sensorgrößen.
Beim Negativ hatte das Filmkorn auch keinen Einfluß auf die Schärfentiefe, weshalb sollte dies nun bei Pixeln anders sein.
Bei der Schärfentiefe geht es nicht um eine scharfe Abbildung eines Bildpunktes (als wenn der Brennpunkt auf dem Sensor liegt, sondern um die noch als scharf wahrgenommene Zerstreuung dieses Bildpunktes.

zum Bild

Da es um die Wahrnehmung geht, spielt das Wiedergabeformat eine Rolle - und eben der Vergrößerungsfaktor.

Der Pixelpitch liegt weit unterhalb des Zerstreuungskreisdurchmessers.
Die oft genommenen
Circle of confusion 0.03 mm
für Vollformat
sind nun einmal weit entfernt von den 0,0081 mm selbst einer Alexa LF.

Der Sensor ist eben gerade mal in der Lage Bildpunkte bis 0,0081 mm zu unterscheiden - aber das sagt doch nichts über die Schärfentiefe aus.
Ein Zerstreuungskreis deckt immer mehrere Pixel ab - zumindest bei neueren Kameras.



Antwort von dienstag_01:

iasi hat geschrieben:
dienstag_01 hat geschrieben:

Sorry, hatte mir den Film nicht angeschaut, aber so verstehe ich das auch.
Allerdings verstehe ich z.B. DoF Simulator so, dass er sich bei der Wahl des Zerstreuungskreises schon auf den Pixelpitch bezieht. So richtig klar wird das aber nicht beschrieben.
Es geht um die unterschiedlichen Vergrößerungsfaktoren bei unterschiedlichen Negativ oder Sensorgrößen.
Beim Negativ hatte das Filmkorn auch keinen Einfluß auf die Schärfentiefe, weshalb sollte dies nun bei Pixeln anders sein.
Bei der Schärfentiefe geht es nicht um eine scharfe Abbildung eines Bildpunktes (als wenn der Brennpunkt auf dem Sensor liegt, sondern um die noch als scharf wahrgenommene Zerstreuung dieses Bildpunktes.
Das es um die Wahrnehmung geht, spielt das Wiedergabeformat eine Rolle - und eben der Vergrößerungsfaktor.

Der Pixelpitch liegt weit unterhalb des Zerstreuungskreisdurchmessers.
Die oft genommenen
Circle of confusion 0.03 mm
für Vollformat
sind nun einmal weit entfernt von den 0,0081 mm selbst einer Alexa LF.

Der Sensor ist eben gerade mal in der Lage Bildpunkte bis 0,0081 mm zu unterscheiden - aber das sagt doch nichts über die Schärfentiefe aus.
Ein Zerstreuungskreis deckt immer mehrere Pixel ab - zumindest bei neueren Kameras.
Dann nimmst du einfach mal den Zerstreuungskreisdurchmesser der klassischen Fotografie und schaust dir dein Bild auf deinem Monitor an und wunderst dich ;)
Dass es für viele Szenarien größeren Spielraum als den Pixelpitch gibt, hatte ich ja oben schon angemerkt, so eindimensionale Szenarien wie zu Zeiten der analogen Fotografie mit Abzügen, die ich mir in einer bestimmten Entfernung vor die Nase halte, passt aber in den seltensten Fällen.



Antwort von iasi:

dienstag_01 hat geschrieben:
cantsin hat geschrieben:


Hab's eben mal geprüft, indem ich zuerst die Sony A7R IV und danach die Sony A7s als Kamera/Sensor eingegeben habe. Resultat: Er berücksichtigt den Pixelpitch nicht.
Man kann das unten bei Zerstreuungskreis auswählen.
Wenn du da den Pixel Pitch der Kamera auswählst, hast du so gut wie keine Schärfentiefe.

Für 50mm/f4

Circle of confusion 0.001 mm

Subject distance 4 m

Depth of field
Near limit 3.97 m
Far limit 4.03 m
Total 0.05 m


Gehen wir noch etwas näher heran: :)

Subject distance 2 m

Depth of field
Near limit 1.99 m
Far limit 2.01 m
Total 0.01 m



Antwort von dienstag_01:

iasi hat geschrieben:
dienstag_01 hat geschrieben:

Man kann das unten bei Zerstreuungskreis auswählen.
Wenn du da den Pixel Pitch der Kamera auswählst, hast du so gut wie keine Schärfentiefe.
Dass sie deutlich geringer als mit dem klassischen Zerstreuungskreisdurchmesser ausfällt, deckt sich mit den Erfahrungen von Leuten, die fotografieren und ihre Bilder am Monitor bearbeiten.



Antwort von iasi:

dienstag_01 hat geschrieben:
iasi hat geschrieben:


Wenn du da den Pixel Pitch der Kamera auswählst, hast du so gut wie keine Schärfentiefe.
Dass sie deutlich geringer als mit dem klassischen Zerstreuungskreisdurchmesser ausfällt, deckt sich mit den Erfahrungen von Leuten, die fotografieren und ihre Bilder am Monitor bearbeiten.
Aber dies hängt nicht vom Pixel Pitch der Kamera ab.
Denn der bestimmt nur, bis zu welcher Größe ein scharf abgebildeter Bildpunkt (theoretisch) noch unterschieden werden kann.

Der Zerstreuungskreisdurchmesser gibt wiederum an, wie sehr der Bildpunkt unscharf werden kann. Es geht also darum, wieviel Unschärfe (Zerstreuung) man noch als scharf akzeptiert.
Und bei der Größe des Zerstreuungskreisdurchmesser spielt eben die Sensorgröße eine wichtige Rolle.
Du musst nun einmal das Bild - also den zerstreuten Bildpunkt von MFT mehr vergrößern, um auf die Monitorgröße zu kommen, als von einem FF-Sensor.
Daher kann der zerstreute Bildpunkt auf dem FF-Sensor eben auch einen größeren Durchmesser besitzen.



Antwort von dienstag_01:

iasi hat geschrieben:
dienstag_01 hat geschrieben:

Dass sie deutlich geringer als mit dem klassischen Zerstreuungskreisdurchmesser ausfällt, deckt sich mit den Erfahrungen von Leuten, die fotografieren und ihre Bilder am Monitor bearbeiten.
Aber dies hängt nicht vom Pixel Pitch der Kamera ab.
Denn der bestimmt nur, bis zu welcher Größe ein scharf abgebildeter Bildpunkt (theoretisch) noch unterschieden werden kann.

Der Zerstreuungskreisdurchmesser gibt wiederum an, wie sehr der Bildpunkt unscharf werden kann. Es geht also darum, wieviel Unschärfe (Zerstreuung) man noch als scharf akzeptiert.
Und bei der Größe des Zerstreuungskreisdurchmesser spielt eben die Sensorgröße eine wichtige Rolle.
Du musst nun einmal das Bild - also den zerstreuten Bildpunkt von MFT mehr vergrößern, um auf die Monitorgröße zu kommen, als von einem FF-Sensor.
Daher kann der zerstreute Bildpunkt auf dem FF-Sensor eben auch einen größeren Durchmesser besitzen.
Wenn du bedenkst, dass es Sensorgrößen mit extrem abweichenden Pixelzahlen gibt (also gleiche Größe - unterschiedlicher Pixelpitch), sollte dir klar werden, dass es eben nichts mit der Sensorgröße zu tun hat. Das ist eben auch nur so ne Pi-mal-Daumen-Größe.



Antwort von mash_gh4:

in der frage hat's wirklich keinen sinn, mit den iasi zu diskutieren.
da gibt's wirklich sinnvollere formen der zerstreuung. :)



Antwort von dienstag_01:

mash_gh4 hat geschrieben:
in der frage hat's wirklich keinen sinn, mit den iasi zu diskutieren.
da gibt's wirklich sinnvollere formen der zerstreuung. :)
Wir drehen uns im Zerstreuungskreis?



Antwort von mash_gh4:

dienstag_01 hat geschrieben:
mash_gh4 hat geschrieben:
in der frage hat's wirklich keinen sinn, mit den iasi zu diskutieren.
da gibt's wirklich sinnvollere formen der zerstreuung. :)
Wir drehen uns im Zerstreuungskreis?
im circle of confusion

dabei gibt's so viel lohnenderes -- bspw.: Le Cercle Rouge (Vier im roten Kreis, 1970)

https://www.youtube.com/watch?v=X8s0ubjtlUE

Siddharta Gautama,
der Buddha,

zeichnete mit roter Kreide
einen Kreis und sagte:
Wenn es vorherbestimmt ist,
dass Menschen einander
wiedersehen sollen,
was auch immer ihnen geschieht,
auf welchen Wegen sie auch wandeln,
am gegebenen Tag werden sie einander
unvermeidlich „im roten Kreis“ begegnen.

Rama Krischna




Antwort von Bluboy:

Demnächst bei ARTE



Antwort von iasi:

dienstag_01 hat geschrieben:
iasi hat geschrieben:


Aber dies hängt nicht vom Pixel Pitch der Kamera ab.
Denn der bestimmt nur, bis zu welcher Größe ein scharf abgebildeter Bildpunkt (theoretisch) noch unterschieden werden kann.

Der Zerstreuungskreisdurchmesser gibt wiederum an, wie sehr der Bildpunkt unscharf werden kann. Es geht also darum, wieviel Unschärfe (Zerstreuung) man noch als scharf akzeptiert.
Und bei der Größe des Zerstreuungskreisdurchmesser spielt eben die Sensorgröße eine wichtige Rolle.
Du musst nun einmal das Bild - also den zerstreuten Bildpunkt von MFT mehr vergrößern, um auf die Monitorgröße zu kommen, als von einem FF-Sensor.
Daher kann der zerstreute Bildpunkt auf dem FF-Sensor eben auch einen größeren Durchmesser besitzen.
Wenn du bedenkst, dass es Sensorgrößen mit extrem abweichenden Pixelzahlen gibt (also gleiche Größe - unterschiedlicher Pixelpitch), sollte dir klar werden, dass es eben nichts mit der Sensorgröße zu tun hat. Das ist eben auch nur so ne Pi-mal-Daumen-Größe.
Dir sollte klar sein, dass bei den heutigen Pixelzahlen es keine Rolle mehr spielt, wieviele Pixel einen Punkt abbilden.
Es geht auch nicht um eine Pi-mal-Daumen-Größe, sondern darum:
Bei einer Unschärfe, die 2 Winkelminuten, also 1/1500 der Bilddiagonalen übersteigt, werden wir eine Unschärfe also gerade zu erkennen beginnen.

Es ist nun einmal nicht wichtig, ob ein zerstreuter Punkt nun 80 oder 20 Pixel abdeckt, solange der zerstreute Punkt noch als scharf wahrgenommen wird.

Hingegen hat es eben eine Auswirkung, wenn der zerstreute Punkt z.B. doppelt so sehr vergrößert werden muss, da der Sensor kleiner ist.
Das ist ja dann eben auch ein Crop-Problem.



Antwort von cantsin:

iasi hat geschrieben:
Dir sollte klar sein, dass bei den heutigen Pixelzahlen es keine Rolle mehr spielt, wieviele Pixel einen Punkt abbilden.
Ich glaube eher, Dir ist etwas nicht ganz klar... (Man kauft eine Kamera mir mehr Sensorpixeln natürlich vor allem deshalb, weil sie auch mehr Bildpunkte des Motivs abbilden bzw. auflösen kann.)



Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Dir sollte klar sein, dass bei den heutigen Pixelzahlen es keine Rolle mehr spielt, wieviele Pixel einen Punkt abbilden.
Ich glaube eher, Dir ist etwas nicht ganz klar... (Man kauft eine Kamera mir mehr Sensorpixeln natürlich vor allem deshalb, weil sie auch mehr Bildpunkte des Motivs abbilden bzw. auflösen kann.)
Es geht bei der Schärfentiefe nicht um die scharfe Darstellung von Bildpunkten.

Eine höhere Zahl der Sensorpixel erlaubt zwar die feinere Abstufung des Zerstreuungskreises, ändert aber nichts an dessen Größe und eben auch nichts an der Schärfewahrnehmung des zerstreuten Bildpunktes.

Wirklich scharf bilden Sensoren nur die Fokusebene ab.
Wobei man dann sagen kann, die Pixelgröße eine Zerstreuung erlaubt.
Bei einem Sensor mit 0,008mm-Pixelgröße sind dann eben auch Bildpunkte scharf, die sich vor oder hinter der Fokusebene befinden.
Aber das ist dann eben nicht die "Schärfentiefe", bei der es um akzeptabler Unschärfe geht.

Ein MFT-Crop in eine FF-Aufnahme wirkt eben auch deshalb unschärfer, weil die bei der Vergrößerung vom FF noch als akzeptabel scharf wahrgenommenen zerstreuten Bildpunkte mit 0,03mm, bei der stärkeren Vergrößerung vom MFT-Crop nicht mehr scharf erscheinen.
Der Schärfentiefebereich verringert sich beim Crop.

Da erscheint dann eine Person im Hintergund, die bei FF noch scharf abgebildet erschien, beim MFT-Crop nicht mehr scharf. Daran ändern dann auch viele Pixel nichts.
Beispiel2.jpg Beispiel1.jpg



Antwort von cantsin:

iasi hat geschrieben:
cantsin hat geschrieben:


Ich glaube eher, Dir ist etwas nicht ganz klar... (Man kauft eine Kamera mir mehr Sensorpixeln natürlich vor allem deshalb, weil sie auch mehr Bildpunkte des Motivs abbilden bzw. auflösen kann.)
Es geht bei der Schärfentiefe nicht um die scharfe Darstellung von Bildpunkten.

Eine höhere Zahl der Sensorpixel erlaubt zwar die feinere Abstufung des Zerstreuungskreises, ändert aber nichts an dessen Größe und eben auch nichts an der Schärfewahrnehmung des zerstreuten Bildpunktes.

Wirklich scharf bilden Sensoren nur die Fokusebene ab.
Das sind wir uns ja völlig einig.

Nur ist es so, dass vermutlich 95% aller derjenigen, die fotografieren und filmen, denken, dass im Schärfentiefebereich 100% scharf abgebildet wird.



Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:


Es geht bei der Schärfentiefe nicht um die scharfe Darstellung von Bildpunkten.

Eine höhere Zahl der Sensorpixel erlaubt zwar die feinere Abstufung des Zerstreuungskreises, ändert aber nichts an dessen Größe und eben auch nichts an der Schärfewahrnehmung des zerstreuten Bildpunktes.

Wirklich scharf bilden Sensoren nur die Fokusebene ab.
Das sind wir uns ja völlig einig.

Nur ist es so, dass vermutlich 95% aller derjenigen, die fotografieren und filmen, denken, dass im Schärfentiefebereich 100% scharf abgebildet wird.
Genau.
Und wenn ich aber die "Unschärfe" stärker vergrößern muss, da ich einen kleineren Sensor nutze, nehme ich sie eben stärker war.
Was noch bei geringerer Vergrößerung als scharf erschien (<Zerstreuungskreis) wird dann eben bei stärkerer Vergrößerung als unscharf wahrgenommen.

Daher muss es eben richtig heißen:
Sensorgröße für Schärfentiefe verantwortlich



Antwort von cantsin:

Oder, um die Diskussion vielleicht gütlich zu beenden: Schärfentiefe ist ein größtenteils missverstandenes und irreführend erklärtes Phänomen - an dem außerdem ein ganzer Rattenschwanz von Ballast aus Analogfotozeiten hängt, und ein ganzer Sack populärer Verwechselungen von Fotografie-Daumenregeln mit vermeintlichen optischen Gesetzen.

Zur Aufklärung würde wahrscheinlich schon beitragen, wenn man statt von "Schärfentiefe" von "Schärfenabnahme" oder "Schärfeabfall" reden würde, und dementsprechend statt vom "Schärfentiefebereich" oder "depth of field" von "akzeptablem Schärfeabfall".



Antwort von mash_gh4:

cantsin hat geschrieben:
Oder, um die Diskussion vielleicht gütlich zu beenden: Schärfentiefe ist ein größtenteils missverstandenes und irreführend erklärtes Phänomen - an dem außerdem ein ganzer Rattenschwanz von Ballast aus Analogfotozeiten hängt, und ein ganzer Sack populärer Verwechselungen von Fotografie-Daumenregeln mit vermeintlichen optischen Gesetzen.

Zur Aufklärung würde wahrscheinlich schon beitragen, wenn man statt von "Schärfentiefe" von "Schärfenabnahme" oder "Schärfeabfall" reden würde, und dementsprechend statt vom "Schärfentiefebereich" oder "depth of field" von "akzeptablem Schärfeabfall".
ich fürchte, dass das ein viel zu vernünftiger und gütlicher voschlag ist, als dass er hier tatsächlich akzeptiert bzw. länger anhaltende folgen zeigen könnte.

ich finde es übrigens in diesem zusammenhang ziemlich spannend, dass es einen quasi mathematisch sauber abgebideten punkt auf der schärfeneebene in der realen welt des lichts und seiner physikalischen gesetzmäßigkeiten ohnehin nicht gibt, weil da so sachen wie die beugung, unterschiedliche brechung u.ä. auch noch ein gewichtiges wörtchen mitzureden haben.

spannend wird das vor allen dingen dort, wo man aus derart begrenzten abbildungen mit div. mathematischen methoden doch noch ein wenig mehr über die ursprüngliche bildinformation herauszurechnen vermag (siehe: https://de.wikipedia.org/wiki/Dekonvolution).



Antwort von dienstag_01:

Ich kenne diesen Hersteller nicht, sieht aber so aus, als wären das Repro-Kameras.

Was sagen die zu DoF:



Antwort von iasi:

cantsin hat geschrieben:
Oder, um die Diskussion vielleicht gütlich zu beenden: Schärfentiefe ist ein größtenteils missverstandenes und irreführend erklärtes Phänomen - an dem außerdem ein ganzer Rattenschwanz von Ballast aus Analogfotozeiten hängt, und ein ganzer Sack populärer Verwechselungen von Fotografie-Daumenregeln mit vermeintlichen optischen Gesetzen.

Zur Aufklärung würde wahrscheinlich schon beitragen, wenn man statt von "Schärfentiefe" von "Schärfenabnahme" oder "Schärfeabfall" reden würde, und dementsprechend statt vom "Schärfentiefebereich" oder "depth of field" von "akzeptablem Schärfeabfall".
Wobei die optischen Gesetze sich nicht darum scheren, ob da nun ein Sensor oder ein analoger Film belichtet wird.

Beim Begriff Schärfentiefe geht es um die "Tiefe", die noch als scharf wahrgenommen wird, daher ist der Begriff "Schärfeabfall" nicht treffend. Es soll ja die Entfernung vor und hinter der Fokusebene beschrieben werden.



Antwort von iasi:

dienstag_01 hat geschrieben:
Ich kenne diesen Hersteller nicht, sieht aber so aus, als wären das Repro-Kameras.

Was sagen die zu DoF:
Sie sagen letztlich auch, dass der Zerstreuungskreisdurchmesser vom Betrachtungsabstand abhängt bzw. der Vergrößerung des Bildes/Bildausschnittes.

Wenn man ein Kodakchrome 25 Dia aus 5m Entfernung auf einer Leinwand mit 1,5m-Diagonale betrachtet, erscheint vieles noch scharf, das man bei einer formatfüllenden Projektion auf eine 15m-Leinwand aus 2m Entfernung, nicht mehr als scharf wahrnimmt.

Das ist dann aber eben bei einer R5-Aufnahme nicht anderes.

Nochmal: Würde man den Zerstreuungskreisdurchmesser mit dem Pixel-Pitch gleichsetzen, dann hätte man nur die maximal erreichbare Schärfe, die der Sensor darstellen kann und eben so gut wie keine Schärfentiefe.

Dann hätte man selbst bei einer Alexa LF mit 8,25 µm Pixel Pitch bei 50mm und f4 gerade mal diese Schärfentiefe:
Subject distance 2 m

Depth of field
Near limit 1.95 m
Far limit 2.05 m
Total 0.1 m



Antwort von Frank Glencairn:





Antwort von iasi:

"Frank Glencairn" hat geschrieben:
youtube-Tests sind wie youtube-Nachrichten.

Manche nehme sie ernst. ;)



Antwort von iasi:

Mich wundert es, dass dies so schnell übersehen wird:

Um eine FF-Aufnahme auf eine 3,6m breite Projektion zu vergrößern, wird jeder zerstreute Bildpunkt um das 1000fache vergrößert.
Bei einer APS-C-Kamera beträgt der Vergrößerungsfaktor 1500.

Wenn also ein Bildpunkt auf einen Durchmesser von 0,003mm zerstreut wird, dann wird er bei einer Aufnahme vom FF auf der Leinwand 3mm groß abgebildet. Bei APS-C ist es dann ein zerstreuter Punkt von 4,5mm Durchmesser.
Bei einem MFT-Bild wäre er es dann sogar ein Klecks mit 6mm Durchmesser.

Bei einem normalen Betrachtungsabstand nimmt man die 3mm noch als scharf wahr - die 4,5 oder gar 6mm aber eben nicht mehr.

Daher unterschied sich selbst mit einem Kodakchrome 25 die Schärfentiefe von einem 200er im Mittelformat-Format.



Antwort von cantsin:

"Frank Glencairn" hat geschrieben:
Der Mann sagt ja selber im Video, dass er Amateurfotograf ist. Und seine Fotos zeigen, dass - bevor man sich überhaupt mit Sensorgrößen, DoF und Kameraklassen beschäftigen sollte - es an ganz anderen Dingen scheitert: Bei ihm vor allem am Weißabgleich (mit seinen dunkel-lila Hauttönen) und der Belichtung, wegen der sowohl die platinblonden Haare, als auch ganze Hautpartien sichtbar clippen. Ersteres ließe sich sicher, zweites sehr wahrscheinlich durch bessere Raw-Prozessierung reparieren.

Man könnte außerdem argumentieren, dass er (bei seiner angestrebten Mainstream-Beautyshot/Porträtästhetik) seinem Modell keinen Gefallen damit tut, extrem scharfzeichnende/hochauflösende Objektive wie die beiden Sigmas zu verwenden. Auch das ist ein typischer Amateurfehler. (Hier hätte ich entweder einen leichten Diffusionsfilter oder gleich adaptierte Vintageobjektive genommen. Bei letzterem wäre auch der Kamera-Kitpreis drastisch gesunken.)

Er rechnet auch falsch, wenn er glaubt, dass man als FF-Äquivalent des Sigma 56mm/1.4 ein teures Sigma Art 85mm/1.4 braucht und auch beim Fotografieren die beiden Objektive an beiden Kameras mit denselben Blendenzahlen betreibt. Hier hätte auf FF-Seite ein preiswerteres 85mm/2.0 oder 85mm/1.8 gereicht. Wie das Sony FE 85mm/1.8, das nur knapp 100 EUR teurer ist als das Sigma 56mm/f1.4 für APS-C; oder sogar "nur" ein Viltrox 85mm/1.8, das sogar noch 150 EUR preiswerter ist als das Sigma 56mm. Denn wäre auch eine praxisnahe, aber nicht weit bekannte Weisheit: Das bei FF zwar die Bodies teurer sind, man aber bei 24MP-FF-Sensoren anspruchslosere Objektive braucht (bzw. preiswerte Objektive besser performen) als bei APS-C-Kameras mit 24MP-Sensoren.

Weil ihm auch - abgesehen von der Bokeh-Äquivalenz nicht klar ist, dass sich der Mehrpreis, die extrem hohe Auflösung und das Mehrgewicht eines Objektiven-Boliden wie des Sigma Art 85mm/1.4 eigentlich nur an 50/60-Megapixel-Kameras wie der A7R-Serie lohnt. An einer A7c ist das Ding sozusagen eine Kanone an einem Spatzen. Auch das ist so ein typischer Amateur-Fehler, der durch die einschlägigen Foren und Influencer angeheizt wird, die den Leuten überdimensioniertes Equipment aufschwatzen.

IMHO zeigt sich beim Fotografieren der Unterschied der Sensorgrößen erst unter schwierigen Lichtbedingungen. Und zwar nicht nur, wie in seinen Beispielen, bei schwachem Tageslicht, sondern bei Kunst- und Mischlicht, wenn der Weißabgleich des Zielbilds nicht mehr mit dem nativen Weißabgleich des Sensors übereinstimmt, einzelne Farbkanäle daher stärker rauschen und schneller clippen und man sich daher im Grenzbereich dessen bewegt, was noch akzeptable Bildqualität ist.



Antwort von iasi:

cantsin hat geschrieben:
"Frank Glencairn" hat geschrieben:
Der Mann sagt ja selber im Video, dass er Amateurfotograf ist. Und seine Fotos zeigen, dass - bevor man sich überhaupt mit Sensorgrößen, DoF und Kameraklassen beschäftigen sollte - es an ganz anderen Dingen scheitert: Bei ihm vor allem am Weißabgleich (mit seinen dunkel-lila Hauttönen) und der Belichtung, wegen der sowohl die platinblonden Haare, als auch ganze Hautpartien sichtbar clippen. Ersteres ließe sich sicher, zweites sehr wahrscheinlich durch bessere Raw-Prozessierung reparieren.

Man könnte außerdem argumentieren, dass er (bei seiner angestrebten Mainstream-Beautyshot/Porträtästhetik) seinem Modell keinen Gefallen damit tut, extrem scharfzeichnende/hochauflösende Objektive wie die beiden Sigmas zu verwenden. Auch das ist ein typischer Amateurfehler. (Hier hätte ich entweder einen leichten Diffusionsfilter oder gleich adaptierte Vintageobjektive genommen. Bei letzterem wäre auch der Kamera-Kitpreis drastisch gesunken.)

Er rechnet auch falsch, wenn er glaubt, dass man als FF-Äquivalent des Sigma 56mm/1.4 ein teures Sigma Art 85mm/1.4 braucht und auch beim Fotografieren die beiden Objektive an beiden Kameras mit denselben Blendenzahlen betreibt. Hier hätte auf FF-Seite ein preiswerteres 85mm/2.0 oder 85mm/1.8 gereicht. Wie das Sony FE 85mm/1.8, das nur knapp 100 EUR teurer ist als das Sigma 56mm/f1.4 für APS-C; oder sogar "nur" ein Viltrox 85mm/1.8, das sogar noch 150 EUR preiswerter ist als das Sigma 56mm. Denn wäre auch eine praxisnahe, aber nicht weit bekannte Weisheit: Das bei FF zwar die Bodies teurer sind, man aber bei 24MP-FF-Sensoren anspruchslosere Objektive braucht (bzw. preiswerte Objektive besser performen) als bei APS-C-Kameras mit 24MP-Sensoren.

Weil ihm auch - abgesehen von der Bokeh-Äquivalenz nicht klar ist, dass sich der Mehrpreis, die extrem hohe Auflösung und das Mehrgewicht eines Objektiven-Boliden wie des Sigma Art 85mm/1.4 eigentlich nur an 50/60-Megapixel-Kameras wie der A7R-Serie lohnt. An einer A7c ist das Ding sozusagen eine Kanone an einem Spatzen. Auch das ist so ein typischer Amateur-Fehler, der durch die einschlägigen Foren und Influencer angeheizt wird, die den Leuten überdimensioniertes Equipment aufschwatzen.

IMHO zeigt sich beim Fotografieren der Unterschied der Sensorgrößen erst unter schwierigen Lichtbedingungen. Und zwar nicht nur, wie in seinen Beispielen, bei schwachem Tageslicht, sondern bei Kunst- und Mischlicht, wenn der Weißabgleich des Zielbilds nicht mehr mit dem nativen Weißabgleich des Sensors übereinstimmt, einzelne Farbkanäle daher stärker rauschen und schneller clippen und man sich daher im Grenzbereich dessen bewegt, was noch akzeptable Bildqualität ist.
Das alles hat sowieso nichts mitz Schärfentiefe zu tun.

Bei der Sensorgröße geht es eben schlicht auch um den Vergrößerungsfaktor.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen:
Der Außendienst ist zu 90 Prozent für den Erfolg des ganzen Unternehmens verantwortlich.
Stark reduzierte Schärfentiefe in iPhone-Video (?)
Wenn 8K TVs nicht 8K (und 4K nicht 4K) sind - Samsungs Problem mit der Auflösung
Externes Stereo Mikro an Smartphone - geht nicht. Gibt's nicht - außer...
Decklinkkarte tut nicht oder nicht not
160 Mio.$ für "Red Notice", 200 Mio.$ für "The Gray Man" - dennoch schafft es Netflix nicht
Neue Nicht-Action-Cam Sony RX0 II für Mehrkamera-Setups
Für eine 400€ Drohne nicht übel!
Speicherort für cache-files läßt sich nicht ändern
Schlappe für OLED-Besitzer: VRR-Probleme lassen sich wohl nicht beheben
LANC Adapter für nicht LANC fähige Kameras
Sind Datenträger für Filmschaffende/Fotografen nicht Betriebsstoffe?
Demuxer für Avidemux nicht gefunden
Für einen Netflix-Trailer nicht schlecht. Hat ordentlich Bums!!
Nach dem Trailer zu urteilen, könnte das doch was werden — Für Serien nicht Filme
Canon entwickelt 4K-Bildsensor mit 148 dB Dynamik (24 Blendenstufen) - aber nicht für Filmer
Gilt das Urheberrecht auch für per KI erzeugte Inhalte? Eher nicht
Zacuto Micro-Boom und MicroMixer - Audiozubehör (nicht nur) für Mobile-Filmmaking
Kleine Cine-Kamera (nicht nur) für Vlogger - Die Bildqualität der Sony Alpha ZV-E1
Neues Gerichtsurteil: Panoramafreiheit gilt nicht für Drohnenaufnahmen
AVCHD konvertieren oder nicht für Premiere Pro?
Video-Kassetten nicht für jedes Gerät?
Canon HG20 arbeitet nicht im Aufnahmemodus
Falsche Cam-Einstellung - Ton nicht da!
Video und Audio passen nicht zusammen
Resolve startet nicht

















weitere Themen:
Spezialthemen


3D/VR
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adapter/Konverter
Adobe After Effects
Adobe Premiere Pro
After effects
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avi
Avid
Avid Media Composer
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blende
Cam
Camcorder
Camera
Canon
Canon EOS
Capture
Capturing
Cinema
ClipKanal
Codec
DJI
DSLR
DaVinci Resolve
Digital
EDIUS
ENG
Effect
Effekt
Effekte
Eis
Empfehlung
Euro
Fehler
Festplatte
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Foto
Frage
Frame
GH2
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
Kanal
Kauf
Kaufberatung
Kaufe
Kurzfilm
Layer
Licht
Light
Live
Log
Lösung
MAGIX video deLuxe
MPEG
MPEG2
Magix
Magix Vegas Pro
Mikro
Mikrofon
Mikrophone
Movie
Musik
Musikvideo
NAB
Nero
Nikon
Objektiv
Objektive
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Plugin
Premiere
Produktion
RAW
RED
Render
Rendern
S5
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Studio
TV
Test
Titel
Ton
Trailer
Umwandeln
Vegas
Video
Video-DSLM-/DSLR
Videos
Videoschnitt
YouTube
Zoom