Frage von funkytown:klusterdegenerierung hat geschrieben:
funkytown hat geschrieben:
Ich hatte mich natürlich verschrieben. Ich meinte auflblenden. Wenn ich die Blende verändern kann, brauche ich ja keine ND-Filter.
??? Jetzt wirds albern!
Man braucht dann einen ND, wenn man bei f2.8 bleiben möchte, vorallem auch,
wenn man auch bei einer 1/50sec und 100Iso bleiben möchte! Was Du Dir da zurechtlegst,
hat mit ND nun wirklich nichts zu tun! ;-)
Sag mal, hälst Du die Leute für blöd? Ich nutze ND Filter seit 15 Jahren und ja, ich weiß warum man sie einsetzt. Bist Du denn so schwer von Begriff?
Die alte Mavic Pro hatte eine feste Blende bei f2.8. Damit ich mit einem Verschluss von 1/50 arbeiten kann, benötige ich also verschiedene ND-Filter, ich habe mit ND8, ND16 und ND32 gearbeitet. Bei der neuen Mavic Pro habe ich eine variable Blende. Ich glaube gelesen zu haben, man kann bis Blende f11 nutzen. Das dürfte bei wolkenlosem Himmel nicht ganz bis 1/50 reichen. Ich bin mir da nicht sicher, deshalb hatte ich gefragt. Habe ich es jetzt ausführlich genug beschrieben, damit es klusterdefenerierung auch verstehst?!
Antwort von klusterdegenerierung:
funkytown hat geschrieben:
klusterdegenerierung hat geschrieben:
??? Jetzt wirds albern!
Man braucht dann einen ND, wenn man bei f2.8 bleiben möchte, vorallem auch,
wenn man auch bei einer 1/50sec und 100Iso bleiben möchte! Was Du Dir da zurechtlegst,
hat mit ND nun wirklich nichts zu tun! ;-)
Sag mal, hälst Du die Leute für blöd? Ich nutze ND Filter seit 15 Jahren und ja, ich weiß warum man sie einsetzt. Bist Du denn so schwer von Begriff?
Die alte Mavic Pro hatte eine feste Blende bei f2.8. Damit ich mit einem Verschluss von 1/50 arbeiten kann, benötige ich also verschiedene ND-Filter, ich habe mit ND8, ND16 und ND32 gearbeitet. Bei der neuen Mavic Pro habe ich eine variable Blende. Ich glaube gelesen zu haben, man kann bis Blende f11 nutzen. Das dürfte bei wolkenlosem Himmel nicht ganz bis 1/50 reichen. Ich bin mir da nicht sicher, deshalb hatte ich gefragt. Habe ich es jetzt ausführlich genug beschrieben, damit es klusterdefenerierung auch verstehst?!
Komme mal wieder runter mit Deinem 15jährigem halbwissen!!
Wenn Du nicht differenzieren kannst, kann ich da nix für und ja Du kannst bei der neuen Pro abblenden,
ja genau dann braucht man keinen ND mehr, aber jetzt kommts, gut aufpassen,
wenn Du weiterhin wie bei der neuen NICHT ABBLENDEN MÖCHTEST, aus Gründen der Tiefenschärfe und Anmutung,
braucht man weiterhin einen ND.
Du kannst ja gerne bis Blende 12 abblenden, dann sieht eben alles so aus wie mit Deinem Galaxy Handy Du schlaumeier!!
https://martinkleinheinz.de/blende-rich ... schritten/
Antwort von iasi:
klusterdegenerierung hat geschrieben:
... aus Gründen der Tiefenschärfe und Anmutung,
braucht man weiterhin einen ND.
Schärfentiefe bei der Brennweite der Pro ist eh immer von deinem Objekt bis unendlich. So nah kannst du mit der Drohne gar nicht ran, dass du Unschärfe bekommst.
Da ist dann eher die abnehmende Abbildungsqualität bei f8 und f11 von Bedeutung.
Antwort von Jan:
Bei Blende 2,8 und einem Einzollsensor mit Weitwinkel-Brennweite hat man doch nach ein wenigen Metern eine Schärfe bis Timbuktu.
Antwort von klusterdegenerierung:
Sensorgröße hat nichts mit Tiefenschärfe zu tun!
Tiefenschärfe ändert sich nur durch Brennweite und Entfernung zum Objekt.
Das man denkt, das ein kleiner Sensor in der Tiefe Grundsätzlich schärfer ist,
ist ein Trugschluß und ergibt sich aus dem kleineren Auschnitt bei gleicher Brennweite.
Beim Handy ist das ganz extrem,
da der Sensor so klein ist und er nur einen Bruchteil des selben Bildes bei gleicher Brennweite zeigen würde.
Deswegen braucht ein Handy eine extrem weitwinklige Optik, wie zb. 4mm bei meinem, damit alles draufkommt.
Würde man dies mit einer Fullframe machen, sähe der entsprechende Auschnitt den man bräuchte,
um auf das Handybild zu kommen, genauso aus.
Hier mal ein Foto von gerade, mit meinem Handy bei f2.2 und 4mm, von wegen viel Tiefenschärfe!
Alles eine Frage der Brennweite und Entfernung zum Objekt, aber nicht der Sensorgröße!!
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
Sensorgröße hat nichts mit Tiefenschärfe zu tun!
Tiefenschärfe ändert sich nur durch Brennweite und Entfernung zum Objekt.
Das man denkt, das ein kleiner Sensor in der Tiefe Grundsätzlich schärfer ist,
ist ein Trugschluß und ergibt sich aus dem kleineren Auschnitt bei gleicher Brennweite.
Beim Handy ist das ganz extrem,
da der Sensor so klein ist und er nur einen Bruchteil des selben Bildes bei gleicher Brennweite zeigen würde.
Deswegen braucht ein Handy eine extrem weitwinklige Optik, wie zb. 4mm bei meinem, damit alles draufkommt.
Würde man dies mit einer Fullframe machen, sähe der entsprechende Auschnitt den man bräuchte,
um auf das Handybild zu kommen, genauso aus.
Hier mal ein Foto von gerade, mit meinem Handy bei f2.2 und 4mm, von wegen viel Tiefenschärfe!
Alles eine Frage der Brennweite und Entfernung zum Objekt, aber nicht der Sensorgröße!!
Du wirst uns sicher gleich mit einem passenden Full Frame Bild zur Untermauerung dieser bahnbrechenden Erkenntnis beglücken.
Blende 2.2, wird mit Spannung erwartet ;)
Antwort von klusterdegenerierung:
Wenn Du mir eine 4mm Optik leihst, kann ich das machen.
Antwort von Huitzilopochtli:
ruhig blut.
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
Wenn Du mir eine 4mm Optik leihst, kann ich das machen.
Daran sieht man mal, wie theoretisch ein 1 zu 1 Brennweitenvergleich ist.
Antwort von Roland Schulz:
Guido hat ja nicht ganz unrecht, zudem sieht man auf nem 1“ auch wo der Sweet Spot liegt, also wo Diffraktion auftritt und deshalb machen ND Filter auch auf der Mavic 2 Pro Sinn - wenn denn mal welche verfügbar werden!!
Im 28mm FOV Modus ist das aufgrund von Binning und nur durchschnittlicher Auflösung (ca. 2,5K) aber doch nicht gaaanz so wichtig.
Antwort von Jan:
klusterdegenerierung hat geschrieben:
Sensorgröße hat nichts mit Tiefenschärfe zu tun!
Der Satz allein ist so komplett falsch. Motorleistung hat nichts mit Hubraum und den PS zu tun, wäre dann eine ähnliche Aussage. Einzig die theoretische Aussage dass die genaue Brennweite von beispielsweise 4mm und der gleichen Blende, die gleiche Schärfentiefe ergibt. Nur hast du keine realen 4 mm Brennweite beim Handy, du hast ja auch kein Fischaugenobjektiv mit extremen Weitwinkel, was 4mm Brennweite entsprechen würde, sondern dein Handy zeigt uns einen Weitwinkel, der 28mm an einer Vollformatkamera entspricht. Nimmst du dann eine Vollformatkamera mit 28mm Brennweite, dann siehst du bei gleicher Entfernung genau den gleichen Ausschnitt des Objekts wie mit dem Handy. Und hast in dem Fall mit der Vollformatkamera deutlich weniger Tiefenschärfe mit der gleichen Blende. Selbst der Wikipedia-Artikel ist so nicht zu 100% korrekt, weil jeder der eine Kleinsensoren-Kamera besitzt mit 3,4 oder 5mm Originalbrennweite, dass eben nicht bei der Aufnahme 3,4,5mm Brennweite einer Kleinbildkamera entspricht. Bei Handys oder allgemein bei Kleinsensoren-Kameras kann man nur etwas deutlich freistellen, wenn man sehr nahe an das Objekt rangeht und die Blende komplett öffnet, oder weit ranzoomt. Geh mal 50cm weg und ich gehe mit meiner RX100 mal 50 cm weg, wir haben den gleichen Bildwinkel, gehen also gleich nahe ran und haben den gleichen Bildausschnitt und ich habe eine geringe Tiefenschärfe und bei dir ist alles scharf.
 |
Antwort von klusterdegenerierung:
Jan hat geschrieben:
klusterdegenerierung hat geschrieben:
Sensorgröße hat nichts mit Tiefenschärfe zu tun!
Der Satz allein ist so komplett falsch.
Einfach mal ab der stelle "bis zum Ende" anschauen und dann am besten selber probieren!
Klar, da bleibt einem dann selber die Spucke weg, aber dann ist man endlich mal durch mit dem Ammenmärchen!!
https://youtu.be/ZUbU6exONdU?t=360
Antwort von klusterdegenerierung:
klusterdegenerierung hat geschrieben:
Jan hat geschrieben:
Der Satz allein ist so komplett falsch.
EInfach mal b der stelle bis zum Ende anschauen und dann am besten selber probieren!
Klar, da bleibt einem dann selber die Spucke weg, aber dann ist man endlich mal durch mit dem Ammenmärchen!!
https://youtu.be/ZUbU6exONdU?t=360
Antwort von Auf Achse:
Zu sagen daß das nichts mit der Sensorgröße zu tun hat wär aber auch falsch.
Korrekt wäre somit: Augrund der anderen Sensorgröße muß für den selben Bildausschnitt eine andere Brennweite (oder Entfernung zum Objekt) gewählt werden was ein anderes DoF zur Folge hat.
Grüße,
Auf Achse
Antwort von klusterdegenerierung:
Kannst Du das mal etwas konkretisieren und Bildlich belegen,
denn hier sind inkl. mir so einige die wechseln wollen und da ich mit der Air eigentlich ganz zufrieden,
wäre es ja dämlich wenn sie nichts taugt.
Auf der anderen Seite kann ich Deine Aussage nicht wirklich verstehen, denn wenn man Jans footage sieht,
sieht die ehr besser als die P4P aus!!
Antwort von klusterdegenerierung:
"Auf Achse" hat geschrieben:
Zu sagen daß das nichts mit der Sensorgröße zu tun hat wär aber auch falsch.
Korrekt wäre somit: Augrund der anderen Sensorgröße muß für den selben Bildausschnitt eine andere Brennweite (oder Entfernung zum Objekt) gewählt werden was ein anderes DoF zur Folge hat.
Grüße,
Auf Achse
Ja, aber Das wäre eben die Sicht von der anderen Seite.
Ich wollte ja nur dokumentieren, das wenn alles gleich bleibt,
sich bei der Sensorgrößenänderung, lediglich der Ausschnitt ändert und nicht die Tiefenschärfe.
Aber hier schreien ja alle immer ganz laut nein das stimmt nicht Sensor Größe ändert die Tiefenschärfe!!!!
Ja, aber nur dann, wenn man dabei eine andere Brennweite draufschraubt oder sich vom Objekt entfernt!
Antwort von Auf Achse:
Sicher ändert die Sensorgröße die Tiefenschärfe :-) Denn wenn man den selben Bildausschnitt behalten will (und das will ja man meistens) ändert sich damit automatisch die Tiefenschärfe. Das ganze kann man nicht voneinand getrennt sehen, du hast es aber von der anderen Seite beleuchtet.
Jedenfalls ein interessanter Aspekt den du aufgeworfen hast, danke!
Grüße,
Auf Achse
Antwort von klusterdegenerierung:
Ich hab mir den Frägel mal ganz reingezogen und gebe ihm, wenn ich den Chart sehe, natürlich Recht,
da ist ja meine Air mit 18 sogar noch besser, aber wenn er seine Superbowl Pflanze fokussiert,
finde ich die 4K der 2Pro sogar noch besser als die P4P, denn das sieht nicht unschärfer aus, sondern homogener!!
Wer lange auf dem 2Pro Bild verweilt und zum P4P wechselt, dem muß unweigerlich auffallen,
das es sich hier um eine neuere Technik und Qualität handelt!
Es sieht eher aus wie der Unterschied zwischen 420 und 422,
bei dem der Kantenabriss durch das subsampling homogener ausfällt und das Bild gleichzeitig weich und scharf erscheinen läßt!
Bei meiner Air habe ich ähnliches bemerkt als ich die Settings ausgetestet habe,
die verhalten sich nämlich ganz anders als damals bei der P3P. Ich vermute hier ein anderes prozessing,
zumindest wenn ich mir die realworld Aufnahmen ansehe.
Ich bin jetzt noch verwirrter, da meine Air da echt nicht schlecht bei wegkommt,
dies tut sie aber leider nur unter besten Drehbedingungen! Wird es zu dunkel, ist Schicht.
Allerdings konnte ich bislang diverse Bezahljobs damit abreissen und alle Seiten waren zufrieden.
Keine leichte Entscheidung, denn so viel flieg ich Abends nicht, timelapse brauch ich nicht,
meine Funkaussetzer habe ich überwunden (komisch eigentlich das ich dies ständig erwähne,
mich aber niemand darauf auch nur einmal anspricht, obwohl dies doch das größte Kriterium an dieser Drohne war!)
und die Fotoauflösung, ja gut, aber so viel Fotos mach ich auch nicht; schwierig! :-))
Antwort von Roland Schulz:
...also wie Du das immer schaffst aus YT Videos nen Unterschied „wie“ 4:2:0 zu 4:2:2 abzuleiten ;-), das ist immer 4:2:0 und Deine a7M3 sowie FS700 ebenfalls, auch wenn der Tommi vielleicht 4:2:2 zu speichern versucht haste zumindest ohne Downscale aus dem nativ auflösenden Bayersensor niemals nie „richtiges“ 4:2:2!
Zurück zum Thema: die P4 Pro macht a) die höhere Auflösung und b) würde ich nach meinen bisher recht einfachen Vergleichen sagen das rauschfreiere Bild im Weitwinkel - mag auch daran liegen dass es nach dem echten Downscale der P4p feiner und damit weniger auffällig wird.
Wenn der Horst in dem Video bei der P4p tatsächlich Schärfe +1 auch draußen gesetzt hat ist das klar dass das alles „zu scharf“ wirkt!
Am Ende zählt für mich aber die Kompaktheit und das bessere Flugverhalten doch mehr.
Ganz ehrlich, Stand heute würde die P4p bei mir doch gehen weil ich auch am 42mm Modus Freude gefunden habe und am Ende eher auf das Stück Auflösung (bei HQ) verzichten würde.
Gäbe es den 42mm Modus aber nicht wäre die M2P für mich Geschichte - mit dem „derzeitigen“ 28mm Matsch würde ich nicht leben wollen! Davon kann man dann wirklich nix mehr mit Bildern der a7M3 zusammenschneiden.
Kenne die Air tatsächlich zu wenig, der ~1,6 fache Pixelpitch der M2P sollte im HQ Mode aber schon mehr DR und SNR rauslassen - wenn man auf WW verzichten kann.
Der Encoder der M2P ist auch wirklich gut, auch da kann der P4 Encoder nicht mithalten, da sieht man immer noch etwas I-Frame Gehampel wogegen der Ambarella H3 richtig glänzt vorrausgesetzt der Rechner kann HEVC main10 verarbeiten.
Mit dem I-Frame Geflimmer der P3p hat das alles nichts mehr zu tun wobei man sich das auch immer noch halbwegs angucken kann wenn man nicht sooo genau hinsieht - war besser als nix ;-)!
Antwort von klusterdegenerierung:
"Roland Schulz" hat geschrieben:
...also wie Du das immer schaffst aus YT Videos nen Unterschied „wie“ 4:2:0 zu 4:2:2 abzuleiten ;-), das ist immer 4:2:0 und Deine a7M3 sowie FS700 ebenfalls, auch wenn der Tommi vielleicht 4:2:2 zu speichern versucht haste zumindest ohne Downscale aus dem nativ auflösenden Bayersensor niemals nie „richtiges“ 4:2:2!
Sagmal Roland, mal im Ernst, manchmal denke ich Du kannst weder Lesen noch sehen!!
Denn ich habe den Verglaich gemacht, das es "ähnlich ist" wie bei 422 zu 420,
weil bei 422 ist die Kantenschärfe nicht so hart und homogener.
Bei Der P4P sieht es eben viel schärfe und schon zu scharf und damit "defekter" aus, also eher 420.
Du kannst Dir bei Wiki ja man Color Subsampling Beispiele ansehen und die das kann man auch an YT Auflösungen sehen.
Das gerade Du so ein albernes Fass damit aufmachst, finde ich schon richtig putzig,
Da Du Dich doch hier um Kopf und Kragen laberst, wenn es um irgendwelche plastischen Vergleiche geht, seien sie noch so krude!
Was meine A7 und FS700 mit der Air und dem subsampling Vergleich zu tun haben weißt wohl nur Du!
Antwort von Roland Schulz:
Na ja, bei der Farbunterabtastung hast Du immer noch ein paar Defizite.
Kein YT Video zeigt nativ überhaupt 4:2:2, weiterhin behaupte ich dass Du überhaupt noch nie echtes 4:2:2 Video gesehen hast, von daher wird eine Beurteilung nach „sieht aus wie...“ recht schwierig.
4:2:0 zeigt zudem weniger Auflösung (!!) als 4:2:2, nämlich vertikal im Chromakanal.
Mit „Schärfe“ hat das auch alles nichts zu tun!
Die P4pro zeigt durchs Oversampling einfach viel mehr Details und eine Nachschärfung von +1 wirkt bei dem Ding einfach zu stark.
Ich habe beide Maschinen und weiß wovon ich rede, mit „0“ flackert da schon alles!
Bei Farbunterabtastung sitzt mein Kragen auch weiterhin sehr komfortabel und korrekt, da können wir gerne auch noch mal ne Runde 4:2:0 UHD wird 4:4:4 FHD durchgehen.
Ist immer noch ganz einfache Rechnerei, keine komplizierte Mathematik ;-)!
Antwort von klusterdegenerierung:
"Roland Schulz" hat geschrieben:
Na ja, bei der Farbunterabtastung hast Du immer noch ein paar Defizite.
Kein YT Video zeigt nativ überhaupt 4:2:2, weiterhin behaupte ich dass Du überhaupt noch nie echtes 4:2:2 Video gesehen hast, von daher wird eine Beurteilung nach „sieht aus wie...“ recht schwierig.
4:2:0 zeigt zudem weniger Auflösung (!!) als 4:2:2, nämlich vertikal im Chromakanal.
Mit „Schärfe“ hat das auch alles nichts zu tun!
Die P4pro zeigt durchs Oversampling einfach viel mehr Details und eine Nachschärfung von +1 wirkt bei dem Ding einfach zu stark.
Ich habe beide Maschinen und weiß wovon ich rede, mit „0“ flackert da schon alles!
Bei Farbunterabtastung sitzt mein Kragen auch weiterhin sehr komfortabel und korrekt, da können wir gerne auch noch mal ne Runde 4:2:0 UHD wird 4:4:4 FHD durchgehen.
Ist immer noch ganz einfache Rechnerei, keine komplizierte Mathematik ;-)!
Sag mal Roland, ist das für Dich echt sooo schwer zu verstehen?
Ich habe nicht gesagt das man dort eine Unterabtastung sieht, sondern das footage verhält sich so zu einander,
wie 420 zu 422, nicht mehr nicht weniger, nur ein Vergleich und ein Beispiel wie unterschiedlich das Material ist.
Im übrigen ist Kompression immer proportional,
wer also hochwertiges 422 Material und mageres 420 Material bei YT hochlädt,
der wird sehen, das der Unterschied trotz minderwertiger YT Kompression vorhanden ist.
Warum sollten wir uns sonst überhaupt solche Videos rein ziehn?
Dann wären doch all die ganzen Beispiele hier und im Pocket Thread dummes Zeug!
Wenn ich aber schon hier gut erkennen kann,
das mir das P4P schon überschärft vorkommt und ich das 2Pro Material homogener und ausgereifter finde,
dann wird es ja in Reallife noch exakter sein.
Ich fand zumindest in den Realtest die 2Pro besser als die P4P.
Antwort von Roland Schulz:
Guido, das alles hat nichts mit „4:2:0 sieht „schlechter“ aus als 4:2:2“ zu tun, es verhält sich auch nicht so zueinander (4:2:0 ist „weicher“ im vert. Chromakanal, sonst nichts!) und auch die BMD Pocket irgendwas liefert in 4K KEIN echtes 4:2:2, die liefert wie die meisten Bayercams nichtmal echtes 4:2:0!! 4:2:2 ist bei den allermeisten Kameras ein noch größerer Beschiss als „4K“, stammt eigentlich noch aus der Interlace Zeit und machte dort Sinn weil sehr viele 3 Chip Kameras unterwegs waren die das tatsächlich schaffen konnten.
Heute wäre echtes (!) 4:4:4 ein Argument gegen 4:2:0. Auf 4:2:2 als „Qualitätsmerkmal“ fallen nur diejenigen rein die‘s nicht verstehen.
Du kannst bei YT auch 4:2:2 hochladen, wie immer das auch gehen „sollte“, was Du dann kriegst ist immer 4:2:0 ohne jeden Unterschied des Uploads!
Was einen Unterschied macht ist ein Upload in UHD statt FHD, auch wenn nur FHD enthalten ist. Das liegt aber an der YT Kompression und nicht an der Sache an sich.
Die FullFOV Auflösung der M2P entspricht nicht der im Manual wie in den FAQs angepriesenen 4K „resolution“ - wir erhalten lediglich UHD Bildgröße mit etwas über FHD Auflösung.
Die P4pro kommt dagegen im Lumakanal schon sehr nah an UHD dran, da würde niemand meckern denke ich.
Überschärftes Footage sieht zudem allermeist „nervös“ und „schlecht“ aus.
Der Autor des Videos wollte nur zeigen dass die P4pro einfach wesentlich mehr Details liefern kann, und da ist eine zusätzliche Nachschärfung schon produktiv da man auf der M2P schärfen kann was das Zeug hergibt, hier nie annähernd die Details der P4pro erhält weil die Details die nicht da sind auch nicht sichtbare gemacht werden können.
Keiner sagt dass man das so „schön“ finden soll.
Antwort von klusterdegenerierung:
"Roland Schulz" hat geschrieben:
Guido, das alles hat nichts mit „4:2:0 sieht „schlechter“ aus als 4:2:2“ zu tun, es verhält sich auch nicht so zueinander (4:2:0 ist „weicher“ im vert. Chromakanal, sonst nichts!) und auch die BMD Pocket irgendwas liefert in 4K KEIN echtes 4:2:2, die liefert wie die meisten Bayercams nichtmal echtes 4:2:0!! 4:2:2 ist bei den allermeisten Kameras ein noch größerer Beschiss als „4K“, stammt eigentlich noch aus der Interlace Zeit und machte dort Sinn weil sehr viele 3 Chip Kameras unterwegs waren die das tatsächlich schaffen konnten.
Heute wäre echtes (!) 4:4:4 ein Argument gegen 4:2:0. Auf 4:2:2 als „Qualitätsmerkmal“ fallen nur diejenigen rein die‘s nicht verstehen.
Du kannst bei YT auch 4:2:2 hochladen, wie immer das auch gehen „sollte“, was Du dann kriegst ist immer 4:2:0 ohne jeden Unterschied des Uploads!
Was einen Unterschied macht ist ein Upload in UHD statt FHD, auch wenn nur FHD enthalten ist. Das liegt aber an der YT Kompression und nicht an der Sache an sich.
Die FullFOV Auflösung der M2P entspricht nicht der im Manual wie in den FAQs angepriesenen 4K „resolution“ - wir erhalten lediglich UHD Bildgröße mit etwas über FHD Auflösung.
Die P4pro kommt dagegen im Lumakanal schon sehr nah an UHD dran, da würde niemand meckern denke ich.
Überschärftes Footage sieht zudem allermeist „nervös“ und „schlecht“ aus.
Der Autor des Videos wollte nur zeigen dass die P4pro einfach wesentlich mehr Details liefern kann, und da ist eine zusätzliche Nachschärfung schon produktiv da man auf der M2P schärfen kann was das Zeug hergibt, hier nie annähernd die Details der P4pro erhält weil die Details die nicht da sind auch nicht sichtbare gemacht werden können.
Keiner sagt dass man das so „schön“ finden soll.
Roland, ich versuche es jetzt noch EINMAL!
Ich schrieb nicht, das man einen 420 zu 422 Unterschied sehen kann,
sondern der Unterschied in der Bildanmutung zwischen P4P & 2Pro ist ähnlich wie der Unterschied zwischen 420 & 422,
da eine überschärfte 420 Kante immer unsauberer und agressiver ausschaut, als eine propere 422 oder 444 Kante.
So ähnlich ist es bei den Bilden,
die P4P schärfe an den Kanten ist zu aggressive und überschärft und sieht damit destruierter, wie eine Treppe aus,
nicht wie eine homogene Rundung.
Klar Du kannst auch stumpf sagen das ist Unscharf, das tust Du ja bei den Canon C Cams ja auch!
Antwort von Jan:
Der Thread mutiert so oder so zur Lachnummer. Deshalb meide ich immer mehr diese Foren wie Slashcam oder das DSLR-Forum, wo wirre Vergleiche angestellt werden, aber die meisten User überhaupt keine Grundkenntnisse besitzen und irgendwo etwas aufgeschnappt haben. Hier wird erzählt, dass ohne App oder spezielle Funktion per Software ein Handy mit einem kleinen 1/2,3" Sensor mit 75° Weitwinkel und einer Lichtstärke von F1,8 die gleiche Schärfentiefe wie eine Vollformatkamera mit auch einem Objektive mit 75° Bildwinkel (28 mm) auf die gleiche Entfernung haben soll, die Abbildung des Objekts ist also gleich. Selbst jeder der mit Fotografie angefangen hat, kann genau sehr schnell das Gegentteil beweisen und hat das auch klar gesehen bei einem Vergleich. Deswegen fotografiert auch kein User mit großem Portraitwunsch mit einer Kamera mit einem kleinen Sensor, weil er weiß, dass deutliches Schärfenuntiefespiel mit den kleinen Sensoren nur auf sehr nahe Distanz oder auf nahe Distanz mit Gebrauch von großen Brennweiten möglich ist, dann ist das Hauptobjekt aber klein. Wenn ein Mensch komplett freigestellt werden soll, ist keine Kamera mit kleinem Sensor dafür dazu fähig, egal ob man mit einer Kamera mit einem großen Brennweitenbereich von 24-900mm fotografiert. Du kannst maximal den Kopf allein freistellen.
 |
Antwort von klusterdegenerierung:
Tut mir arg leid dass das mangelde Lesevermögen Dir die Lust an Foren versaut!!
Denn wenn Du lesen könntest, hättest Du verstanden, das es hier nicht umdazudichten von Fakten geht, sondern um einszueins Faktoren!
Wenn Du des Lesens also mächtig gewesen wärst, hättest Du "vielleicht" verstanden,
das es nicht um Equivalenzen geht, sondern um 1:1 Werte.
Mein Handy hat eine 4mm Optik und wenn ich an meiner Vollformat Cam ein 4mm Objektiv schraube, bekomme ich nach einem Centercrop mit gleichen Bildausschnitt,
die selbe Anmutung und Tiefenschärfe!!
Von 28mm hat hier niemand geredet und das Du Dich mit Arroganz und Überheblichkeit wesentlich besser auskennst, beweißt Du uns in all Deinen posts,
ich bin dagegen aber resistent,
weil ich die Test hier schon mit zig Sensorgrößen und Brennweiten durch habe.
Antwort von Roland Schulz:
klusterdegenerierung hat geschrieben:
Ich schrieb nicht, das man einen 420 zu 422 Unterschied sehen kann,
sondern der Unterschied in der Bildanmutung zwischen P4P & 2Pro ist ähnlich wie der Unterschied zwischen 420 & 422,
da eine überschärfte 420 Kante immer unsauberer und agressiver ausschaut, als eine propere 422 oder 444 Kante.
Du musst mal selbst lesen was Du da schreibst: man sieht keinen 420 zu 422 Unterschied, sondern einen Unterschied ... der ähnlich ist wie der Unterschied von 420 zu 422.
Gut... dann siehst Du das eben so.
Antwort von iasi:
Jan hat geschrieben:
Der Thread mutiert so oder so zur Lachnummer. Deshalb meide ich immer mehr diese Foren wie Slashcam oder das DSLR-Forum, wo wirre Vergleiche angestellt werden, aber die meisten User überhaupt keine Grundkenntnisse besitzen und irgendwo etwas aufgeschnappt haben. Hier wird erzählt, dass ohne App oder spezielle Funktion per Software ein Handy mit einem kleinen 1/2,3" Sensor mit 75° Weitwinkel und ...
aha ... scheint, du gehörst auch zu den "meisten Usern".
Und scheinbar bleibst du deinem Vorsatz nicht treu: "Deshalb meide ich ... diese Foren"
Antwort von Jan:
iasi hat geschrieben:
Jan hat geschrieben:
Der Thread mutiert so oder so zur Lachnummer. Deshalb meide ich immer mehr diese Foren wie Slashcam oder das DSLR-Forum, wo wirre Vergleiche angestellt werden, aber die meisten User überhaupt keine Grundkenntnisse besitzen und irgendwo etwas aufgeschnappt haben. Hier wird erzählt, dass ohne App oder spezielle Funktion per Software ein Handy mit einem kleinen 1/2,3" Sensor mit 75° Weitwinkel und ...
aha ... scheint, du gehörst auch zu den "meisten Usern".
Und scheinbar bleibst du deinem Vorsatz nicht treu: "Deshalb meide ich ... diese Foren"
Ich bin kaum noch online hier und schreibe recht wenig aktuell. Früher war ich hier mal Nummer Drei der Nutzerliste nach Beiträgen. Es gibt wenige User wie Markus damals, die einfach Ahnung hatten was sie von sich geben und das sehr sachlich darlegten. Aktuell werden hier extreme Freaktests veranstaltet, man merkt immer wieder, dass viele Nutzer da irgendwelche Begriffe von sich geben, aber nicht wissen, was sie da sagen. Das geht jetzt nicht gegen einen User speziell, dass ist hier schon Standard. Genau das Niveau kann man auch in anderen Foren wie dem DSLR-Forum tagtäglich lesen, da schwätzt die Hälfte dumm rum, etwas da aufgeschnappt, etwas dort aufgeschnappt, aber im Forum groß rumtönen. Das erinnert mich immer an einen Ex-Mitarbeiter von mir, der behauptet hat, nur mit Vollformatkameras macht man gute Bilder. Er ist damit einen wirklichen Profi richtig auf die Nerven gegangen. Der hat den Spieß dann umgedreht und sich eine billige Einsteiger DSLR genommen und dem Freak eine Vollformat in die Hand gedrückt, dann gab es ein Outdoor-Portraitshoting. Nach einer Stunde und einer kurzen Auswertung hat man sehr schnell gesehen, wer die besseren Bilder macht. Wer keinen großen Plan hat, bekommt auch aus der besten Kamera nur Murks raus, egal on 10 Bit, 14 Bit oder 4:4:4. Ein richtiger Profi-Spruch ist immer, man nimmt das Gerät nur als Werkzeug wahr und mach keine Philosophie daraus.
 |
Antwort von Jan:
klusterdegenerierung hat geschrieben:
Tut mir arg leid dass das mangelde Lesevermögen Dir die Lust an Foren versaut!!
Denn wenn Du lesen könntest, hättest Du verstanden, das es hier nicht umdazudichten von Fakten geht, sondern um einszueins Faktoren!
Wenn Du des Lesens also mächtig gewesen wärst, hättest Du "vielleicht" verstanden,
das es nicht um Equivalenzen geht, sondern um 1:1 Werte.
Mein Handy hat eine 4mm Optik und wenn ich an meiner Vollformat Cam ein 4mm Objektiv schraube, bekomme ich nach einem Centercrop mit gleichen Bildausschnitt,
die selbe Anmutung und Tiefenschärfe!!
Von 28mm hat hier niemand geredet und das Du Dich mit Arroganz und Überheblichkeit wesentlich besser auskennst, beweißt Du uns in all Deinen posts,
ich bin dagegen aber resistent,
weil ich die Test hier schon mit zig Sensorgrößen und Brennweiten durch habe.
Du hast aber keine wirklichen 4mm auf Kleinbild gerechnet, sondern 28 mm Brennweite, dass sieht man am Bildwinkel deines Handys. Hättest du 4mm Brennweite, dann würde man ein deutliches Fischaugenobjektiv mit 180°sichten. Nur die Originalbrennweite deines Objektivs liegt bei 4mm, aber der Sensor ist im Faktor 15 kleiner (Crop mal 7), wie der einer Vollformatkamera. Das erinnert mich an meine Kunden, die zum ersten Mal eine APS-C Kamera vor sich sahen und sich riesig freuten, dass die mit 18mm anfängt, weil sie da ja mehr Weitwinkel benutzen können. Dann kam die böse Überraschung, dass die 18 mm an einer APS-C Kamera wie 28mm bei ihrer alten Filmkamera wirken vom Bildwinkel her. Das Hauptproblem besteht aber bei dir darin, dass du die Kameras daheim hast und alles selbst und schnell ausprobieren könntest. Also nimm einfach ein Handy, benutze die Offenblende und gehe knapp einen Meter weg vom Hauptobjekt. Dann wiederhole das mit einer Vollformatkamera, auch mit Offenblende, also meinetwegen mit F 2und gehe so nahe an das objekt ran, bis du den Gegenstand genauso voll drauf hast, wie beim Handy. Beim Handy wird alles scharf sein bei der Entfernung, das schuldet dir der kleine Sensor. Aber man sollte bitte beim Handy die Effektprogramme für Portrait deaktivieren, das geschieht dann nämlich per Software, nicht weil es der Sensor und die Optik physikalisch hinbekommen würden. Ich hoffe du hast jetzt verstanden, dass dein Objektiv am Handy einer 28mm Optik bei Kleinbild entspricht und auch genau den gleichen Bildwinkel auf dem Bildschirm anzeigt.
Oder man nimmt den Dofmaster, gebe 1/2" Sensor ein, 60 cm Reichweite vom Handy zum Objekt, F2 und 4 mm Brennweite und da sagt er, dass alles ab 27cm vom Hauptobjekt scharf sein wird. Im anderen Tab wählt man eine Vollformat, meinetwegen die EOS 5MK III, dort 28mm und auch F2 und gibt wie beim Handy eine Entfernung von 60cm an. Bei der Volformat ist nicht wie beim Handy alles ab 27cm scharf, sondern nur 5,26cm, nämlich alles von 57,5cm bis zu 62,7 cm.
Damit kann man auch das Quatschvideo (MFT und Vollformat sollen den gleichen Schärfentiefebereich haben) schnell widerlegen. Gib dort eine MFT Kamera an, 50 mm Brennweite (das entspricht 100mm bei Kleinbild), beide Blende 2,8 und dann die gleiche Motiventfernung, gern fünf Meter und bei der Vollformat alles das Gleiche, außer 100mm Brennweiten, wir wollen ja den gleichen Ausschnitt haben. Der Schärfebereich ist immer die Hälfte von MFT, also 85 cm zu 42cm bei 5 Meter, wie auch 30 cm zu 15 cm bei drei Meter Entfernung zum Objekt. Was der User dort leider nicht mitbekommen hat, man kann mit MFT sehr wohl etwas freistellen, aber eben nicht gleich gut wie bei einer Vollformat/Kleinbildkamera mit gleicher Blende. In seinem Video sieht alles unscharf aus, weil er eben keine genauen Testbilder gemacht hat. Mit der Vollformat könnte er simulieren, dass eben die Nase scharf ist und die Ohren schon unscharf sein können, was bei Vollformat schnell passieren kann, dazu muss der MFT-Filmer sehr lichstarke Objektive nehmen und nah dran gehen oder mit großer Brennweite arbeiten. Was natürlich richtig ist, dass bei gleichem Sensor beim Gebrauch einer 100mm Optik bei zwei Meter Entfernung, die gleiche Schärfentiefe zu sehen ist, wie beim Gebrauch einer 50mm Optik bei einem Meter Entfernung zum Objekt. Und so ein User bekommt Beifall bei seinem Video, schlimm dass solche selbsternannten Experten nicht mal die Grundkenntnisse der Physik verstehen.
http://www.dofmaster.com/dofjs.html
Antwort von klusterdegenerierung:
Jan hat geschrieben:
Du hast aber keine wirklichen 4mm auf Kleinbild gerechnet, sondern 28 mm Brennweite, dass sieht man am Bildwinkel deines Handys.
Jan, da hast Du aber den Cropfaktor vergessen!
Klar hast Du Recht, wenn es einer 28mm im Bildkreis bezogen auf FF entspricht,
aber in einem Handy werkelt nun mal kein FF Sensor und nicht mal ein 1:1 wie in der Mavic,
sondern ein 1:3,2".
Jetzt nehme mal eine echte 28mm Optik und packe sie direkt vor Deinem Handychip,
da wird aber ein hübscher kleiner Ausschnitt meiner Tasse rauskommen.
Weil Sensorfläche so klein ist, muss die Optik natürlich so weitwinklig sein,
bei der alten Pocket war es ja schon um das 2x.
4mm kommt also genau hin und wenn ich diese 4mm an FF schraube und den gleichen Aussnitt wähle, entspricht dies genau dem Bild des Handys.
Es verstehen die meißten falsch, weil sie Sensorgröße immer im Equivalent mit Optik sehen,
denn klar, eine Vollformat sieht mit 50mm nun mal ganz anders aus als eine APS-C mit 35mm,
aber ein Vollformat mit 50mm & eine APS-C mit 50mm sind exakt gleich,
nur der Ausschnitt varriert, nicht die Tiefenschärfe.
Du kannst ruhig meinen das ich von dummsdorf bin, aber im Gegensatz zu vielen anderen hier,
bin ich noch mit 18x24 & 9x12 Inch Großbildkameras groß geworden,
da mußten wir die Tiefenschärfe noch Anhand der 1/3:2/3 Formel und Scheimpflug ausrechnen!
Vielleicht bist Du in den Foren einfach zu vorschnell mit Deinen Ansichten was die Dummheit angeht, obwohl beim DSLR Forum könntest Du Recht haben! ;-)
Antwort von carstenkurz:
Ich fände es gut, wenn Du deinen DOF/Sensorgrößen-Kreuzzug in passenden Forumunterbereichen und unter angemessenen Betreffs führen könntest, statt jeden x-beleibigen Thread damit vollzukacken. Nebenbei haben wir alles, was Du dazu zu sagen hast schon mehrfach lesen müssen.
- Carsten
Antwort von klusterdegenerierung:
Was meinst Du wir mir eure ewig gleichen Threads mit dem immer gleichen theroretischen gesülze auf die nüße geht!
Übrigens, vorbildliche Wortwahl!
Antwort von Jan:
klusterdegenerierung hat geschrieben:
Jan hat geschrieben:
Du hast aber keine wirklichen 4mm auf Kleinbild gerechnet, sondern 28 mm Brennweite, dass sieht man am Bildwinkel deines Handys.
Jan, da hast Du aber den Cropfaktor vergessen!
Klar hast Du Recht, wenn es einer 28mm im Bildkreis bezogen auf FF entspricht,
aber in einem Handy werkelt nun mal kein FF Sensor und nicht mal ein 1:1 wie in der Mavic,
sondern ein 1:3,2".
Jetzt nehme mal eine echte 28mm Optik und packe sie direkt vor Deinem Handychip,
da wird aber ein hübscher kleiner Ausschnitt meiner Tasse rauskommen.
Weil Sensorfläche so klein ist, muss die Optik natürlich so weitwinklig sein,
bei der alten Pocket war es ja schon um das 2x.
4mm kommt also genau hin und wenn ich diese 4mm an FF schraube und den gleichen Aussnitt wähle, entspricht dies genau dem Bild des Handys.
Es verstehen die meißten falsch, weil sie Sensorgröße immer im Equivalent mit Optik sehen,
denn klar, eine Vollformat sieht mit 50mm nun mal ganz anders aus als eine APS-C mit 35mm,
aber ein Vollformat mit 50mm & eine APS-C mit 50mm sind exakt gleich,
nur der Ausschnitt varriert, nicht die Tiefenschärfe.
Du kannst ruhig meinen das ich von dummsdorf bin, aber im Gegensatz zu vielen anderen hier,
bin ich noch mit 18x24 & 9x12 Inch Großbildkameras groß geworden,
da mußten wir die Tiefenschärfe noch Anhand der 1/3:2/3 Formel und Scheimpflug ausrechnen!
Vielleicht bist Du in den Foren einfach zu vorschnell mit Deinen Ansichten was die Dummheit angeht, obwohl beim DSLR Forum könntest Du Recht haben! ;-)
Immer noch nicht verstanden, die Schärfentiefe wird geringer, je größer der Sensor ist. Nun habe ich dir schon den Link von Dofmaster gegeben und du bist immer noch nicht fähig, das selbst zu testen. Ich habe dir sogar vorher die Werte von Vollformat zu MFT gegeben, der Crop liegt bei Faktor Zwei, wie auch der Schärfentiefeunterschied - 30 cm zu 15 cm bei drei Meter Entfernung bei der gleichen Blende und dem gleichen Ausschnitt des Objekts (50mm bei MFT zu 100mm Vollformat) beim Beispiel von mir.)
Aber nehmen wir einfach dein Beispiel mit 50mm Vollformat und 35 mm bei APS-C, dazu nehmen wir die Blende F1,8 (oder jede Andere) bei beiden Kameras und eine Entfernung von drei Metern. Und was sehen wir da ? Die APS-C hat einen Schärfebereich von 1,40 Meter, die Vollformat einen von 1.07 Meter. Umso kleiner der Sensor ist, umso schwieriger kann man etwas freistellen, das weiß eigentlich jeder Hobbyfotograf. Dazu benötigt man keine speziellen Kenntnisse, man muss nur einfach mit den Kameras fotografieren, vom Handy bis zur Vollformatkamera.
Selbst wenn du mit 50mm bei beiden Kameras rechnen würdest (Obwohl der Bildwinkel ein komplett anderer wäre), ist der Tiefenschärfebereich nicht gleich. Nicht beim 1/3, oder beim 2/3, auch nicht beim MFT wie auch nicht bei Vollformat. Zudem ist das auch ziemlicher Quatsch, zeig mir mal ein Handy mit 50mm Originalbrennweite. Selbst wenn du mit 50mm arbeitest, einmal mit Vollformat und einmal mit MFT, bei Beiden mit F 1,8 und dann sogar die Entfernung anpasst, damit das Objekt gleich groß ist, also zwei Meter bei Vollformat und vier Meter bei MFT, selbst dann ist der Tiefenschärfebereich nicht gleich. Egal wie man es dreht, die Schärfentiefe ist bei gleicher Brennweite und Blende je nach Sensorgröße immer unterschiedlich.
Dazu gibt es auch eine lustige Geschichte, die öffentlichen rechtlichen professionellen Kameraleute hatten Anfangs große Probleme beim Schärfeziehen mit APS-C oder Vollformatkameras, weil sie oft vorher mit 2/3 Zoll Kameras gearbeitet haben (auch mit Blende F 1,8 oft) und nun mit APS-C Kameras oder Vollformatkameras mit ebenfalls F 1,8 und den gleichen Ausschnitten ziemlich viel unscharfe Bilder vollbracht haben und das obwohl sie Profis sind, vorher ist das ihnen nie passiert. Diese Aufnahmen waren im ZDF zu sehen und viele Hobbyuser lachten laut. Die Kameramänner kannten in dem Fall halt nicht die großen Sensoren und ihre Physik und hatten große Probleme beim Schärfeziehen.
http://www.dofmaster.com/dofjs.html
Wikipedia ist für viele Fachleute eine schlechte Datenbank, weil dort einfach viele Hobbyuser ihre Thesen aufstellen. Mir bestätigen immer wieder anerkannte Physiker, dass dort in den Beiträgen reichlich viele Fehler drin sind, nur erkennt das der normale User nicht. Auch nehmen die Hobbyuser bei ihren Berichten steinalte Quellen, die sich fast immer auf Kleinbild/Vollformat beziehen. In deinem geposteten Video mit der Panasonic sind wenigstens 15% der Nutzer mit Ahnung dabei, die wissen, dass die Schärfentiefe doppelt so groß ist, wie bei Vollformat und nicht gleich groß, wie der User behauptet hat.
Antwort von klusterdegenerierung:
Jan hat geschrieben:
Immer noch nicht verstanden, die Schärfentiefe wird geringer, je größer der Sensor ist. Nun habe ich dir schon den Link von Dofmaster gegeben und du bist immer noch nicht fähig, das selbst zu testen. Ich habe dir sogar vorher die Werte von Vollformat zu MFT gegeben, der Crop liegt bei Faktor Zwei, wie auch der Schärfentiefeunterschied - 30 cm zu 15 cm bei drei Meter Entfernung bei der gleichen Blende und dem gleichen Ausschnitt des Objekts (50mm bei MFT zu 100mm Vollformat) beim Beispiel von mir.)
Aber nehmen wir einfach dein Beispiel mit 50mm Vollformat und 35 mm bei APS-C, dazu nehmen wir die Blende F1,8 (oder jede Andere) bei beiden Kameras und eine Entfernung von drei Metern. Und was sehen wir da ? Die APS-C hat einen Schärfebereich von 1,40 Meter, die Vollformat einen von 1.07 Meter. Umso kleiner der Sensor ist, umso schwieriger kann man etwas freistellen, das weiß eigentlich jeder Hobbyfotograf. Dazu benötigt man keine speziellen Kenntnisse, man muss nur einfach mit den Kameras fotografieren, vom Handy bis zur Vollformatkamera.
Jan!!!!!!!
Wenn schon heißt es Tiefenschärfe,
denn es geht darum wie tief die Schärfe sich ausdehnt und nicht wie scharf die Tiefe ist!
Mach es doch endlich mal selber ohne Deinen dofmaster!
FF mit 50mm f4 und APS-C 50mm f4,
exakt gleicher Standpunkt und die Tiefenschärfe ist exakt die gleiche!
Und nochmal, klar, bringst Du sie beide ins gleiche Verhältnis,
also FF 50mm f4 & APS-C 35mm f4, haben beide eine unterschiedliche Tiefenschärfe.
Das Dir dies bislang nicht aufgefallen ist liegt daran,
das kaum ein FF Fotograf sein Foto auf APS-C cropt,
oder ein APS-C Fotograf die selbe Brennweite wie der FF Fotograf statt eines Equivalentens nutzt!
Probiere es doch endlich mal selbst, dann sind wir hier auch endlich mal durch damit.
Antwort von Jan:
50mm F4 APS-C und die gleiche Entfernung, hier mal zwei Meter:
Depth of field
Near limit 1.89 m
Far limit 2.13 m
Total 0.24 m
50mm F4 Vollformat und die gleiche Entfernung, hier mal zwei Meter:
Depth of field
Near limit 1.83 m
Far limit 2.21 m
Total 0.38 m
Wenn für dich 24 cm Schärfebereich gleich sind wie 38 cm, dann ist das so, aber deine Aussage ist halt einfach falsch.
Hör bitte auf mit deinem veralteten Asbach-Uraltwissen-Kleinbildfilm hier mitzureden, ich habe schon von Anfang an gemerkt, dass du Null Ahnung in der Materie der Sensorgrößen hast und angeblich mit Handysensoren super freistellen kannst. Es gibt auch kein 50mm Handyobjektiv.
Dazu noch der lächerliche Vergleich, hier 4:2:0 auf einem Bildschirm von 4:4:4 unterscheiden zu können.
Antwort von iasi:
klusterdegenerierung hat geschrieben:
Jan!!!!!!!
Wenn schon heißt es Tiefenschärfe,
denn es geht darum wie tief die Schärfe sich ausdehnt und nicht wie scharf die Tiefe ist!
Es heißt Schärfentiefe.
Umgangssprachlich werden Schärfentiefe und Tiefenschärfe synonym verwendet, auch aus sprachwissenschaftlicher Sicht haben beide Begriffe dieselbe Bedeutung. Eine Normung des Begriffs „Schärfentiefe“ fand erstmals 1970 statt (DIN 19 040 Blatt 3).
Antwort von iasi:
klusterdegenerierung hat geschrieben:
Mach es doch endlich mal selber ohne Deinen dofmaster!
FF mit 50mm f4 und APS-C 50mm f4,
exakt gleicher Standpunkt und die Tiefenschärfe ist exakt die gleiche!
Auch das stimmt so nicht ganz, denn der Zerstreuungskreisdurchmesser ist abhängig von der Sensorgröße.
Hier wäre die Schärfentiefe beim 50mm-Normalobjektiv am FF sogar größer als am 50mm-Portraittele an APS-C.
Antwort von klusterdegenerierung:
Jan hat geschrieben:
Dazu noch der lächerliche Vergleich, hier 4:2:0 auf einem Bildschirm von 4:4:4 unterscheiden zu können.
Jan, zum wiederholten male, habe ich
NICHT gesagt, das ich einen Unterschied zwischen 420 & 444 sehe,
SONDERN es ist
wie bei dem Unterschied zwischen 420 & 444!!!
Wenn Ihr nicht in der Lage seit diesen Unterschied lesen und verstehen zu können,
dann braucht Ihr euch über die Unterschiede zwischen FF & APS-C eh keine Gedanken mehr machen!!
Habe selten so oberflächliche und leseunfähige wie euch kennen gelernt!!!!!!!!!!!!!!!!
Antwort von Jan:
Kluster verfügt möglicherweise gutes Wissen der alten Zeit, wo meist mit einem gleichgroßen 24x36mm Film gearbeitet wurde, eben dem Kleinbildfilm. Nur hat sich mit den vielen Sensorgrößen eben viel verändert. Aber selbst der Wikipedia-Artikel wurde noch nicht angepasst, man müsset den eigentlich anpassen.
Antwort von Jan:
klusterdegenerierung hat geschrieben:
Jan hat geschrieben:
Dazu noch der lächerliche Vergleich, hier 4:2:0 auf einem Bildschirm von 4:4:4 unterscheiden zu können.
Jan, zum wiederholten male, habe ich NICHT gesagt, das ich einen Unterschied zwischen 420 & 444 sehe, SONDERN ES ist wie bei dem Unterschied zwischen 420 & 444!!!
Wenn Ihr nicht in der Lage seit diesen Unterschied lesen und verstehen zu können,
dann braucht Ihr euch über die Unterschiede zwischen FF & APS_C eh keine Gedanken mehr machen!!
Habe selten so oberflächliche und leseunfähige wie euch kennen gelernt!!!!!!!!!!!!!!!!
Das mag sein, dass ich es nicht richtig gelesen habe, beim Thema 420. Aber bei der Tiefenschärfe unterschiedlicher Sensorgrößen liegst du leider falsch, das ändert nichts daran. Das Thema brauchen wir auch nicht weiter vertiefen, sonst kommt nur der Admin mit dem Löschstift.
Antwort von klusterdegenerierung:
Jan hat geschrieben:
Kluster verfügt möglicherweise gutes Wissen der alten Zeit, wo meist mit einem gleichgroßen 24x36mm Film gearbeitet wurde, eben dem Kleinbildfilm. Nur hat sich mit den vielen Sensorgrößen eben viel verändert. Aber selbst der Wikipedia-Artikel wurde noch nicht angepasst, man müsset den eigentlich anpassen.
Jan verfügt über das gesamte Wissen im Universum, leider ist er aber nicht in der Lage Sachverhalte zu differenzieren und selber eigene Test zu machen!
Deswegen verlässt sich der junge Jan lieber auf Wiki Einträge die jeder editieren kann.
Mit eigenem Wissen aus Erfahrung kann der junge Jan ja selbst nicht mit aufwarten.
Antwort von klusterdegenerierung:
Jan hat geschrieben:
Aber bei der Tiefenschärfe unterschiedlicher Sensorgrößen liegst du leider falsch, das ändert nichts daran. Das Thema brauchen wir auch nicht weiter vertiefen, sonst kommt nur der Admin mit dem Löschstift.
Und schon einen Test gemacht statt Grafiken abzulesen?
Aber wenn Du keine eigene Cam hast, kann ich das für Dich diese Woche wohl erledigen!
Antwort von Jan:
Ich bin seit 20 Jahren Fachgeschäftsverkäufer und habe damit an allein einem Tag mehr Kameras in meiner Hand, wie du in deinem ganzen Leben. In dem Fall gehst du als klarer Verlierer vom Feld, wenn ich dich über jede Kamera die ich im Laden abfrage und du keine einzige technische Frage über die Kamera beantworten kannst, weil du dein Internet dann nicht zur Verfügung hast. Das Lächerliche dabei ist, dass jeder Anfänger das weiß, jeder der mit Kleinsensorenkameras oder Handys jemals fotografiert oder gefilmt hat, dass ein Freistellen nur schwer möglich ist und dann nur unter bestimmten Umständen, eben sehr nahe ran gehen, oder viel Brennweite verwenden, wenn das Gerät es kann, dann hilft auch eine Blende 2 nicht viel, wenn der Sensor klein ist.
Antwort von Roland Schulz:
iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Mach es doch endlich mal selber ohne Deinen dofmaster!
FF mit 50mm f4 und APS-C 50mm f4,
exakt gleicher Standpunkt und die Tiefenschärfe ist exakt die gleiche!
Auch das stimmt so nicht ganz, denn der Zerstreuungskreisdurchmesser ist abhängig von der Sensorgröße.
Hier wäre die Schärfentiefe beim 50mm-Normalobjektiv am FF sogar größer als am 50mm-Portraittele an APS-C.
...meine Güte ;-).
Wenn wir mal die 420 zu 444 Schiefentärfe beiseite lassen stimmt auch das oben geschriebene nicht denn der Zerstreuungskreis hat auch NIX mit der Sensorgröße zu tun (!), sondern mit dem Pixelpitch, also wie viele Sensel pro mm^2 auf dem Sensor sind oder wie fein das Medium (Film/-korn) auflöst.
Ich hatte hier vor kurzem schon mal dazu eingeworfen dass man die Auflösung des Sensors gegen a) unendlich oder b) den Pixelpitch identisch betrachten sollte...
...und dann hat Guido einfach Recht!!
Nehme ich eine 50mm Optik mit einer bestimmten Blende habe ich eine bestimmte TIEFENSCHÄRFE (!!) (nach DIN 19040 von 1979, mir ist keine weitere Aktualisierung/Nachfolge bekannt).
Wenn ich hier einen fokussierten Punkt in der Mitte betrachte und nah daneben ("intifisimal" funktioniert hier nicht ;-) ) einen mit einer anderen Entfernung, verhält sich das bei der gleichen Optik mit gleicher Blende und gleichem Zerstreuungskreis etc. IMMER(!!) gleich, da die Tiefenschärfe niemals nie NICHT vom BILDKREIS abhängig ist!!(!!!!) - PUNKT.
Es ist egal ob meine Optik 3mm oder 3000mm Bildkreis bei gleicher/m:
- Brennweite
- Blende
- Abstand zum Motiv
- Abstand zum Sensor/Film
- Zerstreuungskreis
beleuchtet!!
Kann man das so nachvollziehen??
Ja?! Prima!! Danke!!
...zurück zum M2P der neben dem Zubehör jetzt selbst auch teurer geworden ist - trotz miesem 28mm Modus!!
Antwort von Roland Schulz:
Jan hat geschrieben:
Ich bin seit 20 Jahren Fachgeschäftsverkäufer und habe damit an allein einem Tag mehr Kameras in meiner Hand, wie du in deinem ganzen Leben. In dem Fall gehst du als klarer Verlierer vom Feld, wenn ich dich über jede Kamera die ich im Laden abfrage und du keine einzige technische Frage über die Kamera beantworten kannst, weil du dein Internet dann nicht zur Verfügung hast. Das Lächerliche dabei ist, dass jeder Anfänger das weiß, jeder der mit Kleinsensorenkameras oder Handys jemals fotografiert oder gefilmt hat, dass ein Freistellen nur schwer möglich ist und dann nur unter bestimmten Umständen, eben sehr nahe ran gehen, oder viel Brennweite verwenden, wenn das Gerät es kann, dann hilft auch eine Blende 2 nicht viel, wenn der Sensor klein ist.
...20 Jahre alles falsch gemacht/verstanden, sorry, aber das ist ne ganz schwache Begründung!
Nimm mal nen DOF Rechner und trage den gleichen Zerstreuungskreis ein - dann kommt das gleiche raus - wenn nicht nimm nen richtig rechnenden, anderen Rechner ;-)!
Antwort von dienstag_01:
Jan hat geschrieben:
Ich bin seit 20 Jahren Fachgeschäftsverkäufer und habe damit an allein einem Tag mehr Kameras in meiner Hand, wie du in deinem ganzen Leben. In dem Fall gehst du als klarer Verlierer vom Feld, wenn ich dich über jede Kamera die ich im Laden abfrage und du keine einzige technische Frage über die Kamera beantworten kannst, weil du dein Internet dann nicht zur Verfügung hast. Das Lächerliche dabei ist, dass jeder Anfänger das weiß, jeder der mit Kleinsensorenkameras oder Handys jemals fotografiert oder gefilmt hat, dass ein Freistellen nur schwer möglich ist und dann nur unter bestimmten Umständen, eben sehr nahe ran gehen, oder viel Brennweite verwenden, wenn das Gerät es kann, dann hilft auch eine Blende 2 nicht viel, wenn der Sensor klein ist.
Die Schärfe - und damit die Schärfentiefe - hat neben anderen Faktoren auch etwas mit dem Pixelpitch zu tun.
Das heisst, das selbe Objektiv hat an
unterschiedlich großen Sensoren (mit dem
gleichen Pixelpitch) die
selbe Schärfentiefe.
Das heisst aber auch, das selbe Objektiv an
gleich großen Sensoren mit
unterschiedlichem Pixelpich hat
unterschiedliche Schärfentiefe.
Man sollte auch nach 20 Jahren noch bereit sein dazuzulernen.
Und man sollte die Contenance bewahren ;)
Antwort von Jan:
"Roland Schulz" hat geschrieben:
iasi hat geschrieben:
Auch das stimmt so nicht ganz, denn der Zerstreuungskreisdurchmesser ist abhängig von der Sensorgröße.
Hier wäre die Schärfentiefe beim 50mm-Normalobjektiv am FF sogar größer als am 50mm-Portraittele an APS-C.
...meine Güte ;-).
Wenn wir mal die 420 zu 444 Schiefentärfe beiseite lassen stimmt auch das oben geschriebene nicht denn der Zerstreuungskreis hat auch NIX mit der Sensorgröße zu tun (!), sondern mit dem Pixelpitch, also wie viele Sensel pro mm^2 auf dem Sensor sind oder wie fein das Medium (Film/-korn) auflöst.
Ich hatte hier vor kurzem schon mal dazu eingeworfen dass man die Auflösung des Sensors gegen a) unendlich oder b) den Pixelpitch identisch betrachten sollte...
...und dann hat Guido einfach Recht!!
Nehme ich eine 50mm Optik mit einer bestimmten Blende habe ich eine bestimmte TIEFENSCHÄRFE (!!) (nach DIN 19040 von 1979, mir ist keine weitere Aktualisierung/Nachfolge bekannt).
Wenn ich hier einen fokussierten Punkt in der Mitte betrachte und nah daneben ("intifisimal" funktioniert hier nicht ;-) ) einen mit einer anderen Entfernung, verhält sich das bei der gleichen Optik mit gleicher Blende und gleichem Zerstreuungskreis etc. IMMER(!!) gleich, da die Tiefenschärfe niemals nie NICHT vom BILDKREIS abhängig ist!!(!!!!) - PUNKT.
Es ist egal ob meine Optik 3mm oder 3000mm Bildkreis bei gleicher/m:
- Brennweite
- Blende
- Abstand zum Motiv
- Abstand zum Sensor/Film
- Zerstreuungskreis
beleuchtet!!
Kann man das so nachvollziehen??
Ja?! Prima!! Danke!!
...zurück zum M2P der neben dem Zubehör jetzt selbst auch teurer geworden ist - trotz miesem 28mm Modus!!
Ist Dir schon mal in den Sinn gekommen, dass die gleiche Brennweite bei verschiedenen Sensoren eine ganz andere Abbildungsgröße zur Folge hat ? Bei 50 mm Brennweite bei MFT ist man doppelt so nahe dran wie bei Vollformat. Also muss man auch mit der halben Distanz rechnen. Bei 50mm MFT mit vier Meter Entfernung zum Objekt fotografieren wir bei Vollformat mit 50mm und zwei Meter Entfernung genau das gleiche, die Propertionen stimmen also. Wir wollen doch bitte das gleiche Foto schießen, deshalb muss sich bei verschiedenen Sensorgrößen auch die Entfernung verändern. Wenn damit die Entfernung zum Objekt damit stark verändert wird und die Brennweite gleich bleibt, ist eben die Tiefenschärfe nicht gleich.
Antwort von Jan:
dienstag_01 hat geschrieben:
Jan hat geschrieben:
Ich bin seit 20 Jahren Fachgeschäftsverkäufer und habe damit an allein einem Tag mehr Kameras in meiner Hand, wie du in deinem ganzen Leben. In dem Fall gehst du als klarer Verlierer vom Feld, wenn ich dich über jede Kamera die ich im Laden abfrage und du keine einzige technische Frage über die Kamera beantworten kannst, weil du dein Internet dann nicht zur Verfügung hast. Das Lächerliche dabei ist, dass jeder Anfänger das weiß, jeder der mit Kleinsensorenkameras oder Handys jemals fotografiert oder gefilmt hat, dass ein Freistellen nur schwer möglich ist und dann nur unter bestimmten Umständen, eben sehr nahe ran gehen, oder viel Brennweite verwenden, wenn das Gerät es kann, dann hilft auch eine Blende 2 nicht viel, wenn der Sensor klein ist.
Die Schärfe - und damit die Schärfentiefe - hat neben anderen Faktoren auch etwas mit dem Pixelpitch zu tun.
Das heisst, das selbe Objektiv hat an unterschiedlich großen Sensoren (mit dem gleichen Pixelpitch) die selbe Schärfentiefe.
Das heisst aber auch, das selbe Objektiv an gleich großen Sensoren mit unterschiedlichem Pixelpich hat unterschiedliche Schärfentiefe.
Man sollte auch nach 20 Jahren noch bereit sein dazuzulernen.
Und man sollte die Contenance bewahren ;)
Welche Vollformatkamera hat denn den gleichen Pixelpitch wie ein Handy ? Nenn mir doch mal eine Kleinsensorenkamera (1/2,3 oder 1/3,2 Zoll), die über einen größeren Pixelpitch wie eine übliche Vollformatkamera verfügt? Großsensoren haben zu 99% einen größeren Pixelpitch als Kleinsensoren, bis auf ganz wenige Ausnahmen, kommt mir jetzt bitte nicht mit MFT und APS-C, also Sensorentypen, die nicht so deutlich unterschiedlich sind. Davon rede ich doch die ganze Zeit, nur Kluster ist der Meinung, dass nur die Blende und die Brennweite dafür verantwortlich ist, was einfach Quatsch ist. Nach ihm hat ein 50mm Objektiv mit der gleichen Blende immer die gleiche Schärfentiefe, egal welche Kamera es ist. Das hat er weiter oben geschrieben, kann jeder nachlesen.
Jetzt könnt ihr mir einen Strick drehen, warum ich nicht Pixelpitch, sondern Großsensorenkamera gesagt habe. Ich bin davon ausgegangen, dass es bekannt ist, dass Großsensorenkameras oft einen größeren Pixelpitch verfügen, wie Kleinsensorenkameras, besonder wenn es scih wie Anfangs geschrieben um Kleinsensoren handelt wie 1/2,3 Zoll.
Antwort von Roland Schulz:
Jan hat geschrieben:
"Roland Schulz" hat geschrieben:
...meine Güte ;-).
Wenn wir mal die 420 zu 444 Schiefentärfe beiseite lassen stimmt auch das oben geschriebene nicht denn der Zerstreuungskreis hat auch NIX mit der Sensorgröße zu tun (!), sondern mit dem Pixelpitch, also wie viele Sensel pro mm^2 auf dem Sensor sind oder wie fein das Medium (Film/-korn) auflöst.
Ich hatte hier vor kurzem schon mal dazu eingeworfen dass man die Auflösung des Sensors gegen a) unendlich oder b) den Pixelpitch identisch betrachten sollte...
...und dann hat Guido einfach Recht!!
Nehme ich eine 50mm Optik mit einer bestimmten Blende habe ich eine bestimmte TIEFENSCHÄRFE (!!) (nach DIN 19040 von 1979, mir ist keine weitere Aktualisierung/Nachfolge bekannt).
Wenn ich hier einen fokussierten Punkt in der Mitte betrachte und nah daneben ("intifisimal" funktioniert hier nicht ;-) ) einen mit einer anderen Entfernung, verhält sich das bei der gleichen Optik mit gleicher Blende und gleichem Zerstreuungskreis etc. IMMER(!!) gleich, da die Tiefenschärfe niemals nie NICHT vom BILDKREIS abhängig ist!!(!!!!) - PUNKT.
Es ist egal ob meine Optik 3mm oder 3000mm Bildkreis bei gleicher/m:
- Brennweite
- Blende
- Abstand zum Motiv
- Abstand zum Sensor/Film
- Zerstreuungskreis
beleuchtet!!
Kann man das so nachvollziehen??
Ja?! Prima!! Danke!!
...zurück zum M2P der neben dem Zubehör jetzt selbst auch teurer geworden ist - trotz miesem 28mm Modus!!
Ist Dir schon mal in den Sinn gekommen, dass die gleiche Brennweite bei verschiedenen Sensoren eine ganz andere Abbildungsgröße zur Folge hat ? Bei 50 mm Brennweite bei MFT ist man doppelt so nahe dran wie bei Vollformat. Also muss man auch mit der halben Distanz rechnen. Bei 50mm MFT mit vier Meter Entfernung zum Objekt fotografieren wir bei Vollformat mit 50mm und zwei Meter Entfernung genau das gleiche, die Propertionen stimmen also. Wir wollen doch bitte das gleiche Foto schießen, deshalb muss sich bei verschiedenen Sensorgrößen auch die Entfernung verändern. Wenn damit die Entfernung zum Objekt damit stark verändert wird und die Brennweite gleich bleibt, ist eben die Tiefenschärfe nicht gleich.
Nein, das hat hier niemand behauptet!
Es geht darum mit nem 35mm Sensor mit einem festen Setup nen Bild zu machen, und dann rundherum ein Stückchen nach dem anderen abzuschneiden, erst bis zum projizierten APS-C, dann bis zum M43, dann bis zum 1/2,3" Sensor.
Den Maschendrahtzaun den Du in der Mitte fokusiert hast und der Hintergrund den man dadurch sieht schaut immer gleich aus, nur mit weniger "Rand" drumherum.
Darum ging‘s hier technisch, um nichts anderes!
Antwort von Roland Schulz:
Jan hat geschrieben:
dienstag_01 hat geschrieben:
Die Schärfe - und damit die Schärfentiefe - hat neben anderen Faktoren auch etwas mit dem Pixelpitch zu tun.
Das heisst, das selbe Objektiv hat an unterschiedlich großen Sensoren (mit dem gleichen Pixelpitch) die selbe Schärfentiefe.
Das heisst aber auch, das selbe Objektiv an gleich großen Sensoren mit unterschiedlichem Pixelpich hat unterschiedliche Schärfentiefe.
Man sollte auch nach 20 Jahren noch bereit sein dazuzulernen.
Und man sollte die Contenance bewahren ;)
Welche Vollformatkamera hat denn den gleichen Pixelpitch wie ein Handy ? Nenn mir doch mal eine Kleinsensorenkamera (1/2,3 oder 1/3,2 Zoll), die über einen größeren Pixelpitch wie eine übliche Vollformatkamera verfügt? Großsensoren haben zu 99% einen größeren Pixelpitch als Kleinsensoren, bis auf ganz wenige Ausnahmen, kommt mir jetzt bitte nicht mit MFT und APS-C, also Sensorentypen, die nicht so deutlich unterschiedlich sind. Davon rede ich doch die ganze Zeit, nur Kluster ist der Meinung, dass nur die Blende und die Brennweite dafür verantwortlich ist, was einfach Quatsch ist. Nach ihm hat ein 50mm Objektiv mit der gleichen Blende immer die gleiche Schärfentiefe, egal welche Kamera es ist. Das hat er weiter oben geschrieben, kann jeder nachlesen.
Nimm die Auflösung/Pixelpitch gegen unendlich, dann stimmt die Theorie, die Physik (die sowieso) und das was Guido sagt.
Antwort von dienstag_01:
Jan hat geschrieben:
dienstag_01 hat geschrieben:
Die Schärfe - und damit die Schärfentiefe - hat neben anderen Faktoren auch etwas mit dem Pixelpitch zu tun.
Das heisst, das selbe Objektiv hat an unterschiedlich großen Sensoren (mit dem gleichen Pixelpitch) die selbe Schärfentiefe.
Das heisst aber auch, das selbe Objektiv an gleich großen Sensoren mit unterschiedlichem Pixelpich hat unterschiedliche Schärfentiefe.
Man sollte auch nach 20 Jahren noch bereit sein dazuzulernen.
Und man sollte die Contenance bewahren ;)
Welche Vollformatkamera hat denn den gleichen Pixelpitch wie ein Handy ? Nenn mir doch mal eine Kleinsensorenkamera (1/2,3 oder 1/3,2 Zoll), die über einen größeren Pixelpitch wie eine übliche Vollformatkamera verfügt? Großsensoren haben zu 99% einen größeren Pixelpitch als Kleinsensoren, bis auf ganz wenige Ausnahmen, kommt mir jetzt bitte nicht mit MFT und APS-C, also Sensorentypen, die nicht so deutlich unterschiedlich sind. Davon rede ich doch die ganze Zeit, nur Kluster ist der Meinung, dass nur die Blende und die Brennweite dafür verantwortlich ist, was einfach Quatsch ist. Nach ihm hat ein 50mm Objektiv mit der gleichen Blende immer die gleiche Schärfentiefe, egal welche Kamera es ist. Das hat er weiter oben geschrieben, kann jeder nachlesen.
Damit hat klusterdegenerierung ja auch Recht. Wenn du unbedingt alles auf einen Satz reduziert haben willst:
Die Schärfentiefe ist unabhängig von der Sensorgröße, aber abhängig vom Pixelpitch.
Antwort von Jan:
"Roland Schulz" hat geschrieben:
Jan hat geschrieben:
Welche Vollformatkamera hat denn den gleichen Pixelpitch wie ein Handy ? Nenn mir doch mal eine Kleinsensorenkamera (1/2,3 oder 1/3,2 Zoll), die über einen größeren Pixelpitch wie eine übliche Vollformatkamera verfügt? Großsensoren haben zu 99% einen größeren Pixelpitch als Kleinsensoren, bis auf ganz wenige Ausnahmen, kommt mir jetzt bitte nicht mit MFT und APS-C, also Sensorentypen, die nicht so deutlich unterschiedlich sind. Davon rede ich doch die ganze Zeit, nur Kluster ist der Meinung, dass nur die Blende und die Brennweite dafür verantwortlich ist, was einfach Quatsch ist. Nach ihm hat ein 50mm Objektiv mit der gleichen Blende immer die gleiche Schärfentiefe, egal welche Kamera es ist. Das hat er weiter oben geschrieben, kann jeder nachlesen.
Nimm die Auflösung/Pixelpitch gegen unendlich, dann stimmt die Theorie, die Physik (die sowieso) und das was Guido sagt.
Es ging von Anfang an um das Freistellen von Objekten, also um die nähere Distanz. Dann ist bei einem kleinen Handypixelpitch und der gleichen Brennweite und Blende eben kaum ein Freistellen möglich. Bei einer Vollformatkamera dagegen sehr einfach.
Antwort von Jan:
dienstag_01 hat geschrieben:
Jan hat geschrieben:
Welche Vollformatkamera hat denn den gleichen Pixelpitch wie ein Handy ? Nenn mir doch mal eine Kleinsensorenkamera (1/2,3 oder 1/3,2 Zoll), die über einen größeren Pixelpitch wie eine übliche Vollformatkamera verfügt? Großsensoren haben zu 99% einen größeren Pixelpitch als Kleinsensoren, bis auf ganz wenige Ausnahmen, kommt mir jetzt bitte nicht mit MFT und APS-C, also Sensorentypen, die nicht so deutlich unterschiedlich sind. Davon rede ich doch die ganze Zeit, nur Kluster ist der Meinung, dass nur die Blende und die Brennweite dafür verantwortlich ist, was einfach Quatsch ist. Nach ihm hat ein 50mm Objektiv mit der gleichen Blende immer die gleiche Schärfentiefe, egal welche Kamera es ist. Das hat er weiter oben geschrieben, kann jeder nachlesen.
Damit hat klusterdegenerierung ja auch Recht. Wenn du unbedingt alles auf einen Satz reduziert haben willst:
Die Schärfentiefe ist unabhängig von der Sensorgröße, aber abhängig vom Pixelpitch.
Er hat nicht recht, er hat niemals Pixelpitch in seinen Worten verwendet, sondern nur dass die beiden einzigen Faktoren Blende und Brennweite sind. Das steht dann auch so im Wiki-Eintrag, der nämlich damit falsch ist. Dort steht auch , dass nur die Blende und die Brennweite über die Tiefenschärfe entscheiden. Dort wird auch davon ausgegangen, dss es sich um den immer gleichen Kleinbildfilm, oder genauer um den gleichen Pixelpitch handelt. Seit wir Sensoren haben, ist das aber leider falsch, um es so allgemein zu kennzeichnen.
Antwort von dienstag_01:
Jan hat geschrieben:
dienstag_01 hat geschrieben:
Damit hat klusterdegenerierung ja auch Recht. Wenn du unbedingt alles auf einen Satz reduziert haben willst:
Die Schärfentiefe ist unabhängig von der Sensorgröße, aber abhängig vom Pixelpitch.
Er hat nicht recht, er hat niemals Pixelpitch in seinen Worten verwendet, sondern nur dass die Faktoren Blende und Brennweite sind.
Hast du aber auch nicht verwendet.
Antwort von Jan:
dienstag_01 hat geschrieben:
Jan hat geschrieben:
Er hat nicht recht, er hat niemals Pixelpitch in seinen Worten verwendet, sondern nur dass die Faktoren Blende und Brennweite sind.
Hast du aber auch nicht verwendet.
Ich habe vorrausgesetzt, dass bekannt ist, dass Großsensorenkameras fast immer über einen großen Pixelpitch verfügen, wie Kleinsensorenkameras. Ausnahme sind ähnliche Sensoren wie MFT und APS-C, wo 24 MP an APS-C fast den gleichen Pixelpitch wie 16 MP bei MFT bedeutet.
Antwort von Jan:
Nachtrag:
Der englische Wikipedia-Eintrag ist da deutlich aktueller und gut gestaltet. Der Zerstreuungskreis (CoC) ist also von Bedeutung, was hier vorher verneint wurde. Wenn ich das jetzt richtig interpretiere, ist auch der Pixelpitch unwichtig, weil auch der DOF-Master bei verschiedenen Pixelpitchen auch den gleichen Tiefenschärfebereich zeigt. Der müsste dann ja komplett anders sein, bei Wahl einer EOS 5 D mit 13 MP zu einer 5D MKIII mit 22 MP. Mir ist immer wieder aufgefallen, dass die englischen Wikipedia-Artikel deutlich professioneller sind. Bei den deutschen Beiträgen wird immer aus älteren Quellen zitiert, in dem Fall wird also davon ausgegangen, dass es sich immer um einen 24x36mm Film handelt.
https://en.wikipedia.org/wiki/Depth_of_field
https://en.wikipedia.org/wiki/Circle_of_confusion
Und um nun endlich auf die Grundfrage zurückzukommen, bei der Mavic 2 Pro mit ihrer 10mm Brennweite, F 2,8 und ihren ein Zoll Sensor, ist ab einer Entfernung von vier Meter alles scharf, ein großes Tiefenschärfespiel ist damit nicht möglich. Das was ich anfangs ja auch dazu geschrieben habe.
Antwort von dienstag_01:
Jan hat geschrieben:
Nachtrag:
Der englische Wikipedia-Eintrag ist da deutlich aktueller und gut gestaltet. Der Zerstreuungskreis (CoC) ist also von Bedeutung, was hier vorher verneint wurde. Wenn ich das jetzt richtig interpretiere, ist auch der Pixelpitch unwichtig, weil auch der DOF-Master bei verschiedenen Pixelpitchen auch den gleichen Tiefenschärfebereich zeigt. Der müsste dann ja komplett anders sein, bei Wahl einer EOS 5 D mit 13 MP zu einer 5D MKIII mit 22 MP. Mir ist immer wieder aufgefallen, dass die englischen Wikipedia-Artikel deutlich professioneller sind. Bei den deutschen Beiträgen wird immer aus älteren Quellen zitiert, in dem Fall wird also davon ausgegangen, dass es sich immer um einen 24x36mm Film handelt.
https://en.wikipedia.org/wiki/Depth_of_field
https://en.wikipedia.org/wiki/Circle_of_confusion
Und um nun endlich auf die Grundfrage zurückzukommen, bei der Mavic 2 Pro mit ihrer 10mm Brennweite, F 2,8 und ihren ein Zoll Sensor, ist ab einer Entfernung von vier Meter alles scharf, ein großes Tiefenschärfespiel ist damit nicht möglich. Das was ich anfangs ja auch dazu geschrieben habe.
Ich denke, es sollte jedem Einleuchten, dass sich der Zerstreuungskreis nicht so mir nichts dir nichts je nach Sensorgröße ändert. Ob ich einen winzig kleinen Punkt auf eine große oder kleine Fläche projiziere, sollte dem Punkt eigentlich egal sein ;)
Antwort von Funless:
Jan hat geschrieben:
Und um nun endlich auf die Grundfrage zurückzukommen, bei der Mavic 2 Pro mit ihrer 10mm Brennweite, F 2,8 und ihren ein Zoll Sensor, ist ab einer Entfernung von vier Meter alles scharf, ein großes Tiefenschärfespiel ist damit nicht möglich. Das was ich anfangs ja auch dazu geschrieben habe.
Ich frage mich bei welcher Art von Drohnenaufnahme ein Tiefenschärfespiel erforderlich ist.
Vielleicht kann mich freundlicherweise jemand diesbezüglich aufklären?
Antwort von dienstag_01:
dienstag_01 hat geschrieben:
Jan hat geschrieben:
Nachtrag:
Der englische Wikipedia-Eintrag ist da deutlich aktueller und gut gestaltet. Der Zerstreuungskreis (CoC) ist also von Bedeutung, was hier vorher verneint wurde. Wenn ich das jetzt richtig interpretiere, ist auch der Pixelpitch unwichtig, weil auch der DOF-Master bei verschiedenen Pixelpitchen auch den gleichen Tiefenschärfebereich zeigt. Der müsste dann ja komplett anders sein, bei Wahl einer EOS 5 D mit 13 MP zu einer 5D MKIII mit 22 MP. Mir ist immer wieder aufgefallen, dass die englischen Wikipedia-Artikel deutlich professioneller sind. Bei den deutschen Beiträgen wird immer aus älteren Quellen zitiert, in dem Fall wird also davon ausgegangen, dass es sich immer um einen 24x36mm Film handelt.
https://en.wikipedia.org/wiki/Depth_of_field
https://en.wikipedia.org/wiki/Circle_of_confusion
Und um nun endlich auf die Grundfrage zurückzukommen, bei der Mavic 2 Pro mit ihrer 10mm Brennweite, F 2,8 und ihren ein Zoll Sensor, ist ab einer Entfernung von vier Meter alles scharf, ein großes Tiefenschärfespiel ist damit nicht möglich. Das was ich anfangs ja auch dazu geschrieben habe.
Ich denke, es sollte jedem Einleuchten, dass sich der Zerstreuungskreis nicht so mir nichts dir nichts je nach Sensorgröße ändert. Ob ich einen winzig kleinen Punkt auf eine große oder kleine Fläche projiziere, sollte dem Punkt eigentlich egal sein ;)
Warum erhält man trotzdem verschiedene Tiefenschärfen für verschiedene Sensorgrößen? Nach meinem Verständnis (siehe Wikipedia-Artikel) wird das Limit des Zerstreuungskreises Anhand der Ausgabe des Bildes (im Artikel: Print) beschrieben. Zum Vergleich bedarf es gleichgroßer Prints. Die unterschiedliche Vergrößerung von Fullframe bzw. APS-C (oder MFT) auf diese Printgröße schlagen sich in unterschiedlichen Werten des Zerstreuungskreises nieder. Das ist der Grund.
Wenn man das ganze mal für Bildschirm oder Screen denkt, erhält man allerdings wieder andere Werte ;)
Antwort von Huitzilopochtli:
Kann bitte jemand diese leidige Schärfentiefendiskussion in eine entsprechende Unterrubrik verschieben? Mich interessieren Erfahrungen mit der Mavic Pro 2, und das am besten von Menschen, die so ein Ding auch ihr Eigen nennen oder es wenigstens schon mal in der Hand hatten.
Antwort von Jan:
Huitzilopochtli hat geschrieben:
Kann bitte jemand diese leidige Schärfentiefendiskussion in eine entsprechende Unterrubrik verschieben? Mich interessieren Erfahrungen mit der Mavic Pro 2, und das am besten von Menschen, die so ein Ding auch ihr Eigen nennen oder es wenigstens schon mal in der Hand hatten.
Da hast du klar recht, es tut mir auch leid, dass ich da voll involviert war. Ich lasse mir nur keine komplette Unkenntnis vorwerfen. Erst recht wenn jemand behauptet, dass ein Tiefenschärfespiel nichts mit dem Sensor zu tun hat und bei Blende X und Brennweite Y immer die gleiche Tiefenschärfe zu sehen ist. Dass das nicht so ist, sehen Tausende Fotografen mit ihren Handys, Knipskisten und Vollformatkameras. Selbst die Kameraleute vom ZDF haben das gesehen, wo sie das erste Mal mit APS-c oder Vollformatkameras gefilmt haben, vorher mit 2/3" und auf einmal große Probleme hatten, die Schärfe zu finden und obwohl sie die gleichen Ausschnitte und Blenden verwendet haben.
Antwort von dienstag_01:
Noch ein letzter Satz zur Schärfentiefe von mir (kann selbstverständlich woandershin geschoben werden):
Ob Schärfentiefe wirklich mit dem Pixelpitch zu tun hat - ich weiß es nicht genau.
Dass aber Schärfentiefe mit der Sensorgröße zu tun hat, ist nur unter der Bedingung richtig, das Bild des kleineren Sensors auf die gleiche Bildgröße wie das des größeren Sensors zu bringen. Um dann die Bilder zu vergleichen.
Denn messen lässt sich Schärfe nicht.
Antwort von Jan:
dienstag_01 hat geschrieben:
Noch ein letzter Satz zur Schärfentiefe von mir (kann selbstverständlich woandershin geschoben werden):
Ob Schärfentiefe wirklich mit dem Pixelpitch zu tun hat - ich weiß es nicht genau.
Dass aber Schärfentiefe mit der Sensorgröße zu tun hat, ist nur unter der Bedingung richtig, das Bild des kleineren Sensors auf die gleiche Bildgröße wie das des größeren Sensors zu bringen. Um dann die Bilder zu vergleichen.
Denn messen lässt sich Schärfe nicht.
Kann ich auch nicht genau sagen, um ehrlich zu sein. Ich habe noch einen Spezialisten von Canon mit in das Thema einbezogen, er meint sogar, dass selbst das Auflagenmaß noch in die Problematik Tiefenschärfe reinspielen kann, da gibt es mehrere Faktoren. Außerdem ist es noch so, dass bei analogen Kameras (Kleinbild) bei gleicher Blende und Brennweite der Unschärfeeindruck anders eintritt, da gibt es wohl weniger "Zwischenstufen" der Unschärfe. Wenn der Pixelpitch entscheidend wäre, dann hätten Programme wie Dofmaster es auch anpassen sollen. Das Programm ist in der Fotowelt ziemlich beliebt, man kann dort ja auch viele Modelle wählen, es macht auf der Seite bei der Tiefenschärfe keinen Unterschied, ob Vollformat mit 12 MP oder VF mit 23 MP. Jetzt liegt die Seite damit falsch, oder der Pixelpitch hat gar nichts damit zu tun.
Antwort von dienstag_01:
Jan hat geschrieben:
dienstag_01 hat geschrieben:
Noch ein letzter Satz zur Schärfentiefe von mir (kann selbstverständlich woandershin geschoben werden):
Ob Schärfentiefe wirklich mit dem Pixelpitch zu tun hat - ich weiß es nicht genau.
Dass aber Schärfentiefe mit der Sensorgröße zu tun hat, ist nur unter der Bedingung richtig, das Bild des kleineren Sensors auf die gleiche Bildgröße wie das des größeren Sensors zu bringen. Um dann die Bilder zu vergleichen.
Denn messen lässt sich Schärfe nicht.
Kann ich auch nicht genau sagen, um ehrlich zu sein. Ich habe noch einen Spezialisten von Canon mit in das Thema einbezogen, er meint sogar, dass selbst das Auflagenmaß noch in die Problematik Tiefenschärfe reinspielen kann, da gibt es mehrere Faktoren.
Und wenn man das alles für Video (bzw. Screen Photo) macht, muss man die Auflösung (und den Betrachtungsabstand) des Monitors mit einbeziehen.
Sehr weites Feld ;)
(Mein Gefühl sagt mir, dass man die DOF Calculatoren vergessen kann)
Antwort von Funless:
Kann mir jetzt bitte mal einer von den anwesenden Koryphäen freundlicherweise erklären bei welcher Art von Drohnenaufnahmen ein Tiefenschärfenspiel erforderlich wäre?
Antwort von klusterdegenerierung:
Jan hat geschrieben:
Ist Dir schon mal in den Sinn gekommen, dass die gleiche Brennweite bei verschiedenen Sensoren eine ganz andere Abbildungsgröße zur Folge hat ? Bei 50 mm Brennweite bei MFT ist man doppelt so nahe dran wie bei Vollformat. Also muss man auch mit der halben Distanz rechnen. Bei 50mm MFT mit vier Meter Entfernung zum Objekt fotografieren wir bei Vollformat mit 50mm und zwei Meter Entfernung genau das gleiche, die Propertionen stimmen also. Wir wollen doch bitte das gleiche Foto schießen, deshalb muss sich bei verschiedenen Sensorgrößen auch die Entfernung verändern. Wenn damit die Entfernung zum Objekt damit stark verändert wird und die Brennweite gleich bleibt, ist eben die Tiefenschärfe nicht gleich.
Jan,
ich kann Dich gut verstehen und ich fänd es klasse, wenn wir uns alle wieder etwas mäßigen! :-)
Ich sehe an Deinen Argumenten, das wir an zwei völlig unterschiedlichen Standpunkten stehen.
Deiner ist die des klassischem DSLRler, der es aus der Sicht der Abildungsgöße und Brennweite denkt.
Jene denken so, habe ich eine 5D mit 50mm, brauche ich an meiner 500D eine 35mm,
damit ich den selben Bildkreis bekomme, bzw das vergleichbare Bild!
Hier ist tatsächlich der Nachteil, das ich bei der 500D Variante mehr Tiefenschärfe generiere,
weil ich eine weitwinkligere Brennweite benutze, die von Hause mehr Schärfe in der Tiefe generiert.
Soweit denke ich sind wir doch dakor oder? Gut! :-)
Vielleicht liegt das Missverständnis einfach daran,
das wenn ich bei beiden Cams eine 50mm verwende,
ich den größeren Bildkreis der 5D an dem der 500D anpassen, also cropen muß,
denn damit vergleiche ich in dem Moment nicht die Brennweite, sondern die Sensorgröße!
Bei diesem Beispiel wird zwar das Bild der 5D proportional kleiner,
was aber ja nur dafür gut ist, um beide Bilder übereinander zu legen.
In diesem Fall ändert sich nicht die Tiefenschärfe, ALLERDINGS ist dies eine herrangehensweise,
die kein Fotograf so machen würde und genau deshalb entsteht immer das "Gefühl"
FF erzeugt weniger Tiefenschärfe, also mehr DOF.
Ich habe Dir noch mal meine Vergleiche aus einem alten Thread angehangen.
Jetzt kam allerdings wieder ein ganz schlaucher hier auf die Idee,
ja da gibt es aber Unterschiede im Millimeter Bereich!
Ja schon klar, denn a habe ich diesen Test nur neben bei und nicht extrem präzise gemacht und des weitern liegen die Sensoren nicht auf gleicher Ebene, dafür müßte ich dann genauere Test machen.
Ich denke man kann aber ganz gut erkennen,
das sich in dem Fall der komplette Schärfe Bereich, verschoben hat,
da ich es nicht besonders genau scharf gestellt habe. Aber kein problem, das werde ich nachholen.
Antwort von klusterdegenerierung:
Für Interessierte habe ich nun noch mal einen genaueren Vergleichsaufbau generiert.
Nun habe ich eine Aufnahme in 50mm 2.8 mit der a6300 gemacht und das gleiche mit der A7III in FF und Cropmode (nicht abgebildet, sieht aber identisch aus).
Zusätzlich eine A6300 mit 35mm als Äquivalenz zur FF 50mm,
so wie Jan und die meißten es sich wohl vorstellen, damit man immer den gleich großen Bildkreis hat.
Ich habe ein kleines Vergleichs Jpg von 3000px hier eingefügt,
zusätzlich einen Link einer 500MB großen Tif Datei mit allen 4 Aufnahmen übereinander gecropt,
die man aber natürlich falls interessant, via Transformieren Befehl wieder zurück cropen kann.
Scharf gestellt wurde einheitlich auf den schwarzen Text mit den roten Linien drumrum.
Ich denke der Unterschied (bzw kein Unterschied) kann klarer nicht sein!
https://wsi.li/sSCt1BmA5imp
Viel Spaß damit
Antwort von klusterdegenerierung:
rush hat geschrieben:
Was ich auf jedenfall noch zwingend benötige: ND Filter ! Das Ding ist ja unglaublich empfindlich... musste heut auf 'ne 1/200s gehen um bei ISO 100 auf 'ne Blende 10-11 zu kommen und selbst das war Knirsch! Ein ND16er wird vermutlich Pflicht werden... eher 32er oder vllt. auch mal ND64... denn ich könnt mir auch vorstellen das autonome Funktionen die mit der Kamera zusammenarbeiten vermutlich bei offenerer Blende besser arbeiten als voll abgeblendet.. zumindest theoretisch. Einwände?
Gute Erfahrung mit dem Hersteller.
"https"://
www.amazon.de/dp/B07GPK92FY/?coliid=IHS ... _lig_dp_it
Antwort von Jan:
klusterdegenerierung hat geschrieben:
Für Interessierte habe ich nun noch mal einen genaueren Vergleichsaufbau generiert.
Nun habe ich eine Aufnahme in 50mm 2.8 mit der a6300 gemacht und das gleiche mit der A7III in FF und Cropmode (nicht abgebildet, sieht aber identisch aus).
Zusätzlich eine A6300 mit 35mm als Äquivalenz zur FF 50mm,
so wie Jan und die meißten es sich wohl vorstellen, damit man immer den gleich großen Bildkreis hat.
Ich habe ein kleines Vergleichs Jpg von 3000px hier eingefügt,
zusätzlich einen Link einer 500MB großen Tif Datei mit allen 4 Aufnahmen übereinander gecropt,
die man aber natürlich falls interessant, via Transformieren Befehl wieder zurück cropen kann.
Scharf gestellt wurde einheitlich auf den schwarzen Text mit den roten Linien drumrum.
Ich denke der Unterschied (bzw kein Unterschied) kann klarer nicht sein!
https://wsi.li/sSCt1BmA5imp
Viel Spaß damit
Welche Entfernung hast du denn benutzt ? Ich sage jetzt einfach mal 80cm bei der APS-C-Kamera und 50 cm bei der Vollformat, damit man bei 50mm Brennweite den gleichen Ausschnitt hat. Dann hat man bei der Vollformatkamera einen Schärfebereich von 1,5 cm und bei der APS-C-Kamera einen Schärfebereich von 2,5 cm. Das ist also so eng, sodass du mit deinem Aufbau nichts sieht,außer du würdest mehrere Testaufnahmen machen und die hinterer Dose um einen Zentimeter langsam nach vorn bewegen. Und trotzdem ist laut physikalischen Formeln der Tiefenschärfebereich eben nicht gleich, umso näher du dran gehst, umso näher kommt man der Großsensorenkamera auf die Pelle. wenn du jetzt mal bei der APS-C 1,6 Meter weg gehst und bei der Vollformat um einen Meter bei 50mm Brennweite und Blende 2,8, dann hat die Vollformat schon einen Tiefenschärfespielvorteil von etwas mehr als 4cm. Daher muss man ja auch beim Handy und bei kleinerer Sensoren sehr nahe ans Objekt rangehen, um überhaupt etwas unscharf hinzubekommen trotz Blende F 1,5 oder F2. Der deutsche Wikipediaeintrag geht von altem Fotowissen aus, dass es sich immer um den gleichen 24x36mm Film handelt, ja dann ist die Tiefenschärfe gleich. Der englische Wikipediaeintrag ist bekannt dafür, oft genauer zu sein und aktueller. Da kannst du einfach jeden Fachmann fragen, der sich mit Physik oder welchem anderen Fach sehr gut auskennt.
Und nehmen wir mal an, ich würde denken, dass der englische Wikipediaeintrag falsch wäre, der Dofmaster (obwohl der in allen Fachforen der Welt geschätzt wird) auch noch daneben liegt. Ich weiß es ganz einfach, weil ich jahrelange mit 1/2,3" bis zur Volformatkamera fotografiere und das täglich. Meine aktuelle meistbenutzte Kamera ist aktuell die Sony RX 100 (ein Zoll Sensor), dann zoome ich minimal ganz leicht rein (10 ist die Anfangsbrennweite) auf 14 und gehe 67 cm weg und stelle auf Blende F 2,8, danach schnappe ich mir eine EOS 5 D MK IV Vollformat , schraube das 14mm F 2,8 L II drauf, gehe auch auf F 2,8, gehe auf eine Entfernung von 25 cm, damit ich das Objekt gleich groß habe wie bei meiner RX 100 (Crop 2,7). Ich habe bei beiden Kameras also die gleiche Blende und die gleiche Brennweite benutzt. Nur ist die Tiefenschärfe komplett anders, Dofmaster schreibt es sind bei der Vollformat - 5 cm und bei der RX 100 - 15 cm Schärfebereich. Ob das ganz genau so auf den Zentimeter stimmt, kann ich nicht sagen, darüber habe ich mir vorher auch nie Gedanken gemacht, aber die Tendenz habe ich auch schon damals sofort gesehen. Umso kleiner der Sensor ist, umso deutlicher sieht man es. Umso ähnlicher der Sensor ist von der Größe her und umso näher man rangeht, umso ähnlicher wird es. Der Zerstreuungskreis ist nicht gleich bei allen Sensoren, da ist die deutsche Seite auch mal richtig, aber das ist wieder ein anderes Thema.
https://de.wikipedia.org/wiki/Zerstreuungskreis
Ich habe schon von Anfang an gemerkt, dass du dich total auf den deutschen Wikipediaeintrag versteifst, du aber nicht wie ich täglich mit vielen verschiedenen Sensorenkameras fotografierst (eben von 1/2,3" bis zur Vollformat). Das wäre ja auch nicht normal für einen normalen Kunden, ich muss das aber machen, weil ich tagtäglich diese Fragen in meinem Geschäft gestellt bekomme. Beispiel: Warum kann ich denn mit meinem Handy ohne Portraitfunktion keine komplette Person freistellen (sie sollte voll drauf sein) trotz F 1,5 ? Ab welchen Sensor, mit welcher Brennweite und welcher Blende kann ich mit in meiner Situation was freistellen. Warum sind jetzt auf einmal die Ohren unscharf und die Nase scharf bei meiner neuen Vollformat, obwohl ich bei meiner alten APS-C-Kameram mit dem gleichen 50mm F 1,8 Objektiv fotografiere, wenn ich näher an das Objekt hingehe ?
Antwort von rush:
Nochmal die Bitte: Lagert diese DOF Diskussion doch einfach in einen anderen Thread aus!!!
Wegen mir auch im Titel was mit Mavic... aber hier nervts langsam nur noch.
Antwort von Jan:
Das könnt ihr meinetwegen gern machen. Ich werde ihn eh nicht überzeugen können, er stellt auf stur und ignoriert den englischen Wikipediaeintrag, den Dofmaster und meine Kenntnisse seit 20 Jahre im Fachgeschäft mit Tausenden Kunden, die immer mal wieder genau dieses Problem bei Wunsch eines größeren Tiefenschärfespiels mit einem größeren Sensor endlich hinbekommen haben. Ich möchte nur bitte nicht, dass hier komplett falsches Wissen verbreitet wird, nur weil ein User 10.000 Beiträge hat und denkt er liegt immer richtig.
Antwort von dienstag_01:
Jan hat geschrieben:
klusterdegenerierung hat geschrieben:
Für Interessierte habe ich nun noch mal einen genaueren Vergleichsaufbau generiert.
Nun habe ich eine Aufnahme in 50mm 2.8 mit der a6300 gemacht und das gleiche mit der A7III in FF und Cropmode (nicht abgebildet, sieht aber identisch aus).
Zusätzlich eine A6300 mit 35mm als Äquivalenz zur FF 50mm,
so wie Jan und die meißten es sich wohl vorstellen, damit man immer den gleich großen Bildkreis hat.
Ich habe ein kleines Vergleichs Jpg von 3000px hier eingefügt,
zusätzlich einen Link einer 500MB großen Tif Datei mit allen 4 Aufnahmen übereinander gecropt,
die man aber natürlich falls interessant, via Transformieren Befehl wieder zurück cropen kann.
Scharf gestellt wurde einheitlich auf den schwarzen Text mit den roten Linien drumrum.
Ich denke der Unterschied (bzw kein Unterschied) kann klarer nicht sein!
https://wsi.li/sSCt1BmA5imp
Viel Spaß damit
Dann hat man bei der Vollformatkamera einen Schärfebereich von 1,5 cm und bei der APS-C-Kamera einen Schärfebereich von 2,5 cm. Das ist also so eng, sodass du mit deinem Aufbau nichts sieht,außer du würdest mehrere Testaufnahmen machen und die hinterer Dose um einen Zentimeter langsam nach vorn bewegen. Und trotzdem ist laut physikalischen Formeln der Tiefenschärfebereich eben nicht gleich, umso näher du dran gehst, umso näher kommt man der Großsensorenkamera auf die Pelle. wenn du jetzt mal bei der APS-C 1,6 Meter weg gehst und bei der Vollformat um einen Meter bei 50mm Brennweite und Blende 2,8, dann hat die Vollformat schon einen Tiefenschärfespielvorteil von etwas mehr als 4cm. Daher muss man ja auch beim Handy und bei kleinerer Sensoren sehr nahe ans Objekt rangehen, um überhaupt etwas unscharf hinzubekommen trotz Blende F 1,5 oder F2. Der deutsche Wikipediaeintrag geht von altem Fotowissen aus, dass es sich immer um den gleichen 24x36mm Film handelt, ja dann ist die Tiefenschärfe gleich. Der englische Wikipediaeintrag ist bekannt dafür, oft genauer zu sein und aktueller. Da kannst du einfach jeden Fachmann fragen, der sich mit Physik oder welchem anderen Fach sehr gut auskennt.
Und nehmen wir mal an, ich würde denken, dass der englische Wikipediaeintrag falsch wäre, der Dofmaster (obwohl der in allen Fachforen der Welt geschätzt wird) auch noch daneben liegt. Ich weiß es ganz einfach, weil ich jahrelange mit 1/2,3" bis zur Volformatkamera fotografiere und das täglich. Meine aktuelle meistbenutzte Kamera ist aktuell die Sony RX 100 (ein Zoll Sensor), dann zoome ich minimal ganz leicht rein (10 ist die Anfangsbrennweite) auf 14 und gehe 67 cm weg und stelle auf Blende F 2,8, danach schnappe ich mir eine EOS 5 D MK IV Vollformat , schraube das 14mm F 2,8 L II drauf, gehe auch auf F 2,8, gehe auf eine Entfernung von 25 cm, damit ich das Objekt gleich groß habe wie bei meiner RX 100 (Crop 2,7). Ich habe bei beiden Kameras also die gleiche Blende und die gleiche Brennweite benutzt. Nur ist die Tiefenschärfe komplett anders, Dofmaster schreibt es sind bei der Vollformat - 5 cm und bei der RX 100 - 15 cm Schärfebereich. Ob das ganz genau so auf den Zentimeter stimmt, kann ich nicht sagen, darüber habe ich mir vorher auch nie Gedanken gemacht, aber die Tendenz habe ich auch schon damals sofort gesehen. Umso kleiner der Sensor ist, umso deutlicher sieht man es. Umso ähnlicher der Sensor ist von der Größe her und umso näher man rangeht, umso ähnlicher wird es. Der Zerstreuungskreis ist nicht gleich bei allen Sensoren, da ist die deutsche Seite auch mal richtig, aber das ist wieder ein anderes Thema.
https://de.wikipedia.org/wiki/Zerstreuungskreis
Ich habe schon von Anfang an gemerkt, dass du dich total auf den deutschen Wikipediaeintrag versteifst, du aber nicht wie ich täglich mit vielen verschiedenen Sensorenkameras fotografierst (eben von 1/2,3" bis zur Vollformat). Das wäre ja auch nicht normal für einen normalen Kunden, ich muss das aber machen, weil ich tagtäglich diese Fragen in meinem Geschäft gestellt bekomme. Beispiel: Warum kann ich denn mit meinem Handy ohne Portraitfunktion keine komplette Person freistellen (sie sollte voll drauf sein) trotz F 1,5 ? Ab welchen Sensor, mit welcher Brennweite und welcher Blende kann ich mit in meienr Situation was freistellen. Warum sind jetzt auf einmal die Ohren unscharf und die Nase scharf bei meiner neuen Vollformat, obwohl ich bei meiner alten APS-C-Kamerammit dem gleichen 50mm F 1,8 Objektiv fotografiere, wenn ich näher an das Objekt hingehe ?
Ich hatte eigentlich schon mal weiter oben geschrieben, dass der Zerstreuungskreis unterschiedlicher Sensoren nicht ohne unterschiedliche Vergrößerung unterschiedliche tolerierbare Werte annehmen kann. Das geht auch aus dem von dir verlinkten Wikipediaeintrag über CoC hervor. Du unterstellst ja gerne anderen Faktenresistenz...
Nichtsdestotrotz ist der *Versuch* von klusterdegenerierung eben auch nur ein *Versuch* ;)
Edit: Schon der erste Satz: Welche Entfernung hast du denn benutzt ? Ich sage jetzt einfach mal 80cm bei der APS-C-Kamera und 50 cm bei der Vollformat, damit man bei 50mm Brennweite den gleichen Ausschnitt hat. - lässt einen staunend zurück, ehrlich. Irgendwann muss man es einfach auch kapieren, was gemeint ist.
Oder sich wenigstens mal die Bilder angucken.
Antwort von Jan:
Der Thread wird bald ausgelagert und das ist auch gut so.
Wenn du eine APS-C-Kamera mit einem 50 mm bestückst und eine Vollformatkamera mit einem 50mm Objektiv und dann einen Testaufbau abfotografierst, was passiert dann wohl ? Du bist mit der APS-C näher am Objekt, musst also mit ihr zurück gehen oder mit der Vollformat vor gehen. Er hat ja genau den gleichen Ausschnitt abfotografiert, also muss er mit einer Kamera vor oder zurück gegangen sein. Muss ich Euch das jetzt auch noch erklären, dass das gleiche Objektiv an einem kleinerem Sensor weniger Winkel zeigt, man ist also näher dran durch den Crop ?
Fotografiert ihr hier auch und habt mal zwei Kameras (APS-C) und eine Vollformat jemals zusammen in der Hand gehabt und ein 50mm Objektiv an den beiden Kameras ausprobiert und die Bildwinkelvränderung bemerkt ? Das ist der Wahnsinn, das hat mein Lehrling schon nach einer Woche mitbekommen. Wenn ein Besserwisser kommt, natürlich ohne irgendeinen Cropmodus in der Vollformat zu verwenden
Antwort von dienstag_01:
Jan hat geschrieben:
Der Thread wird bald ausgelagert und das ist auch gut so.
Wenn du eine APS-C-Kamera mit einem 50 mm bestückst und eine Vollformatkamera mit einem 50mm Objektiv und dann einen Testaufbau abfotografierst, was passiert dann wohl ? Du bist mit der APS-C näher am Objekt, musst also mit ihr zurück gehen oder mit der Vollformat vor gehen. Er hat ja genau den gleichen Ausschnitt abfotografiert, also muss er mit einer Kamera vor oder zurück gegangen sein. Muss ich Euch das jetzt auch noch erklären, dass das gleiche Objektiv an einem kleinerem Sensor weniger Winkel zeigt, man ist also näher dran durch den Crop ?
Jetzt bist du wirklich irre ;)
Schau dir das Bild 3 an, da sind beide Fotos zusammengefasst, eins groß, eins klein. Nichts gleicher Ausschnitt.
Antwort von Jan:
dienstag_01 hat geschrieben:
Jan hat geschrieben:
Der Thread wird bald ausgelagert und das ist auch gut so.
Wenn du eine APS-C-Kamera mit einem 50 mm bestückst und eine Vollformatkamera mit einem 50mm Objektiv und dann einen Testaufbau abfotografierst, was passiert dann wohl ? Du bist mit der APS-C näher am Objekt, musst also mit ihr zurück gehen oder mit der Vollformat vor gehen. Er hat ja genau den gleichen Ausschnitt abfotografiert, also muss er mit einer Kamera vor oder zurück gegangen sein. Muss ich Euch das jetzt auch noch erklären, dass das gleiche Objektiv an einem kleinerem Sensor weniger Winkel zeigt, man ist also näher dran durch den Crop ?
Jetzt bist du wirklich irre ;)
Schau dir das Bild 3 an, da sind beide Fotos zusammengefasst, eins groß, eins klein. Nichts gleicher Ausschnitt.
Die Poxybox auf den drei Bildern vorn hat nicht fast genauen den gleichen Ausschnitt ? Dann kauf Dir bitte eine Brille ! Der Cropfaktor ist 1,6, du wärst deutlich näher dran als nur ein Millimeter bei der Grafik.
Antwort von dienstag_01:
Jetzt sind die Bilder weg, keine Ahnung.
Ich habe nur die anderen mit der Millimeterskala vor mir, aber egal, dass es NICHT um das gleiche Bild, sondern nur um die vom kleineren Sensor vorgegebene Bildgröße geht, ist eigentlich so eindeutig hier beschrieben.
Dass näher an das Motiv ran gegangen wird, um den gleichen Bildausschnitt zu haben, zeig mal, wo das hier beschrieben ist.
Antwort von Jan:
Wer keine Kamera daheim hat, kann den Nikon Brennweitensimulator nehmen.
50mm Objektiv an einer APS-C-Kamera = 31.3° Bildwinkel
50mm Objektiv an einer Vollformat-Kamera = 46.4° Bildwinkel
Man ist damit deutlich näher dran, ein abfotografiertes Objekt wäre damit bei der APS-C-Kamera deutlich größer wenn man die Entfernung gleich lassen würde.
https://www.nikon.de/de_DE/learn_explor ... lator.page
Antwort von Jan:
dienstag_01 hat geschrieben:
Jetzt sind die Bilder weg, keine Ahnung.
Ich habe nur die anderen mit der Millimeterskala vor mir, aber egal, dass es NICHT um das gleiche Bild, sondern nur um die vom kleineren Sensor vorgegebene Bildgröße geht, ist eigentlich so eindeutig hier beschrieben.
Dass näher an das Motiv ran gegangen wird, um den gleichen Bildausschnitt zu haben, zeig mal, wo das hier beschrieben ist.
Also an meinem Laptopbildschirm ist die Schachtel bei allen drei Bilder fast genau 11,5 cm groß, wenn man es groß klickt. Ich möchte da bitte nicht um einen Millimeter rummosern, die Bilder sind fast gleich, auch wenn nicht ganz gleich. Bei Crop 1,6 wäre das Bild deutlich näher dran bei gleicher Entfernung.
Antwort von dienstag_01:
Jetzt sind die Bilder weg, keine Ahnung.
Ich habe nur die anderen mit der Millimeterskala vor mir, aber egal, dass es NICHT um das gleiche Bild, sondern nur um die vom kleineren Sensor vorgegebene Bildgröße geht, ist eigentlich so eindeutig hier beschrieben.
Dass näher an das Motiv ran gegangen wird, um den gleichen Bildausschnitt zu haben, zeig mal, wo das hier beschrieben ist.
Also an meinem Laptopbildschirm ist die Schachtel bei allen drei Bilder fast genau 11,5 cm groß, wenn man es groß klickt. Ich möchte da bitte nicht um einen Millimeter rummosern, die Bilder sind fast gleich, auch wenn nicht ganz gleich. Bei Crop 1,6 wäre das Bild deutlich näher dran bei gleicher Entfernung.
Es geht um den Test mit der Skala. Darum ging es zumindest in den letzten Tagen immer. Dass klusterdegenerierung mit Stichtag heute glaubt, die Schärfentiefe bei einem 35mm- und einem 50mm- Objektiv wären gleich - und das noch *beweist* -, dafür kann keiner was ;)
Antwort von Jan:
Er meinte, dass man bei einem 50mm Objektiv an verschiedenen Sensoren mit der gleichen Blende immer die gleiche Tiefenschärfe vorfindet. Ich habe Anfangs das so argumentiert, dass man ja da bei einer APS-C-Kamera ein 35mm nehmen müsste, wenn man die Entfernung gleich lassen will und genau das Gleiche abfotografieren will. Er meinte, ich soll mich nicht auf den Crop versteifen, sondern bei beiden Kameras ein 50er nehmen. Das kann man machen, nur muss man dann bei der APS-C-Kamera dann weiter zurückgehen, oder bei der Vollformat mit dem gleichen 50er vor gehen, damit man genau das Gleiche abfotografiert. Egal ob man nun ein 35er auf die APS-C-Kamera drauf schraubt und den Testpartner Vollformat mit einem 50mm bestückt, oder Beide mit einem 50mm Objektiv bestückt, die Schärfentiefebereich ist nicht gleich. Auch wenn bei seinem Aufbau und mit seinen eingestellten Werten beim "Kleberbild+WD40-Bild" der Tiefenschärfebereich fast gleich ist, eben einen Zentimeter mehr bei APS-C, ist das unter anderen Umständen (andere Entfernung, andere Blende, andere Brennweite) deutlich anders. Den einen Zentimeter mehr Tiefenschärfe bei APS-C kann man so auf dem Bild nicht sehen, dazu müsste man die Dose leicht bewegen. Indem Fall sieht es hier so aus, dass die Tiefenschärfe fast gleich ist.
Er hat bei seinem Aufbau wissentlich oder nicht wissentlich ein sehr ähnliches Tiefenschärfeverhalten erzeugt, das ist korrekt. Sobald er das aber mit mehr Entfernung wiederholt, oder mit ein Zoll-Sensoren, oder noch kleiner, sieht man es deutlich, dass man mehr Tiefenschärfe bei Kleinsensorenkameras unter gleichen Voraussetzungen beobachten kann. Und nur darum ging es mir.
Antwort von dienstag_01:
Jan hat geschrieben:
Er meinte, dass man bei einem 50mm Objektiv an verschiedenen Sensoren mit der gleichen Blende immer die gleiche Tiefenschärfe vorfindet. Ich habe Anfangs das so argumentiert, dass man ja da bei einer APS-C-Kamera ein 35mm nehmen müsste, wenn man die Entfernung gleich lassen will und genau das Gleiche abfotografieren will. Er meinte, ich soll mich nicht auf den Crop versteifen, sondern bei beiden Kameras ein 50er nehmen. Das kann man machen, nur muss man dann bei der APS-C-Kamera dann weiter zurückgehen, oder bei der Vollformat mit dem gleichen 50er vor gehen, damit man genau das Gleiche abfotografiert. Egal ob man nun ein 35er auf die APS-C-Kamera drauf schraubt und den Testpartner Vollformat mit einem 50mm bestückt, oder Beide mit einem 50mm Objektiv bestückt, die Schärfentiefebereich ist nicht gleich. Auch wenn in seinem Aufbau und mit seinen eingestellten Werten beim "Kleberbild+WD40-Bild" der Tiefenschärfebereich fast gleich ist, eben einen Zentimeter mehr bei APS-C, ist das unter anderen Umständen (andere Entfernung, andere Blende, andere Brennweite) deutlich anders. Er hat bei seinem Aufbau wissentlich oder nicht wissentlich ein sehr ähnliches Tiefenschärfeverhalten erzeugt, das ist korrekt. Sobald er das aber mit mehr Entfernung wiederholt, oder mit ein Zoll-Sensoren, oder noch kleiner, sieht man es deutlich, dass man mehr Tiefenschärfe bei Kleinsensorenkameras unter gleichen Voraussetzungen beobachten kann. Und nur darum ging es mir.
Naja, du du hast es immer noch nicht verstanden. Du willst immer irgendwie auf das gleiche Bild hinaus, es geht aber *nur* um die gleiche Brennweite.
Antwort von Jan:
Was gibt es da nicht zu verstehen, wenn ich mir das Bild mit dem Kleber anschaue ? Der Schärfentiefebereich sieht fast gleich aus, weil er mit seinen eingestellten Werten für sehr ähnliche Verhältnisse sorgt, was dem kleinen Sensor im Bezug auf weniger Tiefenschärfe entgegenkommt. Wiederholt er es mit einer größeren Entfernung, wird man sofort einen Unterschied feststellen. Wiederholt er das mit einer Ein Zoll Sensorkamera und der Vollformat, wird das richtig deutlich.
Antwort von Jan:
dienstag_01 hat geschrieben:
Jan hat geschrieben:
Er meinte, dass man bei einem 50mm Objektiv an verschiedenen Sensoren mit der gleichen Blende immer die gleiche Tiefenschärfe vorfindet. Ich habe Anfangs das so argumentiert, dass man ja da bei einer APS-C-Kamera ein 35mm nehmen müsste, wenn man die Entfernung gleich lassen will und genau das Gleiche abfotografieren will. Er meinte, ich soll mich nicht auf den Crop versteifen, sondern bei beiden Kameras ein 50er nehmen. Das kann man machen, nur muss man dann bei der APS-C-Kamera dann weiter zurückgehen, oder bei der Vollformat mit dem gleichen 50er vor gehen, damit man genau das Gleiche abfotografiert. Egal ob man nun ein 35er auf die APS-C-Kamera drauf schraubt und den Testpartner Vollformat mit einem 50mm bestückt, oder Beide mit einem 50mm Objektiv bestückt, die Schärfentiefebereich ist nicht gleich. Auch wenn in seinem Aufbau und mit seinen eingestellten Werten beim "Kleberbild+WD40-Bild" der Tiefenschärfebereich fast gleich ist, eben einen Zentimeter mehr bei APS-C, ist das unter anderen Umständen (andere Entfernung, andere Blende, andere Brennweite) deutlich anders. Er hat bei seinem Aufbau wissentlich oder nicht wissentlich ein sehr ähnliches Tiefenschärfeverhalten erzeugt, das ist korrekt. Sobald er das aber mit mehr Entfernung wiederholt, oder mit ein Zoll-Sensoren, oder noch kleiner, sieht man es deutlich, dass man mehr Tiefenschärfe bei Kleinsensorenkameras unter gleichen Voraussetzungen beobachten kann. Und nur darum ging es mir.
Naja, du du hast es immer noch nicht verstanden. Du willst immer irgendwie auf das gleiche Bild hinaus, es geht aber *nur* um die gleiche Brennweite.
Und selbst wenn man es genau so machen würde, obwohl man da ja einen komplett anderen Ausschnitt abfotografieren oder abfilmen würde, ist die Tiefenschärfe nicht gleich. Die ist in dem Fall bei dem kleinerem Sensor sogar kleiner. Man kann somit sogar eher etwas freistellen. Aber irgendwie sollte man auch etwas definieren, man sollte ja genau das den gleichen Ausschnitt haben und nicht einmal deutlich näher dran sein oder deutlich weiter weg sein.
Kannst du alles beim Dofmaster eingeben. Das Einzige wo man sagen kann dass die Tiefenschärfe bei einem 50mm Objektiv immer gleich ist, wenn man den Testaufbau 50mm, F 2,8 und eine Entfernung zum Objekt von mehr als 50m einhält, also Einstellung unendlich, dann ist die Tiefendschärfe wirklich gleich. Aber eben nicht, wenn man näher dran ist.
http://www.dofmaster.com/dofjs.html
Antwort von dienstag_01:
Jan hat geschrieben:
Was gibt es da nicht zu verstehen, wenn ich mir das Bild mit dem Kleber anschaue ? Der Schärfentiefebereich sieht fast gleich aus, weil er mit seinen eingestellten Werten für sehr ähnliche Verhältnisse sorgt, was dem kleinen Sensor im Bezug auf weniger Tiefenschärfe entgegenkommt. Wiederholt er es mit einer größeren Entfernung, wird man sofort einen Unterschied feststellen. Wiederholt er das mit einer Ein Zoll Sensorkamera und der Vollformat, wird das richtig deutlich.
Ich versuche es ein letztes Mal: schau dir Bild 3 (Skala) an: ein FullFrame und - eingefügt - ein APS-C, beide in ihrer originalen Größe.
Das ist EINE Brennweite, bei EINER Entfernung, bei UNTERSCHIEDLICHEN Sensoren.
Und darum geht es hier schon geraume Zeit.
Antwort von dienstag_01:
Jan hat geschrieben:
dienstag_01 hat geschrieben:
Naja, du du hast es immer noch nicht verstanden. Du willst immer irgendwie auf das gleiche Bild hinaus, es geht aber *nur* um die gleiche Brennweite.
Und selbst wenn man es genau so machen würde, obwohl man da ja einen komplett anderen Ausschnitt abfotografieren oder abfilmen würde, ist die Tiefenschärfe nicht gleich. Die ist in dem Fall bei dem kleinerem Sensor sogar kleiner. Man kann somit sogar eher etwas freistellen. Aber irgendwie sollte man auch etwas definieren, man sollte ja genau das den gleichen Ausschnitt haben und nicht einmal deutlich näher dran sein oder deutlich weiter weg sein.
Ich gebe es auf ;)
Antwort von Jan:
dienstag_01 hat geschrieben:
Jan hat geschrieben:
Was gibt es da nicht zu verstehen, wenn ich mir das Bild mit dem Kleber anschaue ? Der Schärfentiefebereich sieht fast gleich aus, weil er mit seinen eingestellten Werten für sehr ähnliche Verhältnisse sorgt, was dem kleinen Sensor im Bezug auf weniger Tiefenschärfe entgegenkommt. Wiederholt er es mit einer größeren Entfernung, wird man sofort einen Unterschied feststellen. Wiederholt er das mit einer Ein Zoll Sensorkamera und der Vollformat, wird das richtig deutlich.
Ich versuche es ein letztes Mal: schau dir Bild 3 (Skala) an: ein FullFrame und - eingefügt - ein APS-C, beide in ihrer originalen Größe.
Das ist EINE Brennweite, bei EINER Entfernung, bei UNTERSCHIEDLICHEN Sensoren.
Und darum geht es hier schon geraume Zeit.
Bild Eins und Zwei haben eine komplett andere Tiefenschärfe, er hat sich somit selbst ein Ei gelegt. Ist dort klar zu sehen, bei einem Bild ist die Eins auf der Skala scharf,beim anderen Bild verschwindet die Eins schon in Unschärfe.
Antwort von Knoppers:
wo sind denn die bilder, das man auch mal mitschauen und sich ein eigenes urteil bilden kann?
Antwort von Jan:
Und jetzt wiederholt das mal mit einer Kamera mit kleinerem Sensor wie meine RX 100 und den Werten, die ich genannt habe, immer gleiche Blende und gleiche Brennweite (beispielsweise mit Canon Vollformat und 14mm F 2,8), dort wird man es noch deutlich sehen.
Wann glaubt ihr endlich mal dem Dofmaster oder dem englischen Wikipediaeintrag, dass die Sensorgröße sehr wohl eine Rolle bei der Tiefenschärfe spielt, selbst bei gleicher Entfernung, gleicher Blende und gleicher Brennweite und nicht weil ihr denkt, ihr seid hier mit 10.000 Beiträgen allwissend.
Antwort von Jan:
Knoppers hat geschrieben:
wo sind denn die bilder, das man auch mal mitschauen und sich ein eigenes urteil bilden kann?
Beitrag von klusterdegenerierung » Do 20 Sep, 2018 13:05 - Seite Zwei weit unten.
Antwort von dienstag_01:
Jan hat geschrieben:
Und jetzt wiederholt das mal mit einer Kamera mit kleinerem Sensor wie meine RX 100 und den Werten, die ich genannt habe, immer gleiche Blende und gleiche Brennweite (beispielsweise mit Canon Vollformat und 14mm F 2,8), dort wird man es noch deutlich sehen.
Wann glaubt ihr endlich mal dem Dofmaster oder dem englischen Wikipediaeintrag, dass die Sensorgröße sehr wohl eine Rolle bei der Tiefenschärfe spielt, selbst bei gleicher Entfernung, gleicher Blende und gleicher Brennweite und nicht weil ihr denkt, ihr seid hier mit 10.000 Beiträgen allwissend.
Der Dofmaster rechnet mit unterschiedlichen Zerstreuungskreisen. Woher kommen die deiner Meinung nach?
Antwort von Jan:
dienstag_01 hat geschrieben:
Jan hat geschrieben:
Und jetzt wiederholt das mal mit einer Kamera mit kleinerem Sensor wie meine RX 100 und den Werten, die ich genannt habe, immer gleiche Blende und gleiche Brennweite (beispielsweise mit Canon Vollformat und 14mm F 2,8), dort wird man es noch deutlich sehen.
Wann glaubt ihr endlich mal dem Dofmaster oder dem englischen Wikipediaeintrag, dass die Sensorgröße sehr wohl eine Rolle bei der Tiefenschärfe spielt, selbst bei gleicher Entfernung, gleicher Blende und gleicher Brennweite und nicht weil ihr denkt, ihr seid hier mit 10.000 Beiträgen allwissend.
Der Dofmaster rechnet mit unterschiedlichen Zerstreuungskreisen. Woher kommen die deiner Meinung nach?
Weil jede Sensorgröße einen anderen Zerstreuungskreis besitzt.
1/2,7"-Digitalkamera-Sensor 6,3 mm 0,004 mm
1/1,7"-Digitalkamera-Sensor 9,4 mm 0,006 mm
2/3"-Digitalkamera-Sensor 11,2 mm 0,007 mm
4/3-Typ-Digitalkamera-Sensor 17,3 mm × 13 mm 21,63 mm 0,015 mm
APS-C Digitalkamera-Sensor 22,5 mm × 15 mm 27 mm 0,018 mm
Kleinbildformat 24 mm × 36 mm 43,2 mm 0,03 mm
Mittelformat 57 mm × 57 mm 80,6 mm 0,05 mm
Großformat 90 mm × 120 mm 150 mm 0,10 mm
Größere Formate > 0,1 mm
https://de.wikipedia.org/wiki/Zerstreuungskreis
Antwort von dienstag_01:
Jan hat geschrieben:
dienstag_01 hat geschrieben:
Der Dofmaster rechnet mit unterschiedlichen Zerstreuungskreisen. Woher kommen die deiner Meinung nach?
Weil jede Sensorgröße einen anderen Zerstreuungskreis besitzt.
1/2,7"-Digitalkamera-Sensor 6,3 mm 0,004 mm
1/1,7"-Digitalkamera-Sensor 9,4 mm 0,006 mm
2/3"-Digitalkamera-Sensor 11,2 mm 0,007 mm
4/3-Typ-Digitalkamera-Sensor 17,3 mm × 13 mm 21,63 mm 0,015 mm
APS-C Digitalkamera-Sensor 22,5 mm × 15 mm 27 mm 0,018 mm
Kleinbildformat 24 mm × 36 mm 43,2 mm 0,03 mm
Mittelformat 57 mm × 57 mm 80,6 mm 0,05 mm
Großformat 90 mm × 120 mm 150 mm 0,10 mm
Größere Formate > 0,1 mm
Dann lies mal den von dir verlinkten engl. Wikipediaartikel über den Zerstreuungskreis, vielleicht geht dir dann ein Licht auf, dass das nicht einfach so seien kann. Ich hatte es übrigens schon mehrmals hier geschrieben.
Antwort von Jan:
Die Diskussion bringt so oder so nichts, ich habe eh bald Urlaub und will mich damit nicht noch belasten. Es geht auch gar nicht darum, dass ich recht haben muss. Ich habe einfach mit vielen verschiedenen Sensorgrößen in meinem Leben fotografiert, dass ich es anders wahrnehme, Wiki (englisch) und der Dofmaster sind auf meiner Seite. Der erste gut gemachte Vergleich mit der Schärfeskala von Kluster mit Bild Eins und Zwei beweist ja sogar, dass was ich sage und auch was der Dofmaster meint, die Tiefenschärfe ist dort nicht gleich bei der Sony Vollformat zur APS-C mit gleicher Brennweite und gleicher Blende. Beim WD-40 Bild habe ich ja gesagt, warum das in dem Fall wirklich gleich aussieht, es ist ja klar bei nur einer kleinen Differenz von einem Zentimeter Tiefenschärfeunterschied.
Roland hat es ja kurz erwähnt, dass Kluster richtig liegt, wenn man es auf unendlich bezieht, dass sagt ja auch der Dofmaster. Aber eben nur auf dieses Entfernung, bei näheren Entfernungen liege ich richtig, die Tiefenschärfe verändert sich bei verschiedenen Sensorgrößen bei gleicher Blende und gleicher Brennweite.
Antwort von dienstag_01:
Jan hat geschrieben:
Die Diskussion bringt so oder so nichts, ich habe eh bald Urlaub und will mich damit nicht noch belasten. Es geht auch gar nicht darum, dass ich recht haben muss. Ich habe einfach mit vielen verschiedenen Sensorgrößen in meinem Leben fotografiert, dass ich es anders wahrnehme, Wiki (englisch) und der Dofmaster sind auf meiner Seite. Der erste gut gemachte Vergleich mit der Schärfeskala von Kluster mit Bild Eins und Zwei beweist ja sogar, dass was ich sage und auch was der Dofmaster meint, die Tiefenschärfe ist dort nicht gleich bei der Sony Vollformat zur APS-C mit gleicher Brennweite und gleicher Blende. Beim WD-40 Bild habe ich ja gesagt, warum das in dem Fall wirklich gleich aussieht, es ist ja klar bei nur einer kleinen Differenz von einem Zentimeter Tiefenschärfeunterschied.
Roland hat es ja kurz erwähnt, dass Kluster richtig liegt, wenn man es auf unendlich bezieht, dass sagt ja auch der Dofmaster. Aber eben nur auf dieses Entfernung, bei näheren Entfernungen liege ich richtig, die Tiefenschärfe verändert sich bei verschiedenen Sensorgrößen bei gleicher Blende und gleicher Brennweite.
Die Wiki englisch ist ausschließlich deshalb auf deiner Seite, weil du nicht verstehst, was da steht.
Dort steht nämlich ziemlich genau, wie es zu den unterschiedlichen Zerstreuungskreisen kommt, durch unterschiedliche Vergrößerungen.
Das muss man ja wenigstens mal ansatzweise verstehen.
Antwort von Skeptiker:
Soll man für DOF-Berechnungen digitaler Kameras den Zerstreungskreis-Durchmesser fix mit der Sensor-Diagonale verknüpfen (üblich ist 1/1500 der Sensordiagonale) ?
DOFMaster meint, ja.
Dieser Artikel (engl. übersetzt, original französisch) meint, nein und belegt das mit Theorie und Beispielen:
Artfx - Depth of Field and digital Sensors
Artikel von Christophe Métairie, Photographe, Nov 2011
https://www.artfx.fr/en/depth-of-field- ... l-sensors/
Im Artikel wird vorgeschlagen, für eine realistische Abschätzung der Schärfentiefe digitaler Kameras unabhängig von der Sensorgrösse das 1.5-fache einer Pixelseite zu verwenden (auch 'Pixel Pitch' genannt - eigentlich ist es der Abstand der Mittelpunkte zweier Pixel, was einen inaktiven Pixelrand nicht ausschliesst).
https://de.wikipedia.org/wiki/Pixelpitch).
Ich habe ja an anderer Stelle schon einmal den DOF-Rechner von
Vision Doctor verlinkt, der den 2-fachen Pixel Pitch als max. zulässigen CoC (Unschärfekreis) vorschlägt:
http://www.vision-doctor.com/optik-bere ... tiefe.html
Im Prinzip kann man den Test mit Zeit & Ausdauer ja selbst machen:
Man nehme eine Sony A7S mit rund 12 Megapixeln und entsprechendem grossen Pixel Pitch und vergleiche mit einer Sony A7R II oder III mit rund 42 Megapixeln und kleinerem Pixel Pitch.
Gleiche Sensorgrösse, also gemäss DOFMaster bei gleichen Aufnahme-Bedingungen gleiche Schärfentiefe, aber gemäss Vision Doctor und dem oben verlinkten Artikel müsste sie unterschiedlich sein.
Die Frage ist noch, ob diese Unterschiede markant genug sind, um deutlich sichtbar zu sein (bei welcher Sensorbild-Vergrösserung auf welche Weise?), falls vorhanden?
Denn der Unterschied im Pixel Pitch ist nicht so gross wie vielleicht erwartet:
Sony A7S: Pixel Pitch ca. 8.5 Mikrometer
Sony A7R (neueres Modell): Pixel Pitch ca. 4.5 Mikrometer
Und zur Verifizierung des einen (CoC nach Methode A: 1/1500 Sensor-Diagonale) oder anderen (CoC nach Methode B: 1.5x oder 2x Pixel Pitch) DOF-Rechners müsste man im Prinzip die berechnete Schärfentiefe mal mit einer fotografierten Tiefenskala ("gespanntes Massband" oder Fussboden mit Skala - es soll jedenfalls kein naher Makrobereich sein, da dort die DOF-Formeln angepasst werden müssten) auf dem Bild vergleichen: Stimmt die effektive Schärfe des fotografierten Skalenbereichs mit der Rechnung überein?
Und wenn sie nicht perfekt übereinstimmt, nach welcher Berechnungsmethode stimmt sie besser?
Antwort von dienstag_01:
Ach gucke, der Pixelpitch ist wieder da ;)
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Ach gucke, der Pixelpitch ist wieder da ;)
Es fehlt nur noch der Test, was denn nun (besser) stimmt.
Jemand muss in den sauren Apfel beissen und ihn unter kontrollierten Bedingungen einfach mal machen.
Wie wäre es mit der slashCAM-Redaktion - ganz entspannt nach Feierabend ??
Sonst nehmen diese Diskussionen kein (test-abgesichertes) Ende mit Schrecken (für die eine oder andere Seite) sondern entwickeln sich so langsam zum Schrecken ohne Ende! :-(
Antwort von dienstag_01:
Wie groß sind denn die Unterschiede?
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Wie groß sind denn die Unterschiede?
Ein DOF-Rechner mit frei eingebbarem Umschärfekreis-Durchmesser verrät es Dir (und die DOF-Formeln sagen Dir, warum).
Kein Stress, Du hast noch die ganze Nacht vor Dir! ;-)
Ein Beispiel:
CoC = 0.03 mm (also 30 Mikrometer)
f = 50 mm
Blende = 4
Fokusdistanz = 5000 mm (5m)
DOF = 2518 mm
CoC = 0.015 mm (also 15 Mikrometer)
f = 50 mm
Blende = 4
Fokusdistanz = 5000 mm (5m)
DOF = 1205 mm
PS:
Im
DOFMaster (ohne CoC-Direkteingabe) kommst Du ja wie oben auf ein CoC-Durchmesser-Verhältnis von 2:1, indem Du einmal den FF-Sensor wählst und zum anderen den MFT-Sensor - bei sonst gleichen Einstellungen.
Antwort von WoWu:
Skeptiker hat geschrieben:
dienstag_01 hat geschrieben:
Ach gucke, der Pixelpitch ist wieder da ;)
Es fehlt nur noch der Test, was denn nun (besser) stimmt.
Jemand muss in den sauren Apfel beissen und ihn unter kontrollierten Bedingungen einfach mal machen.
Wie wäre es mit der slashCAM-Redaktion - ganz entspannt nach Feierabend ??
Sonst nehmen diese Diskussionen kein (test-abgesichertes) Ende mit Schrecken (für die eine oder andere Seite) sondern entwickeln sich so langsam zum Schrecken ohne Ende! :-(
Bitte nicht, denn genau darin liegt das Problem.
Es werden munter Begriffe und Rahmenbedingungen miteinander vermengt, am meisten noch in diesen ünsäglichen Tests.
Auch wird gern Freistellung mit Tiefenschärfe verwechselt und Abbildungsmasstäbe mit Crops weil Begriffe einfach nur falsch benutzt werden. usw. usw.
Die Angelsachsen haben es da schon einwenig einfacher, weil sie zunächst einmal in „depth of focus“ und „depth of field“ unterscheiden.
Statt dessen bemüht man sich hier um Spracherziehung, ob es nun „Tiefenschärfe“ oder „Schärfentiefe“ heißt, statt sich mit den wirklich wichtigen Unterscheidungen auseinander zu setzen.
Viele Parameter sind häufig noch nicht einmal in Betrachtungen einbezogen und die Diskussion dreht sich ausschließlich um ein paar populäre Begriffe, die allein dem Thema aber nicht gerecht werden.
Das eigentliche Problem liegt nicht in der physikalisch richtigen Aufbereitung und Darstellung sondern in den Küchetischtests der Beteiligten.
Es gibt ausreichen gute Literatur (ich nenne da nur mal das Zeiss Papier), das alle Fragen hinreichend aufklärt.
Was macht Dich also so zuversichtlich, dass die Redaktion es in einem Test korrekt abbilden könnte.
Ich kann da Deinen Optimismus überhaupt nicht teilen.
Antwort von Jan:
Wie siehst du es Wolfgang in ganz einfachen Worten, ist die Tiefenschärfe bei gleicher Blende und gleicher Brennweite bei allen Sensorgrößen in allen Entfernungen zum Objekt gleich ? Oder kann man es so nicht genau sagen, je nachdem wie man Tiefenschärfe definiert ? Mir ist schon klar, dass dein Sachverstand bei diesem Thema um ein vielfaches höher ist wie meiner, vielleicht kannst du dich trotzdem dazu äußern.
Antwort von Jan:
dienstag_01 hat geschrieben:
Jan hat geschrieben:
Die Diskussion bringt so oder so nichts, ich habe eh bald Urlaub und will mich damit nicht noch belasten. Es geht auch gar nicht darum, dass ich recht haben muss. Ich habe einfach mit vielen verschiedenen Sensorgrößen in meinem Leben fotografiert, dass ich es anders wahrnehme, Wiki (englisch) und der Dofmaster sind auf meiner Seite. Der erste gut gemachte Vergleich mit der Schärfeskala von Kluster mit Bild Eins und Zwei beweist ja sogar, dass was ich sage und auch was der Dofmaster meint, die Tiefenschärfe ist dort nicht gleich bei der Sony Vollformat zur APS-C mit gleicher Brennweite und gleicher Blende. Beim WD-40 Bild habe ich ja gesagt, warum das in dem Fall wirklich gleich aussieht, es ist ja klar bei nur einer kleinen Differenz von einem Zentimeter Tiefenschärfeunterschied.
Roland hat es ja kurz erwähnt, dass Kluster richtig liegt, wenn man es auf unendlich bezieht, dass sagt ja auch der Dofmaster. Aber eben nur auf dieses Entfernung, bei näheren Entfernungen liege ich richtig, die Tiefenschärfe verändert sich bei verschiedenen Sensorgrößen bei gleicher Blende und gleicher Brennweite.
Die Wiki englisch ist ausschließlich deshalb auf deiner Seite, weil du nicht verstehst, was da steht.
Dort steht nämlich ziemlich genau, wie es zu den unterschiedlichen Zerstreuungskreisen kommt, durch unterschiedliche Vergrößerungen.
Das muss man ja wenigstens mal ansatzweise verstehen.
Dort steht aber eben auch, dass die Tiefenschärfe nicht immer gleich ist bei gleicher Blende und gleicher Brennweite, was zu beweisen war, Kluster meint unter allen Bedingungen. Und wenn du dir die beiden Bilder (die Ersten) von Kluster anschaust, sieht man da auch nicht eine gleiche Tiefenschärfe zwischen der APS-C und der Vollformat.
Antwort von dienstag_01:
Jan hat geschrieben:
dienstag_01 hat geschrieben:
Die Wiki englisch ist ausschließlich deshalb auf deiner Seite, weil du nicht verstehst, was da steht.
Dort steht nämlich ziemlich genau, wie es zu den unterschiedlichen Zerstreuungskreisen kommt, durch unterschiedliche Vergrößerungen.
Das muss man ja wenigstens mal ansatzweise verstehen.
Dort steht aber eben auch, dass die Tiefenschärfe nicht immer gleich ist bei gleicher Blende und gleicher Brennweite, was zu beweisen war. Und wenn du dir die beiden Bilder (die Ersten) von Kluster anschaust, sieht man da auch nicht eine gleiche Tiefenschärfe zwischen der APS-C und der Vollformat.
Erstens: Wo steht denn das?
Zweitens: Du willst doch nicht wirklich die Testbilder von klusterdegenerierung als relevant bezeichnen?!
Antwort von WoWu:
Jan hat geschrieben:
Wie siehst du es Wolfgang in ganz einfachen Worten, ist die Tiefenschärfe bei gleicher Blende und gleicher Brennweite bei allen Sensorgrößen in allen Entfernungen zum Objekt gleich ? Oder kann man es so nicht genau sagen, je nachdem wie man Tiefenschärfe definiert ? Mir ist schon klar, dass dein Sachverstand bei diesem Thema um ein vielfaches höher ist wie meiner, vielleicht kannst du dich trotzdem dazu äußern.
Jan,
Ich will die Diskussion gar nicht weiter treiben, zumal schon einige -ob des Themas- herzzerreissend gähnen.
Zudem sind alle Zusammenhänge schon seit 1904 genau definiert und beschrieben ... und das von dem Wissenschaftler in seinem Papier "Über Tiefenschärfe", der den Ursprung gelegt hat, Ejnar Herzsprung.
Das Thema ist also mehr als hinreichend erforscht und dokumentiert ... nur offenbar eben nicht von allen verstanden.
Unter Berücksichtigung aller Darstellungsaspekte und Unterschiede in den Optischen Wegen vor und hinter der Eintrittspupille ergibt sich im Unterschied verschiedener Sensorgrössen (bei identischem Pixelraster) das Bild, wie im den Graphen dargestellt. (Anhang)
Natürlich kann man, durch die Veränderung verschiedener Parameter eine Freistellung erzeugen, die eine gleichwertige Anmutung hat aber auf unterschiedlichem Equipment basiert.
Das hat aber nichts mit Tiefenschärfe zu tun, denn darin wäre auch die Art der Unschärfe enthalten, die wiederum von vielen auch (zunrecht) völlig losgelöst also Bokeh bezeichnet wird.
Bokeh ist tatsächlich aber ein Teil der Tiefenschärfe.
Siehe Ejnar Herzsprung.
Was hier also in den "Tests" optisch bewiesen wird, sind losgelöste Einzelergebnisse, je nachdem, wie ich meinen Versuchsaufbau gestalte, aber alles Andere als der praktische Beweis dessen, was Herzsprung erforscht hat.
Ich kann nur dazu Raten, das Thema einmal intensiv zu erarbeiten, statt hier durch "Küchentischtests" belegen zu wollen, was physikalisch nicht stimmt und nur durch Veränderung der Testbedingungen entsteht.
Mal ganz abgesehen davon, dass jeder Photograph seit 100 Jahren den Unterschied in der Tiefenschärfe zwischen den einzelnen Bildformaten kennt und jeder die Problematik der Fokussierung bei grossen Sensoren (immer im Verhältnis zur identischen Pixelmatrix bei kleineren Sensoren).
Dass da nicht bei so manchem schon der gesunde Menschenverstand einsetzt, ist eigentlich enttäuschend.
Die Grafik dürfte Deine Frage beantworten, denn die Tiefenschärfe unterschiedlicher Sensorgrössen basiert auf identischen Testvoraussetzungen in der Aufnahme und Darstellung.
Antwort von Skeptiker:
WoWu hat geschrieben:
Jan hat geschrieben:
Wie siehst du es Wolfgang in ganz einfachen Worten, ist die Tiefenschärfe bei gleicher Blende und gleicher Brennweite bei allen Sensorgrößen in allen Entfernungen zum Objekt gleich ? Oder kann man es so nicht genau sagen, je nachdem wie man Tiefenschärfe definiert ? Mir ist schon klar, dass dein Sachverstand bei diesem Thema um ein vielfaches höher ist wie meiner, vielleicht kannst du dich trotzdem dazu äußern.
Jan,
Ich will die Diskussion gar nicht weiter treiben, zumal schon einige -ob des Themas- herzzerreissend gähnen.
Zudem sind alle Zusammenhänge schon seit 1904 genau definiert und beschrieben ... und das von dem Wissenschaftler in seinem Papier "Über Tiefenschärfe", der den Ursprung gelegt hat, Ejnar Herzsprung.
Das Thema ist also mehr als hinreichend erforscht und dokumentiert ... nur offenbar eben nicht von allen verstanden. ...
Mein oben vorgeschlagener Test war:
Gleiche Sensorgrösse aber deutlich unterschiedlicher Pixel Pitch und als Motiv eine Distanzskala, um die konkret zu beurteilende Schärfentiefe des Bildes mit der rechnerischen nach Methode A oder B zu vergleichen.
Als Ergänzung zu diesem Test eignet sich der folgende Test:
Gleicher Pixel Pitch bei deutlich unterschiedlicher Sensorgrösse. Wiederum mit Distanzskala als Motiv und wiederum DOF nach Methode A oder B berechnet.
Vergleich der Bilder zunächst bei gleichem Abbildungsmaß, das heisst, das Bild des kleineren Sensors ist kleiner, zeigt die Motive aber gleich gross.
Es geht also bei beiden Tests um den Sensor und dessen Grösse und Pixelzahl.
Die Optik-Rechnung davor aufgrund Brennweite, Blende und Fokusdistanz zum Motiv ist jeweils die gleiche, nur der CoC in den DOF-Formeln ist unterschiedlich.
Sensorgrösse / Pixelgrösse: Jeweils ein Faktor bleibt gleich, einer wird variiert.
Gemäss DOF-Rechner Typ A (konventionell, z.B. DOFMaster, CoC = 1/1500 der Sensordiagonale) oder Typ B (an digitale Sensoren angepasst, CoC = max. 1.5x oder 2x Pixel Pitch) werden unterschiedliche Schärfentiefen vorausgesagt.
'Real World'-Vergleich überfällig: Welche Berechnungsmetode (es geht in beiden Fällen um den Knackpunkt "CoC" - Zerstreuungskreis - einmal an die Sensorgrösse geknüpft, einmal an den Pixel Pitch (die Pixeldichte) geknüpft) kommt der heutigen Betrachtungsrealität digitaler Bilder näher ?
Wichtig: Keine Küchentisch-Tests im Nah- oder gar Makrobereich - dafür sind die DOF-Formeln nicht vorgesehen. Also 'Real World'-Motive in 3, 5 oder 10m Distanz bei einer nicht zu kleinen Blende (also 2.8, 4, vielleicht 5.6).
@WoWu: Was hat sich seit 1904 geändert?
Die DOF-Formeln vermutlich nicht, denn die optischen Zusammenhänge waren damals schon bekannt.
Die Wahl des max. erlaubten Unschärfekreis-Durchmessers zur DOF-Berechnung war damals an (quasi beliebig hoch auflösende) Filmemulsionen angepasst und an die Betrachtung von Prints ab Negativ oder Positiv (in einem gewissen Betrachtungsabstand bzw. unter einem gewissen Blickwinkel, um die Limitierung unserer Augen auch noch zu berücksichtigen).
Aber wir hatten 1904 keine Sensoren mit Sensel- und Pixelmatrix und wir betrachteten unsere Bilder nicht an Computermonitoren (ebefalls mit Pixelmatrix) in beliebiger Vergrösserung bis 1:1 (100%) der Original-Pixelzahl.
Und da muss die Frage erlaubt sein (auch wenn mancheiner Angst vor der Antwort zu haben scheint): Welcher DOF-Ansatz kommt der Realität näher?
Der Realität, dass ich eine Sensorkamera mit Pixelmatrix benutze und das Bild anschliessend an einem Computermonitor beurteile.
DOF-Rechner wie der DOFMaster bieten uns scheinbar präzise Antworten auf die Frage nach der Schärfentiefe: Genau "Von .. bis" ist alles noch akzeptabel scharf. Die Voraussetzungen für diese Anworten stammen - was die Bestimmung des CoC zur Berechnung betrifft - aus der analogen Fotozeit.
Da darf durchaus gefragt werden, ob diese Antworten für digitale Bilder aus digitalen Kameras unverändert zutreffen oder ob es besser geeignete Ansätze gibt.
Antwort von dienstag_01:
Man brauch überhaupt nicht über irgendwelche Tests nachzudenken (da kommt hier sowieso nur Schrott raus), wenn nicht verstanden wird, warum und wieso es unterschiedliche Annahmen für den Zerstreuungskreis gibt - besser dessen Limit - gibt.
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Man brauch überhaupt nicht über irgendwelche Tests nachzudenken (da kommt hier sowieso nur Schrott raus), wenn nicht verstanden wird, warum und wieso es unterschiedliche Annahmen für den Zerstreuungskreis gibt - besser dessen Limit - gibt.
Was ist das ?
Die Kapitulation vor dem eigenen Denken, der simplen Logik und jeglicher eigenen Initiative ?
Die DOF-Formeln haben genau 4 Variabeln - das genügt seit jeher (1904) angeblich, um uns präzise Angaben über einen Schärfentiefebereich im Motivraum, abgebildet mit akzeptabler Schärfe auf einem Sensor / Film zu machen: Brennweite, Blende, Fokusdistanz im Motivraum und eben der ominöse Zerstreuungskreis.
Und da soll es uns nun nicht gestattet sein, diese im Prinzip simple und nachvollziehbare Rechnerei anhand der Realität einmal zu überprüfen (dazu muss man die Formeln nicht einmal verstehen, es soll nur deren Ergebnis verifiziert oder falsifiziert werden), weil wir a) dabei sowieso nur Schrott produzieren (Tipp: Nicht von sich auf andere schliessen) und b) intellektuell nicht imstande sind, daraus irgendeinen vernünftigen Schluss zu ziehen.
Na dann - willkommen in der Totalverblödung!
Antwort von dienstag_01:
Skeptiker hat geschrieben:
dienstag_01 hat geschrieben:
Man brauch überhaupt nicht über irgendwelche Tests nachzudenken (da kommt hier sowieso nur Schrott raus), wenn nicht verstanden wird, warum und wieso es unterschiedliche Annahmen für den Zerstreuungskreis gibt - besser dessen Limit - gibt.
Was ist das ?
Die Kapitulation vor dem eigenen Denken, der simplen Logik und jeglicher eigenen Initiative ?
Die DOF-Formeln haben genau 4 Variabeln - das genügt seit jeher (1904) angeblich, um uns präzise Angaben über einen akzeptablen Schärfentiefebereich im Motivraum, abgebildet auf einem Sensor / Film zu machen: Brennweite, Blende, Fokusdistanz im Motivraum und eben der ominöse Zerstreuungskreis.
Und da soll es uns nun nicht gestattet sein, diese im Prinzip simple und nachvollziehbare Rechnerei anhand der Realität einmal zu überprüfen, weil wir a) dabei sowieso nur Schrott produzieren (Tipp: Nicht von sich auf andere schliessen) und b) intelleltuell nicht imstande sind, daraus irgendeinen vernünftigen Schluss zu ziehen.
Na dann - willkommen in der Totalverblödung!
Wenn man jemanden irgendwo willkommen heißt, bedeutet das, dass man selber schon vorher da war/ist.
Nur mal am Rande ;)
Antwort von Skeptiker:
Bring eine konstruktiven Vorschlag statt Dich seitennlang im Kreis zu drehen, und wir können gerne weiterdiskutieren!
Im übrigen setze ich Deine bisherige Argumentation nur konseqent fort, falls Dir das entgangen ist!
Ich will aber nicht in einen Polemikwettstreit eintreten, sondern wenn überhaupt, in einen Wettstreit der Argumente.
Und die liegen ja längst alle auf dem Tisch, deshalb mein Test-Vorschlag, zu dem Dir ausser Endlosschleifen-Sarkasmus leider nichts eingefallen ist.
Für seitenlange rhetorische slashCAM-Pseudoparaden ist mir meine Zeit zu schade - sorry!
Antwort von dienstag_01:
Skeptiker hat geschrieben:
Bring eine konstruktiven Vorschlag statt Dich seitennlang im Kreis zu drehen und wir können gerne weiterdiskutieren!
Im übrigen setzte ich Deine Argumentation bis hierhin nur konseqent fort, falls Dir das entgangen ist!
Ich will hier nicht in einen Polemikwettstreit eintreten, sondern wenn schon in einen Wettstreit der Argumente.
Für seitenlange rhetorische slashCAM-Pseudoparaden ist mir meine Zeit zu schade.
Teste doch einfach selbst: Eine Kamera -> eine Aufnahme -> Vergleich mit den beiden unterschiedlich berechneten Calculator-Werten (DoF vs die Formel des Farnzosen z.B.)
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Teste doch einfach selbst: Eine Kamera -> eine Aufnahme -> Vergleich mit den beiden unterschiedlich berechneten Calculator-Werten (DoF vs die Formel des Farnzosen z.B.)
Hätte ich wohl längst gemacht.
Wie bereits geschrieben: Das ist nicht der oft zitierte und verlachte Küchentischtest im Nah- oder gar Makrobereich - das ist ein Test in einem grossen Raum oder im Freien mit fixer, kontrollierter, wiederholbarer Installation und mit einer Distanz-Skala (oder einer sonstigen Entfernungsanzeige), die sich ablesbar in jeder Motiv-Distanz ins Bild einblenden bzw. einbinden lässt.
Diesen Raum und die Einrichtung habe ich leider nicht.
Aber offen gesagt: Es ist mir auch noch nie passiert, dass ich vor einer Aufnahme einen DOF-Rechner konsultiert hätte.
Vielleicht tun's ja die Hollywood-Profis (und wählen Brennweite und/oder Blende entsprechend) vor der entscheidenden X-Millionen Dollar-Szene mit dem Star Y (heute extra eingeflogen und mit einer Stunde Zeitlimite), der schräg von A nach B im Schärfebereich durchs Bild laufen soll und das ohne nachzufokussieren - wer weiss?
Antwort von dienstag_01:
Bei Vollformt (5D iii) und 4 Metern Abstand mit Blende 5,6 hat man:
- klassisch gerechnet eine Schärfentiefe von 3,16 bis 5,49 Metern.
- mit Pixelpitch gerechnet von 3,69 bis 4,37 Metern.
(Pixelpitch 6,25 Mikrometer)
Sollte sich unterscheiden lassen, auch ohne das man seinen Garten mit Millimeterpapier auslegt ;)
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Bei Vollformt (5D iii) und 4 Metern Abstand mit Blende 5,6 hat man:
- klassisch gerechnet eine Schärfentiefe von 3,16 bis 5,49 Metern.
- mit Pixelpitch gerechnet von 3,69 bis 4,37 Metern.
(Pixelpitch 6,25 Mikrometer)
Sollte sich unterscheiden lassen, auch ohne das man seinen Garten mit Millimeterpapier auslegt ;)
Wenn man statt einer Canon 5D III FF mit 22.3 Megapixeln eine Canon 5DS FF mit 50.6 Megapixeln verwenden könnte (berechnter Pixelpitch 4.14 Mikrometer), müsste der Test eigentlich eindeutig ausfallen - entweder zugunsten der klassischen CoC = 1/1500 Sens-Diag Methode (mit CoC = 28.8 Mikrometer, oft einfach = 30 Mikrometer gesetzt) oder zugunsten der neueren 2x Pixelpitch-Berechnung (mit CoC = 8.28 mm).
Antwort von dienstag_01:
Hab ich leider beide nicht ;)
Und leider habe ich auch irgendwie den Link verschlampert, der den Unterschied der Tiefenschärfe bezogen auf Print (so berechnet meiner Ansicht nach DOF Master) und Bildschirm behandelt.
Wenn der Artikel mal jemanden über den Weg läuft... ;)
Antwort von klusterdegenerierung:
Jan hat geschrieben:
Welche Entfernung hast du denn benutzt ? Ich sage jetzt einfach mal 80cm bei der APS-C-Kamera und 50 cm bei der Vollformat, damit man bei 50mm Brennweite den gleichen Ausschnitt hat. Dann hat man bei der Vollformatkamera einen Schärfebereich von 1,5 cm und bei der APS-C-Kamera einen Schärfebereich von 2,5 cm. Das ist also so eng, sodass du mit deinem Aufbau nichts sieht,außer du würdest mehrere Testaufnahmen machen und die hinterer Dose um einen Zentimeter langsam nach vorn bewegen. Und trotzdem ist laut physikalischen Formeln der Tiefenschärfebereich eben nicht gleich, umso näher du dran gehst, umso näher kommt man der Großsensorenkamera auf die Pelle. wenn du jetzt mal bei der APS-C 1,6 Meter weg gehst und bei der Vollformat um einen Meter bei 50mm Brennweite und Blende 2,8, dann hat die Vollformat schon einen Tiefenschärfespielvorteil von etwas mehr als 4cm. Daher muss man ja auch beim Handy und bei kleinerer Sensoren sehr nahe ans Objekt rangehen, um überhaupt etwas unscharf hinzubekommen trotz Blende F 1,5 oder F2. Der deutsche Wikipediaeintrag geht von altem Fotowissen aus, dass es sich immer um den gleichen 24x36mm Film handelt, ja dann ist die Tiefenschärfe gleich. Der englische Wikipediaeintrag ist bekannt dafür, oft genauer zu sein und aktueller. Da kannst du einfach jeden Fachmann fragen, der sich mit Physik oder welchem anderen Fach sehr gut auskennt.
Lieber Jan,
wie schon zig mal erwähnt, ändert sich der Abstand nie, der bleibt gleich!
Würde ich einen anderen Standpunkt nehmen um eine Brennweiten bzw Sensorgrößenäquivalenz herzustellen, würde eben genau das passieren, wovon Du die ganze Zeit sprichst, ich aber nicht meine.
Du siehst ja auf der Aufnahme der a6300 mit 35mm Optik und der der A7III mit 50mm,
das die Aufnahmen, unabhängig von Bildkreis, keine identische Tiefenschärfe haben,
was auch Deiner Beobachtung entspricht, damit hast Du also Recht.
Du siehst aber auch auf der andern 6300 Aufnahme mit dem 50mm Objektiv,
das die Tiefenschärfe bei FF und APS-C identisch sind,
auch wenn hier der Bildkreis bei der FF um Faktor 1.5 größer ist.
Es wäre mir sehr dran gelegen, wenn Du dies einmal ausprobierst.
Nehme eine FF & APS-C mit 50mm Optik bei gleichem Abstand & gleicher Blende,
aber Du kannst Dir auch meine Tif Datei runter laden, da steckt schon alles drin.
Also wie gesagt, befreie Dich ein mal von dem Gedanken das Du was ausgleichen müßtest! :-)
Antwort von WoWu:
@dienstag
Die Frage war nicht, was sich seit 1904 verändert hat sondern was sich an der Tiefenschärfe und deren technische Belegung seit 1904 verändert hat.
Nämlich gar nichts.
Zu Deiner Aufzählung würde ich dann noch dazuzählen, dass Deutschland noch einen Kaiser hatte weil all die technischen Errungenschaften mit dem optischen Ansatz der Tiefenschärfe überhaupt nichts zu tun haben denn Tiefenschärfe trifft genauso in der Mikroskopie und andern optischen Geräten auf, die all den Firlefanz gar nicht haben, den Du als (mögliche) Änderungsbegründung anführst.
Und das, was Ihr bei all den Tests macht, ist lediglich den Fokus auf die Freistellung zu legen und die eigentliche Tiefenschärfe (und deren Veränderung) dabei völlig aus dem Auge verliert.
Antwort von dienstag_01:
WoWu hat geschrieben:
@dienstag
Die Frage war nicht, was sich seit 1904 verändert hat sondern was sich an der Tiefenschärfe und deren technische Belegung seit 1904 verändert hat.
Nämlich gar nichts.
Zu Deiner Aufzählung würde ich dann noch dazuzählen, dass Deutschland noch einen Kaiser hatte weil all die technischen Errungenschaften mit dem optischen Ansatz der Tiefenschärfe überhaupt nichts zu tun haben denn Tiefenschärfe trifft genauso in der Mikroskopie und andern optischen Geräten auf, die all den Firlefanz gar nicht haben, den Du als (mögliche) Änderungsbegründung anführst.
Und das, was Ihr bei all den Tests macht, ist lediglich den Fokus auf die Freistellung zu legen und die eigentliche Tiefenschärfe (und deren Veränderung) dabei völlig aus dem Auge verliert.
Danke für den Verweis aufs Kaiserreich, hilft hier sehr. Womit ich mir den allerdings verdient habe, naja, Schwamm drüber.
Antwort von WoWu:
Das habe ich doch einfach erklärt: weil Du alle möglichen Dinge ins Feld führst, die zwar mit der subjektiven Bildwahrnehmung, aber nur sehr bedingt, bis nichts mit dem Thema Tiefenschärfe zu tun haben.
Antwort von dienstag_01:
WoWu hat geschrieben:
Das habe ich doch einfach erklärt: weil Du alle möglichen Dinge ins Feld führst, die zwar mit der subjektiven Bildwahrnehmung, aber nur sehr bedingt, bis nichts mit dem Thema Tiefenschärfe zu tun haben.
Werde mal konkret.
Antwort von Jan:
klusterdegenerierung hat geschrieben:
Jan hat geschrieben:
Welche Entfernung hast du denn benutzt ? Ich sage jetzt einfach mal 80cm bei der APS-C-Kamera und 50 cm bei der Vollformat, damit man bei 50mm Brennweite den gleichen Ausschnitt hat. Dann hat man bei der Vollformatkamera einen Schärfebereich von 1,5 cm und bei der APS-C-Kamera einen Schärfebereich von 2,5 cm. Das ist also so eng, sodass du mit deinem Aufbau nichts sieht,außer du würdest mehrere Testaufnahmen machen und die hinterer Dose um einen Zentimeter langsam nach vorn bewegen. Und trotzdem ist laut physikalischen Formeln der Tiefenschärfebereich eben nicht gleich, umso näher du dran gehst, umso näher kommt man der Großsensorenkamera auf die Pelle. wenn du jetzt mal bei der APS-C 1,6 Meter weg gehst und bei der Vollformat um einen Meter bei 50mm Brennweite und Blende 2,8, dann hat die Vollformat schon einen Tiefenschärfespielvorteil von etwas mehr als 4cm. Daher muss man ja auch beim Handy und bei kleinerer Sensoren sehr nahe ans Objekt rangehen, um überhaupt etwas unscharf hinzubekommen trotz Blende F 1,5 oder F2. Der deutsche Wikipediaeintrag geht von altem Fotowissen aus, dass es sich immer um den gleichen 24x36mm Film handelt, ja dann ist die Tiefenschärfe gleich. Der englische Wikipediaeintrag ist bekannt dafür, oft genauer zu sein und aktueller. Da kannst du einfach jeden Fachmann fragen, der sich mit Physik oder welchem anderen Fach sehr gut auskennt.
Lieber Jan,
wie schon zig mal erwähnt, ändert sich der Abstand nie, der bleibt gleich!
Würde ich einen anderen Standpunkt nehmen um eine Brennweiten bzw Sensorgrößenäquivalenz herzustellen, würde eben genau das passieren, wovon Du die ganze Zeit sprichst, ich aber nicht meine.
Du siehst ja auf der Aufnahme der a6300 mit 35mm Optik und der der A7III mit 50mm,
das die Aufnahmen, unabhängig von Bildkreis, keine identische Tiefenschärfe haben,
was auch Deiner Beobachtung entspricht, damit hast Du also Recht.
Du siehst aber auch auf der andern 6300 Aufnahme mit dem 50mm Objektiv,
das die Tiefenschärfe bei FF und APS-C identisch sind,
auch wenn hier der Bildkreis bei der FF um Faktor 1.5 größer ist.
Es wäre mir sehr dran gelegen, wenn Du dies einmal ausprobierst.
Nehme eine FF & APS-C mit 50mm Optik bei gleichem Abstand & gleicher Blende,
aber Du kannst Dir auch meine Tif Datei runter laden, da steckt schon alles drin.
Also wie gesagt, befreie Dich ein mal von dem Gedanken das Du was ausgleichen müßtest! :-)
Du meinst doch das Bild mit dem WD-40, ich habe doch erklärt, warum bei diesem Bild die Tiefenschärfe gleich aussieht. Bei deinem Testaufbau, der übrigens gut gemacht ist, hat man bei deinen eingestellten Werten einen sehr geringen Tiefenschärfenbereich (egal ob KB oder APS-C), es geht dort wirklich um einen oder um sehr wenige Zentimeter. Du bist dort nahe an das Objekt rangegangen, was ja auch richtig ist. Eine richtige Tiefenschärfebeurteilung kann man dort nicht machen, außer du würdest die Dose leicht nach hinten oder vorn bewegen und noch viel mehr Bilder schießen. Da kann man also die Dose bewegen und würde bei einem Bild ein gleiches Tiefenschärfeverhalten feststellen und bei einem anderen Bild würde es nicht gleich aussehen. Die erste Bildserie ist da genauer und da sieht man es, weil man dort jeden einzelnen Zentimeter beurteilen kann.
PS: Du kannst beim Bild mit dem WD40 bei beiden Kameras nicht die gleiche Entfernung eingestellt haben, weil dann ein Bild deutlich größer sein müsste, die Dose wie auch die Tube würde im Faktor 1,6 deutlich größer ausfallen, wenn man mit einer APS-C-Kamera und einer Vollformat im Normalmodus mit 50mm Brennweite fotografiert. Für mich sieht der Ausschnitt fast gleich aus. Beim Nikon Brennweitenvergleich sieht man, wie sich das vom Winkel her auswirken muss, also in dem Fall 15,1° mehr Winkel. 15° anderer Winkel sieht man sofort auf dem Bild.
https://www.nikon.de/de_DE/learn_explor ... lator.page
Antwort von klusterdegenerierung:
Jan hat geschrieben:
PS: Du kannst beim Bild mit dem WD40 bei beiden Kameras nicht die gleiche Entfernung eingestellt haben, weil dann ein Bild deutlich größer sein müsste, die Dose wie auch die Tube würde im Faktor 1,6 deutlich größer ausfallen, wenn man mit einer APS-C-Kamera und einer Vollformat im Normalmodus mit 50mm Brennweite fotografiert. Für mich sieht der Ausschnitt fast gleich aus. Beim Nikon Brennweitenvergleich sieht man, wie sich das vom Winkel her auswirken muss, also in dem Fall 15,1° mehr Winkel. 15° anderer Winkel sieht man sofort auf dem Bild.
Jan, nu lass es uns doch nicht immer komplizierter machen!
Ja es ist zum zehnten mal immer der gleiche Abstand,
nur dass das FF Bild auf den Ausschnitt der APS-C gecropt ist, aber das sage ich doch nun zum tausensten mal! Das FF Bild hat eine 1,5 fach größeren Ausschnitt, weil der Sensor größer ist!
Zum Vergleich muß man natürlich die Mitte des FF Bildes ausschneiden um auf den gleich großen Bildausschnitt zu kommen.
Du testet mit Deinen Versuchen immer wieder nur die Relevanz von gleichem Bildkreis bei FF50 und APS-C 35, aber darum geht es doch garnicht, es geht um den Sensor!
Ich habe Dir noch mal die beiden original jpgs der Cams angehangen.
Wundere Dich nicht wegen der Vignettierung, ich hatte keine FF Optik mit Stativschelle,
damit ich nur die beiden Cams anflanschen kann! :-)
Du siehst den größeren Ausschnitt der A7III, aber die Tiefen schärfe liegt an den selben stellen,
im Gegensatz zu der mit 35mm. Jetzt klar? ;-)
Ansonsten lass uns mal aufhören, die drehen sonst alle noch am Rad. ;-)
Antwort von Jan:
Und trotzdem geht es bei dem Bild um einen oder zwei Zentimeter mehr Tiefenschärfe, die sieht man in diesem Aufbau nicht, auch wenn es gut gemeint ist. Das hatte Wolfgang auch kritisiert, weil so ein Bild-Test, wie der hier, keine korrekte Aussage zulässt. Außerdem ist bei einem Bild der WD40 Aufdruck deutlicher zu lesen als bei einem Anderen, da gab es also auch schon eine leichte Abweichung der Schärfentiefe
Antwort von WoWu:
Aus dem Diagramm ist auch zu sehen, wie gering der Unterschied zwischen (z.B.)
S32 und FF ist.
Aber nochmal. Tiefenschärfe beinhaltet sehr viel mehr, als nur die Freistellungsmerkmale.
Nämlich auch die Art der Unschärfe und selbst wenn ein Freistellungsmass identisch sein sollte, ist es die entstandene Unschärfe nicht, wie man auch an diesem Beispiel sehen kann.
Und bei Tiefenschärfe geht es um die Beschaffenheit des Raumes hinter einem fokussierten Objekt.
Früher bezeichnete man das als Hintergund ... ist aber wahrscheinlich nicht mehr hipp.
Antwort von dienstag_01:
WoWu hat geschrieben:
Aus dem Diagramm ist auch zu sehen, wie gering der Unterschied zwischen (z.B.)
S32 und FF ist.
Aber nochmal. Tiefenschärfe beinhaltet sehr viel mehr, als nur die Freistellungsmerkmale.
Nämlich auch die Art der Unschärfe und selbst wenn ein Freistellungsmass identisch sein sollte, ist es die entstandene Unschärfe nicht.
Und bei Tiefenschärfe geht es um die Beschaffenheit des Raumes hinter einem fokussierten Objekt.
Früher bezeichnete man das als Hintergund ... ist aber wahrscheinlich nicht mehr hipp.
*In optics, particularly as it relates to film and photography, the optical phenomenon known as depth of field (DOF), is the distance about the plane of focus (POF) where objects appear acceptably sharp in an image.*
Sagt Wikipedia dazu.
Das gibt es eigentlich keine zwei Meinungen ;)
Antwort von klusterdegenerierung:
Du willst mir jetzt echt erzählen,
das Du zwischen den beiden ersten Varianten Unterschiede im cm Bereich erkennen kannst?
Nicht Dein Ernst! Wenn einer dieses Thema anspricht,
dann geht es immer um die beiden rechten Varianten, die zwar vom Bildkreis gleich sind,
aber von der Schärfen ausdehnung sehr unterschiedlich sind,
das was jeder APS-C und FF Fanboy kennt und warum es diese extremen Kaufentscheidungen gibt.
Im Übrigen ist mein Test nicht ungenau,
denn ich habe sogar die Sensorebenen berücksichtigt und alle mit einem Zentimetermaß exakt auf die gleiche Entfernung gebracht.
Ich habe so langsam die Vermutung, das nicht sein kann, was nicht sein darf!
Es wäre ja nicht schlimm wenn Du es eine Zeit anders gesehen hättest, so kannst Du aber ganz anders arbeiten, da Du weißt das beide in identischen Situationen das gleiche Bild,
aber einen anderen Ausschnitt produzieren.
Das ist sehr entscheident für einen aufwendigeren Dreh mit viel oder wenig Platz, etc.
Antwort von WoWu:
dienstag_01 hat geschrieben:
WoWu hat geschrieben:
Aus dem Diagramm ist auch zu sehen, wie gering der Unterschied zwischen (z.B.)
S32 und FF ist.
Aber nochmal. Tiefenschärfe beinhaltet sehr viel mehr, als nur die Freistellungsmerkmale.
Nämlich auch die Art der Unschärfe und selbst wenn ein Freistellungsmass identisch sein sollte, ist es die entstandene Unschärfe nicht.
Und bei Tiefenschärfe geht es um die Beschaffenheit des Raumes hinter einem fokussierten Objekt.
Früher bezeichnete man das als Hintergund ... ist aber wahrscheinlich nicht mehr hipp.
*In optics, particularly as it relates to film and photography, the optical phenomenon known as depth of field (DOF), is the distance about the plane of focus (POF) where objects appear acceptably sharp in an image.*
Sagt Wikipedia dazu.
Das gibt es eigentlich keine zwei Meinungen ;)
Wie ich schon angemerkt habe hast Du im Leseverständnis noch Luft nach oben denn ich hatte explizit gesagt, dass im Angelsächsischen zwei Dinge unterschieden werden, (depth of field und depth of focus), die im Deutschen ideotischerweise in einem Begriff zusammengefasst sind (Tiefenschärfe).
Und nun kommst Du mir mit einer, aus dem Zusammenhang genommenen Einzelinformation.
Tiefenschärfe setzt sich nämlich aus zwei Abbildungsräumen zusammen.
Das zeigt mir nur, dass Du die Zusammenhänge noch nicht erkannt hast.
Daher ...
lies mal in Ruhe das Zeiss Paper und -noch wichtiger- versuch zu verstehen, was darin beschrieben wird.
Tiefenschärfe ist seit 100 Jahren dokumentiert und wurde 90 Jahre lang richtig verstanden. Komischerweise gibt es heute offenbar Schwierigkeiten damit.
Vielleicht liegt das daran, dass heutzutage sich jeder ein Recht auf eigene Fakten vorbehält.
Antwort von klusterdegenerierung:
Vielleicht auch daran, das man es früher an der Größe der Bildebene,
wie bei 9x12 und 6x6 etc. festgemacht hat und nicht an Sensoren,
die es ja noch nicht gab und noch ganz andere Faktoren mit rein bringen.
9x12 war 9x12, das gab es nicht in hoch oder niedrig aufgelösst,
höchstens unterschiedlicher Filmquali, Iso, & Kelvin.
Antwort von dienstag_01:
WoWu hat geschrieben:
dienstag_01 hat geschrieben:
*In optics, particularly as it relates to film and photography, the optical phenomenon known as depth of field (DOF), is the distance about the plane of focus (POF) where objects appear acceptably sharp in an image.*
Sagt Wikipedia dazu.
Das gibt es eigentlich keine zwei Meinungen ;)
Wie ich schon angemerkt habe hast Du im Leseverständnis noch Luft nach oben denn ich hatte explizit gesagt, dass im Angelsächsischen zwei Dinge unterschieden werden, (depth of field und depth of focus), die im Deutschen ideotischerweise in einem Begriff zusammengefasst sind (Tiefenschärfe).
Und nun kommst Du mir mit einer, aus dem Zusammenhang genommenen Einzelinformation.
Tiefenschärfe setzt sich nämlich aus zwei Abbildungsräumen zusammen.
Das zeigt mir nur, dass Du die Zusammenhänge noch nicht erkannt hast.
Daher ...
lies mal in Ruhe das Zeiss Paper und -noch wichtiger- versuch zu verstehen, was darin beschrieben wird.
Tiefenschärfe ist seit 100 Jahren dokumentiert und wurde 90 Jahre lang richtig verstanden. Komischerweise gibt es heute offenbar Schwierigkeiten damit.
Vielleicht liegt das daran, dass heutzutage sich jeder ein Recht auf eigene Fakten vorbehält.
Kannst du bitte das Zeiss-Papier nochmal verlinken?
Antwort von dienstag_01:
Was ich gerade erst gesehen habe (und echt geil finde), mit dem DOF Calculator auf der von Skeptiker verlinkten Seite
https://www.artfx.fr/en/depth-of-field- ... l-sensors/ bekommt man bei Eingabe von unterschiedlichen Sensorgrößen bei gleichem Pixelpitch die gleichen DOF Limits - also die selbe Tiefenschärfe.
;)
Antwort von Skeptiker:
Doppel (siehe nächsten Text) !
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Was ich gerade erst gesehen habe (und echt geil finde), mit dem DOF Calculator auf der von Skeptiker verlinkten Seite bekommt man bei Eingabe von unterschiedlichen Sensorgrößen bei gleichem Pixelpitch die gleichen DOF Limits - also die selbe Tiefenschärfe.
;)
Genau wie mit dem DOFSimulator, meinem momentanen Favoriten (er ist auch jetzt gerade geöffnet - offline installiert), den ich zuvor an anderer Stelle schon einige Male verlinkt habe:
https://dofsimulator.net/en/
-> Daran denken: Die DOF-Formeln enthalten keine Sensorgrösse - nur einen max. CoC-Durchmesser!
Wichtig: Für alles Folgende zunächst oben links im Feld "Configuration" auf "advanced" klicken!
Dann lässt sich unten links im 'Depth of Field'-Feld bei "Circle of Confusion" mit der Auswahl "Custom" (statt "Default") nach Klick auf den Editier-Bleistift ebenfalls direkt ein CoC-Durchmesser (z.B. als 2x Pixel Pitch) eingeben und anderes mehr.
Der DOFSimulator zeigt übrigens rechts oben bei Auswahl von "Diffraction" sogar das 'Background Blur' (die Unschärfe des Hintergrunds) numerisch an - wobei der Abstand des Hintergrunds (gemessen ab Kamera! - quasi als senkrecht aufgestellte Fläche) zur Schärfe-Ebene im Motivraum wählbar ist: Also, eine Auswahl von z. B. Motivabstand = 4m, Background = 10m bedeutet, dass der Hintergrund 6m hinter der Fokusbene liegt. Angezeigt wird die Unschärfe des Hintergrunds in Entfernung x sogar 3fach in unterschiedlichen Masseinheiten - die erste ist der Unschärfekreis-Durchmesser (der hier seinen Namen zu recht trägt!) in mm, womit man vergleichen kann, um wieviel grösser der ist als der gewählte, maximale Unschärfekreis-Durchmesser für die gerade noch akzeptable Bildschärfe - einzigartig für einen DOF-Rechner!
Antwort von Skeptiker:
Irrtümlich Doppel (sollte nur eine kleine Ergänzung sein)- sorry!
Antwort von Skeptiker:
"Ouups, I did it again - sorry!"
Antwort von Skeptiker:
Mann o Mann o Mann - 3-mal hält eben besser! (vor lauter Zerstreuungskreisen nun selbst zerstreut kreisend :-()
Nachtgedanken ..
Der Zerstreuungskreis im Aufbruch:
Es war mal ein Zerstreuungskreis,
der sprach: "Was soll der ganze Scheiss?"
Erhob sich, als wär' nichts gescheh'n
und ward - verstreut - nie mehr geseh'n.
Antwort von klusterdegenerierung:
Mich lässt es ja nicht los, drum hier noch mal ein etwas härterer Vergleich! ;-)
Diesmal, APS-C mit 50mm f1.8 vs 1/3 Zoll Camcorder 45mm f1.8.
Dazu auch wieder ein Äquivalent zum größeren APS-C Sensor,
nämlich mit ca. 8mm an der JVC HD40, was ein sehr ähnlichen Bildausschnitt abbildet.
Dabei sieht man auch hier wieder, auch wenn die Zielwerte nich 100% stimmig sind,
das die Formel, Sensorgröße bei gleicher Brennweite, Blende und Entfernung keine Rolle spielt,
eben nur dann, wenn sich einer der 3 Faktoren ändern, wie bei dem Äquivalenzvergleich.
Edit. Sorry, das A7III Bild hätte APS-C oder a6300 heißen müssen. ;-)
Antwort von Funless:
Ich glaube das Grading ist etwas schiefgelaufen, das Sofa ist grün geworden.
Antwort von klusterdegenerierung:
:-) Jau!
Hier mal alle Ausschnitte Zusammen.
Auch wenn 45mm vom Camcorder nicht exakt 50mm sind, kann man schon sehen,
das wieder die Größe des Sensors nicht ausschlaggebend ist für die ausdehnung der Schärfe.
Die ist quasi wieder identisch, im Gegensatz zur 8mm Aufnahme,
die ungefähr dem APS-C 50mm Ausschnitts entspricht.
Da ich ja des öfteren hier erzählt habe, das ich früher mit Großformatkameras wie 9x12 & 18x24 gearbeitet habe und dabei mit Brennweiten von 360mm und Blende 64 arbeiten mußte,
könnte ja jetzt jemand auf die Idee kommen und sagen, jaha jetzt geht deine Formel aber nicht mehr auf, wie soll das denn gehen?
Ganz einfach, 9x12 hat so eine große Fläche gegenüber Kleinbild,
dass das Objekt auf dem Film winzig klein wäre, deswegen braucht man viel längere Brennweiten um das Objekt Formatfüllend in die große 9x12 Fläche zu bekommen.
Da man nun so ein starkes Tele hat und man bei Tele bekanntlich viel an Tiefenschärfe verliert,
muß man sehr stark abblenden um ein Produkt scharf zu bekommen.
Die andere Sache ist, da man das trotz Blende 64 oder 128 nicht zwingend hinbekommt,
wendet man den Scheimpflug an,
was ja nur bei Fachmameras mit verstellbarer Bildebene möglich ist.
Antwort von Skeptiker:
Nachtrag:
Ich sehe gerade, dass inzwischen in einem weiteren Beitrag noch ein paar Bilder dazugekommen sind - macht vermutl. einen Teil meines Beitrags überflüssig!
@kluster:
Danke für den Test!
Aber es fehlt mir ein Bild zum Vergleich: Die Aufnahme der A7 III mit 50mm auf denselben Ausschnitt gebracht wie das Bild aus der JVC mit 45mm (das können wir leider nicht selber tun, weil das A7 III-Bild als Screenshot in reduzierter Auflösung vorliegt).
Dann ein Detail: Das Objektiv der JVC HD40 hat im Telebereich 45mm etwas weniger Lichtstärke (bei Camcordern steht oft nur die WW-Blendenöffnung auf dem Objektiv) - 2.2 statt 1.8.
Video: F Wide(1.8)-Tele(2.2): f=4.5mm-45mm
http://resources.jvc.com/Resources/00/01/01/80.PDF
Noch ein Bitte (vielleicht bin ich heute Abend etwas schwer von Begriff):
Kannst Du (ein andermal) die Ergebnisse und Schlussfolgerungen etwas übersichtlicher darstellen - ich habe Mühe zu folgen.
Also, was wie getestet und verglichen wird (vor und nach der Aufnahme) ? Gleicher Bildausschnitt, gleicher Abbildungsmaßstab, gleiche Nachvergrösserung, gleiche Pixelzahl beim Betrachten, 1:1-Vergrösserung beim Betrachten, gleiche Objektgrösse beim Betrachten ?
Fazit:
Hier geht es doch nur um den Vergleich "gleiche Aufnahmebedingungen, aber stark unterschiedliche Sensorgrösse" (allerdings unterscheidet sich hier auch noch die Pixelgrösse ('Pixel Pitch') - siehe unten!).
Und zwar
Sony A7III mit 50mm Bl. 1.8
FF-Sensor mit 24 Megapixeln, Pixel Pitch 6 Mikrometer
Korrektur von klusterdegenerierung (siehe unten): Es war eine Sony A6300 APS-C - Pixel Pitch ca. 3.9 MIkrometer
vs.
JVC HD40 mit 45mm und Bl. 2.2
1/3''-Sensor mit 2.68 Megapixeln - unklar, ob das brutto (ganzer Sensor) oder netto (nur der aktive Sensorbereich) ist.
Nehmen wir an, der ganze Sensorbereich, dann ist der Pixel Pitch für 16:9-Video ca. 2.1 Mikrometer, als fast ein Drittel der A7 III.
Antwort von klusterdegenerierung:
Wie gesagt, ich habe mich mit der Bezeichnung des Bildes A7III vertan,
es war die a6300 also APS-C.
Den Vergleich findest Du hier drüber im 3er Bild.
Ich konnte den Camcorder bei 45mm auf 1.8 stellen, aber selbst wenn er 2.2 genommen hätte,
wäre dies eine plausibele Erklärung, warum das Camcorde Bild ganz eben mehr Schärfe in der Tiefe hat als die 50mm APS-C
Antwort von Skeptiker:
Woher ist das Bild des JVC-Camcorders: Screenshot (oder Snapshot) aus Full HD Video oder Fotomodus verwendet (falls vorhanden) ?
klusterdegenerierung hat geschrieben:
... Auch wenn 45mm vom Camcorder nicht exakt 50mm sind, kann man schon sehen,
das wieder die Größe des Sensors nicht ausschlaggebend ist für die ausdehnung der Schärfe.
Die ist quasi wieder identisch ...
Die Überlegung bei der unterschiedlichen ST-Angabe im DOF-Rechner (aufgrund des unterschiedlichen Zertreuungskreises in der DOF-Formel) ist natürlich die, dass man das kleinere Format für einen Print (und der bedingte ja früher einen zusätzlichen optischen Vergrösserungsschritt - bei der heutigen Bild-Beurteilung am Computer-Monitor fehlt dieser Schritt) eben stärker nachvergrössern muss und deshalb höhere Ansprüche an die Bildschärfe des Kamera-Originals hat, was sich im DOF-Rechner als geringere Schärfentiefe niederschlägt (bei gleichem Objektiv und gleicher Blende!).
Da es aber in der Praxis stets um demselben Bildausschnitt geht, wird das bei kleinerem Sensor eben durch eine weitwnkligere Optik kompensiert, womit die Schärfentiefe wieder steigt und der vorgängige ST-"Verlust" des kleineren Sensors durch die gesteigerten Schärfeansprüche ans Originalbild (aufgrund der nötigen, stärkeren Nachvergrösserung für die gleich grosse End-Betrachtung) sogar über-kompensiert wird.
Versteht man noch, was ich sagen wollte ?
Nachtrag:
Ich sehe gerade, dass WoWu das Thema "Kleinerer Sensor, gleiches Objektiv" aus der vielzitierten ZEISS-Broschüre als Beitrag kopiert hat (siehe nächste Forums-Seite)!
Antwort von WoWu:
Zeiss:
4. Kleineres Aufnahmeformat mit gleichem Objektiv
Wenn wir ein Objektiv von einer alten analogen Kamera abnehmen und stattdessen an eine Digitalkamera des gleichen Systems ansetzen, die aber den etwas kleineren APS-C Sensor enthält, dann sprechen wir ja von einem "Crop- Faktor", wir hätten auch einfach sagen können, dass der kleinere Sensor automatisch eine Ausschnittvergrößerung macht, wenn wir am gleichen Standpunkt stehen bleiben. Den Ausdruck "Brennweitenverlängerung" wollen wir lieber nicht benutzen, denn die gibt es nicht –das Objektiv weiß ja nicht, wie viel von seinem Bildkreis wir mit unserem Sensor einfangen.
Die Größe des Objektfeldes wird also um den Crop-Faktor kleiner, während die objektseitigen Lichtkegel gleich bleiben, solange wir dasselbe Objektiv benutzen und die Blendeneinstellung nicht ändern. Deshalb dürfen sich die Spitzen der Lichtkegel nicht so weit von der Fokus- ebene entfernen, wenn wir den gleichen Grenzwert des Verhältnisses Diagonale zu Zerstreuungskreis einhalten wollen. Bei Verkleinerung des Aufnahmeformats nimmt also die Schärfentiefe um den Crop-Faktor ab.
Das gilt natürlich genauso, wenn man später nur einen Teil der Bildfläche verwendet. Das sieht man auch von der Bildseite her ein, denn wenn man die dortigen Zerstreuungskreise stärker nachvergrößert, muss man strengere Ansprüche an ihre Kleinheit haben.
5. Unterschiedliche Aufnahmeformate mit gleichem Objektfeld
Wenn wir durch die Wahl der passenden Brennweite dafür sorgen, dass wir vom gleichen Aufnahmestandort mit verschiedenen Aufnahmeformaten immer dasselbe Objektfeld abbilden, dann ist das Verhalten genau umgekehrt: bei Verkleinerung des Auf- nahmeformates nimmt die Schärfentiefe zu, bei Vergrößerung nimmt sie dagegen ab, vorausgesetzt wir stellen immer die gleiche Blende ein. Das liegt daran, dass ein kleineres Aufnahmeformat dasselbe Objektfeld mit einer entsprechend kürzeren Brennweite darstellt. Bei gleicher Blendenzahl ist dann aber die Eintrittspupille um den Crop-Faktor kleiner und die Lichtkegel schlanker.
Aus dem gleichen Grund zeigen Mittel- format-Aufnahmen bei gewohnten Blenden eine deutlich kleinere Schärfentiefe, obwohl man mit größeren Zerstreuungskreisen rechnet, 0.05mm gegenüber 0.03mm im Kleinbild. Adaptiert man aber das Mittelformatobjektiv an eine Kleinbild- Kamera, dann gelten natürlich die dort üblichen Werte.
Der erlaubte Zerstreuungskreisdurchmesser ist also keine Objektiveigenschaft sondern eine Formateigenschaft. Eine Eigenschaft der Objektive ist nur der kleinstmögliche Zerstreuungskreis, und der ist durch die Korrektion der Bildfehler gegeben.
Man beobachtet also die auf den ersten Blick paradoxe Eigenschaft, dass bei gleichen Blenden und Objektfeldern große Formate eine kleinere objektseitige Schärfentiefe aber gleichzeitig eine größere bildseitige Schärfentiefe haben. Dies spiegelt sich auch in den mechanischen Toleranzen von Kameras: Großformat- kameras konnte man mit Schreiner- genauigkeit bauen, das Kameramodul in einem Mobiltelefon verlangt ?m-Präzision. Das sind die Extreme, man merkt in der SLR-Fotografie aber auch schon zwischen APS-C und Vollformat den Unterschied hinsichtlich der Anforderungen an die Fokussiergenauigkeit.
Was auf den ersten Blick so paradox und verwirrend erscheint, hat natürlich eine ganz einfache Erklärung. Wir hatten ja gleich große Objektfelder mit verschieden großen Bildformaten fotografiert. Wenn dabei die erlaubte Unschärfe immer gleich sein soll, heißt das, dass das Größen- verhältnis von Objektfelddiagonale und "objektseitigem Zerstreuungskreis" auch immer gleich sein soll. Es sollen also bei allen verglichenen Kameras die object- seitigen Lichtkegel gleich sein, die z.B. von einem Objekt hinter der Fokusebene kommen. Wenn nun aber die Bildformate verschieden groß sind, ist der Abbildungs- maßstab verschieden. Deshalb müssen unter diesen Bedingungen die bildseitigen Zerstreuungskreise mit der linearen Format- größe wachsen.
Die objektseitigen Lichtkegel können aber nur gleich sein, wenn alle Eintrittspupillen gleich groß sind. Da aber gleich große Objektfelder bei größerem Aufnahmeformat längere Brennweiten bedeuten, müssen die Blendenzahlen verschieden sein.
 |
Antwort von dienstag_01:
Interessant. Kannst du bitte nochmal das gesamte Dokument verlinken?
Ich hätte nach dem Überfliegen schon mal eine Frage, was heisst: *Deshalb dürfen sich die Spitzen der Lichtkegel nicht so weit von der Fokus- ebene entfernen, wenn wir den gleichen Grenzwert des Verhältnisses Diagonale zu Zerstreuungskreis einhalten wollen.*?
Verhältnis Diagonal zu Zerstreuungskreis, habe ich nirgendwo anders gelesen.
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
... Ich hätte nach dem Überfliegen schon mal eine Frage, was heisst: *Deshalb dürfen sich die Spitzen der Lichtkegel nicht so weit von der Fokus- ebene entfernen, wenn wir den gleichen Grenzwert des Verhältnisses Diagonale zu Zerstreuungskreis einhalten wollen.*?
Verhältnis Diagonal zu Zerstreuungskreis, habe ich nirgendwo anders gelesen.
Das heisst nichts anderes, als dass nach der klassichen DOF-Berechnungsmethode (aus der Analogzeit) das Verhältnis von Sensordigaonale (die Sensorgrösse repräsentierend) zu max. noch akzeptablem Zerstreuungskreis-Durchmesser eben stets 1 zu 1500 betragen soll.
Und die offene Frage ist ja: Inwieweit macht diese fixe Verknüpfung von Sensorgrösse (ungeachtet der Pixelauflösung) und CoC heute noch Sinn bei der DOF-Berechnung?
Mit digitalen Kamera mit den unterschiedlichsten Sensorgrössen mit den unterschiedlichsten Pixelzahlen und mit der Betrachtung und Beurteilung der Fotos am Computer-Monitor ?
Und da plädiere ich zum Abgleich mit der heutigen digitalen Foto-Realität eher für einige Tests aus der Fotopraxis (auch wenn sie "vom Küchentisch aus" vielleicht unvollkommen sind), statt sich rein auf eine vielleicht mittlerweile überholungsbedürftige (was die CoC-Bestimmung für die DOF-Formel betrifft) altbewährte (aber für die Jetztzeit anhand der Ergebnisse nicht mehr verifizierte) Theore der DOF-Berechnung zu stützen.
Antwort von klusterdegenerierung:
@Skeptiker
Es war eine Aufnahme im Fotomodus.
Mal weg von dem gerange und mehr zum praktischen Nutzen.
Zb. bietet ja die A7 einen 4K FF sowie einen 4K APS-C Modus. Wenn man jetzt um die Tatsache weiß, das sich auch bei einem Crop, was ja das selbe wie eine andere Sensorgröße ist und sich die Tiefenschärfe nicht ändert, dann kann man damit fantastisch arbeiten,
denn ich kann mit ein und der selben Brennweite einen anderen Ausschnitt filmen ohne dabei die Anmutung zu ändern oder die Optik zu wechseln bzw. den Standort zu verlassen!
Das ist eine richtig tolle Sache, da beide Aufnahmen identisch aussehen,
aber einen anderen Bildausschnitt zeigen.
So kann ich aber auch eine Super 35 Cam mit 35mm Optik und FF Cam mit 35mm Optik im gleichen Entfernungsradius einsetzen und bekomme eine Totale und Halbtotale mit gleicher Tiefe! :-)
Antwort von dienstag_01:
Skeptiker hat geschrieben:
dienstag_01 hat geschrieben:
... Ich hätte nach dem Überfliegen schon mal eine Frage, was heisst: *Deshalb dürfen sich die Spitzen der Lichtkegel nicht so weit von der Fokus- ebene entfernen, wenn wir den gleichen Grenzwert des Verhältnisses Diagonale zu Zerstreuungskreis einhalten wollen.*?
Verhältnis Diagonal zu Zerstreuungskreis, habe ich nirgendwo anders gelesen.
Das heisst nichts anderes, als dass nach der klassichen DOF-Berechnungsmethode (aus der Analogzeit) das Verhältnis von Sensordigonale (die Sensorgrösse repräsentierend) zu max. noch akzeptablem Zerstreuungskreis-Durchmesser eben stets 1 zu 1500 betragen soll.
Und die offene Frage ist ja: Inwieweit macht diese fixe Verknüpfung von Sensorsorgrösse und CoC heute noch Sinn bei der DOF-Berechnung?
Mit digitalen Kamera mit den unterschiedlichsten Sensorgrössen mit den unterschiedlichsten Pixelzahlen und der Betrachtung und Beurteilung der Fotos am Computer-Monitor ?
Ah, ich erinnere mich. Aber das hat weniger mit *Analogzeit* als mit der klassischen Berechnungsmethode bezogen auf Printausgabe zu tun. Letztlich hat das aber (sicher) auch mit der dafür nötigen Vergrößerung zu tun. (Der engl. Wikipedia Artikel beschränkt sich hier auf einen kurzen Absatz). Man muss aber ja nicht vergrößern.
Antwort von Skeptiker:
@ kluster:
Aber akzeptierst Du meinen (aus der Theorie zitierten) 'klassischen' Punkt am Ende der vorherigen Forumsseite, nämlich die Überlegung:
"Kleinere Formate muss man für die gleiche Endbetrachtungsgrösse stärker nachvergrössern und deshalb höhere Ansprüche an die originale Bildschärfe stellen, womit die DOF im DOF-Rechner dann eben sinkt (wegen des kleineren, vorgegebenen CoC)" ?
Das ist doch für den klassischen Print, der am Vergrösserungsgerät entsteht / entstand, zutreffend - oder nicht ?
Ändert aber nichts an der 'eingebrannten' DOF auf dem originalen Bild (unvergrössert), nur an der Art, wie es nach dem Vergrössern interpretiert wird (und davor vom DOF-Rechner vorausgesagt wird).
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
... Letztlich hat das aber (sicher) auch mit der dafür nötigen Vergrößerung zu tun. (Der engl. Wikipedia Artikel beschränkt sich hier auf einen kurzen Absatz). Man muss aber ja nicht vergrößern.
Jetzt fragt sich eben, was ist der Unterschied zwischen einer optischen Vergrösserung eines klassischen "Zelluloid"-Bildes zwecks Printabzug und der elektronischen Vergrösserung eines digitalen Bildes zwecks Monitor-Betrachtung und -Beurteilung, und inwiefern müsste dieser Unterschied auch in einem DOF-Rechner berücksichtigt werden?
Zur Erinnerung:
Das Aufnahmeformat (die Sensorgrösse) kommt in der DOF-Formel nicht vor.
Nur der Zerstreuungskreis-Durchmesser (CoC, Circle of Confusion -> Nomen est Omen!).
Wenn die CoC in dere DOF-Formel gegen null geht (immer kleiner wird), geht auch die berechnete Tiefe (im Motivraum) noch akzeptabler Bildschärfe (auf dem Sensor-Bild) gegen null - am Ende bleibt nur noch die flache Motiv-Fokusebene als 'scharf' übrig.
Antwort von dienstag_01:
Skeptiker hat geschrieben:
dienstag_01 hat geschrieben:
... Letztlich hat das aber (sicher) auch mit der dafür nötigen Vergrößerung zu tun. (Der engl. Wikipedia Artikel beschränkt sich hier auf einen kurzen Absatz). Man muss aber ja nicht vergrößern.
Jetzt fragt sich eben, was ist der Unterschied zwischen einer optischen Vergrösserung eines klassischen "Zelluloid"-Bildes zwecks Printabzug und der elektronischen Vergrösserung eines digitalen Bildes zwecks Monitor-Betrachtung und -Beurteilung, und inwiefern müsste dieser Unterschied auch in einem DOF-Rechner berücksichtigt werden?
Da hab ich doch gerade heute das wiedergefunden:
https://www.pc-magazin.de/ratgeber/scha ... 72172.html
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Skeptiker hat geschrieben:
Jetzt fragt sich eben, was ist der Unterschied zwischen einer optischen Vergrösserung eines klassischen "Zelluloid"-Bildes zwecks Printabzug und der elektronischen Vergrösserung eines digitalen Bildes zwecks Monitor-Betrachtung und -Beurteilung, und inwiefern müsste dieser Unterschied auch in einem DOF-Rechner berücksichtigt werden?
Da hab ich doch gerade heute das wiedergefunden:
https://www.pc-magazin.de/ratgeber/scha ... 72172.html
Danke!
Das werde ich mir gleich mal genauer durchlesen - zunächst aber etwas essen (muss - bei allem Diskussionseifer - ja auch sein)! ;-)
Antwort von klusterdegenerierung:
Skeptiker hat geschrieben:
@ kluster:
Aber akzeptierst Du meinen (aus der Theorie zitierten) 'klassischen' Punkt am Ende der vorherigen Forumsseite, nämlich die Überlegung:
"Kleinere Formate muss man für die gleiche Endbetrachtungsgrösse stärker nachvergrössern und deshalb höhere Ansprüche an die originale Bildschärfe stellen, womit die DOF im DOF-Rechner dann eben sinkt (wegen des kleineren, vorgegebenen CoC)" ?
Das ist doch für den klassischen Print, der am Vergrösserungsgerät entsteht / entstand, zutreffend - oder nicht ?
Ändert aber nichts an der 'eingebrannten' DOF auf dem originalen Bild (unvergrössert), nur an der Art, wie es nach dem Vergrössern interpretiert wird (und davor vom DOF-Rechner vorausgesagt wird).
Da hast Du natürlich Recht, aber es geht ja im wesentlichen nicht um das vergrößern eines Ausschnitts, sondern nur um das Wissen und was man daraus bzw damit machen kann.
Häufig geht es ja eher um eine Bildanmutug und wenn ich weiß, das ich diese brauche,
kann ich mit den Infos besser arbeiten und habe mehr Möglichkeiten.
Sogesehen gibt uns Sony und auch andere mit dem Crop bei gleicher detailauflösung ein mächtiges Tool in die Hand. Ich weiß jetzt nicht wie unterschiedlich die Quali zwischen FF und S35 ist, aber wenn beides annähernd gleich gut ist, spare ich mir,
falls ich es benötigen würde eine 1,5x größere oder kleiner Brennweite.
Mit einem klick habe ich beim filmen quasi eine 35er oder 50er bei gleichbleibender Tiefe,
das ist sehr nice! :-)
Antwort von Skeptiker:
Mache eine Pause - schaue später wieder rein!
Antwort von WoWu:
@Skeptiker
Wenn man jetzt um die Tatsache weiß, das sich auch bei einem Crop, was ja das selbe wie eine andere Sensorgröße ist und sich die Tiefenschärfe nicht ändert, dann kann man damit fantastisch arbeiten, [/
Eben nicht...
Nochmal .....
...Bei Verkleinerung des Aufnahmeformats nimmt also die Schärfentiefe um den Crop-Faktor ab.
Das zu verstehen, kann doch nicht so schwer sein und das hat absolut nichts mit „moderner Technik“ oder „früher war alles anders“ zu tun.
Das hat nur damit zu tun, dass Euer Versuchsaufbaue darauf angelegt sind, ein bestimmtes Ziel zu erreichen.
Fehler in den Versuchsbedingungen werden dann mal gern vergessen.
Antwort von Skeptiker:
WoWu hat geschrieben:
@Skeptiker
Wenn man jetzt um die Tatsache weiß, das sich auch bei einem Crop, was ja das selbe wie eine andere Sensorgröße ist und sich die Tiefenschärfe nicht ändert, dann kann man damit fantastisch arbeiten,
"... Die Größe des Objektfeldes wird also um den Crop-Faktor kleiner, während die objektseitigen Lichtkegel gleich bleiben, solange wir dasselbe Objektiv benutzen und die Blendeneinstellung nicht ändern. Deshalb dürfen sich die Spitzen der Lichtkegel nicht so weit von der Fokus- ebene entfernen, wenn wir den gleichen Grenzwert des Verhältnisses Diagonale zu Zerstreuungskreis einhalten wollen. Bei Verkleinerung des Aufnahmeformats nimmt also die Schärfentiefe um den Crop-Faktor ab. ...
2 Punkte daraus (oben farbig hervorgehoben):
1. Die objektseitigen Lichtkegel bleiben gleich. Das heisst, an Brennweite, Blende, Motivdistanz ändert sich nichts.
2. "... wenn wir den gleichen Grenzwert des Verhältnisses Diagonale zu Zerstreuungskreis einhalten wollen ..."
-> Das ist die klassische "1/1500 der Sensor-Diagonale"-Regel, die hier ja zur Diskussion steht.
Fazit:
1. bedeutet im Prinzip: Die durch Objektiv, Blende und Motivabstand erzeugte (und nach den DOF-Formeln nur davon abhängige) Abbildung auf einem x-beliebigen Sensor ändert sich nicht - nur die Begrenzung des Bild-Ausschnitts ist unterschiedlich, aber die Durchmesser der Unschärfekreise und der Abbildungsmaßstab bleiben gleich.
Was sich ändern kann, steht in Punkt 2, nämlich dass man die akzeptable (und nicht die reale!) CoC-Grösse 1:1 (linear) an die Sensorgrösse knüpft, also z. B. halbe Sensorgrösse -> halber max. CoC-Durchmesser.
Das kann man machen (und macht es im DOF-Rechner ja als default), wenn man die spätere, stärkere Nachvergrösserung zu einem Print berücksichtigen will, aber es steht hier ja zur Diskussion, ob man das auch machen muss bei späterer Bildschirmbetrachtung eines ebenfalls digitalen Originals.
Nochmals: die Grösse der COCs auf dem Sensorbild ist im Prinzip festgelgt durch die 3 Parameter:
Brennweite
Blende
Motivdistanz
Das hat zunächst gar nichts nichts mit der Grösse eines im Strahlengang hinter dem Objektiv (im 'Depth of Focus'-Bereich) befindlichen Sensors zu tun.
Die Sensorgrösse kommt erst ins Spiel, wenn man
a) die erforderliche Nachvergrösserung und unsere Augen berücksichtigen will
Und die Sensorauflösung (ist als 'Pixel Pitch' nicht zwingend an die Sensorgrösse gebunden - EDIT: Klärung nötig, da Missverständnis in WoWu's nächstem Beitrag: Gemeint war, dass kleine Sensoren grosse Pixel haben können und grosse Sensoren kleine Pixel) kommt ins Spiel wenn man
b) die Gesamtauflösung des Systems Objektiv / Kamera betrachten will (was hier nicht das primäre Thema ist)
c) das Auflösungskriterium "CoC kleiner als 2-fache Pixelgrösse" (Pixel Pitch) in Betracht ziehen will, statt des "1/1500 der Sensordiagonale"-Kriteriums.
Siehe dazu auch den von dienstag_01 oben verlinkten Beitrag:
Schärfentiefe konventionell und ultimativ berechnet (aus Color Foto bzw. PC-Magazin 2008)
https://www.pc-magazin.de/ratgeber/scha ... 72172.html
[quote=WoWu hat geschrieben:
Das hat nur damit zu tun, dass Euer Versuchsaufbaue darauf angelegt sind, ein bestimmtes Ziel zu erreichen.
Fehler in den Versuchsbedingungen werden dann mal gern vergessen.
Halte ich - sorry! - für Nonsens.
Sicher nicht perfekt, einverstanden, aber es geht um die Abschätzung der richtigen Antwort auf die Frage: "DOF = Sensorgrössen-abhängig ja/nein?" (bei sonst identischen Bedingungen)
Falls ich mich irre, bitte ich um konkrete Hinweise, was am Versuchsaufbau (meinem theoretischen auf Seite 3 (?) oder kluster's letztem, geposteten Beispiel) nicht stimmt bzw. wie man es richtig machen würde!
Dazu wäre auch ein korrekter Versuchsaufbau samt Ergebnis von Deiner Seite eine willkommene und zudem sicher lehrreiche Überraschung! ;-)
Hinweis: Nachträgliche Ergänzung in roter Schrift.
Antwort von Knoppers:
Skeptiker hat geschrieben:
Dazu wäre auch ein korrekter Versuchsaufbau samt Ergebnis von Deiner Seite eine willkommene und zudem sicher lehhreiche Überraschung! ;-)
würde mich auch mal brennend interessieren, wo praxisrelevante küchentischtests doch angeblich so gewaltig gegen altbackene pauschalphysiktheorien abstinken :)
Antwort von WoWu:
@Sketiker
Du musst schon gewissenhaft arbeiten und das ganze ZEISS Papier betrachten
Das Zitat:
"...Bei Verkleinerung des Aufnahmeformats nimmt also die Schärfentiefe um den Crop-Faktor ab."
was Du als unvollständig bezeichnest findet sich wörtlich und unverkürzt auf S.9 Punkt4 ende 2.Absatz.
Bezeichne also Zitate nicht als unvollständig, nur weil Du das Papier nicht vollständig kennst.
Vielmehr nimmst Du ein anderes Zitat aus dem Zusammenhang, was in meinem Posting zuvor komplett so, wie von Dir (vermeintlich) „nachkorrigiert“ auch zitiert habe, jetzt aber von Dir in einen andern Zusammenhang gestellt wurde.
Einwenig mehr und genauere Quellenkenntnis sollte man bei solchen Diskussionen schon erwarten können, bevor Du hier Zitatfälschung vorwirfst.
Halte ich - sorry! - für Nonsens.
Das ist Dein gutes Recht.
Das widerspricht allerdings dem, was das Zeiss Papier hergibt.
Die Fehler kannst Du nur selbst finden, weil niemand exakt den Versuchsaufbau überprüfen kann und es selbstverständlich möglich ist, durch Veränderung einzelner Parameter, angestrebte Ergebnisse zu generieren.
Und wenn Du glaubst, Dein Versuch widerspricht dem, was Zeiss erklärt, wende Dich an Zeiss, sie sollen das Whitepaper zurückziehen.
Mir erscheint das Paper, wie auch andere fundierte Papers zu dem Thema, als logisch dargeboten.
Aber vielleicht täuschen sich ja alle Wissenschaftler und Skeptiker und Kluster haben die Tiefenschärfe neu definiert.
Antwort von Jan:
Mensch Skeptiker, das hatte ich doch schon geschrieben, dass wenn man besonders bei kleinen Unterschieden im Zentimeterbereich bei einem Tiefenschärfetest den Aufbau so gestalten kann (nahe Distanz und wenn möglich sehr ähnliche Sensoren verwenden), dass man ein bestimmtes Ergebnis sehen will. So bald man den Aufbau auch nur leicht verändert und die Objekte, die man zeigt, leicht in in eine andere Richtung bewegt, kann es ein ganz anderes Sichtergebnis geben, oder man verändert die Distanz zum Objekt. Ich habe schon gemerkt, dass man mich mit aller Gewalt überzeugen will, damit muss ich leben. Aber bitte versucht jetzt nicht mit Küchentischtest einen anerkannten Physiker wie Wolfgang überzeugen zu wollen. Wolfgang hat doch vor wenigen Seiten hier eine nette Grafik gezeigt, wo jeder sehen kann, wie sich die Tiefenschärfe bei welchen Sensoren und anderen Parametern auswirkt. Ja, man konnte sehen, wenn man ähnliche Sensoren verwendet und bestimme Entfernungen beurteilt, dass der Tiefenschärfebereich sehr ähnlich ist. Es geht jetzt auch gar nicht darum, dass diese Grafik meine Meinung bestätigt. Später werden hier vielleicht noch anerkannte Optikhersteller und ihre Broschüren in Frage gestellt, weil irgendwo im Netz ein Guru oder ein PC-Magazin etwas besser weiß. Ich möchte damit die Diskussion nicht beenden, man kann bei einigen Praxistest sicher auch etwas lernen, aber wir werden gewisse Gesetze nicht ändern.
Antwort von WoWu:
Ich muss mir doch nur so einen Blödsinn anschauen :
....die Sensorauflösung (ist als 'Pixel Pitch' nicht zwingen an die Sensorgrösse gebunden....) ...
Natürlich verändert man PixelPitch mit der Sensorgrösse sofern man eine identische Pixelmatrix bedient (identische Auflösung)
Wobei PP da als Größe der Pixel besser bezeichnet wäre, weil daraus der zulässige Zerstreuungskreis definiert wird.
Antwort von Skeptiker:
WoWu hat geschrieben:
@Sketiker
... Einwenig mehr und genauere Quellenkenntnis sollte man bei solchen Diskussionen schon erwarten können, bevor Du hier Zitatfälschung vorwirfst. ...
WoWu, das hast Du nun komplett in den 'falschen Hals' bekommen!
Ich habe Dir keine Zitatenfälschung vorgeworfen.
Mit "unvollständig" meinte ich nicht, Dein 1-Satz-Zitat sei unvollständig (das Du 1:1 aus dem ZEISS-Paper zitierst - unbestritten!), sondern die Tatsache, dass Du die davor angeführte Begründung weggelassen hast, die ich dann zusätzlich zitiert habe.
Übrigens, zum Thema "Sorgfalt beim Zitieren":
Du schreibst in Deinem vorletzten Beitrag oben ja ...:
"@Skeptiker
Wenn man jetzt um die Tatsache weiß, das sich auch bei einem Crop, was ja das selbe wie eine andere Sensorgröße ist und sich die Tiefenschärfe nicht ändert, dann kann man damit fantastisch arbeiten, - EDIT - Nachträgliche Klärung nötig, da offenbar Missverständnis: Gemeint war "wissenschaftlich zu prüfende" - es ist ja noch nichts wiss. geprüft!) Aspekte wie die hier geäusserten und auch extern verlinkten einer rein (oder überwiegend) digitalen Aufnahme- und Verarbeitungskette ergänzt werden, oder würde Dich das stören ?
Kluster versucht ohne grosse Theorie seine Version von "DOF ist primär mal Sensorgrössen-unabhängig" experimentell zu untermauern. Ob er dabei redlich ist oder mogelt, kann ich nicht wissen.
Aber "Im Zweifel für den Angeklagten" - und dann zeigt sein letzter Versuch doch auch in meine gleiche Argumentationsrichtung (bei mir mit deutlich mehr Theorie-"Ballast" unterfuttert).
Randbemerkung:
Ich bin übrigens der Ansicht, dass jeder, auch der grösste Simpel (dabei denke ich an mich selber), jederzeit das Recht hat, auch die älteste und renommierteste Theorie (von der er kein Detailverständnis zu haben braucht) mit einem einfachen, zielführenden Versuch zu überprüfen und evtl. zu falsifizieren, sofern der Versuch gewissenhaft, ehrlich und sorgfältig ausgeführt wird (EDIT: Ergänzung nötig: .. und wissenschaftlich als gültig bestätigt wird).
Ein Merkmal jeder - auch der schönsten - Theorie ist es, dass ein einziger falscher Output nach korrektem Input sie zur Revision, Reparatur, Überarbeitung oder Ergänzung "zurücksetzen" kann - Stichworte "Überprüfbarkeit / Falsifizierbarkeit - Karl Popper".
Weiter im Thema:
Generell noch nicht berücksichtigt wurde der Aspekt:
Wirkt sich sich dieser kleinere Sensor-Ausschnitt oder ein effektiv kleinerer Sensor mit kleineren Pixeln und mit deshalb evtl. hochauflösenderem Objektiv davor, Schärfentiefe-relevant aus ?? Das kannst Du mit Deinen Nyquist- und MTF- sowie Sensorfunktionsdetail-Kenntnissen besser beantworten als ich, es findet allerdings in den DOF-Formeln keine Berücksichtigung.
Zuletzt:
Im Prinzip kann man die DOF-Rechner nach der "CoC=1/1500 Sensor-Diagonale"-Methode weiterverwenden, wenn man weiss, wie die DOF-Berechnung zustande kommt und wo ihre Grenzen liegen.
Und mit diesem Wissen (und dem Wissen, was man mit den Bildern nachher eigentlich machen will) würde man bei besonders pixelreichen Sensoren eben die online "ausgeworfene" Schärfentiefe um einen Faktor bis zu ca. 4 kürzen oder, noch besser, ergänzend einen alternative DOF-Calculator auf "CoC=2xPixel Pitch"-Basis zu Rate ziehen.
Oder offline den DOFSimulator verwenden (geht natürlich auch online!)
https://dofsimulator.net/en
und / oder
die DOF-Formeln in einer Excel-Tabelle unterbringen - so habe ich es gemacht, mit max. 4 gleichzeitigen Berechnungen auf einen Blick untereinander für Vergleiche - ergänzt um die Hintergrundunschärfe in Entfernung X ab Motiv-Ebene (EDIT: ich habe mich hier ja vor einiger Zeit mal damit beschäftigt, den 'Backgrund Blur' anhand der umgestellten DOF-Formeln zu quantifizieren) angezeigt als CoC-Durchmesser auf dem Sensor.
Damit habe ich mittlerweile auch die entsprechende Hintergrundunschärfe-Angabe im DOFSimulator geprüft - wir stimmen überein.
Hinweis: Nachträgliche Ergänzungen in roter Schrift
Antwort von WoWu:
... was den Eindruck erweckt, als wären das meine Worte (es sind die von klusterdegenerierung))
Beschwer Doch bei Slashcam, wenn deren "quote system" die Kästchen nicht korrekt auseinander hält.
Ich weiss, was Du nun denkst: Ich bin nur ein slashCAM-Skeptiker und ZEISS ist ZEISS - wer hat wohl mehr Gewicht?
Stimmt ... zumal Hertzsprungs originapapier auch nichts anderes hergibt.
Da verlasse ich mich lieber auf zwei Wissenschafter, als auf irgend einen Küchentischtest.
Das wird man mir sicher niemand verübeln, dass ich Fachaufsätzen von Zeiss Ingenieuren oder dem Wissenschaftler, der Tiefenschärfe erst aufgearbeitet hat, mehr glaube, als Forumpostings von Skeptiker oder Kluster, zumal auch das ZEISS Papier beschreibt, was sich alles mitändern muss, wenn man zwei unterschiedliche Vorgaben in Einklang bringen will.
Das kann jeder selbst nachlesen, wird aber sehen, dass solche Test, wenn sie denn den Anspruch auf Korrektheit erheben, nicht mal eben so mit Links gemacht werden.
Insofern ist meine 1:1 Begründung durchaus schlüssig und wird im Zeiss Papier untermauert.
Aber die (übrigens ausgezeichnete!) Broschüre könnte mal um (wissenschaftlich geprüfte!) Aspekte wie die hier geäusserten und auch extern verlinkten einer rein (oder überwiegend) digitalen Aufnahme- und Verarbeitungskette ergänzt werden, oder würde Dich das stören ?
Ich glaube, jetzt überschätzt Du die Qualität Deines Tests, zumal in dem Papier auch die Änderungen der Rahmenbedingungen beschrieben sind, die zu veränderten Ergebnissen führen.
Der Test könnte also bestenfalls die Varianten bestätigen, die allerdings außerhalb eurer steilen Behauptungen liegen.
Ich bin übrigens der Ansicht, dass jeder, auch der grösste Simpel (dabei denke ich an mich selber), jederzeit das Recht hat, auch die älteste und renommierteste Theorie (von der er kein Detailverständnis zu haben braucht) mit einem einfachen, zielführenden Versuch zu überprüfen und evtl. zu falsifizieren, sofern der Versuch gewissenhaft, ehrlich und sorgfältig ausgeführt wird.
Er darf sich dann nur nicht Wundern, wenn da Mist bei herauskommt und dann noch so vermessen zu sein zu sagen ... die Wissenschaft hätte Mist gebaut.
Das magische Wort ist dabei "zielführende".
Euer Ziel war ziemlich schnell erkannt.
Und ich halte Euch ja auch zu Gute, dass Ihr wirklich glaubt, was ihr da schreibt.
Das ist das eigentlich Tragische an der Geschichte aber Falsifizierung sieht anders aus .... nur eben nicht auf der Ebene von Internet-Blogs.
Was die Tiefenschärfe-Relevanz angeht, so wird man auch wirklich das gesamte Thema Tiefenschärfe betrachten müssen und nicht, wie von Euch, nur die Freistellung.
Aber dazu gibt as Papier ebenfalls Auskunft.
Ähnliches gilt für die Tiefenschärferechner, deren Schwerpunkt auch nur die Freistellung, nicht aber die Tiefenschärfe betrifft, die sich aus depth of field und depth of focus erst ergibt.
Also ... erst einmal richtig in die Materie einsteigen, bevor man auf seine eigenen Küchentischtest hereinfällt.
Nicht umsonst habe ich auch den Schritt, ganz an den Anfang des Themas gemacht, um mal zu verstehen, was Tiefenschärfe eigentlich ist... nämlich nicht nur Freistellung.
Antwort von Skeptiker:
@WoWu:
Enttäuschende Entgegnung!
Das Übliche: Wirres Theoriegeschwafel (man könnte fast den Eindruck gewinen, Du hättest vor der Lektüre der ZEISS-Broschüre noch nie einen profunden Gedanken ans Thema "Schärfentiefe" / "Tiefenschärfe" verschwendet), keinen einzigen, eigenen Experimental-Beitrag, aber jeden, der's versucht, als Küchentisch-Trottel bezeichnen.
Das ist eines ganz bestimmt nicht: Werbung für die Wissenschaft und für faire Argumentation.
Eher ein Beispiel für einen frustrierten Akademiker, der statt Argumente zu bringen, sich in diesem Fall vor allem durch Polemiken und wirres Gerede von "Freistellung", "Bokeh" (in früheren Beiträgen), und was sonst noch alles aus der (nochmals: interessanten und profunden!) ZEISS-Broschüre zusammengewürfelt wird (aber nichts mit dem eigentlichen Kernthema zu tun hat) profiliert.
Es geht und ging hier klar um die Überprüfung der DOF-Formel anhand realer Fotovergleiche mit a) unterschiedlichen Sensorgrössen bei, falls möglich, gleichem Pixelcount und b) unterschiedlichen Pixelcounts bei gleicher Sensorgrösse. Es geht primär weder um Freistellung (also den unscharfen Hintergrund) noch um Bokeh, und auch die von anderen immer wieder gebrachten Vergleiche mit "muss für den gleichen Bildwinkel ..." (mit Objektivwechsel) sind hier fehl am Platz.
Und wenn Du kluster und mich hier pauschal in denselben Topf wirfst: Wir sind erstens nicht die Einzigen, die die Aussagekraft des DOF-Rechners prüfen wollen - kluster durch anfängliche Behauptung (aber ohne den Pixelcount zu berücksichtigen), die Sensorgrösse spiele keine Rolle (ich kam dann allmählich zum Schluss: Nicht die entscheidende (sondern der Pixelcount zählt auch) wie laut DOF-Standard-Berechnung), ich durch theoretische Überlegung und beide schliesslich durch den Wunsch, das experimentell irgendwie zu überprüfen. Das ist kein Hexenwerk und durchaus machbar.
Ich kann nur für mich sprechen, wenn ich sage: Nicht die DOF-Therorie (und die damit verküpfte geometrische Optik) wird angezweifelt, sondern der überall verwendete Ansatz CoC = 1/1500 Sensordiagonale (und somit generell die Verknüfung von Sensorgrösse mit max. DOF-CoC) wird reflektiert, hinterfragt und zur Diskussion gestellt. Das habe ich hier nun ad nauseam wiederholt, und Du hast es bestimmt auch so verstanden.
Also halte Dich bitte zurück mit Wortverdrehungen und gewollten Fehlinterpretationen von eigentlich unmissverständlich Mitgeteiltem.
Frage (weil das von Dir hier quasi zum DIng der Unmöglichkeit hochstilisiert wird): Hast Du im Laufe Deiner wissenschaftlichen Karriere überhaupt schon mal selbst eine Versuchsanordnung zusammengestellt und erfolgreich in Betrieb genommen ?
Und, falls ja, kam dabei ein verwertbares Ergebnis heraus ?
Du bist also freundlich eingeladen, endlich eine eigene Argumentationskette zu bringen, statt Dich hinter ZEISS-Broschüren zu verschanzen und als Verwirrspiel immer wieder irgendwelche ablenkenden Stichworte und irgendwie intelligent klingende, aber unverständliche Allgemeinheiten in die Runde zu werfen (Zitat: "...zumal auch das ZEISS Papier beschreibt, was sich alles mitändern muss, wenn man zwei unterschiedliche Vorgaben in Einklang bringen will. ..."), die mit dem Thema nichts zu tun haben.
Falls das alles zu vlel verlangt ist, gibt es wie immer die Möglichkeit: Wenn man keine Ahnung hat - und das macht beim Thema DOF auf mich leider den Eindruck, im Gegensatz zu verschiedensten sonstigen, vor allem auch "elektronischen" Themen und/oder Standardisierungs-Geschichten und Farb- oder Signalverarbeitungs-Theorien aller Art - und/oder schlecht gelaunt auch keine Lust hat, fair zu diskutieren, einfach mal grossherzig auf die in diesem Fall unpassende Parade-Rolle als DOF-Guru (mit ZEISS-Backup) verzichten (sich vielleicht etwas zurücknehmen in Sachen 'Idioten-Karten verteilen') und ggf. mal die ... halten!
Gute Nacht (Ortszeit)!
Antwort von pillepalle:
Eigentlich möchte ich mich aus dieser müßigen Diskussion heraus halten, denn der ein oder andere hat bei dem Thema offensichtlich 'stur im Kopf'. Aber vielleicht hilft es ja sich klar zu machen, das einem der DOF Rechner in der Praxis wenig nutzt, denn der Schärfentiefeeindruck ist subjektiv und alleine von den Betrachtungsbedingungen abhängig. Wenn man die nicht genau kennt kann man rum rechnen solange man möchte ohne zu einem brauchbaren Ergebnis zu kommen. Oder anders gesagt, man fotografiert oder filmt für eine bestimmte Qualität und Ausgabeformat und dementsprechend wählt man seine Blenden. Nicht nach irgendwelchen Formeln oder theoretischen Maßen. Dazu braucht es etwas Erfahrung damit man weiß welche Blenden unter welchen Bedingungen notwenig sind, oder was man gar nicht erst probieren braucht. Wenn der ein oder andere die Energie die er hier verbraucht mit der Arbeit an der Kamera verbracht hättet, wäre er vermutlich weiter.
VG
Antwort von Jott:
Weise Worte aus der verpönten Praxis. Man hat eine Kamera und Optiken dazu, man weiß, welche Brennweite und Blende man für ein gewünschtes Ergebnis braucht. Ist wie Radfahren. Versteht natürlich niemand, der nicht selber filmt oder radfährt.
Antwort von klusterdegenerierung:
@Skeptiker
Was mich total fasziniert ist, das immer wieder ein Vergleich angefordert wird aus dem auch wirklich ein quasi genauer Vergleich der Schärfeausdehnung herforgeht und man ihn aber auf den Testbildern ja garnicht sehen kann!
Das ist schon fasst grotesk und zeigt mir einfach wie starrsinnig manche mit dem Thema umgehen.
Eins ist doch klar, wenn ich Recht hätte, würde niemand etwas verlieren sondern gewinnen!!
Ja ich habe diese Tests gewissenhaft durchgeführt und nicht geschummelt und ganz penibel sogar die Sensorposition mit eingerechnet.
Fakt ist ja nun mal, das wenn es um dieses Thema geht, wir hier um eigentlich große DOF Veränderungen sprechen, denn jeder Fullframer weiß, wie sehr sich das DOF Verhalten mit äquvalenter Optik an einer APS-C Cam ändert, nämlich sehr stark, besonders wenn man dabei auch noch seinen Standort ändert.
Das heißt jeder der sich mit dem Thema beschäftigt weiß, das es hier um Welten in der Tiefenschärfe geht, also um mehrere Blenden oder Prozente sozusagen!
Nun komme ich mit Bildern, wo man mit dem Mikroskop die Unterschiede ausmachen müßte und da sagen dann tatsächlich welche, ne das sieht doch ganz anders aus, da brauche ich ein echtes Beispiel, obwohl es die Äquivalenzvariante die einen wie ein Hammer erschlägt, da zu gibt.
Mir zeigt das nur, das nicht sein kann was nicht sein darf, egal ob pixepitch und Dichte etc.
Nehmen wir mal ein DinA Blatt und ein ca. 18x24 Blatt auf die Mitte darauf,
schneiden das 18x24 Format aus dem DinA4 aus,
so das wir 2x 18x24 und 1x einen DinA4 Rahmen haben! Nun legen wir ein 18x24 Blatt zur Seite und legen den DinA4 Rahmen passgenau über das 18x24.
Jetzt malen wir ein Bild über die gesamte Fläche und nehmen den DinA4 Rahmen zur Seite.
Es hat sich nichts verändert, ausser das auf dem 18x24 Bild nicht alles drauf passt,
aber anders ist das Bild dadurch nicht.
Genauso ist es mit den Sensoren, da passiert nichts optisches, wenn alles bleibt wie es ist,
es gibt sozusagen nur ein großes und ein kleines Blatt! Thats it!
Antwort von Skeptiker:
klusterdegenerierung hat geschrieben:
Es hat sich nichts verändert, ausser das auf dem 18x24 Bild nicht alles drauf passt,
aber anders ist das Bild dadurch nicht.
Genauso ist es mit den Sensoren, da passiert nichts optisches, wenn alles bleibt wie es ist,
es gibt sozusagen nur ein großes und ein kleines Blatt! Thats it!
Na ja, kluster, der Vergleich ist zwar sehr anschaulich, aber er hinkt trotzdem:
Das Bild, das da in der Kamera zustandekommt, hängt ja immer an beidem: Am Objektiv als Bildlieferant und an der Kamera, als Bild-Auffang- und Verarbeitungsstation. Und da kann so ein Pixelcount durchaus auch einen Unterschied machen (ob & inwiefern ist jeder eingeladen, selbst mal zu testen!), wenn's um die 1:1-Betrachtung am Monitor geht und um die Frage, ob da ein vergösserter Unschärfekreis nun 1 Monitorpixel beansprucht (scharf) oder sich über mehr als 2 Pixel ausdehnt (unscharf - siehe den zuvor von dienstag_01 verlinkten Beitrag von 2008 aus dem PC-Magazin).
Ich teste wirklich völlig ergebnis-offen und habe mich auch (noch) nicht definitiv auf eine Wahrheit festgelegt.
Aber ich finde es legitim, selbst zu testen (und auch, wenn es nicht legitim wäre, könnte man es tun) und auch legitim, die Sache rein von der Praxisseite anzugehen, quasi ohne Theorieballast, wie Du es tust. Wenn die Theorie die Praxis deckt, dann müsste sich das im Test ja widerspiegeln, wenn nicht, ebenfalls.
Ich halte nicht viel von einer reinen Theorie, an die sich die Praxis bitteschön anzupassen hat, statt umgekehrt.
Solche selbstverliebten Ansätze können in die Irre führen, aber genauso können dies auch falsche Versuchsanordnungen, das ist unbestritten, die hier vom Oberwissenschaftler (der übrigens Doktor der Ingenieurswissenschaften ist, wenn ich mich nicht täusche, und nicht Doktor der Physik) allen, die es auch nur wagen, an einen eigenen Test zu denken (ja, generell, selbst zu denken, statt Broschüren renommierter Firmen zu zitieren), sofort reflexartig unterstellt werden, mit dem Zusatz "Fälschungsabsicht".
Ein solche Fälschung würde schnell entlarvt (z. B. durch einen Gegentest), die Wissenschaftsgemeinde ist da gnadenlos - mit Recht!
Und ich habe es schon mal geschrieben: Bisher komme ich in meiner foto- und videografischen Praxis ganz gut ohne irgendwelche DOF-Rechnerei aus - man benötigt ja normalerweise weniger die absouten Zahlen "von ... bis scharf", als vielmehr eine Tendenz, um abzuschätzen: "Wenn ich A ändere, passiert eben B, und wenn ich an C schraube, hat das D zur Folge".
Insofern kann es sicher nicht schaden, genügend theoretischen Hintergrund mitzunehmen, um solche DOF- und ganz allgemein Äquivalenzabschätzungen (die auch das Licht einbeziehen) quer über verschiedene Sensorgrössen, Objektivbrennweiten und Pixelcounts bereits vor der Aufnahme machen zu können.
Antwort von iasi:
Auch hier mal das ganz praktische Beispiel:
- Over sholder
- es ist nicht erwünscht, die Entfernung zwischen beiden Personen durch WW zu strecken
- Bildausschnitt und Größe der Personen im Bild ist vorgegeben
- die Person mit dem Rücken zur Kamera soll nicht in der Unschärfe zerfließen
Nun also der Unterschied zwischen z.B. FF und MFT:
Bei FF ist stärkeres Abblenden erforderlich.
Die Folgen:
- Erheblich mehr Licht erforderlich oder knapper belichten, was dann die immer angeführte bessere LowLight-Fähigkeit aushebelt - Rauschen nimmt zu, DR nimmt ab.
- Abblenden geht irgendwann auf Kosten der Abbildungsqualität des Objektivs. Und schon ist auch die bessere Auflösung des großen Sensors dahin.
Zudem muss man mit FF schlicht näher ran und rückt damit den Darstellern auf die Pelle. :)
Antwort von Skeptiker:
iasi hat geschrieben:
Auch hier mal das ganz praktische Beispiel:
...
- Bildausschnitt und Größe der Personen im Bild ist vorgegeben
...
Frage: Heisst das, es wurden unterschiedliche Brennweiten verwendet ? Oder die Distanz zum Motiv angepasst ?
Leider kein Bild beigelegt -> muss man sich selbst dazudenken.
Antwort von WoWu:
@Skeptiker
Falls das alles zu vlel verlangt ist, gibt es wie immer die Möglichkeit: Wenn man keine Ahnung hat - und das macht beim Thema DOF auf mich leider den Eindruck, im Gegensatz zu verschiedensten sonstigen, vor allem auch "elektronischen" Themen und/oder Standardisierungs-Geschichten und Farb- oder Signalverarbeitungs-Theorien aller Art - und/oder schlecht gelaunt auch keine Lust hat, fair zu diskutieren, einfach mal grossherzig auf die in diesem Fall unpassende Parade-Rolle als DOF-Guru (mit ZEISS-Backup) verzichten (sich vielleicht etwas zurücknehmen in Sachen 'Idioten-Karten verteilen') und ggf. mal die ... halten!
Tja Skeptiker, da wo die Argumente aufhören, fängt die Polemik eben an.
Statt die (von Dir doch angeblich hoch geschätzten) Argumente im Zeiss Papier zu falsifizieren, setzt Du billige Polemik.
Mein Fehler ist nur, dass ich diese Intention nicht schon viel früher erkannt habe.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
Auch hier mal das ganz praktische Beispiel:
- Over sholder
- es ist nicht erwünscht, die Entfernung zwischen beiden Personen durch WW zu strecken
- Bildausschnitt und Größe der Personen im Bild ist vorgegeben
- die Person mit dem Rücken zur Kamera soll nicht in der Unschärfe zerfließen
Nun also der Unterschied zwischen z.B. FF und MFT:
Bei FF ist stärkeres Abblenden erforderlich.
Die Folgen:
- Erheblich mehr Licht erforderlich oder knapper belichten, was dann die immer angeführte bessere LowLight-Fähigkeit aushebelt - Rauschen nimmt zu, DR nimmt ab.
- Abblenden geht irgendwann auf Kosten der Abbildungsqualität des Objektivs. Und schon ist auch die bessere Auflösung des großen Sensors dahin.
Zudem muss man mit FF schlicht näher ran und rückt damit den Darstellern auf die Pelle. :)
iasi,
ich will euch garnicht zu texten, aber alle Anwesenden machen direkt am Anfang den genau gleichen Denkfehler, denn wenn ich schon höre, das jemand bei FF stärker abblenden muß,
dann impliziert das doch unweigerlich, das an der APS-C eine 1,5x kürzere Brennweite genutzt wird als an der FF, denn sonst käme man nie im Leben auf diese Gedanke, denn auch nur dann muß ich mehr abblenden! Ich spreche aber die ganze Zeit und immer noch davon, das man nicht andere Optiken bei den beiden Cams nutzt, sondern ein und die gleiche.
Das heißt konkret, wir reden seit Beginn dieses und anderer Threads immer nur an einander vorbei wenn der eine die Optiken bei unterschielichen Sensoren tauscht um auf ein gleich großes Bild zu kommen und der andere (ich) die Optiken nicht tauscht, weil es nicht um gleich große Bildausschnitte geht, sondern um unterschiedlich große Sensoren.
Nochmal, Du mußt nur deshalb abblenden, weil Du an Deiner FF Cam eine längere Brennweite hast, nicht weil die einen größeren Sensor hat.
Würdest Du an Deiner APS-C auch ein 50mm statt 35mm hängen, bräuchtest Du in FF nicht abblenden, allerdings hättest Du dafür aber eben bei APS-C einen viel kleineren Ausschnitt den man vielleicht nicht gebrauchen kann.
In dem Fall bleiben einem 2 Möglichkeiten, man schraubt auf beide ein 35mm und hat bei FF ein viel zu weitwinkliges Bild welches man mit guter Auflösung cropen könnte, oder namm bedient sich einer längeren Brennweite , was dann genau zu Deinem Phänomen führt, man muß bei FF mehr abblenden, bekommt aber den gleichen Bildausschnitt.
Du siehst es geht um 2 Standpunkte.
Alle wollen immer nur ein gleich großes Bild an 2 unterschiedlich großen Sensoren!
Erstens weiß ich nicht warum dies immer soo erstrebenswert ist, zweitens hat dies zur Folge,
das ich bei kleineren Sensoren unweigerlich bei mehr Tiefenschärfe lande!
Ein 1/3 Camcorder hat ja nicht deswegen mehr Tiefenschärfe weil er so klein ist,
sonder weil er so klein ist muß ich ein Weitwinkel davor haben um auf einen großen Bildausschnitt zu kommen.
Deswegen sagen ja alle immer, wenn man wenig Tiefenschärfe bei Camcordern möchte,
muß man unheimlich reinzoomen, was aber quark mit soße ist, denn Brennweitentechnisch zoomt man garnicht groß rein! 45mm zb. bei meinem Camcorder ist ist nun wirklich nicht viel,
aber die 4,5mm Weitwinkel in dem Teil, sind extrem weit, deswegen auch kaum DOF.
Antwort von Skeptiker:
WoWu hat geschrieben:
@Skeptiker
Falls das alles zu vlel verlangt ist, gibt es wie immer die Möglichkeit: Wenn man keine Ahnung hat - und das macht beim Thema DOF auf mich leider den Eindruck, im Gegensatz zu verschiedensten sonstigen, vor allem auch "elektronischen" Themen und/oder Standardisierungs-Geschichten und Farb- oder Signalverarbeitungs-Theorien aller Art - und/oder schlecht gelaunt auch keine Lust hat, fair zu diskutieren, einfach mal grossherzig auf die in diesem Fall unpassende Parade-Rolle als DOF-Guru (mit ZEISS-Backup) verzichten (sich vielleicht etwas zurücknehmen in Sachen 'Idioten-Karten verteilen') und ggf. mal die ... halten!
Tja Skeptiker, da wo die Argumente aufhören, fängt die Polemik eben an.
Statt die (von Dir doch angeblich hoch geschätzten) Argumente im Zeiss Papier zu falsifizieren, setzt Du billige Polemik.
Mein Fehler ist nur, dass ich diese Intention nicht schon viel früher erkannt habe.
Tja WoWu, nachdem Du meine theoretischen Überlegungen hier offenbar überlesen hast und jeden Versuch, das durch einen simplen Versuch zu prüfen, als Küchentischquatsch abtust, um Dich wieder dem Zitieren aus der ZEISS-Broschüre zuzuwenden (aus der Du zu Beginn Deiner öffentlichen "DOF-Weisheiten von der Kanzel herab" ohne Quellenangabe zitierst hast, als wären's Deine ureigensten Erkenntnisse), geht der Polemik-Preis an Dich zurück!
Weiterhin viel Erfolg mit der ZEISS-Lektüre - vielleicht hilft's ja ! ;-)
Antwort von klusterdegenerierung:
Mich wundert bei vielen die immer noch diese Faustregeln im Kopf haben, das sie nicht schon mal längst eigene Test gemacht haben, denn dann käme absolut nichts anderes dabeiraus was ich beschreibe.
Auch arbeitet jeder DOF Rechner von Hause aus mit äquivalenten Brennweiten bei der berechnung von Tiefenschärfe, was ja auch Sinn macht, denn ich will ja wissen was passiert, wenn beide das gleiche Bild erzeugen würden.
Von der Warte aus macht der DOF Rechner ja auch alles richtig und ihr seht es von dem Standpunkt ja auch richtig, aber Kein APS-C user der sich nun endlich mal eine FF kaufen möchte,
hängt beim testen bei beiden Cams die gleiche Optik dran, sondern immer ein Äquivalent.
Nun steht er da im laden und sagt, puh, da habe ich mit meiner 35mm Optik aber plötzlich mehr im Bild, klar, die Fläche hinter der Optik ist ja auch plötzlich 1,5x so groß.
Jetzt holt der Händler eine 50mm aus dem Schrank und alles ist gelauf, BUMS, weniger Tiefenschärfe, ja aber nicht weil der Sensor so groß ist, sondern weil es sich einmal um 35 (weitwinkel) und 50mm Normalbrennweite handelt, nix sonst.
Antwort von WoWu:
@Skeptiker
Weiterhin viel Erfolg mit der ZEISS-Lektüre - vielleicht hilft's ja ! ;-)
Das hatte ich Dir ja auch schon gewünscht und geraten denn fast 100% aller Erkenntnisse bezüglich physikalischer Gesetzmäßigkeiten beruhen auf überliefertem Wissen, weil weder Du, noch ich vermutlich jemals physikalische Gesetzmässigkeiten erarbeitet haben.
Der Unterschied ist nur der, dass manche ihr Wissen aus Blogs oder wikipedia bezieht bei denen jeder Hirni jeden Quatsch schreiben kann und andere wissenschaftliche Aufsätze, oder Dissertationen benutzen, um ihr Wissen zu ergänzen.
Und was die selbsternannten „Praktiker“ angeht ... man muss keine Atombombe gebaut haben, um Kernspaltung zu verstehen.
Antwort von iasi:
Skeptiker hat geschrieben:
iasi hat geschrieben:
Auch hier mal das ganz praktische Beispiel:
...
- Bildausschnitt und Größe der Personen im Bild ist vorgegeben
...
Frage: Heisst das, es wurden unterschiedliche Brennweiten verwendet ? Oder die Distanz zum Motiv angepasst ?
Leider kein Bild beigelegt -> muss man sich selbst dazudenken.
Wie schon im anderen Punkt erwähnt, soll sich das Größenverhältnis zwischen den Personen nicht ändern.
Es ist doch so, dass der Bildinhalt und die Bildsprache vorgegeben sind. Wie es technisch erreicht wird, ist dann Sache des Kameramanns. Ich sehe hier nicht nur Vorteile durch große Sensoren.
Nimm wie Kurosawa in "Ran" oder Walter Hill in verschiedenen Filmen bei großer Brennweite und maximaler Schärfentiefe den Raum komprimiert haben. Man sieht den Aufnahmen an, dass das Filmformat eine Blendestufe erforderte, die die Objektive in den Grenzbereich brachten.
Antwort von domain:
Ein Problem bei all den hier gerührten Diskussionen sehe ich darin, dass der sgn. Unschärfeeindruck vom subjektiven Eindruck des menschlichen Auges mit einem maximalen Auflösungsvermögen von einer Winkelminute abgeleitet wird:
"Bei einer Unschärfe, die 2 Winkelminuten, also 1/1500 der Bilddiagonalen übersteigt, werden wir (bei normalem Betrachtungsabstand) eine Unschärfe also gerade zu erkennen beginnen."
Das kann heute m.E. so nicht mehr stehen bleiben, speziell wenn man die bis zur Pixelebene möglichen Vergrößerungen am Bildschirm in Betrachtung zieht.
Dazu ein Gedankenspiel: eine 6x7cm Aufnahme mit einem 45mm Objektiv mit extrem hoher Auflösung und extrem kleinen Pixeln auf dem Sensor. Wenn es auf ein bestimmtes flaches Objekt wirklich scharf gestellt wäre gäbe es keine Zerstreungskreise sondern nur exakt abgebildete Punkte, aber schon bei der geringsten Abweichung davon würden derartige Punkte bei entsprechender Vergrößerung in Scheibchen zerfließen.
Es ist im Grunde also nur eine Definitionsfrage, was als scharf oder unscharf empfunden wird.
Ein 45mm Objektiv wäre bei 6X7 übrigens ein bereits ziemlich ausgeprägtes Weitwinkelobjektiv. Würde man dann aber einen Ausschnitt mit der Größe eines 2/3" Sensors machen, würde der Eindruck eines Teleobjektives entstehen und zwar mit allen Attributen von Schärfentiefe bei dieser "langen" Brennweite.
Kann aber schon sein, dass ich einen Gedankenfehler begangenen habe.
Antwort von WoWu:
Der Gedankengang stimmt. Das Problem in dieser Diskussion war, dass nicht Tiefenschärfe diskutiert wurde, sondern Freistellung.
Freistellung ist aber nur ein Teilaspekt.
Das scheint einigen hier noch gar nicht klar zu sein.
Du bringst aber einen weiteren Aspekt mit ins Spiel, nämlich die Unschärfe und deren Wahnehmung. (Cantsin hatte ihn eingangs auch kurz angerissen).
Soweit sind einige hier aber noch gar nicht.
Antwort von Skeptiker:
klusterdegenerierung hat geschrieben:
... Nun steht er da im laden und sagt, puh, da habe ich mit meiner 35mm Optik aber plötzlich mehr im Bild, klar, die Fläche hinter der Optik ist ja auch plötzlich 1,5x so groß.
Jetzt holt der Händler eine 50mm aus dem Schrank und alles ist gelauf, BUMS, weniger Tiefenschärfe, ja aber nicht weil der Sensor so groß ist, sondern weil es sich einmal um 35 (weitwinkel) und 50mm Normalbrennweite handelt, nix sonst.
Das ist durchaus eine Überlegung wert.
Beim Vergleich der Flächen ist Dir ein Fehler passiert - dabie geht der Cropfaktor (FF - APS-C) im Quadrat in die Rechnung ein, also statt 1.5 ist es 1.5 x 1.5 = 2.25.
Egal, die Überlegung mit dem gleichen Objektiv bei kleinerem Sensor ist beerechtigt und kann ja durch einen Test auch überprüft werden.
Was bei diesem etwas einseitigen Ansatz nicht berücksichtigt wird, ist die Sensorauflösung (Pixel pro Fläche, ergibt dann auch die rechnerische Seitenlänge quadratischer Pixel, den 'Pixel Pitch').
Was ebenfalls nicht berücksichtigt wird, ist der Ansatz aus der Zeit analoger Prints: Ein kleineres (physisches) Filmformat muss für gleich grosse Prints stärker nachvergrössert werden (was traditionell in einem optischem Zwischenschritt passierte - mit dem Vergrösserungsgerät).
Ein Problem bei all den hier gerührten Diskussionen sehe ich darin, dass der sgn. Unschärfeeindruck vom subjektiven Eindruck des menschlichen Auges mit einem maximalen Auflösungsvermögen von einer Winkelminute abgeleitet wird:
"Es ist im Grunde also nur eine Definitionsfrage, was als scharf oder unscharf empfunden wird."
Richtig. Das sollte man sich bei Benutzung irgendwelcher DOF-Rechner und bei Schärfentiefe-Angaben stets vor Augen halten - der (Durchschnitts-)Mensch steckt in den DOF-Formeln mit drin (durch den vorzugebenden, max. CoC, den max. Zerstreuungskreisdurchmesser, aber nicht mit den übrigen 3 Variablen der DOF-Formeln, die auf der Linsengleichung der geometrischen Optik fussen)
Ein 45mm Objektiv wäre bei 6X7 übrigens ein bereits ziemlich ausgeprägtes Weitwinkelobjektiv. Würde man dann aber einen Ausschnitt mit der Größe eines 2/3" Sensors machen, würde der Eindruck eines Teleobjektives entstehen und zwar mit allen Attributen von Schärfentiefe bei dieser "langen" Brennweite.
Das ist ja der Punkt, den kluster betont, wenn er sagt: Die Schärfentiefe bleibt dabei gleich.
Ist eine extreme Ansicht, bei der das Objektiv einseitig betont wird,
Das Objektiv, das allerdings allein die Geometrie des räumlichen Bildes im Sensor-Raum liefert, ob mit oder ohne Sensor, der das 3D-Bild nur an irgendeiner Stelle letztlich 2D auffängt und dabei Unschärfekreise von definierter Grösse produziert, im Prinzip ebenfalls zunächst mal unabhängig von der Sensorgrösse, aber eben nicht unabhängig von dessen Pixelauflösung, was z. B. die spätere Betrachtung am Monitor angeht).
Und das ist auch die Frage, die ich mir selbst schon ein paarmal gestellt habe: Inwiefern hat die Sensorgrösse einen Einfluss auf die Schärfentiefe (mal abgesehen von der genannten stärkeren Nachvergrösserung kleinerer Sensorbilder für gleich grosse Prints), und hat sie es fürs originale, unvergrösserte Sensorbild überhaupt, oder betrifft das eher die ganze Nach-Vergösserungs-Kette als das Original-Sensorbild ?
Die ZEISS-Broschüre (soweit hier bekannt wurde, ich habe sie nicht von A-Z gelesen) und ein traditioneller DOF-Rechner wie der DOFMaster verknüpfen diese Schärfentiefe via max. akzeptablen CoC-Durchmesser direkt mit der Aufnahmeformat-Grösse (Sensordiagonale) - 1/1500 davon soll man für den COC einsetzen.
Ob das bei den heutigen Pixel-Peeping Möglichkeiten am Computerbildschirm noch reicht, ist ja eine der aufgeworfenen Fragen.
Alternativ dazu wird der Ansatz vorgeschlagen, als CoC den 2fachen 'Pixel Pitch' zu verwenden und die Sensorgrösse ganz zu ignorieren.
Damit wäre die max. akzeptable Unschärfe für die 1:1 (100%)-Bildbetrachtung am Monitor ebenfalls 2 Pixel - diesmal Monitorpixel (wenn ich den von dienstag_01 zuvor verlinkten PC-Magazin Artikel richtig verstehe: https://www.pc-magazin.de/ratgeber/scha ... 72172.html)
Ok, wenn ich nun bei meinen Überlegungen (die im Prinzip auch nur eine Zusammenfassung von bereits Bekanntem sind) klare Fehler gemacht oder wichtige Aspekte nicht berücksichtig habe, bitte ich um Korrektur!
... Das Problem in dieser Diskussion war, dass nicht Tiefenschärfe diskutiert wurde, sondern Freistellung.
Das machst Du woran fest? (bitte klar begründen!)
Es war schon x-mal vom DOF-Rechner die Rede, und der dient Deiner Meinung nach dazu, die Freistellung zu berechnen (also den unscharfen Hintergrund)?
(an domain) ...Du bringst aber einen weiteren Aspekt mit ins Spiel, nämlich die Unschärfe und deren Wahnehmung. (Cantsin hatte ihn eingangs auch kurz angerissen).
Soweit sind einige hier aber noch gar nicht.
Der Aspekt wurde zuvor (evtl. war's in ein andereren, kürzlichen Thread als dem hier ausgelagerte Teil) schon mehrfach angesprochen (ich erinnere mich an die Diskussion mit cantsin, der das Crop-Foto meines DOF-Test-Lineals mit zentralem, scharfem Bereich nahm und darauf hinwies, die Schärfentiefe sei durch diese Nachvergrösserung nun doppelt so gross).
Gefunden! -> Mit dem Smartphone filmen -- ernsthaft! Teil 2: die Vorteile - Seite 8
viewtopic.php?f=3&t=142627&start=245#p956667
Der menschliche Faktor ist in der ganzen DOF-Geschichte ja der verwirrendste, weil unberechenbarste.
Aber vielleicht auch der entscheidende - domain hat's oben ja geschrieben!
Antwort von dienstag_01:
Ola, ganz schön was los (kann nicht mehr alles im Detail lesen) ;)
Der entscheidende Punkt scheint mir aber weiterhin wenn wir den gleichen Grenzwert des Verhältnisses Diagonale zu Zerstreuungskreis einhalten wollen zu sein. Das erklärt sich für mich nicht aus der Optik, sondern aus der Einbeziehung von (je nach Sensorgröße) unterschiedlich starken Vergrößerungen der Abbildungen (Prints).
Weil, in der Optik hängt die Schärfe eines abgebildeten Punktes von der Linseneigenschaft und dem Abstand zur Bildebene, nicht aber von der Größe der Bildebene ab.
Antwort von iasi:
ja - die schöne Theorie
Da kann man sich sehr lange darüber auslassen und kommt eben doch nicht auf ein eindeutiges Ergebnis, das ein komplexes System in der Realität darstellen könnte.
Man muss doch nur mal einen Chart an einer Wand anbringen, in 1,5m Abstand davon einen zweiten Chart auf einem Stativ mit leichter Überdeckung. Dann macht man Aufnahmen mit Kameras mit verschiedener Sensorgröße, achtet aber darauf, dass der Bildausschnitt gleich ist und die Schärfe auf dem Chart an der Wand liegt.
Identische Aufnahmen wird man nicht hinbekommen - interessant sind aber eben die Unterschiede.
Bei gleicher Brennweite wird man mit dem kleineren Sensor einen größeren Abstand benötigen - dies hat dann aber auch zur Folge, dass die beiden Charts nicht mehr gleich zueinander stehen.
Bei geringerer Brennweite ...
Interessant wäre dann auch noch ein Hintergrund - z.B. Blick durch ein angeschnittenes Fenster.
Übrigens zeichnen 2 verschiedene Objektive gleicher Brennweite bei gleicher Blende an gleichem Sensor die Unschärfe nicht gleich.
Nur soviel zum Thema Theorien, die noch erweitert werden müssen.
Antwort von pillepalle:
klusterdegenerierung hat geschrieben:
ich will euch garnicht zu texten, aber alle Anwesenden machen direkt am Anfang den genau gleichen Denkfehler, denn wenn ich schon höre, das jemand bei FF stärker abblenden muß,
dann impliziert das doch unweigerlich, das an der APS-C eine 1,5x kürzere Brennweite genutzt wird als an der FF, denn sonst käme man nie im Leben auf diese Gedanke, denn auch nur dann muß ich mehr abblenden! Ich spreche aber die ganze Zeit und immer noch davon, das man nicht andere Optiken bei den beiden Cams nutzt, sondern ein und die gleiche.
Das heißt konkret, wir reden seit Beginn dieses und anderer Threads immer nur an einander vorbei wenn der eine die Optiken bei unterschielichen Sensoren tauscht um auf ein gleich großes Bild zu kommen und der andere (ich) die Optiken nicht tauscht, weil es nicht um gleich große Bildausschnitte geht, sondern um unterschiedlich große Sensoren.
Nochmal, Du mußt nur deshalb abblenden, weil Du an Deiner FF Cam eine längere Brennweite hast, nicht weil die einen größeren Sensor hat.
Würdest Du an Deiner APS-C auch ein 50mm statt 35mm hängen, bräuchtest Du in FF nicht abblenden, allerdings hättest Du dafür aber eben bei APS-C einen viel kleineren Ausschnitt den man vielleicht nicht gebrauchen kann.
In dem Fall bleiben einem 2 Möglichkeiten, man schraubt auf beide ein 35mm und hat bei FF ein viel zu weitwinkliges Bild welches man mit guter Auflösung cropen könnte, oder namm bedient sich einer längeren Brennweite , was dann genau zu Deinem Phänomen führt, man muß bei FF mehr abblenden, bekommt aber den gleichen Bildausschnitt.
Du siehst es geht um 2 Standpunkte.
Alle wollen immer nur ein gleich großes Bild an 2 unterschiedlich großen Sensoren!
Erstens weiß ich nicht warum dies immer soo erstrebenswert ist, zweitens hat dies zur Folge,
das ich bei kleineren Sensoren unweigerlich bei mehr Tiefenschärfe lande!
Ein 1/3 Camcorder hat ja nicht deswegen mehr Tiefenschärfe weil er so klein ist,
sonder weil er so klein ist muß ich ein Weitwinkel davor haben um auf einen großen Bildausschnitt zu kommen.
Deswegen sagen ja alle immer, wenn man wenig Tiefenschärfe bei Camcordern möchte,
muß man unheimlich reinzoomen, was aber quark mit soße ist, denn Brennweitentechnisch zoomt man garnicht groß rein! 45mm zb. bei meinem Camcorder ist ist nun wirklich nicht viel,
aber die 4,5mm Weitwinkel in dem Teil, sind extrem weit, deswegen auch kaum DOF.
@ klusterdegenerierung
Es macht wenig Sinn zwei unterschiedliche Bilder zu vergleichen, denn dann hast Du unterschiedliche Abbildungsgrößen im jeweiligen Format und somit fehlt Dir die Vergleichbarkeit.
Wenn Du das gleiche Objektiv mit gleichem Abstand und gleicher Blende einmal an einer FF Kamera nutzt und einmal an einem Crop Sensor (so wie Du es vorschlägst), wird der Tiefenschärfe Eindruck am Crop Sensor geringer sein (weil das Objekt im Verhältnis größer im Format ist), denn es ist ja nur ein Ausschnitt des FF Bildes das nachträglich stärker vergrößert werden muß um den vorgegebenen (gleichen) Betrachtungsbedingungen zu entsprechen.
Ich habe z.B. eine KB Kamera an der ich auch einen APS-C Crop einstellen kann. Nur mal angenommen ich mache damit ein Foto von einem Objekt im Vollformat. Dann stelle ich die Kamera auf den Crop Modus um und mache das gleiche Bild nochmal (dann logischerweise mit weniger Umfeld). Danach schaue ich mir die Ergebnisse an (z.B. an Hand zweier gleich großer Prints). Dabei wird man feststellen, das mein Objekt z.B. in der Fullframe Aufnahme scharf sein wird, während es in der APS-C Aufnahme nicht mehr durchgehend scharf ist, weil es im Crop Bild größer dargestellt wird (weniger Umfeld). Man schaut quasi in dem Fall beim Crop-Sensor genauer hin. Nur wenn man das APS-C Bild in einem kleineren Format betrachtet wird man keinen Unterschied in der Schärfentiefe feststellen hat dann aber andere Betrachtungsbedingungnen. Das ist dann so als ob man mit der Schere etwas vom Vollformat Abzug weg geschnitten hätte.
Darin liegt auch Dein Denkfehler. Wenn man unterschiedliche Formate vergleicht, muss man auch das gleiche Motiv betrachten und am Ende auch unter den gleichen Betrachtungsbedingungen. Es geht doch immer darum etwas zu fotografieren, oder zu filmen, egal mit welchem Format man arbeitet. Wenn ich eine Kirche im Vollformat mit einem 24mm Objektiv formatfüllend ins Bild bekomme, brauche ich bei APS-C dafür ein 16mm Objektiv und im MFT Format ein 12mm Objektiv, sofern der Aufnahmeabstand gleich ist. Die Kirche wird aber auf dem Vollformatsensor größer abgebildet als auf dem APS-C Sensor und daher braucht man auch eine Blende mehr um die gleiche Schärfentiefe zu erreichen.
Von der Brennweite und dem Abstand zum Objekt hängt der Abbildungsmaßstab ab. Man kann also sagen das die Schärfentiefe nur vom Abbildungsmaßstab und der Blende abhängt, oder anders formuliert das sie nur von der Brennweite, dem Abstand und der Blende abhängt. Wie Du in dem Beispiel siehst, hat die Auflösung der Kamera damit erst mal gar nichts zu tun.
Die Auflösung spielt erst eine Rolle wenn die entsprechenden Endformate unterschiedlich sind, also quasi die Betrachtungsbedingungen andere sind. Wenn ich z.B. eine 24MP FF Kamera habe und diese 24MP mit 300 dpi Ausrucke, wird der Abzug größer sein, als wenn ich einen Print einer 12MP FF Kamera bei 300 dpi mache. Wenn ich das gleiche Motiv fotografiert habe, wird die Tiefenschärfe beim größeren Print geringer ausfallen, weil man in der stärkeren Vergrößerung sozusagen genauer hinschaut. Das gleiche passiert wenn man einen Film einmal auf einem iphone und einmal auf einem 30" Monitor betrachtet. Der Schärfentiefeeindruck wird ein ganz anderer sein.
VG
 |
Antwort von klusterdegenerierung:
pillepalle hat geschrieben:
Es macht wenig Sinn zwei unterschiedliche Bilder zu vergleichen, denn dann hast Du unterschiedliche Abbildungsgrößen im jeweiligen Format und somit fehlt Dir die Vergleichbarkeit.
Pillepalle,
sorry aber auch Du stecktst in einem Gedanken fest der Dich nicht loslässt!
Du vergleichst ein gleiches Bild, beziehungeweise einen gleichgroßen Ausschnitt beziehungsweise eine äquivalente Brennweite an 2 Verschiedenen Systemen um am Schluß das gleiche Bild mit einer unterschiedlichen Tiefenschärfe zu bekommen!
Das ist aus dieser Sicht richtig und legitim! :-)
Aber lasse Dir gesagt sein, so überprüfst Du nicht die Sensorgröße!!!!!!
Eine Größe kann man nur im Verhältnis testen, wenn alle anderen Parameter gleich sind.
Nur dann, teste ich "ausschließlich" die Fläche und das ist das was ich seit Tagen schreibe!
Nochmal, Du bzw. ihr habt Recht mit euren Beispielen, aber ich rede von was anderen.
Ihr müßt euren gedanklichen Knoten endlich mal lösen und euch davon befreien, das ich 2 vergleichbare Bildausschnitte bekomme.
Mir kommt hier jeder mit dieser Geschichte, keiner liest richtig, ausser vielleicht skeptiker,
aber auch er bringt jetzt Auflösung pitch und was weiß ich ins Spiel.
Aber auch ds kann ich Anhand meines Camcorder Tests widerlegen,
denn der hat gerade mal össelige FHD und nicht 4K und trotzdem ist die Tiefe identisch!
WARUM testet es von euch keiner selber? ANGST? ;-)))
Ich würde ja auch auf meine a6300 eine 35er schrauben wenn ich an meiner A7III eine 50er habe, aber das ist nicht mein Ziel!
Ich brauche nicht 2 idenstische Bilder mit unterschiedlicher Tiefenschärfe,
im Gegenteil, ich möchte 2 verschieden große Bildinhalte mit GLEICHER Tiefenschärfe.
Ich nehme niemandem was weg, denn EURE Rechnung stimmt und ist Alltagsgercht und plausibel,
Frage, ich möchte eine halbtotale und eine nahe Szene, was macht ihr?
Ihr schraubt euch eine 35er und dann eine 50er auf die Cam, richtig?
Ja, dann bekommt ihr aber bei 50mm weniger Tiefenschärfe als bei 35mm!
Macht ihr es wie ich und nimmt 2 Systeme ( oder eine A7 die S35 & FF kann) mit je einer 50mm, bekommt ihr die 2 gleichen Szenen, aber mit exakt der gleichen Tiefenschärfe!! Voila!
Antwort von dienstag_01:
pillepalle hat geschrieben:
klusterdegenerierung hat geschrieben:
ich will euch garnicht zu texten, aber alle Anwesenden machen direkt am Anfang den genau gleichen Denkfehler, denn wenn ich schon höre, das jemand bei FF stärker abblenden muß,
dann impliziert das doch unweigerlich, das an der APS-C eine 1,5x kürzere Brennweite genutzt wird als an der FF, denn sonst käme man nie im Leben auf diese Gedanke, denn auch nur dann muß ich mehr abblenden! Ich spreche aber die ganze Zeit und immer noch davon, das man nicht andere Optiken bei den beiden Cams nutzt, sondern ein und die gleiche.
Das heißt konkret, wir reden seit Beginn dieses und anderer Threads immer nur an einander vorbei wenn der eine die Optiken bei unterschielichen Sensoren tauscht um auf ein gleich großes Bild zu kommen und der andere (ich) die Optiken nicht tauscht, weil es nicht um gleich große Bildausschnitte geht, sondern um unterschiedlich große Sensoren.
Nochmal, Du mußt nur deshalb abblenden, weil Du an Deiner FF Cam eine längere Brennweite hast, nicht weil die einen größeren Sensor hat.
Würdest Du an Deiner APS-C auch ein 50mm statt 35mm hängen, bräuchtest Du in FF nicht abblenden, allerdings hättest Du dafür aber eben bei APS-C einen viel kleineren Ausschnitt den man vielleicht nicht gebrauchen kann.
In dem Fall bleiben einem 2 Möglichkeiten, man schraubt auf beide ein 35mm und hat bei FF ein viel zu weitwinkliges Bild welches man mit guter Auflösung cropen könnte, oder namm bedient sich einer längeren Brennweite , was dann genau zu Deinem Phänomen führt, man muß bei FF mehr abblenden, bekommt aber den gleichen Bildausschnitt.
Du siehst es geht um 2 Standpunkte.
Alle wollen immer nur ein gleich großes Bild an 2 unterschiedlich großen Sensoren!
Erstens weiß ich nicht warum dies immer soo erstrebenswert ist, zweitens hat dies zur Folge,
das ich bei kleineren Sensoren unweigerlich bei mehr Tiefenschärfe lande!
Ein 1/3 Camcorder hat ja nicht deswegen mehr Tiefenschärfe weil er so klein ist,
sonder weil er so klein ist muß ich ein Weitwinkel davor haben um auf einen großen Bildausschnitt zu kommen.
Deswegen sagen ja alle immer, wenn man wenig Tiefenschärfe bei Camcordern möchte,
muß man unheimlich reinzoomen, was aber quark mit soße ist, denn Brennweitentechnisch zoomt man garnicht groß rein! 45mm zb. bei meinem Camcorder ist ist nun wirklich nicht viel,
aber die 4,5mm Weitwinkel in dem Teil, sind extrem weit, deswegen auch kaum DOF.
@ klusterdegenerierung
Es macht wenig Sinn zwei unterschiedliche Bilder zu vergleichen, denn dann hast Du unterschiedliche Abbildungsgrößen im jeweiligen Format und somit fehlt Dir die Vergleichbarkeit.
Wenn Du das gleiche Objektiv mit gleichem Abstand und gleicher Blende einmal an einer FF Kamera nutzt und einmal an einem Crop Sensor (so wie Du es vorschlägst), wird der Tiefenschärfe Eindruck am Crop Sensor geringer sein (weil das Objekt im Verhältnis größer im Format ist), denn es ist ja nur ein Ausschnitt des FF Bildes das nachträglich stärker vergrößert werden muß um den vorgegebenen (gleichen) Betrachtungsbedingungen zu entsprechen.
Ich habe z.B. eine KB Kamera an der ich auch einen APS-C Crop einstellen kann. Nur mal angenommen ich mache damit ein Foto von einem Objekt im Vollformat. Dann stelle ich die Kamera auf den Crop Modus um und mache das gleiche Bild nochmal (dann logischerweise mit weniger Umfeld). Danach schaue ich mir die Ergebnisse an (z.B. an Hand zweier gleich großer Prints). Dabei wird man feststellen, das mein Objekt z.B. in der Fullframe Aufnahme scharf sein wird, während es in der APS-C Aufnahme nicht mehr durchgehend scharf ist, weil es im Crop Bild größer dargestellt wird (weniger Umfeld). Man schaut quasi in dem Fall beim Crop-Sensor genauer hin. Nur wenn man das APS-C Bild in einem kleineren Format betrachtet wird man keinen Unterschied in der Schärfentiefe feststellen hat dann aber andere Betrachtungsbedingungnen. Das ist dann so als ob man mit der Schere etwas vom Vollformat Abzug weg geschnitten hätte.
Darin liegt auch Dein Denkfehler. Wenn man unterschiedliche Formate vergleicht, muss man auch das gleiche Motiv betrachten und am Ende auch unter den gleichen Betrachtungsbedingungen. Es geht doch immer darum etwas zu fotografieren, oder zu filmen, egal mit welchem Format man arbeitet. Wenn ich eine Kirche im Vollformat mit einem 24mm Objektiv formatfüllend ins Bild bekomme, brauche ich bei APS-C dafür ein 16mm Objektiv und im MFT Format ein 12mm Objektiv, sofern der Aufnahmeabstand gleich ist. Die Kirche wird aber auf dem Vollformatsensor größer abgebildet als auf dem APS-C Sensor und daher braucht man auch eine Blende mehr um die gleiche Schärfentiefe zu erreichen.
Von der Brennweite und dem Abstand zum Objekt hängt der Abbildungsmaßstab ab. Man kann also sagen das die Schärfentiefe nur vom Abbildungsmaßstab und der Blende abhängt, oder anders formuliert das sie nur von der Brennweite, dem Abstand und der Blende abhängt. Wie Du in dem Beispiel siehst, hat die Auflösung der Kamera damit erst mal gar nichts zu tun.
Die Auflösung spielt erst eine Rolle wenn die entsprechenden Endformate unterschiedlich sind, also quasi die Betrachtungsbedingungen andere sind. Wenn ich z.B. eine 24MP FF Kamera habe und diese 24MP mit 300 dpi Ausrucke, wird der Abzug größer sein, als wenn ich einen Print einer 12MP FF Kamera bei 300 dpi mache. Wenn ich das gleiche Motiv fotografiert habe, wird die Tiefenschärfe beim größeren Print geringer ausfallen, weil man in der stärkeren Vergrößerung sozusagen genauer hinschaut. Das gleiche passiert wenn man einen Film einmal auf einem iphone und einmal auf einem 30" Monitor betrachtet. Der Schärfentiefeeindruck wird ein ganz anderer sein.
VG
Genau diesen Fall, *als ob man mit der Schere etwas vom Vollformat Abzug weg geschnitten hätte* sollte man aber, wenn es um das Verständnis von Schärfentiefe und Sensorgröße geht, in seine Betrachtung mit einbeziehen. Dann versteht man, dass die Abhängigkeit der Schärfentiefe von der Sensorgröße auf der unterschiedlichen Vergrößerung der Bilder beruht - was für viele Anwendungen der Normalfall ist.
Aber was ist für den Fall, dass ich mir das Ergebnis als 100% Ansicht on Screen ansehen würde (8256 Breite Vollformat gegen 5408 Breite APSC)? Da fällt die Vergrößerung weg. Und damit auch die Abhängigkeit der Schärfentiefe von der Sensorgröße.
 |
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Genau diesen Fall, *als ob man mit der Schere etwas vom Vollformat Abzug weg geschnitten hätte* sollte man aber, wenn es um das Verständnis von Schärfentiefe und Sensorgröße geht, in seine Betrachtung mit einbeziehen. Dann versteht man, dass die Abhängigkeit der Schärfentiefe von der Sensorgröße auf der unterschiedlichen Vergrößerung der Bilder beruht - was für viele Anwendungen der Normalfall ist.
Aber was ist für den Fall, dass ich mir das Ergebnis als 100% Ansicht on Screen ansehen würde (8256 Breite Vollformat gegen 5408 Breite APSC)? Da fällt die Vergrößerung weg. Und damit auch die Abhängigkeit der Schärfentiefe von der Sensorgröße.
Komisch ausgedrückt, aber Du bist verdammt nah dran!!!!!!!!!!!!!!!!!!! :-))))))) Endlich!
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Genau diesen Fall, *als ob man mit der Schere etwas vom Vollformat Abzug weg geschnitten hätte* sollte man aber, wenn es um das Verständnis von Schärfentiefe und Sensorgröße geht, in seine Betrachtung mit einbeziehen. Dann versteht man, dass die Abhängigkeit der Schärfentiefe von der Sensorgröße auf der unterschiedlichen Vergrößerung der Bilder beruht - was für viele Anwendungen der Normalfall ist.
Aber was ist für den Fall, dass ich mir das Ergebnis als 100% Ansicht on Screen ansehen würde (8256 Breite Vollformat gegen 5408 Breite APSC)? Da fällt die Vergrößerung weg. Und damit auch die Abhängigkeit der Schärfentiefe von der Sensorgröße.
Komisch ausgedrückt, aber Du bist verdammt nah dran!!!!!!!!!!!!!!!!!!! :-))))))) Endlich!
Das hier ist trotzdem nicht richtig:
Macht ihr es wie ich und nimmt 2 Systeme ( oder eine A7 die S35 & FF kann) mit je einer 50mm, bekommt ihr die 2 gleichen Szenen, aber mit exakt der gleichen Tiefenschärfe!! Voila!
Oder anders: es stimmt nicht, wenn du beide Szenen in einem Film verwendest -> unterschiedliche Vergrößerung.
Antwort von pillepalle:
In der 100% Ansicht am Monitor bleibt das gerippte Bild aber kleiner. Dein Beispiel der 100% Ansicht ist für jeden Anwendungsfall bedeutungslos und völlig praxisfern. In der 100% Ansicht kann man die Bildschärfe beurteilen aber nicht den Tiefenschärfeeindruck. Der hängt von den späteren Betrachtungsbedinungen ab.
Nix für ungut aber was Du da schreibst macht echt wenig Sinn.
VG
Antwort von dienstag_01:
pillepalle hat geschrieben:
In der 100% Ansicht am Monitor bleibt das gerippte Bild aber kleiner. Dein Beispiel der 100% Ansicht ist für jeden Anwendungsfall bedeutungslos und völlig praxisfern. In der 100% Ansicht kann man die Bildschärfe beurteilen aber nicht den Tiefenschärfeeindruck. Der hängt von den späteren Betrachtungsbedinungen ab.
Nix für ungut aber was Du da schreibst macht echt wenig Sinn.
VG
Ich dachte eigentlich, ich hätte es gut erklärt, da ich auf dein *abgeschnittenes Vollformat* Bezug genommen hatte ;)
Wenn ich ein 10cm großes Objekt einmal mit Vollformat und einmal mit APSC fotografiere (gleiches Objektiv usw., darum geht es ja hier), dann ist dieses Objekt in der 100% Ansicht auf dem Monitor natürlich in beiden Fällen gleich groß. Nur das Vollformat hat einen (nicht interessierenden, also *wegzuschneidenden*) Rand.
Und das man in der 100% Ansicht keine Tiefenschärfe beurteilen können soll, ich nenne es mal witzig. Bei Video ist der Screen nämlich meine *spätere Betrachtungsbedingung*.
Antwort von Skeptiker:
Nur eine kurze Bemerkung (bevor ich sie wieder vergesse) - bin nicht sicher, ob sie hier in die (interessante) Diskussion passt:
100%-Ansicht heisst ja, jedem Sensor Pixel wird ein Monitor Pixel zugeordnet, oder nicht?
Damit kann es durchaus sein (alle übrigen EInstellungen gleich: Fokusabstand, Brennweite, Blende), dass ein Vollformat-Bild einer FF Sony A7S mit 12 Megapixeln am Monitor kleiner ist als eines aus einer MFT GH5 mit 22 Megapixeln.
Was heisst das für die Schärfentiefe? Muss noch darüber nachdenken.
Es dreht sich in Sachen Schärfentiefe offenbar alles darum, wie gross die (auf dem Sensor noch akzeptabel grossen, also für FF z. B. 0.029 mm nach der Diag x 1/1500-Regel) Unschärfekreise vom Sensor am Ende (also heutzutage normalerweise am Monitor) angeschaut werden.
Kluster sagt, er will das kleine und das grosse Bild (mit gleichem Objektiv aufgenommen) gleich stark nachvergrössern (das ist dann der gleich Abb.-Maßstab), womit das kleine am Monitor dann ebenfalls kleiner ist und die Schärfentiefe somit gleich sein müsse.
Stimmt das so?
Und man muss auch daran denken, dass der Sicht-Abstand zum Monitor stets der gleiche ist, egal wie stark man ins Bild hineinzoomt - man rückt ja für die 100%-Ansicht nicht weiter weg vom Bild.
Demgegenüber steht ja die urprüngliche Forderung (auf der die DOF-Rechner-Angaben basieren), man solle den Print x mal so gross machen wie das Original und ihn in einem Abstand von y cm (bzw. einem Bildwinkel von z°) ansehen (für die korrekte = mit derm DOF-Rechner übereinstimmende Beurteilung der Schärfentiefe).
Das war jetzt auf die Schnelle alles etwas zusammengeworfen - eher ein paar Gedankenfetzen! ;-)
Antwort von dienstag_01:
Skeptiker hat geschrieben:
Nur eine kurze Bemerkung (bevor ich sie wieder vergesse) - bin nicht sicher, ob sie hier in die (interessante) Diskussion passt:
100%-Ansicht heisst ja, jedem Sensor Pixel wird ein Monitor Pixel zugeordnet, oder nicht?
Damit kann es durchaus sein, dass ein Vollformat-Bild einer FF Sony A7S mit 12 Megapixeln am Monitor kleiner ist als eines aus einer MFT GH5 mit 22 Megapixeln.
Was heisst das für die Schärfentiefe? Muss noch darüber nachdenken.
Es dreht sich in Sachen Schärfentiefe offenbar alles darum, wie gross die vergrösserten (noch akzeptabel grossen) Unschärfekreise vom Sensor am Ende (also heutzutage normalerweise am Monitor) angeschaut werden.
Und man muss auch daran denekn, dass der Sicht-Abstand zum Monitor stets der gleiche ist, egal wie stark man ins Bild hineinzoom - man rückt ja für die 100%-Ansicht nicht weiter weg vom Bild.
Demgegenüber steht ja die urprüngliche Forderung (auf der die DOF-Rechner-Angaben basieren), man solle den Print x mal so gross machen wie das Original und ihn in einem Abstand von y cm (bzw. einem Bildwinkel von z°) ansehen (für die korrekte = mit derm DOF-Rechner übereinstimmende Beurteilung der Schärfentiefe).
Das war jetzt auf die Schnelle alles etwas zusammengeworfen - eher ein paar Gedankenfetzen! ;-)
Du hast natürlich recht, ich bin jetzt von einem Crop (also gleichem Pixelpitch) ausgegangen.
 |
Antwort von pillepalle:
dienstag_01 hat geschrieben:
pillepalle hat geschrieben:
In der 100% Ansicht am Monitor bleibt das gerippte Bild aber kleiner. Dein Beispiel der 100% Ansicht ist für jeden Anwendungsfall bedeutungslos und völlig praxisfern. In der 100% Ansicht kann man die Bildschärfe beurteilen aber nicht den Tiefenschärfeeindruck. Der hängt von den späteren Betrachtungsbedinungen ab.
Nix für ungut aber was Du da schreibst macht echt wenig Sinn.
VG
Ich dachte eigentlich, ich hätte es gut erklärt, da ich auf dein *abgeschnittenes Vollformat* Bezug genommen hatte ;)
Wenn ich ein 10cm großes Objekt einmal mit Vollformat und einmal mit APSC fotografiere (gleiches Objektiv usw., darum geht es ja hier), dann ist dieses Objekt in der 100% Ansicht auf dem Monitor natürlich in beiden Fällen gleich groß. Nur das Vollformat hat einen (nicht interessierenden, also *wegzuschneidenden*) Rand.
Und das man in der 100% Ansicht keine Tiefenschärfe beurteilen können soll, ich nenne es mal witzig. Bei Video ist der Screen nämlich meine *spätere Betrachtungsbedingung*.
Aber Du schaust das Video doch nacher nicht im 100% Crop, sondern Formatfüllend auf Deinem Bilsschirm, oder auf den Player begrenzt 😉 Das ist schon ein bißchen albern worüber hier diskutiert wird. Ziemlich weltfremd.
VG
 |
Antwort von dienstag_01:
pillepalle hat geschrieben:
dienstag_01 hat geschrieben:
Ich dachte eigentlich, ich hätte es gut erklärt, da ich auf dein *abgeschnittenes Vollformat* Bezug genommen hatte ;)
Wenn ich ein 10cm großes Objekt einmal mit Vollformat und einmal mit APSC fotografiere (gleiches Objektiv usw., darum geht es ja hier), dann ist dieses Objekt in der 100% Ansicht auf dem Monitor natürlich in beiden Fällen gleich groß. Nur das Vollformat hat einen (nicht interessierenden, also *wegzuschneidenden*) Rand.
Und das man in der 100% Ansicht keine Tiefenschärfe beurteilen können soll, ich nenne es mal witzig. Bei Video ist der Screen nämlich meine *spätere Betrachtungsbedingung*.
Aber Du schaust das Video doch nacher nicht im 100% Crop, sondern Formatfüllend auf Deinem Bilsschirm, oder auf den Player begrenzt 😉 Das ist schon ein bißchen albern worüber hier diskutiert wird. Ziemlich weltfremd.
VG
Klar, wenn du es sagst ;)
Antwort von Skeptiker:
Kurzer Hinweis:
Habe meine Beitrag oben noch etwas ergänzt.
Bis später mal!
Antwort von dienstag_01:
Kluster sagt, er will das kleine und das grosse Bild (mit gleichem Objektiv aufgenommen) gleich stark nachvergrössern (das ist dann der gleich Abb.-Maßstab), womit das kleine am Monitor dann ebenfalls kleiner ist und die Schärfentiefe somit gleich sein müsse.
Nö, er will die beiden Aufnahmen in einem Film verwenden, also werden sie unterschiedlich vergrößert.
Antwort von Skeptiker:
Noch eine Idee:
Was ist, wenn man, statt das kleine (gecropte) Bild zu vergrössern, das grosse auf gleiche Grösse verkleinert (für die Monitor-Ansicht)?
Dann verändert man den ABM des grossen Bildes - es schrumpfen die Motive leicht.
Dann müsste - falls die Schärfentiefe des Crop-Bildes ok ist (das hängt ja immer auch vom Motiv ab und dessen räumlicher Ausdehnung in Blickrichtung), die des FF-Bildes es erst recht sein.
Aber dann kann ich genausogut den Rand des grossen Bildes entfernen (abschneiden).
-> Denkfehler ?
Antwort von domain:
Ganz allgemein lässt sich sagen, daß die sgn. Schärfentiefe vom Auflösungsvermögen des menschlichen Auges abgeleitet wird. Wenn du z.B. eine 4x5"-Aufnahme mit 150 mm Normalbrennweite auf das Fuji Instaxformat 5,2x4,6cm verkleinerst, wirst du dem persönlichen Eindruck nach, also bei "Normalbetrachtung" genau dieselben Schärfentiefeverhältnisse wie bei einem Normalobjektiv für dieses kleine Format vorfinden. Das wären bei der Instaxmini theoretisch 75mm, defacto 60mm als leichtes Weitwinkel.
Umgekehrt könnte bei unbegrenzter Schärfe des Instaxformates mit einem Ausschnitt eine Teleaufnahme simuliert werden, wie sie bei kleinen Sensoren und dieser Brennweite ja gegeben wäre.
mm nachträglich auf cm korrigiert
Antwort von Skeptiker:
domain hat geschrieben:
... Wenn du z.B. eine 4x5"-Aufnahme mit 150 mm Normalbrennweite auf das Fuji Instaxformat 5,2x4,6mm verkleinerst, wirst du dem persönlichen Eindruck nach, also bei "Normalbetrachtung" genau dieselben Schärfentiefeverhältnisse wie bei einem Normalobjektiv für dieses kleine Format vorfinden. Das wären bei der Instaxmini theoretisch 75mm, defacto 60mm als leichtes Weitwinkel. ...
Da ist Dir wohl ein kleiner Tippfehler passiert:
Wenn 75mm Instax-Normalbrennweite sind, müsste es ein 5.2 x 4.6 cm Format sein (statt mm).
Ja, die ganze DOF-Geschichte ist - zusammen mit den verschiedensten Betrachtungsvarianten, die es gibt - unerwartet kompliziert, auf einen einheitlichen Nenner zu bringen.
Und auch wenn man den "Norm-Betrachter" in die Berechungen einbaut, dann gibt es immer noch zahllose Sehschärfen-Unterschiede oder auch Abweichungen von der Norm-Betrachtungsdistanz (um die feinen DOF-Unterschiede überhaupt zu erkennen) und Schärfeansprüche (man sieht's ja hier im Forum - die einen wollen's eher körnig-cinematisch, den anderen kann es gar nicht 4K-scharf genug sein und jedes minimalste Mini-Bildrauschen (Räuschchen quasi) stört das perfekte Bilderlebnis bereits - je nach Zielvorgabe und Präferenz).
Thema Vollbild versus Crop-Bild (oder kleinerer Sensor) mit gleicher Brennweite, Blende und Motivdistanz:
Die Grundfrage, die mich nach wie vor umtreibt, ist der Schritt vom durchs Objektiv ins Original-Bild eingebackenen Schärfe-Eindruck - also in der Fokusebene alles scharf, Bereiche davor oder dahinter als Unschärfekreise flächig ausgedehnt - und der anschliessenden Vergrösserung und Betrachtung.
Speziell mit der Monitorbetrachtung und den verschiedenen Möglichkeiten, bin ich gedanklich noch nicht durch - also 1:1-"Mapping" von Sensorpixeln und Monitorpixeln versus gleichgrosse Betrachtung aller Bilder (also stets in Monitor-Vollansicht - aber was heisst das? - es geht auch bei Monitoren stets um PIxel und deren Grössen und somit auch um Monitorgrössen), was unterschiedliche Nachvergösserungen des Originals (mit gleichem Objektiv aufgenommen) bedingt und also auch unterschiedliche CoC-Durchmesser und somit Schärfeeindrücke, dann noch die Pixelzahl bei einer bestimmten Grösse des Sensors.
Das Argument ist ja, bei kleineren Pixeln wären für den max. akzeptablen Unschärfekreis-Durchmesser eben bei höherer Pixelzahl pro projeziertem Motivpunkt bereits 2 Pixel (als Kreisdurchmesser) oder mehr involviert, während beim weniger auflösenden der Motivpunkt auf genau 1 Sensor-Pixel passt.
Somit wird der Motivpunkt im einen Fall bereits über 2 Pixel "verschmiert", also unscharf.
Leichtet soweit ein.
Aber wenn ich zur Monitorbetrachtung den höher auflösenden Sensor nur halb so stark vergrössern muss für den gleichen Abb.-Maßsstab bzw. die gleiche Monitor-Vollbild-Ansicht, dann kommen die 4 Sensor-Pixel (Fläche 2x2) eben auf 1 Monitor-Pixel zu liegen und wir sind wieder gleichauf mit der Schärfe.
Ich muss mir das Ganze nochmals gründlich überlegen (und es evtl. testen) - bin mir noch nicht im Klaren.
Oder ist alles ganz einfach und ich sehe vor lauter Bäumen den Wald nicht mehr?
Antwort von dienstag_01:
Ich denke, beim Downsampling verliert man Auflösung, gewinnt aber Schärfe.
Deswegen wird ja so gern 4K als HD ausgegeben.
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Oder anders: es stimmt nicht, wenn du beide Szenen in einem Film verwendest -> unterschiedliche Vergrößerung.
Jaaaaa zum Herrgfott, RICHTIG, aber das ist doch genau das was ich will,
denn das ist das gleiche wie eine halbtotale und eine Nahszene,
35mm & 50mm bezogen auf gleiche Sensorgrößee und 50mm & 50mm bei kleinem und großem Sensor sind ein und das selbe, nur der look ist anders.
Man das kann doch alles nicht so schwer sein, könnt ihr es denn nicht endlich mal selbst probieren? :-)
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Ich denke, beim Downsampling verliert man Auflösung, gewinnt aber Schärfe.
Deswegen wird ja so gern 4K als HD ausgegeben.
Hat aber null mit dieser Thematik zu tun,
denn Tiefenschärfe funktioniert unabhängig von Resolution.
Das einzige was sich verändert ist das cropverhältnis bzw die quali dabei,
denn wenn ich ein HD Crop gegen ein 8K Bild stellen müßte, sähe der HD Crop brutalst kacke aus, aber beide hätten immer noch das selbe Tiefenschärfe Verhältnis.
Bitte bitte bitte testet es doch selber mal,
es wird sich doch irgendwo eine Cam mit anderer Sensorgröße finden lassen! :-))
Antwort von Canini:
Ich dachte, in der Grundfrage ging es um den sichtbaren Verlauf der Schärfe/Unschärfe, nicht um die genaue Distanz "maximaler Schärfe", die natürlich von der Vergrößerung des Bildes bei der Betrachtung und der Auflösung des Sensors abhängt. Bei unendlich hoher Sensorauflösung und "100%-Ansicht" ist der Schärfebereich unendlich klein, unabhängig von der Sensorgröße ... ;-)
Natürlich hat klusterdegenerierung recht, wenn man bei gleicher Brennweite/Blende entsprechende Ausschnitte in gleicher Vergrößerung betrachtet. Wie sollte es anders sein? Die Optik macht die Abbildung. Woher sollte der innere Bereich eines Sensors wissen, wie groß der gesamte Sensor ist? ;-)
Hier kann man nachrechnen/veranschaulichen: Bei gleicher Pixeldichte und Vergrößerung ("geforderte Bildauflösung -> Sensorauflösung"), d.h. gleichen Zerstreuungskreisen, ergibt sich unabhängig vom Sensorformat ein gleicher Verlauf der Unschärfe:
http://www.cblur.org/de/index.html?fdis ... e&sw=false
Antwort von dienstag_01:
Zwei 4K Videos aus einer Kamera, eimal als Downsample von Vollformat und einmal als Crop von APSC - beide sollen die selbe Schärfentiefe bringen. Kann sein, sind mir persönlich allerdings bissel viele Unbekannte drin (bspw. Zerstreuungskreis im Downsampling), aber fürn Hausgebrauch wirds reichen.
Das Schärfe unabhängig von Auflösung ist, ist mir klar. Das Resampling, speziell Downsampling Auswirkungen auf die Schärfe hat, ist aber auch klar.
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Zwei 4K Videos aus einer Kamera, eimal als Downsample von Vollformat und einmal als Crop von APSC - beide sollen die selbe Schärfentiefe bringen. Kann sein, sind mir persönlich allerdings bissel viele Unbekannte drin (bspw. Zerstreuungskreis im Downsampling), aber fürn Hausgebrauch wirds reichen.
@Dienstag: Gibt's' einen Link zum Anschauen?
... und eine etwas ausführlichere Beschreibung, was Du genau gemacht hast und wie und womit? - Wenn schon 'Küchentischtest', dann wenigsten klar dokumentiert! ;-)
dienstag_01 hat geschrieben:
Das Schärfe unabhängig von Auflösung ist, ist mir klar. Das Resampling, speziell Downsampling Auswirkungen auf die Schärfe hat, ist aber auch klar.
Welche Schärfe? - die auf dem Sensorbild (vom Objektiv gelieferte) oder die am Monitor (damit wir sie überhaupt beurteilen können)?
Je präziser man sich hier ausdrückt, desto weniger Missverständnisse gibt es und desto eher kommen wir zu einem Ergebnis!
Antwort von dienstag_01:
Skeptiker hat geschrieben:
dienstag_01 hat geschrieben:
Zwei 4K Videos aus einer Kamera, eimal als Downsample von Vollformat und einmal als Crop von APSC - beide sollen die selbe Schärfentiefe bringen. Kann sein, sind mir persönlich allerdings bissel viele Unbekannte drin (bspw. Zerstreuungskreis im Downsampling), aber fürn Hausgebrauch wirds reichen.
Das Schärfe unabhängig von Auflösung ist, ist mir klar. Das Resampling, speziell Downsampling Auswirkungen auf die Schärfe hat, ist aber auch klar.
@Dienstag: Gibt's' einen Link zum Anschauen?
... und eine etwas ausführlichere Beschreibung, was Du genau gemacht hast und wie und womit? - Wenn schon 'Küchentischtest', dann wenigsten klar dokumentiert! ;-)
Sorry, der Beitrag sollte als *Antwort* auf klusterdegenerierungs und Caninis Beiträge verstanden werden.
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Skeptiker hat geschrieben:
@Dienstag: Gibt's' einen Link zum Anschauen?
... und eine etwas ausführlichere Beschreibung, was Du genau gemacht hast und wie und womit? - Wenn schon 'Küchentischtest', dann wenigsten klar dokumentiert! ;-)
Sorry, der Beitrag sollte als *Antwort* auf klusterdegenerierungs und Caninis Beiträge verstanden werden.
Ah, ok!
Eigentlich schade! Wenn Du mal Musse hast ...
Antwort von domain:
Canini hat geschrieben:
Die Optik macht die Abbildung. Woher sollte der innere Bereich eines Sensors wissen, wie groß der gesamte Sensor ist? ;-)
Hast du gut und richtig erfasst.
Man muss manchmal theoretische Extremwerte annehmen um klarer zu erkennen. Im Grunde kommt es auf das Verhältnis von Sensorgröße zur Brennweite der Linse an. Was bei dem einen Sensor eine Weitwinkelaufnahme ergibt, liefert bei dem anderen eine Teleaufnahme.
Die Sensorgröße geht aber in die rechnisch noch zulässige Zerstreungskreisgröße ein und ist mehr oder weniger Empfindungssache. Wenn ein Normalsichtiger z.B. eine +3 Dioptrien Lesebrille aufsetzt und daher ein Bild mit unendlich kleinen Pixeln aus ca. 8 cm Entferung betrachten kann, dann ist der für ihn relevante CoC sicher nicht mehr die Bilddiagonale/1500 sondern deutlich kleiner.
Antwort von dienstag_01:
domain hat geschrieben:
Canini hat geschrieben:
Die Optik macht die Abbildung. Woher sollte der innere Bereich eines Sensors wissen, wie groß der gesamte Sensor ist? ;-)
Hast du gut und richtig erfasst.
Man muss manchmal theoretische Extremwerte annehmen um klarer zu erkennen. Im Grunde kommt es auf das Verhältnis von Sensorgröße zur Brennweite der Linse an. Was bei dem einen Sensor eine Weitwinkelaufnahme ergibt, liefert bei dem anderen eine Teleaufnahme.
Die Sensorgröße geht aber in die rechnisch noch zulässige Zerstreungskreisgröße ein und ist mehr oder weniger Empfindungssache. Wenn ein Normalsichtiger z.B. eine +3 Dioptrien Lesebrille aufsetzt und daher ein Bild mit unendlich kleinen Pixeln aus ca. 8 cm Entferung betrachten kann, dann ist der für ihn relevante CoC sicher nicht mehr die Bilddiagonale/1500 sondern deutlich kleiner.
Irgendwie ist so ein Beitrag auch süß, ob und wenn ja warum die Sensorgröße in die Berechnung des Zerstreuungskreises eingeht/eingehen muss, darüber entzündet sich hier die Diskussion seit Tagen. Und dann wird das mal so locker vom Hocker geklärt ;)
Antwort von Funless:
dienstag_01 hat geschrieben:
domain hat geschrieben:
Hast du gut und richtig erfasst.
Man muss manchmal theoretische Extremwerte annehmen um klarer zu erkennen. Im Grunde kommt es auf das Verhältnis von Sensorgröße zur Brennweite der Linse an. Was bei dem einen Sensor eine Weitwinkelaufnahme ergibt, liefert bei dem anderen eine Teleaufnahme.
Die Sensorgröße geht aber in die rechnisch noch zulässige Zerstreungskreisgröße ein und ist mehr oder weniger Empfindungssache. Wenn ein Normalsichtiger z.B. eine +3 Dioptrien Lesebrille aufsetzt und daher ein Bild mit unendlich kleinen Pixeln aus ca. 8 cm Entferung betrachten kann, dann ist der für ihn relevante CoC sicher nicht mehr die Bilddiagonale/1500 sondern deutlich kleiner.
Irgendwie ist so ein Beitrag auch süß, ob und wenn ja warum die Sensorgröße in die Berechnung des Zerstreuungskreises eingeht/eingehen muss, darüber entzündet sich hier die Diskussion seit Tagen. Und dann wird das mal so locker vom Hocker geklärt ;)
Das liegt ganz einfach daran, dass wir gerade Vollmond haben. Und da Mondlicht bekanntermaßen Korinthenkackerstrahlung (die ebenfalls bekanntermaßen das Myelin zusammenpresst) blockiert bekommen die Axiome wieder mehr „Luft“ woraus resultierend das Gehirn langsam wieder klarer und vernünftiger arbeitet und somit etwas locker vom Hocker geklärt wird was schon von Beginn an locker vom Hocker hätte geklärt werden können.
Aber die Erlösung ist natürlich nur von kurzer Dauer, denn schon in einer Woche wird das Mondlicht die notwendige Intensität verlieren und es wird hier wie gewohnt weitergehen.
Antwort von Skeptiker:
Funless hat geschrieben:
"Korinthenkackerstrahlung"
Immer daran denken, dass wir ohne die, die auch mal etwas genauer hinschauen (und sich dabei dem Spott derer aussetzen, die sich eher vornehm zurückhalten) - ja, ich spreche von den Korinthenkackern und Erbsenzählern - weder Kameras noch dieses Forum hätten und uns evtl. noch in Fellen und mit Keulen zuleibe rücken würden, ohne je von Zerstreuungskreisen gehört zu haben! ;-)
Gruss
Skeptiker (Vollmond-KK - Vollblut-KK nur bei passender Gelegenheit)
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Zwei 4K Videos aus einer Kamera, eimal als Downsample von Vollformat und einmal als Crop von APSC - beide sollen die selbe Schärfentiefe bringen. Kann sein, sind mir persönlich allerdings bissel viele Unbekannte drin (bspw. Zerstreuungskreis im Downsampling), aber fürn Hausgebrauch wirds reichen.
Das Schärfe unabhängig von Auflösung ist, ist mir klar. Das Resampling, speziell Downsampling Auswirkungen auf die Schärfe hat, ist aber auch klar.
Glaub mir, alle anderen Faktoren sind uninteressant.
Du kannst es selber versuchen, 4K vs HD, kommt immer das gleiche raus!
Warum ist der Mensch eigentlich so gestrickt,
das wenn was ganz klar vor einem liegt und pups einfach ist, er es so lange verkomplizieren möchte, das es nicht mehr funktioniert um damit zu bestätigen das es etwas simples nicht geben kann?
Du kannst es doch selber ausprobieren. Trau Dich! ;-))
Antwort von dienstag_01:
Um nochmal darauf zurück zu kommen, gerade gefunden: *depth of field is set by aperture, focal length, and a criterion for spatial resolution*.
Der Artikel ist übrigens *The Depth-of-Field Myth and Digital Cameras* überschrieben und stellt gleich zu Anfang fest: *A commonly cited advantage of smaller digital cameras is their greater depth-of-field. This is incorrect.*
Insgesamt lesenswert: http://www.clarkvision.com/articles/dof_myth/
Antwort von Jott:
Die Kunst, aneinander vorbei zu reden ...
Antwort von blueplanet:
dienstag_01 hat geschrieben:
Insgesamt lesenswert: http://www.clarkvision.com/articles/dof_myth/
...wirklich ein genialer Artikel! Und wenn man sich bis zum Ende durchgekämpft hat, fragt man sich, weshalb es noch irgendwelche Unklarheiten zur Thematik und viel weiterführend geben sollte... ;))
Antwort von domain:
Guter, fundierter und einleuchtender Artikel.
Wenn also die realen Blendendurchmesser und nicht die relativen Blendenöffnungen gleich groß sind, dann ist auch die Schärfentiefe identisch.
2,2 und 2,3mm real bei den doch recht unterschiedlichen Brennweiten: 8 und 28 mm, nur wie hat er die konkreten Durchmesser eigentlich gemessen? Ev. die Objektive zerlegt?
"When the aperture diameters are equal (2.2 and 2.3 mm are close enough), we see the perceived depth of field to be the same."
War aber irgendwie auch zu erwarten: wenn ich bei längeren Brennweiten vergleichsweise stärker abblende, wird die Schärfentiefe irgendwann einmal identisch mit den kürzeren Brennweiten sein.
Antwort von WoWu:
Das liegt daran, dass in dem Thread ständig die Austrittpupille mit der Blendennummer verwechselt worden ist.
Mal ganz abgesehen davon, dass die oben zitierte Aussage
*A commonly cited advantage of smaller digital cameras is their greater depth-of-field. This is incorrect.*
...so auch nicht stimmt.
Es müsste korrekt heißen, dass es nur dann nicht stimmt, wenn man die Austrittspupille, also den Lichtkegel so stark bei dem großen Sensor verjüngt, dass er dem Lichtkegel des kleinen Sensors entspricht.
Die drei Bilder machen das sofort anschaulich...
28mm mit f13. entsprechen 8mm mit f3,5 (in der Wirkung)
Man hat also die Austrittspupille des „großen“ Objektivs soweit heruntergeknüppelt, bis sie der des „kleinen“ Objektivs entsprach.
Wählt man den identischen Blendenwert (f3,5) stellt sich exakt der Unterschied in den Sensorgrössen ein. (Bild 3)
Was Anderes steht bei Zeiss auch nicht, nur etwas ausführlicher und genauer in der Beschreibung und unter Berücksichtigung weiterer Szenarien.
Benutzt man bei beiden Objektiven (kleiner/großer Sensor) die Offenblende, hat man zwangsläufig unterschiedlich große Austrittspupillen und damit unterschiedliche Tiefenschärfe.
(weil zwar identische Blendenzahl -für die Offenblende- aber unterschiedliche Lichtkegel- und damit den Zustand von Bild 3).
Ist doch alles klar.
Damit müsste es dann heiße :
*A commonly cited advantage of smaller digital cameras is their greater depth-of-field. This is Correct.*
Man sollte nicht immer bei der Schlagzeile aufhören zu lesen. ;-)
Antwort von dienstag_01:
Wie man in dem Artikel lesen und (rechnerisch) nachvollziehen kann, ist DOF nicht von der Sensorgröße, sondern von der Pixelgröße abhängig.
Antwort von WoWu:
Das ist doch schon wieder so ein Taschenspielertrick ...
Ich habe im verlauf des Threads (ebenso wie Jan) schon mehrfach erwähnt, dass es um eine identische Pixelmatrix bei unterschiedlichen Sensorgrösen geht, also um identischen Ausgangsbedingungen (z.B. beide Kameras in 1920x1080) mit der einzigen Variante: der Sensorgrösse.
Denn dann hast Du nämlich auch zwangsläufig bei größerem Sensor größere Pixels.
Sonst macht das Ganze überhaupt keinen Sinn.
Das war aber auch eines der Probleme der „Tester“, dass ständig Parameter miteinander vertauscht wurden.
Es ist auch völlig unstreitig, dass man durch veränderte Rahmenbedingungen identische optische Ergebnisse erzielen kann, geht aber an der Problematik vorbei.
Dem Tread inhaltlich zu folgen, scheint eine ziemlich schwierige Sache zu sein.
Aber nun hast Du ja sogar drei Bilder, an denen Du das Ergebnis ablesen kannst... und das auch noch von Deinem eigenen Link.
Besser geht es doch gar nicht.
Antwort von dienstag_01:
Schön, dass du es auch bestätigst: nicht die Sensorgröße ist das Kriterium, sondern die Pixelgröße.
Denn dann hast Du nämlich auch zwangsläufig bei größerem Sensor größere Pixels.
Antwort von WoWu:
Die Pixelgrösse ist die zwangsläufige Folge aus der Sensorgrösse bei identischer Pixelmatrix.
Du fängst an, hier Dinge absichtlich zu verdrehen oder willst einfach nicht verstehen, dass große Sensoren bei gleicher Pixelauflösung und identischen Einstellungen ein anderes Tiefenschärfebild haben, als kleine Sensoren.
Den Thread Inhalt hast Du offenbar auch nicht durchgängig verfolgt, sonst wäre Dir mein Hinweis auf die Zerstreuungskreisgrössen nicht entgangen.
Aber lassen wir es einfach dabei.
Antwort von dienstag_01:
"*Zwangsläufig* ist die Pixelgröße von gar nichts abhängig, wir kennen FullFrame-Sensoren von 10 bis 50 MPixel. Das sind enorme Unterschiede der Pixelgröße auf identischem Sensor.
Daher ist die Verknüpfung von DOF und Sensorgröße eben auch ein *Myth*, wie Clark schreibt.
Antwort von WoWu:
Du liest nicht richtig.
Eine identische Pixelauflösung (z.B.für HD) führt auf einem kleineren Sensor zu kleineren Pixels.
Und Deine 50 MPix führen auf einer kleineren Fläche ebenso zu kleineren Pixels als die 50 MPix auf einer großen Fläche.
Die Menge der Pixels ist nämlich ziemlich Wurscht, solange sie bei beiden Sensoren gleich ist.
Du vergisst dabei wahrscheinlich dass durch Binning auch größere Pixels entstehen oder dass u.U. ein Bildformat gecroped wird.
Aber solange beide Sensoren über die Gesamtfläche z.B. 1920x1080 an Bildinformationen verarbeiten, ist es egal, über welche Matrix das verteilt wird.
Aber die Diskussion erreicht jetzt Vorschulniveau.
Glaub doch was Du willst.
Nimm zwei Kameras mit identischer Bildauflösung (über die Sensorfläche), mach die Blenden bei beiden auf und schau was rauskommt ... dann siehst Du den Einfluss der Sensorgrössen auf die Freistellung.
Oder schau Dir das Bild 3 Deines Links an.
Und Clark hat genau mit diesem Bild seine eigene Behauptung widerlegt.
Zwei identische Kameras, bei denen der Lichtkegel unterschiedlich groß ist, führen zu unterschiedlichen Ergebnissen, es sei denn, man dreht solange an den Parameten, bis man die Lichtkegel gleich hat.
Die korrekte Antwort wäre also auf die Frageob die Sensorgrösse Einfluss hat : ja
Auf die Frage, ob man das durch Eingriff in die Stellparameter ändern / beeinflussen kann auch : ja
Damit ist die Antwort NEIN auf jede der beiden Fragen definitiv falsch.
Clark hat aber nicht die Antwort auf die erste Frage gegeben, sondern auf die zweite Frage. Um die ging es hier in dem Thread aber gar nicht.
Antwort von domain:
WoWu hat geschrieben:
... führen zu unterschiedlichen Ergebnissen, es sei denn, man dreht solange an den Parameten, bis man die Lichtkegel gleich hat.
Wobei das mit den "gleichen" Lichtkegeln bei 8 und 28mm ja auch zu hinterfragen wäre. Denn nur die Basis, also die reale Blendenöffnung ist bei dem o.a. Experiment mit 2,2mm annähernd gleich, haben aber ansonsten eine andere geometrische Form.
Der kurze Kegel nähert sich in seiner Spitze rasch dem Sensor, während der andere viel länger ist und erst später einschleifend auf den Sensor trifft.
Ich will damit aber die seit vielen Seiten tiefschürfende Analyse nicht neu anheizen, denn in der Praxis verhält es sich ziemlich eindeutig: kurze Brennweiten bieten bei nominell identischen Blendenwerten eine größere Schärfentiefe, das ist allgemein akzeptiert.
Antwort von WoWu:
Das scheint ja nicht von allen akzeptiert zu sein.
Solche Unterschiede in den Kegeln wirken sich aber in der Tat durch die Art der Unschärfe noch in der Tiefenschärfe aus.
Bisher haben wir ja ohnehin nur über einem Aspekt der Tiefenschärfe, nämlich der Freistellung diskutiert.
Tiefenschärfe, bzw. dessen Folgen, beinhaltet darüber hinaus noch weitere Aspekte,in denen Unterschiede zwischen Sensorgrössen abgebildet werden.
Antwort von dienstag_01:
Ich denke, jedem sollte klar sein, dass eine Sensorgröße, die die Pixelauflösung als Maßstab zur Vergleichbarkeit benötigt, keine unabhängige Größe sein kann. Die Pixelgröße dagegen schon. Deshalb ist die Pixelgröße auch das Kriterium.
Wenn man allerdings die Sensorgröße sozusagen per Definition mit der Pixelgröße verknüpft, dann liegt die Annahme, dass die Sensorgröße für den DOF verantwortlich ist nicht weit. Für Filmer mit ihrem starren Pixelraster ist das sogar zu verstehen, für Fotografen ist das aber eine durch nichts zu begründende Einschränkung.
Antwort von WoWu:
Quatsch
Es gelten dieselben physikalischen Gesetze.
Nur für Ignoranten ist das eine „durch nichts zu begründende Einschränkung“.
Antwort von dienstag_01:
Und wie ist das nochmal mit dem DOF bei gleich großen Pixeln?
Antwort von domain:
Wenn man sich die Minox C ansieht (8x11mm analog), dann erkennt man, dass Tiefenschärfe nicht unbedingt was mit Pixeln zu tun hat. Ihr Objektiv hat 15mm 1:3,5 und nur Offenblende. Entfernungseinstellung von 20cm bis Unendlich. Stellt man auf den roten Punkt für Schnappschüsse dann ist von 2m bis unendlich alles scharf.
Versuche das mal mit einer äquivalenten 50mm Linse für das KB-Format bei Blende 4 und auf 3m scharfgestellt.
Lt. Schärfetiefenrechner ergibt sich ein Nahpunkt von 2,7m und ein Fernpunkt von 3,5m und das unabhängig von fein- oder grobkörnigem Filmaterial
Minox C Foto:
zum Bild
Antwort von Skeptiker:
domain hat geschrieben:
Minox 11x8mm ...
... Ihr Objektiv hat 15mm 1:3,5 und nur Offenblende. Entfernungseinstellung von 20cm bis Unendlich.
... Versuche das mal mit einer äquivalenten 50mm Linse für das KB-Format bei Blende 4 und auf 3m scharfgestellt. ...
Wenn man ...
siehe ClarkVision (zuvor von dienstag_01 verlinkt): http://www.clarkvision.com/articles/dof_myth/ ) oder die Äquivalenzregeln allgemein - z.B. (als Übersicht): https://www.dpreview.com/learn/27991004 ... a-nutshell oder etwas ausführlicher: https://www.dpreview.com/articles/26669 ... uld-i-care oder sehr detailliert: http://www.josephjamesphotography.com/equivalence/
... neben der äquivalenten Brennweite auch die äquivalente Blende (gleicher physischer, wirksamer Durchmesser der Blendenöffnung) nimmt (nach ClarkVision mit Schwerpunkt Astrofotografie käme noch die äquivalente Belichtungszeit für die gleiche Lichtmenge hinzu), stimmt's wieder mit der Schärfentiefe im DOF-Rechner!
(Fokus auf ca. 7m Entfernung (hyperfokale Distanz) für Schärfe von 3.5m bis unendlich nach der CoC = 1/1500 Sens.-Diag.-Regel - wenn man die CoC-Ansprüche etwas lockert und für die Minox CoC = 0.013 mm einsetzt (statt D/1500 = 0.00907 mm), dann wäre der Schärfebereich bei Fokus auf ca. 5m von rund 2.5m bis unendlich)
DOF-Rechnung:
Crop-Faktor diagonal für die Minox: 3.18
15mm / Blende 3.5 umgerechet auf Kleinbild:
Brennweite 15 mm x 3.18 = 47.7 mm
Blende 3.5 x 3.18 = Blende 11.13
Antwort von domain:
Ja genau, wenn man bei Kleinbild 50mm auf 11 abblendet und die Belichtungszeit verdreifacht kommt man schon auf das Ergebnis der Minox hin.
Und wenn man theoretisch das Glas weglässt und überhaupt nur eine Lochblende mit einem CoC-Lochdurchmesser von 0,013 Millimeter wählt, dann wäre ohne Beugungseffekte überhaupt ab Lochscheibe bis unendlich alles scharf, allerdings mit astronomischen Belichtungzeiten.
Das meinte WoWu wohl mit Anpassung div. Parameter :-)
Antwort von Skeptiker:
domain hat geschrieben:
... Das meinte WoWu wohl mit Anpassung div. Parameter :-)
In diesem Fall geht um äquivalente (aber unterschiedliche!) Einstellungen von Blende, Brennweite, Sensorgrösse, (Belichtungsdauer) fürs gleiche Bildergebnis.
In der Diskussion vorher ging's u. a. um die nach wie vor strittige Frage: Was passiert mit der DOF, wenn man a) die Brennweite und Blende und Pixelgrösse gleich lässt und nur den Sensor verkleinert oder b) bei sonst gleichen Einstelllungen, inkl. gleicher Sensorgrösse, nur die Pixelgrösse variiert ?
Wenn man mehrere Paramter gleichzeitig ändert, ist es unmöglich, einen möglichen DOF-Effekt klar auf EINEN Parameter zurückzuführen.
Wenn sich nach Verändern der verschiedensten 'Stellschrauben' an der DOF hingegen gar nichts ändert, ist immerhin der Schluss erlaubt: "DAS (alles) führt zu einem äquivalenten Bildergebnis".
Muss mich für einige Zeit aus der Diskussion verabschieden - schaue am späteren Nachmittag nochmal herein.
Antwort von pillepalle:
@ domain
Man erzielt mit der KB Kamera ja eine viel höhere Qualität als mit einer Minox und deshalb braucht es auch mehr Licht bei äquivalenten Einstellungen. Wenn man zwei Prints in gleicher Größe machen würde unterscheidet sich der Schärfeeindruck bei unterschiedlichen Bildformaten bei gleicher Lichtmenge auch nicht. Genauso könntest Du an der Kb Kamera mit einem 15mm Objektiv arbeiten und einen 8x11mm Crop Deines Negativs nehmen um zum Minox-Ergebnis zu kommen.
VG
Antwort von domain:
pillepalle hat geschrieben:
Genauso könntest Du an der Kb Kamera mit einem 15mm Objektiv arbeiten und einen 8x11mm Crop Deines Negativs nehmen um zum Minox-Ergebnis zu kommen.
Das schon, aber nur mit Verrenkungen: erstens einmal, wie schon oben erwähnt und errechnet, eine dreimal so lange Belichtungszeit bei der Aufnahme (in Relation zur Minox mit ihrer 15mm Normalbrennweite), damit nämlich bei Blende 11 alle unbeteiligten und rund um den Ausschnitt befindlichen Bildanteile auch noch genug Photonen erhalten und zweitens dann auch bei der Vergrößerung des Ausschnittes.
Wenn du einmal selbst Analognegativausschnitte vergrößert hast, dann weißt du um die enormen Belichtungszeitverlängerungen Bescheid, weil nämlich der größte Teil des Kondensorlichtes auf der 35mm Bildbühne bzw. auf den Masken "verdampft".
Ist ja wunderbar, dass hier eine unendliche Geschichte entstanden ist ;-)
Antwort von WoWu:
In der Diskussion vorher ging's u. a. um die nach wie vor strittige Frage: Was passiert mit der DOF, wenn man a) die Brennweite und Blende und Pixelgrösse gleich lässt und nur den Sensor verkleinert oder b) bei sonst gleichen Einstelllungen, inkl. gleicher Sensorgrösse, nur die Pixelgrösse variiert ?
Wenn die Menge der Pixel gleich bleibt, also beide Sensoren (z.B.) 1920x1080 Pixelmatrix aufweisen, dann müssen die Pixel zwangsläufig bei dem kleineren Sensor auch ein kleineres Pitch haben.
Das kann doch nicht so schwer zu begreifen sein, dass ein KB Sensor in HD größere Pixel hat als ein 1/4“ Sensor in HD.
Und das Ergebnis kann man sich in dem Link von Clark ansehen denn da werden die beiden Sensoren dieser Größe miteinander verglichen.
Was Du vergleichen willst, ist ein Sensor und ein Crop (und damit eine Auflösungsvermimderung) dabei aber die Wiedergabeveränderung nicht mit einbeziehen.
Die Aussage, dass die Sensorgrösse keinen Einfluss auf die Freistellung hat, ist falsch und es ist egal, ob man das auf die (Untermenge) Pixelgrösse oder die Sensorgrösse bei gleicher Pixelmenge bezieht.
@domain
Unendlich wird die Geschichte erst, wenn wir die Tiefenschärfe mit einbeziehen, denn bisher sind wir ja über die Betrachtung der Freistellung ja noch gar nicht hinaus gekommen.
Antwort von dienstag_01:
WoWu hat geschrieben:
In der Diskussion vorher ging's u. a. um die nach wie vor strittige Frage: Was passiert mit der DOF, wenn man a) die Brennweite und Blende und Pixelgrösse gleich lässt und nur den Sensor verkleinert oder b) bei sonst gleichen Einstelllungen, inkl. gleicher Sensorgrösse, nur die Pixelgrösse variiert ?
Wenn die Menge der Pixel gleich bleibt, also beide Sensoren (z.B.) 1920x1080 Pixelmatrix aufweisen, dann müssen die Pixel zwangsläufig bei dem kleineren Sensor auch ein kleineres Pitch haben.
Das kann doch nicht so schwer zu begreifen sein, dass ein KB Sensor in HD größere Pixel hat als ein 1/4“ Sensor in HD.
Und das Ergebnis kann man sich in dem Link von Clark ansehen denn da werden die beiden Sensoren dieser Größe miteinander verglichen.
Was Du vergleichen willst, ist ein Sensor und ein Crop (und damit eine Auflösungsvermimderung) dabei aber die Wiedergabeveränderung nicht mit einbeziehen.
Die Aussage, dass die Sensorgrösse keinen Einfluss auf die Freistellung hat, ist falsch und es ist egal, ob man das auf die (Untermenge) Pixelgrösse oder die Sensorgrösse bei gleicher Pixelmenge bezieht.
@domain
Unendlich wird die Geschichte erst, wenn wir die Tiefenschärfe mit einbeziehen, denn bisher sind wir ja über die Betrachtung der Freistellung ja noch gar nicht hinaus gekommen.
Ich hab recht, ich hab recht, ich hab recht - wie im Kindergarten.
Traurig.
 |
Antwort von WoWu:
Da ist sie wieder, Deine ratlose Polemik.
Hätte mich auch gewundert.
Leb weiter in Deiner Fantasiewelt, in der Fakten die Ideologie nicht stören dürfen.
Antwort von Skeptiker:
WoWu hat geschrieben:
In der Diskussion vorher ging's u. a. um die nach wie vor strittige Frage: Was passiert mit der DOF, wenn man a) die Brennweite und Blende und Pixelgrösse gleich lässt und nur den Sensor verkleinert oder b) bei sonst gleichen Einstelllungen, inkl. gleicher Sensorgrösse, nur die Pixelgrösse variiert ?
Wenn die Menge der Pixel gleich bleibt, also beide Sensoren (z.B.) 1920x1080 Pixelmatrix aufweisen, dann müssen die Pixel zwangsläufig bei dem kleineren Sensor auch ein kleineres Pitch haben.
Das kann doch nicht so schwer zu begreifen sein, dass ein KB Sensor in HD größere Pixel hat als ein 1/4“ Sensor in HD.
Und das Ergebnis kann man sich in dem Link von Clark ansehen denn da werden die beiden Sensoren dieser Größe miteinander verglichen. ...
Dass in dem Bild mit den 3 Linealen bei gleicher Blendenzahl UND weitwinkligerem Objektiv der kleine Sensor mehr Schärfentiefe zeigt als der grosse, ist wohl jedem klar, der schon einmal fotografiert hat.
Die Frage ist bloss: Liegt's am Sensor oder am Objektiv? Ich plädiere fürs Objektiv, Du scheinst den Sensor zu bevorzugen.
Am Bild, das wir letztlich vergrössert betrachten, ist der Sensor natürlich nicht unbeteiligt - sowohl was die Sensorgrösse als auch seine Pixeldichte und Pixelgrösse betrifft.
Um einzugrenzen, wie gross der Sensor-Anteil (bzw. sein vergrössert am Computermonitor betrachtetes Bild) bei der Beurteilung der Schärfentiefe ist, habe ich die beiden Versuche oben vorgeschlagen, bei denen stets nur eine Variable verändert wird - entweder die Sensorgrösse oder die Pixeldichte.
Es geht nicht um eine genaue Quantifizierung (die ist ohnehin nur möglich, wenn sämtliche Rahmenbedingungen genau festgelegt werden - bei den heutigen digitalen Möglichkeiten mit div. Bildschirmgrössen, div. Bildschirmauflösungen (2K / 4K) und quasi unbegrenzten Zoom-Möglichkeiten, ohne den Betrachtungsabstand zum Monitor zu ändern, gar nicht so einfach), es geht um eine Abschätzung von "vernachlässigbar" über "leicht" und "mittel" bis hin zu "entscheidend".
Ich konnte bei meinem geposteten Crop-Test (gleiches, schräggestelltes Lineal, einmal mit Sensor-Vollauslesung, einmal mit Sensor-Crop von genau 1920x1080 gefilmt) mit der GH2 bei der Beurteilung am Monitor keinen Schärfentiefe-Unterschied erkennen. Da ich aber nicht weiss, wie dieser Sensor-Crop kamera-intern genau zustande kommt, wäre hier als Ergänzung ein Versuch mit 2 Kameras mit unterschiedlichen Sensorgrössen aber etwa gleicher Pixelgrösse nützlich.
Und der zweite Versuch - Einfluss unterschiedlicher Pixelgrösse bei gleicher Sensorgrösse auf die Beurteilung der Schärfentiefe bei der Betrachtung des vergrösseren Bildes am Monitor - könnte, wie schon mehrfach vorgeschlagen, z. B. mit einer Sony A7S (12 Megapixel) versus A7R (42 Megapixel) gemacht werden.
Wie gesagt, es geht um eine Abschätzung, welches 'Gewicht' Sensorgrösse und Pixeldichte bei der Beurteilung der Schärfentiefe an einem Computer-Monitor haben.
Denn bei gleicher Objektivbrennweite und gleicher eingestellter Blende sind es im Prinzip zunächst diese beiden Faktoren, die dem Sensor ein definiertes 3D-Bild liefern, ohne zu wissen, wie gross dieser Sensor ist und wieviele Pixel er hat.
klusterdegenerierung kam bei seinem geposteten Test mit 2 sehr unterschiedlichen Sensorgrössen (und wohl auch Pixelgrössen), aber gleicher Objektivbrennweite und eingestellter Blende zum Schluss: Gleiche Schärfentiefe (er hatte allerdings bei diesem Test keine Tiefen-Skala im Bild, wenn ich mich recht erinnere, sondern eher Vordergrund und Hintergrund)!
Ich konnte das bisher in (zu?) einfachen Tests nicht nachvollziehen, hatte aber als kleinen Vergleichssensor (zum APS-C Sensor) stets eine Videokamera (1/4 Zoll), bei der die eingestellte Brennweite nicht explizit angezeigt wurde (nur als Tele-Vergrösserungsfaktor, z. B. 8x, 10x oder 12x) und auch die effektive Blende nach Tele-Zoomen nicht klar war (ich habe sie anhand der Gain-Veränderung abgeschätzt).
Antwort von domain:
Weder die Sensorgröße noch die Pixelgröße spielen bei den Analysen eine Rolle, vorausgesetzt die Pixel sind so klein, dass man sie auch bei Vergrößerung auf dem Bildschirm noch nicht erkennen kann.
Auch die nominellen Blendenzahlen (ob eingraviert oder elektronisch angezeigt) sind unbedeutend. Für die Tiefenschärfe (egal mit welcher Brennweite) zählt nur die reale innere Blendenöffnung in Millimeter und Zehntelmillimeter und diese wird wohl in den seltensten Fällen bekannt sein.
Antwort von Skeptiker:
domain hat geschrieben:
... Für die Tiefenschärfe (egal mit welcher Brennweite) zählt nur die reale innere Blendenöffnung in Millimeter und Zehntelmillimeter und diese wird wohl in den seltensten Fällen bekannt sein.
Die Blendenzahl bei max. Objektivöffnung (max. Lichtstärke bei offener Blende) ist stets die Objektivbrennweite geteilt durch die reale (physische) Blendenöffnung (bzw. deren Abbild).
Und bei weiter geschlossener Blende ein berechenbarer Bruchteil davon.
Also ist der reale Blendendurchmesser = ...
Lichtstärke (Fotografie)
https://de.wikipedia.org/wiki/Lichtst%C ... ografie%29
Antwort von dienstag_01:
domain hat geschrieben:
Weder die Sensorgröße noch die Pixelgröße spielen bei den Analysen eine Rolle, vorausgesetzt die Pixel sind so klein, dass man sie auch bei Vergrößerung auf dem Bildschirm noch nicht erkennen kann.
Auch die nominellen Blendenzahlen (ob eingraviert oder elektronisch angezeigt) sind unbedeutend. Für die Tiefenschärfe (egal mit welcher Brennweite) zählt nur die reale innere Blendenöffnung in Millimeter und Zehntelmillimeter und diese wird wohl in den seltensten Fällen bekannt sein.
Hatte ich hier schon mal verlinkt: https://www.pc-magazin.de/ratgeber/scha ... 72172.html
Sehr anschaulich, man beachte die Einschränkung auf 100%-Ansicht.
Antwort von Roland Schulz:
...wo ist eigentlich Schärfentiefenschärfe-Klusterguido abgeblieben ;-)?!?!
Ich würde das alles mal relativ einfach auf Blende, Brennweite und "Bildkreis" beschränken.
Bei den heutigen, vergleichsweise hochauflösenden Sensoren, oder betrachten wir gleich die Auflösung gegen unendlich spielt der CoC doch ehrlich betrachtet keine wirklich relevante Rolle bei der Betrachtung mehr.
Antwort von domain:
Sehe ich ebenso, weil der CoC ja aufgrund der Sensorgröße und einer 100% Betrachtung berechnet wird. Diese Berechnung ist aber hinfällig wenn man Ausschnittvergrößerungen analysiert. Es ergibt sich eine neue Diagonale und damit ein kleinerer CoC.
Antwort von Skeptiker:
"domain"]Sehe ich ebenso, weil der CoC ja aufgrund der Sensorgröße und einer 100% Betrachtung berechnet wird. ...
Ist mir nicht ganz klar wie Du das meinst.
100%-Betrachtung ist ja schon das Maximum mit 1:1-Pixelzuordnung von Sensorbild zu Monitorbild. Alles weitere wäre Leervergrösserung.
Und die Kopplung von COC an Sensorgrösse (zur DOF-Berechnung) ist ja gerade der strittige Punkt, der hier u. a. zur Diskussion steht. Und der Grund, weshalb ich den Einfluss von Sensorgrösse und Sensorauflösung (Pixeldichte) auf die DOF-Beurteilung gerne isoliert betrachten würde, um ihn etwas genauer einzuschätzen.
Die (in dieser Diskussion mehrfach wiederholte, sinngemässe) Aussage "Kleinere Sensoren haben grössere Tiefenschärfe" (samt impliziertem Objektivwechsel, bei gleicher Blendenzahl) stellt mich überhaupt nicht zufrieden in Sachen Erkenntnisgewinn (obwohl zweifellos richtig für die geforderte weitwinkligere Optik für gleichen Bildausschnitt)!
[quote="Roland Schulz" hat geschrieben:
...wo ist eigentlich Schärfentiefenschärfe-Klusterguido abgeblieben ;-)?!?!
Gute Frage!
"Roland Schulz" hat geschrieben:
... oder betrachten wir gleich die Auflösung gegen unendlich spielt der CoC doch ehrlich betrachtet keine wirklich relevante Rolle bei der Betrachtung mehr.
Bei höchstem Anspruch an die Sensor-Auflösung ginge die Pixelgrösse gegen 0, der (vorgegebene, noch akzeptable) CoC als Funktion der Pixelgrösse somit auch gegen 0 und wäre die Schärfezone vor und hinter der Fokusebene rechnerisch ebenfalls null - der Schärfentiefebereich entspricht der eingestellten Fokusdistanz +/- null.
Bleibt die Frage, bei welcher Art der End-Betrachtung man das auch so wahrnimmt.
Antwort von domain:
Unter einer 100%-Betrachtung verstehe ich, dass das gesamte Originalbild des Sensors zur Geltung kommt. Bei 6-8K Kameras ist in diesem Sinne eine 1:1 Darstellung (Kamerapixel = Bildschirmpixel) wohl unrealistisch.
Antwort von Skeptiker:
domain hat geschrieben:
Unter einer 100%-Betrachtung verstehe ich, dass das gesamte Originalbild des Sensors zur Geltung kommt. Bei 6-8K Kameras ist in diesem Sinne eine 1:1 Darstellung (Kamerapixel = Bildschirmpixel) wohl unrealistisch.
Das heisst, wir betrachten - mit Ausnahme von Full HD Video - auf einem 1920x1080 = 16:9 (oder 1200 = 16:10) Bildschirm das originale Sensorbild stets herunterskaliert. Unabhängig von der Monitorgrösse (und somit auch Pixelgrösse).
Und wenn wir hinein'zoomen' = das Bild ingesamt vergrössern (es ist dabei allerdings an den expandierenden Rändern durch den Monitor begrenzt, so dass durch den unveränderten Betrachtungswinkel der oberflächliche Eindruck entsteht, die Grösse bliebe gleich), bleiben wir sitzen und nehmen nicht - wie für die DOF-Beurteilung nach der D/1500-Regel eigentlich (für Prints) gefordert - einen grösseren Betrachtungsabstand (gleicher Blickwinkel) ein.
Antwort von domain:
Die DOF-Beurteilung ist meiner Meinung nach eine eher subjektive Angelegenheit und dafür wurde als Richtwert bei Vollbildbetrachtung seinerzeit der von der Bilddiagonale und dem Auflösungsvermögen des Auges abgeleitete CoC definiert. Es ist aber nicht so, dass es einen beobachtbaren radikalen Sprung von scharf zu unscharf gibt, sondern einen kontinuierlichen Prozess. Das wird besonders deutlich bei gecroppten Bildern, denn da gilt der Original-CoC des Sensors plötzlich nicht mehr und gleichzeitig steigen die subjektiven Anforderungen.
Um der unendlichen Geschichte einen neuen Drive zu geben, wäre interessant zu wissen, was WoWu mit dem schon mehrfach geäußerten Statement eigentlich meint:
"Unendlich wird die Geschichte erst, wenn wir die Tiefenschärfe mit einbeziehen, denn bisher sind wir ja über die Betrachtung der Freistellung ja noch gar nicht hinaus gekommen."
Das ergäbe vielleicht ganz viele neue Beitäge ;-)
Antwort von Skeptiker:
domain hat geschrieben:
... Um der unendlichen Geschichte einen neuen Drive zu geben, wäre interessant zu wissen, was WoWu mit dem schon mehrfach geäußerten Statement eigentlich meint:
WoWu]
"Unendlich wird die Geschichte erst, wenn wir die Tiefenschärfe mit einbeziehen, denn bisher sind wir ja über die Betrachtung der Freistellung ja noch gar nicht hinaus gekommen."
Unendlich wird die Geschichte vor allem, wenn man ständig solche Nebelkerzen wie "Freistellung statt Tiefenschärfe" zündet, ohne die 2 Begriffe klar zu definieren und das Statement zu begründen.
Und abkürzen könnte man die sich im Kreis drehenden, theoretischen "Ergüsse" hier, indem man ein paar simple, fotografische 'Experimente' macht - ob am Küchentisch oder im Wohnzimmer, ob draussen oder drinnen, ob korrekt gekleidet oder im Nachthemd, ob bei Morgennebel oder in der Abendsonne, ist im Prinzip egal - sorgfältig gemacht, dokumentiert und reproduzierbar sollten sie sein.
Aber in dieser Hinsicht ist von unserem argumentativ (licht-)kegelnden Obertheoretiker ja offensichtlich nichts Klärendes zu erwarten - ob's am fehlenden Wissen, am fehlenden Willen oder am fehlenden Können oder einfach daran liegt, dass keinerlei Aufnahmegeräte vorhanden sind, verrät er uns nicht.
[quote=domain hat geschrieben:
Die DOF-Beurteilung ist meiner Meinung nach eine eher subjektive Angelegenheit ...
Das sehe ich genauso !
Oder sagen wir: Es gibt einen objektiven Teil (die menschliche Sehschärfe) und einen subjektiven Teil (die individuellen Ansprüche an die Bildschärfe und der Verwendungszweck).
Antwort von Jan:
Das Problem ist eher, dass das Thema seit schon zwei oder drei Seiten geklärt ist und belegt wurde. Einige User suchen immer noch irgendwelche Hobbyuser-Quellen, um das zu widerlegen. Wolfgang hat Quellen von Optikherstellern genannt und Grafiken gepostet. Ich kann schon verstehen, wenn er jetzt hier nicht alle möglichen Begriffe wie Depth of field oder Depth of Focus hier durchkauen möchte. Das Schlimmste ist aber, dass wirklich jeder Foto- wie auch Videoeinsteiger schon in kurzer Zeit mitbekommen hat, dass die Tiefenschärfe sich bei deutlich größeren Sensoren stark ändert, wenn man das gleiche Objekt (Ausschnitt) mit ähnlichen Blenden abfotografiert oder abfilmt, selbst die Kameramänner vom ZDF haben das bemerkt, als sie das erste Mal mit Vollformat oder APS-C filmten, wo vorher 2/3-Sensoren bei Ihnen Standard war. Selbst diese erfahrenen Kameramänner hatten auf einmal viele unscharfe Aufnahmen, wo sie vorher mit ihren 2/3-Sensoren alles scharf hatten und sie den Tiefenschärfebereich ihrer Kameras kannten.
Antwort von Skeptiker:
Jan hat geschrieben:
... dass wirklich jeder Foto- wie auch Videoeinsteiger schon in kurzer Zeit mitbekommen hat, dass die Tiefenschärfe sich bei deutlich größeren Sensoren stark ändert, wenn man das gleiche Objekt (Ausschnitt) mit ähnlichen Blenden abfotografiert oder abfilmt ...
Ich denke, das bestreitet hier doch niemand.
Die Frage, die aufgeworfen wurde, ist: Liegt das am grossen Sensor oder an der Optik, die nun für den gleichen Bildausschnitt eher im Telebereich liegt ?
Antwort von WoWu:
Die Frage stellt sich nur dem, der die Zusammenhänge nicht erfasst hat.
So ist das eben bei Halbwissen.
Antwort von dienstag_01:
Skeptiker hat geschrieben:
Jan hat geschrieben:
... dass wirklich jeder Foto- wie auch Videoeinsteiger schon in kurzer Zeit mitbekommen hat, dass die Tiefenschärfe sich bei deutlich größeren Sensoren stark ändert, wenn man das gleiche Objekt (Ausschnitt) mit ähnlichen Blenden abfotografiert oder abfilmt ...
Ich denke, das bestreitet hier doch niemand.
Die Frage, die aufgeworfen wurde, ist: Liegt das am grossen Sensor oder an der Optik, die nun für den gleichen Bildausschnitt eher im Telebereich liegt ?
Das liegt vor allem an der unterschiedlichen Vergrößerung der Bilder, um sie in das (vergleichbare) Zielformat zu bringen.
Antwort von Skeptiker:
Also, Jan hat eine Aussage gemacht und ich habe darauf mit einer Frage geantwortetet:
Jan hat geschrieben:
... dass wirklich jeder Foto- wie auch Videoeinsteiger schon in kurzer Zeit mitbekommen hat, dass die Tiefenschärfe sich bei deutlich größeren Sensoren stark ändert, wenn man das gleiche Objekt (Ausschnitt) mit ähnlichen Blenden abfotografiert oder abfilmt ...
Ich denke, das bestreitet hier doch niemand.
Die Frage, die aufgeworfen wurde, ist: Liegt das am grossen Sensor oder an der Optik, die nun für den gleichen Bildausschnitt eher im Telebereich liegt ?
Und dies sind zwei Antworten auf meine Frage:
Die Frage stellt sich nur dem, der die Zusammenhänge nicht erfasst hat.
So ist das eben bei Halbwissen.
und
Das liegt vor allem an der unterschiedlichen Vergrößerung der Bilder, um sie in das (vergleichbare) Zielformat zu bringen.
Na dann:
WoWu's Antwort passt auf jede beliebige Frage, wirkt eher wie ein Bumerang und bringt die Diskussion nicht weiter.
Die Antwort von dienstag_01 ist eine Behauptung, die nicht beweisbar ist, weil 2 Faktoren im Spiel sind (eigentlich sogar 3): Jan setzt ein anderes Objektiv (stärker im Telebereich liegend) an den grösseren Sensor, um den gleichen Bildausschnitt zu erhalten und lässt die Blendenzahl unverändert. Und dienstag_01 weist auf den angeblichen Hauptgrund für den Schärfentiefe-Unterschied hin, nämlich dass die Nachvergrösserung des Sensorbildes nun eine andere sei, um auf die gleiche End-Betrachtungsgrösse des Bildes zu kommen.
Wenn man sich fragt "wie anders?", ist die Antwort: Man muss das grosse Sensorbild weniger stark nachvergrössern als das kleine Sensorbild, erhält aber im Endergebnis eine kleinere Schärfentiefe, wie Jan richtig bemerkt.
Wenn man sich mal den Extremfall überlegt, ist das unlogisch: Ich mache ein Sensorbild, das so gross ist, dass es gar nicht nachvergrössert werden muss (es wurde hier ja vor nicht allzu langer Zeit eine Kamera mit Riesensensor in den News kurz vorgestellt). Und ich vergleiche es mit einem Sensorbild eines winzigen Sensors, das für die gleiche Betrachtungsgrösse stark nachvergrössert werden muss. Und dann soll das grosse Sensorbild aufgrund der kleineren Nachvergrösserung weniger Schärfentiefe (DOF) haben? Eher das Gegenteil trifft zu!
dienstag_01 hat ja auf den Artikel bei ClarkVision verlinkt,
http://www.clarkvision.com/articles/dof_myth/
wo wir im Foto mit dem 3 Linealbildern den Schärfentiefevergleich haben: APS-C versus ein deutlich kleinerer Sensor (Cropfaktor 3.7) bei gleichem Bildausschnitt und Motivabstand (also mit unterschiedlicher Objektivbrennweite) und bei gleicher Blendenzahl.
Ergebnis wie erwartet: APS-C mit eindeutig weniger DOF.
Es muss also etwas geben, das die erwähnte schwächere Nachvergrösserung (den Vorteil in Richtung mehr DOF) überkompensiert (in Richtung weniger DOF): Wenn die Blendenzahl gleich ist und der Motivabstand ebenfalls und wenn der Bildausschnitt auch derselbe ist und weil die erhöhte Sensorgrösse ausfällt (weil sie in die entgegengesetzte Richtung wirkt), bleibt eigentlich nur noch die längere Brennweite f als entscheidender Einflussfaktor.
Die ergibt nämlich zusammen mit der gleichen Blendenzahl n einen real grösseren Blendendurchmesser f/n, der von der Objektivrückseite grössere Unschärfekreise (WoWu spricht frei nach ZEISS-Broschüre stets von Lichtkegeln) auf den Sensor projeziert.
Fazit:
So weit waren wir auch schon.
Jan's und WoWu's Aussage mit der veränderten Schärfentiefe bei kleinerem/grösserem Sensor mit gleichem Bildausschnitt (und unterschiedlichen Objektivbrennweiten) entspricht der fotografischen Erfahrung aller, die jemals vergleichbare Geräte benutzt haben.
Und dienstag_01's Aussage könnte mit einem kleinen Test überprüft werden (ich habe ihn mit der GH2 plus Linealskala mal versucht zu machen): Unterschiedliche Sensorgrössen bei sonst identischen Einstellungen und Objektiven -> grösserer Sensor mit weniger DOF ??
Antwort von dienstag_01:
Wenn sich mal den Extremfall überlegt, ist das unlogisch: Ich mache ein Sensorbild, das so gross ist, dass es gar nicht nachvergrössert werden muss (es wurde hier ja vor nicht allzu langer Zeit eine Kamera mit Riesensensor in den News kurz vorgestellt). Und ich vergleiche es mit einem Sensorbild eines winzigen Sensors, das für die gleiche Betrachtungsgrösse stark nachvergrössert werden muss. Und dann soll das grosse Sensorbild aufgrund der kleineren Nachvergrösserung weniger Schärfentiefe (DOF) haben? Eher das Gegenteil trifft zu!
Nö. Wenn dein Sensor winzig klein ist, ist er sozusagen der Brennpunkt und alles ist scharf.
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Wenn sich mal den Extremfall überlegt, ist das unlogisch: Ich mache ein Sensorbild, das so gross ist, dass es gar nicht nachvergrössert werden muss (es wurde hier ja vor nicht allzu langer Zeit eine Kamera mit Riesensensor in den News kurz vorgestellt). Und ich vergleiche es mit einem Sensorbild eines winzigen Sensors, das für die gleiche Betrachtungsgrösse stark nachvergrössert werden muss. Und dann soll das grosse Sensorbild aufgrund der kleineren Nachvergrösserung weniger Schärfentiefe (DOF) haben? Eher das Gegenteil trifft zu!
Nö. Wenn dein Sensor winzig klein ist, ist er sozusagen der Brennpunkt und alles ist scharf.
Ich habe Dein Argument "Sensorbild-Nachvergrösserung als entscheidender Grund für DOF-Unterschied" genommen und hätte vielleicht dazuschreiben sollen: "Ausgangslage: Schärfentiefe auf den beiden Sensoren gleich", und der grosse Sensor wird dann schwach nachvergrössert und der kleine stark.
Du warst schon mal weiter mit Deinen Erkenntnissen und hast ein paar nützliche externe Links gesetzt!
Aber bist Du nach all dem Fachartikel-Studium nun zur Einsicht gekommen: "Das DOF-Bild kommt vom Sensor (und vor allem von dessen Nachvergrösserung), nicht vom Objektiv" ??
Antwort von dienstag_01:
Das DOF vom Objektiv abhängt, ist ja klar
Antwort von Skeptiker:
dienstag_01 hat geschrieben:
Das DOF vom Objektiv abhängt, ist ja klar
Also doch! ;-) Puh, das war knapp ...
Antwort von domain:
Vom Objektiv aber nur indirekt über die reale Blendenöffnung. Wenn bei einem Tele bei Blende 22 das Blendenloch gleich groß ist wie bei einem Superweitwinkel bei Blende 2,8 dann ist bei beiden Objektiven die Schärfentiefe gleich groß.
Wie oft soll das eigentlich noch erwähnt werden?
Antwort von dienstag_01:
domain hat geschrieben:
Vom Objektiv aber nur indirekt über die reale Blendenöffnung. Wenn bei einem Tele bei Blende 22 das Blendenloch gleich groß ist wie bei einem Superweitwinkel bei Blende 2,8 dann ist bei beiden Objektiven die Schärfentiefe gleich groß.
Wie oft soll das eigentlich noch erwähnt werden?
Die Brennweite spielt schon auch eine Rolle.
Antwort von Skeptiker:
domain hat geschrieben:
... Wenn bei einem Tele bei Blende 22 das Blendenloch gleich groß ist wie bei einem Superweitwinkel bei Blende 2,8 dann ist bei beiden Objektiven die Schärfentiefe gleich groß. ...
Die Brennweite spielt schon auch eine Rolle.
Hier
Schärfentiefe und Abbildungsmaßstab
23/09/2016
https://www.markuswaeger.com/2016/09/23 ... smassstab/
hat mal ein Grafikdesigner versucht, sich dem Thema fotografisch anzunähern.
Allerdings anhand der Hintergrund-Unschärfe, nicht des Schärfentiefe-Bereichs.
Er fand einen subtilen Background-Unterschied in den auf gleichen Abb.-Maßstab gebrachten Bildausschnitten.
Am Ende des Artikel wird übrigens auf die legendäre ZEISS-Broschüre verlinkt (leider vergeblich).
Nachträgliche Ergänzung:
domain's Aussage stimmt im DOF-Rechner unter der Voraussetzung, dass das Format der Kamera mit der kürzeren Brennweite und der kleineren Blendenzahl (offeneren Blende) um den entsprechenden diagonalen, relativen Crop-Faktor kleiner ist (bzw. dass das kleinere Sensorbild - im Prinzip von einem optisch vergrösserten Print einer physischen Vorlage (Negativ, Dia) ausgehend - um diesen Faktor stärker nachvergrössert wird).
Das bedingt, dass die Blendenzahl und die Brennweite der beiden Kameras sich auch um ebendiesen Crop-Faktor unterscheiden, die Motiventfernung aber jeweils gleich bleibt.
Im domain's obigen Bsp. wäre der diagonale Cropfaktor (Formatfaktor) also = Blende 22/ Blende 2.8 = 7.857.
Um diesen Faktor schrumpft auch der noch akzeptable CoC-Durchmesser (steigt der Schärfeanspruch) für die DOF-Berechnung in der Annahme, dass das Bild des kleineren Sensors für die gleiche End-Betrachtungsgrösse um diesen Faktor stärker nachvergrössert wird.
Um die Schärfentiefen der beiden Bilder vergleichen zu können (plus evtl. den unscharfen Hintergrund), müsste man sie auf einen gemeinsamen Abbildungsmaßstab bei gleichen Bildausschnitt bringen.