Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Infoseite // Wozu ND Filter, wenn man doch einfach die Blende "dunkler" stelle



Frage von milesdavis:


Hey Leute,
eine Sache:

Wenn man draussen dreht, dann ist das Bild durch das starke Licht zu hell bei einer offenen Blende.

Was ich nicht verstehe: Wozu braucht man nun diese ND Filter, wenn man doch einfach an der Blende runterschrauben kann, damit das Bild dunkler wird? Liegt es hierbei einfach nur an der gewollten kleinen Schärfentiefe, dass Leute mit offener Blende und ND Filter filmen?

Man könnte doch einfach mit großer Schärfentiefe und ohne ND Filter filmen, käme doch das gleiche raus?

VG

Space


Antwort von klusterdegenerierung:

käme doch das gleiche raus? Schon wieder 1. April? ;-)

Space


Antwort von TheBubble:

Liegt es hierbei einfach nur an der gewollten kleinen Schärfentiefe, dass Leute mit offener Blende und ND Filter filmen? Ja.

Man könnte alternativ die Belichtungszeit verkürzen, um die Wunschblende beibehalten zu können.

Wenn man nur Fotos macht, kann man das durchaus machen und es ist, wenn man ohne Stativ unterwegs ist, sogar hilfreich, da man weniger leicht verwackelt.

Filmt man, kommt es bei Bewegung und verkürzter Belichtungszeit allerdings recht schnell zu einer Art stroboskopartigem Effekt: Alle sich bewegenden Objekte sind dabei aufgrund fehlender Bewegungsunschärfe (durch die kurze Belichtungsdauer) klar erkennbar, meist ist das beim Filmen aber weniger gewünscht, da dies ab einer gewissen Geschwindigkeit eher unnatürlich aussieht. Häufiger leiden mit einem Smartphone in sehr heller Umgebung gemachte Filme daran.
Schon wieder 1. April? ;-) Die Frage wurde im Forum "Einsteigerfragen" gepostet, daher finde ich, dass man Sie nicht als Scherz abtun sollte.

Space


Antwort von klusterdegenerierung:

Die Frage wurde im Forum "Einsteigerfragen" gepostet, daher finde ich, dass man Sie nicht als Scherz abtun sollte. Oh, übersehen, na da hast Du natürlich Recht.
Anders übersetzt könnte man die Frage auch so beantworten:

"Vordergrund macht Bild gesund"

Frohes neues :-)

Space


Antwort von oida:

Du darfst nicht übersehen,daß Du je nach Sensor-Größe nicht nach Belieben abblenden kannst weil dann das Bild wegen des Beugungs-Effektes matschig wird.Je kleiner der Sensor,desto schneller ist dieses Manko da.
An Deiner G6 (?) wäre höchstens Blende 8 schon Ende der Fahnenstange für eine ordentliche Darstellung.
Google mal zu "Beugung-Optik")

Space


Antwort von beiti:

Selbst wenn man auf Beugungs-Unschärfe keine Rücksicht nimmt, lassen sich Objektive nicht endlos abblenden. Typische 1/3"-Camcorder gehen bis Blende 8, die neueren 1"-Camcorder bis Blende 11. Selbst beim Filmen mit DSLR bzw. Systemkamera hat man selten Objektive mit kleinerer Blende als 22. Das reicht längst noch nicht, um bei strahlendem Sonnenschein und 1/50 Sekunde Verschlusszeit zu filmen. Also müsste man, wenn man keinen ND-Filter zur Hand hat, die Verschlusszeit verkürzen, was dann die von TheBubble beschriebenen Nachteile hat.
Wer das Einstellen einer Vollautomatik überlässt, bekommt bei viel Licht und ausgeschöpftem Blendenspielraum übrigens genau das: eine sehr kurze Verschlusszeit. Andere Regelmöglichkeiten hat die Automatik ja nicht.
Wer die Sache bewusst angeht, kommt also auf Dauer nicht ohne ND-Filter aus.

Professionelle Videokameras bieten eingebaute/zuschaltbare ND-Filter in praxisgerechten Abstufungen, z. B. 4x, 16x und 64x. Damit kann man gut arbeiten; die Verschlusszeit lässt man meist fix, und die Belichtungs-Feinheiten regelt man über die Blende.
Für die Arbeit mit Systemkameras würde ich vielleicht ein Steckfiltersystem nehmen, um das Wechseln der ND-Stufen zu beschleunigen.
Ob man wirklich variable ND-Filter braucht, sei dahingestellt; die Dinger haben ja auch eine Reihe von prinzipbedingten Nachteilen und sind nicht so toll, wie sie auf den ersten Blick erscheinen. Es gibt immer noch Leute, die zwanghaft alles mit Offenblende drehen, um immer und jederzeit die geringstmögliche Schärfentiefe zu erzielen. Das finde ich ziemlich unnötig.

Space


Antwort von domain:

Es gibt immer noch Leute, die zwanghaft alles mit Offenblende drehen, um immer und jederzeit die geringstmögliche Schärfentiefe zu erzielen. Das finde ich ziemlich unnötig. In den meisten Fällen ist das auch gar nicht so richtig ausgeprägt erwünscht. Aber wenn doch, dann spielt eine möglichst offene Blende hauptsächlich bei Kameras mit kleinen Sensoren und Brennweiten eine Rolle.
Und da kommt Physik ins Spiel: die Beugungsunschärfe hängt nur vom realen Durchmesser des "Blendenloches" ab und nicht nicht vom relativen Wert. Je nach Brennweite des Objektives hat die relative Blende 16 z.B. völlig verschiedene absolute Durchmesser, wobei dieser bei Vollformatkameras noch keine nennenswerte Beugungsunschärfe hervorruft.
Wenn man bei solchen Kameras aber doch mal mit geringerer Tiefenschärfe arbeiten möchte, dann kann man die Brennweite bei Zoomobjektiven einfach etwas erhöhen (z.B. 80mm), ISO 100 einstellen und kann trotzdem noch mit relativ kleinen Blenden, 1/100 und ohne Graufilter die gewünschten Effekte hervorrufen.

Space


Antwort von Peppermintpost:

was domian da anspricht ist etwas was mich technisch auch immer etwas aus der bahn wirft und was mich tatsächlich auch an der sinnhaftigkeit von nd filtern zweifeln lässt.

ich gehöre zwar zur fraktion "offene blende", aber ich hab nicht einen nd filter. der grund ist wie von domian beschrieben, ich kann mein gain (iso) ja einfach etwas herunter drehen.

mir ist zwar in der theorie klar das ein sensor einen sweet spot hat, und der liegt meistens um die iso 800, was ich aber beobachte ist, das eine erhöhung des gain (gefällt mir besser als iso, wir haben ja kein zelluloid sondern eine elektrische verstärkung) zwar zu deutlichen nachteilen (rauschen) führt, aber bei einer absenkung unter den speet spot sind mir noch keine nachteile aufgefallen.

evtl kann mich da mal jemand erhellen - wowu du vielleicht?

Space


Antwort von Funless:

was domian da anspricht ist etwas was mich technisch auch immer etwas aus der bahn wirft und was mich tatsächlich auch an der sinnhaftigkeit von nd filtern zweifeln lässt.

ich gehöre zwar zur fraktion "offene blende", aber ich hab nicht einen nd filter. der grund ist wie von domian beschrieben, ich kann mein gain (iso) ja einfach etwas herunter drehen.

mir ist zwar in der theorie klar das ein sensor einen sweet spot hat, und der liegt meistens um die iso 800, was ich aber beobachte ist, das eine erhöhung des gain (gefällt mir besser als iso, wir haben ja kein zelluloid sondern eine elektrische verstärkung) zwar zu deutlichen nachteilen (rauschen) führt, aber bei einer absenkung unter den speet spot sind mir noch keine nachteile aufgefallen.

evtl kann mich da mal jemand erhellen - wowu du vielleicht? In diesem Thread wird das Thema von WoWu und anderen Forenmitgliedern gerade lang und breit auf mittlerweile vier Seiten diskutiert.

Space



Space


Antwort von ruessel:

aber bei einer absenkung unter den speet spot sind mir noch keine nachteile aufgefallen. Bei den älteren XDCAM EX Kameras eine deutliche Reduzierung der Bilddynamik

Space


Antwort von beiti:

mir ist zwar in der theorie klar das ein sensor einen sweet spot hat, und der liegt meistens um die iso 800, Das ist vielleicht bei den Cinema-EOS-Kameras und Vergleichbaren so, aber nicht generell. Die meisten Systemkameras/DSLRs liefern immer noch die beste Qualität bei ISO100.

Aber auch bei ISO100 und Offenblende (selbst wenn das nur f2,8 sein sollte) kriegt man keine 1/50 Sekunde Belichtungszeit hin, solange die Sonne zwischen 9 und 15 Uhr kräftig lacht.

Space


Antwort von Peppermintpost:

ah funless, danke für den link.
wowu hat sich in der tat dazu ausgelassen:

Der Fehler, der immer wieder gemacht wird ist der, das ISO im digitalen Bereich mit ISO aus dem Filmbereich gleichgesetzt wird.
Da gibt es keine Gemeinsamkeiten.
Auf der einen Seite steht ISO für die Geschwindigkeit, mit der Silberkristalle zur Schwärzung gebracht werden und auf der Andern Seite für eine Anzahl an Photonen.
Weniger als 1 Photon = 1e- gibt es aber nicht im Videobereich und damit ist die Basis von ISO 100 repräsentiert.
Jeder Sensor weist aber Rauschelectronen auf, die deutlich höher als 1 e- sind, sagen wir mal als Beispiel 7 elektronen. Damit sind also mindestens 8 Photonen nötig, um überhaupt das Nutzsignal aus dem Rauschen zu holen.
Das wäre also ISO 800.
Alles darunter steckt mehr oder weniger im Rauschen.
Auch das unterscheidet sich deutlich vom Film ISO, bei dem die Kristalle immer gröber, wurden, je niedriger das ISO war.
Grain nahm also ab.... In der Digitaltechnik geschieht das Gegenteil. Rauschen nimmt nach unten hin, zu.
Es macht also absoluten Sinn, wenn Hersteller den unteren Bereich begrenzen, weil es keinen Sinn macht, eine Kamera im Rauschen absaufen zu lassen, zumal das in den Köpfen der Anwender noch nicht angekommen ist, dass ISO 100 stärker rauscht als ISO 1600, weil wohl auch immernoch nicht angekommen ist, dass Sensoren keine Silberkristalle enthalten.

Und weil jeder Sonsortyp unterschiedliche Rauschanteile hat, ist auch das Setting (ISO 400/800/1600) bei den Kameras unterschiedlich. Hinzu kommt, dass viele Hersteller als Basisempfindlichkeit den Sweetspot angeben, der dem Punkt auf der Kurve repräsentiert, an dem das Rauschen aller 7 Rauscharten am weitesten vom Nutzsignal entfernt liegt, also der größte Störabstand der Kamera erreicht ist.
Auch dieser Wert ist von Kameratyp zu Kameratyp unterschiedlich ... anders als beim Film, bei dem sich diese Werte auf die größe der Kristalle bezog und alle Filmhersteller identisches Material herstellten, die Empfindlichkeit also herstellerübergreifend gleich war.

Am Dynamikumfang ändert ab weder ein ISO Setting, noch eine LOG Kurve, weil der Dynamikumfang eines Signals immer zwischen SNR und FW liegt und der wird durch keines der Settings beeinflusst sondern ist weitestgehend hardwarebedingt.


ist interessant, muss ich selbst mal testen, wie gesagt, bewusst gesehen hab ich bei viel licht und kleiner iso noch nicht das es stark rauscht, bei wenig licht und hoher iso natürlich schon.
ich werde es die tage mal selber testen.

@beiti - ja klaro "sonne lacht, blende 8" klar irgendwann kommste um einen nd natürlich nicht herum wenn du immer offen drehen willst, aber wann dreht man schon mal draussen bei voller sonne, gerade in unseren gefilden ;-) ne aber recht hast du natürlich.

Space


Antwort von domain:

Zitat:
"Am Dynamikumfang ändert ab weder ein ISO Setting, noch eine LOG Kurve, weil der Dynamikumfang eines Signals immer zwischen SNR und FW liegt und der wird durch keines der Settings beeinflusst sondern ist weitestgehend hardwarebedingt."

Genau und diese Hardwarebedingtheit war eigentlich für Analogfilm typisch und normal: feines Korn gegen grobes Korn, wenig Empfindlichkeit gegen hohe mit entsprechendem Korn.
Jetzt aber haben wir nur mehr einen speziellen Sensor pro Kameramodell i.e.S. und der kann recht unterschiedlich abliefern, speziell auch den Pixelpitch und die interne Nachbereitung betreffend.
Schön blöd, dass man sich auf nichts mehr so richtig verlassen kann und aus den unterschiedlichsten Sensoren unterschiedlichste Ergebnisse zu erwarten sind und nur mehr herumgeraten wird, warum das so oder so ausfällt ;-)

Space


Antwort von WoWu:

Es kommt noch erschwerend hinzu, dass Systemkameras außerdem noch Kontrastveränderungen vornehmen.
@Thorsten
Ich geb dir eine kurze Grafik mit, an der Du sehen kannst, dass im unteren Bereich bei einigen Kameras die Rauschwerte nicht sichtbar werden, weil, einhergehend mit der ISO Einstellung die Kontrastwerte verändert werden, was aber dadurch aber zu Dynamikverlusten im Bild führt.
Wenn Du also testest, sollten solche Funktionen abgeschaltet sein, oder Du must gleichzeitig auf gesamt-dynamik mittelsten.
Wenn Du nur auf SNR testest, dann lügt Dir die Dynamikkompression in den Test.
Auch Knee-Einstellungen führen zu andern Rauschverhältnissen.
Die Erklärung schenke ich mir hier mal. Bei Interesse, reiche ich sie gern nach.
An der Grafik kannst Du (für solche Kameras) auch den Unterschied zwischen Gain und ISO erkennen.
Unterm Strich ist das ganze Thema alles Andere als bei Film und ein Vergleich von Kameras oder Werten ist vor dem Hintergrund völlig unmöglich.

Space


Antwort von Peppermintpost:

hey wowu,

danke für die infos. ich würde nochmal gerne eine frage zum thema stellen.
dabei möchte ich für den ersten moment mal die dynamik ausser acht lassen.
ich verstehe natürlich den zusammenhang zwischen grund noise und eingehender information, und das die eingehende information schon höher sein muss als das noise um eine qualifizierte information zu bekommen.
ich möchte hier aber dennoch nochmal einen vergleich zwischen zelluloid und digital aufmachen (ich komme ja aus der analogen zeit ;-).

wenn ich einen film nehme den die analoge gereneration noch gut kennt, den kodak tri-x. der film zeichnet sich mit seinen iso400 basiswert durch ein sehr grobes korn aus. das korn (und der monster kontrast) ist quasi der typische look des films. dennoch verliert der film seine grobkörnigkeit massiv, wenn mit viel licht belichtet wird, und er wird monster grobkörnig bei geringem licht. beim pushen auf iso800 oder 1600 wird es immer schlimmer, aber bei strahlendem sonnenschein könnte man ihn fast für einen 100er film halten.
bei digitalen sensoren scheint mir der effekt ähnlich. wenn ich vom sweet spot 800 ausgehe aber nun mein gain auf iso100 herunter stelle, dann tue ich das ja in erster linie weil es so hell ist. d.h. der anteil von schwarz im bild geht ja massiv zurück, wenn ich im strahlenden sonnenschein eine aufnahme mache, dann erwarte ich persöhnlich ja nicht, das meine harten schatten noch vollkommen durch gezeichnet sind (es sei denn ich belichte auf die schatten und lasse alles andere clippen). d.h. das mein noise mir aufnahmebedingt ja egal ist, weil der focus meines bildes ja jede menge licht hat und sich deutlich vom noise des sensors abhebt.
also technisch mag mein schwarz ruiniert sein, ich werde es aber nicht sehen, weil da wo die musik spielt kein noise ist.

ein ganz anderer schnack ist es aber wenn ich bei low light drehe wenn also die eingehende dynamik schon sehr gering ist, dann komme ich doch viel schneller in den bereich wo ich flächig ans noise stosse, mit den beschriebenen nachteilen.

liege ich da falsch? ich rede hier nicht von test labor, sondern von realer welt. im testlabor ist mir das mit dem noise vollkommen klar.

etwas off topic, wenn ich jetzt natürlich die aufgezeichnete dynamik betrachte, dann würde mich interessieren in wieweit sie absackt. weil bei aktuellen kamaras zumindest auf der verpackung ja immer irgend etwas von 13+ blenden geschrieben steht. aber wenn mein monitor sowieso nur 6+ blenden kann und ich davon ausgehe das ich richtig belichte und mir 2-4 blenden als post headroom reichen, dann habe ich doch garkein problem wenn ich mich unterhalb des sweet spot bewege. oder sehe ich das falsch?

Space


Antwort von milesdavis:

Danke euch für die vielen (zum Teil für Einsteiger verwirrenden und zu theoretischen) Antworten.

Mal eine ganz simple Frage:

Am helligten Tag zu dieser Jahreszeit würde man mit einem ND8 Filter und Blende 2.5, Belichtungszeit 1/50 und ISO 160 ganz gut fahren, oder?


Im Grunde muss ja bei 25 fps die Belichtungszeit bei 1/50 sein.
Wenn ich nun in Zeitlupe 50fps filme und mit Belichtungszeit von 1/100, kann ich da die gleichen Parameter von Blende 2.5 und ISO 160 drin lassen (ohne, dass das Bild sich von der Helligkeit ändert), wie als wenn ich mit 25 fps filmen würde?

Das Ziel soll ein Video mit normaler Geschwindigkeit in 25fps und mit Zeitlupe in 50 fps sein.

Space


Antwort von Peppermintpost:

@miles

ich habe das gefühl das du das mit dem belichtings dreieck schon gut begriffen hast. also doppelde fps = halbe verschlusszeit = -1 stop. den musst du irgendwie ausgleichen.

wie hell es im durchschnitt zu dieser jahreszeit ist bringt dich doch selbst sicher auch zum schmunzeln, wenn es auf die frage eine antwort gäbe, dann gäbe es keine belichtungsmesser mehr ;-)

Space


Antwort von milesdavis:

hey danke!
Was heisst "-1 stop"?

Space



Space


Antwort von Peppermintpost:

ein blendensprung

1 - 1.4 - 2.0 - 2.8 - 4 - 5.6 - 8 - 11 - 16 usw

Space


Antwort von domain:

Ad Kodak Tri-x:
" ..dennoch verliert der film seine grobkörnigkeit massiv, wenn mit viel licht belichtet wird, und er wird monster grobkörnig bei geringem licht. beim pushen auf iso800 oder 1600 wird es immer schlimmer, aber bei strahlendem sonnenschein könnte man ihn fast für einen 100er film halten."

Das ist kein Wunder, weil alle hochempfindlichen Analogfilme der letzten Generation eigentlich zwei "Sensoren" in zwei Schichten enthielten: einen grobkörnigen und einen feinkörnigen. Bei guter Belichtung kam der feinkörnige eben auch zur Geltung und brachte detaillierte Auflösungen.

Space


Antwort von Peppermintpost:

Ad Kodak Tri-x:
" ..dennoch verliert der film seine grobkörnigkeit massiv, wenn mit viel licht belichtet wird, und er wird monster grobkörnig bei geringem licht. beim pushen auf iso800 oder 1600 wird es immer schlimmer, aber bei strahlendem sonnenschein könnte man ihn fast für einen 100er film halten."

Das ist kein Wunder, weil alle hochempfindlichen Analogfilme der letzten Generation eigentlich zwei "Sensoren" in zwei Schichten enthielten: einen grobkörnigen und einen feinkörnigen. Bei guter Belichtung kam der feinkörnige eben auch zur Geltung und brachte detaillierte Auflösungen. du meinst tmax - das ist die letzte generation - tri-x ist steinzeit, vietnamkrieg irgendwo 60er jahre - evtl schon korea krieg späte 50er jahre, bin nicht so sicher wann der raus kam, aber der hat definitiv keine moderne technik drin ;-)

Space


Antwort von Peppermintpost:

hab nachgelenen - korea ist bullshit, 1960 kam der tri-x raus.

Space


Antwort von WoWu:

@milesdavis
Sorry, dass der Thread hier teilweise gehijacked wurde, aber manchmal ist das so, das darfst Du nicht so genau nehmen.

Was Deine Frage betrifft, die Grundeinstellung (helllichter Tag) ist natürlich etwas zu ungenau, um exakten Werten zuzustimmen.
Die Basisbelichtung musst Du also schon vorort genau klären.

Was die Einstellungsverhältnisse angeht, sind Blende und Shutterzeit unabhängig von der Bildfrequenz (25fps).
Du kannst also Shutterzeit -unter der Bedingung, dass kein künstliches Licht, mit beispielsweise 50Hz im Bild ist- völlig frei als Stilmittel wählen.

@Thorsten
was Du da grad beschreibst, ist genau diese Gammakorrektur, die im unteren Bereich in vielen Systemkameras durchgeführt wird.
Das Bild wird dadurch kontrastreicher, verliert also wesentlich an Dynamik und alle Blenden, in denen das Rauschen in dunklen Bereichen stattfindet, werden nach Tiefschwarz abgesenkt.
Das Bild säuft unten ab, wie Du ja auch sehr richtig angemerkt hat.
Das ist aber eine Koppelfunktion und hat nur kameraspezifisch mit dem ISO Setting zu tun, denn würde das Gamma nicht korrigiert, würden die verrauschten Blenden sichtbar sein.
Solche Funktionen wirken sich dann logischerweise auch in einer LOG übertragung aus, nur dass da noch etwas mehr passier und Rauschen um etwa ISO 400 zunehmen kann, je nach Füllmenge des Sensors.p
Aber das ist eben auch kein ISO Thema, sondern Sache der Übertragungsfunktion, ebenso wie die Gammakorrektur.
Bespricht man also solche Temen, muss man dringend Ursache und Wirkung sauber auseinander halten, wie in diesem Fall.
Der Umstand, dass Du bei 100 kein Rauschen siehst, liegt nicht an der ISO Einstellung sondern an der aufgesetzten Gammakorrektur der Kamera.

Auf die Filmanomalie ist domain ja schon eingegangen.

Space


Antwort von milesdavis:

"Sorry, dass der Thread hier teilweise gehijacked wurde, aber manchmal ist das so, das darfst Du nicht so genau nehmen.

Was Deine Frage betrifft, die Grundeinstellung (helllichter Tag) ist natürlich etwas zu ungenau, um exakten Werten zuzustimmen.
Die Basisbelichtung musst Du also schon vorort genau klären.

Was die Einstellungsverhältnisse angeht, sind Blende und Shutterzeit unabhängig von der Bildfrequenz (25fps).
Du kannst also Shutterzeit -unter der Bedingung, dass kein künstliches Licht, mit beispielsweise 50Hz im Bild ist- völlig frei als Stilmittel wählen."






Danke dir Wowu.

Am Ende wird es wahrscheinlich sowieso darauf hinauslaufen, dass man es eher durch Probieren, Gefühl und subjektivem Gefallen macht und die Theorie eher etwas unterordnet.

Space


Antwort von domain:

@ Pepermint
Du kennst dich aber gut aus ;-)
Aber wahrscheinlich wurden damals die Silberhalogenidkristalle unterschiedlich fein "vermahlen" und die feinen Kristalle sprachen auf wenig Belichtung einfach nicht an.
Gibts heute noch beim Mehl. Gibt definitiv glatt (sehr fein) und griffig noch heute, aber auch Universalmehl, quasi eine Mischung.

Space


Antwort von Peppermintpost:

@wowu, ah super vielen dank, das beantwortet mir erstmal meine fragen.
log ist mir systembedingt sowieso egal solange wir keine log monitore benutzen. meine monitore haben alle eine srgb oder rec709 kurve, so lange das so ist brauche ich kein x-log ;-)

Space


Antwort von Peppermintpost:

@ Pepermint
Du kennst dich aber gut aus ;-)
Aber wahrscheinlich wurden damals die Silberhalogenidkristalle unterschiedlich fein "vermahlen" und die feinen Kristalle sprachen auf wenig Belichtung einfach nicht an.
Gibts heute noch beim Mehl. Gibt definitiv glatt (sehr fein) und griffig noch heute, aber auch Universalmehl, quasi eine Mischung. ah interessant, das wusste ich nicht, ja kann durchaus sein, habe keine ahnung wie unterschiedlich das korn im tri-x ist. war nur ein effekt der mir immer wieder aufgefallen ist als ich noch "richtig" fotografert habe ;-)
heute knipse ich nur noch daher bin ich da keine referenz mehr.

Space



Space


Antwort von milesdavis:

Hey Leute, nochmal eine Frage:

Wäre ein Set mit ND:
8, 64, 1000 fürs filmen ausreichend als Beginner?

Space


Antwort von WoWu:

Miles
Bei der Belichtung kann Dir keiner wirklich helfen, weil richtige Belichtung sich nach dem vorhandenen Licht richtet.
Mach doch einfach mal eine Probeaufnahme.
Womit bearbeitest Du denn nachher die Videos denn vielleicht kannst Du dann Tools, wie den Waveform Monitor zur objektiven Beurteilung nutzen.
Da kann man Dir dann wieder leichter helfen.
Aber solange man nicht die Lichtverhältnisse vorort kennt, wäre jeder Tipp ein Griff in die Wundertüte.

Space


Antwort von Bruno Peter:

Vielleicht hilft Dir folgender Tipp:

Mit einem Vario-ND kriegst Du leicht heraus welche Festwert-ND Sortierung für Deine Arbeit eine sinnvolle Anschaffung wäre.
Mußt halt mal ein paar Testaufnahmen damit machen!

Space


Antwort von domain:

Das ist ja ein toller Tipp: zuerst einen billigen Vario-ND-Filter anschaffen, damit man weiß, welche hochwertigen Festwert-ND-Filter man wirklich braucht.
Wie gesagt, bei Vollformat braucht man nicht wirklich ND-Filter.

Space


Antwort von beiti:

Wäre ein Set mit ND:
8, 64, 1000 fürs filmen ausreichend als Beginner? 1000x brauchst Du zum Filmen garantiert nie. Selbst 64x dürfte für Systemkameras/DSLRs eher selten nötig sein.

So richtig zum Filmen optimierte Sets findet man leider nicht. Der Markt ist doch recht Foto-lastig.

Ich würde selber was zusammenstellen. Ich finde z. B. 4x und 8x eine gute Kombi; bei Bedarf kann man sie ja übereinanderschrauben und hat dann 32x. Mehr wird selten nötig sein.

Ein Offenblenden-Typ könnte dann noch 2x dazunehmen, um eine feinere Abstufung zu bekommen. Dann kann man durch Einzelfilter oder Kombination ganze Stufen von 2x bis 64x realisieren (wobei 64x nur durch Kombination von drei Filtern geht, was man natürlich nur im Notfall machen sollte).

Space


Antwort von Bruno Peter:

Das ist ja ein toller Tipp: zuerst einen billigen Vario-ND-Filter anschaffen, damit man weiß, welche hochwertigen Festwert-ND-Filter man wirklich braucht.
Wie gesagt, bei Vollformat braucht man nicht wirklich ND-Filter. Ich bin halt ein Praktiker und kann deshalb manchmal nicht verstehen, daß ein ganzer Thread wegen einer einfachen Aufgabe vollgelabert werden muß...

Space


Antwort von domain:

Wenn jemand herumlabert, dann bist es aber du.
Kenne deine Praktik, zuerst was Untaugliches kaufen (oder hatnäckig an was Überholtem festhalten), dann zur Erkenntnis gelangen, um dann deinen Weg zur Erkenntnis als empfehlenswerten Normalvorgang hinzustellen ;-)

Space


Antwort von Bruno Peter:

Du bist vielleicht ein verbissener Komiker geworden.

Space


Antwort von nic:

Die Blende ist eher ein Bildgestaltungswerkzeug, als ein Heligkeitsregler... Also musst du die Helligkeit über Filter regeln. Welche ND-Filter du brauchst, kannst du ganz einfach selbst feststellen. Geh raus und filme und regle die Lichtmenge mit der Blende. Willst du nun deine Blendenzahl halbieren, brauchst du einen ND 0.6. Also -2 Blenden. Du reduzierst das einfallende Licht auf 1/4 der Lichtmenge. Willst du den Blendenwert vierteln, dann eben ND 1.2, also -4 Blenden, also lässt du 1/16 der Lichtmenge auf den Sensor. Sitzt du z.B. mit ner 22 draußen, willst aber eine 4 blenden, musst du 5 Blenden reduzieren, also ND 1.5... ist nicht so schwer... Du musst nur die Beziehung zwischen Blende, Belichtungszeit, ISO und deinen diversen lichtreduzierenden Filtern verstehen.

Space



Space


Antwort von g3m1n1:

Da geb ich doch auch mal meinen Senf hinzu...

Wenn die Sonne ganz doll scheint, kneifst du dann die Augen zu (Blende)
oder benutzt eine Sonnenbrille?

Angenommen du bist in einem Raum mit wenig Licht und reisst die Blende
auf, damit man den Schauspieler noch sieht, auf 1.0 oder ähnlich, dann
hast du eine dolle Unschärfe im Hintergrund, aber kaum Schärfeebene.

Je niedriger die Blende, desto geringer die Schärfeebene. Du kannst dann
quasi wenn du ein Closeup filmst, lediglich die Nasenspitze des Darstellers
scharf stellen, die Augen sind bereits unscharf. Von daher ist es wie meine
Vorredner gesagt haben, die Blende hauptsächlich als gestalterisches
Element für die Schärfeebene nutzen.

Und noch ein kleiner Tip... ich persönlich bevorzuge variable ND Filter. An
denen kannst du drehen, bis die weißen ausgebrannten Flächen an einem
hellen Sommertag nicht mehr zu sehen sind. Wird der variable ND allerdings
überdreht, sieht man meistens ein störendes Kreuzmuster... das ist dann
der Fall, wenn z.B. extrem hell gefilmt wird und du eine extrem kleine
Blende nimmst (1.2 oder so) und dann den variablen ND Filter drehst bis
zum gehtnichtmehr. Ich mache das immer so, dass ich in dem Fall dann
die Blende auf die Hälfte des möglichen stelle ca. und den Rest mit dem
variablen ND Filter regle.

Space


Antwort von WoWu:

Ich würde das mit dem "Bild-Gestaltungswerkzeug" nicht so uneingeschränkt behaupten, denn die Blende wird sehr schnell zum destruktiven Werkzeug.

Wenn Du bei einem Sensor, z.B. MTF oder APSC mit Pixelgrössen von 4,5 bzw. 5,8 ym noch scharfe Bilder haben willst, bist Du in der Blendenauswahl bereits auf die Blenden 2.8 oder 5.6 festgelegt, weil die Beugung bei kleineren Blenden schon die Bildauflösung reduziert.
Von Blende 8 kann schon gar nicht mehr die Rede sein.
Insofern ist da nicht viel Gestaltungsmöglichkeit.
Es sei denn, statt 4 K Auflösung reichen einem 2 K.
Insofern ist ein ND schneller angesagt, als man denkt.

Space


Antwort von blueplanet:

Wenn Du bei einem Sensor, z.B. MTF oder APSC mit Pixelgrössen von 4,5 bzw. 5,8 ym noch scharfe Bilder haben willst, bist Du in der Blendenauswahl bereits auf die Blenden 2.8 oder 5.6 festgelegt, weil die Beugung bei kleineren Blenden schon die Bildauflösung reduziert. ...heißt das genau: MTF "maximal" 2,8 und APS "maximal" 5,6 in 4K? Das wäre aber nicht "lustig", denn die meisten Off-Blenden haben ohnehin ein Qualitätsproblem. Von der Nicht-Möglichkeit mehr Tiefenschärfe zur Verfügung zu haben, ganz abgesehen...

Aber vielleicht ist das nur gewissermaßen nicht praxisorientierte Theorie. Wenn ich mit der GH4 und z.B. dem 17-35mm, F2,8 mit Blende 5,6 (darüber gehe ich tatsächlich selten, da Vario-Graufilter) arbeite, habe ich eigentlich eine sehr gute Schärfe und das bis zur einer respektablen Tiefe...

Space


Antwort von WoWu:

Das ist eher anders herum, dass die Praxis mit den theoretischen 4K nichts zu tun hat, sondern lediglich gepatches 2K zur Verfügung stellt.
Am Verhalten des Lichtes kann die Praxis nämlich auch nichts ändern oder glaubst Du, dass Licht sein Verhalten ändert, nur weil die Aufschrift einer Kamera sich ändert.
Ansonsten kann man die Größe der Unschärfekreise ja errechnen.
Oder eben mit einer geringeren Auflösung zufrieden sein.

Space


Antwort von mash_gh4:

Wenn Du bei einem Sensor, z.B. MTF oder APSC mit Pixelgrössen von 4,5 bzw. 5,8 ym noch scharfe Bilder haben willst, bist Du in der Blendenauswahl bereits auf die Blenden 2.8 oder 5.6 festgelegt, weil die Beugung bei kleineren Blenden schon die Bildauflösung reduziert. das ist doch quatsch! -- wenn du dir die entsprechenden empirischen tests auf dxo ansiehst, wirst du sehen, dass selbts sehr gute lichtstarke m43 festbrennweiten oft erst bei blende 5.6 die besten abbildung liefern. blende 8 würde ich evtl. als anhaltspunkt für eine realistische grenze akzeptieren -- aber da schaut's dann ja auch bei vielen anderen objektiven für größere sensoren nicht so viel besser aus.

wesentlicher scheint mir einfach der umstand, dass objektive tatsächlich für das jeweilige abbildungsverhältnis gerechnet bzw. optimiert wurden, und nicht völlig gegen den strich gekämmt und zweckentfremdet werden.

Space


Antwort von WoWu:

"Quatsch" ist immer ein sehr schwaches Argument, wenn man physikalische Gesetzmäßigkeiten beurteilt.
Außerdem hast Du offenbar nicht verstanden, worum es hier geht.
Es geht nicht um Objektivgüten, auf die Du abhebst, sondern um das Verhalten von Licht an einer Blende und die dadurch verursachte Bildung von Unschärfen.
Lies nochmal genau nach.

Space


Antwort von mash_gh4:

"Quatsch" ist immer ein sehr schwaches Argument, wenn man physikalische Gesetzmäßigkeiten beurteilt. ich hab ohnehin geschrieben, dass du dir in diesem zusammenhang einfach besser empirische fakten, wie sie sich bspw. in den dxo messungen finden, praktisch vor augen fühen solltest. das ist oft sinnvoller als theoretisch begründete mutmaßungen anzustellen, die weit übers ziel hinausschießen.

Space


Antwort von WoWu:

Empirie steht im Widerspruch zu Fakten und sind bestenfalls Erkenntnisse, die eine wissenschaftliche Theorie bestätigt, ist aber nicht mit Evidenz gleichzusetzen.
Ansonsten kann Empirie auch aus Messfehlern bestehen.
Aber, wie gesagt, es geht hier gar nicht darum, denn hier geht es um Beugung an einer Blende, aber offenbar ist Dir das immer noch nicht so richtig klar.
Und Beugung ist sicher ein Effekt, den hier im Forum jeder (vielleicht außer Dir) kennt und die meisten können sie auch berechnen.
Es geht hier gar nicht um Objektivgüten.
Aber falsifizier doch einfach die physikalischen Gesetzte der Wellenoptik dann wäre bestimmt noch ein Nobelpreis für Dich drin.

Space


Antwort von iasi:

Empirie steht im Widerspruch zu Fakten und sind bestenfalls Erkenntnisse, die eine wissenschaftliche Theorie bestätigt.
Ansonsten kann Empirie auch aus Messfehlern bestehen.
Aber, wie gesagt, es geht hier gar nicht darum, denn hier geht es um Beugung an einer Blende, aber offenbar ist Dir das immer noch nicht so richtig klar.
Falsifizier doch einfach die physikalischen Gesetzte der Wellenoptik dann wäre bestimmt noch ein Nobelpreis für Dich drin. Sollen physikalischen Gesetzte sehr komplexe Systeme beschreiben, wird"s schwierig.


Hier sieht man z.B. wie die Bildmitte schnell abnimmt, die Ecken aber erst bei f8 ihr Maximum erreichen.
http://www.photozone.de/canon_eos_ff/96 ... k2?start=1


Bei diesem Beispiel gehorcht das Objektiv der Physik ;)
http://www.photozone.de/m43/830-oly75f18?start=1

In diesem Fall kann man auch mit f8 noch gut leben - vor allem, wenn man eine große Schärfentiefe erzielen möchte:
http://www.photozone.de/canon-eos/960-c ... _2?start=1


Wichtiger als die technischen Aspekte ist jedoch:
Die Blende ist vor allem auch ein Gestaltungsmittel - um dies nutzen zu können braucht man ND-Filter.

Space



Space


Antwort von mash_gh4:

noch deutlicher wird das übrigens, wenn man in den vergleich auch noch ein paar gute fullframe objektive einbezieht, die aber in der praxis ganz genau die gleichen charakteristiken und grenzen des optimal nutzbaren arbeitsbereichs zeigen wie ihre kleinen geschwister -- bspw:

http://www.photozone.de/nikon_ff/588-ze ... ff?start=1
Wichtiger als die technischen Aspekte ist jedoch:
Die Blende ist vor allem auch ein Gestaltungsmittel - um dies nutzen zu können braucht man ND-Filter. dem stimme ich natürlich zu! (... wobei die oben angesprochene problematik in diesem zusammnehnag gleich noch einmal komplizierter wird, da ja auch die gestalterisch nutzbare tiefenschärfe bzw. die dafür notwendigen blendenstufen bekanntlich nicht unabhängig von der sensorgröße gesehen werden sollte...)

Space


Antwort von iasi:

http://www.photozone.de/nikon_ff/959-si ... fx?start=1

Es kommt eben darauf an, was man für ein Bild erreichen möchte.

Hat man z.B. 2 Personen im Bild und benötigt auch zu den Rändern hin das Maximum, wäre bei diesem Objektiv f4 bis f8 angesagt.

Und dann gibt"s auch immer noch die Spezialisten:
http://www.photozone.de/canon_eos_ff/603-canon24f35tse2
http://www.photozone.de/canon_eos_ff/97 ... tf?start=1

hier kann man durchaus bis f16 gehen:
http://www.photozone.de/canon_eos_ff/45 ... 5d?start=1

Gerade bei einem Macro-Objektiv ist f11 oder f16 durchaus sinnvoll.
Oder man möchte die komprimierende Wirkung eines Teles, wie z.B. bei Kurosawa oder Walter Hill.

http://www.photozone.de/canon_eos_ff/61 ... ff?start=1
f11 führt bei diesem Objektiv immerhin zu
Subject distance 266 m

Depth of field
Near limit 132.9 m
Far limit Infinity
Total Infinite

In front of subject 133.1 m
Behind subject Infinite

Hyperfocal distance 265.5 m


Circle of confusion 0.03 mm

Space


Antwort von Darth Schneider:

Meine RX 10 hat ja einen NDR Filter eingebaut, der ist jedoch zu Schwach und bewirkt, meiner Meinung nach zu wenig, was für ein Filter würdet ihr mir empfehlen ? Einen variablen ? Oder einen oder mehrere der anderen ? Die Auswahl ist ja riesig. Oder soll ich es sein lassen, wenn es nichts bringen würde bei meiner Knipse ? Die Dinger kosten ja zum Teil fast 200 €.

Space


Antwort von iasi:

Variable ND-Filter haben ihre Fans und ihre Kritiker - man kann/sollte sie jedenfalls nicht maximal ausnutzen.

"Starke" ND-Filter können negative Effekte hervorrufen, die man bedenken und denen man begegnen muss.

Space


Antwort von Darth Schneider:

Gibt es Variable Filter die man auf der Kamera lassen kann, wenn man ihn nicht benötigt ? Sorry vieleicht ist das eine blöde Frage, aber es wäre sinnvoller und bequemer, das Teil dort zu lassen, da die Rx10 kein metallenes Filtergewinde hat. Übrigens noch Danke für die Anworti, iasi.

Space


Antwort von g3m1n1:

Ich arbeite nur mit variablen NDs und habe noch nie Probleme damit gehabt.
Finde die sehr praktisch und wie gesagt, wenn mans nicht übertreibt, bleibt
auch das Bild sehr schön.

Space


Antwort von SirRollingVonShutter:

Thema variable ND Filter und dein Test


Kaum Einschränkungen

Thema Filteradapter...in diesem Fall magnetisch, schneller bekommt man einen Filter nicht ab und dran. Dazu schreibt man einmal das Gewinde rein und das andere an den Filter. Nutze es selber, einwandfrei

https://www.amazon.de/Manfrotto-MFXLA72 ... to+MFXLA72

Space


Antwort von WoWu:

@Iasi

Es geht gar nicht um komplexe Systeme sondern lediglich um einen konkreten Fall der Beugung an einer Blende vor einem Sensor, der z.B. 4K auf 17,3 mm aufteilt.
Dabei steht die Beugung für jede Blende und jede Wellenlänge fest.
Das sind nämlich Gesetze der Wellenoptik.
Und dass die Größe der Zerstreunungskreise auch nicht mehr als 75% überlappen darf, um noch separat wahrgenommen zu werden, steht in der Wissenschaft auch ausserfrage.
Um mehr geht es hier nicht und erst Techt nicht um unterschiedlich Konstellationen oder um künstliche Nachschärfungen und auch nicht um gepaschte Bilder.
Hier heut es um ein einziges Beispiel, bei dem die Pixelgrössen 4,5 y und die Grenzaflösung bei RGB 8,9; 7.2; 6,4 bei Blende 5.6
Damit ist jede weitere Blende im Beugungsbereich.
Das ist nun mal Fakt und wenn einer sagt, mir reicht auch ein unscharfes Bild bei Blende 11, dann mag das sein, ändert aber nicht am Fakt.
Klar bekommt man bei größeren Sensoren und/oder Binning andere Werte für die Zerstreuungskreis, stand hier aber nicht zur Diskussion.
Man sollte den Thread besser genau lesen, bevor man sich auf untaugliche Argumentationen einlässt.

Space


Antwort von cantsin:

Thema Filteradapter...in diesem Fall magnetisch, schneller bekommt man einen Filter nicht ab und dran. Dazu schreibt man einmal das Gewinde rein und das andere an den Filter. Nutze es selber, einwandfrei

https://www.amazon.de/Manfrotto-MFXLA72 ... to+MFXLA72 Wusste noch gar nicht, dass XUME von Manfrotto aufgekauft wurde. Wäre ja zu hoffen, dass das System dadurch mehr auf den Massenmarkt kommt und ev. auch preiswerter wird.

EDIT: Jawoll, die XUME-Adapter unter Manfrotto-Label wird's ab dem 20.1. geben, mit Preisen ca. 30% unter den alten XUME-Preisen.

Space



Space


Antwort von iasi:

@WoWu

Es geht sehr wohl um komplexe Systeme. Mag ja sein, dass ein Objektiv im Bildzentrum schön den von dir angeführten Gesetzen gehorcht - nur verhält es sich schon zu den Rändern hin oft ganz anders.

Es spielt eben doch noch etwas mehr hinein, als nur die simple Betrachtung, die du anführst.
Ich kann in der Mathematik im n-ten Raum Schnittpunkte paralleler Geraden berechnen - die diesbezgl. Gesetze sind bewiesen. Nur ist der Übertrag auf die reale Welt eben doch nicht so einfach.

Da kommt ein Objektiv mit
Optical construction 9 elements in 2 groups inc. 2x UD elements
daher ... so einfach lassen sich hier die Qualitäten nicht berechnen.
Interessant dabei: zu den Seiten hin und in den Ecken erzielt ein Objektiv bei f11 eine höhere Auflösung als bei f4 und auch f5.6 - an einer Vollformat-Kamera.
Damit wäre deine These eigentlich empirisch widerlegt.

Was bringt mir denn in der Praxis eine hohe Auflösung im Zentrum, wenn meine Personen seitlich positioniert sind?

Space


Antwort von WoWu:

@Iasi

Du hast es wieder nicht verstanden.

Es geht um überhaupt kein Objektiv, weil das Ganze von den Gläsern überhaupt nicht abhängig ist sondern lediglich vom Blendenschacht.
Kommen Gläser ins Spiel, können sich solche Schärfeefekkte nur noch verschlechtern. Mit Gläsern hebst Du aber keine bestehende Beugung auf.

Und die Differenzierung zwischen Linsenmitte und Rand sind Nebelkerzen, die Du hier zündest.
Es geht einzig um Beugung und erst Recht nicht um komplexe Systeme, bei denen Du hinterher noch alles Mögliche einbringst, um womöglich nachzuschärfen oder was nicht alles.
Beugung führt immer zu Auflösungsverlust, wenn die Trennpatameter der beiden Zerstreuungskreise unterschritten sind.
Und das hat nix mit Theorie oder Praxis zu tun, denn am Verhalten des Lichtes hat sich Jahrmillonen nichts geändert.
Und wenn Du beispiele bringst, die die Beugungsgesetze scheinbar widerlegen, dann reche das Beispiel mal konkret durch und zeig die Berechnung mal her.
Du wirst sehen, dass die Gesetze der Wellenoptik nach wie vor stimmen.
Wenn aber jemand sagt ... "finde ich scharf", dann ist das noch lange kein Beweis, wie Du so gern glauben machen würdest.

Space


Antwort von mash_gh4:

Und die Differenzierung zwischen Linsenmitte und Rand sind Nebelkerzen, die Du hier zündest. so lange wir hier nicht alle ausschließlich nur an den idealen eigenschaften von lochkameras interessiert sind, oder die realistischen einflüsse des abbildungsmaßstabs gar nicht erst für der rede wert erachten, würde ich behaupten, dass hier wieder einmal ganz andere akteure undurchsichtige nebelwolken und allgemeine volksverdummung heraufbeschwören.

Space


Antwort von WoWu:

Die Erfahrung, dass Beugung nicht ausschließlich bei Lochkameras vorkommt, haben hier wahrscheinlich schon die Meisten gemacht und davon, das dies physikalischen Gesetzen folgt, haben wahrscheinlich auch schon ein paar mitbekommen.
Mag ja sein, das die alle dumm sind, wie Du sagst.
Ich denke, eher umgekehrt.
Und wenn Du Objektivgüten ins Spiel bringen möchtest, dann können wir gern über die Unschärfe schlecht angepasster Optiken sprechen, nur gehen solche Effekte on top auf die Beugung.
Es scheint Dir aber nicht wirklich bewusst zu sein, dass das zwei unterschiedliche Dinge sind.
Aber, wie gesagt ... falsifizier doch einfach die Beugungsregel der Wellenoptik.
Kann ja nicht so schwer sein, wenn Du das so genau weißt, aber außer Gelaber kommt da ja nix.

Space


Antwort von mash_gh4:

Mag ja sein, das die alle dumm sind, wie Du sagst. nein -- ich geh davon aus, dass den meisten hier, die sich mit solchen dingen auch ganz praktisch beschäftigen , bekannt ist, dass sich das problem der beugungsunschärfe erst im bereich der makrofotografie/-filmerei und entsprechend ungewöhnlichen abbildungsmaßstäben als ernsthaftes problem erweist. dort gilt es dann tatsächlich zw. den dadurch verursachten verschlechterungen und dem gewinn an tiefenschärfe abzuwägen. im bereich jener abbildungsmaßstäbe, in den wir uns aber die allermeiste zeit bewegen, sind aber andere auflösungsbeschränkende effekte im optischen system meist bedeutsamer. wenn man diesen umstand beachtet, reichen die gewöhnlichen blendenbezogen auflösungskennlinen des gesamtsystems, die natürlich ohnehin auch die tatsachlich vorhandenen beugungsunschärfen ausreichend berücksichtigen, völlig aus -- alles andere fällt m.e. unter krankhafte paranoia! ...und deren mutwillige verbreitung unter demagogie!

Space


Antwort von WoWu:

Ja, ja, wird schon so sein, wenn Du das sagst.
Hoffentlich weiß das Licht das auch.

Space


Antwort von iasi:

@Iasi

Du hast es wieder nicht verstanden.

Es geht um überhaupt kein Objektiv, weil das Ganze von den Gläsern überhaupt nicht abhängig ist sondern lediglich vom Blendenschacht.
Kommen Gläser ins Spiel, können sich solche Schärfeefekkte nur noch verschlechtern. Mit Gläsern hebst Du aber keine bestehende Beugung auf.

Und die Differenzierung zwischen Linsenmitte und Rand sind Nebelkerzen, die Du hier zündest. Wieder einmal simplifizierst und verengst du alles auf einen Teil des Ganzen.
Niemand bestreitet die Beugung. Nur ist es eben auch nicht so, dass ein Objektiv sich nur exakt so verhält wie ein Loch. Lochkameras sind ja nett, aber moderne Kameras mit Objektiven sind mir lieber.

Natürlich ist nicht nur die Bildmitte relevant. Wenn ich also eine über die gesamte Bildfläche bestmögliche Schärfe möchte, muss ich bei vielen Objektiven nun einmal stärker abblenden. Dann mag zwar das Zentrum etwas nachlassen, aber die Seiten werden besser - wir sind schließlich im Breitformatzeitalter.

Space


Antwort von domain:

Bei einem Abstand vom Loch zum Sensor von 4,4 cm beträgt der optimale Lochdurchmesser 0,21mm, das ist Blende 210.
Also bitte aufpassen: Lochkameras nicht zu stark abblenden, sonst wird das Bild wieder unschärfer ;-)

Space


Antwort von Peppermintpost:

wowu ich hab zum thema auch nochmal ne frage. ich hatte am anfang deines einwurfes zur beugung gedacht das mich das nicht betrifft, weil ich ja mit full frame (5DIII) rum mache. aber dann hab ich nochmal in die tech specs geschaut. mein sensor ist zwar gross, aber er hat ja keine hd auflösung sondern eine 5760er, d.h. die pixel sind bei mir ja auch nicht viel grösser als bei mft - wiki sagt 6,25 µm. das bedeutet auch für full frame hab ich genau so die arschkarte oder? eine alexa65 hat das problem nicht, aber alle photoknipsen sind davon gleichermaßen betroffen oder?

Space



Space


Antwort von Jott:

Beugungseffekte schön erklärt, mit Rechner, ab welcher Blende der Effekt sichtbar zuschlägt. Gut geeignet zum Anfeuern der Diskussion!

http://www.cambridgeincolour.com/tutori ... graphy.htm

Space


Antwort von Rudolf Max:

@: Also bitte aufpassen: Lochkameras nicht zu stark abblenden, sonst wird das Bild wieder unschärfer ;-)

Das nenne ich mal eine aussagekräftige Aussage...

Ja, ja, die liebe Beugung, echt ein verdammt schwerwiegendes Problem, das durchschnittliche Fotografen und Filmer fast täglich an die Grenze des Wahnsinns treibt...

Herrlich... was wäre die Welt ohne solche Probleme... aber da gibt es sicherlich eine helfende App dafür...

Space


Antwort von Jott:

Es ging doch um ND-Filter. Und genau dafür braucht man sie: um die Blende in den Bereich zu bringen, wo die Beugung nicht zuschlagen kann.

Fotografen machen stattdessen den Shutter kürzer, aber der ist beim Filmen für die Bewegungsdarstellung zuständig, bliebt daher fixiert und fällt als Stellschraube aus. Das macht ND-Filter erforderlich, weil die Blende als zweite Stellschraube nicht beliebig weit geschlossen werden kann.

Die "App" dazu ist das Wissen im Kopf.

Space


Antwort von pixelschubser2006:

Ich möchte an dieser Stelle auch mal ein paar Fragen bzw. Denkanstöße einwerfen. Mir ist nämlich so einiges nicht ganz klar bzw. ich kann WoWu nicht so ganz folgen. Habe aber auch nicht alles im Detail gelesen, weil mir beim Überfliegen keine Punkte auffielen, die mich weiterbringen.

Punkt 1: Optische Leistung beim Abblenden

Von der Sache her sind mir die Zusammenhänge klar, aber mit allen Aussagen bin ich nicht konform. Ich habe in der Fotografie gelernt, daß eine Optik eine halbe bis eine Stufe abgeblendet werden muss, um optimale Leistung zu bringen. Selbst beste Linsen bringen offen vielleicht schon Spitzenleistungen, laufen aber erst bei -1 oder -2 Blenden zur Höchstform auf. Je extremer die Lichtstärke ist, desto ausgeprägter. Mit nem Leica-M-Objektiv mit Lichtstärke 4,0 sicherlich vernachlässigbar. Mit nem alten Sigma 1,8/28 konnte man hingegen offen fast nix anfangen. Beugungsunschärfen traten erst bei Abblenden über 5 Stufen langsam auf, was aber evtl. den Bildformaten und entsprechend großen Linsen geschuldet sein mag. Jedenfalls wundert es mich, daß es bei Videolinsen schon ab -2 Blenden mit der Schärfe abwärts gehen soll.

Punkt 2: Vergleichbarkeit ISO vs. ISO

Nachdem ich ein paar Jahre mit ner Nikon Spiegelreflex gefilmt habe, kann nur von der Erfahrung sprechen, daß sich das Rauschverhalten bei Video ziemlich genauso wie bei Foto verhalten hat. Warum auch nicht, ist der gleiche Sensor. Auch hinsichtlich der Empfindlichkeit haben sich keine Unterschiede ergeben - habe ja immer die Belichtungswaage zur groebn Voreinstellung genommen. Jedenfalls sind mir hier keine Unterschiede zwischen Foto und Video aufgefallen. Sollte es bei Video weniger gerauscht haben (was ich so nicht beobachtet, aber auch nie gezielt verglichen habe), kann dies mutmaßlich auch eine Folge der geringeren Auflösung sein, die eine bessere Rauschkorrektur in der Kamera ermöglicht.

Was ich weiterhin nicht verstehe sind die Unterschiedlichen Denkansätze. Es macht auch keine Sinn, Zelluloid mit Video zu vergleichen. Obgleich ich in der analogen Fotografie bei höheren Empfindlichkeiten ein Verhalten habe, welches dem des Rauschens ähnlich ist. Das Korn nimmt bei höherer Empfindlichkeit zu, insbesondere wenn Filme gepusht werden.

Darüber hinaus muss man doch Fotosensoren mit Videosensoren vergleichen. Sind die Unterschiede wirklich so groß? Wie unterscheiden sich der 1" Sensor im Sony Camcorder und der 1" Chip der RX100?

M.A. nach sind Fotokameras und Videokameras schon deshalb nicht vernünftig vergleichbar, weil bei Video die Lichtempfindlichkeit des Sensors per Verstärkung in dB angegeben wird. Es mag Ausnahmen geben, aber die kenne ich nicht (wobei das nix heißen mag. Habe viele Fotokameras, aber nur wenig Videokameras in der Hand gehabt...

Space


Antwort von g3m1n1:

Macht's doch nicht so kompliziert.

Blende: hauptsächlich für die Unschärfe im Hintergrund. Innendrin würde
ich nie einen ND Filter verwenden. Ist das Bild zu dunkel, dann zusätzliches
Licht verwenden. Ist es zu hell, das Licht abschatten oder die Blende minmal
variieren.

ND-Filter: Bei hellem Sonnenlicht anwenden, damit das Bild nicht ausbrennt.

Das wars.

Ansonsten ist wichtiger, was vor der Kamera passiert.

Space


Antwort von mash_gh4:

was mir an dieser diskussion eigentlich am meisten fehlt, um der praxis tatsächlich gerecht zu werden, ist das schreckliche gemurkse, wenn man externe ND-filter im zusammenspiel mit sonnenblenden verwenden will. :(
gleichzeitig ist die verwendung von sonnenblenden bzw. die vermeidung streulicht für eine brauchbare bildqualität mindestens genauso wichtig wie das vermeiden gar zu exzessiven auf-/abblendens...

Space


Antwort von Frank Glencairn:

Mattebox mit 2-3 Filterhaltern und fertig - wo ist da Gemurkse?

Space


Antwort von Jott:

Kameras mit integrierten ND-Filtern gibt es zum Glück auch, obwohl das unmännlich ist! :-)

Space


Antwort von WoWu:


Punkt 1: Optische Leistung beim Abblenden

Von der Sache her sind mir die Zusammenhänge klar, aber mit allen Aussagen bin ich nicht konform. Ich habe in der Fotografie gelernt, daß eine Optik eine halbe bis eine Stufe abgeblendet werden muss, um optimale Leistung zu bringen. Selbst beste Linsen bringen offen vielleicht schon Spitzenleistungen, laufen aber erst bei -1 oder -2 Blenden zur Höchstform auf. Je extremer die Lichtstärke ist, desto ausgeprägter. Mit nem Leica-M-Objektiv mit Lichtstärke 4,0 sicherlich vernachlässigbar. Mit nem alten Sigma 1,8/28 konnte man hingegen offen fast nix anfangen. Beugungsunschärfen traten erst bei Abblenden über 5 Stufen langsam auf, was aber evtl. den Bildformaten und entsprechend großen Linsen geschuldet sein mag. Jedenfalls wundert es mich, daß es bei Videolinsen schon ab -2 Blenden mit der Schärfe abwärts gehen soll.

Punkt 2: Vergleichbarkeit ISO vs. ISO

Nachdem ich ein paar Jahre mit ner Nikon Spiegelreflex gefilmt habe, kann nur von der Erfahrung sprechen, daß sich das Rauschverhalten bei Video ziemlich genauso wie bei Foto verhalten hat. Warum auch nicht, ist der gleiche Sensor. Auch hinsichtlich der Empfindlichkeit haben sich keine Unterschiede ergeben - habe ja immer die Belichtungswaage zur groebn Voreinstellung genommen. Jedenfalls sind mir hier keine Unterschiede zwischen Foto und Video aufgefallen. Sollte es bei Video weniger gerauscht haben (was ich so nicht beobachtet, aber auch nie gezielt verglichen habe), kann dies mutmaßlich auch eine Folge der geringeren Auflösung sein, die eine bessere Rauschkorrektur in der Kamera ermöglicht.

Was ich weiterhin nicht verstehe sind die Unterschiedlichen Denkansätze. Es macht auch keine Sinn, Zelluloid mit Video zu vergleichen. Obgleich ich in der analogen Fotografie bei höheren Empfindlichkeiten ein Verhalten habe, welches dem des Rauschens ähnlich ist. Das Korn nimmt bei höherer Empfindlichkeit zu, insbesondere wenn Filme gepusht werden.

Darüber hinaus muss man doch Fotosensoren mit Videosensoren vergleichen. Sind die Unterschiede wirklich so groß? Wie unterscheiden sich der 1" Sensor im Sony Camcorder und der 1" Chip der RX100?

M.A. nach sind Fotokameras und Videokameras schon deshalb nicht vernünftig vergleichbar, weil bei Video die Lichtempfindlichkeit des Sensors per Verstärkung in dB angegeben wird. Es mag Ausnahmen geben, aber die kenne ich nicht (wobei das nix heißen mag. Habe viele Fotokameras, aber nur wenig Videokameras in der Hand gehabt... Sorry, dass ich erst heute dazu komme, zu antworten.
Zu 1)
In der Diskussion geht es eigentlich nur um die Beugung an der Blende, bzw. am Objektivschacht.
Dass Linsen noch zusätzlich die Objektivleistung negativ beeinflussen, steht gänzlich ausser Frage.
Was Du ansprichst, ist die Kombination aus Beidem, die "förderliche Blende", nämlich der Schnittpunkt der Kurven, wo die Beugungsunschärfe sich mit der Auflösungsbegrenzung des optischen Weges schneiden.
Hier gin es aber nur um die Beugung.
Hättest Du also ein "perfektes" Objektiv, hättest Du es nur mit der Beugung zu tun und dann wäre das Maximum der Bildqualität am Minimum der Beugung, also bei Offenblende.

Zu 2)

Genau darum ging es in der Diskussion aber, dass der Ursprung des ISO, also die Kristallgrösse des Filmmaterials nicht mit Sensoren zu vergleichen ist und dass daher auch identische ISO Settings im Videobereich nicht verglichen werden können.
Und auch unterschiedliche (Video) ISO Settings (Kameras) nicht vergleichbar sind.

@Peppermintpost

Du musst immer betrachten, wie die Pixels gewinnt sind.
Wenn jedes Pixel 6,25 µm gross ist, hält natürlich der Zerstreuungskreis für die Grösse. Wird gebinnt, dann natürlich erst für das gesamte Bin.
Aber nochmal ... zuerst kommen die langen Farben und u.U. erst 2-3 µm
später, die kurzen Wellenlängen.
Da besteht als, je nach Bildinhalt kein harter Übergang und auch werden natürlich erst die hohen Ortsfrequenzen begrenzt, die Bildauflösung wird also zunächst reduziert, was nicht unbedingt sofort als Unschärfe wahrgenommen wird, weil die niedrigen Ortsfrequenzen noch scharf erscheinen. Man darf also Beugungsunschärfe nicht so verstehen, dass ein Unschärfefilter auf das Bild gelegt wird. Erst wenn die Beugung in allen Wellenlängen zuschlägt, wird das so manchem auffallen.
Es gibt da also einen Toleranzbereich, der von Vielen noch als "scharf" wahrgenommen wird, sich aber schon in der Beugung befindet.
Kritisch ist es eben im 4K Bereich bei kleinen Sensoren, wo ohnehin nicht viel Luft in den Blenden ist. Daher ja auch die üppige Nachberechung bis hin zum Patchen.

Space



Space


Antwort von Peppermintpost:

ah ok - danke dir für die erklärung

Space


Antwort von mash_gh4:

nur die beugung alleine zu berücksichtigen ist ein völlig absurder unfug, der am tatsächlichen zusammenspiel verschiedener faktoren, die es zu optimieren gilt, völlig vorbei geht.

Space


Antwort von WoWu:

Sagt ja auch keiner .. aber wenn man die "förderliche " Blende + dem ISO Sweetspot wählt und dann die Belichtung mit NDs (und/oder Shutter) macht, hat man eigentlich "das Beste" aus allen Welten und streng genommen das Maximum seiner Kamera/Objektivkombination.

In der Überschrift würde aber nur die Blende angesprochen und nicht die Lichtwirkung einer Objektivleistung.

Aber immerhin bist Du ja schon einen Schritt weiter und behauptest nicht mehr, es gäbe keine Beugung.
Immerhin....auch mit kleinen Schritten kommt man vorwärts.

Space


Antwort von kuhea:

Für alle, die da so interessiert sind über das Thema ''Beugung“ hier mal
eine Tabelle, die ich im Fachbuch ' Fotografie von Kurt Dieter Solf' '
entdeckt habe. (S. 125)

Die Zahlen geben die 'Theoretische Grenzauflösung bei Abblendung eines Objektiv“ an.

Blende = Max. Linien pro mm
----------------------------------------
2 = 751
2,8 = 536
4 = 375
5,6 = 268
8 = 188
11 = 136
16 = 94
22 = 68

Vielleicht hilft's ja jemand weiter.

'Einen schönen Abend noch.

Space


Antwort von WoWu:

Nun muss Du nur noch die Lines pro Sensor gegenüber stellen und dann kommst Du auf das identische Ergebnis, denn z.B. ein MFT Sensor, der 4K abbilden soll, also 4608 auf 14,48 mm ergibt 318 Lines/mm und hat sein Limit damit bei knapp unter Blende 2.8
D.h. bei Blende 4 fängt es schon an, HD zu werden.
Sag ich doch.

Fehlt nur noch das passende Objektiv davor, das mindestens 170 Lp/mm bei 50% MTF macht sonst geht das mit HD (statt UHD) schon bei Blende 2 los.

Geht doch nichts über gute Fachbücher ;-)

Space


Antwort von dienstag_01:

Wieso Blende 2,8? Bei 4 löst es doch immer noch 375 Linien auf.

Space


Antwort von WoWu:

Ja, stimmt... von mir aus auch Blende 4, wobei sich die numerische Angabe wahrscheinlich auf "Grün", also 530 nm bezieht und Rot dann schon eine Blende in der Beugung ist.
Das, was ich oben aufgeführt habe, dass zwischen Rot und Blau, je nach gewählter Blende durchaus mal 2 Blenden liegen können.
Wenn man also Beugung bei Rot noch OK. findet, dann eben Blende 4.

Space


Antwort von dienstag_01:

Ok, ich war mir nur nicht sicher, ob ich irgendwas nicht kapiere.

Space


Antwort von mash_gh4:

Fehlt nur noch das passende Objektiv... ...das auch in empirischer hinsicht diesen mutmaßungen gerecht wird ;)

tatsache bleibt, dass a.) die optimale leistung gewöhnlich erst bei höher blende erreicht wird (also gar nicht so sehr beugungsbegrenzt ist) und b.) diese reale geamtcharakteristik sich gar nicht so sehr von objektiven für größere sensoren unterscheidet, wenn die betreffenden optiken nur korrekt für ihren tatsächlichen einsatzzweck optimiert wurden.

Space



Space


Antwort von WoWu:

Die Empirie sagt gar nichts.
Fakt bleibt, dass selbst bei perfekten (auch perfekt angepassten) Objektiven die Beugung unverändert bleibt und durch nicht perfekte oder nicht perfekt angepasste Objektive sich die Unschärfe dann zusätzlich negativ verschiebt und außerdem u.U. Aliasing Artefakte hinzukommen, sofern das Objektiv höher als der Sensor auflösen sollte.
Was aber bei dem bestehenden Beispiel vermutlich nicht sein wird.
Deine Behauptung war ja, dass gute Objektivanpassungen der Beugung entgegen wirken ... und den Beweis bist du schuldig geblieben.

Du kannst die optischen Gesetze gern falsifizieren, aber Du behauptest ja immer nur, statt mal den Beweis anzutreten.

Du hast irgendwo irgendwas gelesen, ohne es in den korrekten Context zu bringen.
Aber aus defizitärem Verständnis wird nur bei Dir ein Fakt.
Ansonsten kannst ja auch gern mal etwas über Beugung und das Rayleigh- Kriterium nachlesen.
Kameras funktionieren nämlich nach den optischen Gesetzen, aber Deine wahrscheinlich nicht.

Space


Antwort von Maximus63:

https://youtu.be/KG66KFL3SyA
Mit ND 8 Filter aufgenommen.

Space


Antwort von ruessel:

Wie schaut es bei einer Lochkamera mit ND Filter davor aus ?? ;-)

Space


Antwort von WoWu:

genauso.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen //


Wenn nennt man die Musik?
Wozu Farbmanagement in der Filmproduktion? Netflix klärt auf
Neue Google KI entrauscht RAW Photos dunkler Szenen perfekt - bald auch Videos?
Resolve- Renderfiles dunkler als in der Vorschau - warum?
Selbst wenn man wollte ... Ausverkauft.
Wenn man schon beim Trailer wegen eines Logiklochs Lachkrämpfe bekommt
Kann man bestimmte Spielfilme nicht einfach verbieten oder totschlagen?
Warum man Camcorder/Kameras nicht einfach als Webcams nutzen kann
Wie man eine animierte Modeschau einfach mit kostenlosen KI Tools produziert
Die Sony A7S III hat keine Hitzeprobleme -- oder möglicherweise doch?
Alte Filme in neuem Glanze - daher sind die k-s eben doch wichtig
Neuaufgelegt mit entklickbarer Blende: Samyang MF 85mm F1,4 und MF 14mm F2,8 Objektive
Was ist an der "kritischen Blende" so "kritisch"?
Verkrümmungsstabilisierung bei 2 Clips mit Weicher Blende
Sony A7S III vs Canon EOS R6 Vergleich: Autofokus mit f1.8 offener Blende beim Interview




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash