Newsmeldung von slashCAM:
Wir haben die Cinema Camera 4K mit dem neuen Blackmagic RAW Update noch einmal durch unser Testlabor geschickt. Und sie dafür passend mit einem Viltrox EF-M2 Focal Reducer und dem Sigma 18-35 bestückt...
Hier geht es zum slashCAM Artikel:
Praxistest: Blackmagic RAW in der Pocket Cinema 4K - Dream Team mit Viltrox EF-M2 und Sigma 18-35?
Antwort von roki100:
Ich finde das ist eine sehr nette und ehrliche Bewertung. Danke!
Ich finde ohne CinemaDNG, ist BMD nicht mehr etwas besonderes. Da ist m.M. die GH5(s) um einiges besser.
Antwort von Valentino:
Liebes Slashcam-Team, bitte auch die negativen Seiten der Speedboster beleuchten. Am Ende gewinnt man einen größeren Bildkreis und eine Blende, auf der anderen Seite leiden unter dem zusätzlichen Element des Speedbosters der abbildbare Kontrast und die Auflösung.
Gerade bei starken Gegenlicht fällt das recht schnell ins Gewicht.
War schon immer großer BM Fan, aber bei der 4K Pocket waren Sie einfach zu spät dran.
Eine Fuji XT3 oder Panasonic GH5 sind hier bei Video einfach deutlich besser unterwegs.
Gerade die Fuji ist immer wieder der Hammer beim Autofokus und Tracking. Sogar bei 120fps Aufnahmen zieht der Autofokus recht weich mit. Bei den meisten Fuji Linsen hat man dazu noch ein recht flotten OS verbaut. Jetzt noch ein X-H2 mit 24x36mm Sensor und CFast Slot und internem 6K RAW und BM muss sich wirklich was einfallen lassen.
Antwort von roki100:
Am Ende gewinnt man einen größeren Bildkreis und eine Blende, auf der anderen Seite leiden unter dem zusätzlichen Element des Speedbosters der abbildbare Kontrast und die Auflösung.
leidet "abbildbare Kontrast und die Auflösung'" nur in Verbindung mit der Pocket 4K, oder betrifft das auch andere Kameras? Mit der älteren BMPCC + Viltrox EF-M2 habe ich diese Probleme nicht.
Antwort von Valentino:
Natürlich bei allen Kameras, das liegt einfach an der Tatsache, das ein zusätzliches optisches Element immer zu einer "schlechteren" Abbildung führt.
Auch wenn das Glas in den Speedbostern sehr gut verarbeitet bzw. beschichtet ist, gibt es am Ende mehr Streulicht und dieses senkt dann den Gesamtkontrast. Dazu schluckt der Boster auch noch etwas Licht, damit gewinnt man dann auch eher eine 2/3 und keine ganze Blendenstufe.
Bei 4K Video fällt das gerade bei Zooms mit recht vielen Elementen nicht so stark ins Gewicht, aber bei hochwertigen Festbrennweiten kann man schon ganz gut die Unterschiede erkennen.
Was auch gerne als Nachteil vergessen wird, das man für den gleichen Tiefenschärfen Bereich mit Boster die eigentlich gewonnene Blende wieder abblenden muss.
Sind auch nicht wirklich neu diese Erkenntnisse, sie werden aber bei Test gerne vergessen.
Antwort von Jörg:
Sind auch nicht wirklich neu diese Erkenntnisse, sie werden aber bei Test gerne vergessen.
weshalb mir auch die Sinnhaftigkeit und der hype um diese Teile nie einleuchten wird...
Antwort von blitzdings_1:
Seit etwa einem Monat bin ich stolzer Besitzer einer Blackmagic Pocket Cinema 4k. Da ich als Fotograf noch viele Canon EF Objektive besitze, habe ich mir für die Kamera auch den Speedbooster von Viltrox zugelegt. Seit ein paar Wochen habe ich mit der Kamera also erste Erfahrungen machen können. Ich bin kein Fachmann darin, wenn es darum geht, Bildqualität unter technischen Gesichtspunkten zu beurteilen, denke aber beurteilen zu können, ob das Material, daß eine Kamera erzeugt, ansprechend ist. Insofern ein kleiner "subjektiver" Erfahrungsbericht. Und um es gleich vorwegzuschicken. Mich hat die BMPCC4K gerockt!
Nachdem ich diesen Artikel gelesen habe, frage ich mich, wo hier die "Praxis" im Praxistest liegt. Technisch sicherlich sehr aufschlußreich, beantwortet der Artikel wenig Fragen zum, ich nenne es mal "Feeling", im Umgang mit der Kamera und der Qualität der Bilder, die sie erzeugt. Wenn man jeden Pixel zählt, wird man immer eine Kamera finden die besser ist. Und tatsächlich würde ich die Kamera auch nicht benutzen um, wenn ichs mal so schnippisch formulieren darf, Repros zu machen. Da muss man sich mal überlegen, wofür die Kamera gebaut wurde.
Es ist eine Cinekamera. Und das kann sie wirklich. Die Farben, insbesondere die Hauttöne, die die Kamera erzeugt sind ein Traum. Im Zusammenspiel mit dem Speedbooster und sehr offenblendigen Objektiven (mein momentaner Liebling: das Canon EF 28mm 1.8) ergeben sich wunderbar cineastische Bokehspielereien. Rein aus meiner subjektiven Sicht erzeugt die Kamera Bilder, die, besonders im szenischen Arbeiten mit Schauspielern, einen fantastischen Filmlook zu Tage bringen. Wer braucht den da eine knallharte klinisch anmutende 4K Schärfe, wenn man eh bevorzugt mit viel Bokeh im Bild arbeitet? Vielleicht der Landschaft- oder Architekturfilmer. Aber um Szenisch zu arbeiten, um Musikvideos oder Werbeclips zu produzieren gibt es meiner Meinung nach in diesem Preissegmet kaum Mitbewerber. Besonders der Braw Codec den Blackmagic in die Kamera implementiert hat, hat es mir angetan. Verhältnismäßig kleine Datenmengen und doch Bilder die sich in der Postproduktion formen lassen wie Knetgummi, dabei äußerst performant. So muss das sein! Und die Lowlightfähigkeiten der Kamera sind der absolute Wahnsinn. Das glaubt man nicht, wenn man es nicht selber sieht. Mit einem 1,8ter Objektiv auf 1,2 "geboostert" geht Nachts förmlich die Sonne auf.
Nun, um es auf den Punkt zu bringen, man muss wissen worauf man sich sich einläßt. Die BMPCC4K ist keine eierlegende Wollmilchsau, kein "all in one" Henkelmann, und ich denke das will sie auch garnicht sein. Man muss sich klar sein, daß man händisch focussiert, für mich kein Problem. Und die fehlende Stabilisation der Kamera muss man durch Stative oder Gimbals, in meinem Fall ein Moza Air 2, oder eine sehr ruhige Hand ausgleichen. Erwähnen muss man auch, daß die Kamera gefühlt eine Akku schneller leersaugt, als man "Blackmagic Pocket Cinema Camera 4k" sagen kann. Aber auch dafür gibt es Lösungen. Alles in allem bin ich mit der Kamera superhappy. Sie erzeugt mir den Filmlook den ich schon immer wollte. Und darauf kommt es doch an. Was nützt mir eine Kamera, die bessere Parameter hat, mich im Bildlook aber eher entäuscht. Für alle angehenden "Filmregisseure" mit kleinem Technikbudget, führt nach meiner persönlichen Meinung kaum ein Weg an dieser Kamera vorbei.
Antwort von roki100:
Es ist eine Cinekamera. Und das kann sie wirklich. Die Farben, insbesondere die Hauttöne, die die Kamera erzeugt sind ein Traum. Im Zusammenspiel mit dem Speedbooster und sehr offenblendigen Objektiven (mein momentaner Liebling: das Canon EF 28mm 1.8) ergeben sich wunderbar cineastische Bokehspielereien....Besonders der Braw Codec den Blackmagic in die Kamera implementiert hat, hat es mir angetan. Verhältnismäßig kleine Datenmengen und doch Bilder die sich in der Postproduktion formen lassen wie Knetgummi, dabei äußerst performant. So muss das sein!
Naja, das sehen manch andere etwas anders. ;) Nicht nur was cine Qualität angeht, auch BRAW ist da so eine Sache: https://forum.blackmagicdesign.com/view ... 70#p507430 denn, BRAW entstand nicht, um dem Kunden etwas besonders zu servieren, sondern darum, damit BMD keine Lizenzgebühren an RED zahlen muss.
Ansonsten ja, es ist eine tolle Kamera für den Preis. Und wer eine bessere Kamera möchte, der wird sich sicherlich für die GH5(s) oder die erwähnte Fuji entscheiden.
Antwort von Jörg:
Und wer eine bessere Kamera möchte, der wird sich sicherlich für die GH5(s) oder die erwähnte Fuji entscheiden.
Ich denke, hier gehts nicht um besser und schlechter.
Wer ne BM nutzt, wird mit ner X-Txx nichts anzufangen wissen.
Andersrum genauso.
Ist doch prima, für alle ist sehr gutes Material vorhanden.
Antwort von roki100:
Ist doch prima, für alle ist sehr gutes Material vorhanden.
Da bin ich deiner Meinung.
Antwort von Rick SSon:
Interessant finde ich das ihr mit blende 1.2 keine schaerfeprobleme/bloomingeffekte habt. Kann mit weitwinkligen linsen unter 35mm nicht unter blende 2.8 (mit sb) gehen ohne das die lichter verrückt spielen und das bild deutlich am knack verliert.
Aber die Cam selbst is der Brenner. Richtig belichtet und mit BRAW Workflow und einem Händchen für CC ist die Pocket 4k in keinem Fall mehr der limitierende Faktor für einen guten Film.
Bevor man über das Ding meckert sollte man schon ziemlich gehobene Produktionsbedingungen haben die das Bild viel maßgeblicher beeinflussen als die Kamera.
Mein einziger Kritikpunkt wäre eine Gelbverschiebung im Grün, ist im Schnitt direkt mit der Ursa verglichen schon auffällig. Kriegt man aber recht easy korrigiert (dank Braw) und ist allemal besser als sonys slog2 gelb im ganzen bild zusammen mit magenta-rot und grünen Hauttönen. Was ich da immer selektiv am Bild biegen musste, da kann ich mit der gesparten Zeit im CC mit der Pocket jetzt in der Woche 3x öfter essen gehen.
Antwort von Darth Schneider:
An Blitzdings 1
Extrem toll, positiv und ausführlich geschriebener Erfahrungsbericht, danke schön.
Also mich haut die Bildqualität der neuen Pocket ja auch von den Socken aber ich habe nicht wirklich Vergleichsmöglichkeiten mit meiner Rx10, und ich habe ja noch nicht mal ein 4K Tv oder Monitor.
Im Moment denke ich wozu auch ?
Alles läuft noch rund um die Kamera herum, (sogar mein kleiner, schwacher iMac) und die Kamera, finde ich, ist in jeder Hinsicht der Hammer, auch schon nur in 2K, mit ProRes.
Jetzt hab ich erste 4K BRAW Tests gemacht, zwar nur 8:1...auf einer, sicher 4 Jahre alten SD Karte...Kein Ausfall, 30 Minuten gefilmt. Sieht Toll aus....in 2K.
Was für eine geile 🎥 !!!
In den RAW und Grading Workflow muss ich mich erst noch viel mehr einarbeiten um mir überhaupt eine Meinung über die Bildqualität und Möglichkeiten bilden zu können.
Das ist ein sehr komplexes, für moderne Filme ein essenzielles Werkzeug, zeitaufwendig zu erlernen.
Schön zu lesen das andere Filmer ähnlich denken.
Gruss Boris
Antwort von roki100:
BRAW wird mit der Zeit sicherlich besser.
Antwort von srone:
Valentino hat geschrieben:
Natürlich bei allen Kameras, das liegt einfach an der Tatsache, das ein zusätzliches optisches Element immer zu einer "schlechteren" Abbildung führt.
bei gleichbleibender sensorgrösse ja, hier tritt jedoch gleichzeitig ein anderer fall ein, nehmen wir mal an ein vollformat objektiv löst in der mitte 100 linien/mm auf, mit einen 0,72fach speedbooster bilde ich nun aber 1,4mm des selben objektivs auf 1mm ab, so dass sich die auflösung auf 140 linien/mm steigert, wobei natürlich die frage bleibt, was davon vom speedbooster selber "geschluckt" wird und dass der kontrast leidet, wie du obenschriebst, ist klar, ich störte mich nur an dem "immer", das ist mir zu pauschal.
lg
srone
Antwort von Cinemator:
Ich bin von der P4k ebenfalls begeistert, weil ich spätestens in der Davinci Studio Post genau den Cine Look hinbekomme, den ich möchte. Der muß anderen nicht gefallen. Ich habe mit keiner Kamera bisher so gern gefilmt wie mit der P4k, es macht richtig Spaß.
Es gibt auch keine Benchmark dafür, wie ein Bild aussehen muß und von allen Experten dieser Welt als das Maß aller Dinge abgenickt worden ist und an einem geheimen Ort vor manipulativen Eingriffen aufbewahrt wird. Insofern sind wir doch frei im Gestalten, und genau das gelingt mit der P4k in hervorragender Weise, unterstützt von einem kongenial einfachen Menü.
Ja, und dann muß man nicht 50k Euro investieren, sondern kann schon für unter 3k mit ein bißchen Gedöns um die Kamera herum kinomäßiges Footage produzieren (natürlich nur, wenn alles andere für eine Produktion stimmt). Der pekuniäre und organisatorische Aufwand ist bei mir besonders wichtig.
Das im Test angesprochene Sigma wäre in meinem Fall sicher toll, wenn es einen IS hätte. So bleibe ich bis auf weiteres bei meinen sowieso vorhandenen manuellen Festbrennweiten, unter 16mm kann man auch einigermaßen gut Freihand drehen. Die alte P2k und CC2.5 nutze ich für bestimmte Dinge weiter, ebenso gern die GH5. Sie haben alle ihre eigene Charakteristik, bestimmte Vor- und Nachteile. Ist doch toll.
Antwort von Darth Schneider:
Das mit dem "es macht spasss damit zu filmen" ist finde ich ein guter Punkt.
Die Bedienung macht Spass, das Menü, der tolle grosse Screen, die ganzen Anschlüsse, die oben unten angebrachten Schraubgewinden, sogar die internen Mikros, und nicht zuletzt die grossartigen Codecs, ProRes und RAW.
Die Lowlight Möglichkeiten sind für mich fast schon etwas abnormal, magisch gut...ich kann’s fast nicht glauben.
Da Vinvi Resolve Studio macht auch Spass, braucht aber manchmal, bei komplexeren Szenen viel Zeit und Geduld, mit einem langsamen Rechner...
Ich überlege mir von Mac auf PCs umzusteigen, aber es wird ja geschrieben, Resolve laufe weniger stabil auch PCs. Ist das so ?
Wahrscheinlich schwer zu sagen, mit all den Updates und grossen Änderungen die BMD in letzter Zeit in Resolve so reinprogramiert.
Aufjedenfall, würde ich die Kamera jederzeit wieder kaufen.
Gruss Boris
Antwort von Cinemator:
Boris, ich kann nur sagen, mit einem neueren iMac dürfte Davinci gut laufen (mein 27" ist ein BTO aus 2017 und läuft prima). Es gibt ja eine Koop zwischen BM und Apple, und die wird nach meinem Gefühl künftig eher ausgeweitet.
Antwort von Jott:
Auf der NAB gab's Resolve zum Anfassen nur auf Macs, insofern keine Sorge.
Antwort von roki100:
Ich überlege mir von Mac auf PCs umzusteigen, aber es wird ja geschrieben, Resolve laufe weniger stabil auch PCs. Ist das so ?
Mit PC und MacOS bzw. Hackintosh und gute Nvidia GraKa läuft es besser als unter Windows oder orig. Apple iMac, MacBook Pro & Co. die eine schlechtere GraKa haben.
Natürlich wenn Resolve im Cuda Modus läuft... denn die OpenCL Treiber/Library etc. ist bei MacOS/OSX Systeme veraltet.
Antwort von srone:
und da liegt der hund begraben, auf allen originalen macs gibts kein cuda (nvidia only) da sie alle amd grafikkarten eingebaut haben, ein hackintosh wäre da eine notlösung, wobei wie stabil der dann läuft, lässt sich schwer vorraussagen, also vielleicht doch lieber windows?
lg
srone
Antwort von roki100:
es läuft seht stabil, natürlich alles Intel (Chipsatz, CPU) und GraKa Nvidia... denn mit AMD läuft es instabil. ;)
Allerdings sollte man Nvidia eigenen MacOS Treiber (Web Driver) installieren.
Antwort von Jott:
Blackmagic präsentiert Resolve also nur zur allgemeinen Verwirrung immer auf normalen Macs? Interessant, man lernt nie aus.
https://www.blackmagicdesign.com/de/med ... /334591563
Antwort von srone:
roki100 hat geschrieben:
es läuft seht stabil, natürlich alles Intel (Chipsatz, CPU) und GraKa Nvidia... denn mit AMD läuft es instabil. ;)
Allerdings sollte man Nvidia eigenen MacOS Treiber (Web Driver) installieren.
ist halt was für bastler, wers kann und mag...;-)
lg
srone
Antwort von Darth Schneider:
Wer z.b. vorallem viel mit Fiusion arbeitet für den kann ein Hackintoch schon eine durchaus sinnvolle günstigere Option sein, wenn man einfach Speed braucht und mit Apple O.S. arbeiten will und keine 6000, oder gar 8000 € für einen iMac Pro oder 3000, oder 5000€ für ein Apple Pro Laptop ausgeben kann.
Das Apple es nicht mal schafft einen anständigen 15 Zoll Laptop herauszubringen für 1500 Eier, das finde ich etwas peinlich, ist das denn wirklich zu viel verlangt, heute ?
Gruss Boris
Antwort von roki100:
das mit Hackitosh schon. Ich finde, wenn man nicht so viel Geld ausgeben möchte und auch vll. ein schnelleres System als original. Apple haben möchte, dann kommt man nicht drumherum als lernen, basteln, testen... Was Nvidia betrifft, ich denke, RED verlangt von Apple nicht umsonst signierte Nvidia-Treiber für MacOS Mojave: https://www.golem.de/news/8k-videoschni ... 38338.html
Nvidia ist einfach besser. Nicht die Hardware, sondern die Treiber, die Stabilität. Sei es unter Windows, MacOS, oder unter Linux, AMD Treiber sind einfach instabil.... Bei Windows funktionieren die älteren Treiber öfter besser, doch mit Windows 10 Update werden diese überschrieben... Ein teuflischer Kreislauf und die Kunden sind verärgert. Unter Linux ist der OpenSource Treiber auch nicht gut... Nur unter orig. Apple iMAC, MacPro & Co. da läuft AMD gut, nur eben ohne Cuda.
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Das Apple es nicht mal schafft einen anständigen 15 Zoll Laptop herauszubringen für 1500 Eier, das finde ich etwas peinlich, ist das denn wirklich zu viel verlangt, heute ?
Das Problem ist, dass das bei Apple anders funktioniert bzw. da schaut man nicht nur auf Hardware und bewertet das als gut & günstig - wie das bei PC der Fall ist - sondern, man zahlt für das ganzes System, also samt OS und für die Apple Software die Nachhinein im Apple Store sehr günstig zu erwerben sind: FCP, Apple Motion, Logic Pro X... alles Professionelle Werkzeuge, die unter Windows, etwas ähnliches, jede menge Geld kosten. Allein schon etwas wie GarageBand unter Windows, da zahlt man locker ab 500 bis 2000 EUR. GarageBand ist gratis.
Etwas wie iMovie, was soll man da zum Vergleich nehmen? MovieMaker? ;)
usw. usf.
Und wenn man Apple Support anruft... das ist völlig etwas anderes, als wenn man bei Microsoft anruft und stunden lang in der Warteschleife wartet, um Nachhinein eine Antwort zu bekommen, die einen dazu bringt, noch mehr zu kollabieren und das ganze Windows Ding vom Fenster zu schmeißen... ;)
Antwort von Jott:
"Darth Schneider" hat geschrieben:
Das Apple es nicht mal schafft einen anständigen 15 Zoll Laptop herauszubringen für 1500 Eier, das finde ich etwas peinlich, ist das denn wirklich zu viel verlangt, heute ?
Dass es Mercedes nicht mal schafft, ein anständiges Auto herauszubringen für 15.000 Eier, das finde ich etwas peinlich. Ist das denn wirklich zu viel verlangt, heute?
Auf zu Windows und Rechner-Eigenbau, wieso nicht. Apple muss man wollen und verstehen, wieso das die teurere Option ist. So wie potente Fertig-PCs der großen Hersteller auch sehr teuer sein können. War schon immer so. Kein Genöle ändert das.
Antwort von cantsin:
Habe den Viltrox-Speed Booster in der Nikon-Version und das Sigma 18-35mm/1.8 ebenfalls in der Nikon-Version, und bei mir vignettiert diese Kombination (zumindest bei 18mm Brennweite).
Am Metabones Speed Booster Ultra (nominell ebenfalls 0.71x, aber etwas weniger weitwinklig) vignettiert das Sigma nicht.
Antwort von Sammy D:
srone hat geschrieben:
...
ist halt was für bastler, wers kann und mag...;-)
...
Das war die ersten Jahre bei den Hackintoshs so, aber seit langem sind die idiotensicher, wenn man sich an die Specs hält.
roki100 hat geschrieben:
...
Und wenn man Apple Support anruft... das ist völlig etwas anderes, als wenn man bei Microsoft anruft und stunden lang in der Warteschleife wartet, um Nachhinein eine Antwort zu bekommen, die einen dazu bringt, noch mehr zu kollabieren und das ganze Windows Ding vom Fenster zu schmeißen... ;)
Wenn man planlos ist, kann der Apple Support sicherlich helfen, aber bei wirklichen Problemen ist man besser beraten, in Foren um Hilfe zu fragen oder gleich selbst Hand anzulegen. Der Apple-Kundenservice gibt einem nur das Gefühl besser aufgehoben zu sein.
Antwort von srone:
"Sammy D" hat geschrieben:
srone hat geschrieben:
...
ist halt was für bastler, wers kann und mag...;-)
...
Das war die ersten Jahre bei den Hackintoshs so, aber seit langem sind die idiotensicher, wenn man sich an die Specs hält.
das glaube ich dir gerne, ich bezog mich da eher aufs selber schrauben und installieren an sich, ist ja eigentlich nicht so das ding, der apfel-fraktion...;-)
da ist eher auspacken und loslegen angesagt, wie jott sagen würde...;-)
lg
srone
Antwort von roki100:
"Sammy D" hat geschrieben:
Wenn man planlos ist, kann der Apple Support sicherlich helfen, aber bei wirklichen Problemen ist man besser beraten, in Foren um Hilfe zu fragen oder gleich selbst Hand anzulegen. Der Apple-Kundenservice gibt einem nur das Gefühl besser aufgehoben zu sein.
Die sind freundlich und kümmern sich wenigstens. Auch BM Support ist so, wirklich sehr nett. Naja, auch wenn am Ende das Ergebnis das selbe ist, es ist anders wenn sie dir nett mitteilen "es tut uns sehr sehr leid..." als ein einfaches "nein! Geht nicht!" ;)
Ich hatte einen von Apple Support, der hat sich 2 Wochen mit meinem Problem beschäftigt und in diese 2 Wochen ca. 20 mal bei mir angerufen... das ist doch mal was. :)
Antwort von rush:
Driftet das ganze jetzt echt wieder zu einer Win/Mac Diskussion ab? *gähn*
Lasst Euch Mal was Neues einfallen... Und falls es interessiert: bei mir läuft resolve auch unter Windows recht potent mit 4k braw bei nicht aktuellster Hardware (i7 4770k + 1070GTX).
By the way... Ich nutze das Sigma 18-35 in der Nikon Variante ohne Speedy... Für untenrum noch das eher weiche
10-20 f/3.5 ;-)
Speedy ist mir zu teuer und ich müsste dann doch wieder Schraub-vari-ND's dranpappen... Wobei in Situationen mit wenig Licht könnte man darüber nachdenken - da benötigt man ja dann auch eher keinen ND..
Antwort von cantsin:
@Slashcam - wäre gut zu hören, ob in Eurem Test wirklich kein Vignetting mit der Kombi Viltrox+Sigma aufgetreten ist. Habt ihr sie auch bei 18mm und verschiedenen Blenden getestet?
Die Vignettierung ist am Kameradisplay nicht gut sichtbar, erst nachträglich am Rechner.
Bei diesem Video hier - meinem ersten mit der Pocket 4K - musste ich im Schnitt eine ganze Reihe Einstellungen digital einzoomen, um die schwarzen Ränder loszuwerden:
https://vimeo.com/296482305
(Das ist zu 90% mit der Kombi Viltrox Speedbooster + Sigma 18-35mm gedreht, plus ein paar Teleaufnahmen mit dem Nikon Series E 100mm/2.8 , damals noch in CinemaDNG).
Antwort von srone:
rush hat geschrieben:
Driftet das ganze jetzt echt wieder zu einer Win/Mac Diskussion ab? *gähn*
Lasst Euch Mal was Neues einfallen... Und falls es interessiert: bei mir läuft resolve auch unter Windows recht potent mit 4k braw bei nicht aktuellster Hardware (i7 4770k).
bei mir 1080p mit einem 2500k 16gbyte ram plus rtx 2070...;-)
lg
srone
Antwort von Cinemator:
Also, wenn ich mich auf PC-Basteleien einlassen müsste (weil es z.B. Apple nicht gäbe), würde nicht der PC aus dem Fenster fliegen, sondern ich selber würde springen und der Welt ade‘ sagen.
Antwort von cantsin:
@Slashcam, kann die PC-versus-Mac-Debatte in den Offtopic-Bereich verschoben werden? Danke.
Antwort von Cinemator:
cantsin hat geschrieben:
@Slashcam, kann die PC-versus-Mac-Debatte in den Offtopic-Bereich verschoben werden? Danke.
Na ja, Davinci ist ja quasi ein auf einen Rechner ausgelagerter Teil der BM-Cams und könnte hier durchaus toleriert werden.
Antwort von Jott:
So ist es. Und BM schreibt doch klipp und klar, was sowohl unter Windows als auch auf Mac-Seite die Anforderungen sind? Ist das so schwierig umzusetzen?
Antwort von AndySeeon:
rush hat geschrieben:
Ich nutze das Sigma 18-35 in der Nikon Variante ohne Speedy...
Wie geht das, Nikon an MFT ohne Adapter?
Gruß, Andy
Antwort von srone:
AndySeeon hat geschrieben:
rush hat geschrieben:
Ich nutze das Sigma 18-35 in der Nikon Variante ohne Speedy...
Wie geht das, Nikon an MFT ohne Adapter?
Gruß, Andy
nicht ganz ohne adapter, aber eben ohne speedbooster funktionalität, dh linsenlos.
lg
srone
Antwort von rush:
AndySeeon hat geschrieben:
rush hat geschrieben:
Ich nutze das Sigma 18-35 in der Nikon Variante ohne Speedy...
Wie geht das, Nikon an MFT ohne Adapter?
Gruß, Andy
ND Throttle Adapter... Der adaptiert dumm und ohne Elektronik von Nikon auf mft und hat anstelle der Reduzierlinse einen variablen ND verbaut.
So kannst Du einerseits am Adapter die Blende manuell ziehen und am zweiten Rädchen die ND Stärke regulieren. Etwas funmelig aber ich finds extrem praktisch und angenehm.
Antwort von MrMeeseeks:
So einen habe ich auch. Hat aber 2 Nachteile. Das Bildqualität nimmt durch den ND Filter allgemein leicht ab und ebenfalls hat man immer mindestens eine Blende Lichtstärke weniger.
Canon hat solch einen Adapter ebenfalls für die neue Canon R. Da hat Nikon total geschlafen denn die Dinger sind wirklich praktisch.
Antwort von rush:
Die BQ ist natürlich abhängig vom Filter - allerdings sind Frontfilter (je nach Güte) ja auch nicht immer ideal - so gesehen kann ich damit leben. Ultra scharfe Linsen an ultra scharfen Sony Kameras können das definitiv ab :-)
Und es scheint auch verschiedene Versionen vom Vizelex zu geben - hatte meinen Nikon/Sony damals extra bei B&H bestellt weil bei deutschen Händlern noch eine andere (ältere?) Version verkauft wurde.
Den Nikon/mft Adapter habe ich schon länger rumliegen gehabt - der tut es an der P4k aber auch ganz gut.
Und du sagst es - man hat immer eine minimale ND Filterung, für low light / indoor ist das eher kontraproduktiv - da wäre ein günstiger Speedy durchaus eine sinnvolle Ergänzung über die ich für jene Zwecke nachdenke. Alternativ halt ein ganz billiger ohne alles - da hat man dann zumindest keine optischen Nachteile und die Lichtstärke des Glases.
Daher würde mich neben dem 18-35er auch interessieren ob das 10-20 3.5 und 50-150er "boostbar" sind ohne untenrum zu krass zu vignetieren...
Hat jemand die Nikon Variante des Viltrox? Da scheint es ja keine Version 2 zu geben?
Antwort von rush:
Cinemator hat geschrieben:
Also, wenn ich mich auf PC-Basteleien einlassen müsste (weil es z.B. Apple nicht gäbe), würde nicht der PC aus dem Fenster fliegen, sondern ich selber würde springen und der Welt ade‘ sagen.
Ziemlich eingeschränkte Sicht...
Würdest Du auch aus dem Fenster springen wenn es kein elektrisches Licht gäbe sondern Du stattdessen Feuer machen müsstest?
Ich habe als Teenager ziemlich gern an Rechnern geschraubt - bin da gut bei runtergekommen und konnte mich bestens entspannen... zudem kann etwas handwerkliches Geschick bekanntlich nie schaden ;-)
Heute ist das aber kaum noch nötig da seit Jahren alles ziemlich smooth bei mir läuft... und mal eine neue Steckkarte (z.b. potentere Grafikkarte) einzuschrauben oder einen Speicherriegel einzustecken ist nun wirklich kein Hexenwerk und sollte von einem Laien genauso realisieren zu sein wie das bohren eines Loches in die Wand.
Aber heute ist es ja scheinbar wichtiger den richtigen Kaffebecher in der Hand zu halten und möglichst stylish am Set zu erscheinen *hust*
Aber zurück zum Thema: Nutzt jemand Nikon-Speedbooster Derivate um auf MFT zu adaptieren?
Der Viltrox ist mit unter 100€ in der Nikon Variante sehr günstig (allerdings keine Version II wie für Canon) - der Lens Turbo ist wiederum knapp doppelt so teuer. Lohnt der Aufpreis oder bilden beide vergleichbar ab? Bisher bin ich auch ohne Speedy gut hingekommen aber so ein teil rumliegen zu haben kann ja nicht schaden - insbesondere nicht wenn man günstig rankommt.
Antwort von cantsin:
rush hat geschrieben:
Aber zurück zum Thema: Nutzt jemand Nikon-Speedbooster Derivate um auf MFT zu adaptieren?
Der Viltrox ist mit unter 100€ in der Nikon Variante sehr günstig (allerdings keine Version II wie für Canon) - der Lens Turbo ist wiederum knapp doppelt so teuer.
Ich würde zum Viltrox greifen. Der unterscheidet sich qualitativ weitaus weniger von den Metabones Speed Boostern, als der Preisunterschied vermuten lässt. Unterschiede werden erst bei sehr lichtstarken Objektiven (1.8 und mehr) bei Offenblende sichtbar.
Siehe hier:
https://www.slashcam.de/artikel/Test/Vi ... preis.html
...und hier:
viewtopic.php?t=142796&start=1715#p969434
Antwort von musikseele:
Tja, während ihr hier so schön darüber schwadroniert welche Schnittrechner das Rennen macht, warte ich mit voller Sehnsucht auf meine BMPCC4k die ich Mitte März bei Video Data mit Anzahlung, bestellt habe.
Ich bin gespannt wie sie sich im Gegensatz zur GH5 schlägt. Die habe ich vor kurzem verkauft. Der schlechte Autofocus und das miese Lowlight Verhalten waren die Gründe.
Ich schneide seit Jahren ausschließlich mit Premiere. Der Workflow ist nicht optimal aber ich habe mich daran gewöhnt. Resolve hab ich mir mal angeguckt. Wäre eine lange Einarbeitungsphase, da ich Software immer nach dem ,,try and error“ Prinzip erlerne.
Schande über mich.
So ist das bei mir auch mit Cubase (Audiosequenzer) welches ich schon seit 25 Jahren nutze.
Es gibt unzählige, vielleicht auch bessere Programme. Trotzdem bleibe ich bei dem Erlehrnten.
Mich interessiert brennend wie dieses Plugin BRAW Studio in Premiere CC2019 intrigiert.
Oder ob meine SD Karten SanDisk Extreme 95mb für die ersten shots ausreichen.
Wie lange habt ihr auf eure BMPCC4K gewartet?
Lg
Dennis
Antwort von rush:
Die SD Karten ( wenn extreme pro 95) reichen locker aus - bei mir in BRAW bis 5:1 @ 25p bei 4k.
In Hinblick auf den Autofokus wirst du mit der Pocket 4k sicherlich keinen Sprung nach vorn machen...
Und zu Cubase - das hab ich nie sonderlich gemocht und bin vor einigen Jahren dann zu Reaper gewechselt und seitdem happy weil extrem intuitiv für mein Verständnis und irgendwie logischer aufgebaut.
Antwort von cantsin:
musikseele hat geschrieben:
Ich bin gespannt wie sie sich im Gegensatz zur GH5 schlägt. Die habe ich vor kurzem verkauft. Der schlechte Autofocus und das miese Lowlight Verhalten waren die Gründe.
Hinsichtlich Autofokus wirst Du mit der Pocket 4K noch unglücklicker.
Mich interessiert brennend wie dieses Plugin BRAW Studio in Premiere CC2019 intrigiert.
Die Frage ist, ob Du BRAW überhaupt brauchst, wenn Du mit den Hausmitteln von Premiere arbeitest. Stattdessen könntest Du auch in ProRes-Log drehen. Das Bild ist identisch mit BRAW (bis auf 10bit statt 12bit Farbtiefe).
Antwort von musikseele:
Na ja, dass war mir schon bewusst das der Autofocus nicht Auto ist sondern mehr Touch basierend ist. Habe schon zwei native MFT Optiken hier 12-35 und 35-100 2.8 von Pana.
Ja was Prores angeht....
Ich hab mir letztes Jahr bedingt durch ein 10 spuriges Hochzeitsvideo (10 Perspektiven in der Kirche) einen neuen Rechner zusammen bauen müssen. Musste trotzdem mit Proxy’s arbeiten. Selbst ein Threadripper mit 16/32 cores mit NV 1080 und 64 GB schafft es nicht nativ.
Na ja, und jetzt möchte ich sehr gerne zum experimentieren die volle Suppe der Kamera haben. BRAW klingt interessant und macht dieses ganze riggen mit SSD oder Mega teuren CF Karten obsolet.
Ein Käufer meiner älteren MFT Objektive, schwärmt so sehr von der BMPCC4k obwohl er beruflich mit der URSA Mini zu tun hat.
Aber nochmal die Frage: Wie lange habt ihr auf eure Kamera ab Tag der Bestellung gewartet. Video Data gibt am Telefon keinerlei Auskünfte über die Position in der Warteliste.
Antwort von musikseele:
Ja Reaper hab vor Jahren mal installiert.
Fand das Geschäftsmodell sehr fair.
Es hat sich bis heute, wie ich beobachtet habe, auch einiges getan.
So gerne würde ich After effects erlernen.
Das geht aber mit meiner try and error Herangehensweise überhaupt nicht.
Tutorials sind bestimmt gut zum einsteigen, es fehlt so ein bisschen Zeit und die Notwendigkeit.
Antwort von cantsin:
musikseele hat geschrieben:
Ja was Prores angeht....
Ich hab mir letztes Jahr bedingt durch ein 10 spuriges Hochzeitsvideo (10 Perspektiven in der Kirche) einen neuen Rechner zusammen bauen müssen. Musste trotzdem mit Proxy’s arbeiten. Selbst ein Threadripper mit 16/32 cores mit NV 1080 und 64 GB schafft es nicht nativ.
Na ja, und jetzt möchte ich sehr gerne zum experimentieren die volle Suppe der Kamera haben. BRAW klingt interessant und macht dieses ganze riggen mit SSD oder Mega teuren CF Karten obsolet.
BRAW erzeugt sowohl Dateigrößen, als auch Systemlast, die mit ProRes ungefähr gleichauf liegen. In Resolve. Bei der Plugin-Lösung mit Premiere würde ich erst einmal testen, ob das, was Du Dir da vorstellst, in der Praxis auch funktioniert.
Antwort von Sammy D:
musikseele hat geschrieben:
Na ja, dass war mir schon bewusst das der Autofocus nicht Auto ist sondern mehr Touch basierend ist. Habe schon zwei native MFT Optiken hier 12-35 und 35-100 2.8 von Pana.
...
Ich hoffe, dir ist klar, dass der Touchfocus teilweise extrem pumpt und der Fehlfokus bei 20-30% liegt? Im Bewegtbild kann man den nicht benutzen.
Antwort von thadeusz:
musikseele hat geschrieben:
Aber nochmal die Frage: Wie lange habt ihr auf eure Kamera ab Tag der Bestellung gewartet. Video Data gibt am Telefon keinerlei Auskünfte über die Position in der Warteliste.
Ich hab 4 Monate bei Video Data gewartet. Da kamen zwei hoffnungmachende Mails dazwischen, aber dann dauerte es eben doch recht lange. Es ist tatsächlich eine tolle Kamera. Die Bedienung ist einfach ein Traum, vor allem wenn man sich seit Jahren mit Sony rumquält. Ich schaue auch auf die getestete Kombi des Sigma+Viltrox, bin allerdings noch etwas skeptisch wegen der Bildqualität offenblendig. Ich habe dies auch schon mit anderen Canon-Objektiven bemerkt und will da noch etwas testen. Mit nativen Linsen solltest du da besser fahren. Das Panasonic 12-35 finde ich auch interessant.
Antwort von Jott:
Mir scheint, das (Fokus) und die biegenden Balken bei mft-Standardzooms (Geometriekorrektur erforderlich, macht jede Systemkamera, die BM aber nicht) ist den Pocket-Begeisterten oft nicht klar, oder sie haben nie gerade Linien (wie Fenster, Türen ...) in ihren Motiven.
Ich wünsch dir, dass du deiner GH5 nicht hinterher trauern wirst.
Antwort von rush:
musikseele hat geschrieben:
Aber nochmal die Frage: Wie lange habt ihr auf eure Kamera ab Tag der Bestellung gewartet?
Lg
Dennis
Gar nicht... hatte eigentlich nicht vor gehabt sie zu kaufen.
Irgendwann durch Zufall dann wieder mal was quer gelesen hier im Forum zur Pocket und zu Händlern in den Nachbarländern wie Holland... und da war dann tatsächlich noch eine auf "Lager" - und 2 Tage später hatte ich sie hier.
By the way: Der besagte Holländer ( wurde hier im Forum schon an anderer Stelle verlinkt) hat aktuell wieder was auf Lager...
Antwort von Cinemator:
musikseele hat geschrieben:
Aber nochmal die Frage: Wie lange habt ihr auf eure Kamera ab Tag der Bestellung gewartet. Video Data gibt am Telefon keinerlei Auskünfte über die Position in der Warteliste.
Hatte im März 2018 bei VD bestellt und angezahlt. Bis zur Lieferung vergingen 6 Monate. Die zweite P4k kam dann 1 Monat später. Vermutlich hat hier jeder andere Erfahrungen.
Antwort von funkytown:
Jott hat geschrieben:
Mir scheint, das (Fokus) und die biegenden Balken bei mft-Standardzooms (Geometriekorrektur erforderlich, macht jede Systemkamera, die BM aber nicht) ist den Pocket-Begeisterten oft nicht klar, oder sie haben nie gerade Linien (wie Fenster, Türen ...) in ihren Motiven.
Ich wünsch dir, dass du deiner GH5 nicht hinterher trauern wirst.
Ich habe der GH5 keine Sekunde nachgetrauert. Dieses Gefummel mit Knöpchen und Menü ist eine Zumutung. Und die Umwandlung des Codec in ProRes nervt einfach nur. Was die Objektive an der Pocket4K betrifft: Da gibt es ja nun wirklich genügend Alternativen zu den MFT-Zooms: Addaptierte Canon und Nikons oder Festbrennweiten von Samyang und Voigtländer. Ich persönliche filme ohnehin fast immer "nur" mit 35mm.
Antwort von achtpfund:
cantsin hat geschrieben:
Ich würde zum Viltrox greifen. Der unterscheidet sich qualitativ weitaus weniger von den Metabones Speed Boostern, als der Preisunterschied vermuten lässt. Unterschiede werden erst bei sehr lichtstarken Objektiven (1.8 und mehr) bei Offenblende sichtbar.
Kann mir jemand bitte den Sinn eines Speedboosters erklären, der eigentlich nur nutzbar ist, wenn man abblendet?
Antwort von -paleface-:
Was ist eigentlich der "VIDEO" Button im BRAW RAW Tab?
Im Manuel steht nur:
Check the Box to set your Black-Levels to Video
Das bedeutet im Klartext, was?
Antwort von funkytown:
achtpfund hat geschrieben:
cantsin hat geschrieben:
Ich würde zum Viltrox greifen. Der unterscheidet sich qualitativ weitaus weniger von den Metabones Speed Boostern, als der Preisunterschied vermuten lässt. Unterschiede werden erst bei sehr lichtstarken Objektiven (1.8 und mehr) bei Offenblende sichtbar.
Kann mir jemand bitte den Sinn eines Speedboosters erklären, der eigentlich nur nutzbar ist, wenn man abblendet?
Die Frage implizit eine falsche Annahme. Lass mich Dir kurz den Sinn von Speedboostern in wenigen Sätzen erklären. Die meisten Filmer verwenden sie, um möglichst wenig Schärfentiefe zu bekommen (einige würden auch Filmlook dazu sagen). Die Schärfentiefe ist abhängig von der gewählten Blende, der Sensorgröße und dem Abstand zum Motiv.
Ein Beispiel: Beim Filmen nutzt man gerne Brennweiten um die 35mm. Mit Blende f2 und 2 Meter Abstand zum Motiv hat man bei einer Vollformatkamera rund 40cm Schärfentiefe. Will ich das gleiche am MFT-Sensor bekommen, brauche ich ein 17.5mm Objekt, welches sehr lichtstark ist, z.B. das Voigtländer Nokton 17.5/0.95. Mit einem Speedbooster kann ich einen Mittelweg gehen. Hier nutze ich dann ein 24mm / 1.4 Objektiv um zum gleichen Ergebnis zu kommen.
Und was das Abblenden betrifft: Die meisten nutzen bei Offenblende einen Graufilter, um eben nicht abblenden zu müssen.
Antwort von Sammy D:
funkytown hat geschrieben:
achtpfund hat geschrieben:
Kann mir jemand bitte den Sinn eines Speedboosters erklären, der eigentlich nur nutzbar ist, wenn man abblendet?
Die Frage implizit eine falsche Annahme. Lass mich Dir kurz den Sinn von Speedboostern in wenigen Sätzen erklären. Die meisten Filmer verwenden sie, um möglichst wenig Schärfentiefe zu bekommen (einige würden auch Filmlook dazu sagen). Die Schärfentiefe ist abhängig von der gewählten Blende, der Sensorgröße und dem Abstand zum Motiv.
Ein Beispiel: Beim Filmen nutzt man gerne Brennweiten um die 35mm. Mit Blende f2 und 2 Meter Abstand zum Motiv hat man bei einer Vollformatkamera rund 40cm Schärfentiefen. Will ich das gleiche am MFT-Sensor bekommen, brauche ich ein 17.5mm Objekt, welches sehr lichtstark ist, z.B. das Voigtländer Nokton 17.5/0.95. Mit einem Speedbooster kann ich einen Mittelweg gehen. Hier nutze ich dann ein 24mm / 1.4 Objektiv um zum gleichen Ergebnis zu kommen.
Und was das Abblenden betrifft: Die meisten nutzen bei Offenblende einen Graufilter, um eben nicht abblenden zu müssen.
Achtpfund meint vermutlich, dass sich der Viltrox bei offenblendigen Lichtriesen nicht vernünftig nutzen lässt und stellt daher dessen Sinn in Frage.
Allerdings kann dies wiederum ein Vorteil sein. Nämlich dann, wenn ein Objektiv bei Offenblende nicht gut abbildet und ich abblenden muss, verliere ich im Idealfall mit dem Focalreducer keine oder nur eine Blende; konstant gute Qualität des Reduzierers vorausgesetzt.
 |
Antwort von achtpfund:
"Sammy D" hat geschrieben:
Allerdings kann dies wiederum ein Vorteil sein. Nämlich dann, wenn ein Objektiv bei Offenblende nicht gut abbildet..
..was ja bei dieser "Traumkombi" mit dem Sigma 18-35 1.8 nicht der Fall wäre.
Antwort von funkytown:
achtpfund hat geschrieben:
"Sammy D" hat geschrieben:
Allerdings kann dies wiederum ein Vorteil sein. Nämlich dann, wenn ein Objektiv bei Offenblende nicht gut abbildet..
..was ja bei dieser "Traumkombi" mit dem Sigma 18-35 1.8 nicht der Fall wäre.
Ich habe auch das Sigma, aber an der Pocket ist mir das Teil deutlich zu schwer. Hier ist mir der Zugewinn für ein Zoom zu schwer "erkauft". Da arbeite ich lieber mit dem Voigtländer 17.5mm oder mit anderen Festbrennweiten am Speedbooster. Für ein Interviewset ist natürlich das Sigma die erste Wahl.
Antwort von rush:
funkytown hat geschrieben:
achtpfund hat geschrieben:
..was ja bei dieser "Traumkombi" mit dem Sigma 18-35 1.8 nicht der Fall wäre.
Ich habe auch das Sigma, aber an der Pocket ist mir das Teil deutlich zu schwer. Hier ist mir der Zugewinn für ein Zoom zu schwer "erkauft". Da arbeite ich lieber mit dem Voigtländer 17.5mm oder mit anderen Festbrennweiten am Speedbooster. Für ein Interviewset ist natürlich das Sigma die erste Wahl.
Handheld mag das mit dem Gewicht des Sigmas stimmen - aber auf'm Stativ oder Schulterrig ist es eine ziemlich gute und äußerst flexible Kombination.
Ich nutze Festbrenner (16mm t/2.2) eigentlich nur auf'm Gimbal - ansonsten greife ich zu adaptierten Sigma-Zooms.
Antwort von Frank Glencairn:
Wenn du mit sowas überfordert bist, kannst du dir die Kiste ja von jemandem zusammen stecken lassen der es drauf hat. Wo ist das Problem?
Antwort von cantsin:
funkytown hat geschrieben:
achtpfund hat geschrieben:
Kann mir jemand bitte den Sinn eines Speedboosters erklären, der eigentlich nur nutzbar ist, wenn man abblendet?
Die Frage implizit eine falsche Annahme. Lass mich Dir kurz den Sinn von Speedboostern in wenigen Sätzen erklären. Die meisten Filmer verwenden sie, um möglichst wenig Schärfentiefe zu bekommen (einige würden auch Filmlook dazu sagen).
Dem würde ich klar widersprechen. Selbst bei Blende 2.8, Brennweite 25mm und einem MFT-Sensor ist es schwierig, eine Person bei einem Interview so zu filmen, das Teile des Gesichts (wie z.B. Nase oder Augen) nicht unscharf werden. Normalerweise filmt kein Mensch bei f1.8, selbst nicht bei kleineren Sensoren/Filmgrößen. Ich habe einmal einen 16mm-Dreh verpatzt, weil ich eine sitzende Person mit Offenblende f1.8 gedreht habe. (16mm entspricht einer Sensorgröße von 2/3", also einem Viertel von MFT....)
Ein Speedbooster löst zwei Probleme:
der Tele-Crop von Objektiven, die eigentlich für größere Sensoren bzw. Filmformate konstruiert wurden, wird wieder kompensiert. D.h. ein per Speed Booster an MFT adaptiertes APS-C-Normalobjektiv (wie z.B. das Sigma 30mm/1.4 oder Nikon DX 35mm/1.8) bleibt auch an MFT ein Normalobjektiv; adaptierte APS C-Weitwinkelobjektive bleiben weitwinklig.
die Lichtstärke nimmt um eine Blende zu (bzw. man kann die ISO der Kamera halbieren). Dieser Vorteil geht auch nicht verloren, wenn man das Objektiv abblendet. (Ein auf f4 abgeblendetes Objektiv ist an einem Speed Booster doppelt so lichtstark wie an einem konventionellen Adapter.)
Der Qualitätsunterschied vom originalen Metabones Speed Booster zu den Nachbauten ist, dass er auch bei Offenblende sehr gute optische Qualität liefert - bei den modernen, i.d.R. teuren Objektiven (Sigma Art & Co.), die bei Offenblende hoch auf lösen. Wenn man dies nicht braucht (entweder, weil man nie mit Offenblende filmt oder weil man ältere/preiswerte Objektive verwendet, die bei Offenblende sowieso niedrig auflösen), kann man auch zur Viltrox-Sparlösung greifen.
Antwort von achtpfund:
cantsin hat geschrieben:
Ein Speedbooster löst zwei Probleme:
der Tele-Crop von Objektiven, die eigentlich für größere Sensoren bzw. Filmformate konstruiert wurden, wird wieder kompensiert. D.h. ein per Speed Booster an MFT adaptiertes APS-C-Normalobjektiv (wie z.B. das Sigma 30mm/1.4 oder Nikon DX 35mm/1.8) bleibt auch an MFT ein Normalobjektiv; adaptierte APS C-Weitwinkelobjektive bleiben weitwinklig.
die Lichtstärke nimmt um eine Blende zu (bzw. man kann die ISO der Kamera halbieren). Dieser Vorteil geht auch nicht verloren, wenn man das Objektiv abblendet. (Ein auf f4 abgeblendetes Objektiv ist an einem Speed Booster doppelt so lichtstark wie an einem konventionellen Adapter.)
Der Qualitätsunterschied vom originalen Metabones Speed Booster zu den Nachbauten ist, dass er auch bei Offenblende sehr gute optische Qualität liefert - bei den modernen, i.d.R. teuren Objektiven (Sigma Art & Co.), die bei Offenblende hoch auf lösen. Wenn man dies nicht braucht (entweder, weil man nie mit Offenblende filmt oder weil man ältere/preiswerte Objektive verwendet, die bei Offenblende sowieso niedrig auflösen), kann man auch zur Viltrox-Sparlösung greifen.
Sorry, das überzeugt mich nicht.
"Problem" 1 könnte andersherum auch ein Segen sein, wenn man Objekte filmen möchte, die weiter entfernt sind. Zudem umschifft man bei einigen Objektiven für größere Sensoren baubedingte Unzulänglichkeiten wie Randunschärfen und Verzerrungen.
Bei "Problem" 2 könnte man auch sagen, dass man nur auf f4 abblenden muss, weil der Viltrox offenblendig so schlecht ist, d.h. den Zugewinn von Lichtstärke müsste man gegen eine offenere Blende bei einem glaslosen Adapter rechnen.
cantsin hat geschrieben:
Normalerweise filmt kein Mensch bei f1.8, selbst nicht bei kleineren Sensoren/Filmgrößen.
Das würde ich auch nicht unterschreiben. Gerade bei mft sind viele auf der Suche nach weniger DOF.
Antwort von -paleface-:
Ich nutze den Speedbooster für mehr Weitwinkel mit meinen EF Objektiven.
Warum ich kein MFT Objektiv nutze?
Weil EF Objektive flexibler sind. MFT Objektive sind halt nur für MFT.
Daher investiere ich lieber in EINEN Adapter und kann so aber 15 EF Linsen Nutzen.
Und hab nicht 15EF und 6 MFT Objektive.
Ich hab aber auch mehrere Kameras.
Wenn jemand nur ne Pocket nutzt und die für die nächsten 10 Jahre...dann würde ich auch native Linsen nehmen.
Mehr Lichtstärke in Ausnahmesituationen ist auch nett.
Antwort von cantsin:
achtpfund hat geschrieben:
"Problem" 1 könnte andersherum auch ein Segen sein, wenn man Objekte filmen möchte, die weiter entfernt sind. Zudem umschifft man bei einigen Objektiven für größere Sensoren baubedingte Unzulänglichkeiten wie Randunschärfen und Verzerrungen.
Durch das Reincroppen vermindert sich aber gleichzeitig die optische Auflösung des Objektivs. Gerade kleinere Sensoren wie MFT brauchen für 4K hohe optische Auflösungen der Objektive von über 100 lp/mm. Ein Speedbooster erhöht diese Auflösung durch Bündelung des Lichts auf eine kleinere Oberfläche.
Bei "Problem" 2 könnte man auch sagen, dass man nur auf f4 abblenden muss, weil der Viltrox offenblendig so schlecht ist, d.h. den Zugewinn von Lichtstärke müsste man gegen eine offenere Blende bei einem glaslosen Adapter rechnen.
cantsin hat geschrieben:
Normalerweise filmt kein Mensch bei f1.8, selbst nicht bei kleineren Sensoren/Filmgrößen.
Das würde ich auch nicht unterschreiben. Gerade bei mft sind viele auf der Suche nach weniger DOF.
Man kann Offenblende 1.8 noch sinnvoll bei großen Entfernungen einsetzen, z.B. wenn man eine Bühne filmt. Ansonsten ist das eher etwas für Bokeh-Porn-Jünger, die in einem Amateurvideo-Hype von vor zehn Jahren festsitzen.
Antwort von achtpfund:
cantsin hat geschrieben:
Man kann Offenblende 1.8 noch sinnvoll bei großen Entfernungen einsetzen, z.B. wenn man eine Bühne filmt. Ansonsten ist das eher etwas für Bokeh-Porn-Jünger, die in einem Amateurvideo-Hype von vor zehn Jahren festsitzen.
Hast Recht. Aus Angst, bei 400% Vergrößerung den Schärfepunkt der Nasenspitze zu verfehlen und nur die Wimper zu treffen, eine Tiefenschärfen-Orgie a la "Fear and Loathing in Vegas" abzufeuern, wird in der heutigen Zeit das Richtige sein.
Nur, dass Terry Gilliam die einzige rechtfertigbare Motivation dafür besaß, den Zuschauer durchgängig in einem Meer an unakzentuierten Eindrücken schwimmen zu lassen:
die Visualisierung eines Drogentrips.
Antwort von roki100:
cantsin hat geschrieben:
Man kann Offenblende 1.8 noch sinnvoll bei großen Entfernungen einsetzen, z.B. wenn man eine Bühne filmt. Ansonsten ist das eher etwas für Bokeh-Porn-Jünger, die in einem Amateurvideo-Hype von vor zehn Jahren festsitzen.
Ich habe erst vor kurzem entdeckt wie toll das aussieht, draußen beim sonnigen Tag, wenn man mit Offenbarende 1.7 (+ ND Filter) eine Blume oder Gesichter filmt, mit verschwommenen Background und dachte mir wow und lese nun das von dir. ;)
Antwort von Funless:
roki100 hat geschrieben:
cantsin hat geschrieben:
Man kann Offenblende 1.8 noch sinnvoll bei großen Entfernungen einsetzen, z.B. wenn man eine Bühne filmt. Ansonsten ist das eher etwas für Bokeh-Porn-Jünger, die in einem Amateurvideo-Hype von vor zehn Jahren festsitzen.
Ich habe erst vor kurzem entdeckt wie toll das aussieht, draußen beim sonnigen Tag, wenn man mit Offenbarende 1.7 (+ ND Filter) eine Blume oder Gesichter filmt, mit verschwommenen Background und dachte mir wow und lese nun das von dir. ;)
Wo er mit ...
cantsin hat geschrieben:
eher etwas für Bokeh-Porn-Jünger, die in einem Amateurvideo-Hype von vor zehn Jahren festsitzen.
... Recht hat, hat er nunmal Recht. Das ist einer der größten wanna-be-cinematic Hypes von Amateurfilmern weil sie denken, damit geil cinematisches Footage zu generieren.
Vor allem witzig, denn war dieser Bokeh-Porn in professionellen Cinema-Produktionen noch nie (und wirklich nie) von Bedeutung. Egal welche Filme du dir aus welchem Jahrzehnt auch anschaust, wirst du diesen inflationären Bokeh-Einsatz in keinem Film vorfinden. Bokeh hat mit "cinematisch" genauso viel gemein wie eine Kuh mit Eier legen.
Antwort von MrMeeseeks:
Funless...dummes Gequatsche.
Freistellung..wie der Name schon sagt...dient zur Freistellung und Hervorhebung. Wie es schon seit Jahren in der Portrait-Fotografie genutzt wird. Es ist ein Stilmittel und wird auch bei vielen hochwertigen Produktionen genutzt...und das auch noch viele Jahre lang.
Nur weil ihr Hipster-Iphone-Kneipenfilmer sowas nicht braucht, heisst es nicht es hätte keinen aktuellen Nutzen.
https://youtu.be/SBQ246uqSSE?t=296
In jedem Film kann man unzählige ähnliche Stellen finden.
Antwort von Darth Schneider:
...Ein scheinbar gewichtiges Stilmittel ist diese Art von Freistellung schon, schau mal im Kino oder im Tv, praktisch alle Filme sind voll damit.
Gruss Boris
Antwort von funkytown:
Funless hat geschrieben:
Egal welche Filme du dir aus welchem Jahrzehnt auch anschaust, wirst du diesen inflationären Bokeh-Einsatz in keinem Film vorfinden. Bokeh hat mit "cinematisch" genauso viel gemein wie eine Kuh mit Eier legen.
Das ist wirklich ziemlicher dümmlicher Käse.
Antwort von Funless:
Wie süß eure Reaktionen .. „dummes Gequatsche“, „Hipster-iPhone-Filmer“, „dümmlicher Käse“. ^^
Sagt mal ihr Schlaumeier, welchen Teil von „inflationären Bokeh-Einsatz“ habt ihr nicht verstanden? Ist der Terminus „inflationär“ vielleicht zu hoch für euch?
Richtig ist, dass die Freistellung ein Stilmittel ist welches in einer Produktion bei der richtigen Situation der Bildsprache eingesetzt wird und pro Take maximal 30-60 Sek. dauert (wobei 60 Sekunden sogar schon zu lang sind) bei einem Film der im Durchschnitt 90 Min. dauert. Und dann kommt ihr noch mit genau solchen Beispielen um die Kurve die mein gesagtes nur bestätigen, anstelle zu widerlegen.
Nennt mir nur einen einzigen Mainstream Film mit einer Laufzeit von min. 90 Minuten in dem zusammengenommen mindestens 50% der Laufzeit nur Bokeh Takes sind (also mindestens 45 Minuten) und ich nehme dann alles zurück was ich geschrieben habe. Wie gesagt, Mainstream keine Arthouse Experimental Gülle.
Bis dahin gilt:
Erst richtig lesen, dann nachdenken und dann quatschten.
Funless has spoken! 😬
Antwort von Darth Schneider:
Überzeugend geschrieben...
Aber Trotzdem, höchst wahrscheinlich z.b. die meisten mehr oder weniger die ganzen Woody Allan Filme ? Und auch viele romantische Filme...? Dramas ?
Aber Vieleicht liege ich auch falsch, ich schaue ja die Filme auch nicht mit einer Stopuhr.
Gruss Boris
Antwort von achtpfund:
Funless hat geschrieben:
Nennt mir nur einen einzigen Mainstream Film mit einer Laufzeit von min. 90 Minuten in dem zusammengenommen mindestens 50% der Laufzeit nur Bokeh Takes sind (also mindestens 45 Minuten) und ich nehme dann alles zurück was ich geschrieben habe.
Auf Anhieb fällt mir Soderberghs „Solaris“ ein.
Und dass Hollywood-Produktionen sich auch Mal Shots mit größerer Tiefenschärfe leisten, hat etwas mit
Production Value zu tun. Wenn der Hintergrund gut zu erkennen ist, soll es auch so sein und alles ist penibel genau geplant.
Das hat aber mit dem, was die meisten Videoleute hierzulande veranstalten, wenig zu tun.
Mit nem Handheldrig in Blende 8 völlig unmotiviert aufs Motiv zu halten, naja..zumindest ist alles scharf.
Ein Beispiel:
Das sterbenslangweilige Büro von Fleischermeister Schmidt ist wunderbar im Bokeh zu versenken, Lichtsetzungskenntnisse vorausgesetzt.
Oder man machts richtig und engagiert einen Production Designer.
Ob da Meister Schmidt aber mitmacht, bezweifle ich.
Antwort von srone:
achtpfund hat geschrieben:
Ein Beispiel:
Das sterbenslangweilige Büro von Fleischermeister Schmidt ist wunderbar im Bokeh zu versenken, Lichtsetzungskenntnisse vorausgesetzt.
Oder man machts richtig und engagiert einen Production Designer.
Ob da Meister Schmidt aber mitmacht, bezweifle ich.
ich nicht, der wird doch bestimmt auch auf schweinchenrosa stehen...;-)
lg
srone
Antwort von iasi:
Schärfentiefe ist doch Teil der Filmsprache und ein Ausdrucksmittel.
Die Wirkung kann man gezielt einsetzen.
Übrigens:
Wer immer von cinematisch spricht, hat wohl noch nicht viele Filme gesehen.
Es gibt nicht diesen einen Kino-Look.
Antwort von srone:
iasi hat geschrieben:
Übrigens:
Wer immer von cinematisch spricht, hat wohl noch nicht viele Filme gesehen.
Es gibt nicht diesen einen Kino-Look.
nein, den gibt es natürlich nicht, jedoch würde ich cinematisch eher konträr zu videolook sehen, alles was darüber hinaus geht und da sind wir eben schnell bei einer gewissen tiefenunschärfe, tv nutzt 2/3 sensoren, film s-35 und darüber...;-)
lg
srone
Antwort von Funless:
Meister Schmidt, tja ... In der Werbung werden selbstverständlich größtenteils Bokeh-Shots verwendet, ist ja auch logisch schließlich soll die Aufmerksamkeit nicht vom angepriesenen Produkt abgelenkt werden. Nur .... ich redete nicht von Werbung.
Und Solaris besteht nicht aus mindestens 50% aus Bokeh-Takes. Man muss einen Film auch nicht mit der Stoppuhr in der Hand gucken, es reicht einfach beim Schauen ein klein wenig aufmerksamer zu sein. Wie von iasi richtig geschrieben: gezielt einsetzen und nicht einen gesamten Film mit 15cm Tiefenschärfe abdrehen.
Antwort von iasi:
srone hat geschrieben:
iasi hat geschrieben:
Übrigens:
Wer immer von cinematisch spricht, hat wohl noch nicht viele Filme gesehen.
Es gibt nicht diesen einen Kino-Look.
nein, den gibt es natürlich nicht, jedoch würde ich cinematisch eher konträr zu videolook sehen, alles was darüber hinaus geht.
lg
srone
videolook ... auch so ein Wort ...
Es gibt doch eigentlich nur den für die Aussage des Films passenden Look.
Die sieben Samurai
Aspect Ratio 1.33 : 1
Also altes TV-Format. :)
Und doch ...
Antwort von iasi:
Funless hat geschrieben:
gezielt einsetzen und nicht einen gesamten Film mit 15cm Tiefenschärfe abdrehen.
Wobei es für Thema und Aussage eines Filmes vielleicht auch das geeignete Gestaltungsmittel sein könnte - 90 Minuten lang.
Mir käme da durchaus auch spontan eine Grundidee in den Sinn.
Antwort von Funless:
Ich kann mir durchaus vorstellen, dass es im Arthouse-Experimental Bereich bestimmt einige 90-Minüter gibt die ausschließlich aus extrem s-DOF Takes bestehen. Jedoch nicht bei Mainstream, dabei bleibe ich.
Antwort von roki100:
Funless hat geschrieben:
Meister Schmidt, tja ... In der Werbung werden selbstverständlich größtenteils Bokeh-Shots verwendet, ist ja auch logisch schließlich soll die Aufmerksamkeit nicht vom angepriesenen Produkt abgelenkt werden. Nur .... ich redete nicht von Werbung.
Es geht doch darum, auf den Vordergrund zu fokussieren, die Aufmerksamkeit dahin zu lenken.... wen interessiert schon Hintergrund, der wird erst mit DOF interessant schöner. :)
Antwort von srone:
iasi hat geschrieben:
srone hat geschrieben:
nein, den gibt es natürlich nicht, jedoch würde ich cinematisch eher konträr zu videolook sehen, alles was darüber hinaus geht.
lg
srone
videolook ... auch so ein Wort ...
Es gibt doch eigentlich nur den für die Aussage des Films passenden Look.
Die sieben Samurai
Aspect Ratio 1.33 : 1
Also altes TV-Format. :)
Und doch ...
jetzt hör aber auf, mit den alten asian takes, die sind ein traum, dafür gehe ich einmal im monat ins kommunale kino hier in freiburg, mehr film geht nicht...:-)
lg
srone
Antwort von Funless:
srone hat geschrieben:
iasi hat geschrieben:
videolook ... auch so ein Wort ...
Es gibt doch eigentlich nur den für die Aussage des Films passenden Look.
Die sieben Samurai
Aspect Ratio 1.33 : 1
Also altes TV-Format. :)
Und doch ...
jetzt hör aber auf, mit den alten asian takes, die sind ein traum, dafür gehe ich einmal im monat ins kommunale kino hier in freiburg, mehr film geht nicht...:-)
lg
srone
Oha, alte Asia Takes und dann am besten noch in Shaw-Scope *schwärm*
Jetzt haste mich kirre gemacht und meine Film-guck-Pläne für heute durcheinander gebracht.
Gerade im zweiten Clip ein sehr gutes Beispiel für gezielte Freistellung aber auch für hervorragende Bildkomposition im Ganzen in der die Freistellung nur ein kleiner Teil davon ist.
Aber ich hab den Thread jetzt genug ins OT gekapert.
Bitte wieder zum ursprünglichen Thema zurück (Blackmagic RAW in der Pocket Cinema 4K - Dream Team mit Viltrox EF-M2 und Sigma 18-35?)
Antwort von srone:
Funless hat geschrieben:
srone hat geschrieben:
jetzt hör aber auf, mit den alten asian takes, die sind ein traum, dafür gehe ich einmal im monat ins kommunale kino hier in freiburg, mehr film geht nicht...:-)
lg
srone
Oha, alte Asia Takes und dann am besten noch in Shaw-Scope *schwärm*
Jetzt haste mich kirre gemacht und meine Film-guck-Pläne für heute durcheinander gebracht.
Gerade im zweiten Clip ein sehr gutes Beispiel für gezielte Freistellung aber auch für hervorragende Bildkomposition im Ganzen in der die Freistellung nur ein kleiner Teil davon ist.
Aber ich hab den Thread jetzt genug ins OT gekapert.
Bitte wieder zum ursprünglichen Thema zurück (Blackmagic RAW in der Pocket Cinema 4K - Dream Team mit Viltrox EF-M2 und Sigma 18-35?)
achso, so einfach gibst du auf, nö da geht noch mehr...;-)
lg
srone
Antwort von Funless:
Was geht noch mehr? Noch mehr Asia Takes? Das Internet ist voll davon, die findet nun wirklich jedes Kind, dafür braucht‘s mich nicht.
Antwort von cantsin:
Funless hat geschrieben:
Und Solaris besteht nicht aus mindestens 50% aus Bokeh-Takes.
Und selbst wenn wir die mal analysieren...
zum Bild
Ich behaupte mal, dass selbst dieser Shot bestenfalls mit Blende 2.8 aufgenommen wurde. Dem Bild nach zu urteilen, wurde eine Normalbrennweite verwendet. Hier mal ein Vergleich mit einem DoF-Simulator (s35-Sensorgrösse, 35mm Brennweite, Blende 2.8, Abstand zum Darsteller 50cm, zum Hintergrund 3m):
doF.JPG
Eine Fernsehserie, bei der viele Aufnahmen laut deren DoP tatsächlich bei Offenblende mit lichtstarken (f1.4-) Objektiven gedreht wurden, ist "The Handmaid's Tale":
zum Bild
zum Bild
Das ist aber ein Extremlook, der selten zu sehen ist.
Antwort von achtpfund:
cantsin hat geschrieben:
Ich behaupte mal, dass selbst dieser Shot bestenfalls mit Blende 2.8 aufgenommen wurde. Dem Bild nach zu urteilen, wurde eine Normalbrennweite verwendet. Hier mal ein Vergleich mit einem DoF-Simulator (s35-Sensorgrösse, 35mm Brennweite, Blende 2.8, Abstand zum Darsteller 50cm, zum Hintergrund 3m):
Jetzt wird's aber albern.
Wir haben von dem Anteil der "Bokeh-Shots" und nicht der Shots mit offener Blende gesprochen.
Unter "Bokeh-Shots" verstehe ich, dass ein Element in der Bildgestaltung klar vom Vorder-/Hintergrund abgesetzt wird.
Um aber wieder auf das Thema zurückzukommen, versuchs doch praktisch:
Kriegst du so einen ähnlichen "Bokeh-Shot" mit dem Viltrox SB und dem 18-35 hin?
Der Helm ist vorn und hinten unscharf, das Gesicht knackscharf. Und der Hintergrund ist niemals 3,7m entfernt, eher 2-3.
Das würde mich wirklich interessieren.
Antwort von cantsin:
achtpfund hat geschrieben:
cantsin hat geschrieben:
Ich behaupte mal, dass selbst dieser Shot bestenfalls mit Blende 2.8 aufgenommen wurde. Dem Bild nach zu urteilen, wurde eine Normalbrennweite verwendet. Hier mal ein Vergleich mit einem DoF-Simulator (s35-Sensorgrösse, 35mm Brennweite, Blende 2.8, Abstand zum Darsteller 50cm, zum Hintergrund 3m):
Jetzt wird's aber albern.
Wir haben von dem Anteil der "Bokeh-Shots" und nicht der Shots mit offener Blende gesprochen.
Die Ausgangsfrage/-behauptung war, dass man Speedbooster einsetzt, um geringere Tiefenschärfe erzielen. Der habe ich widersprochen, da man bereits mit Blenden unterhalb von f4, ohne Speedbooster, einen Menschen kaum noch scharf porträtieren kann.
Und für die hier im Forum größtenteils vertretenen DIY-Filmer sind extreme Offenblenden sowieso keine gute Idee, weil man dafür professionelle Focuspuller braucht.
Antwort von funkytown:
cantsin hat geschrieben:
Die Ausgangsfrage/-behauptung war, dass man Speedbooster einsetzt, um geringere Tiefenschärfe erzielen. Der habe ich widersprochen, da man bereits mit Blenden unterhalb von f4, ohne Speedbooster, einen Menschen kaum noch scharf porträtieren kann.
Deine Aussage impliziert folgendes: Man ist relativ nah am Objekt und hat eine hohe Brennweite (sagen wir 100mm). Aber selbst dann kann es doch für einen Filmer Sinn machen, nur das Auge oder Augenlid in der Schärfe zu haben. Ansonsten gilt: Die Blende ist nur ein Faktor bei der Tiefenschärfe. Es kommt immer auch auf den Abstand zum Motiv und die Brennweite an.
Wenn ich mit einem 35mm Objektiv arbeite und bin 3 Meter vom Motiv entfernt habe ich selbst mit Blende f1.4 noch über einen halben Meter Tiefenschärfe. Wohlgemerkt am Vollformat! Guck Dir einfach mal in Ruhe diese Seite zum Berechnen der Tiefenschärfe an: https://www.dofmaster.com/
Wann brauche ich also viel Lichtstärke (bzw. einen Speedbooster)? Wenn ich mit weitwinkligen Objektiven arbeite, was ich bei MFT häufig tun muss. Aber selbst mit 50mm oder 85mm macht das Filmen mit Offenblende Sinn. Zum Beispiel wenn ich mit gewissem Abstand Personen gezielt aus der Szene "rausschneiden" will. Um nur 2 Szenarien zu nennen.
Antwort von cantsin:
funkytown hat geschrieben:
Wenn ich mit einem 35mm Objektiv arbeite und bin 3 Meter vom Motiv entfernt habe ich selbst mit Blende f1.4 noch über einen halben Meter Tiefenschärfe. Wohlgemerkt am Vollformat! Guck Dir einfach mal in Ruhe diese Seite zum Berechnen der Tiefenschärfe an: https://www.dofmaster.com/
Sorry, aber diese alten Formeln funktionieren im 4K-Zeitalter nicht mehr. Schärfe ist heute, bei hohen Auflösungen, viel kritischer geworden und die alten Kleinbildfotografie-Formeln für DoF und verwackelungsfreie Freihand-Fotos stimmen alle nicht mehr.
Antwort von funkytown:
cantsin hat geschrieben:
funkytown hat geschrieben:
Wenn ich mit einem 35mm Objektiv arbeite und bin 3 Meter vom Motiv entfernt habe ich selbst mit Blende f1.4 noch über einen halben Meter Tiefenschärfe. Wohlgemerkt am Vollformat! Guck Dir einfach mal in Ruhe diese Seite zum Berechnen der Tiefenschärfe an: https://www.dofmaster.com/
Sorry, aber diese alten Formeln funktionieren im 4K-Zeitalter nicht mehr. Schärfe ist heute, bei hohen Auflösungen, viel kritischer geworden und die alten Kleinbildfotografie-Formeln für DoF und verwackelungsfreie Freihand-Fotos stimmen alle nicht mehr.
In zwei Sätzen soviel Fehler und Halbwissen, aber der Reihe nach.
- Zunächst: Die Berechnung des DoF ist einfache Physik. Das hat rein garnichts mit der Auflösung der Kamera zu tun.
- 4K erfordert es bei der Schärfe genau zu arbeiten. Insofern ist das Filmen mit Offenblende sicherlich schwieriger geworden. Das hat aber nix mit unserem Thema zu tun.
- Mit Berechnungen der "verwacklungsfreien Freihand-Fotos" meinst Du vielleicht die Verschlusszeitregel aus der Fotografie, bis zu welcher Verschlusszeit man aus der Hand fotografieren kann. Beim Film nutzt man einen festen Shutter. Dieser Begriff passt hier gar nicht.
- Wenn du mit den "alten Formeln" die Berechnung der Schärfentiefe meinst: Hier findest Du die mathematischen Gleichungen. https://de.wikipedia.org/wiki/Sch%C3%A4 ... _berechnen
Du wirst in den Formeln keine Abhängigkeit zur Auflösung einer Kamera finden.
Also bitte erst mal Hirn einschalten vor dem Posten.
Antwort von Jörg:
Also bitte erst mal Hirn einschalten vor dem Posten.
starker Tobak ;-((
Antwort von funkytown:
Jörg hat geschrieben:
Also bitte erst mal Hirn einschalten vor dem Posten.
starker Tobak ;-((
Sorry, aber wenn man soviel Nonsens mit soviel Innbrunst und "Beratungsresitenz" vorträgt, muss man sowas auch mal aushalten können.
Antwort von Jörg:
wer sich soweit aus dem Fenster lehnt, darf auch gerne an sich diese Maßstäbe anlegen, und zumindest, wenn nicht das Hirn, so doch die Rechtschreibkontrolle einschalten, mann, mann
Sorry, aber wenn man soviel Nonsens mit soviel Innbrunst und "Beratungsresistenz"
Antwort von cantsin:
funkytown hat geschrieben:
cantsin hat geschrieben:
Sorry, aber diese alten Formeln funktionieren im 4K-Zeitalter nicht mehr. Schärfe ist heute, bei hohen Auflösungen, viel kritischer geworden und die alten Kleinbildfotografie-Formeln für DoF und verwackelungsfreie Freihand-Fotos stimmen alle nicht mehr.
In zwei Sätzen soviel Fehler und Halbwissen, aber der Reihe nach.
- Zunächst: Die Berechnung des DoF ist einfache Physik. Das hat rein garnichts mit der Auflösung der Kamera zu tun.
- 4K erfordert es bei der Schärfe genau zu arbeiten. Insofern ist das Filmen mit Offenblende sicherlich schwieriger geworden. Das hat aber nix mit unserem Thema zu tun.
- Mit Berechnungen der "verwacklungsfreien Freihand-Fotos" meinst Du vielleicht die Verschlusszeitregel aus der Fotografie, bis zu welcher Verschlusszeit man aus der Hand fotografieren kann. Beim Film nutzt man einen festen Shutter. Dieser Begriff passt hier gar nicht.
- Wenn du mit den "alten Formeln" die Berechnung der Schärfentiefe meinst: Hier findest Du die mathematischen Gleichungen. https://de.wikipedia.org/wiki/Sch%C3%A4 ... _berechnen
Du wirst in den Formeln keine Abhängigkeit zur Auflösung einer Kamera finden.
Also bitte erst mal Hirn einschalten vor dem Posten.
Ich bleibe dabei, auch wenn ich Dir im Prinzip nicht widerspreche.
Die DoF-Formeln sind theoretische Formeln, die ein ideales optisches System beschreiben. Mit immer höheren Sensorauflösungen zeigen sich jedoch in der Praxis die Diskrepanzen zwischen dieser Idealisierung und dem, was optische Systeme wirklich leisten.
- Dein Beispiel - "Wenn ich mit einem 35mm Objektiv arbeite und bin 3 Meter vom Motiv entfernt habe ich selbst mit Blende f1.4 noch über einen halben Meter Tiefenschärfe" - funktioniert in der Praxis, wenn überhaupt, nur mit einem absoluten Spitzenobjektiv (einem Sigma Art oder Zeiss Otus 35mm/1.4), weil alle anderen Objektive bei Offenblende nicht die theoretische volle Schärfe- bzw. Abbildungsleistung bringen (was nichts mit geringem DoF zu tun hat, um das nur klarzustellen). Und genau dies wird eben bei 4K brutal sichtbar. Alle f1.4- und f1.8-Objektive, die noch zu Analog-Kleinbildzeiten gebaut wurden bzw. heute noch auf diesen Konstruktionen beruhen (wie praktisch alle Objektive unterhalb der 700-Euro-Klasse) bringen die von Dir beschriebene Auflösungsleistung nicht, bzw. sind für Dein Szenario nicht brauchbar.
Umgekehrt ist es auch so, dass bei Kleinbild- und anderer vergleichsweise niedrig auflösender Foto- und Videografie das praktisch nutzbare DoF größer war als in der Theorie, da der Schärfeabfall an den Rändern des scharfen Bereichs noch nicht sichtbar wurde. Auch hier führen 4K & Co. zu weniger Toleranz.
- Die Berechnungen zu verwacklungsfreiem Shutter stammen in der Tat aus der Fotografie und stimmen nicht mehr (wer mit einer Nikon D850 oder Sony A7R mit dem 50mm - 1/50s fotografiert, fällt auf die Nase bzw. kann seine Fotos gleich 50% verkleinern, um die Bewegungsunschärfe auf Pixelebene zu kaschieren), lassen sich aber problemlos auf Handkamera und Kamerastabilisierung übertragen. Ein Schwenk, der bei SD-Video noch funktioniert, verschmiert bei 4K, ein Schulterstativ, dass bei SD noch stabile Handkamerabilder lieferte, liefert bei 4K Wackelbilder.
Mit höheren Auflösungen steigen die Anforderungen an Stabilisierung, Genauigkeit der Fokussierung, Leistung der Optiken etc.etc. Eine DoF-App, die mir in Zeiten der Kleinbild-Filmfotografie zuverlässige Werte geliefert hat, ist heute nicht mehr blind zu gebrauchen, weil andere Faktoren eine Rolle spielen. Du kannst das gerne mal testen, wenn Du probierst, Foto- oder Videografie mit Zone Focussing zu betreiben. (Also z.B. eine Full Frame-Kamera mit 35mm-Objektiv auf f5.6 und Fokus 5m zu setzen, was theoretisch alles zwischen 2m und 11m scharf im Bild erscheinen lassen sollte.)
 |
Antwort von funkytown:
cantsin hat geschrieben:
Mit höheren Auflösungen steigen die Anforderungen an Stabilisierung, Genauigkeit der Fokussierung, Leistung der Optiken etc.etc.
Das ist richtig, hat aber nichts mit dem ursprünglichen Thema: Speedbooster und DoF zu tun.
cantsin hat geschrieben:
Eine DoF-App, die mir in Zeiten der Kleinbildfotografie zuverlässige Werte geliefert hat, ist heute nicht mehr blind zu gebrauchen, weil andere Faktoren eine Rolle spielen.
Die Berechnung der Tiefnschärfe erfolgt nach mathematischen Grundlagen, die nichts mit der Auflösung zu tun haben. Eine ganz andere Frage ist, wie ich Ergebnisse der DoF Kalkulation in der Praxis umsetze. So kann es natürlich sein, dass Du bei 4K eine größere Schärfentiefe bevorzugst. Dementsprechend wählst Du die Parameter aus (Brennweite, Abstand, Blende). Aber nochmal: Die Tiefenschärfe sagt ja nur, wo die Schärfe beginnt und wo sie aufhört. Was Du damit anfängst, musst Du selbst wissen.
Antwort von Jott:
Der Übergang von Schärfe zu Unschärfe ist absolut fließend. Insofern spielt schon rein, wie gut aufgelöst/scharf man‘s denn haben möchte, und das wirkt sich auf die DoF-Regeln aus. Ein wenig.
Andererseits ist 4K keine Monsterauflösung, das kann Fotografie schon lange. Interessant wird‘s erst bei 8K. Die armen Japaner an den Kameras bei Sportübertragungen ...
Antwort von cantsin:
Jott hat geschrieben:
Der Übergang von Schärfe zu Unschärfe ist absolut fließend. Insofern spielt schon rein, wie gut aufgelöst/scharf man‘s denn haben möchte, und das wirkt sich auf die DoF-Regeln aus. Ein wenig.
Jepp, das meinte ich. Danke, Du hast es in weniger Worten auf den Punkt gebracht.
Antwort von roki100:
alle wissen am besten, doch Deutschland ist trotzdem nicht dabei: viewtopic.php?f=40&t=145461 ;))
Vielleicht musst ihr genau das Gegenteile machen? Also das was ihr als Video-Look sieht ist in Wirklichkeit cinematisch und umgekehrt eben nicht? :) Und vll. doch schön mit -f1.7 filmen?! ;)
Antwort von balkanesel:
funkytown hat geschrieben:
Also bitte erst mal Hirn einschalten vor dem Posten.
na ja, es gibt den Begriff Unschärfekreise der angibt welche Unschärfe noch als scharf gilt, und die Größe dieser Kreise wird je nach Format anders angesetzt.
Antwort von dienstag_01:
- Zunächst: Die Berechnung des DoF ist einfache Physik. Das hat rein garnichts mit der Auflösung der Kamera zu tun.
Aha, Auflösung gehört also nicht in die Physik ;)
Natürlich hat DOF etwas mit Auflösung zu tun, genauer, mit dem Pixelpitch. Und ganz besonders trifft das für Medien zu, deren Wiedergabe wie bei Video auf Pixelauflösungen beruht. Deshalb gibt es inzwischen bei einigen DOF Rechnern neben der Angabe zum Unschärfekreis auch die Angabe zur Auflösung.
Soviel nur mal zum Thema Halbwissen ;)
Antwort von funkytown:
dienstag_01 hat geschrieben:
Deshalb gibt es inzwischen bei einigen DOF Rechnern neben der Angabe zum Unschärfekreis auch die Angabe zur Auflösung.
Gibt es dazu einen Link?
Antwort von dienstag_01:
funkytown hat geschrieben:
dienstag_01 hat geschrieben:
Deshalb gibt es inzwischen bei einigen DOF Rechnern neben der Angabe zum Unschärfekreis auch die Angabe zur Auflösung.
Gibt es dazu einen Link?
https://dofsimulator.net/en/
Unter Configuration *Advanced* auswählen und dann im Bereich DoF die Einstellungen für den Circle of Confusion verändern/vergleichen.
Antwort von funkytown:
dienstag_01 hat geschrieben:
funkytown hat geschrieben:
Gibt es dazu einen Link?
https://dofsimulator.net/en/
Unter Configuration *Advanced* auswählen und dann im Bereich DoF die Einstellungen für den Circle of Confusion verändern/vergleichen.
Danke für den Link. Allerdings ändert sich der DoF nicht, wenn man die Auflösung ändert.
Antwort von dienstag_01:
funkytown hat geschrieben:
dienstag_01 hat geschrieben:
https://dofsimulator.net/en/
Unter Configuration *Advanced* auswählen und dann im Bereich DoF die Einstellungen für den Circle of Confusion verändern/vergleichen.
Danke für den Link. Allerdings ändert sich der DoF nicht, wenn man die Auflösung ändert.
Tja, bei mir schon ;)
Antwort von iasi:
Interessanter Aspekt:
Der Zerstreuungskreisdurchmesser und die Auflösung.
Bei Film ist die Kristallanordnung chaotisch und ändert sich von Bild zu Bild. Dies führt zu einem "weichen Fluss".
Bei einem Sensor bleibt jeder Pixel immer schön an einem Ort.
Wirkt sich dieser Unterschied im Hinblick auf den Zerstreuungskreisdurchmesser aus?
Andererseits erzeugt auch das Debayering einen gewissen "Fluss".
Ist die Sensorauflösung zudem nicht längst höher als die Auflösung die ein Objektiv bieten kann?
Ein Vorteil wäre dies dennoch, denn so lässt sich die Unschärfe besser abbilden.
Eh ein komplexes Thema, denn mit der Blende verändert sich auch die generelle Abbildungsleistung des Objektivs.
Selbst ein Master Prime verliert bei Offenblende zu den Ecken hin an Auflösung. Und ab f8 wird es wieder interessant - mir wäre wichtiger, dass ein Teleobjektiv auch noch bei f11 oder gar f16 brauchbare Auflösung liefern kann, statt bei Offenblende, denn mir gefällt die Bildwirkung.
Mit dem Sigma 18-35 am Viltrox kommt man leider nicht in den Telebereich. Interessant wäre, wie sich das Sigma ohne Fokalreduktor am MFT schlagen schlägt. Dann kommt man auf 38-70 FF.
Antwort von rush:
Ich benutze das 18-35er ohne Speedy an MFT - also "dumm" vom Nikon Mount kommend adaptiert.
Klappt gut und ich finde die Leistung mehr als ausreichend. Bin aber auch kein Theoretiker/Pixelpeeper ;-)
Antwort von pillepalle:
Die DOF verändert sich bei veränderten Betrachtungsbedingungen. Insofern kann die Auflösung eine Rolle spielen, weil sich der Abbildungsmaßstab/Betrachtungsgröße ändert. Sonst eher nicht. Auf einem Smartphone wird man den Unterschied von FHD zu UHD kaum sehen können. Es geht auch immer um die Auflösung des Gesamtsystems (das was hinten rauskommt) und nicht nur um die der Optik oder des Sensors. Die steigt bei steigender Auflösung einzelner Komponenten. Steigt z.B. die Auflösung des Sensors, steigt auch die Auflösung des Gesamtsystems, selbst wenn die Auflösung des Objektivs der begrenzende Faktor ist und gleich bleibt.
VG
Antwort von iasi:
rush hat geschrieben:
Ich benutze das 18-35er ohne Speedy an MFT - also "dumm" vom Nikon Mount kommend adaptiert.
Klappt gut und ich finde die Leistung mehr als ausreichend. Bin aber auch kein Theoretiker/Pixelpeeper ;-)
aha - danke. Das bestätigt meine Vermutung.
Da das 18-35 ein ziemlicher Eimer ist, hatte ich es bisher gar nicht so sehr auf dem Radar.
Die Verzeichnung ist ja laut Tests vergleichsweise gering. Da sie gleichmäßig bauchig ist, dürfte sie aber auch an MFT nicht viel geringer ausfallen.
Aber bei der Randabschattung und wohl auch beim Schärfeabfall zu den Rändern hin, hat mal wohl Vorteile.
Interessant.
Antwort von dienstag_01:
pillepalle hat geschrieben:
Die DOF verändert sich bei veränderten Betrachtungsbedingungen. Insofern kann die Auflösung eine Rolle spielen, weil sich der Abbildungsmaßstab/Betrachtungsgröße ändert. Sonst eher nicht. Auf einem Smartphone wird man den Unterschied von FHD zu UHD kaum sehen können. Es geht auch immer um die Auflösung des Gesamtsystems (das was hinten rauskommt) und nicht nur um die der Optik oder des Sensors. Die steigt bei steigender Auflösung einzelner Komponenten. Steigt z.B. die Auflösung des Sensors, steigt auch die Auflösung des Gesamtsystems, selbst wenn die Auflösung des Objektivs der begrenzende Faktor ist und gleich bleibt.
VG
Die Abhängigkeit des DoF vom Pixelpitch wird hier genauer erläutert:
http://www.giangrandi.ch/optics/dofcalc/dofcalc.shtml
Antwort von pillepalle:
Eben... da wird erläutert das der Pixelpitch nichts damit zu tun hat. Es würde nur keinen Sinn machen die Zerstreuungskreise kleiner als die doppelte Größe eines Pixels zu wählen. Aber so klein wählt man den ohnehin nicht. In der Gleichung zur Schärfentiefe und auch in den Rechnungen auf der verlinkten Seite findet sich nirgendwo die Pixelgröße. Die Zerstreuungskreise stehen dabei stellvertretend für die Betrachtungsbedingungen.
VG
dienstag_01 hat geschrieben:
Die Abhängigkeit des DoF vom Pixelpitch wird hier genauer erläutert:
http://www.giangrandi.ch/optics/dofcalc/dofcalc.shtml
Antwort von dienstag_01:
pillepalle hat geschrieben:
Eben... da wird erläutert das der Pixelpitch nichts damit zu tun hat ;)
VG
dienstag_01 hat geschrieben:
Die Abhängigkeit des DoF vom Pixelpitch wird hier genauer erläutert:
http://www.giangrandi.ch/optics/dofcalc/dofcalc.shtml
?
Antwort von pillepalle:
Ich hab's nochmal versucht Dir kurz zu erklären. Die Zerstreuungskreise haben nichts mit dem Pixelpitch zu tun. Sie legen nur fest ab welcher Größe (Grad der Unschärfe) Dir ein Bildpunkt nicht mehr scharf erscheint und das ist abhängig vom Vergrößerungsmaßstab, oder einfach gesagt, wie genau Du hin schaust.
Ein Bild mit das mit einer 24 MP Kamera aufgenommen wurde, hat unter den gleichen Betrachtungsbedingungen (in der gleichen Größe und dem gleichen Betrachtungsabstand) die gleiche Tiefenschärfe wie ein Bild das mit einer 48 MP Kamera aufgenommen wurde.
Anders verhält es sich, wenn Du beide Bilder unter unterschiedlichen Betrachtungsbedingungen anschaust. Also z.B. beide in einer 100% Monitoransicht. Da vergrößerst Du das 48 MP Foto viel stärker als das 24MP Foto und deshalb erscheint Dir die Tiefenschärfe auch geringer. Je stärker Du es vergrößerst (bei gleichem Betrachtungsabstand) desto geringer ist die Tiefenschärfe.
VG
Antwort von dienstag_01:
pillepalle hat geschrieben:
Ich hab's nochmal versucht Dir kurz zu erklären. Die Zerstreuungskreise haben nichts mit dem Pixelpitch zu tun. Sie legen nur fest ab welcher Größe (Grad der Unschärfe) Dir ein Bildpunkt nicht mehr scharf erscheint und das ist abhängig vom Vergrößerungsmaßstab, oder einfach gesagt, wie genau Du hin schaust.
Ein Bild mit das mit einer 24 MP Kamera aufgenommen wurde, hat unter den gleichen Betrachtungsbedingungen (in der gleichen Größe und dem gleichen Betrachtungsabstand) die gleiche Tiefenschärfe wie ein Bild das mit einer 48 MP Kamera aufgenommen wurde.
VG
Das sagt der Artikel aber nicht.
Edit: Ich habe gesehen, dass du deinen Post nachträglich editiert hast, aber du verkennst den Zusammenhang von CoC und Pxelpitch. Es ist logisch, dass es noch andere gibt.
Antwort von pillepalle:
@ dienstag
Doch... Hier wurde schon so viel über die Schärfentiefe geschrieben aber für manche ist es immer noch ein Buch mit sieben Siegeln. Eigentlich ist das nicht so schwer zu verstehen. Die Auflösung hat nichts mit der Tiefenschärfe zu tun, denn die Tiefenschärfe ist der Bereich im Bild der Dir scharf erscheint und der wird willkürlich festgelegt. Wie groß Dir die Tiefenschärfe erscheint entscheiden nur die Betrachtungsbedingungen (der Abstand zum Bild und die Größe des Bildes) unter denen Du Dir das Bild anschaust. Sinnvoller weise wählt man einen Betrachtungsabstand bei dem man das komplette Bild mit einem Blick erfassen kann, das ist aber nicht zwingend notwendig. In keiner Formel zur Tiefenschärfe erscheint der Pixelpitch, genausowenig wie zu Analogzeiten darin die Silberkörner vorkamen.
Vielleicht hilft es Dir es zu verstehen wenn Du Dir vorstellst ein Bild einmal auf einem Smartphone zu betrachten und einmal auf einem 30" Monitor. Auf dem Smartphone erscheint Dir die Tiefenschärfe beim gleichen Bild sehr hoch, die Dir auf dem 30" Monitor recht gering vorkommt. Es ist das identische Bild aber wirkt ganz unterschiedlich und das bei der gleichen Auflösung.
VG
Antwort von dienstag_01:
pillepalle hat geschrieben:
@ dienstag
Doch... Hier wurde schon so viel über die Schärfentiefe geschrieben aber für manche ist es immer noch ein Buch mit sieben Siegeln. Eigentlich ist das nicht so schwer zu verstehen. Die Auflösung hat nichts mit der Tiefenschärfe zu tun, denn die Tiefenschärfe ist der Bereich im Bild der Dir scharf erscheint und der wird willkürlich festgelegt. Wie groß Dir die Tiefenschärfe erscheint entscheiden nur die Betrachtungsbedingungen (der Abstand zum Bild und die Größe des Bildes) unter denen Du Dir das Bild anschaust. Sinnvoller weise wählt man einen Betrachtungsabstand bei dem man das komplette Bild mit einem Blick erfassen kann, das ist aber nicht zwingend notwendig. In keiner Formel zur Tiefenschärfe erscheint der Pixelpitch, genausowenig wie zu Analogzeiten darin die Silberkörner vorkamen.
VG
Der Pixelpitch erscheint mittelbar im Circle of Confusion. Das ist der Zusammenhang.
Antwort von pillepalle:
@ Dienstag
Nein... das verstehst Du falsch. Der Circle of Confusion ist der Zerstreuungskreis. Der hat nichts mit dem Abstand/Größe der Pixel zu tun. Schau Dir doch einfach mal die Formeln an oder versuch' zu verstehen was ich schreibe.
VG
Antwort von dienstag_01:
pillepalle hat geschrieben:
@ Dienstag
Nein... das verstehst Du falsch. Der Circle of Confusion ist der Zerstreuungskreis. Der hat nichts mit dem Abstand/Größe der Pixel zu tun.
VG
Du verstehst aber schon, dass es einen Zerstreuungskreis kleiner als 2 x Pixelpitch nicht geben kann.
Antwort von roki100:
Also ich verstehe auf jeden Fall gar nichts ;))
Antwort von pillepalle:
Doch, geben kann es den schon, sie schreiben nur das es keinen Sinn macht ihn kleiner zu wählen, weil man sich quasi an der Auflösungsgrenze befindet und man durch noch kleinere Zerstreuungskreise keine höhere Tiefenschärfe mehr erreicht. Die möglichen Zerstreuungskreise legst Du selber mit Deinen Betrachtungbedingungen fest. Das sind Deine Schärfentiefe-Kriterien. Wählst Du sie zu hoch (schaust Du übertrieben genau hin) wird Dir immer alles unscharf erscheinen.
VG
Antwort von dienstag_01:
pillepalle hat geschrieben:
Doch, geben kann es den schon, sie schreiben nur das es keinen Sinn macht ihn kleiner zu wählen. Die möglichen Zerstreuungskreise legst Du selber mit Deinen Betrachtungbedingungen fest. Das sind Deine Schärfentiefe-Kriterien. Wählst Du sie zu hoch (schaust Du übertrieben genau hin) wird Dir immer alles unscharf erscheinen.
VG
Stimmt, unscharf ab 2 x Pixelpitch ;)
Hier geht es um die physikalische Beschreibung der Tiefenschärfe. Und die ist abhängig vom CoC. Und der ist abhängig vom Pixelpitch. Wie praxisrelevant das ist, sei mal dahingestellt. Aber wir rechnen auch nicht jeden Tag mit der Konstante der Lichtgeschwindigkeit die Entfernung zweier Bohrlöcher aus, sondern nehmen einfach den Zollstock. Trotzdem definiert sich die Längeneinheit genau über die Lichtgeschwindigkeit.
Antwort von pillepalle:
Arrrrgh... Du gibst Dir wirklich Mühe es nicht verstehen zu wollen. Nicht unscharf. Die Bildschärfe ist ein anderes Tierchen. Hier reden wir von Schärfentiefe. Die erscheint Dir nie unscharf. Unter 2x Pixelpitch nimmt die Tiefenschärfe nicht mehr zu. Das ist alles was da steht. Ich geh jetzt schlafen...
VG
Antwort von roki100:
Also auf jeden Fall ist Blackmagic RAW nicht so scharf wie CDNG. Egal mit welchen Objektiv. Das ist schonmal korrekt und versteht jeder. ;)
Antwort von dienstag_01:
pillepalle hat geschrieben:
Arrrrgh... Du gibst Dir wirklich Mühe es nicht verstehen zu wollen. Nicht unscharf. Die Bildschärfe ist ein anderes Tierchen. Hier reden wir von Schärfentiefe. Die erscheint Dir nie unscharf. Unter 2x Pixelpitch nimmt die Tiefenschärfe nicht mehr zu. Das ist alles was da steht. Ich geh jetzt schlafen...
VG
Es gibt auch den DoF Simulator, da kann man die Auflösung angeben. Gefällt dir bestimmt auch nicht, weil, da fehlt ja nun wieder die Beschreibung dazu. Wenn man es nicht verstehen will...
Antwort von iasi:
Und das Glas steht immer schön genau zentriert auf dem Bierdeckel.
Natürlich wählt man den Zerstreuungskreisdurchmesser größer als das maximale Auflösungsvermögen des Sensors.
Sonst würde man schließlich nur die Schärfenebene als scharf definieren.
Mit der Theorie ist es aber so eine Sache, wenn sie davon ausgeht, dass das Objektiv immer perfekt abbildet.
Nach den DoF-Rechnern könnte ich die Blende auf f22 zukneifen und mich über einen großen Schärfebereich freuen. Leider bildet das Objektiv bei f22 dann eben nicht mehr scharf ab. Dann ist eben alles nur noch schön gleichmäßig unscharf.
Und bei vielen Objektiven kann ich dann bei Offenblende alles auf die Schärfeebene reduzieren. Dann aber wird bei z.B. over sholder die Person an den Bildrand gedrückt und wieder ist sie eher unscharf dargestellt. Denn bei Offenblende hat man zwar ein schönes Bokeh, aber eben meist auch nur in der Bildmitte ein hohes Auflösungsvermögen.
Immerhin ist das 18-35 auf bei Offenblende zu den Rändern hin noch gut. Hier schlägt dann eher die Randabschattung rein, die dazu führt, dass man mit Verstärkung auch des Rauschens die Unterbelichtung der Ränder ausgleichen muss.
Antwort von pillepalle:
Ja, weil sie davon ausgehen das man bei unterschiedlichen Auflösungen auch unterschiedliche Betrachtungsbediingungen hat. Also am Ende mit dem 48MP Bild eine größere Abbildung macht als mit dem 24MP Bild. Wenn Du es Dir aber am Ende in der gleichen Größe anschaust (weil Du es z.B. vollformatig auf Deinem Bildschirm anschauen möchtest der eine feste Größe hat) dann wirst Du auch die gleiche Schärfentiefe haben, obwohl Dir Dein DOF-Calculator etwas anderes prognostiziert hat.
Ein DoF Rechner ist immer eine Krücke. Genauso wie die Skalen auf Deiner Optik. Die geben Dir die DoF nämlich nur für eine ganz bestimmte Betrachtungssituation an die Deiner tatsächllichen überhaupt nicht entsprechen muss. Außerdem gaukeln sie Dir eine Genauigkeit vor, die es in der Praxis überhaupt nicht gibt. Die Schärfentiefe ist fließend. Sie verläuft von einer Scharfen Ebene ins Unscharfe und ab wann Dir das noch ausreichend scharf erscheint, ist kein klar definierter Punkt.
Und was iasi schreibt nennt man Beugung (der gesamte Bildschärfe Eindruck nimmt ab) die vereinfacht gesagt durch Ablenkung der Lichtstrahlen am Blendenrand entstehen.
VG
dienstag_01 hat geschrieben:
Es gibt auch den DoF Simulator, da kann man die Auflösung angeben. Gefällt dir bestimmt auch nicht, weil, da fehlt ja nun wieder die Beschreibung dazu. Wenn man es nicht verstehen will...
Antwort von dienstag_01:
pillepalle hat geschrieben:
Ja, weil sie davon ausgehen das man bei unterschiedlichen Auflösungen auch unterschiedliche Betrachtungsbediingungen hat. Also am Ende mit dem 48MP Bild eine größere Abbildung macht als mit dem 24MP Bild. Wenn Du es Dir aber am Ende in der gleichen Größe anschaust (weil Du es z.B. vollformatig auf Deinem Bildschirm anschauen möchtest der eine feste Größe hat) dann wirst Du auch die gleiche Schärfentiefe haben, obwohl Dir Dein DOF-Calculator etwas anderes prognostiziert hat.
Ein DoF Rechner ist immer eine Krücke. Genauso wie die Skalen auf Deiner Optik. Die geben Dir die DoF nämlich nur für eine ganz bestimmte Betrachtungssituation an die Deiner tatsächllichen überhaupt nicht entsprechen muss. Außerdem gaukeln sie Dir eine Genauigkeit vor, die es in der Praxis überhaupt nicht gibt. Die Schärfentiefe ist fließend. Sie verläuft von einer Scharfen Ebene ins Unscharfe und ab wann Dir das noch ausreichend scharf erscheint, ist kein klar definierter Punkt.
Und was iasi schreibt nennt man Beugung (der gesamte Bildschärfe Eindruck nimmt ab) die vereinfacht gesagt durch Ablenkung der Lichtstrahlen am Blendenrand entstehen.
VG
dienstag_01 hat geschrieben:
Es gibt auch den DoF Simulator, da kann man die Auflösung angeben. Gefällt dir bestimmt auch nicht, weil, da fehlt ja nun wieder die Beschreibung dazu. Wenn man es nicht verstehen will...
Es steht dir natürlich frei, dir aus der Physik das rauszusuchen, was in dein Weltbild passt ;)
 |
Antwort von pillepalle:
@ dienstag
Und Dir steht es selbstverständlich auch frei grundlegende Konzepte der Optik nicht verstehen zu wollen ;) Mir ist es mittlerweile ehrlich gesagt egal was Du denkst. Von mir aus kannst Du lesen und rechnen bis der Artzt kommt. Fällt mir nur schwer zu ertragen wenn Du Unfug verbreitest, aber daran muss ich mich wohl gewöhnen.... durchatmen :)
VG
Antwort von balkanesel:
umsonst heißts ja nicht Circle of Confusion
Antwort von dienstag_01:
balkanesel hat geschrieben:
umsonst heißts ja nicht Circle of Confusion
;)
Antwort von iasi:
pillepalle hat geschrieben:
@ iasi
Und Dir steht es selbstverständlich auch frei grundlegende Konzepte der Optik nicht verstehen zu wollen ;) Mir ist es mittlerweile ehrlich gesagt egal was Du denkst. Von mir aus kannst Du lesen und rechnen bis der Artzt kommt. Fällt mir nur schwer zu ertragen wenn Du Unfug verbreitest, aber daran muss ich mich wohl gewöhnen.... durchatmen :)
VG
Eingebildet bist du mit deinem Halbwissen aber gar nicht.
Da nimmt unser pillepalle sein bischen Schulwissen und hält hier Vorlesungen über komplexe optische Systeme.
Mir reicht es, wenn ich die Praxis verstehe. Damit bin ich dann näher an der Wahrheit als ein pillepalle mit seinem Newton-Wissen über die Gravitation. Ja - der Apfel fällt herunter. Und das Elektron kreist um den Atomkern, wie der Mond um die Erde. ;)
Und damit soll"s jetzt auch gut sein.
Antwort von roki100:
alles gut, ist doch nur DoF. Kamera einschalten und los gehts. Man muss doch nicht alles detailliert wissen und was alles dabei passiert. Ob mit HI8, DV oder BRAW...DoF sieht einfach schön und cool aus.
Genießt stattdessen den wunderschönen Tag ohne sich darüber Gedanken zu machen und unbedingt wissen, was genau da passiert, wie entfernt die Sonne ist...und ob sich die Erde dabei dreht und der Mond sich versteckt...
Antwort von iasi:
roki100 hat geschrieben:
alles gut, ist doch nur DoF. Kamera einschalten und los gehts. Man muss doch nicht alles detailliert wissen und was alles dabei passiert. Ob mit HI8, DV oder BRAW...DoF sieht einfach schön und cool aus.
Na ja - man sollte schon auch auf dem Radar haben, dass man zwar einen tollen großen DoF bei f22 hat, aber eben auch eine ziemlich weichgekochtes Bild.
Und wenn man tolles Bokeh bei f1.2 zaubert, ist mit der Auflösung und Schärfe auch bei richtiger Fokusierung nicht weit her, wenn bildwichtigen Teile sich eher an den Bildrändern herumdrücken.
Antwort von Jott:
Einfach drehen oder fotografieren - dann braucht's nach einer Weile keine Formeln mehr, man weiß dann einfach um die eigentlich simplen Zusammenhänge und macht dann auch keine Fehler.
Diese DoF-Rechner basieren übrigens auf Empirik (wegen der fließenden Übergänge weg vom exakten Schärfepunkt) und geben allenfalls eine grobe Hilfestellung, wenn man gar keinen Plan hat.
Antwort von roki100:
Jott hat geschrieben:
Einfach drehen oder fotografieren - dann braucht's nach einer Weile keine Formeln mehr, man weiß dann einfach um die eigentlich simplen Zusammenhänge und macht dann auch keine Fehler.
zum Bild
Antwort von iasi:
Jott hat geschrieben:
Einfach drehen oder fotografieren - dann braucht's nach einer Weile keine Formeln mehr, man weiß dann einfach um die eigentlich simplen Zusammenhänge und macht dann auch keine Fehler.
Na - das wären dann aber wie über den Daumen belichten.
Es ist ja auch nicht so, dass man die Schärfe mal eben auf dem Display beurteilen kann.
Es macht also durchaus Sinn sich an Messungen und Zahlen zu orientieren. Es geht eben um die Kontrolle über das Bild.
In meinen alten Film&TV-Kameramann-Kalendern gab"s immer auch eine Schärfentiefetabelle. Ich wüßte nicht, was sie dbzgl. geändert haben könnte.
Antwort von roki100:
ihr habt sogar Film&TV-Kameramann-Kalender mit Schärfentiefetabelle? Auch wie Oft man Rec/Stop betätigen muss? Das wäre mir aber echt zu Bürokratisch...
Auf jeden Fall musst ihr etwas ändern, dann ist Deutschland demnächst vll. doch dabei. ;)
Antwort von iasi:
roki100 hat geschrieben:
ihr habt sogar Film&TV-Kameramann-Kalender mit Schärfentiefetabelle? Auch wie Oft man Rec/Stop betätigen muss? Das wäre mir aber echt zu Bürokratisch...
Auf jeden Fall musst ihr etwas ändern, dann ist Deutschland demnächst vll. doch dabei. ;)
Jooo - früher hatten und nutzen die Leute solche Tabellen.
Vielleicht liegt es an diesem Rausgehen und Drauflosfilmen, dass D. nicht mehr dabei ist.
Man schaut auf"s Display und freut sich, wie cinematisch das doch aussieht. Da muss man sich keine Gedanken mehr machen, denn man hat das Ergebnis schließlich vor Augen. ;)
Antwort von roki100:
Man schaut auf"s Display und freut sich
Eben, kein Papierkram mit Tabellen wie entfernt und nah etwas ist usw. usf. Auf dem Display sind alle nützliche Werkzeuge für los&film dabei: Histogramm, Fokus-Peaking/Assist, False-Color, Zebra usw.
Vielleicht liegt es an diesem Rausgehen und Drauflosfilmen, dass D. nicht mehr dabei ist.
Ich denke eher, es ist wie bei allen andere Abteilungen. Es wird auf Papier geschaut, was einer alles weiß (wahrscheinlich sein Dr. Arbeit z.b. über DoF...und da sagt sich der Wähler "wooow...") und kann und nicht darauf, was er in der Praxis tatsächlich kann.
Antwort von iasi:
roki100 hat geschrieben:
Man schaut auf"s Display und freut sich
Eben, kein Papierkram mit Tabellen wie entfernt und nah etwas ist usw. usf. Auf dem Display sind alle nützliche Werkzeuge für los&film dabei: Histogramm, Fokus-Peaking/Assist, False-Color, Zebra usw.
Und womit beurteilst du die Schärfentiefe?
Zudem:
Vor lauter Fokus-Peaking, False-Color, Zebra sieht man dann nichts mehr vom Bild. :)
Antwort von roki100:
iasi hat geschrieben:
Und womit beurteilst du die Schärfentiefe?
Mit meine biologische Werkzeuge: die Augen. :)
Vor lauter Fokus-Peaking, False-Color, Zebra sieht man dann nichts mehr vom Bild. :)
Als kein Profi, denke ich, die Werkzeuge dienen dafür, um alles im voraus einzustellen, bevor man Rec-Button betätigt... so mache ich es zumindest. Fokus-Peaking lasse ich immer an. Und auf dem zweiten kleinen Bildschirm von BMPCC, ist Zebra immer aktiviert.
Antwort von Jott:
Welcher Kameramann, der diesen Beruf gelernt hat, läuft denn mit einer Schärfentiefetabelle run?
Ich kenne keinen. Man weiß einfach, wie alles zusammenhängt. Das ist Handwerk und Routine.
Aber bitte, Spaß muss sein.
Antwort von roki100:
Jott hat geschrieben:
Welcher Kameramann, der diesen Beruf gelernt hat, läuft denn mit einer Schärfentiefetabelle run?
Ich kenne nur zwei. Der eine hat so was nicht, doch der andere, der läuft immer mit kleine Jim Beam White Bourbon Whiskey Fläschchen in alle verfügbaren Taschen... und seine Hochzeit Videos sind komischerweise beliebter. :lol:
Antwort von iasi:
roki100 hat geschrieben:
iasi hat geschrieben:
Und womit beurteilst du die Schärfentiefe?
Mit meine biologische Werkzeuge: die Augen. :)
Auf dem Display?!
Aber du brauchst Fokus-Peaking und Zebra etc.
Irgendwie ist das ein Widerspruch.
Antwort von roki100:
iasi hat geschrieben:
roki100 hat geschrieben:
Mit meine biologische Werkzeuge: die Augen. :)
Auf dem Display?!
Aber du brauchst Fokus-Peaking und Zebra etc.
Irgendwie ist das ein Widerspruch.
wieso? Nein, Zebra ist auf dem BMPCC Bildschirm aktiviert und Fokus-Peaking auf dem zweiten (hier paar Bilder viewtopic.php?f=35&t=145433#p992373)
Finde ich sehr praktisch und es funktioniert gut.
Antwort von iasi:
Jott hat geschrieben:
Welcher Kameramann, der diesen Beruf gelernt hat, läuft denn mit einer Schärfentiefetabelle run?
Ich kenne keinen. Man weiß einfach, wie alles zusammenhängt. Das ist Handwerk und Routine.
Aber bitte, Spaß muss sein.
Aha - du kennst keinen.
Was weiß man?
Welche Blende man wählen muss, um bei einer bestimmten Brennweite zwei Personen scharf ins Bild zu bekommen, die nicht auf einer Ebene stehen?
Klar - bei der WW-Fraktion, macht man eben die Blende ein wenig zu. Und beim Handgewackle fällt ja eh nicht auf, wenn"s mal nicht ganz scharf ist.
Handwerk und Routine. Daher erkennt man auch immer recht gut, dass es eine deutsche Produktion ist.
Antwort von iasi:
roki100 hat geschrieben:
iasi hat geschrieben:
Auf dem Display?!
Aber du brauchst Fokus-Peaking und Zebra etc.
Irgendwie ist das ein Widerspruch.
wieso? Nein, Zebra ist auf dem BMPCC Bildschirm aktiviert und Fokus-Peaking auf dem zweiten (hier paar Bilder viewtopic.php?f=35&t=145433#p992373)
Finde ich sehr praktisch und es funktioniert gut.
Du brauchst Fokus-Peaking, aber kannst die Schärfentiefe auf die Display mit deinen Augen beurteilen.
Ja was denn nun?
Antwort von roki100:
iasi hat geschrieben:
roki100 hat geschrieben:
wieso? Nein, Zebra ist auf dem BMPCC Bildschirm aktiviert und Fokus-Peaking auf dem zweiten (hier paar Bilder viewtopic.php?f=35&t=145433#p992373)
Finde ich sehr praktisch und es funktioniert gut.
Du brauchst Fokus-Peaking, aber kannst die Schärfentiefe auf die Display mit deinen Augen beurteilen.
Ja was denn nun?
Fokus-Peaking ist doch dafür da um die schärfe mit den bloßen Augen besser zu beurteilen. Es ist doch ein Hilfsmittel. Das weiß Du doch besser als ich.
Antwort von rob:
***von admin nach offtopic verschoben ***
Antwort von roki100:
blitzdings_1 hat geschrieben:
Und die fehlende Stabilisation der Kamera muss man durch Stative oder Gimbals, in meinem Fall ein Moza Air 2, oder eine sehr ruhige Hand ausgleichen. Erwähnen muss man auch, daß die Kamera gefühlt eine Akku schneller leersaugt, als man "Blackmagic Pocket Cinema Camera 4k" sagen kann. Aber auch dafür gibt es Lösungen.
komm nur nicht auf die Idee die Kamera über Moza Air 2 DC-Ausgang mit Strom zu versorgen: https://forum.blackmagicdesign.com/view ... 10#p502445
Antwort von rush:
Sitzen Eure Viltrox Adapter eigentlich satt und ohne Spiel im Bajonett der P4K?
Ich habe jetzt zwei Nikon/MFT Speedys probiert und beide haben ein merkliches Spiel im Bajonett der P4k...
Mein Vizelex ND Throttle Nikon/MFT Adapter sitzt dagegen tadellos im Bajonett.
Antwort von roki100:
rush hat geschrieben:
Sitzen Eure Viltrox Adapter eigentlich satt und ohne Spiel im Bajonett der P4K?
Ich habe jetzt zwei Nikon/MFT Speedys probiert und beide haben ein merkliches Spiel im Bajonett der P4k...
Mein Vizelex ND Throttle Nikon/MFT Adapter sitzt dagegen tadellos im Bajonett.
siehe: https://forum.blackmagicdesign.com/view ... =2&t=81887 und hier https://forum.blackmagicdesign.com/view ... =2&t=81437
Antwort von Sammy D:
rush hat geschrieben:
Sitzen Eure Viltrox Adapter eigentlich satt und ohne Spiel im Bajonett der P4K?
Ich habe jetzt zwei Nikon/MFT Speedys probiert und beide haben ein merkliches Spiel im Bajonett der P4k...
Mein Vizelex ND Throttle Nikon/MFT Adapter sitzt dagegen tadellos im Bajonett.
Ganz unterschiedlich bei Adaptern und Objektiven.
Meine Metabones sitzen sehr fest, ein FD-Booster scheint gleich aus der Fassung zu fallen, manuelle Objektive wie Veydra und Cosina haben viel Spiel (mehr als z.B. An der GH5), Panasonic-Objektive hingegen sind relativ fest.
Ich denke, dass dies eine Kombination von laschen Fertigungstoleranzen sowohl bei den Adaptern, Objektiven als auch bei der Pocket selbst ist.
Bei der BMD Micro beispielsweise sind die Metabones kaum draufzubekommen.
Antwort von rush:
Ehrlich gesagt bin ich sowas nicht gewohnt... Habe diverse Nikon auf Sony Adapter gehabt und da gab es eigentlich nie "spürbares" Spiel.
Auch an meiner ganz alten GH2 kann ich mich an solch Toleranzen eigentlich nicht erinnern - auch damals habe ich diverses Nikon-Mount Glas bereits auf MFT adaptiert.
So ein Standard ist doch theoretisch definiert - warum hält man sich nicht dran? Ist das wirklich so schwer? Ich mein bei den günstigen Derivaten mag man es ja vielleicht noch verzeihen aufgrund des Preises - aber die Metabones Teile kosten ja richtig Geld - und dort scheint es den Links nach zu urteilen ähnliche Probleme zu geben... oder muss man den schwarzen Peter in dem Falle eher BMD zuordnen - was mich ehrlich gesagt sogar kaum verwundern würde - aber dennoch traurig wär?!
Antwort von cantsin:
Um mal diese alte Diskussion auszugraben:
cantsin hat geschrieben:
funkytown hat geschrieben:
Wenn ich mit einem 35mm Objektiv arbeite und bin 3 Meter vom Motiv entfernt habe ich selbst mit Blende f1.4 noch über einen halben Meter Tiefenschärfe. Wohlgemerkt am Vollformat! Guck Dir einfach mal in Ruhe diese Seite zum Berechnen der Tiefenschärfe an: https://www.dofmaster.com/
Sorry, aber diese alten Formeln funktionieren im 4K-Zeitalter nicht mehr. Schärfe ist heute, bei hohen Auflösungen, viel kritischer geworden und die alten Kleinbildfotografie-Formeln für DoF und verwackelungsfreie Freihand-Fotos stimmen alle nicht mehr.
Über diese Aussage entsponn sich hier ein kleiner Glaubenskrieg. Hier ein aktueller Artikel, der sie bestätigt:
"For decades the core technique for precision focusing was the hyperfocal method, especially in landscape images. This technique makes use of pre-calculated focus distances to quickly set a lens, for an acceptable level of sharpness throughout the final image.
The values used are based on outdated parameters – namely the circle of confusion, which refers to the physical size of a blurred point of light, measured in millimeters.
The term 'acceptable sharpness' is variable and based on the quality of lenses and film available in the Nineteenth Century. In today’s world of ultra-precision optics and high resolution sensors, though, the values produced will not make the most of the total quality possible."
https://www.digitalcameraworld.com/amp/ ... -technique