Frage von scrooge:Hallo zusammen,
da ich gerade etwas Neuland betreten habe, habe ich eine Frage an, die Erfahreneren. :-)
Ich habe mir vor ein paar Tagen die Sony RX10 Mk 2 zugelegt und bin sehr angetan von der Kamera. Sehr schön finde ich auch, wie gut die Hauttöne abgebildet werden.
Nun habe ich mir diverse Tests und Tutorials zum Thema slog-2 duchgelesen. Als Rudi die RX10 II damals getestet hat, empfahl er, eher mit Cine1 zu drehen als mit slog-2, insbesondere wegen der 8-Bit Begrenzungen.
Nach allem, was ich auf anderen Seiten gelesen hatte, war ich dann zu folgendem Schluss gekommen:
Ich drehe nur dann in slog-2 (also Sony PP7), wenn es im Bild sehr helle Bereiche gibt, weil der Dynamikumfang von slog-2 hier besonders gut ist. Bei allen anderen Aufnahmen drehe ich mit Cine1 (also Sony PP5).
Bei den slog-2-Aufnahmen verwende ich dann ein LUT, das nicht farbkorrigiert, sondern lediglich die Dynamik wieder nach Rec709 "spreizt".
Dann korrigiere ich die Farben nach Bedarf.
EIGENTLICH, dachte ich, das sei eine gute Strategie. ;-)
Deshalb habe ich einfach mal die selbe Aufnahme einmal mit Cine1 gedreht und einmal mit slog-2 (mit ca. 2 Blenden Überbelichtung, wie empfohlen). Dann das LUT auf die SLOG-2 Aufnahme angewendet.
Aber wenn ich mir die beiden Aufnahmen ansehe, dann haben sie einfach eine unterschiedliche Farbcharakteristik. Wenn ich farbkorrigiere, reagieren sie auch unterschiedlich. Die Aufnahme mit Cine1 ist auch schärfer, als mit slog-2 (was wohl nicht nur am Kontrast liegt). Nachschärfen will ich aber eigenlich nicht. Insgesamt gefällt mir die slog-2 Aufnahme besser.
Ich hab einfach mal je ein Standbild angehängt, ohne Sättigung, Kontrast etc. zu verändern.
Wegen der unterschiedlichen "Anmutung" der Aufnahmen würde ich denken, man muss eine Szene mit viel Sonne draußen besser
komplett in slog-2 drehen und eine andere Szene (z.B. bewölkt oder innen)
komplett in Cine 1.
Wie seht ihr das? Oder mache ich da noch einen Denkfehler?
LG
Hartmut
Antwort von WoWu:
Das sind zwei verschiedene Dinge, die Du da vergleichst.
S-log2 ist eine Übertragungsfunktionen und Cine1 ist eine Gamma Einstellung.
Führst Du S - Log 2 auf lin zurück, fehlt Dir immer noch die Gammaeinstellung.
Deswegen sind die Ergebnisse unterschiedlich.
Was die Schärfe betrifft ist der Sichteindruck das Ergebnis des benutzten Gammas. Das Bild ist nicht unschärfer sondern lediglich kontrastärmer.
Antwort von scrooge:
Das versteh ich nicht ganz (Neuland eben...)
Wenn ich das PictureProfile 7 einstelle und dann die Optionen aufrufe, dann ist dort als Gammawert "S-Log2" eingestellt und als Farbmodus S-Gamut. Im Picture Profile 5 steht Gamma auf "Cine1" und Farbmodus auf "Cinema".
Cine1 ist eine Hypergamma-Kurve.
LG
Hartmut
Antwort von WoWu:
So, wie ich oben Deine Ausführungen verstanden habe, hast Du S-Log2 linearisiert, die Gammaveränderung aus Cine1 aber so gelassen.
Genau dieser Gammasprung ist aber jetzt der Unterschied, den Du siehst.
Im Prinzip kannst Du durchaus unterschiedliche Szenen in verschiedenen Übertragungsfunktionen aufnehmen (das ist sogar der Sinn der Sache, dass man optimale Übertragungsfunktionen entsprechend der Ausgangslage anwendet).
Du musst nur in der Post zunächst dafür sorgen, dass die Basiswerte wieder übereinstimmen, um identische Ausgangwerte für das Grading zu haben sonst wird das Grading eine ziemliche Wundertüte.
Aber mal eine ganz andere Frage .... wenn Du in den Übertragungsfunktionen noch nicht so erfahren bist, warum dann überhaupt solche extremen Funktionen wie s-log2 ?
Kommt es Dir auf 1- 1,5 Blenden in irgend einem Bereich an ?
Du bist doch in den meisten Fällen mit einer HG Kurve genauso gut, wenn nicht sogar besser bedient.
Alternative ist, die Übertragungsfunktionen aneinander anzupassen.
https://cameramanben.github.io/LUTCalc/
Antwort von wolfgang:
Ich sehe zumindest einen Denkfehler: es geht ja immer um die Gammafunktion aber auch um den Gamut (Farbraum). Filmst du mit slog, so ist das sowohl eine andere Gammafunktion als rec709, aber auch ein anderer Gamut (eben S-Gamut). Daher brauchst du bei slog sowohl einen Lut welches die Gammafunktion transformiert, aber dir auch den Farbraum wandelt. Ideal gelingt dir das mit einem Farbmanagementsystem.
Bei HG hingegen brauchst primät eine Gammatransformation, auch HG bringt ja mehr als die 6-7 Blendenstufen von rec709 unter. Der Gamut ist vermutlich recht ähnlich zu rec709.
Antwort von Roland Schulz:
Alles nen bisschen am Ziel vorbeigewackelt - es gibt "praktisch" keine standardisierte S-LOG Linearisierungsfunktion da die Wiedergabe bei jeder Kamera die ich bisher in der Hand hatte anders aussieht und u.A. auch mit dem nativ abbildbaren Kontrastumfang zusammenhängt. Es gibt zudem zahlreiche S-LOG Luts von verschiedenen Anbietern die auch alle etwas anders aussehen. Glaube "viele" die hier S-LOG nutzen basteln sich in Resolve mitlerweile subjektiv eigene "Linearisierungen" zusammen.
Die Luts erfodern in der Regel auch eine sehr korrekte Belichtung, sonst landet man ohnehin wieder irgendwo falsch in der Ü-Funktion.
Zum Problem: mal bitte in die jeweiligen PP-Profile sehen, da wird man dann feststellen dass das S-LOG2 "Profil" nen anderen Farbgamut nutzt als das Cine1 Profil.
Weiterhin ist in der Regel eine andere Nachschärfung voreingestellt (Detail). Bei S-Log ist das zurückgedreht um das Rauschen nicht zu stark zu betonen.
Sowohl S-LOG als auch Cine1 sind
Übertragungsfunktionen!!
Kenne die RX10II nicht so gut, aber die Standardfarbräume der Bildprofile gefielen mir oft nicht so wirklich. Einfach mal das Cine1 Profil hier und da etwas verändern, Detail ggf. zurück und beim Gamut mal "Movie" testen wenn vorhanden. War mein Favorit bei der a6500 (nicht ITU). Bei der a7III sehe "ich" ITU Color dagegen als "besser" an.
Es ist zudem ein Irrglaube dass S-LOG den größeren Kontrastumfang abbildet. Spätestens bei der a7III habe ich hier mal mit ner DR Wedge gezeigt dass Cine 1 sogar etwas mehr liefert.
Ich behaupte weiterhin dass Cine1 zumindest bei einer 8bit Kamera Vorteile bietet weil den mittleren Tonwerten, da wo i.d.R. das meiste passiert, mehr Abstufungen zugewiesen sind.
Antwort von scrooge:
Hallo zusammen,
vielen Dank für eure Antworten. Ich gebe zu, dass ich nun verwirrter bin als zuvor. ;-)
@WoWu:
Du hast vermutet, dass ich S-Log2 linearisiert und die Gammaveränderung aus Cine1 so gelassen habe.
In Wirklichkeit habe ich (als unbedarfter Einsteiger) einfach nur folgendes gemacht:
Ich habe gesehen, dass es in der RX10II sieben verschiedene Picture Profiles gibt: PP1 - PP7. Wenn man sich für das jeweilige Profil die Details ansieht, dann stellt man fest, dass PP7 das Profil für S-Log2 ist, denn da ist S-Log2 für Gamma eingestellt und S-Gamut als Farbmodus.
Dagegen ist PP5 das Profil für Cine1, denn da ist bei Gamma: Cine1 angegeben und als Farbmodus: Cinema. Und durch Rudis Test wusste ich dass Cine1 eine HG Kurve von Sony verwendet.
Ich habe also nichts anderes gemacht, als einmal mit dem PP5 zu filmen und einmal mit PP7.
Du hattest gefragt, warum ich überhaupt S-Log2 verwende, wenn ich in den Übertragungsfunktionen noch nicht so bewandert bin.
Die Antwort dazu hatte ich ja schon geliefert: S-Log2 macht Sinn, wenn man sehr helle Bereiche im Bild hat. In meinen Beispielbildern sieht man das auch (z.B. An der Nasenspitze der Nicci-Figur, die bei S-Log2 noch mehr Zeichung hat).
Und in allen anderen Fällen machen die HG Kurven mehr Sinn, wie ja auch Rudi in seinem Test vorgeschlagen hatte.
Also:
Ich will nichts an den Picture Profiles ändern, weil ich davon zu wenig verstehe und weil ich vermute, dass die von Sony voreingestellten Parameter Sinn machen.
Mir geht es eher darum, wie ich die hinzu gewonnene DR in den hellen Bildbereichen bei S-Log2-Aufnamen erhalten kann, wenn ich per LUT nach Rec709 gehe und gleichzeitig diese Aufnahmen mit den Cine1/HG-Aufnahmen (von PP5) kombinieren kann, ohne dass sie so unterschiedlich aussehen.
Inzwischen vermute ich aber, dass es doch sehr vom verwendeten LUT abhängt, denn vorhin habe ich mal ein anderes LUT ausprobiert und da war der Unterschied zur Cine1/HG Aufnahme nicht mehr so groß.
@ Wolfgang
Ist dein zweiter Absatz so zu verstehen, dass man bei den Cine1-Aufnahmen in der Postproduktion dann auch ein LUT benötigt? Oder wie bekommt man die Gammatransformation hin?
@ Roland
Vielen Dank für die Info. Ich hatte angenommen, dass S-Log2 standardisiert sei. Vielleicht kommt man um das Rumprobieren an den Parametern nicht herum, aber ich denke, dass man das Rad ja nicht immer neu erfinden muss. Vielleicht gibt es ja jemanden, der für die RX10II ein paar Tipps geben kann. Ich schau mich da mal um.
Du hast betont, dass S-Log und Cine1 Übertragungsfunktionen sind. Wie meinst du das?
Aus all dem gelesenen und geschriebenen ergeben sich für mich nun folgende konkrete Fragen:
1.
Liege ich richtig, wenn ich auf Cine1 / HG setze und S-Log2 nur dann einsetze, wenn in bestimmten Bildbereichen Überbelichtung droht, mir diese Bereiche aber wichtig sind?
2.
Wie komme ich von Cine1 / HG in der Postproduktion nach Rec709?
3.
Wie kann ich Cine1/HG und S-Log2 Aufnahmen am besten matchen, ohne zum „Postprofi“ werden zu müssen? Ist es „nur“ eine Frage der richtigen LUTs?
LG
Hartmut
Antwort von WoWu:
Hallo Hartmut.
Schönen Dank, für die weiterreichende Erklärung, aber das würde ja bedeuten, dass Du überhaupt keine Linearisierung vorgenommen hast, wobei ein Bild mit LUT gekennzeichnet ist, also irgend etwas hast Du da schon in Richtung 709 linearisiert.
Die sLog2 ist von Sony ursprünglich für ihre „super high end“ Kameras, wie der F35 entwickelt worden und exakt spezifiziert und damit auf den, dafür vorgesehenen Kameras bei Einhaltung der Belichtungsvorschrift ( speziell das ISO Setting) präzise anwendbar und reversibel.
Insofern liegen ggf. Abweichungen nicht am SLog sondern an unpräzisen Kameras und/oder die Anwender halten sich nicht an diese Rahmenbedingungenfür S-Log Anwendung.
Damit liegt aber das Problem 30cm hinter der Kamera.
(Ich hab Dir als Anlage mal das Beispiel einer a6300 angehängt, bei der man sieht, wie miserabel die Blenden auf der Übertragungsfunktion abgebildet werden. Dass das bei s-Log zu unbefriedigenden Ergebnissen führt, sollte niemanden verwundern. S-LOG ist für präzise Kameras entworfen.)
Bildschirmfoto 2018-07-26 um 19.45.00.png
Grundsätzlich musst Du aber bei Verwendung unterschiedlicher Übertragungsfunktionen diese entweder aufeinander abstimmen, oder jede einzelne auf eine andere, gemeinsame Übertragungsfunktionen (z. B.709) zurückführen weil ein freies Grading innerhalb der unterschiedliche Verfahren zu erhebliche Abweichungen führen kann.
Oben hab ich einen Link für ein Tool nachgetragen, das LUTs für die unterschiedlichsten Übertagungen erzeugen kann.
Aber ich befürchte eben, dass Du da für wenig nutzbaren Effekt viel Aufwand betreibst und daher nochmal meine Empfehlung, erst einmal von gemischten Übertragungsfunktionen (speziell von relativ komplexen Verfahren) abzusehen und Dich in deren Problematik zunächst in Ruhe einzuarbeiten.
Zu deiner Frage 1
Ja, wenn Du anschließend das Material in der Post richtig behandelst.
Frage 2
Mit einer entsprechenden LUT
Frage 3
Wenn Du Dir zutraust, mit dem oben verlinkten Tool umgehen zu können, wäre das eine Lösung, setzt allerdings voraus, dass SLog streng nach Sonyvorgaben belichtet worden ist.
Daran hapert es aber meistens schon ... mit dem Ergebnis, dass dann natürlich auch solche LUTs nicht mehr genau stimmen, weil die sich exakt an den Sony Vorgaben orientieren.
Fazit ... nimm Cine1 und experimentier erst mal mit S-Log, bis Du die Feinheiten und Fallstricke gefunden hast ... ebenso wie die Probleme Deiner Kamera in diesem Zusammenhang.
Antwort von wolfgang:
Selbstverständlich ist slog sehr exakt spezifiziert Roland, für diese Übertragungsfunktion gibt es white papers und klare Formeln. Da ist aber auch nichts mieserabel auf Blenden abgebildet, sondern bei 10bit aufwärts hat man genug Werte pro Blendenstufe. Für 8bit ist das aber nicht gedacht gewesen. Vor allem nicht wenn die Aufnahme nachher massiv zu rec709 umgerechnet werden soll kann das eng sein.
Natürlich sind die HG Kurven nicht exakt rec709 und brauchen ebenfalls Transformationen, etwa über LUTs. Manche Farbmanagementsysteme wie etwa der Logarist sehen das auch vor.
Ob Cine1 in dieser Kamera jetzt wirklich einer der (ebenfalls normierten) HG Funktionen entspricht weiß ich aber nicht?? In meiner FS7 heißt eben HG1 bis HG8 auch wirklich HG. Der Lut Kalkulator hat eben die HG Profile abgebildet aber nicht irgendwelche Derivate davon.
Gerade bei einer Aufzeichnung mit HG kann man aber sehr wohl einen größeren Dynamikumfang abbilden UND gleich ein rec709 recht ähnliches Bild bekommen - und eher als bei log gleich zu 8bit aufzeichnen. Wenn die Kamera nur 8bit kann ist das durchaus vorteilhaft. Wenn man dann noch dazu kaum Erfahrung mit der Belichtung von log und dem Graden der flachen log Profile hat kann das tatsächlich vor log die bessere Wahl sein.
Belichten sollte man aber auch (und gerade bei 8bit!!) HG wie auch log immer sehr definiert - nach Graukarten und gezielt überbelichtet. Um dann noch den Kontrast für rec709 noch leicht anzupassen und es sonst gut sein lasssn zu können.
Antwort von Bruno Peter:
wolfgang hat geschrieben:
Selbstverständlich ist slog sehr exakt spezifiziert Roland, für diese Übertragungsfunktion gibt es white papers und klare Formeln. Da ist aber auch nichts mieserabel auf Blenden abgebildet, sondern bei 10bit aufwärts hat man genug Werte pro Blendenstufe. Für 8bit ist das aber nicht gedacht gewesen. Vor allem nicht wenn die Aufnahme nachher massiv zu rec709 umgerechnet werden soll kann das eng sein.
Natürlich sind die HG Kurven nicht exakt rec709 und brauchen ebenfalls Transformationen, etwa über LUTs. Manche Farbmanagementsysteme wie etwa der Logarist sehen das auch vor.
Ob Cine1 in dieser Kamera jetzt wirklich einer der (ebenfalls normierten) HG Funktionen entspricht weiß ich aber nicht?? In meiner FS7 heißt eben HG1 bis HG8 auch wirklich HG. Der Lut Kalkulator hat eben die HG Profile abgebildet aber nicht irgendwelche Derivate davon.
Gerade bei einer Aufzeichnung mit HG kann man aber sehr wohl einen größeren Dynamikumfang abbilden UND gleich ein rec709 recht ähnliches Bild bekommen - und eher als bei log gleich zu 8bit aufzeichnen. Wenn die Kamera nur 8bit kann ist das durchaus vorteilhaft. Wenn man dann noch dazu kaum Erfahrung mit der Belichtung von log und dem Graden der flachen log Profile hat kann das tatsächlich vor log die bessere Wahl sein.
Belichten sollte man aber auch (und gerade bei 8bit!!) HG wie auch log immer sehr definiert - nach Graukarten und gezielt überbelichtet. Um dann noch den Kontrast für rec709 noch leicht anzupassen und es sonst gut sein lasssn zu können.
Wolfgang(vom Videotreffpunkt),
es freut mich, dass Du nach einem Jahr wieder
auf dem Boden der Realität angekommen bist bezüglich 8bit-Aufzeichnung was die meisten Hobbyfilmer nutzen.
Wer sich mehr künstlerisch austoben will, bitte sehr, er muss halt dafür den Geldhahn öffnen und sehr viel Zeit für die Nachbehandlung der Aufnahmen mitbringen.
Antwort von Roland Schulz:
Wowu-Wolfgang und Wolfgang schon haben Recht, S-LOGn ist theoretisch durch Sony definiert, richtig.
Ich schrieb" aber dass das "in der Praxis" nur bedingt relevant ist da die Kameras das alle etwas unterschiedlich leben.
Eine FS7 sieht in S-LOG2 auch anders aus als eine F55 (ohne die F35 zu kennen). Da kann man bei ISO2000 bleiben und auch korrekt auf 18% Grau belichten. Es sieht immer alles ein wenig anders aus und gerade in den Tiefen gibt es teils signifikante Unterschiede.
Nochmal, ich kenne die RX10II kaum aber die a6300/6500 und die a7III und da würde ich aus meiner Erfahrung sagen Finger weg von S-LOG und eher die Cine1 HG wählen, welche gemessen zumindest auf der a7III den größten Dynamikumfang bereits halbwegs praxisgerecht abbildet.
Man muss auch aufpassen wie und worauf man subjektive Vergleiche anstellt!! Die Cine1 Übertragungsfunktion geht je nach Kamera z.B. bis zu einem Lumawert von IRE109/RGB255. Selbst viele Videoschnittprogramme, Monitore oder Fernseher begrenzen/clippen aber bei IRE100, so dass ggf. noch vorhandene Zeichnung nicht direkt sichtbar ist sondern erst nach entsprechender Korrektur im NLE.
S-LOG nutzt diese Dynamik/Wertebereich gar nicht, bleibt selbst im Clipping deutlich unter "IRE"109/RGB255 (oft auch wieder Kameraabhängig).
Man kann ohne Gefahr die PP1-n Bildprofile in den Sony Kameras verändern, da man diese durch die jeweilige Reset Funktion im Bildprofil selbst auch jederzeit wieder zurücksetzen kann (KEINE allgemeine Rücksetzung der Kamera nötig!). Zum Vergleich kann man auch sehr schön ein Profil mal auf einen anderen "Speicherplatz" kopieren und dort modifizieren.
Ohne Anpassungen werden weiterhin Äpfel mit Birnen verglichen, ein anderer Gamut wirkt u.U. visuell ja auch schon anders.
Die Nachschärfung (bei Sony DETAIL) kann auch zu einem anderen Bildeindruck führen. S-LOG ist in der Regel etwas zurückgefahren um Rauschen nicht zu sehr zu betonen, die anderen Gammas sind teilweise überzogen. Selbst das gleiche Setting führt kameraübergreifend zu unterschiedlichen Ergebnissen. So steht meine a6500 bei Detail auf -2, meine a7M3 dagegen auf +2 um ein visuell sehr ähnliches Ergebnis (auch in Bezug auf Halos) zu erhalten.
Eine Übertragungsfunktion beschreibt mit welchem Faktor das aufgenommene Signal über die Dynamik in das ausgegebene skaliert wird.
Alle xLOG- sowie Gammafunktionen sind gemeinsam Übertragungsfunktionen.
Antwort von Axel:
Auf der Suche nach den besten Bildprofilen war ich ebenfalls anfangs zwischen Cine2, Cine4 und Slog2 hin- und hergerissen. Ich finde aber das nötige Umdenken lästig und suche eher nach
einem Standardprofil, das es mir erlaubt, in jeder Situation eine grobe halb-intuitive Kalkulation zur optimalen Belichtung zu machen. Damit Ruhe im Karton ist, habe ich mich letzten Endes für Slog2 entschieden. Das alte Argument, dass Slog2 für fein nuancierte Hauttöne in relativ flacher Beleuchtung vergleichsweise suboptimal ist, gilt weiter. Muss jeder selbst wissen. Ich finde mich bei einem durchschnittlichen Hochzeitsdreh so oft plötzlich wechselnden Lichtsituationen und Extremen ausgesetzt, dass das ständige Wechseln von einem Profil zum anderen zu sehr vom Eigentlichen ablenkt.
Antwort von Roland Schulz:
Axel hat geschrieben:
Auf der Suche nach den besten Bildprofilen war ich ebenfalls anfangs zwischen Cine2, Cine4 und Slog2 hin- und hergerissen.
Cine2 (manche Kameras haben kein Cine1) hat den "Nachteil", das alles oberhalb von IRE100 abgeschnitten wird, sich gerade da in ner Hypergamma aber noch mal was "abspielt".
Antwort von scrooge:
Hallo zusammen,
ich bin immer wieder begeistert, wie viel Fachwissen hier versammelt ist. Echt eine tolle Community! :-)
Manches hab ich noch nicht verstanden, aber für mich kristallisieren sich da dann doch einige Erkenntnisse heraus:
1.
S-Log2 wirkt sich bei jeder Kamera verschieden aus - verlangt also ganz individuelle Settings etc.
2.
Bleibe bei einem Profil für den gesamten Film, dann ersparst du dir Probleme.
3.
Cine1 / HG ist problemloser und kann (außer bei krassen Helligkeitsunterschieden) eine ebenso gute (oder bessere?) Dynamik bieten wie S-Log2.
Daher werde ich mich für ernste Arbeiten erst mal auf Cine1 verlassen, aber anhand eurer Tipps nebenbei noch mit S-Log2 rumtüfteln.
WoWu, du hattest geschrieben, von Cine1 geht es auch per LUT zu Rec709. Das bringt mich zum Thema LUTs:
Gibt es LUTs, die als besonders gut geeignet gelten (Für S-Log2) ?
Gibt es sogar spezielle LUTs für Cine1 (also HG4609G33) ?
LG
Hartmut
Antwort von WoWu:
Es gibt für jede Übertragungsfunktion die entsprechende Reverse Funktion.
Nur hängt eben die Wirkung (Genauigkeit) sehr stark an der Präzision der Belichtung (sowohl Bedienung, als auch Hardware).
Daher kann eine solche Umkehrung sowohl als Funktion, als auch als LUT unterschiedliche Ergebnisse bringen.
Ich kenne keinen Kamerahersteller, der keine Reversefunktionen, oder mindestens LUTs nach 709 anbietet.
Daher würde ich zunächst immer die, der Hersteller downloaden, bevor ich irgend etwas „selbstgebastelten“ aus dem Internet benutzen würde, denn ( siehe Grafik) wenn dass für so eine unpräzise Kamera gemacht ist, passt das zwar in dem Einzelfall, aber schon nicht mehr für eine anständig belichtende Kamera.
LUT ist also nicht gleich LUT. Nimm die, von den Herstellern oder experimentier mal mit der LUTCalc, (siehe Link) wenn Du Dich da einarbeiten willst und evtl. die Sache für Deine spezielle Kamera noch optimieren willst.
Die Entscheidung, zunächst mit einem HG zu arbeiten ist vernünftig, zumal die Unterschiede ziemlich klein sind.
Antwort von Frank Glencairn:
LOG bei nem massiv komprimierten long GOP 8 bit Codec ist Wahnsinn.
Selbst wenn man nix macht, als das ganze in den 709 Raum zu normalisieren sieht man schon
im Waveform wie das Material auseinander fällt.
10bit und Intra-Frame Codec ist IMHO das Minimum.
Hab bei der FS100 damals und meiner Phantom ewig mit LOG rumgetan.
Irgendwann hab ich dann mal direkte Vergleichsbilder geschossen, und die waren ohne LOG deutlich besser.
Antwort von wolfgang:
"Bruno Peter" hat geschrieben:
wolfgang hat geschrieben:
Selbstverständlich ist slog sehr exakt spezifiziert Roland, für diese Übertragungsfunktion gibt es white papers und klare Formeln. Da ist aber auch nichts mieserabel auf Blenden abgebildet, sondern bei 10bit aufwärts hat man genug Werte pro Blendenstufe. Für 8bit ist das aber nicht gedacht gewesen. Vor allem nicht wenn die Aufnahme nachher massiv zu rec709 umgerechnet werden soll kann das eng sein.
Natürlich sind die HG Kurven nicht exakt rec709 und brauchen ebenfalls Transformationen, etwa über LUTs. Manche Farbmanagementsysteme wie etwa der Logarist sehen das auch vor.
Ob Cine1 in dieser Kamera jetzt wirklich einer der (ebenfalls normierten) HG Funktionen entspricht weiß ich aber nicht?? In meiner FS7 heißt eben HG1 bis HG8 auch wirklich HG. Der Lut Kalkulator hat eben die HG Profile abgebildet aber nicht irgendwelche Derivate davon.
Gerade bei einer Aufzeichnung mit HG kann man aber sehr wohl einen größeren Dynamikumfang abbilden UND gleich ein rec709 recht ähnliches Bild bekommen - und eher als bei log gleich zu 8bit aufzeichnen. Wenn die Kamera nur 8bit kann ist das durchaus vorteilhaft. Wenn man dann noch dazu kaum Erfahrung mit der Belichtung von log und dem Graden der flachen log Profile hat kann das tatsächlich vor log die bessere Wahl sein.
Belichten sollte man aber auch (und gerade bei 8bit!!) HG wie auch log immer sehr definiert - nach Graukarten und gezielt überbelichtet. Um dann noch den Kontrast für rec709 noch leicht anzupassen und es sonst gut sein lasssn zu können.
Wolfgang(vom Videotreffpunkt),
es freut mich, dass Du nach einem Jahr wieder auf dem Boden der Realität angekommen bist bezüglich 8bit-Aufzeichnung was die meisten Hobbyfilmer nutzen.
Wer sich mehr künstlerisch austoben will, bitte sehr, er muss halt dafür den Geldhahn öffnen und sehr viel Zeit für die Nachbehandlung der Aufnahmen mitbringen.
Gehts noch? Ich habe IMMER den Standpunkt vertreten dass man log nicht mit 8bit kombinieren soll. Deine arrogante Behauptung, ich sei nicht am Boden der Realität, ist da völlig absurd.
Antwort von wolfgang:
"Frank Glencairn" hat geschrieben:
LOG bei nem massiv komprimierten long GOP 8 bit Codec ist Wahnsinn.
Selbst wenn man nix macht, als das ganze in den 709 Raum zu normalisieren sieht man schon
im Waveform wie das Material auseinander fällt.
10bit und Intra-Frame Codec ist IMHO das Minimum.
Sag ich seit Jahren, nur wollen das viele nicht hören die eben nicht von 8bit weg wollen. Und es kostet vergleichsweise wenig wenn man die GH5 verwendet.
Antwort von wolfgang:
Der Unterschied zwischen einer FS7 und einer F55 liegt nicht in der normierten Übertragungsfunktion slog. Sondern wohl in der Güte des Sensors. Nur bedeutet das nicht das slog oder die Behandlung in einem Farbmanagementsystem unterschiedlich wäre, sondern die Sensoren und Kameras sind es eben.
HG4609G33 ist die HG4 Funktion, und im bereits genannten LUTCalc ist das die HG4. Mit LutCalc kann man einen LUT von HG4 zu rec709 erstellen.
Antwort von Roland Schulz:
Also wer ne GH5 ner a6500 oder erst recht ner a7III allein wegen 10bit vorzieht sollte unbedingt selbst mal eigene Vergleiche mit den Kameras anstellen.
10bit bringt nichts wenn der Sensor „nichts“ bringt. 10bit ist kein Qualitätsargument für ne GH5.
Bei ner RX10 wäre das aber noch mehr Perlen vor die Säue, ähnlich wie schon bei der X70 in FHD.
Antwort von scrooge:
Leider finde ich weder bei Sony selbst noch sonst irgendwo LUTs, die von Cine1 (HG4609G33) nach Rec.709 übertragen.
Hat da jemand einen Tipp für mich?
Wolfgang du hattest ja geschrieben, man könne sich ein entsprechendes LUT mit LutCalc erstellen. Ich bin zwar technisch nicht unerfahren, aber LutCalc überfordert mich leider. :-\
LG
Hartmut
Antwort von Bruno Peter:
wolfgang hat geschrieben:
Mit LutCalc kann man einen LUT von HG4 zu rec709 erstellen.
Was für ein Wahnsinn..., am Ende hat man das heißersehnte rec709 Videomaterial...
Antwort von mash_gh4:
"Bruno Peter" hat geschrieben:
wolfgang hat geschrieben:
Mit LutCalc kann man einen LUT von HG4 zu rec709 erstellen.
Was für ein Wahnsinn..., am Ende hat man das heißersehnte rec709 Videomaterial...
sehe ich ähnlich!
ein programm zu verwenden, dass beide Log-Varianten sauber in einen viel größeren arbeits-farbraum überträgt und mit ausreichend hoher genauerigkeit rechnet, ist in solchen fällen die deutlich vernünftiger bzw. handwerklich vorbildlichere lösung.
Antwort von scrooge:
Ich dachte eigentlich, am Ende muss man immer auf Rec709 zurück gehen, damit das Bild auf den gängigen Fernsehern, Monitoren etc. richtig aussieht. Oder habe ich da was falsch verstanden?
Antwort von mash_gh4:
scrooge hat geschrieben:
Ich dachte eigentlich, am Ende muss man immer auf Rec709 zurück gehen, damit das Bild auf den gängigen Fernsehern, Monitoren etc.
ja -- aber erst "am ende!" bis dahin ist es deutlich vorteilhafter, wenn man sich anderer mittel bedient, die mit deutlich größeren farbräumen und dynamikumfang vernünftig umgehen können -- also tatsächlich die enthaltenen informationen und reserven in vollem umfang (bspw. für div. korrekturen) voll ausschöpfen kann, auch wenn man das ganze dann im letzten schritt tatsächlich wieder nur für die ausgabe auf bescheidenerem gerät optimiert.
Antwort von WoWu:
@Hartmut
Du hast mit der Cine1 schon soetwas wie 709, nur eben nicht lin sondern mit einer Art ( weichem ) Knee.
Ich würde daher sogar noch einen Schritt weiter gehen und in Anbetracht, dass Cine1 sich über den kritischen Verlauf der Enzerrung gar nicht von 709 (lin) unterscheidet, die Funktion in dem Teil, in dem sie sich unterscheidet, nämlich in den hellen Anteilen, ohne vorherige Rückführung nach Geschmack graden.
Die Kurven unterscheiden sich nur geringfügig von 709(Annix) mit Knee Verlauf.
Antwort von scrooge:
@mash-gh4
Du meinst also in der Postproduktion zunächst Farbkorrekturen etc. zu machen und als letzten Schritt dann per LUT nach Rec709 zu gehen, richtig?
@WoWu
Wie mache ich das ganz praktisch? Ich drehe also mit Cine1 und was mache ich dann in der Postproduktion?
Für mich als Einsteiger klingt es fast, als könnte ich die Cine1 Clips nach eigenem Gutdünken graden und brauche gar kein LUT für die finale Ausgabe des Films (?)
Bei Sony heisst es über Cine1:
Images shot with this gamma can be used without grading, but since the images have smooth gradation characteristics, this can be used to grade and finalize the viewed image in the post-production process.
Antwort von Roland Schulz:
Cine1 bringt in den Tiefen auch mehr Zeichnung als die interne ITU/709 Kurve, kann dort auch über Black Gamma etc. weiter angepasst werden.
Aber schon richtig, im Post an den eigenen Geschmack anpassen und am besten/korrekterweise den Bereich größer IRE100 auf IRE100 bringen.
Antwort von Funless:
Hmmm ... also ich grade Cine1 überhaupt nicht. Farblich habe ich mir das Cine1 PP „in Camera“ schon so eingestellt, bzw. angepasst wie ich‘s haben möchte (die Möglichkeiten dafür sind ja dank des BionX Prozessors nahezu unendlich) und das Footage sieht auf dem Fernseher genauso aus wie zuvor schon beim Schnitt im NLE auf dem Computermonitor. Irgendeine Rückführung nach REC709 via LUT oder sonst wie mache ich gar nicht.
Natürlich muss ich bei der Aufnahme darauf achten richtig zu belichten aber da sind Histogramm und Zebra schon recht hilfreich für mich.
Antwort von mash_gh4:
scrooge hat geschrieben:
@mash-gh4
Du meinst also in der Postproduktion zunächst Farbkorrekturen etc. zu machen und als letzten Schritt dann per LUT nach Rec709 zu gehen, richtig?
das wovon ich spreche, findet man z.b. im ACES workflow -- nur klingt dieses acronym immer gleich so abschreckend und kompliziert, dass sich viele gar nicht erst in die nähe trauen, obwohl es einfach nur eine relativ vernünftige standardisierung jener arbeitsabläufe und ganz grundsätzlichen zugangsweisen darstellt, die sich für solche zwecke -- also bspw. die kombination von Slog2 und Cine1 bzw. material aus verschiedenen kameras, die weit über die rec709 repräsentationsmöglichkeiten hinausreichen -- weit besser eignet als traditionelle bearbeitung im rec709 arbeitsraum:
https://mixinglight.com/color-tutorial/ ... know-aces/
https://www.premiumbeat.com/blog/what-i ... r-grading/
http://www.oscars.org/science-technolog ... jects/aces
https://www.lightillusion.com/aces_overview.html
Antwort von WoWu:
@ Hartmut
Im Grunde genommen hast Du es im gesamten unteren Bereich mit einer 709 Übertragung zu tun.
Alle Werte sind identisch verteilt.
Lediglich im oberen Bereich läuft die Übertragungsfunktion weicher aus als 709.
Daher beschränkt sich die Arbeit in der Post auf die geschmackliche Anpassung in den Lichtern.
Wie Funless schon sagt ... und wie ich oben auch angesprochen habe.
Das ist die vernünftigste Übertragungsfunktion, bei der mit wenig Aufwand der helle Bereich besser aufgelöst wird.
Antwort von dienstag_01:
Was den meisten zu Anfang nicht klar ist, prinzipiell arbeitet man in jedem NLE in Rec 709 (oder 601 für SD). Bei manchen kann man andere Farbräume wählen, bei anderen auch die Luma Range (zwischen Full und Legal), die Vorschau ist auch nochmal ein eigenes Thema mit Stolpersteinen, aber ohne bewusst was zu verstellen landet man in 709. Von da an kann man viel richtig und viel falsch machen, man kann aber auch alles so lassen wie es ist und sagen: Ich will, dass es so hässlich aussieht ;) Geht.
Ein anderes Thema ist dann, ob man beim Export aus diesem 709 Projekt automatisch ein 709 kompatibles Video erhält. Eigentlich ja, aber wie so oft auf der Welt, nicht immer (deshalb gibt es z.B. Brodcast Video Limiter). Man sollte also schon ein wenig von den 709 Konventionen gehört haben.
Antwort von mash_gh4:
dienstag_01 hat geschrieben:
Was den meisten zu Anfang nicht klar ist, prinzipiell arbeitet man in jedem NLE in Rec 709 (oder 601 für SD).
in ganz einfachen od. sehr traditionbewussten programmen mag diese einschränkung u.u. bis heute gegeben sein, aber zumindest in allen anwendungen, die ernsthafteres color grading erlauben, gehört dieses limitierung längst der vergangenheit an!
welche vorzüge das in der praxis mit sich bringt, verdeutlicht das vierte der oben verlinkten videos möglicherweise am einleuchtendsten.
Antwort von scrooge:
Ich arbeite mit Vegas Pro 15, das auch den ACES Workflow unterstützt. Hatte mich mit dem Thema noch nicht weiter beschäftigt. Das werde ich jetzt ändern. ;-)
Danke für den Tip!
Antwort von dienstag_01:
mash_gh4 hat geschrieben:
dienstag_01 hat geschrieben:
Was den meisten zu Anfang nicht klar ist, prinzipiell arbeitet man in jedem NLE in Rec 709 (oder 601 für SD).
in ganz einfachen od. sehr traditionbewussten programmen mag diese einschränkung u.u. bis heute gegeben sein, aber zumindest in allen anwendungen, die ernsthafteres color grading erlauben, gehört dieses limitierung längst der vergangenheit an!
welche vorzüge das in der praxis mit sich bringt, verdeutlicht das vierte der oben verlinkten videos möglicherweise am einleuchtendsten.
Deswegen hatte ich NLE geschrieben. Aber klar, damit arbeiten nur noch Traditionalisten ;)
Antwort von mash_gh4:
dienstag_01 hat geschrieben:
Deswegen hatte ich NLE geschrieben. Aber klar, damit arbeiten nur noch Traditionalisten ;)
nein, zum scheiden machen solche einfachen und effizenten lösungen ja durchaus sinn, nur sollte man ihre gegeben begrenzungen einfach nicht übersehen, schön zu reden od. zu ignorieren versuchen. wenn jemand tatsächlich an besseren farbeingriffsmöglichkeiten interessiert ist, macht er das besser mit anderen werkzeugen.
Antwort von wolfgang:
"Roland Schulz" hat geschrieben:
Also wer ne GH5 ner a6500 oder erst recht ner a7III allein wegen 10bit vorzieht sollte unbedingt selbst mal eigene Vergleiche mit den Kameras anstellen.
10bit bringt nichts wenn der Sensor „nichts“ bringt. 10bit ist kein Qualitätsargument für ne GH5.
In meinen Augen schon.
Antwort von dienstag_01:
mash_gh4 hat geschrieben:
dienstag_01 hat geschrieben:
Deswegen hatte ich NLE geschrieben. Aber klar, damit arbeiten nur noch Traditionalisten ;)
nein, zum scheiden machen solche einfachen und effizenten lösungen ja durchaus sinn, nur sollte man ihre gegeben begrenzungen einfach nicht übersehen, schön zu reden od. zu ignorieren versuchen. wenn jemand tatsächlich an besseren farbeingriffsmöglichkeiten interessiert ist, macht er das besser mit anderen werkzeugen.
Jeder wie er mag. Grundlagenwissen ersetzt es aber nicht. Und mir ist einfach aufgefallen, dass hier im Fachchinesisch der eine oder andere den Boden verliert.
Kann mich ja täuschen ;)
Antwort von wolfgang:
mash_gh4 hat geschrieben:
"Bruno Peter" hat geschrieben:
Was für ein Wahnsinn..., am Ende hat man das heißersehnte rec709 Videomaterial...
sehe ich ähnlich!
ein programm zu verwenden, dass beide Log-Varianten sauber in einen viel größeren arbeits-farbraum überträgt und mit ausreichend hoher genauerigkeit rechnet, ist in solchen fällen die deutlich vernünftiger bzw. handwerklich vorbildlichere lösung.
Warum? Also der Wahnsinn ist viel eher, dass ich seit Jahren von der Nutzung eines Farbmanagementsystems rede und das empfehle. Und dann Leutchen wie Bruno so tut als wisse er das nicht.
Gibt übriges welche wie den Logarist der genau das mit LUTs macht. Mir selbst sind ACES1.0 Systeme in 32bit floating Point zwar lieber, aber bitte sehr.
Antwort von wolfgang:
scrooge hat geschrieben:
Ich dachte eigentlich, am Ende muss man immer auf Rec709 zurück gehen, damit das Bild auf den gängigen Fernsehern, Monitoren etc. richtig aussieht. Oder habe ich da was falsch verstanden?
Nein, muss man eben nicht. Grade gleich für einen HDR TV dann kannst auch auf rec. 709 verzichten.
Antwort von Axel:
"Roland Schulz" hat geschrieben:
Also wer ne GH5 ner a6500 oder erst recht ner a7III allein wegen 10bit vorzieht sollte unbedingt selbst mal eigene Vergleiche mit den Kameras anstellen.
10bit bringt nichts wenn der Sensor „nichts“ bringt. 10bit ist kein Qualitätsargument für ne GH5.
Dem muss ich zustimmen. So sehr wir alle von 10-bit oder gar Raw schwärmen, werden m.E. zwei Faktoren regelmäßig unterschätzt: der Sensor und die Kamera-Firmware. Wie Max Yuryev
hier zeigt, kann das Slog2 8-bit Interframe der FS5 brauchbarer sein als das 12-bit Raw. Ich weiß natürlich genau, was jetzt kommt: schiefer Vergleich, da wir nicht wissen, ob ProResRaw nicht eventuell minderwertig gegenüber DNG oder sogar einfachem 10-bit wie aus der GH5 ist. Aber die Korrekturen, die die Kamera intern durchführt und die Puristen freilich anekeln, fehlten auch in DNG.
Die A7iii konnte ich am Montag mit meinem Kumpel zusammen testen, der sie gerade neu hat. Ich verglich mit meiner A6500. Fazit: optimale Belichtung und guter Weißabgleich vorausgesetzt und
mit rec_709 als Ziel gelingen Aufnahmen, die sich mit 10-bit der FS7 problemlos mischen lassen. Weniger Spielraum in der Post? Gewiss. Die FS7 "verzeiht" dann mehr. Unverzeihlich in meinen Augen aber ihre Größe und ihr Gewicht, vom Preis mal abgesehen. Was auch unterschätzt wird, ist der Spielraum von Slog2 8-bit. Es ist ein Raw für Arme. Es fällt schnell auseinander? Ja, wenn man bei der Aufnahme Scheiße gebaut hat, ist Schluss. Gilt auch für Raw, bloß etwas später. Ein gradueller Unterschied.
Antwort von WoWu:
Solange kein Mensch exakt weiß, was ProResRaw eigentlich für ein Bild- bzw. Kompressionsformat ist, ist der Vergleich völlig „Banane“.
Und dass in dem Vergleich PRR stärker rauscht als das s-Log spricht zunächst nur gegen PRR aber nicht gegen RAW denn vor dem S-Log liegt ebenfalls ein RAW als Basis und wenn das nachfolgende S-Log wenigerrauscht, heißt das, dass das, am Sensor anliegende RAW ebenfalls weniger rauscht und das Rauschen erst in der Aufbereitung zu ProResRaw entsteht aber nichts mit dem RAW des Sensors zu tun hat. RAW und RAW sind also offenbar zwei Paar Schuhe.
Wie immer, darf man Pferd und Reiter nicht verwechseln, was in solchen „mach mal eben“ Tests leider oft der Fall ist.
Bliebe also die Frage, wie so ein Vergleich zu einem „anständigen“ RAW ausfällt, das gar nicht mehr rauschen kann als s-Log denn S-Log beinhaltet ja keine aktive Rauschunterdrückung.
Was die 10 Bit betrifft geht es ja nicht darum, ob 10 Bit in einer 8 Bit Produktion besser oder schlechter aussehen, sondern darum, wie das Material sich in der Nachbearbeitung bei kritischen Bildanteilen verhält, vor allem auch im Hinblick auf HDR Produkte, bei denen die hellen Bildbereiche in der Wiedergabe auch noch gepuscht werden. Das das mit deutlichen Vorteilen einhergeht, zeigt die Barten Ramp. Dazu braucht man keine selbstgemachte Tests mehr.
Das ist aktueller Stand der technischen Kenntnis.
Das 10 Bit auf einem 8Bit Monitor enttäuscht, weil man keinen (kaum einen) signifikanten Unterschied sieht, sollte aber auch selbst dem Dümmsten klar sein.
Antwort von Axel:
WoWu hat geschrieben:
Und dass in dem Vergleich PRR stärker rauscht als das s-Log spricht zunächst nur gegen PRR aber nicht gegen RAW denn vor dem S-Log liegt ebenfalls ein RAW als Basis und wenn das nachfolgende S-Log wenigerrauscht, heißt das, dass das, am Sensor anliegende RAW ebenfalls weniger rauscht und das Rauschen erst in der Aufbereitung zu ProResRaw entsteht aber nichts mit dem RAW des Sensors zu tun hat.
War mir klar, dass dieses Argument kommt, aber es wäre schon ziemlich weit hergeholt, zu glauben, dass PRR, so gut oder schlecht es sein mag (wir wissen es schlicht nicht), Rauschen in dunklen Bildpartien erst
errechnet. Da erscheint es mir logischer und naheliegender, dass bei der Aufbereitung des Signals für das bei den o.e. Sonys stark komprimierte Slog2 noch allerhand passiert. Manches, das man selbst beeinflussen kann und manches, das vielleicht auch einer "Glättung" durch den Codec (wie gesagt, Puristen packt hier das Grauen) zuzurechnen ist.
WoWu hat geschrieben:
RAW und RAW sind also offenbar zwei Paar Schuhe.
Dein Mantra. Wahrscheinlich richtig. Aber gleichgültig, wie viele verschiedene Raw-Fotos ich in proprietärem Raw nachbearbeitet habe (für das Photoshops Raw-Konverter ja immer wieder mal Updates braucht), eine Tatsache gilt für alle: dunkle Bildpartien mit schwächerem Signal rauschen tendenziell, daher ja auch der Denoise-Filter als Standard, den es bei Photoshop
nur in ACR gibt. Daher die ETTR-Regel, die man getrost auf Slog übertragen kann, um das Rauschen bei der Aufnahme zu vermeiden.
WoWu hat geschrieben:
Wie immer, darf man Pferd und Reiter nicht verwechseln, was in solchen „mach mal eben“ Tests leider oft der Fall ist.
Und genau das tust du mMn hier. Du meinst wohl, dass Yuryev hemdsärmelig und nicht wissenschaftlich an die Sache herangeht. Das ist wahr, kein Reit-Experte. Sein Vergleich beweist aber, dass die hier diskutierten Parameter über- und die von Roland ins Feld geführten drastisch unterschätzt werden.
WoWu hat geschrieben:
Bliebe also die Frage, wie so ein Vergleich zu einem „anständigen“ RAW ausfällt, das gar nicht mehr rauschen kann als s-Log denn S-Log beinhaltet ja keine aktive Rauschunterdrückung.
Nicht sichtbar innerhalb des editierbaren Profils, aber als generelle Einstellung im Kameramenu . Und freilich kann man schlecht Slog als universelles, gut einschätzbares Profil benutzen, solange man die *Standardeinstellung* "Knee: Auto" (inklusive "Slope") beibehält. Tatsächlich ließe sich das Profil Slog2 noch für so viele Situationen anpassen, dass es praktisch den "Kreativmodi" (Portrait, Landschaft, Nacht usw.) entspricht, die paradoxerweise so heißen, obwohl sie wirklich keinen Spielraum in der Post mehr lassen. Das würde ich nicht tun, aber es zeigt, dass Slog keineswegs eine fixe Sammlung von Parametern ist.
Das unveränderte Standardprofil ist bei Anwendung
der Standard rec_709 LUT eine herbe Enttäuschung. Man muss schon ein wenig (z.B.) Alistair Chapman zuhören, der Vor- und Nachteile erörtert und beweist, dass Standard Slog2 mit situations-spezifischen Luts (von denen das Internet wimmelt) nicht zu guten Bildern führt.
WoWu hat geschrieben:
Was die 10 Bit betrifft geht es ja nicht darum, ob 10 Bit in einer 8 Bit Produktion besser oder schlechter aussehen, sondern darum, wie das Material sich in der Nachbearbeitung bei kritischen Bildanteilen verhält, vor allem auch im Hinblick auf HDR Produkte, bei denen die hellen Bildbereiche in der Wiedergabe auch noch gepuscht werden. Das das mit deutlichen Vorteilen einhergeht, zeigt die Barten Ramp. Dazu braucht man keine selbstgemachte Tests mehr.
Das ist aktueller Stand der technischen Kenntnis.
Das 10 Bit auf einem 8Bit Monitor enttäuscht, weil man keinen (kaum einen) signifikanten Unterschied sieht, sollte aber auch selbst dem Dümmsten klar sein.
Das ist zu 100% richtig, und mir geht es nicht darum, das anzuzweifeln oder zu widerlegen. Es ging mir darum, Rolands These zu stützen, dass Bittiefe und Codec Parameter sind, die als solche noch nichts über die beste zu erzielende Bildqualität aussagen. Und dass es gute Gründe für manche gibt, im Zweifelsfall eine 8-bit-Kamera zu benutzen. Bei in Kauf genommener Einschränkung des Nachbearbeitungs-Spielraums und bei Verpflichtung, exakter zu belichten im Hinblick auf ein bereits vordefiniertes gewünschtes Endergebnis. Dann ist es möglich, dass zusätzlich betriebener Aufwand an Anschaffungspreis, Größe und Gewicht des Setups usw., weil man "keine Kompromisse" machen will, der schlechteste Kompromiss ist, weil man womöglich nur bessere Bildqualität im Promillebereich erzielt. Oder sogar schlechtere, wie es das Beispiel FS5 mit PRR nahelegt.
Selbst wenn ich z.B. selbst mir wahrscheinlich die neue Pocket mal wieder gönnen werde. Wegen des besseren Formfaktors gewiss
nicht.
Antwort von wolfgang:
Selbstverständlich war schon die Aufzeichnungsmöglichkeit bei der GH4+Shogun ein Qualitätsargument, und ist es 10bit bei der GH5 noch immer. Man muss halt dazu die gesamte Verarbeitungskette betrachten um das vollständig bewerten zu können, muss sich bewußt bleiben wie massiv man log beim Graden zu rec709 umrechnen MUSS, darf nicht übersehen wie wenige Werte bei 8bit log in den kritischen 1-2 Blendenstufen hat wo wir typischerweise die Hauttöne abbilden.
Und dann frage ich schon: wenige Werte in den kritischen Mittelbereich der Log Funktion haben, das für rec709 massiv umrechnen müssen - was nützt mir dann ein sehr guter Sensor, der aber seine Stärken gar nicht am Boden des finalen Films bringen kann? Wie ein Ferrarimotor den man im Fiat Panda verbaut hat!?
Was unterschätzt wird ist die richtige Ausgewogenheit aller technischer Elemente in der Kette. Der mft Sensor ist für seinen Preis durchaus gut aber nicht ganz so gut wie ein S35mm Sensor, 8bit sollte relativ wenig aus der Kamera heraus verändert werden, 10bit oder mehr sichert im Normalfall (also nicht unbedingt das Sony linear log) die Nachbearbeitungsgüte beim Grading wenn es schon log sein soll. Aber einen besseren S35mm Sensor zu nehmen und dann bei 8bit log zu fahren ist eben nicht ausgewogen.
Ist alles wie immer im Leben eine Preisfrage, aber entweder 8bit nicht-log bei mft oder S35, oder log mit 10bit mit mft, oder log mit 10bit und S35. Oder eben noch teurer.
Zu PRR kann und will ich wenig sagen, geht ja noch immer nicht unter Windows. Nur zur FS5 frage ich mich schon wann endlich verstanden wird, wie problematisch das von der FS5/7 ausgegebene Sony linear raw vor allem in den Tiefen ist. Ich verstehe auch nicht wie das besser werden sollte, nur weil man das im Rekorder nicht mehr zu ProRes sondern zu PRR aufzeichnet? Aber das kann mir ja vielleicht jemand erklären.
Antwort von Axel:
wolfgang hat geschrieben:
Was unterschätzt wird ist die richtige Ausgewogenheit aller technischer Elemente in der Kette. Der mft Sensor ist für seinen Preis durchaus gut aber nicht ganz so gut wie ein S35mm Sensor, 8bit sollte relativ wenig aus der Kamera heraus verändert werden, 10bit oder mehr sichert im Normalfall (also nicht unbedingt das Sony linear log) die Nachbearbeitungsgüte beim Grading wenn es schon log sein soll. Aber einen besseren S35mm Sensor zu nehmen und dann bei 8bit log zu fahren ist eben nicht ausgewogen.
Die Sensor*größe* ist ebenfalls kein automatisch qualitätsbezogener Parameter. Der Vollformat-Sensor der A7rii z.B. rauscht bei Video sehr deutlich mehr als der APS-C-Sensor der A6500, sowohl im Crop- als auch im Vollmodus. Weiß ich aus eigenen Vergleichen, da mein Kumpel mir die A7rii verkaufen wollte und sagte: "noch cleanere Bilder". Eine Milchmädchenrechnung. Der M43-Sensor der GH5S scheint sie nicht davon abzuhalten, ein sensationell gutes Lowlight zu bringen. Und zwar mit dem Parameter "Tricks" ;-))
Zur "Ausgewogenheit aller Elemente" gehört bei den nicht-dummen Hybriden eben auch die Bildaufbereitung durch die Kamera.
Antwort von Roland Schulz:
WoWu hat geschrieben:
@ Hartmut
Im Grunde genommen hast Du es im gesamten unteren Bereich mit einer 709 Übertragung zu tun.
Alle Werte sind identisch verteilt.
...
Das ist weiterhin falsch, auch im unteren Bereich gibt es bereits einen weicheren Kontrast wie es Sony auch zur Cine1 aka Hypergamma 4/HG4 aka HG4609G33 auch beschreibt!
U.a. hier:
http://helpguide.sony.net/ilc/1420/v1/d ... 25930.html
„schwächt den Kontrast in dunklen Bildanteilen ab...“
http://www.hingsberg.com/2014/04/f3-f5- ... ma-curves/
mit Kurven:
http://www.jbalazer.com/aces-in-sony-ve ... than-S-Log
Cine1 MUSS man zudem „graden“ um in ein konformes REC709 zu kommen, da kein IRE größer 100 / RGB > 235 zugelassen ist.
Die meisten Endgeräte/Player clippen über IRE100/RGB 235.
Wenn man das nicht will (Graden, Begrenzen) nimmt man Cine2 oder „verbastelt“ das Knee (was man in Cine1 tunlichst „deaktiviert“ lassen sollte > Slope +5!). Damit verliert man aber auch wieder etwas DR für den Post.
Cine1 „sieht“ allerdings in den meisten Fällen schon sehr nach REC709 „like“ Material aus, somit können „Korrekturen“ meist marginal ausfallen.
Antwort von Jott:
Der beste Kronzeuge dafür, dass man problemlos auch mit 8Bit Filme zum Niederknien machen kann, ist vielleicht Brandon Li. Wahrscheinlich kann der eines - neben entfesselter Kamera - besonders gut: korrekt belichten. Musste früher jeder können, ist also keine Geheimwissenschaft, sondern durchaus erlernbar.
Antwort von Bruno Peter:
Jott hat geschrieben:
Der beste Kronzeuge dafür, dass man problemlos auch mit 8Bit Filme zum Niederknien machen kann, ist vielleicht Brandon Li.
Wahrscheinlich kann der eines - neben entfesselter Kamera - besonders gut: korrekt belichten.
Das gelingt mir als Hobbyfilmer im manuelle eingestellten Aufnahmemodus immer wieder, ich erkenne auch ohne Zebra-Messung
wo eine Überbelichtung droht und passe dazu die Belichtungsparameter an.
Antwort von rush:
"Bruno Peter" hat geschrieben:
Das gelingt mir als Hobbyfilmer im manuelle eingestellten Aufnahmemodus immer wieder, ich erkenne auch ohne Zebra-Messung
wo eine Überbelichtung droht und passe dazu die Belichtungsparameter an.
Klar - du erkennst das ja auch alles problemlos auf deiner sucherlosen RX100 bei starken Sonnenlicht... keine weiteren Fragen ;-) two thumbs up
Antwort von Roland Schulz:
wolfgang hat geschrieben:
"Roland Schulz" hat geschrieben:
Also wer ne GH5 ner a6500 oder erst recht ner a7III allein wegen 10bit vorzieht sollte unbedingt selbst mal eigene Vergleiche mit den Kameras anstellen.
10bit bringt nichts wenn der Sensor „nichts“ bringt. 10bit ist kein Qualitätsargument für ne GH5.
In meinen Augen schon.
https://www.dpreview.com/reviews/image- ... 8432084032
...in meinen Augen weiterhin nicht.
Antwort von mash_gh4:
...in meinen Augen weiterhin nicht.
ich glaube, es bräuchte nur "sony" auf dem gehäuse drauf stehen (der sensor selbst stammt ja ohnehin von denen), und du würdest auch von von diesen konkurrenzprodukten schwärmen. ;)
Antwort von Bruno Peter:
Zum rush...
Klar - du erkennst das ja auch alles problemlos auf deiner sucherlosen RX100 bei starken Sonnenlicht... keine weiteren Fragen ;-) two thumbs up
Wie meinen?
Ich filme in UHD mit der Panasonic DMC-FZ300, hat alles an Bord was man dafür
braucht, außer ND-Filter. Ich filme in Cinema Like-Dynamisch mit speziellen Bildsettings
und eine S-Gammakurve(ebenfalls spezielles Setting).
Oft mache ich Filme in Kodak-Farbstimmung...
Ich mache das nötige Color-Grading in EDIUS Pro 9.x, per 'Primärer Farbkorrektur' und LUTs
von Paul Leeming für diese Kamera.
Natürlich mache ich noch viel mehr mit meinem 8bit Videomaterial, wenn ich Lust darauf habe.
Antwort von Axel:
Jott hat geschrieben:
Der beste Kronzeuge dafür, dass man problemlos auch mit 8Bit Filme zum Niederknien machen kann, ist vielleicht Brandon Li.
Benützte früher "Autumn Leaves", heute "Totolovision" (nach einem Italiener namens Totolo, der es gefunden hat), ein modifiziertes Cine4:
Black Level -4
Gamma: Cine 4
Black Gamma: Middle; Level -1
Knee: Auto>Auto Set Max Point 100%>Sensitivity Mid
Color Mode: ITU709 Matrix
Saturation -2
Color Phase -1
Color Depth:
R 0
G +1
B +2
C 0
M 0
Y +1
Detail -2
Adjust: Mode: Manual; V/H Balance 0; B/W Balance Type3; Limit 7; Crispning 0; Hi-Light Detail 0
Profil eingerichtet, aber noch nicht getestet. Ich selbst benutze z.Zt. "GFilm" ein modifiziertes SLog2, das sehr gute Hauttöne produziert und das man ohne Lut mit wenig Aufwand farbkorrigieren und graden kann. Man muss es 1-2 Blenden überbelichten. Da man immer mit der nativen Iso aufnimmt, gibt es nur noch die Blende einzustellen (ausgehend von dem 180°-Prinzip, also fixem Shutter), daher einfach und intuitiv zu belichten. Die Dynamik ist im Vergleich zu nacktem SLog2 (und evtl. sogar gegenüber Cine2) beschnitten, aber sie ist deutlich besser als die der Kreativmodi, und der Highlight-Rolloff ist einsame Spitze:
Black Level: 0
Gamma: S-Log2
Black Gamma
Range: Middle, Level: 0
Knee: Manual
- point: 77.5%
- slope: +3
Color Mode: Pro
Saturation: +3
Color Phase: -4
Color Depth:
- R: +5
- G: +7
- B: +3
- C: +2
- M: -2
- Y: +2
Detail: -7
- Mode: Manual
- V/H Balance: 0
- B&W Balance: Type5
- Limit: 3
- Crispening: 3
- Hi-Light Detail: 0
Antwort von Roland Schulz:
mash_gh4 hat geschrieben:
...in meinen Augen weiterhin nicht.
ich glaube, es bräuchte nur "sony" auf dem gehäuse drauf stehen (der sensor selbst stammt ja ohnehin von denen), und du würdest auch von von diesen konkurrenzprodukten schwärmen. ;)
Nein, Sony baut ne Menge Mist, auch in den gegenständlichen Kameras und das habe ich auch immer angeprangert!!
Antwort von Roland Schulz:
Dass die Sensoren der GH5/s und der a7III in Bezug auf Qualität/Tonwertabstufungen aber einiges trennt sollte auch nicht unerkannt geblieben sein.
Auch im Vergleich zur GH5s - was hier RAW, 10bit oder Handauflegen noch retten sollte erschließt sich mir nicht:
GH5S_a7III.PNG
Quelle:
https://www.dpreview.com/reviews/image- ... 9725515743
Eine Kamera wird mit 10bit in den allermeisten Fällen Vorteile gegenüber 8bit haben - wenn"s ein und das selbe Kameramodell ist - ansonsten muss man erst nochmal genau "in die Karten schauen".
Glaube wir sind aber langsam wieder ein wenig "off"...
Antwort von mash_gh4:
"Roland Schulz" hat geschrieben:
Auch im Vergleich zur GH5s - was hier RAW, 10bit oder Handauflegen noch retten sollte erschließt sich mir nicht:
ich nehme an, du hast dich schon zu zeiten der analogen fotografie od. filmerei niemals mit weniger als ISO6400 begnügt. ;)
Antwort von WoWu:
@Axel
„Da erscheint es mir logischer und naheliegender, dass bei der Aufbereitung des Signals für das bei den o.e. Sonys stark komprimierte Slog2 noch allerhand passiert. Manches, das man selbst beeinflussen kann und manches, das vielleicht auch einer "Glättung" durch den Codec (wie gesagt, Puristen packt hier das Grauen) zuzurechnen ist.…“
Das ist allerdings eine steile These, dass s-log2 eine Rauschunterdrückung enthält aber ein komprimiertes Bildformat (wir wissen gar nicht, ob das überhaupt RAW ist - oder nur so heißt-) ein besseres Bild liefern müsste.
„
Daher die ETTR-Regel, die man getrost auf Slog übertragen kann, um das Rauschen bei der Aufnahme zu vermeiden.„
So getrost ist das gar nicht, betrachtet man die verschobenen Wertemengen Denn ETTR müsste sich im identischen Anteil in der LUT wiederfinden, je nachdem um welchen Prozentsatz man fehlbelichtet.
Ist aber in 90% nicht der Fall oder passt Du deine Reverse Funktion an?
Das wird nämlich meistens nur so hin gepfuscht.
„dass Bittiefe und Codec Parameter sind, die als solche noch nichts über die beste zu erzielende Bildqualität aussagen. Und dass es gute Gründe für manche gibt, im Zweifelsfall eine 8-bit-Kamera zu benutzen. Bei in Kauf genommener Einschränkung des Nachbearbeitungs-Spielraums und bei Verpflichtung, exakter zu belichten im Hinblick auf ein bereits vordefiniertes gewünschtes Endergebnis. “
Natürlich gibt es immer Gründe für das Eine oder das Andere. Aber hier ging es ja um die Verbindung mit S-Log.
Das blendest Du völlig aus denn das Argument bestand ja in der besseren Bearbbeitbarkeit und wenn Du Dir nochmal die Grafik anschaust, wie solche Fotoapparate die Blendenwerte auf der Übertragungsfunktion abbilden, dann wirst Du schnell sehen, dass zwischen einzelnen Blenden in kritischen Bereichen (-5 bis -7 oder die Blende zw. -2 und -3) so gut wie keine Übertragungswerte mehr liegen.
Bezieht man das auf die Menge der 8Bit Werte, kann man da schon ohne Bearbeitung von Werteabriss ausgehen.
Damit relativiert sich also 8 Bit schon wieder darauf, dass man sowas besser (auch ohne Nachbearbeitung) nur mit guten Kameras machen sollte und nicht solchen Fotoschleudern. Da helfen dann wirklich nur noch 10 Bit, schon allein den Murks der Kamera auszuputzen.
Antwort von Roland Schulz:
mash_gh4 hat geschrieben:
"Roland Schulz" hat geschrieben:
Auch im Vergleich zur GH5s - was hier RAW, 10bit oder Handauflegen noch retten sollte erschließt sich mir nicht:
ich nehme an, du hast dich schon zu zeiten der analogen fotografie od. filmerei niemals mit weniger als ISO6400 begnügt. ;)
War mir klar das sowas kommt und ja, ISO6400 steht bei mir häufiger auf dem Zeiger als du vielleicht glaubst, nicht nur beim Fotografieren.
Weiterhin stellt diese Verstärkung nur deutlicher dar was bereit untenrum passiert.
Einfach mal die geringsten Werte einstellen (ISO200/160 GH5/s bzw. ISO100 a7III), auch da sieht man bereits den Nachteil im 4/3s Lager.
Es gab genug Vergleiche (Dave Dougdale uva.) die gezeigt haben dass Panasonic durch 10bit keinen Vorteil gegen gute 8-Bitter hat.
Ich selbst habe mit einem Freund den Vergleich gegen die GH5s gemacht die in der Folgewoche bei Leistenschneider im Gebrauchtschaufenster gelandet ist.
Den einzigen Vorteil den Panasonic in meinen Augen hat ist UHD 50p.
Antwort von Roland Schulz:
WoWu hat geschrieben:
@Axel
„Da erscheint es mir logischer und naheliegender, dass bei der Aufbereitung des Signals für das bei den o.e. Sonys stark komprimierte Slog2 noch allerhand passiert. Manches, das man selbst beeinflussen kann und manches, das vielleicht auch einer "Glättung" durch den Codec (wie gesagt, Puristen packt hier das Grauen) zuzurechnen ist.…“
Das ist allerdings eine steile These, dass s-log2 eine Rauschunterdrückung enthält aber ein komprimiertes Bildformat (wir wissen gar nicht, ob das überhaupt RAW ist - oder nur so heißt-) ein besseres Bild liefern müsste.
„
Daher die ETTR-Regel, die man getrost auf Slog übertragen kann, um das Rauschen bei der Aufnahme zu vermeiden.„
So getrost ist das gar nicht, betrachtet man die verschobenen Wertemengen Denn ETTR müsste sich im identischen Anteil in der LUT wiederfinden, je nachdem um welchen Prozentsatz man fehlbelichtet.
Ist aber in 90% nicht der Fall oder passt Du deine Reverse Funktion an?
Das wird nämlich meistens nur so hin gepfuscht.
„dass Bittiefe und Codec Parameter sind, die als solche noch nichts über die beste zu erzielende Bildqualität aussagen. Und dass es gute Gründe für manche gibt, im Zweifelsfall eine 8-bit-Kamera zu benutzen. Bei in Kauf genommener Einschränkung des Nachbearbeitungs-Spielraums und bei Verpflichtung, exakter zu belichten im Hinblick auf ein bereits vordefiniertes gewünschtes Endergebnis. “
Natürlich gibt es immer Gründe für das Eine oder das Andere. Aber hier ging es ja um die Verbindung mit S-Log.
Das blendest Du völlig aus denn das Argument bestand ja in der besseren Bearbbeitbarkeit und wenn Du Dir nochmal die Grafik anschaust, wie solche Fotoapparate die Blendenwerte auf der Übertragungsfunktion abbilden, dann wirst Du schnell sehen, dass zwischen einzelnen Blenden in kritischen Bereichen (-5 bis -7 oder die Blende zw. -2 und -3) so gut wie keine Übertragungswerte mehr liegen.
Bezieht man das auf die Menge der 8Bit Werte, kann man da schon ohne Bearbeitung von Werteabriss ausgehen.
Damit relativiert sich also 8 Bit schon wieder darauf, dass man sowas besser (auch ohne Nachbearbeitung) nur mit guten Kameras machen sollte und nicht solchen Fotoschleudern. Da helfen dann wirklich nur noch 10 Bit, schon allein den Murks der Kamera auszuputzen.
Sony gibt in den Defaulteinstellungen -/Profilen tatsächlich eine geringere Detaileinstellung vor als in den „normalen“ Profilen was dazu führt, dass Rauschen nicht so schnell auffällt.
Ob die reine NR anders adaptiert wird erschließt sich dem Sony-User nicht, da es hierfür keine einstellbaren Parameter gibt.
ETTR Belichtung in xLOG ist gemäß der Herstellerdefinitionen eigentlich „Pfusch“ bzw. ein Notnagel wenn man‘s schnell nicht besser hinkriegt.
Richtig „soll“ für korrekte Reversibelität definiert belichtet werden (+/- xEV auf 18% Grau).
 |
Antwort von mash_gh4:
"Roland Schulz" hat geschrieben:
mash_gh4 hat geschrieben:
ich nehme an, du hast dich schon zu zeiten der analogen fotografie od. filmerei niemals mit weniger als ISO6400 begnügt. ;)
War mir klar das sowas kommt und ja, ISO6400 steht bei mir häufiger auf dem Zeiger als du vielleicht glaubst, nicht nur beim Fotografieren.
es kann schon sein, dass ich mit anderem gerät evtl. auch anders arbeiten würde, trotzdem bewege ich mich praktisch nie über max. ISO800 raus, wenn ich vernünftige bilder erzielen will...
und im wesentlichen war das seltsamerweise auch früher (=mit ganz anderem gerät) auch nicht wesentlich anders...
Antwort von rush:
mash_gh4 hat geschrieben:
es kann schon sein, dass ich mit anderem gerät evtl. auch anders arbeiten würde, trotzdem bewege ich mich praktisch nie über max. ISO800 raus, wenn ich vernünftige bilder erzielen will...
Na mal gut das Du dann (offenbar?) noch keine FS7 oder andere "Cine-Cam" in der Hand hattest... da liegt die Basisempfindlichkeit oft bei ~ Iso2000... selbst 'ne digitale Amira ist auf 'nen EI von 800 ausgelegt.
In der Summe bin ich aber schon auch bei dir - wenn man kann sind geringere ISO-Werte natürlich insbesondere bei eingebackenen Cine-Kurven durchaus sinnvoll um Artefakte,Rauschen und Dynamikeinbrüche im Rahmen zu halten. Und ich kann auch jene Aussagen oft nicht teilen das man bei bestimmten Kameras keinen Unterschied zwischen Iso 200 und 1600 sieht... ich sehe diese Unterschiede beim 42MP Sensor meiner A7rII durchaus. Sowohl ISO 200 als auch 1600 sind zwar wunderbar "zu verwenden - aber insbesondere in Sachen Dynamik/Farbtreue sieht man dann dann doch durchaus Unterschiede beim pixelpeepen. Im Videobetrieb durch Binning, Oversampling und Co. mögen diese "Fehler" geringer ins Auge fallen - vorhanden sind sie dennoch.
Ich fahre meine A7rII daher auch eher so im Bereich bis ISO1600... wenns mal 3200 werden auch kein Drama - aber für ISO 6400 muss es dann schon echt sehr dunkel sein oder die Blende es entsprechend erfordern. Den Abfall in Sachen Dynamik/Farbe/Rauschen nimmt man visuell auf jedenfall wahr.
Antwort von mash_gh4:
rush hat geschrieben:
...selbst 'ne digitale Amira ist auf 'nen EI von 800 ausgelegt.
auch eine amira unterscheidet sich in puncto vorgesehener bzw. vernünftiger empfindlichkeitsstufen nicht sonderlich von jener ISO-auswahl, die die du auch in ganz billigen MFT-kameras vorfindest:
zum Bild
auch wenn der dort nutzbare dynamikumfang halt doch ein bisserl besser ausfällt, und damit natürlich auch deutlich mehr tatsächlichen spielraum eröffnet ;)
Antwort von Funless:
Sagt mal was filmt ihr denn alle so? Produziert hier jeder im Forum Blockbuster Hollywood Produktionen? Dann würde ich mich ja in einem sehr erlauchten Kreis befinden, fühle mich geehrt. Dieser signifikante Drang zur Nachbearbeitung in der Post ist ja fast schon pathologisch.
Was müsst ihr euch alle zu Analogzeiten in eurer unermesslichen Kreativität beschnitten gefühlt haben als man „nur“ eine Filmrolle einlegen und einen Belichtungsmesser lesen können musste. Ach herrje, Gottseidank kam zum Glück das digitale Zeitalter sonst gäbe es wohl schon längst dramatische Massenselbstmorde.
Vielleicht kann mir ja (um wieder zum Thema zurück zu kommen) einer der anwesenden Koryphäen mal erklären weshalb man Sonys cine1 PP unbedingt in der Post nachbearbeiten muss?? Bei slog verstehe ich ja denn Sinn aber bei cine1 erschließt er sich mir nicht so ganz.
Ich bitte freundlichst um Erhellung.
Antwort von Roland Schulz:
Cine1 MUSS man bearbeiten weil der ausgegebene Dynamikbereich bis über IRE100 bzw. RGB235 („unten ähnlich“) hinausgeht und das in REC709 nicht definiert ist, Endgeräte und Player da in den meisten Fällen clippen.
Damit nix clippt muss man das vorher in den „legalen“ Bereich transferieren/absenken/graden.
Man kann das in der Kamera auch mittels Knee im Vorfeld begrenzen, verliert dann aber ein stückweit den Vorteil von Cine1.
Cine2 ist Cine1 sehr ähnlich, begrenzt aber OOC schon auf IRE100.
Hatte ich aber alles bereits geschrieben.
Antwort von Bruno Peter:
Funless hat geschrieben:
Dieser signifikante Drang zur Nachbearbeitung in der Post ist ja fast schon pathologisch.
Hast den Nagel auf den Kopf getroffen!
Antwort von Frank Glencairn:
mash_gh4 hat geschrieben:
ein programm zu verwenden, dass beide Log-Varianten sauber in einen viel größeren arbeits-farbraum überträgt und mit ausreichend hoher genauerigkeit rechnet, ist in solchen fällen die deutlich vernünftiger bzw. handwerklich vorbildlichere lösung.
Technisch stimmt das schon, aber bei massiv komprimiertem 8bit LOG hast du da einfach nicht genug Spielraum,
bevor das ganze auseinander fällt.
Antwort von Roland Schulz:
"Frank Glencairn" hat geschrieben:
mash_gh4 hat geschrieben:
ein programm zu verwenden, dass beide Log-Varianten sauber in einen viel größeren arbeits-farbraum überträgt und mit ausreichend hoher genauerigkeit rechnet, ist in solchen fällen die deutlich vernünftiger bzw. handwerklich vorbildlichere lösung.
Technisch stimmt das schon, aber bei massiv komprimiertem 8bit LOG hast du da einfach nicht genug Spielraum,
bevor das ganze auseinander fällt.
So ist es! Bei ner 8bit Kamera sollte man die Einstellungen tunlichst möglichst so weit da hin bringen, wo man das Bild am Ende haben will.
Wenn man sich LOG untransformiert ansieht stellt man leicht fest, dass das hier nicht erfüllt sein kann.
Man muss auch nicht unbedingt zwingend in LOG arbeiten bloß weil das "hipp" und nen Feature der Kamera ist, welches Kameras gestern noch nicht hatten.
Mit vernünftigen Sensoren und potenten Codecs kann man das sicher gerne machen, wobei man dann irgendwann auch abwägen müsste ob 10bit LOG der richtige Weg ist, wenn man ggf. noch in 10bit exportieren will (HEVC10...) und Richtung "volles Potential" anstrebt.
Dann wird auch da eine "fertige" Übertragungsfunktion mehr leisten.
Man muss sich am Ende überlegen was man "besser" wiedergeben will: den ganzen erfassbaren Dynamikumfang gleichmäßig gut oder bei 8-10bit "schlecht bis durchschnittlich", dann LOG - oder die mittleren Tonwertstufen die wie "ich" denke in den meisten Bildern mehr Relevanz haben oder stärker auffallen, dann eine "fertige" Gamma wie ITU oder Hyper-/Cinegamma, welche dort mehr Tonwertstufen zur Verfügung stellt.
Es bleibt aber trotzdem ne Menge am Sensor hängen der die "Berechtigung" von LOG erstmal leisten können muss (DR, SNR, Quantisierung des ADC...).
Wenn die LOG Komprimierung zudem so "bescheiden" ist, dass ein Großteil der Eingangsdynamik in einen kleinen (!!) Bruchteil der Ausgangsdynamik komprimiert wird, macht auch eine höhere Quantisierung der Speicherung bereits Sinn (eigentlich macht sie das immer, nur ist eine beliebige 10bit Kamera nicht zwingend besser als eine andere 8bit Kamera).
Das hatte Wowu aber bereits weiter oben beschrieben.
Antwort von Frank Glencairn:
Funless hat geschrieben:
Sagt mal was filmt ihr denn alle so? Produziert hier jeder im Forum Blockbuster Hollywood Produktionen? Dann würde ich mich ja in einem sehr erlauchten Kreis befinden, fühle mich geehrt. Dieser signifikante Drang zur Nachbearbeitung in der Post ist ja fast schon pathologisch.
Hast du dir mal angeschaut was aus einem Sensor so hinten raus kommt?
Nachbearbeitung in irgendeiner Form ist quasi zwingend.
Ob man die "Post" jetzt in lieber der Kamera, mit den beschiedenen Einstellungen, die da möglich sind macht, oder später in aller Ruhe zuhause, spielt eigentlich keine Rolle. Nur, an irgendeinem Punkt muß man sie halt machen.
Funless hat geschrieben:
Was müsst ihr euch alle zu Analogzeiten in eurer unermesslichen Kreativität beschnitten gefühlt haben als man „nur“ eine Filmrolle einlegen und einen Belichtungsmesser lesen können musste.
Ja, wenn man von einem Thema so wenig Ahnung hat, sollte man sich unbedingt zurückhalten, was möchte-gerne-polemische Posts betrifft, denn damit macht man sich dann gleich doppelt lächerlich.
Antwort von Funless:
Was denn, was denn? "Möchte-gerne-Polemik" ist doch hip, hat Trump-Baby salonfähig gemacht. Da darfst du dich jetzt aber nicht beschweren. Darüber hinaus war meine Aussage eben nicht auf aufwändige Produktionen beschränkt wie eigentlich auch unschwer an dem was ich geschrieben habe erkennbar ist. Anyway, dass Du ungerne das Geschriebene anderer vollständig liest, sondern lieber nur das dir passende rauspickts, ist ja allgemein bekannt. ;-)
"Roland Schulz" hat geschrieben:
Cine1 MUSS man bearbeiten weil der ausgegebene Dynamikbereich bis über IRE100 bzw. RGB235 („unten ähnlich“) hinausgeht und das in REC709 nicht definiert ist, Endgeräte und Player da in den meisten Fällen clippen.
Damit nix clippt muss man das vorher in den „legalen“ Bereich transferieren/absenken/graden.
Man kann das in der Kamera auch mittels Knee im Vorfeld begrenzen, verliert dann aber ein stückweit den Vorteil von Cine1.
Cine2 ist Cine1 sehr ähnlich, begrenzt aber OOC schon auf IRE100.
Hatte ich aber alles bereits geschrieben.
Danke für Deine Erklärung, ist für mich jedoch ein Argument dafür, dass man es nachbearbeiten kann falls der Wunsch danach vorhanden ist. Aber was ist wenn ich nichts dagegen habe, dass diese erwähnten Bereiche clippen, bzw. das Clippen sogar gewünscht ist? Muss ich in cine1 dann dennoch in die Nachbearbeitung oder bliebe mir in der Tat dann nur die Möglichkeit zu cine2 zu wechseln, wenn ich deine Ausführungen richtig verstanden habe?
Antwort von Frank Glencairn:
Funless hat geschrieben:
Darüber hinaus war meine Aussage eben nicht auf aufwändige Produktionen beschränkt wie eigentlich auch unschwer an dem was ich geschrieben habe erkennbar ist
Wenn man über "Analogzeiten, als man „nur“ eine Filmrolle einlegen und einen Belichtungsmesser lesen können musste" schwadroniert, ohne die geringste Ahnung zu haben, schießt man sich halt selbst ins Knie.
PS: Hast tatsächlich wieder einen Weg gefunden deinen geliebten Trump irgendwie einzubauen - bravo, dafst dir einen Keks nehmen.
Antwort von Funless:
Ist ja lieb, dass du dir über mein Knie Sorgen machst aber das kommt schon alleine zurecht. ;-)
Und Kekse mag ich nicht. Gibt's auch was anderes und vielleicht leckereres im Angebot?
Antwort von Roland Schulz:
Funless hat geschrieben:
"Roland Schulz" hat geschrieben:
Cine1 MUSS man bearbeiten weil der ausgegebene Dynamikbereich bis über IRE100 bzw. RGB235 („unten ähnlich“) hinausgeht und das in REC709 nicht definiert ist, Endgeräte und Player da in den meisten Fällen clippen.
Damit nix clippt muss man das vorher in den „legalen“ Bereich transferieren/absenken/graden.
Man kann das in der Kamera auch mittels Knee im Vorfeld begrenzen, verliert dann aber ein stückweit den Vorteil von Cine1.
Cine2 ist Cine1 sehr ähnlich, begrenzt aber OOC schon auf IRE100.
Hatte ich aber alles bereits geschrieben.
Danke für Deine Erklärung, ist für mich jedoch ein Argument dafür, dass man es nachbearbeiten kann falls der Wunsch danach vorhanden ist. Aber was ist wenn ich nichts dagegen habe, dass diese erwähnten Bereiche clippen, bzw. das Clippen sogar gewünscht ist? Muss ich in cine1 dann dennoch in die Nachbearbeitung oder bliebe mir in der Tat dann nur die Möglichkeit zu cine2 zu wechseln, wenn ich deine Ausführungen richtig verstanden habe?
Na ja, man kann auch xLOG direkt auf den Fernseher durchleiten, "kaputt" geht dabei nichts!
Wenn Du meinst dass Du Clipping über IRE100 akzeptierst dann ist das für Dich auch in Ordnung, auch hier verliert heute kein Geräte mehr die Synchronisation.
 |
 |
Antwort von Roland Schulz:
"Frank Glencairn" hat geschrieben:
Funless hat geschrieben:
Sagt mal was filmt ihr denn alle so? Produziert hier jeder im Forum Blockbuster Hollywood Produktionen? Dann würde ich mich ja in einem sehr erlauchten Kreis befinden, fühle mich geehrt. Dieser signifikante Drang zur Nachbearbeitung in der Post ist ja fast schon pathologisch.
Hast du dir mal angeschaut was aus einem Sensor so hinten raus kommt?
Nachbearbeitung in irgendeiner Form ist quasi zwingend.
"Frank Glencairn" hat geschrieben:
Ob man die "Post" jetzt in lieber der Kamera, mit den beschiedenen Einstellungen, die da möglich sind macht, oder später in aller Ruhe zuhause, spielt eigentlich keine Rolle. Nur, an irgendeinem Punkt muß man sie halt machen.
Das ist nicht ganz richtig, zumindest nicht wenn wir nicht nur RAW Kameras voraussetzen. Wenn ich eine Kamera habe die nur komprimiert (ITU, xLOG, 8bit, 10bit, egal!!...) ausgeben kann kann es sehr wohl einen Vorteil haben wenn die Kamera intern schon entsprechende Anpassungen und Processing vorsieht, da dem internen Prozessor allermeist noch eine höhere Quantisierung zur Verfügung steht als die die hinterher gespeichert wird. Zudem sind die SoCs stark für entsprechende Aufgaben optimiert.
Wenn man sich mal ansieht was In-Camera-Processing heute leistet, incl. Korrektur von Objektivverzerrungen und Abberrationen wird"s in RAW teilweise schon richtig aufwändig!
Unbenannt.PNG
Quelle: https://www.dpreview.com/reviews/image- ... 0504704876
Das Kamera JPEG zeigt hier eine sehr ähnliche Detailauflösung (ich sehe "keinen" Unterschied), vermeidet dafür aber bereits Moiré eindrucksvoll. Das mach"mir bei nem RAW Videokamerabild erstmal so gut weg!
Weiter, chromatische Abberationen und Verzerrungen (bei der Kamera bekannten Optiken), bei RAW Video alles noch nicht sooo einfach und auch nicht immer über Metadaten automatisiert.
Ganz einfaches weiteres Beipiel: vernünftiges Denoisen! Resolve hat da immerhin was an Bord, frisst aber ne Menge Rechenleistung und ist kaum in Schlagdistanz zu dem was modernes In-Camera-Processing leistet.
Stattdessen Neat Video o.ä.?! In 4K 50p Echtzeit wohl auch kaum zu stemmen.
RAW ist theoretisch immer im Vorteil, in der Praxis muss man aber hier und da doch noch abwägen denke ich.
Pauschale Aussagen finde ich da etwas gewagt.
Antwort von mash_gh4:
so weit es das problem betrifft, das hier einmal am anfang der diskussion gestanden ist bzw. noch immer als titel über dem ganzen prangt -- also die kombinierbarkeit von unterschiedlichem material aus verschiedenen kameras --, halte ich standardisierte übertragungsfunktionen für einen ziemlichen fortschritt bzw. für deutlich sinnvoller als das manuelle herumschrauben an div. (nachträglich kaum mehr vernünftig umkehrbaren) parametern der kamerainternen verarbeitung.
dass die diversen LOG-varianten in billigen kameras mit recht beschränkten aufzeichnungsmöglichkeiten die nachbearbeitungsmöglichkeiten bekanntlich sehr stark einschränken, kann man vernünftigerweise ohnehin nicht bestreiten. allerdings gilt das leider in fast gleichem maße auch für diverse proprietäre flache aufzeichnungsprofile und deren manuelle modifikation.
während die LOG-varianten aber in der regel wenigstens eine wirklich korrekte farbzuordnung erlauben und auch allen abbildbaren EV-bereichen bzw. zonen in etwa den selben umfang an übertragungswerten bzw. tonwertabstufungen zuweisen, ist das mit ja mit diesen anderen geheimrezepten wesentlich komplizierter. hier ist es deutlich schwieriger, sie nachträglich mit anderem material zu kombinieren bzw. sie vernünftig und einheitlich zu korrigieren.
es fehlt hier einfach jeder anhaltspunkt, um sie nachträglich wieder in eine einheitliche form zu bringen, so dass auch kompliziertere farbeingriffe sich ähnlich verhalten würden, statt in jeden fall völlig andere störende begleiterscheinungen nach sich zu ziehen.
konsequenter weise machen also diese traditionellen lösungen (rec709, knee etc.) wirklich nur mehr dort sinn, wo man mit einer bzw. mehreren gleichen kameras und identischen einstellungen dreht. überall dort, wo man aber tatsächlich verschiedenes material kombinieren und im nachhinein noch sauber farbkorrigieren will, ist diese zugangsweise wohl nicht mehr zu empfehlen.
Antwort von Funless:
@mash_gh4
Also was diesen Thread betrifft geht es um ein und dieselbe Kamera und nicht um die Abgleichung von verschiedenen Kameras, sofern ich den TO (Hartmut) richtig verstanden habe.
"Roland Schulz" hat geschrieben:
Funless hat geschrieben:
Danke für Deine Erklärung, ist für mich jedoch ein Argument dafür, dass man es nachbearbeiten kann falls der Wunsch danach vorhanden ist. Aber was ist wenn ich nichts dagegen habe, dass diese erwähnten Bereiche clippen, bzw. das Clippen sogar gewünscht ist? Muss ich in cine1 dann dennoch in die Nachbearbeitung oder bliebe mir in der Tat dann nur die Möglichkeit zu cine2 zu wechseln, wenn ich deine Ausführungen richtig verstanden habe?
Na ja, man kann auch xLOG direkt auf den Fernseher durchleiten, "kaputt" geht dabei nichts!
Wenn Du meinst dass Du Clipping über IRE100 akzeptierst dann ist das für Dich auch in Ordnung, auch hier verliert heute kein Geräte mehr die Synchronisation.
Ja genau darauf zielte ja meine Frage hin. slog interessiert mich nicht, ich filme nicht in slog und habe das auch zukünftig nicht vor.
Ich belichte beim filmen mit dem cine1 PP gemäß WYSIWYG wenn etwas bei der Aufnahme clippt oder wenn gewisse dunkle Bereiche zu'nem satten Schwarz werden dann ist das bei mir auch so gewollt. Mein Computermonitor beim Schnitt ist rec709, mein Fernseher ist rec709. Also meine gesamte Workflowkette bis hin zur finalen Ausgabe 8bit und rec709. Bis hierhin ist ja auch alles cool, das ist meine Vorgehensweise die ich für mich als passend gefunden habe und muss ja nicht für andere gelten.
Ich hatte halt nur nicht verstanden weshalb ich bei meinem Workflow dennoch beim cine1 PP nachbearbeiten muss (denn das man das machen müsste wurde bei einigen Posts hier impliziert).
Aber gut, jetzt scheine ich's verstanden zu haben, es handelt sich hier um eine "kann-man-machen"-Option, nicht um eine "muss-man machen"-Option.
Antwort von scrooge:
Hallo zusammen,
eure interessanten und teilweise kontroversen Antworten haben micht veranlasst, alle möglichen Infos zu den Themen zu lesen und zu sammeln. Es ist schon krass, wie weit die Meinungen auseinander gehen. Und das Ganze führt wieder zu ein paar Fragen... ;-)
Frage 1:
Letztlich geht es mir darum, mit meiner Sony RX10 II Filme zu drehen, die vom Look und den Farben dem entsprechen, was ich mir vorstelle. Das ganze bitte ohne tiefgreifende Eingriffe in der Postproduktion, wegen der Begrenzungen von 8 bit. Natürlich fängt das schon beim Drehen mit guter Belichtung, Weißabgleich etc. an.
Aus euren Beiträgen schließe ich aber:
Um mit einer 8-Bit Kamera Filme zu drehen, die auch bei einer Projektion auf der Festival-Leinwand (oder im Glücksfall sogar im Kino) gut aussehen, sollte die Kamera schon von sich aus das Bild liefern, das gewünscht wird, oder zumindest sehr nah dran sein.
Habe ich das richtig verstanden?
Frage 2:
Die RX10 II trifft meiner Meinung nach die Hauttöne so gut wie meine frühere Canon und die Farbdarstellung gefällt mir auch insgesamt sehr gut. Also werde ich um S-Log2 lieber einen Bogen machen. Ich würde aber schon gerne mit Cine1 (HG4609G33) drehen.
Leider finde ich weder bei Sony selbst, noch sonst irgendwo ein LUT, um von Cine1 zurück nach Rec709 zu kommen. Gibt es die vielleicht gar nicht?
Frage 3:
Auf dieser Seite:
http://www.jbalazer.com/aces-in-sony-vegas
wird nicht nur erklärt, warum Cine1 besser als S-Log2 ist, sondern auch der ACES-Workflow mit Sony Vegas vorgestellt. Ich habe die Schritte in Vegas nachvollzogen und bin sehr angetan, wie mein Cine1-Footage dargestellt wird.
Ist ACES also tatsächlich die Alternative zur LUT? Immerhin soll es ja sehr ressourcenhungrig sein.
LG
Hartmut
Antwort von Roland Schulz:
Funless hat geschrieben:
Aber gut, jetzt scheine ich's verstanden zu haben, es handelt sich hier um eine "kann-man-machen"-Option, nicht um eine "muss-man machen"-Option.
"Technisch" ist bei Cine1 "muss man" vorgesehen. IRE 100 / RGB 235 ist Limit in REC709, Cine1 geht bis IRE 109 / RGB 255.
Aber wie gesagt, kaputt geht nix.
Antwort von scrooge:
scrooge hat geschrieben:
Auf dieser Seite:
http://www.jbalazer.com/aces-in-sony-vegas
wird nicht nur erklärt, warum Cine1 besser als S-Log2 ist, sondern auch der ACES-Workflow mit Sony Vegas vorgestellt. Ich habe die Schritte in Vegas nachvollzogen und bin sehr angetan, wie mein Cine1-Footage dargestellt wird.
Ich sehe gerade, dass Jacob Balazer das ganze noch weiter entwickelt hat:
https://www.logarist.com/
Läuft jetzt auch mit Resolve, Premiere etc.
Kennt das schon jemand?
Antwort von mash_gh4:
scrooge hat geschrieben:
scrooge hat geschrieben:
Auf dieser Seite:
http://www.jbalazer.com/aces-in-sony-vegas
wird nicht nur erklärt, warum Cine1 besser als S-Log2 ist, sondern auch der ACES-Workflow mit Sony Vegas vorgestellt. Ich habe die Schritte in Vegas nachvollzogen und bin sehr angetan, wie mein Cine1-Footage dargestellt wird.
Ich sehe gerade, dass Jacob Balazer das ganze noch weiter entwickelt hat:
https://www.logarist.com/
Läuft jetzt auch mit Resolve, Premiere etc.
Kennt das schon jemand?
ich galube, ich kenne das projekt ziemlich gut und seit seinen anfängen -- immerhin habe ich mit dem jacob damals eine ziemlich intensive korrespondiert und ihm auch die meine messwerte, die ich im zuge von GH4 spezifischen ACES IDT entwicklungen gesammelt habe, zur verfügung gestellt, um sich nicht nur auf seine eigenen kameras stützen zu müssen.
eherlich gestanden würde ich dieses projekt aber nicht überbewerten. ich schätze es zwar sehr, wenn sich einzelne leute für eine technische frage so begeiestern können, dass sie wirklich drann bleiben und ganz originelle und sehr persönliche alternativen entwickeln, trotzdem ist das ganze halt doch eher in der amateuer-liga angesiedelt und in den meisten punkten mehr ein neu-erfinden des rades bzw. nachahmen all dessen, was in ACES ein bisserl weitsichtiger bzw. mit höheren ansprüchen und unheimlich viel hintergrund know-how von wirklich erfahrenen farbexperten quasi parallel bzw. kurz davor bereits entwickelt wurde.
während aber ACES eben wirklich immer sehr stark auf die allerhöchsten ansprüche der filmindustrie hin ausgerichtet war und gerade in den anfängen (also in vers. 0.6 u. 0.7) noch kaum unterstützung für für unsere viel bescheideneren produktionsmittel geboten hat, hat eben jacob von anfang an genau diese lücke besser auszufüllen versucht. damit hat er auch wirklich punkte berührt, die im laufe der zeit auch im ACES massiv verbessert wurden, uzm der praxis besser gerecht zu werden. es ist ja schließlich nicht immer vorteilhaft in völlig überzogen groß dimensionierten arbeitsfarbräumen zu arbeiten, sondern oft sinnvoller im erst später hinzugekommen ACES AP1 farbraum statt AP0, oder eben ProPhoto gamut zu arbeiten, wie es jacob versucht:
zum Bild
aber, wie gesagt, ich glaube schon, dass es in diesen dingen mehr sinn macht, sich tatsächlich an den größeren standardisierungsbemühungen bzw. dem gemeinsamen anstrengungen der entsprechenden experten-community zu orientieren, als sich zu sehr von einzelnen produkten, firmenstandards oder eben auch wirklich schätzenswerten einzelkämpfern und ihren entwicklungsbemühungen blenden zu lassen...
aber zurück zur eigentlichen frage:
Also was diesen Thread betrifft geht es um ein und dieselbe Kamera und nicht um die Abgleichung von verschiedenen Kameras, sofern ich den TO (Hartmut) richtig verstanden habe.
natürlich bemühen sich alle hersteller, die einzelnen bildprofile ihrer kameras möglichst harmonisch aufeinander abzustimmen, trotzdem kann das nur bis zu einem gewissen grad gelingen. es stehen dem einfach ganz grundsätzliche probleme entgegen.
ich hab deshalb schon vorhin ganz bewusst von "gleichen kameras und identischen einstellungen" gesprochen.
es ist ja nicht so, dass ich nicht selber auch das meiste einfach mit dem ganz normalen rec709 standard profil filmen würde, und lieber nur in jenen situationen, wo ich tatsächlich mit objekt-kontrastumfängen konfrontiert bin, die sich nur mit einem ausweichen auf CineD einfangen lassen, zu letzterem greife (und dem V-LOG zumindest auf meiner kamera lieber bewusst aus dem weg gehe, obwohl es durchaus auch seine vorzüge hat).
trotzdem sollte man sich einfach klar machen, wo das problem eigentlich liegt bzw. warum dieser ansatz, wie er in ACES u.ä genutzt wird, tatsächlich sinn macht:
gerne wird bei der diskussion über LOG vs. tradionellem rec.709 gamma und seinen abarten nur der verlauf der helligkeit bzw. werte, die sich auf einzelne farbkanäle beziehen, herausgegriffen, nicht aber deren zusammenspiel innerhalb sgn. farbräume betrachtet. natürlich macht das sinn, um wenigstens diesen einen ganz zentralen aspekt besser zu begreifen und durchdenken zu können, trotzdem bleiben dabei andere, ausgesprochen wichtige(!), gesichtspunkte völlig ausgeklammert.
während in den meisten LOG-formaten die einzelnen farbkanäle weitestgehend dem entsprechen, was der sensor tatsächlich liefert, und in dieser hinsicht mit wichtigen eingriffsmöglichkeiten im falle von RAW ausgangsmaterial gemeinsam haben, liegt im falle der div. rec.709 ähnlichen kameraprofile praktisch immer auch eine kamerainterne aufbereitung bzw. vermischung von farben vor (=> gamut-kompression), die sich nachträglich praktisch nicht mehr rückgängig machen lässt.
während sich die einzelnen farbkanäle ganz isoliert ziemlich einfach in form monotoner übertragagungsfunktionen umwandlen, packen und später wieder weitestgehend problemlos rekonstruieren lassen, ist das bei diesen komplexen farbaufbereitungsoperationen der kamera, die man sich eher analog zu 3D LUTs vorstellen muss, nicht mehr so einfach und in sehr vielen fällen auch ganz prinzipiell gar nicht mehr eindeutig möglich.
das hat aber in der praxis ganz massive folgen!
nehmen wir vielleicht als einfache beispiel, die möglichkeit nachträgliche weißabgleichskorrekturen her:
im falle von weitestegehend unveränderten daten, wie sie der kamerasensor liefert, kann man hier ganz ähnlich vorgehen, wie es auch die kamera intern macht -- also einfach die verstärkung der einzelnen farbkanäle und ihrer linearen werte mit drei unterschiedlichen faktoren multiplizieren (natürlich gibt es auch noch etwas anspruchsvollere lösungen, aber kameras lösen das in der regel tatsächlich auch nur in dieser ganz primitiven weise). wenn man dagegen bspw. mit rec.709 material oder einem JPEG photo im sRGB farbraum zu tun hat, muss man hier zuerst einmal die diese ursprünglichen ausgangswerte zu rekonstruieren versuchen, so ferne das noch möglich ist, um eine derartige operation in einer mathematisch korrekten bzw. dem verhalten in der natur entsprechenden weise vornehmen zu können. dass wird natürlich in jenen fällen, wo man nicht mit einem entsprechenden default verhalten der jeweiligen kamera od. einem fix spezifizierten standard farbraum zu tun hat, sondern auch noch irgendwelche zusätzlichen einstellungen (knee etc.), die der kameramann der jeweiligen aufnahme vorgenommen bzw. variiert hat, nur noch weiter verkompliziert bzw. praktisch verunmöglicht.
gut -- mit dem nötigen augenmaß und entsprechender übung kann man alles auch irgendwie anders wieder einigermaßen zurechtbiegen bzw. neu malen. trotzdem macht's natürlich sinn, sich in diesen dingen um workflows zu bemühen, die das alles deutlich einfacher, sauberer und klarer nachvollziehbar machen.
ich sag nicht, dass das alles jetzt gleich für jedes beliebige youtube-filmchen od. irgendwelchen urlaubserinnerungen gleich als zwingende voraussetzung anzusehen ist, aber als völligen unfug, der überhaupt keinen sinn macht, sollte man es vielleicht auch nicht gleich abtun.
und zum schluss vielleicht noch eine kleine anmerkung bzgl. der frage, warum man derartige abstraktionen bzw. größeren arbeitsräume nutzen soll, wenn man ohnehin nur an rec.709 resultaten interessiert ist bzw. auch nichts anderes auf den benutzten arbeitsgeräten darzustellen vermag?
ja -- diese grundsätzlichen begrenzungen sollte man tatsächlich ernst nehmen bzw. beachten. ich halte also überhaupt nichts davon, auf schirmen, die nur rec.709 SDR darstellen können, irgendwelche HDR geschichten produzieren zu wollen od. eine saubere farbabstimmungen für projektionen im P3 farbraum vornehmen zu können. diesbezüglich muss man sich einfach mit dem begnügen, was einem tatsächlich zur kontrolle bzw. als visuelles feedback zur verfügung steht.
das ändert aber nichts daran, dass es durchaus sinn macht, wenn die benutzten programme unbedingt deutlich genauer rechnen können sollten, als es durch die begrenzungen des ausgabeformats vorgegeben ist, und natürlich auch mit helligkeits- und farbinformationen jenseits davon richtig (=nicht destruktiv) umgehen können sollten!
nur so bewahrt man sich die freiheit, entsprechende reserven ganz gezielt in den bereich des darstellbaren zu übertragen bzw. komplexere korrekturen vorzunehmen. die übersetzte darstellung am rec.709-schirm bzw. das ganz ähnlich gelagerte umrechenen in der abschließenden ausgabe, sind also eher nur als hilfsmittel zu verstehen, sich in einem wesentlich differenzierteren größeren arbeitsraum sinnvoll zu bewegen.
Antwort von wolfgang:
rush hat geschrieben:
"Bruno Peter" hat geschrieben:
Das gelingt mir als Hobbyfilmer im manuelle eingestellten Aufnahmemodus immer wieder, ich erkenne auch ohne Zebra-Messung
wo eine Überbelichtung droht und passe dazu die Belichtungsparameter an.
Klar - du erkennst das ja auch alles problemlos auf deiner sucherlosen RX100 bei starken Sonnenlicht... keine weiteren Fragen ;-) two thumbs up
Bei solchen Äußerungen von Bruno frage ich mich manchmal, wie überhaupt richtig belichtet wird. Muss ja nicht Zebra sein, mir etwa ist der Waveform Monitor auf Graukarte oder false color bei Gesichtstönen auch lieber. ;)
Antwort von wolfgang:
Axel hat geschrieben:
wolfgang hat geschrieben:
Was unterschätzt wird ist die richtige Ausgewogenheit aller technischer Elemente in der Kette. Der mft Sensor ist für seinen Preis durchaus gut aber nicht ganz so gut wie ein S35mm Sensor, 8bit sollte relativ wenig aus der Kamera heraus verändert werden, 10bit oder mehr sichert im Normalfall (also nicht unbedingt das Sony linear log) die Nachbearbeitungsgüte beim Grading wenn es schon log sein soll. Aber einen besseren S35mm Sensor zu nehmen und dann bei 8bit log zu fahren ist eben nicht ausgewogen.
Die Sensor*größe* ist ebenfalls kein automatisch qualitätsbezogener Parameter. Der Vollformat-Sensor der A7rii z.B. rauscht bei Video sehr deutlich mehr als der APS-C-Sensor der A6500, sowohl im Crop- als auch im Vollmodus. Weiß ich aus eigenen Vergleichen, da mein Kumpel mir die A7rii verkaufen wollte und sagte: "noch cleanere Bilder". Eine Milchmädchenrechnung. Der M43-Sensor der GH5S scheint sie nicht davon abzuhalten, ein sensationell gutes Lowlight zu bringen. Und zwar mit dem Parameter "Tricks" ;-))
Zur "Ausgewogenheit aller Elemente" gehört bei den nicht-dummen Hybriden eben auch die Bildaufbereitung durch die Kamera.
Die Größe eines Sensors alleine ist es nicht, aber das ist unverändert ein guter Indikator. Natürlich rauscht jeder Sensor (und nicht slog oder cine), aber um das ging’s ja nicht: sondern um die Frage ob log (egal welches) mit 8bit überhaupt Sinn machen. Und das bezweifle ich seit geraumer Zeit. Egal, welche Marke am Gerät steht.
 |
 |
Antwort von wolfgang:
"Roland Schulz" hat geschrieben:
WoWu hat geschrieben:
@ Hartmut
Im Grunde genommen hast Du es im gesamten unteren Bereich mit einer 709 Übertragung zu tun.
Alle Werte sind identisch verteilt.
...
Das ist weiterhin falsch, auch im unteren Bereich gibt es bereits einen weicheren Kontrast wie es Sony auch zur Cine1 aka Hypergamma 4/HG4 aka HG4609G33 auch beschreibt!
U.a. hier: http://helpguide.sony.net/ilc/1420/v1/d ... 25930.html
„schwächt den Kontrast in dunklen Bildanteilen ab...“
http://www.hingsberg.com/2014/04/f3-f5- ... ma-curves/
mit Kurven:
http://www.jbalazer.com/aces-in-sony-ve ... than-S-Log
Cine1 MUSS man zudem „graden“ um in ein konformes REC709 zu kommen, da kein IRE größer 100 / RGB > 235 zugelassen ist.
Die meisten Endgeräte/Player clippen über IRE100/RGB 235.
Wenn man das nicht will (Graden, Begrenzen) nimmt man Cine2 oder „verbastelt“ das Knee (was man in Cine1 tunlichst „deaktiviert“ lassen sollte > Slope +5!). Damit verliert man aber auch wieder etwas DR für den Post.
Cine1 „sieht“ allerdings in den meisten Fällen schon sehr nach REC709 „like“ Material aus, somit können „Korrekturen“ meist marginal ausfallen.
Absolut. HG ist relativ nah an rec709 aber ist genau genommen zu Graden. Und damit verbiegt man das Material weniger stark als bei log wenn man es zu rec709 graded.
 |
Antwort von wolfgang:
scrooge hat geschrieben:
Hallo zusammen,
eure interessanten und teilweise kontroversen Antworten haben micht veranlasst, alle möglichen Infos zu den Themen zu lesen und zu sammeln. Es ist schon krass, wie weit die Meinungen auseinander gehen. Und das Ganze führt wieder zu ein paar Fragen... ;-)
Frage 1:
Letztlich geht es mir darum, mit meiner Sony RX10 II Filme zu drehen, die vom Look und den Farben dem entsprechen, was ich mir vorstelle. Das ganze bitte ohne tiefgreifende Eingriffe in der Postproduktion, wegen der Begrenzungen von 8 bit. Natürlich fängt das schon beim Drehen mit guter Belichtung, Weißabgleich etc. an.
Aus euren Beiträgen schließe ich aber:
Um mit einer 8-Bit Kamera Filme zu drehen, die auch bei einer Projektion auf der Festival-Leinwand (oder im Glücksfall sogar im Kino) gut aussehen, sollte die Kamera schon von sich aus das Bild liefern, das gewünscht wird, oder zumindest sehr nah dran sein.
Habe ich das richtig verstanden?
Frage 2:
Die RX10 II trifft meiner Meinung nach die Hauttöne so gut wie meine frühere Canon und die Farbdarstellung gefällt mir auch insgesamt sehr gut. Also werde ich um S-Log2 lieber einen Bogen machen. Ich würde aber schon gerne mit Cine1 (HG4609G33) drehen.
Leider finde ich weder bei Sony selbst, noch sonst irgendwo ein LUT, um von Cine1 zurück nach Rec709 zu kommen. Gibt es die vielleicht gar nicht?
Frage 3:
Auf dieser Seite:
http://www.jbalazer.com/aces-in-sony-vegas
wird nicht nur erklärt, warum Cine1 besser als S-Log2 ist, sondern auch der ACES-Workflow mit Sony Vegas vorgestellt. Ich habe die Schritte in Vegas nachvollzogen und bin sehr angetan, wie mein Cine1-Footage dargestellt wird.
Ist ACES also tatsächlich die Alternative zur LUT? Immerhin soll es ja sehr ressourcenhungrig sein.
LG
Hartmut
Es ist eher umgekehrt: LUTs sind die Alternative zu Farbmanagementsystemen wie ACES1, oder dem von BM oder GV. In Vegas 15 hast halt ACES1, und du hast recht: das ist dort leider nicht besonders performat. LUTs können in Vegas 15 (letzten Build nutzen) performater sein, weil diese jetzt GPU unterstützt sind.
Und ja, bei 8bit gibt es viele die meinen dass das Material möglichst gleich aus der Kamera passen sollte. Macht auch Sinn.
 |
Antwort von WoWu:
"Frank Glencairn" hat geschrieben:
Funless hat geschrieben:
Sagt mal was filmt ihr denn alle so? Produziert hier jeder im Forum Blockbuster Hollywood Produktionen? Dann würde ich mich ja in einem sehr erlauchten Kreis befinden, fühle mich geehrt. Dieser signifikante Drang zur Nachbearbeitung in der Post ist ja fast schon pathologisch.
Hast du dir mal angeschaut was aus einem Sensor so hinten raus kommt?
Nachbearbeitung in irgendeiner Form ist quasi zwingend.
Ob man die "Post" jetzt in lieber der Kamera, mit den beschiedenen Einstellungen, die da möglich sind macht, oder später in aller Ruhe zuhause, spielt eigentlich keine Rolle. Nur, an irgendeinem Punkt muß man sie halt machen
Oh doch, das spielt eine ganz wesentliche Rolle denn einmal finden solche Änderungen sehr weit vorne, im Prozessweg statt, wo Störabstände noch relativ gross sind und außerdem finden die Änderungen vor der Kompression statt.
In der Post hast Du nur die Chance, die ganze Suppe zu bearbeiten.
Da ist dann von nativem Bild nicht mehr zu sprechen.
Deshalb sind die 8Bit ja so kritisch. ( aber eben nicht nur denn solche Klumpenbildung der Blenden finden natürlich schon in der Kamera statt).
Umso wichtiger ist es eben, speziell bei solchen unpräzisen Geräten, auf 10 Bit zu gehen.
Antwort von scrooge:
wolfgang hat geschrieben:
Es ist eher umgekehrt: LUTs sind die Alternative zu Farbmanagementsystemen wie ACES1, oder dem von BM oder GV. In Vegas 15 hast halt ACES1, und du hast recht: das ist dort leider nicht besonders performat. LUTs können in Vegas 15 (letzten Build nutzen) performater sein, weil diese jetzt GPU unterstützt sind.
Verstehe...
Leider habe ich noch immer keine LUTs für die Übertragung von Cine1/HG4 gefunden. :-\
Antwort von WoWu:
@Funless
„Ich belichte beim filmen mit dem cine1 PP gemäß WYSIWYG wenn etwas bei der Aufnahme clippt oder wenn gewisse dunkle Bereiche zu'nem satten Schwarz werden dann ist das bei mir auch so gewollt.“
Du liegst da mit Deiner Einstellung auch völlig richtig, denn die Kamera klippt immer an derselben Stelle, egal, welche Übertragungsfunktion Du benutzt.
Wenn sie z.B. bei 20.000 Lux in den Clip geht, ist ihr das Egal, wie Du den Wert überträgst.
Die Übertragungskurve lässt kein Signal clippen.
Und wenn das in Cine 1 nicht geclipped ist, ist es in 709 auch nicht geclipped.
Und eine Übertragungsfunktion macht die Kamera auch nicht empfindlicher denn die Kameraempfindlichkeit basiert auf den beiden Parametern, die Du von außen sowieso nicht beeinflussen kannst, nämlich auf den Rauschwerten und FullWell des Sensors.
Und Du kannst weder die Rauschwerte verbessern, noch die FE Eigenschaften der Pixels.
Also ist Deine Vorgehensweise schon völlig ok.
Bei der Übertragungsfunktion ist es lediglich eine Frage der „Appearance“, also der Darstellung, wie viele Werte Du in welchem Bereich auflöst, wie „weich“ das Bild also dargestellt wird.
Und der ganze Quatsch mit 100 und 108% ist ziemliche Augenwischerei, weil man einfach hergeht und den Weisspunkt anders definiert und das sollen dann die 100% sein, nur damit man die restlichen 8% noch irgendwelchen Blenden zuordnen kann. Marketingblenden sind das, weil sich die Gesamtdynamik der Kamera um keine einzige Blende dadurch erweitert.
Am Sensor tut sich nämlich überhaupt nichts. Der macht immernoch seine ( hier angenommenen) 20.000 Lux.
Antwort von Funless:
Hallo WoWu,
vielen Dank für die Erklärung.
Antwort von Roland Schulz:
WoWu hat geschrieben:
@Funless
„Ich belichte beim filmen mit dem cine1 PP gemäß WYSIWYG wenn etwas bei der Aufnahme clippt oder wenn gewisse dunkle Bereiche zu'nem satten Schwarz werden dann ist das bei mir auch so gewollt.“
Du liegst da mit Deiner Einstellung auch völlig richtig, denn die Kamera klippt immer an derselben Stelle, egal, welche Übertragungsfunktion Du benutzt.
Wenn sie z.B. bei 20.000 Lux in den Clip geht, ist ihr das Egal, wie Du den Wert überträgst.
Die Übertragungskurve lässt kein Signal clippen.
Und wenn das in Cine 1 nicht geclipped ist, ist es in 709 auch nicht geclipped.
Und eine Übertragungsfunktion macht die Kamera auch nicht empfindlicher denn die Kameraempfindlichkeit basiert auf den beiden Parametern, die Du von außen sowieso nicht beeinflussen kannst, nämlich auf den Rauschwerten und FullWell des Sensors.
Und Du kannst weder die Rauschwerte verbessern, noch die FE Eigenschaften der Pixels.
Also ist Deine Vorgehensweise schon völlig ok.
Bei der Übertragungsfunktion ist es lediglich eine Frage der „Appearance“, also der Darstellung, wie viele Werte Du in welchem Bereich auflöst, wie „weich“ das Bild also dargestellt wird.
Und der ganze Quatsch mit 100 und 108% ist ziemliche Augenwischerei, weil man einfach hergeht und den Weisspunkt anders definiert und das sollen dann die 100% sein, nur damit man die restlichen 8% noch irgendwelchen Blenden zuordnen kann. Marketingblenden sind das, weil sich die Gesamtdynamik der Kamera um keine einzige Blende dadurch erweitert.
Am Sensor tut sich nämlich überhaupt nichts. Der macht immernoch seine ( hier angenommenen) 20.000 Lux.
In Bezug auf Sony völlig falsch, vielleicht war das bei Deinen alten HPX‘en mal so.
http://kamera-technik.com/blog/2015/02/ ... t-gemacht/
HG4 aka Cine1 übertragt z.B. 460% DR auf IRE109 in Bezug auf ITU/REC709, also definitiv mehr DR und auch mehr als mit Knee in ITU/REC709 reingebracht werden könnte.
Die ganzen Plots die es so gibt in Bezug auf HG1 bis HG4 halte ich aber für theoretisch - da gibt es schon Unterschiede bei den „praktischen“ Kameras.
Cine1/HG4 überträgt bei ner a7III auch „den selben“ DR wie S-LOG2, nur anders verteilt.
viewtopic.php?f=77&t=140708&start=70#p939035
Die für HG4 propagierten „460%“ gehen aus den meisten Plots leider auch nicht als 460% hervor.
http://www.xdcam-user.com/2011/05/s-log ... -hg-curve/
Antwort von Onkel Danny:
Was ich nicht ganz verstanden habe ist, warum hier sogar die Rede von der Güte der Sensoren ist.
Bei diesem Thema geht es einzig und allein um das "processing" vom Bildsignal.
Denn nur das bestimmt wie das Bild später aussieht. Die Sensoren sind schon lange nicht mehr das Problem.
Selbst der beste Sensor, würde mit einem nur mäßigen processing, kein tolles Bild liefern.
Und nein, einfach nur 10bit macht ein Bild nicht gleich super, aber Sony dran zu schreiben leider auch nicht...
Antwort von Jott:
Hier ist gerade die FS5 Mark II eingetrudelt. 8Bit, herrje. In der nächsten freien Stunde schau ich mal, was es mit der Color Science aus der Venice auf sich hat, die in der Kamera werkeln soll. Tolle Aufnahmen direkt out of the box sind immer höchst erstrebenswert, wenn man von schnellen Turnarounds lebt. Mal schauen!
Sehr angenehm in der Hand schon mal, diese Schrumpfversion der FS7. Dieser Prügel ist uns inzwischen zu unhandlich, schön war's, aber die Trennung steht an. Das Fehlen von ein paar wichtigen Features hatte drei Jahre lang genervt, jetzt ist gut.
Der Verleiher ums Eck haut billig Shoguns raus, dann können wir auch mal mit ProRes Raw spielen! :-)
Antwort von Axel:
"Roland Schulz" hat geschrieben:
ETTR Belichtung in xLOG ist gemäß der Herstellerdefinitionen eigentlich „Pfusch“ bzw. ein Notnagel wenn man‘s schnell nicht besser hinkriegt.
Richtig „soll“ für korrekte Reversibelität definiert belichtet werden (+/- xEV auf 18% Grau).
Meine Perspektive ist die eines Hochzeitsfilmers, der nichts planen kann, nicht beleuchten kann, nicht mit Belichtungsmesser fuchteln kann und auf schnell wechselnde Extrem-Lichtverhältnisse spontan und sicher reagieren können muss, und zwar manuell. Das bedingt gewisse Kompromisse. Kein Veto gegen Cine 1 bis Cine 4. Auch die habe ich getestet, mit guten Ergebnissen. Das Aufnehmen in Slog2 finde ich allerdings etwas einfacher. Gute Dynamik in allen Aufnahmesituationen.
Die Unterbelichtung (im Vergleich zu rec_709) von Slog2 führt zu beschissenen, weil sehr häufig verrauschten Bildern. Das betrifft den irgendwo aufgeschnappten Begriff "nutzbare Dynamik". Das Rauschen kann schon Partien in den Hauttönen befallen und tatsächlich alles unbrauchbar machen. Wie Alistair Chapman darlegt, bietet ETTR mit mäßiger Überbelichtung auch in 8-bit nur Vorteile, solange man nicht mit der Sony-Lut arbeitet. Luts setzen auf das löchrige 8-bit Log noch einen drauf. Gut fürs Monitoring bei der Aufnahme, schlecht fürs Graden. Nun stimmen Theorie und Praxis darin überein, dass man bei zu starker Überbelichtung Haut-Nuancen ausdünnt. Aber das ist bei dem o.e. Anforderungsprofil ein vertretbarer Kompromiss, denn so arg ist es nicht:
From this we can see that for mid tones and skin tones you can afford to expose between 1 and 2 stops above the Sony recommended base level. More than 2 stops over and brighter skin tones and any other brighter textures start to be lost. The noise reduction gain by shooting between one and 2 stops over is certainly beneficial. The down side to this though is that we are reducing the over amount of exposure headroom.
Hervorhebung von mir.
Das bedingt freilich, dass man besonders exakt belichtet, während 10-bit und Raw unter besseren Bedingungen (siehe FS5 mit PRR, wo es zweifelhaft zu sein scheint) mehr Spielraum lassen. Das kann keiner bestreiten.
Es gibt viele Beispiele auf Youtube für erfolgreiches Verwenden von Slog2 mit Sony Alphas. Die meisten verwenden ein modifiziertes Profil, um die an 90er Jahre Video erinnernden Sony-Farben zu bändigen. Ich habe auch mehrere davon probiert.
Letzten Endes muss jeder selbst durch eigene Tests herausfinden, welches Profil ihm am besten gefällt. Man kann sogar in einem Kreativmodus erstklassige Bilder zaubern. Aber nur, wenn man diesen oft, ja sogar ständig benutzt (siehe Brandon Li).
Antwort von scrooge:
Also, da ich immer noch keine LUTs für Cine1/HG4 gefunden habe und mir der Workflow von ACES und Logarist nur bedingt zusagt, habe ich jetzt einfach mal etwas mit der Trial von Filmconvert experimentiert.
Die Kombination unterschiedlicher Kameras bzw. die Kombination von Slog2 + Cine1 Aufnahmen der selben Kamera gefällt mir schon mal sehr gut.
Auch auf die Gefahr hin, damit ein "neues Fass aufzumachen":
Was haltet ihr von Filmconvert?
Macht es einen Unterschied, ob ich für Filmconvert die interne Verarbeitung von VEGAS umstelle von 8-Bit auf 32 Bit 2,222 Video? Oder sollte man das ohnehin immer so umstellen für die Farbkorrektur?
LG
Hartmut
Antwort von WoWu:
Film convert ist eine Konservendose mit LOOKs für all die, denen Grading zu schwierig ist und die mit vorgefertigten Einheitslooks auskommen.
Das ändert aber nichts am Grundproblem der unterschiedliche Repräsentanz verschiedener Übertragungsfunktionen nur dass beide dann ein anderes „tinting“ haben.
Aber LOOKs sind keine Badis für Diskussionen, denn was dem Einen gefällt, ist für den Andern ein Graus.
Das ist reine Geschmackssache.
Antwort von scrooge:
Hmm... dann kann ich ja auch Mojo II von Magic Bullet nehmen, denn das habe ich bereits. :-)
Ich denke, der Vorteil von Filmconvert besteht darin, dass man Presets für diverse Kameras laden kann. Von dort wird dann in Filmstock-Emulationen "übertragen". Und die sind natürlich Geschmackssache, da hast du Recht.
Die in Filmconvert enthaltenen Werkzeuge für Exposure und Temperature sollen aber auch besser sein, als die entsprechenden Bordmittel von Vegas & Co.
Wenn ich ein bestimmtes Aussehen am Ende erzeugen will, inwiefern ist denn die "unterschiedliche Repräsentanz verschiedener Übertragungsfunktionen" für mich wichtig, wenn das visuelle matchen der Aufnahmen gut funktioniert?
LG
Hartmut
Antwort von mash_gh4:
scrooge hat geschrieben:
Ich denke, der Vorteil von Filmconvert besteht darin, dass man Presets für diverse Kameras laden kann. Von dort wird dann in Filmstock-Emulationen "übertragen".
ja -- das ist bei all den angesprochenen lösungen ähnlich...
vernünftig graden od. eben auch kitschige LOOKs drauf klatschen kann man einfach nur, wenn zuerst einmal eine einigermaßen einheitliche ausgangsbasis gegeben ist. alles andere halte ich zumindest für einen noch fragwürdigeren pfusch.
ah ja -- weil weiter oben einmal die verwendung von LUTs anderen mechanismen gegenübergestellt wurde:
in wirklichkeit kommen natürlich in den meisten gebräuchlichen ACES implementierungen (also speziell: OpenColorIO, wie es ja auch vegas nutzt) auch nur gebackene LUTs für die tatsächliche umwandlung hinter den kulissen zur anwendung. ;)
Antwort von mash_gh4:
scrooge hat geschrieben:
...da ich immer noch keine LUTs für Cine1/HG4 gefunden habe...
für die diversen SLog varianten bekommt man recht brauchbare OpenColorIO configs von sony selbst od. findet sie auch in den default ACES configs, die man dann mit hilfe von ociobakelut in alle nur erdenklichen LUT-formate umwandeln kann.
für Cine1 und HG4 wirst du derartiges kaum finden, weil sich diese profile für solche zwecke nicht so gut eignen. das hat u.a. damit zu tun, dass sie gewöhnlich zusammen mit all diesen individuellen einstellmöglichkeiten bei der aufnahme genutzt werden, die einer nachträglichen linearisierung ganz massiv im weg stehen.
Antwort von scrooge:
mash_gh4 hat geschrieben:
scrooge hat geschrieben:
...da ich immer noch keine LUTs für Cine1/HG4 gefunden habe...
für Cine1 und HG4 wirst du derartiges kaum finden, weil sich diese profile für solche zwecke nicht so gut eignen. das hat u.a. damit zu tun, dass sie gewöhnlich zusammen mit all diesen individuellen einstellmöglichkeiten bei der aufnahme genutzt werden, die einer nachträglichen linearisierung ganz massiv im weg stehen.
Oh... Ok... Dann bin ich mit Filmvonvert wohl noch am besten aufgehoben. Hab es eben in Vegas ausprobiert. Ich kann als Kameraprofil meine Sony Kamera mit Cine1 Profil laden. Klappt super. Auch die Möglichkeiten der Farbkorrektur bis hin zum Finetunen eines Looks gefallen mir. Auch das matchen mit den Slog-2 Clips klappt.
Und ich kann dann auch eine LUT exportieren. Dann hab ich sie ja endlich: Meine LUT für Sony Cine1 ;-)
LG
Hartmut
Antwort von Funless:
Na dann ... Gratulation zum Erfolg und Ergebnis. 🙂👍
Antwort von mash_gh4:
auch im falle von filmconvert wird das nur dann befriedigend funktionieren, wenn du auf der kamera exakt die einstellungen verwendest, die sie dir empfehlen bzw. als defaulteinstellung vorausgesetzt werden, und du daran nicht mutwillig herumdrehst...
Antwort von scrooge:
Funless hat geschrieben:
Na dann ... Gratulation zum Erfolg und Ergebnis. 🙂👍
Danke :-)
Einziger Haken ist, dass Filmconvert 149$ kostet. Aber Qualität kostet halt... ;-)
Antwort von scrooge:
mash_gh4 hat geschrieben:
auch im falle von filmconvert wird das nur dann befriedigend funktionieren, wenn du auf der kamera exakt die einstellungen verwendest, die sie dir empfehlen bzw. als defaulteinstellung vorausgesetzt werden, und du daran nicht mutwillig herumdrehst...
Ja, das stimmt.
Die Einstellung nennt sich "Cine1 Pro". Ich nehme daher das Picture Profile 5, das bei "Gamma" auf "Cine1" steht und ändere den Farbmodus auf "Pro". Ansonsten ändere ich nichts, in der Hoffnung, dass das dann passt. ;-)
Antwort von Roland Schulz:
Jott hat geschrieben:
Hier ist gerade die FS5 Mark II eingetrudelt. 8Bit, herrje. In der nächsten freien Stunde schau ich mal, was es mit der Color Science aus der Venice auf sich hat, die in der Kamera werkeln soll. Tolle Aufnahmen direkt out of the box sind immer höchst erstrebenswert, wenn man von schnellen Turnarounds lebt. Mal schauen!
Sehr angenehm in der Hand schon mal, diese Schrumpfversion der FS7. Dieser Prügel ist uns inzwischen zu unhandlich, schön war's, aber die Trennung steht an. Das Fehlen von ein paar wichtigen Features hatte drei Jahre lang genervt, jetzt ist gut.
Der Verleiher ums Eck haut billig Shoguns raus, dann können wir auch mal mit ProRes Raw spielen! :-)
...na da bin ich mal auf Dein Feedback gespannt, hier klingt's nicht so euphorisch:
https://youtu.be/qoJCgDDgi74
Erinnert mich alles ein wenig an meine Zeit mit der Fuji S2pro zurück, wo man mit dem "schweineteuren" Fuji Hyper Utility RAW Converter kaum ne Chance hatte die Qualität der OOC JPEGs zu erreichen.
Auch hier im Vergleich das was ich weiter oben schon beschrieben hatte: Moiré, Rauschen, (Farben) und fehlende Objektivkorrekturen (ggf. in Abhängigkeit der Brennweite bei Zooms).
Keine Frage, RAW kann "potentiell" alles besser als in camera processing, nur ist entweder die Software noch nicht so weit oder der zusätzliche Aufwand für Rechner und Editor ist hoch.
Allein zum Denoising was im Beispiel zwingend notwendig erscheint ist "mir" keine Lösung bekannt die das heute in hoher Qualität und gleichzeitig in Echtzeit macht.
Deinen Wunsch nach hochwertigen OOC Ergebnissen finde ich für viele Anwendungen absolut nachvollziehbar!
Antwort von Roland Schulz:
Ggf. noch eine ganz interessante Übersicht über die Gammas und Farbprofile bei Sony.
https://pro.sony/de_DE/products/handhel ... oting-tips
Leider auch hier ohne grafische Darstellungen der Übertragungsfunktionen. Eigentlich habe ich da bis heute aber auch nichts vernünftiges, belastbares gefunden. Viele Darstellungen weichen voneinander ab, keine "endet" bei den propagierten 460% (Kurve müsste ab da parallel zur x-Achse laufen), dafür enden die ITU Kurven irgendwo ohne weiter "flat" bei IRE max. zu laufen.