Frage von ruessel: zum Bild
Farbe extrem: Kein genormter Farbchart, oben Sony NX3 PP justiert, unten Pocket ProRes unbearbeitet.
Da ich gerade eine Sony NX3 am Vectorscope justiere und ich ich finde das die Farben der NX3 im Rahmen der Möglichkeiten des Codecs recht differenziert sind, habe ich mal kurz die Pocket auf dem Aufbau draufgehalten. (5600Kelvin Tageslicht) Das Vectorscop bescheinigt eigentlich mit einen genormten Farbchart vom DSC Lab recht gute Farbwerte der NX3.
Ich bin mit ProRes bei der Pocket zufrieden, auch wenn die Farben am Anfang schwach aufgezeichnet werden (Filmmodus), siehe oben. Bis jetzt hatte ich immer nach "Auge" die Farben justiert und war eigentlich zufrieden.
Bei diesem Farbchart habe ich aber massive Probleme, angenommen die NX3 gibt diese Farben (bis auf Farbe 47/48, außerhalb von Videofarben) einigermaßen gut wieder, da bekomme ich die Pocket nicht hin, bei Prores reißt es vorher die Farben/Kontrast auseinander. Sicherlich mache ich da was in Premiere CS6 falsch....oder?
Falls jemand mal etwas Zeit hat und damit spielen möchte, ich habe Originalmaterial (das obige Farbbeispiel) unbearbeitet gezippt. Es handelt sich um eine kurze MTS (8bit) aus der NX3 und eine kurze Szene der Pocket Mov (ProRes 10 Bit)
Download für die nächsten Tage: http://www.digitalfx.de/color.zip (74MB - MTS, Mov)
Über einen Framevergleich, NX3 + Pocket ProRes würde ich mich begeistern ;-)
Bekommt das einer möglichst gut hin?
Antwort von domain:
In etwa kommt man schon hin, aber Gelb bleibt schwach und damit u.a. auch alle Grüntöne
zum Bild http://img5.fotos-hochladen.net/uploads/farbtafelkopiemkfpx90ant.jpg
Antwort von ruessel:
Etwas enttäuschend, oder?
selbst auf dem Laptop hier, sehen die Farben der NX3 schon fast genauso wie die Vorlage aus. Muss ich als Pocketfilmer auf Gelb und Grün verzichten?
Antwort von nachtaktiv:
da hast du wohl mit zitronen gehandelt und kannst sie nicht mal filmen :D ...
Antwort von ruessel:
Na ja, etwas besser bekomme ich das Gelb schon hin.... ;-)
Antwort von CameraRick:
Selektive Farbkorrektur, drehst halt die Saturation in Gelb ein wenig auf?
Dass ein LOG Bild mehr Arbeit braucht ist ja irgendwie nicht verwunderlich.
Mal mit nem Color Checker versucht?
Antwort von cantsin:
Ich würde auch mit einer Farbkarte (wie z.B. X-rite Color Check Passport) und der Betaversion von Resolve 11 arbeiten, Resolve 11 erkennt den Chart automatisch und korrigiert alle Farben dementsprechend. Diese Korrektur kann man dann auch als LUT abspeichern und wiederverwenden.
Antwort von ruessel:
Mein Versuch..... da reißt es fast alles aus....
Selektive Farbkorrektur, drehst halt die Saturation in Gelb ein wenig auf?
machen.....!!
Diese Korrektur kann man dann auch als LUT abspeichern und wiederverwenden.
wäre schön.....
Antwort von motiongroup:
http://www.colorgradingcentral.com/impulz
mit http://www.colorgradingcentral.com/lututility
funktioniert es leider nur unter OSX...
Antwort von CameraRick:
Die .cube LUTs die die da machen klappen nativ in den meisten Andwendungen, das kostenlose "LUT Buddy" funktioniert in mehereren Hosts, und DaVinci kost auch nüscht und kann das. Windows wie OSX.
Antwort von stefanhuberfilms:
Wie CamRick schon erwähnt hat, die LUT's funken auf fast allen NLE's. Sind übrigens super!
hier ein clip den ich damit gegraded hab:
Antwort von CameraRick:
Gegraded oder drauf geklatscht? :P
Kleiner Spaß, das kleine Filmchen gefällt mir optisch sehr gut. Sind die mittlerweile korrigiert? Ich hab die nur mal kurz in der Hand gehabt, da haben manche in DaVinci ein ganz hässliches Banding (vermutlich ist es kein Banding, aber ich kenne das korrekte Wort nicht) produziert, war nicht nutzbar
Antwort von ruessel:
das kostenlose "LUT Buddy" funktioniert in mehereren Hosts,
Ich sehe 399$...... wo kostenlos?
hier ein clip den ich damit gegraded hab:
Und damit bist du zufrieden? Sieht nicht gerade sehr realistisch aus auf meinen Laptop (Hauttöne).... eher schöne Pastellfarben.....
Antwort von CameraRick:
das kostenlose "LUT Buddy" funktioniert in mehereren Hosts,
Ich sehe 399$...... wo kostenlos?
http://www.redgiant.com/products/all/lut-buddy/
ist ein wenig dämlich; die Suiten kosten so viel, aber wenn Du den Installer nimmst wird LUT Buddy kostenlos installiert (musst nicht mal die Demos der anderen laden)
Wenn Du auf die Update-Page der Suiten gehst: http://www.redgiant.com/products/all/sh ... ates/#tabs
kannst auch normalerweise die Suite ohne Anmeldung herunter laden, auf die Weise hat nicht noch jemand alle Deine Daten :)
ImpulZ ist halt hauptsächlich Look, kann nett kommen - aber neutral ist anders.
Antwort von ruessel:
Ich sehe 399$...... wo kostenlos?
Auch ich habe es nun gefunden.....
Antwort von stefanhuberfilms:
Gegraded oder drauf geklatscht? :P
Kleiner Spaß, das kleine Filmchen gefällt mir optisch sehr gut. Sind die mittlerweile korrigiert? Ich hab die nur mal kurz in der Hand gehabt, da haben manche in DaVinci ein ganz hässliches Banding (vermutlich ist es kein Banding, aber ich kenne das korrekte Wort nicht) produziert, war nicht nutzbar
gegraded und draufgeklatscht :)
Cineon FilmStock conversion als erstes LUT und darüber ein Cineon to FPE LUT ums wieder zurückzuziehen. Unter die beiden LUTs hab ich noch eine Primary Correction gelegt um die Helligkeiten zwischen den Unterschiedlichen Shots anzupassen...
Banding hatte ich garnicht, bist du sicher dass wir von den gleichen LUTs reden? kann aber auch das Ausgangsmaterial den Unterschied machen, wobei bei 10bit eigentlich nix "banden" sollte...
Antwort von stefanhuberfilms:
Und damit bist du zufrieden? Sieht nicht gerade sehr realistisch aus auf meinen Laptop (Hauttöne).... eher schöne Pastellfarben.....
Stimmt schon dass die Skintones etwas off sind... hätte auch einen Kühleren Filmstock nehmen können, oder das Output LUT etwas zurückdrehen ums realistischer hinzubekommen. Ich find die Farben passen aber zum Inhalt des Films. Wenn das ein bezahltes Projekt wär würd ich da mehr drauf geben. Mir gefällts!
Antwort von CameraRick:
Banding hatte ich garnicht, bist du sicher dass wir von den gleichen LUTs reden? kann aber auch das Ausgangsmaterial den Unterschied machen, wobei bei 10bit eigentlich nix "banden" sollte...
https://twitter.com/VisionColorPS/statu ... 7984490497
ziemlich sicher ;) das Problem bestand wohl hauptsächlich in DaVinci. Ich weiß es leider nicht, obs eben behoben wurde. War eben ein sehr trauriges Resultat, war da nicht von angetan.
Antwort von stefanhuberfilms:
hatte keine Probleme, hab aber auch in Speedgrade gegraded...
Antwort von ruessel:
Ich find die Farben passen aber zum Inhalt des Films.
Keine Frage, das haut schon hin....Malerei....
Aber ich möchte auf was ganz anderes heraus, mache doch mal einen kleinen Internetclip für eine z.B. Gärtnerei mit viel Grün und gelben Blumen. Da sagt dann die Gärtnerei wahrscheinlich: unsere Sonnenblumen sehen so unattraktiv aus.... ;-)
Aber ganz ehrlich, meist sind die Farben der Pocketfilmchen im Netz wirklich unterirdisch. Zeit etwas zu ändern.....
Antwort von stefanhuberfilms:
Sidenote: Hab ich auf der FS700 gedreht, nicht auf Pocket. Hat aber zum Thema der ImpulZ LUTs gepasst... :)
@ruessel: Geb dir auf jeden fall recht, bei bestimmten shots sind solche Farben sicher fehl am platz. Bei dem einen Gegenlichshot mit dem Pflanzen im Bild hab ich bewusst einen anderen Stock gewählt um das Grün wirklich grün zu machen. Das ist aber auch der einzige shot wo es halbwegs richtig aussieht :)
Antwort von ruessel:
Ich habe nur Angst, das wenn ich die Farben richtig ziehen kann, mein codec auseinander fällt. RAW wollte ich mir eigentlich ersparen.....
Hab ich auf der FS700 gedreht, nicht auf Pocket.
Hatte mich auch ein wenig über die Highlights gewundert..... aber auch das bekommt man mit der kleinen Wunderwaffe Pocket irgendwie hin ;-)
Antwort von stefanhuberfilms:
Ich habe nur Angst, das wenn ich die Farben richtig ziehen kann, mein codec auseinander fällt. RAW wollte ich mir eigentlich ersparen.....
Hab ich auf der FS700 gedreht, nicht auf Pocket.
Hatte mich auch ein wenig über die Highlights gewundert..... aber auch das bekommt man mit der kleinen Wunderwaffe Pocket irgendwie hin ;-)
Ich hab bei dem clip auch nur in PR HQ gearbeitet, da zerfällt nix imo. Kann allerdings nicht sagen wieviel da wirklich bei der pocket reingepackt ist ins material.
Antwort von CameraRick:
Hast nen Color Checker da, ruessel?
Ich hab leider weder Pocket noch diese Sony zum Vergleich, nur eine BMCC und eine GH2 oder so. Die BMCC soll ja ähnlich sein, was die Colorscience angeht.
Ich kann sonst am WE mal schauen, dass ich eine bunte Szenerie (samt gelb) filme, und dann via Color Checker mal abgleiche um zu schauen, ob das Abhilfe schafft?
Antwort von ruessel:
Hast nen Color Checker da, ruessel?
nicht so richtig, einen JOBO color Test Chart..... habe gerade bei Sonnenschein die pocket draufgehalten einmal ProRes HQ und ein RAW Frame gepackt.
Hier im Anhang zum Vergleich ein Foto unter den selben Bedingungen aus meiner Nikon D90.....
Download für die nächsten Tage: http://www.digitalfx.de/color2.zip (50MB - DNG, MOV aus der Pocket)
Antwort von Axel:
Hast nen Color Checker da, ruessel?
nicht so richtig, einen JOBO color Test Chart.....
Resolve zeigt den X-rite Color Checker an, den Datacolor Spyder Cecker und den DSC Labs SMPTE OneShot.
Ich hab mir auch schon überlegt, so einen Chart zu kaufen. Wäre ja wohl so etwas wie ein super guter Weißabgleich.
Antwort von ruessel:
DSC Labs SMPTE OneShot
zum Bild
Im Prinzip habe ich den..... nur die Farben anders aufgeteilt.... würde das was zum testen nutzen?
Antwort von Axel:
DSC Labs SMPTE OneShot
zum Bild
Im Prinzip habe ich den..... nur die Farben anders aufgeteilt.... würde das was zum testen nutzen?
Lad dir doch Resolve 11, ist doch gratis.
Antwort von CameraRick:
Hilft leider nichts, man kann nur eine komplette Maske, nicht aber die einzelnen Farben abchecken. Also, es muss auch im Muster sein.
Und natürlich müssen die Farben auch überein stimmen, sonst kanns ja nicht klappen.
Ic werde mal schauen, morgen was zu machen; kann ich dann auch gern hochladen damit Du es selbst in Resolve testen kannst. So nach dem Motto, einmal von hand bearbeiten und schauen obs die gleichen gelben Sorgen gibt, und danach mal durch die Automatik ziehen und schauen obs hilft.
So Color Checker sind nicht billig, aber wenn man das konsequent nutzt sicher wert!
Antwort von ruessel:
Lad dir doch Resolve 11, ist doch gratis.
Ich habe im Moment keine Zeit da auch noch einzutauchen.
Inzwischen ist mein HDMI SDI Wandler gekommen, damit bekomme ich die Pocket auf meinem kleinen Messplatz. Mal schauen wie die Farben im "video" Modus sind, sollte da auch schon eine deutliche Gelbschwäche sein, habe ich mit guten Hauttönen ein Problem - das wäre dann ein grundsätzliches Sensorproblem, Gelb=Blau+Grün. Aber erst einmal schauen... dann Urteilen.
Hilft leider nichts, man kann nur eine komplette Maske, nicht aber die einzelnen Farben abchecken.
O.K., wäre ja auch zu einfach gewesen.....
Antwort von ruessel:
Nun habe ich meine Pocket im Videomodus auf das DSC Colorchart gehalten. Dabei ist mir ein Fehler der Pocket aufgefallen, die anwählbaren Kelvinzahlen dürften weit abweichen, bei mir sind sie zu hoch eingestellt. Ich habe ein 5400K 5-Banden-Licht, bei der 5600K Einstellung sah es völlig katastrophal auf dem Vectorscop aus. 4500K kommt schon am besten hin, leider gibt es keine feineren Zwischenstufen -warum eigentlich nicht?
Die Messung ist nun nicht völlig Fehlerfrei, ich hätte die Lampen vorher eine halbe Stunde warmlaufen lassen, ich habe den HDMI Wandler nur grob überprüft aber egal, ich suche keine restlichen 5%.....
Da die Farben zu schwach eingestellt sind (Messung über den HDMI Ausgang) habe ich am Vectorscop den Gain (ca. 300%) so aufgezogen, das die erste Farbe (Rot) 100% erreicht, der Rest hätte in der Nähe seiner Farbvektoren liegen müssen.... sind aber Meilenweit entfernt. (siehe Anlage)
Ist nur eine Momentaufnahme, des HDMI Ausgangs - es könnte natürlich auf die SD Karte was völlig anderes kommen - nur glauben tue ich es nicht. Aber auch das werde ich zu einem späteren Zeitpunkt überprüfen.
Antwort von CameraRick:
Hast die Aufnahme (nicht die Anzeige!) auch auf Video gestellt?
Sonst wird über HDMI nur LOG ausgegeben
Antwort von ruessel:
Hast die Aufnahme (nicht die Anzeige!) auch auf Video gestellt?
Na klaro..... (Filmmodus habe ich auch getestet, wollte aber den Frust nicht weiter Nahrung geben) ;-)
Antwort von CameraRick:
Ist natürlich spannend.
Und wie sieht das Bild aus, wenn man mit der Pocket in "Video" drauf gehalten hat? Die Sony sei ja, sagst Du, nah am Original; ich fands schon sehr übersättigt (gerade im Rot), das macht der Codec nicht so sauber mit denke ich
Übrigens, mal eine Frage am Rand... ich lese Deinen Blog ja seit Jahren; hast Du ne empfehlung für "günstige" Waveform/Vektorscope Apparate, die dem Dilletanten reichen? Ich würde da auch gern mal mit spielen.
Wenn man ein altes mit "normalem" SDI kaufte, würde ein HD-SDI Feed funktionieren?
Antwort von ruessel:
hast Du ne empfehlung für "günstige" Waveform/Vektorscope Apparate, die dem Dilletanten reichen?
Ich denke die Marke ist egal. Und solange du die Kamera per FBAS ausmessen kannst (hat ja fast jede HD Kamera) reicht auch was für 100 Euro.... teurer wird es dann wegen Testchart und das richtige Licht.
Ach ja, achte auf einen 200% Gain am Vectorscop, alle Testcharts die nicht von selbst leuchten, zeigen nur 50% der Farbstärke an. Ich habe leider nur eine 300% Taste und muss dann versuchen auf 200% hinzu fummeln (habe mir eine Markierung am Gerät gemacht).
Antwort von CameraRick:
Hab die 2,5K Cinema Camera, FBAS geht da leider nicht, nur HD-SDI, daher die Frage :(
Aber gut zu wissen mit den 200%! Fast wichtiger ist mir ein akkurates Waveform. Muss mal schauen, obs so Kombigeräte gibt
Antwort von ruessel:
HD-SDI
Das ist richtig teuer! Da bekommt man 2 Kameras für ;-)
Antwort von ruessel:
Was ich an der ganzen Farbgeschichte der Kamera nicht verstehe, warum werden die Farben in der Kamera bei Prores (Filmmodus) fast 300% vom realistischen Wert zurückgenommen?
An den weichen Kontrastkurven kann es doch wohl nicht liegen, oder zumindest sehe ich da keinen direkten Zusammenhang. Liegt es an unserer Belichtung, das wir möglichst viele Highlights erhalten wollen?
Ich habe gestern noch einmal alle ASA Stufen ausprobiert, wenn die automatische Belichtung eingeschaltet wird (ASA ausgleich), ändert sich auch wirklich nix an den Farben - bei der höchsten ASA Zahl 1600 zuckte nur das ROT etwas.
Antwort von CameraRick:
Ist doch irgendwo normal bei klassischem LOG Bild, dass die Farben nicht sehr gesättigt sind?
Ich hab nun mal fix was getestet. Ein paar Dinge in der Küche beisammen gesucht, Kamera hingestellt (Fokus Pi mal Daumen, Belichtung "irgendwie"). Zum Weißabgleich komme ich gleich.
zum Bild
Vielleicht kennt man das ein- oder andere Produkt, bzw wie die aus zu sehen haben. Wenn man es im Video-Modus anschaut, ist das Gelb und Grün nicht so satt. Aber im Endeffekt ist der Video-Modus ja auch nur eine REC709 LUT, die auf den Film-Modus angewendet wird. Persönlich finde ich, dass die keinen so guten Job macht (nutzt man etwa in Resolve die REC709 LUT der BMPC 4K, finde ich das Ergebnis angenehmer).
Aber es geht ja nicht drum was ich schön finde, sondern was "korrekte" Farben wären.
Daher steht da auch der ColorChecker drin, mal eben durch DaVinci gezogen kriegen wir das hier raus:
zum Bild
Und hier sehen die Farben so aus, wie sie sollten. Vielleicht etwas zu gesättigt, aber die hab ich auch noch nicht angefasst (kann man zurück schrauben, innerhalb des Prozess).
Gelb wirkt nun satt!
Jetzt zum Weißabgleich: ich habe diese Szene in jedem WB Preset gefilmt, die die BMCC bietet. Lichtquelle ist nur ein Fenster, das Haus gegenüber ist aber leicht gelblich/beige, da es viel hier rein reflektiert ist es kein "reines" Tageslicht
Jede Aufnahme einmal durchs Colorchecking gezogen, selbe Settings (Source Gamma BMD Film, Target Gamma REC709, Target Colourspace REC709), Target Colour Temp 5400K). Und alle Aufnahmen sehen nach dem Check identisch aus. Tolle Funktion!
Stellt man übriens das Target Gamma auf BMD Film, ists nicht ganz so satt und kontrastreich, vielleicht das bessere Ziel!
Antwort von ruessel:
Und hier sehen die Farben so aus, wie sie sollten.
Das finde ich auch. Das wäre super, wenn ich das auch so hin bekommen könnte....
Anmerkung: das ist nicht die Pocket.
Der Weißabgleich richtet sich also nur auf den (Bild)Ausgang und nicht auf das was auf die SSD kommt (ProRes)? Seltsam....
Wir müssen aber Unterscheiden ob Pocket oder nicht, bin mir nicht sicher ob das alles der Gleiche Kram ist, nur weil alle Kameras die selbe Firmware benutzen.
Antwort von CameraRick:
Die Pocket und die 2,5K teilen sich auch die selbe LUT, daher dachte ich, sie liegen nahe genug bei ein ander.
Ich könnte versuchen eine zu leihen, aber das würde etwas dauern
Ich weiß nicht, ob es Dir helfen würde wenn ich Dir den rohen Clip schicke, dass Du es selbst versuchen kannst? Zumindest für mein Dafürhalten wirkt in meinem LOG das gelb eben so flau, wie bei Dir.
In DaVinci sehe ich nun, dass es auch eine BMCC-REC709 v2 LUT gibt, die sich auch leicht anders verhält.
Habe mal Dein Bild reingeworfen:
v1
v2
Die v1 macht das Rot doch sehr Orange; wirkt nicht so, wie es sein sollte. Aber die v2, die sieht doch schon eher so aus, wie es sollte? Freilich viel zu satt, aber die Richtung ists. Hoffentlich nur eine Frage der Zeit, bis die v2 auch in die Kamera wandert. Lege ich übrigens die LUT auf mein Material wirkt immer noch leicht falsch, aber besser als die v1
Nun ists natürlich schwer, das im Vectorscope zu betrachten? Der Video-Modus innerhalb der Kamera ist offenbar kein Maßstab und drehen würde ich damit schon gar nicht. Die LUT könntest auch in anderer Software aufspielen, nicht nur DaVinci (sei es mit LUT Buddy oder nativ), wenn Dir das hilft?
Antwort von ruessel:
Nun ists natürlich schwer, das im Vectorscope zu betrachten?
Könnte versuchen die Bilder via Mediencenter über HDMI auf das Scope zu senden..... aber lohnt sich das?
Ja, Gelb ist nun da.... aber ob es dabei den Codec nicht verhaut?
Ich wollte ja möglichst alles in Premiere erledigen, ein Wunschtraum? Im Moment habe ich gar keine Lust überhaupt etwas zu machen, draußen 32 Grad im Schatten, im Haus 25,8 grad, echt ätzend.
Antwort von CameraRick:
Ich hänge auch mehr Stuhl, im Hinterhof ists zum Glück ein etwas eigenes, seichteres Klima :)
Glaube nicht so sehr, dass es den Codec verhaut. Der hat viele Reserven, mir ist nun nicht aufgefallen dass das Material nun sonderlich geschädigt würde. Alexa v3 LogC und Cineon sind beide deutlich flacher, und beide wie es scheint auch nur in 10bit gespeichert (die Alexa macht zwar Prores4444, aber alle überprüften Daten waren dann doch nur 10bit).
Falls Du es testen magst, hab Dir mal die vier BMD LUTs gepackt (zwei BMCC/Pocket, zwei BMPC 4K): https://dl.dropboxusercontent.com/u/748 ... MD_LUT.zip
Die gehen ja auch durch LUT Buddy in Premiere, sogar nativ über Lumetri oder wie das heißt wenn man CC nutzt. Eine schnelle Farbkorrektur vor die, und gut. Oder eben mit Color-Match in DaVinci arbeiten (eher mein präferierter Weg zu "korrekten Farben")
Antwort von ruessel:
Falls Du es testen magst, hab Dir mal die vier BMD LUTs gepackt
Danke, habe es mir runtergeladen. Habe keine Ahnung davon, ich benutze Premiere CS6. Muss mal sehen wie ich das dort hinbekomme.....
Meine Vorstellung war, das ich mir eine passende "Einstellungsebene" erstelle und so schon 90% der Farbarbeit erledigt habe, bis jetzt sieht es farblich bei mir gruselig aus.
Aber selbst ich merke langsam LUT ist wohl wirklich näher an meinen Farbvorstellungen, aber wie ich schon gesagt habe, da bin ich völliger Anfänger. (Aber hoffentlich noch Lernfähig)
Antwort von domain:
Na ja, etwas besser bekomme ich das Gelb schon hin.... ;-)
Natürlich kann durch spezielle sekundäre Farbkorrekturen auch das Gelb noch stärker zur Geltung gebracht werden. Aber solche Korrekturen haben immer auch Auswirkungen auf nicht betroffene Farben, besonderes deutlich, wie auch bei deinem Versuch, bei den Grautönen zu sehen.
Selbstverständlich sind korrigierende Standard-LUTs als erste Begutachtungsversion sinnvoll. Aber ich bleibe bei meiner Meinung, dass man eigentlich drei LUTs je nach Bedarf benötigen würde, eine für schwache, eine für normale (und das sind die Standardluts offenbar) und eine für starke Eingangskontraste.
Damit würde man sich schon mal viel an nachträglichen Farb- und Kontrastkorrekturen und Gradings ersparen.
In meinem NLE lassen sich alle primären und sekundären Korrekturen in einem einzigen privaten f(X) abspeichern und auch in verschiedenen Projekten mit einem kleinen Mauswischer auf den betreffenden Clip ziehen.
Mit offiziellen LUTs habe ich keine Erfahrung, vorteilhaft wäre natürlich schon, wenn die Standard-LUT schon beim Import automatisch auf den betreffenden Clip angewendet würde.
zum Bild http://img5.fotos-hochladen.net/uploads/farbtafel2jgqn85z7x3.jpg
Antwort von CameraRick:
Nun, ist aber auch nicht immer sinnvoll, wenn sie Standardmäßig angewendet wird, weil ja auch viel clippen kann. Eine LUT ist ja im Endeffekt zum Durchschauen gedacht; DaVinci hat ja die Möglichkeit, eine globale Vorschau-LUT zu definieren, durch die man alles guckt (die kommt dann am Ende drüber, nicht am Anfang, was auch in der Kette der Ereignisse sehr sinnvoll ist).
Ich habs mit dem Test-Shot nun nicht lange probiert, aber wenn man zB mit einem Hue vs Sat regler arbeitet, sollte man das Gelb schon besser hinaus kriegen. Ob man mit drei verschiedenen "Standard LUTs" dann wirklich zum Ziel kommen kann, wer weiß.
LOG Material will bzw muss eben gegradet werden, wer "schnell chic und gut" will sollte eben die geeignete LUT drauf klatschen, dann ist man auch wieder in der Welt der DSLRs und co, wo alles schnell und einfach ist :)
Ansonsten ist halt ein Colorchecker auch eine Möglichkeit, verhältnismäßig schnell und sehr einfach erhält man natürliche Farben, und muss man nur einmal pro Lichtumgebung machen, wenns nicht 100% genau sein muss
Antwort von domain:
Genau, LUT mal schnell draufklatschen und dann weitersehen ;-)
Im Allgemeinen geht es gar nicht um korrekte Farben in Abstimmung mit einem Vectorscope oder einem Colorchecker. Im Speziellen alledings schon in der Modebranche, seien es Haut-, Haar- oder Textilfarben, die nicht entsprechend wiedergegeben werden. Da sind Reklamationen von Kunden geradezu vorprogrammiert und erfordern viel sekundäre Farbkorrekturen.
Kann ich mir bei Ruessel mit seinen Industriefilmen allerdings nicht so recht vorstellen.
Selbst die Hautfarbe ist keine Konstante, sieht in der blauen Stunde sicher anders aus als im Licht eines Sonnenunterganges. Nur die Relationen müssen stimmen.
Antwort von WoWu:
@ CameraRick
Das kommt immer darauf an, was man mit der LUT nur "schaut" oder ob man damit arbeitet.
Wir benutzen z.B. für die Ausbelichtung eine LUT, die uns alle Effekte, einschliesslich der Farben der endgültigen Filmcharge und des Durchleuchteffektes präsentiert, die von KODAK für bestimmte Belichtungswege gemacht ist und unterschiedliche "Standard-LUTs" für e-Kamera Kurven enthält, bzw. als Plug in benutzen kann.
Wir benutzen also die Reverse Kurve (was ja eigentlich keine richtige LUT ist), zur Bearbeitung des Materials, weil darin der Schritt zu einer linearen Verarbeitung liegt und das Kodak Programm, mit dem das Filmergebnis simuliert wird. Den die ganze LOG Geschichte hat ja nicht mit Grading zu tun, sondern mit zusätzlichen Störabständen und Dynamikbereichen.
Insofern muss man schon zwischen "durchschauen" und einer wirklichen Bearbeitung unterscheiden.
Es sei denn, Du sprichst vom Proxy Weg. Da "schaust" Du natürlich nur durch, weil Du die eigentliche Bearbeitung lediglich in Metadaten ablegst. Aber selbst das LUT wird relativ zu den Metdatenveränderungen im Rendering herangezogen.
Irgendwoher muss das Endprodukt ja seine "gesehenen" Bezugadaten bekommen.
Also: nur "durchschauen" und dann weiter, funktioniert nicht, weil man die Daten des "Durchschauendes" hinterher sonst nicht im Endprodukt wiederfindet, wenn sie nicht ins Rendering eingehen.
Antwort von Axel:
Mit offiziellen LUTs habe ich keine Erfahrung, vorteilhaft wäre natürlich schon, wenn die Standard-LUT schon beim Import automatisch auf den betreffenden Clip angewendet würde
ruessel versorgte schon vor Jahr und Tag die damaligen Canon XH-A1 - Nutzer mit einem Preset ("CP" - Custom Preset), das sich zu Recht großer Beliebtheit erfreute, namens "-3dB".
Die Einstellmöglichkeiten der Kamera im offiziell zugänglichen Menu erlaubten dies. Die solcherart veränderten Kurven und Werte wurden in das HDV-komprimierte File "eingebacken".
Guten Weißabgleich und gute Belichtung vorausgesetzt, hatte jeder A1-Videot damit gute, neutrale Farben. Das war auch vonnöten, denn offen gestanden gehört HDV (wie eigentlich auch XDCAM-EX) zu den Codecs, die in der Farbkorrektur besonders früh den Offenbarungseid leisten, da ist das Mpeg4 der handelsüblichen DSLRs deutlich belastbarer.
Mit einer Kamera wie der Pocket fischen wir überwiegend, was Weißabgleich und genaue Belichtung betrifft, im Trüben. Es gibt nicht, wie bei der A1, ein fixes Objektiv, es gibt Leute, die IR-Filter einsetzen oder auch nicht, verschieden geartete fixe oder variable ND-Filter.
Und: Nirgends geht es um "neutrale Farben". Zu den am wenigsten verwendeten Tastenkombinationen in Resolve gehört gewiss ⌥a ("Auto-Korrektur"), und eine "Weiß"-Abgleichs-Pipette wie in Adobe Camera Raw gibt es auch nicht.
Herkömmliche Tutorials zur Farbkorrektur erklären irgendwann, in der Regel ziemlich früh, dass die Aufgabe der primären Farbkorrektur sei, das Bild zu optimieren, was gleichbedeutend damit sei, es zu neutralisieren. So werden Methoden erläutert, wie man Farbstiche entfernt.
Eine dieser Methoden, von denen ich oft las und die ich oft tatsächlich benutzte (eigentlich immer) ist die Überprüfung der Farbtemperatur anhand der Hautfarben, namentlich, ob sie im Vektorskop die so genannte skin tone line treffen.
In seinem Ripple Training zu Resolve 9 sagt der Autor der Resolve-Handbücher, Alexis van Hurkman, ja, hier haben wir Abendsonne, die Gesichter sind orange, sie verfehlen die Hautlinie, wie Sie hier deutlich sehen können. Ich neutralisiere diesen Farbstich ganz bewusst nicht, und wenn es Sie interessiert, was ich zur Hautlinie denke, lesen Sie das auf meinem Blog Thinking Aloud nach.
Das tat ich und las, dass Hurkman selbst in einem Anfall von didaktischer Vereinfachung einst geholfen hatte, den Ausdruck Hautlinie zu prägen und dass sich diese kleine Hilfe mittlerweile zu einem gewaltigen Dogma entwickelt habe (Forumsuche: "Memory Colors").
To clarify, I would never and have never suggested that this line is a strict guideline for human hue. In my “color correction handbook” I wrote and illustrated more pages then my editor may have wished about the subtle variations of human skin tone, color interactions between a subject and the illuminant of a scene, and how the in-phase indicator under discussion is merely a general signpost. Like speed limits, nobody follows them exactly, but they let you know you’re around what you ought to be doing.
Auch Resolves neue Color Match Funktion dient, wenn ich das richtig verstanden habe, weniger als "Super-Weißabgleich", sondern zum Anpassen der Farben verschiedener Kameras.
Fazit: Dort, wo LUTs die Funktion haben sollen, eine "neutrale Ausgangsposition" zu liefern, könnte man sie auch als kontraproduktiv (oder deutlicher: kreativitätshemmend) bezeichnen. Eine 8-bit 4:2:0 Kamera braucht ein gutes, ausgewogenes Neutralbild, da kurz darunter die Wireframes durchscheinen. 10-bit 4:2:2 oder gar 12-bit Raw haben womöglich mehr Potenzial ohne den Neutralisierungsfilter LUT:
Antwort von WoWu:
@ Axel
Du musst aber zwischen einem "Look" und einer Übertragungsfunktion unterscheiden.
Das sind zwei paar Schuhe.
Aus einem "LOG' einen "Look" zu machen, ist vermutlich derzeit der häufigste Fehler bei den Anwendern solcher Kameras.
Viele kennen vermutlich noch nicht mal den Unterschied.
Antwort von domain:
Wir benutzen also die Reverse Kurve (was ja eigentlich keine richtige LUT ist), zur Bearbeitung des Materials, weil darin der Schritt zu einer linearen Verarbeitung liegt.
Schon klar WoWu und das ist ja auch plausibel und nachvollziehbar, eben ein vorgeschriebener Standardprozess.
Es gibt aber auch analysierende nachdenkliche Amateure. Und da erscheint ein derart einschränkendes Korsett als hinderlich.
LUT nicht notwendig, eher schon LUTs intergrierende Grading-Software, wie in letzter Zeit ja sogar hier ausführlich dargestellt.
Antwort von WoWu:
Den Amateur möchte ich sehen, der "von Hand" komplexe Funktionen im Farbspektrum (reverse) mischt.
Sieht man ja hier im Thread, wie wenig das klappt.
Das liegt aber eben z.Tl. daran, dass keiner weiss, was die Kamera eigentlich "linear" überhaupt kann.
Das kann man nämlich nur mit einer Reverse-Übertragungsfunktion herausbekommen, die der Hersteller als "amtlich" abliefert denn der kennt die beutete Übertragungsfunktion seiner Kamera, die Du gar nicht kennen kannst, weil Du weder den Sensor, noch die Vorverarbeitung im Prozessweg kennst.
Dann sieht man auch, die Einflüsse unterschiedlicher Objektive usw.
Aber einen Amateur interessiert das vermutlich auch nicht, da gebe ich Dir Recht.
Meistens haben die "analysierenden, nachdeklichen Amateure" noch gar nicht den Unterschied zwischen LOG und LOOK begriffen und verstecken sich nur hinter ihren "Analysen" und finden dann meistens das Ergebnis auch noch gut, weil sie es einfach nicht anders hinbekommen haben.
Schuld ist dann, im Zweifelsfall, wieder mal die Kamera, mit der sie nicht klargekommen sind.
Aber einem "analysierenden, nachdeklichen Amateure" passiert das natürlich nicht.
Aber es ist ja noch Zeit ... kurbel doch noch ein paar Tage, vielleicht kommt ja noch ein lineares Ergebnis dabei heraus.
Aber gleich kommt bestimmt wieder das Argument, "Kreativität hätte nicht mit Reproduktion sondern mit Geschmack zu tun..."
Alles klar.
Antwort von Axel:
Du musst aber zwischen einem "Look" und einer Übertragungsfunktion unterscheiden.
Das sind zwei paar Schuhe.
Aus einem "LOG' einen "Look" zu machen, ist vermutlich derzeit der häufigste Fehler bei den Anwendern solcher Kameras.
Viele kennen vermutlich noch nicht mal den Unterschied.
Da wirst du Recht haben. Jedoch ist für die meisten Amateure, mich eingeschlossen, die (LUT-)Übertragung in einen Farbraum wie rec_709 eigentlich nur eine Krücke (van Hurkman zählt an anderer Stelle auch "crotch-tools" auf, unnütze Arbeitsschritte, die etwas wegnehmen, über das sich der Anfänger-Kolorist unsicher ist, um es später mit 30 Zusatzaktionen wieder reinzugeben). Genau wie neutrale Farben und eine neutrale Gradation.
Ich beginne selbst gerne mit dem rec_709_LUT, ich spreche hier nicht aus Überheblichkeit dagegen. Ich bin allerdings in Resolve auch noch - fast oder wieder - Anfänger und hoffe, dass sich das bald ändert.
Den Amateur möchte ich sehen, der "von Hand" komplexe Funktionen im Farbspektrum (reverse) mischt.
Sieht man ja hier im Thread, wie wenig das klappt.
Schon vor vielen Jahren habe ich prophezeit, das dies das Ergebnis von Raw sein wird: Überwiegend völlig vergeigte Farben, dank der unbezweifelbaren Freiheit in der Kunst freilich "genial" und von anderen rohen Gesellen bejubelt.
Es ist doch irgendwie die Gerechtigkeit Gottes, dass es einen Trend zu schönerem Grading nicht geben kann. Dass nicht jeder Neffe vom Personalchef, der sich mal Resolve geladen hat, herkommen kann und sagen, gib mal her das Zeug, ich mach dir ein super Bild damit.
Das galt natürlich in Wirklichkeit für sämtliche Disziplinen, bloß fällt es bei den Farben am deutlichsten "ins Auge".
Antwort von WoWu:
@ Axel
Du führst die Natur an ... nur hat Gott uns auch eine bestimmte Art gegeben, zu sehen.
Er hat nicht gesagt, verschmiert doch mal alle Farben, damit Ihr daraus ein völlig neues Sehempfinden schaffen könnt.
Wer hindert uns daran, aus dem normalen Sehempfinden, Farben oder Abstufungen neu zu entwickeln, also aus einem linearen Bild, das künstlerische Bild zu gestalten.
Das klappt sowieso nicht, weil wir unbewusst, immer wieder das, was wir in künstlichen Bildern sehen, mit unseren Erfahrungen vergleichen, wie das Auge es gesehen hätte.
Grading heisst nicht, aus dem mysteriösen heraus ein Bild zu schaffen.
Man kann ebenso aus der bekannten Sichtweise arbeiten und das Ganze hat dann noch den Vorteil, dass alle die, die am Set mitgewirkt haben, Ihre Arbeit wiederfinden.
Jeder Beleuchter, der eine bestimmte Farbkombination eingebracht hat, findet sie zunächst in der Post einmal wieder.
Jeder, der also beigetragen hat, findet seine Arbeit. Ob das dann schliesslich im Endprodukt so sein wird, steht auf einem andern Blatt.
Ich habe nichts gegen Grading, aber wenig Verständnis dafür, dass man LOG mit LOOK verwechselt und das auch noch für künstlerisch wertvoll verkaufen will - oder als "nachdenkliche Analyse" ... es ist einfach nur amateurhaft, nicht zunächst mal zu schaun, wie die Kamera eigentlich reproduziert und davon ausgehend dann seine Entscheidungen zu treffen.
Antwort von CameraRick:
@ CameraRick
Das kommt immer darauf an, was man mit der LUT nur "schaut" oder ob man damit arbeitet.
Wir benutzen z.B. für die Ausbelichtung eine LUT, die uns alle Effekte, einschliesslich der Farben der endgültigen Filmcharge und des Durchleuchteffektes präsentiert, die von KODAK für bestimmte Belichtungswege gemacht ist und unterschiedliche "Standard-LUTs" für e-Kamera Kurven enthält, bzw. als Plug in benutzen kann.
Also: nur "durchschauen" und dann weiter, funktioniert nicht, weil man die Daten des "Durchschauendes" hinterher sonst nicht im Endprodukt wiederfindet, wenn sie nicht ins Rendering eingehen.
Kommt halt immer drauf an; nutzt mal eine Film-Emulsions LUT (oder wie man das genau nennt), ist ja der Sinn, dass das Material so ausschauen wird, wenn man es druckt. Da wäre "einbacken" schon eher blöd.
Worauf ich nun eigentlich hinaus wollte ist, dass eine solche LUT nicht vor der Bearbeitung, sondern danach greifen sollte. Je nach LUT natürlich, manche muss man auch nachher noch etwas bändigen (aber das sind eher diese neumodischen Look-LUTs a la Visioncolor etc).
In DaVinci kann man im gleichen Fenster wie die Vorschau-LUT, auch eine Output-LUT setzen. Sprich, alles wird durch diese LUT gejagt. Wir nutzen das nur für Proxys, aber so eine Batch-LUT kann in diesem Fall ja helfen, wenn man sie ohnehin global anwenden will. Ich selber würde das individuell pro Clip machen
Aber solche erleichternden Funktionen gibts, darauf wollt ich hinaus :)
Antwort von WoWu:
Hi Rick,
nein, das hab ich damit auch nicht sagen wollen. Die Film LUT ist natürlich eine reine LUT.
Ich finde auch daher diese Vereinheitlichung der Begriffe ziemlich irreführend und wenig hilfreich.
Eine LUT sollte eine reine Simulation sein und eine Reverse Kurve ein aktiver Bestandteil der Signalverarbeitung.
Leider wird das zunehmend alles in einen Topf geworfen.
Und obendrein noch diverse LOOKS, die auch wahlweise als LOG oder LUTs sprachlichen Eingang finden.
Das sind drei verschiedene Dinge.
Und das Film LUT sitzt lediglich im Monitorweg, wohingegen die Reverse-Kurve zwar auch (bei und) nur im Monitor angewandt werden (also als LUT) , weil wir aus dem 12 Bit RAW Material belichten, aber sowohl die Gradient-Metadaten als auch die des Reverse (LUT)-Tabe werden bei der Ausbelichtung eingerechnet.
Antwort von CameraRick:
Und: Nirgends geht es um "neutrale Farben". Zu den am wenigsten verwendeten Tastenkombinationen in Resolve gehört gewiss ⌥a ("Auto-Korrektur"), und eine "Weiß"-Abgleichs-Pipette wie in Adobe Camera Raw gibt es auch nicht.
Aber warum nicht? Nicht jeder will nen tollen Cine-Look oder die kallenden Super-Farben, manchmal willst einfach dass es so aussieht, wie Du es gesehen hast. Dass ein Gelb ein solches ist, wie Deine Augen es gesehen haben. Manchmal will mans nüchtern, manchmal will mans echt.
Ein Beispiel: wir haben hier im Grading eine vielzahl von Produkten liegen. Das rangiert von Schokoriegeln zu Tennisschlägern; damit der Farbton ja auch der ist, der es sein soll. Damit das Produkt in der Werbung so aussieht, wie es soll (nachher wollen se dann noch 130% Sättigung aber das natürlich eine andere Sache). Einen neutralen Startpunkt zu haben ist noch einmal eine andere Sache. In meinen eignenen Tests hab ich irgendwie gemerkt: Mensch, irgendwie ists doch ganz gut mal so anzufangen, und nicht anders.
Die Autokorrektur kannte ich übrigens gar nicht. Funktioniert bestimmt auch eher so mittel
Auch Resolves neue Color Match Funktion dient, wenn ich das richtig verstanden habe, weniger als "Super-Weißabgleich", sondern zum Anpassen der Farben verschiedener Kameras.
Ich hab das am WE versucht, lustiger Weise klappt das eher minder zufriedenstellend bisher. Dafür kann mans sicher auch nutzen.
Aber wieso nicht fpr den Super-Weißabgleich? Ists so falsch richtige Farben zu haben, statt die einem anderen besser gefallen?
Antwort von ruessel:
Ich wage hier gar nicht rein zu quatschen..... ich muss mich erst noch mit den Begrifflichkeiten auseinander setzen.
Aber, ich habe nun das LUT Buddy bei mir laufen, sieht zwar nicht stabil aus (habe Aussetzer damit in PP6) aber mir scheint, das ist der richtige Weg und vielleicht auch der einzige. Während ein Colorgrading auf einen Farbchart noch recht gut funktioniert, sind die selben Korrekturwerte auf eine andere Pocketszene völlig daneben. Mit der BMD 4K LUT sieht es recht gleichmäßig (beschissen) aus ;-)
Ich vermute mit einer auf der Pocket eingestellten LUT sollte man recht gut fahren, nur diese muss ich mir erst noch mit LUT Buddy basteln. Dann kann ich sagen ob das für mich der heilige Gral ist..... mit der 4K LUT kommt schon ein wenig mehr Gelb durch - nur der Rest stimmt überhaupt nicht.
Antwort von domain:
.. nur diese muss ich mir erst noch mit LUT-Buddy basteln. Dann kann ich sagen ob das für mich der heilige Gral ist..... mit der 4K LUT kommt schon ein wenig mehr Gelb durch - nur der Rest stimmt überhaupt nicht.
Was soll denn eine LUT mit LUT-Buddy gebastelt sein? Jede LUT ist doch eine primitive Umsetzung von irgendwelchen Werten in andere Werte.
Meingott welche Achtung habt ihr doch vor dem Ausdruck: LUT
Antwort von Axel:
@WoWu
Ich weiß, was du sagen willst. Allerdings gäbe es keinen Hype um Grading, wenn dessen höchste Kunst darin bestünde, mit höchster wissenschaftlicher Genauigkeit die Vorarbeit des Produktionsdesigners und des Licht-Kameramanns zu reproduzieren. Viele der modernen Kino-Looks sind in-camera gar nicht herstellbar - BTW: Wie ich kürzlich las, darf Blade Runner von 1982 als Vorläufer des insbesondere durch Matrix berühmt gewordenen Orange-Teal-Looks gelten:
zum Bild
(In Google gefunden, man sieht ja die Quelle, wenn man auf "Zitieren" klickt, finde den Zwang zur Quellenangabe ziemlich lästig)
Hierbei handelt es sich um bewusst eingesetztes Mischlicht (Farbtemperatur-Mix). Sah zu seiner Zeit ultra-schick aus.
@domain
Kein Amateurforum? Ich bin der lebende Gegenbeweis, gewissermaßen der noch zappelnde Quastenflossler in einem Kühlfach voller Iglu-Fischbriketts ;-)
@CameraRick
Produktverpackungen gehören dann zu den allerstrengsten Memory Colors. Die Frage ist, ob nicht eine von ruessels feinkalibrierten Sonys ootb besser gerüstet wäre, die Safttüte aufzunehmen. Wenn das mit Match Color geht, umso besser.
Aber wozu ein unglaublich komplexes Programm, wenn es letzten Endes darum ginge, jede Verzerrung rückgängig zu machen? Wir lebten in einer Welt feinster Messgeräte, die über Bluetooth mit der Kamera kommunizierten und in deren Metadaten LUTs einschrieben. Das beste CC-Programm - in der Tat das einzig sinnvolle, wäre eins bloß mit "Auto-Korrektur".
Ich vermute mit einer auf der Pocket eingestellten LUT sollte man recht gut fahren, nur diese muss ich mir erst noch mit LUT Buddy basteln
Du wirst feststellen, dass du höchstens einen wiederverwertbaren LUT für die Pocket finden kannst, der auf 3200°K geeicht ist, und dann irgendwelches Filtergedöns oder unterschiedliche Objektive nicht berücksichtigt. Die Kamera lässt sich bekanntlich nur sehr ungenau einstellen. In Resolve selbst sieht der Blackmagic_to_rec_709 schon ziemlich "natürlich" aus. Die Frage, die ich mir in meinem Posting weiter oben gestellt habe ist die, was ich mir persönlich von einem LUT, sei es für die Übertragung in einen weniger flachen Farbraum oder für einen Grundlook, eigentlich versprechen soll.
Übrigens, ruessel, glaubst du, der Sensor der NX3 kann Farben neutraler aufzeichnen oder ist nicht vielmehr in der Signalkette ein LUT?
Antwort von Reiner M:
Ich wollte ja möglichst alles in Premiere erledigen,
Hast Du schon mal in Premiere den "Cineon-Converter" (Effekte->Dienstprogramm) probiert?
Mit dem Konvertierungstyp "Log zu Linear" linearisiert er erst mal den Farbbereich. Wohl die Hauptaufgabe bei diesem File.
Inbesondere die Parameter "Schwarzwert/Weißwert für 10bit" sowie Gamma anpassen.
Zusätzlich womöglich empfehlenswert:
- Davor kannst Du eine Luma-Korrektur (mit Kurve oder ProcAmp/StabVerst) schalten, um etwas mehr Kontrast reinzubekommen.
- Dahinter kann die Dreiwege-Farbkorrekur helfen, die Farbpunkte für Licht/Mitte/Schatten zu justieren.
Das Ergebnis kannst Du mit allen beteiligten Effekten und Einstellungen als Vorgabe sichern und auf beliebige Clips anwenden, dort auch nachträglich noch feinjustieren.
Beste Grüße,
Reiner
Antwort von domain:
Davor kannst Du eine Luma-Korrektur (mit Kurve oder ProcAmp/StabVerst) schalten, um etwas mehr Kontrast reinzubekommen.
- Dahinter kann die Dreiwege-Farbkorrekur helfen, die Farbpunkte für Licht/Mitte/Schatten zu justieren.
Das Ergebnis kannst Du mit allen beteiligten Effekten und Einstellungen als Vorgabe sichern und auf beliebige Clips anwenden, dort auch nachträglich noch feinjustieren.
Genau mein Reden. Eine simple LUt ist genauso unnötig wie ein Kropf.
LUT wird überhaupt als Unwort des Jahres vorgeschlagen .....
Antwort von ruessel:
Hast Du schon mal in Premiere den "Cineon-Converter" (Effekte->Dienstprogramm) probiert?
Nein. Wenn es regnet werde ich mal testen......
Übrigens, ruessel, glaubst du, der Sensor der NX3 kann Farben neutraler aufzeichnen oder ist nicht vielmehr in der Signalkette ein LUT?
Keine Ahnung. Hier greift gegenüber der Pocket sehr massiv der Bildprozessor ein, die Kamera bekommste nicht zum rauschen..... Aber Farbflächen werden teilweise etwas "künstlich clean" dargestellt. Mir ist das bei Bäumen vor Blauen Himmel aufgefallen, der Himmel schön blau, sobald Äste in das Bild kamen hatten sie eine mehrere Pixel breite "Entfärbende" Wirkung drumherum.
Was soll denn eine LUT mit LUT-Buddy gebastelt sein?
Ich dachte da an das geeichte farbchart mit den 6 Grundfarben, diese Aufnahme so farblich verziehen, das das Vectorscop deutlich "Ja" sagt. Das wär es. Die 4 fertigen LUT von BMD passen nicht wirklich, alles zu Grün und Rot sieht orange aus, nur Gelb stimmt optisch in etwa.
Wie schon geschrieben, ich habe das schon mit der Premiere Einstellungsebene gemacht, Farben-Gamma-Kontrast-schärfe richtig nach Farbchart justiert, leider passt es dann NUR auf die eine Szene, während dieser grünlich-orange Look der BMD LUT fast immer gleich auf diversen Pocket Material ausschaut. Das ist aber nur ein erster Eindruck von mir - wirklich ausführlich getestet habe ich noch nicht. Vielleicht täusche ich mich aber auch - wie schon geschrieben, von LUT und Co habe ich gar keine Ahnung, muss mich da erst reinfummeln und was dazu lesen, dann kommt es vielleicht richtig ins Hirn und ich bekomme eine richtige Vorstellung von den Sachen.
Antwort von WoWu:
@domain
Jede Produktion wird die Kamera so benutzen, dass ein mögliches Ziel (auch geschmacklich) nicht verhauen wird und Änderungen in den Bildstimmungen werden in allen professionellen Produktionen mit LUTs gemacht, weil die Gefahr viel zu gross ist, dass Werte gegen Null gehen und damit nicht mehr in der Post reproduzierbar sind.
Und Du unterscheidest auch mal wieder nicht zwischen LOOK und LOG.
Log ist ein technisches Übertragungsformat, das mit dem LOOK nur dann etwas zu tun hat, wenn man es nicht reversiert. Das ist wie Dolby. Manche mögen da auch den etwas zischelnden Klang und halten Oberwellen für den natürlichen Bestandteil von Höhen im Klangbild, die man überproportional betonen muss.
Das Dolby ein technisches Verfahren zur Störabstandverbesserung ist, haben viele noch nicht begriffen. So auch LOG.
Umm bei deinem Beispiel zu bleiben, in dem Du von LOOKs sprichst, die werden heutzutage mit einem Generator gemacht, in die Kamera eingeladen, wo sie wahlweise als LUT im Monitorweg funktionieren oder als Renderfile im Signalweg.
Klassische Anwendung hierfür ist "day-to-night". Da wird ein Look als LUT umformatiert und in die Kamera geladen.
Du glaubst doch selbst nicht, dass an irgend einem Set das Vorort gemacht wird.
Da wird das Daybild aufgezeichnet und das LOOK File in der Post als Ausgangsmaterial angewandt, das man am Set als LUT benutzt hat.
Übrigens beinhalten alle LUT Files sämtlich Default Werte. also alle Reversive Werte. Vielleicht solltest Du Dich auch mal um kommerzielle Kamerayechnik bemühen, wenn Du solche allgemeinen Themen besprechen möchtest und nicht nur Deine Agfa Click betrachten. Es geht hier um Verfahren und eigentlich nicht darum, wie es der "ambitionierte Amateur" es wohl machen könnte.
Ich kann ja verstehen, dass man, wenn man wenig Ahnung von Verfahren und Metadaten hat, es am liebsten so hält, wie das vor 50 Jahren war, aber Zeiten haben sich verändert.
Antwort von Reiner M:
Hast Du schon mal in Premiere den "Cineon-Converter" (Effekte->Dienstprogramm) probiert?
Nein. Wenn es regnet werde ich mal testen......
Regnets?
Das sind 2 Minuten maximal ... ;)
Wie schon geschrieben, ich habe das schon mit der Premiere Einstellungsebene gemacht,
Da fehlt m. E. eben die Linearisierung (Effekt Cineon-Converter).
Dieser Effekt arbeitet unabhängig von konkreten Farbwerten und deshalb werden seine Ergebnisse dann auf jeden Clip passen, wenn er einmal richtig justiert wurde.
Die anderen Effekte orientieren sich überwiegend an konkreten Belichtungssituationen eines bestimmten Clips und sind desahlb nicht übertragbar.
Beste Grüße,
Reiner
Antwort von WoWu:
Dieser Effekt arbeitet unabhängig von konkreten Farbwerten und deshalb werden seine Ergebnisse dann auf jeden Clip passen, wenn er einmal richtig justiert wurde.
Der orientiert sich an den ADOBE Farbmodellen und erzeugt reine Schätzungen.
Hübsche bunte Bilder, die aber nicht unbedingt etwas mit Farbechtheit zu tun haben müssen.
@domain
Ich wusste, dass da nichts konstruktives mehr kommen konnte.
Nur noch Polemik.
Antwort von Reiner M:
Der orientiert sich an den ADOBE Farbmodellen und erzeugt reine Schätzungen.
Hübsche bunte Bilder, die aber nicht unbedingt etwas mit Farbechtheit zu tun haben müssen.
Nö. Der Effekt arbeitet nach festen Algorithmen. Eingabe -> Verarbeitung -> Ausgabe. Absolut stur. Der schätzt gar nichts. Die Verabeitung kannst Du beeinflussen und dabei selbstverständlich "abschätzen", ob Dir das Ergebnis passt oder nicht. Zum Glück! ;)
rüssel wollte eine Lösung in Premiere Pro CS6 mit Bordmitteln. Das ist sie.
Selbstverständlich kann man mit LUTs arbeiten - nur: Es gibt wohl keine, die auf rüssels Cam passen. Für das Modell als solches gibt es durchaus LUTs. Sind z. B. auch in Speedgrade verfügbar und frei im Netz zu finden. Nur: von "Farbechtheit" kann man da ganz und gar nicht reden, da erzielt jede simple Dreiwege-Korr auf diesem speziellen Outputs bessere Ergebnisse - alles geschätzt, so im Vergleich mit einem gemutmaßten Original. ;) Woran auch immer das liegen mag.
Beste Grüße,
Reiner
Antwort von otaku:
ja wowu da muss ich domian leider recht geben. du bist nicht mehr auf der hoehe der zeit.
frueher hat man versucht es richtig zu machen, und dann einen look zu finden. heute vergurkt man erstmal alles und sagt dann: "scheiss drauf"
da must du echt umdenken ;-)
Antwort von CameraRick:
Produktverpackungen gehören dann zu den allerstrengsten Memory Colors. Die Frage ist, ob nicht eine von ruessels feinkalibrierten Sonys ootb besser gerüstet wäre, die Safttüte aufzunehmen. Wenn das mit Match Color geht, umso besser.
Vielleicht wäre sie das, aber mit einem Color-Matching via Farb-Chart kanns eben jede Kamera. Das LOG, was die Pocket aufzeichnet, hat schon einen Sinn und ich denke nicht dass eine Sony zwangsläufig die bessere Wahl für so eine Aufzeichnung wäre.
Das Material schreit eben nach Bearbeitung, leider können die bei BMD auch nur DaVinci umsonst anbieten, aber Dir eben niemanden hinsetzen, ders auch so richtig hübsch macht. So eine Kamera ist im Zweifel auch nichts für jeden (Zweck). Soll nun nicht gemein klingen, verstehst mich schon :)
Aber wozu ein unglaublich komplexes Programm, wenn es letzten Endes darum ginge, jede Verzerrung rückgängig zu machen?
Was heißt Verzerrung, so wurde das Bild eben entwickelt. Du bekommst halt ohne erweitertes Tonemapping den Dynamikumfang nicht mal eben in die bunte DSLR Welt.
Antwort von WoWu:
@otaku
Tja, das ist wirklich Mist.
Vielleicht sollte ich mehr Blogs lesen, um endlich auf das Niveau zu kommen.
Es gibt also noch viel Arbeit.
Antwort von Bergspetzl:
also um das nochmal anzuheizen:
linear
log
lut
sind drei dinge die aus verschiedenen quellen kommen.
Verinfacht: Ein LINEARES bild ist (aus verschiedenen gründen des prozessings der aufnahme bei "raw") erstmal nix als dunkel und braucht besagt "reverse" kurve um entwickelt zu werden. dann habe ich ein ausgangsbild, mit dem ich weiter arbeiten kann oder mich an seiner technischen genauheit ergözen. Im idealfall habe ich bei passender aufnahme den größten Signal-Störabstand und damit meinem Sensor "ausgequetscht". Wobei es hier auch unterschiede zu geben scheint, denn diese reverskurve ist nicht immer optimal "eingestellt" bzw können diverse einflüsse wie linsen einwirken und ergebnisse verfälschen, shiften. Es gibt von allen herstellern diese kurven im supportbereich ihrer kamera zum download in gängige schnitt/colorprogramme. damit habe ich ein entwickeltes bild zum "färben" vor mir. sprich in der "entwicklunghierachie" ist dies bei einem linearen bild der erste schritt damit ich anfangen kann zu "colorieren" oder zu korregieren, zb die bilder unter/zueinadner. ähnlich einem raw bild in der fotografie.
die frage/verwirrung entsteht hier aus dem handling. diese datei wird uns als .cube, .data odgl zur verfügung gestellt. aus Linear wandele ich somit in REC oder LOG, wie ich will.
LOG Material ist ein "Informationsfreundliches" Material, welches information enthält, die die hersteller definiert haben, um das beste snr verhältnis in komprimierte dateien zu backen. dies geschiet durch eine definition einer herstellerspezifischen "kurve", die angewand wird. allgemein auch Flat genannt. dieses material kann ich jetzt per herstellerspezifischen LUT nach 709 wandeln, oder nativ bearbeiten und anschließend für mein zielmedium wandeln (meist 709 oder dcp).
Augenwischerei betrieben wird bei "log" was in h.264 eingebacken ist, da dieses generell schon in 709 gespeichert ist. hier ist eine transformation zu 709 sinfrei, hier können besagte "luts" genutzt werden, um das grading zu erleichtern.
jetzt darf ein wowu diesen beitrag, (vielleicht ohne die "was ist eigentlich raw" debatte) gerne richtig stellen, damit wir alle nicht dumm sterben. dann stellt sich heraus, dass wenn ich genau arbeite und mich an herstellervorgaben halte, am ende das rasubekomme, was der hersteller definiert hat, und wenn ich ungenau bin kommt es zu tonverschiebungen.
dabei würde ich dann gerne noch zum workflow einwerfen, wenn man sich mit seinem colortool auskennt, und sich bei seinem kamerahersteller informiert, dann sind es die richtigen klicks am richtigen ort, und das material ist "entfaltet". es wird aber gemeinhin oft so getan, als würde man rohe eier jonglieren müssen, dabei mit einem fuss einen kochtopf umrühren und das große 1x1 rückwärts aufsagen. meiner erfahrung nach muss man vor allem genau sein, sich informieren und sich bewusst sein, das jeder eingriff in den workflow (zb werteverschiebung) weit hinten auswirkungen haben kann, aber auch künstlerische kniffe dastellen kann. das ist dann erfahrung und handwerk. amen.
Bei
Antwort von domain:
In seiner typischen Art schreibt WoWu jetzt auch noch so einen sarkastischen Bockmist zusammen, obwohl er besser als jeder andere weiß, dass es lineare Aufzeichnungen weder im Analog- noch im Digitalbereich jemals gegeben hat.
Die Frage ist nur, wie stark diese nicht erfolgten und ob eine ev. Entzerrung für die „gewöhnliche“ Betrachtung über eine sgn. LUT (=Kram für unerfahrene Anfänger) angebracht erscheinen könnte.
Antwort von cantsin:
eine sgn. LUT (=Kram für unerfahrene Anfänger).
Du verwechselst wirklich Look-Filter a la Magic Bullet oder Instagram mit LUTs. Um mal eine Analogie aus der Audiowelt zu gebrauchen: LUTs sind das Äquivalent eines Phono-Entzerrers für Plattenspieler, wie er in jeden Verstärker eingebaut sind. Looks sind das Äquivalent von Loudnessreglern, Effekt-Equalizern, Effektgeräten etc.
Sich die Linearisierung eines Log-Videosignals händisch mit Farbkorrektur-Bordmitteln des NLE bauen zu wollen, ist aber genau so unsinnig, wie die Entzerrung eines Phonosignals durch manuelle Equalizereinstellungen - aus dem Irrglauben, dass Phono-Entzerrer "Kram für unerfahrene Anfänger" sind.
Antwort von domain:
Schon klar, was du meinst, aber ich verwechsle nichts.
Beim Sound gibt es halt keine Referenztöne wie Haut-, Blattgrün- oder Himmelblautöne. Da ist die Bassanhebung im Vorverstärker des Plattenspielers schon wichtig und auch die Höhenreduktion bei der überzeichneten Dolby-Aufzeichnung.
Ist aber m.E. ein anderes Kapitel.
Antwort von WoWu:
@Bergspitz
Im Grunde genommen sagst Du das, was ich oben dargelegt habe, mit andern Worten.
Nur dass ich RAW hier nicht reinbringen würde, weil es da noch ein paar andere Dinge zu berücksichtigen gäbe.
Aber im Grundsatz war es das.
Wer erkannt hat, wie sein Signal auf dem Weg verändert wurde und begriffen hat, dass der Mensch halbwegs linearisiertes Licht als "normal" wahrnimmt, der weiss, welche Tools er auf dem Bearbeitungsweg braucht, um das zumindest erst mal zu gewährleisten.
Und wer glaubt, eine solche Funktion in einem CC einfach mal so nachbauen zu können, soll es mir doch mal vormachen.
Zumindest gibt es bei den wirklich Interessierten hier, die das versuchen doch noch einige Schwierigkeiten -wie zu erwarten war-
Und der, der hier am lautesten Schreit, das er es kann, hat oben im Thread ziemlich versagt, mit seiner Lösung und scheint auch keine bessere Ergebnisse mehr zu haben, sonst hätten wir die schon lange zu sehen bekommen.
@Camera Rick
Ich hatte das oben schonmal gefragt, musste aber nochmal drüber nachdenken:
Macht die Kammern wirklich ein Tonwert Mapping (im Sinne einer Kompression ?) Oder indexiert sie nicht einfach ihre 12 Bit Werte.
Das hat mich wirklich überrascht. Denn das wäre ja auch ein höllischer Rechenaufwand, das auf Pixelebene zu machen.
Antwort von domain:
Ich habe wenigstens schon mal zwei "Lösungen" gezeigt, natürlich noch nicht optimal, allerdings bezweifle ich auch, dass sie überhaupt in Relation zur Sony möglich sind.
Auch noch so eine gute LUT wird das Bild der Sony nicht erreichen können. Also bitte her damit (habe noch nichts gesehen), dann nehme ich alles zurück :-)
Antwort von Jan Reiff:
übrigens ... ik hab mir det Teil gekauft
für den Discount, aber hallo
ich mag die kleine Kamera, scheiss auf alle Nachteile, bei dem Preis
Bild finde ich überraschend gut, ... kann man gut graden.
Nix zu meckern.
Jute Nacht
Antwort von domain:
Bei Bildern ist es nicht notwendig etwas analytisch gelesen oder verstanden zu haben. Ich möchte nur ein Bild sehen (so wie die von mir hochgeladenen) wo das zweite Bild dem ersten möglichst nahe kommt. aus meiner Sicht mit einer LUT unmöglich.
Eine andere Frage ist natürlich, ob das knackige Sony-Bild wirklich beispielgebend ist.
Also WoWu setzt dich mal dahinter und liefere was ab und geh erst dann schlafen.
Antwort von WoWu:
Wenn Du versuchst, aus einem JPEG (oder welches Format auch immer) mit Photoshop oder einem ähnlichen Grafikprogramm eine andere Färbung zu erzeugen und dadurch eine (Reverse) Übertragungskurve zu simulieren, dann tust Du mir herzlich leid, kannst aber nicht von Jedem erwarten, dass er gleichfalls dämlich ist.
Das deutet aber darauf hin, dass Du gar nicht weisst, was eine solche Übertragungsfunktion eigentlich bewirkt.
Antwort von CameraRick:
Ich hatte das oben schonmal gefragt, musste aber nochmal drüber nachdenken:
Macht die Kammern wirklich ein Tonwert Mapping (im Sinne einer Kompression ?) Oder indexiert sie nicht einfach ihre 12 Bit Werte.
Das hat mich wirklich überrascht. Denn das wäre ja auch ein höllischer Rechenaufwand, das auf Pixelebene zu machen.
Ich weiß das auch nicht so genau.
Im Endeffekt ists im klassischen Cineon ja so gedacht, dass man anhand einer logarythmischen Abtastung die Lichter "komprimiert". Da gabs mal nen ganz netten Artikel von Creative Cow, der das ganz gut erklärt hatte. Nach unten hin auch, um den Grain zu "beschützen"
Würde man selbiges aber in ein sattes und tolles DSLR-Bild packen wollen, würde das wohl schon eine Art Tonemapping brauchen, und dann teilen sich ganz sicher ein paar Bereiche Werte, auch wenn sie gar nicht so zusammen gehören.
Allgemein finde ich diese passiv-aggressive Grundhaltung schon super, die man dann anderen ankreidet und selber auch gut drauf hat :o)
Übrigens, um diese Reverskurven-Geschichte mal richtig zu blicken, gibts tolle Videos von The Foundry in den Nuke-Basic-Videos. Tolle Sache, das
Antwort von Axel:
Irgendwann muss ich in den letzten 40 Jahre verlernt haben, so flach zu denken.
Von den Tiefen des Denkens in die Praxis der Pocket-Farben. Ich halte fest:
1. Einen Weißabgleich mit der Pocket kann nur machen, wer eine Graukarte oder eben so ein Color-Ceckboard aufnimmt und das in der Post erledigt.
2. Es gibt keinen LUT, zumindest nicht den LUT, der gleichzeitig mit der Übersetzung des Farbraums auch die jeweils verkackte Farbbalamce ausgleicht.
3. Die Anpassung in Resolve - ich nehme Resolve als Beispiel, weil es wohl die naheliegendste Methode ist, Pocket-Zeugs zu behandeln - erfolgt Clip für Clip.
4. Dabei gilt als Referenz der schönste Clip (ein schöner Clip hat einen Look, wenn man so will einen Stich), verglichen wird im eminent wichtigen still store mit Hilfe von Splitscreen und Kontaktbogenansicht. Die Methoden zum Übertragen von Grades auf andere Clips sind ausgefuchst, das Kopieren von Filterkombis in herkömmlichen NLEs ist im Vergleich dazu wie der Versuch, sich mit der Klobürste die Zähne zu putzen.
Antwort von ruessel:
das Kopieren von Filterkombis in herkömmlichen NLEs ist im Vergleich dazu wie der Versuch, sich mit der Klobürste die Zähne zu putzen.
Das habe ich schmerzlich Erfahren müssen ;-)
Antwort von Frank Glencairn:
Ich finde die ganze Nummer wird überbewertet.
Soweit es mich betrifft ist das letzte was ich will, daß das Material am Ende so aussieht wie am Set.
Normalerweise habe ich eine sehr konkrete Vorstellung von dem Look/Mood meiner Szene. Deshalb drehe und leuchte ich schon entsprechend - Setdesign kommt natürlich auch noch dazu. Meistens nicht mehr als zwei dominante Farben, plus eine Akzentfarbe um 180 Grad versetzt.
I der Post nehme ich mir einen Clip, bringe in dahin, wo ich ihn hin haben will, und passe den Rest der Szene entsprechend an - basta.
Antwort von ruessel:
Soweit es mich betrifft ist das letzte was ich will, daß das Material am Ende so aussieht wie am Set.
Tja, sag das mal hier in Bremen Becks Bier oder Kaffee die Krönung.... wenn das Produkt nicht die exakten Farben hat, gibt es was auf die Mütze ;-)
Antwort von CameraRick:
Ich kreide gar keinem etwas an, ich kann nur manchmal auf so einem Niveau nicht mehr mithalten.
Irgendwann muss ich in den letzten 40 Jahre verlernt haben, so flach zu denken.
Dich hab ich doch gar nicht gemeint :)
2. Es gibt keinen LUT, zumindest nicht den LUT, der gleichzeitig mit der Übersetzung des Farbraums auch die jeweils verkackte Farbbalamce ausgleicht.
Kann ja auch nicht eine Tabelle geben, die jegliche verschiedene Umgebung auszugleichen vermag. Das wäre ja Vodoo.
So etwas geht eben mit nem Checker - dem sagst Du, von wo Du kommst - in welchen Raum/WB Du willst, und ein paar weitere Details. Man könnte nun in Kleinarbeit für jedes Szenario eine LUT erstellen (Cam steht auf X, Umgebung auf X, und los), aber ob das den goldenen Apfel bringt? :)
Soweit es mich betrifft ist das letzte was ich will, daß das Material am Ende so aussieht wie am Set.
Normalerweise habe ich eine sehr konkrete Vorstellung von dem Look/Mood meiner Szene. Deshalb drehe und leuchte ich schon entsprechend - Setdesign kommt natürlich auch noch dazu. Meistens nicht mehr als zwei dominante Farben, plus eine Akzentfarbe um 180 Grad versetzt.
Das geht halt gerade bei szenischem Film, aber nicht unbedingt bei allem, was man so filmen mag. Du bist ja überzeugter RAW Filmer, ich zB nicht so. Nicht dass RAW mich nicht überzeugt, aber ich nutze es eben nur ausgewählt. Als Prores-Filmer bist mit den Presets der BMCC nicht unbedingt gesegnet, was vieles angeht.
So ein Checker bringt dann Deine (oder auch mehrere) Cams in eine neutrale Grundhaltung, von der man mitunter einfacher zum Ziel kommt.
Wie viele Leute haben denn immer ACR genutzt, weils ihnen einfacher fiel, auch wenns nicht so der dolle Workflow ist. Ist doch toll, auszuneutralisieren, wenn man will. Grad bei mehreren Cams, grad solang es nur beschränkte Settings gibt, gerade solang wir alle keine großen Coloristen sind :)
Antwort von WoWu:
OT
@CameraRick
Ich wollt' nochmal auf den Artikel in der COW zurück kommen. Habe ihn leider nicht gefunden. Hättest Du vielleicht noch irgendwie etwas, das mir die Suche erleichtern würde ?
Besten Dank.
Antwort von tehaix:
Hallo,
eine Zwischenfrage, die ich mir gerade stelle:
Wie belichtet ihr, wenn ihr mit manuellen Linsen in ProRes filmt? Die kamerainterne Messung dürfte nicht funktionieren und über Sunny 16 sind wir ja auch irgendwie hinaus. Habt ihr alle einen Belichtungsmesser dabei?
Antwort von Axel:
Hallo,
eine Zwischenfrage, die ich mir gerade stelle:
Wie belichtet ihr, wenn ihr mit manuellen Linsen in ProRes filmt? Die kamerainterne Messung dürfte nicht funktionieren und über Sunny 16 sind wir ja auch irgendwie hinaus. Habt ihr alle einen Belichtungsmesser dabei?
Im Grunde belichte ich intuitiv. Ich habe geübt, wie sich die Darstellung auf dem Display bei ISO 800* auf das fertige Video auswirkt. Zusätzlich habe ich 95% Zebra als letzte Überbelichtungswarnung.
*(EDIT: Über die Bedeutung unterschiedlicher ISOs herrscht hier Uneinigkeit. Ich glaube Brawley und Majerski aus dem BM-Forum, die versichern, dass man, nach allem komplizierten Abwägen des Für und Widers mit 800 am besten fährt, da man den höchsten DR damit erzielt.)
Ich muss dazu sagen, dass ich jahrelang in einer Dunkelkammer Einzelvergrößerungen gestoppt habe und wohl ein Auge für sowas gekriegt habe. Trotzdem ist Belichtung m.E. kein Thema.
Belichten mit der Pocket ist auch noch aus einem anderen Grund ziemlich einfach: 10-bit, das zu 8-bit komprimiert werden soll in der Endausgabe, ist sehr "verzeihend", d.h. es hat große Reserven. Es geht darum, wenn möglich nicht unterzubelichten (wenn es dunkel aussieht: Blende auf bis zur Zebrawarnung) noch überzubelichten (alles, was nicht clippt, ist "da" und hat in Film-LOG genügend Werte, allemal mehr, als man im nativen 8-bit mit absolut perfekter Belichtung hätte).
Schwieriger ist da schon Schärfe. Mit dem Display der Pocket ist Schärfe ohne Peaking fast aussichtslos. Und mit dem Peaking muss man üben, um es richtig einzuschätzen. Es ist außerdem unzuverlässig, wenn zu wenig Kontraste im Bild sind - im Zweifelsfall kann ein leicht unscharfes Fliegengitter besser peaken als das Gesicht davor.
Antwort von CameraRick:
WoWu: http://library.creativecow.net/articles ... cineon.php
Ist sicher nicht der beste Artikel, auch ein wenig misinformiert hier und da (bzw vielleicht nur schlecht erklärt, wer weiß), aber ich finde er veranschaulicht das alles ganz gut. Auch weil er "in Float" schreibt
Hier kann man aus den drei Parts auch ein wenig was mitnehmen:
aber ist eben schon etwas speziell;
Wobei ich auch vermute im gesamten Thema, könntest Du mir deutlich mehr Lektionen erteilen :)
@Belichtung BMCC
Ich finds recht einfach zu sehen, dass man mit 800 ASA am besten fährt. Geh mal bei Sonnenschein in einen Park, und probier alle mal durch (Helligkeit der ASA mit Shutter oder Blende kompensieren). Das ist schon recht ernüchternd :)
Beim Belichten mache ich das Zebra an, und schaue das nichts ausbrennt. Ist der Blendenumfang in der Situation zu groß, lässt man ggf auch mal was clippen (das ist manchmal nichts schlimmes, gerade bei Reflektionen auf Autos oder Spitzlichtern in den Bäumen, wenn man im Schatten filmt).
Wenns geht, Monitor mit Waveform dran, das macht vieles einfacher
Antwort von tehaix:
Sehe ich das also richtig, dass ETTR also im Grunde genommen auch bei ProRes angewendet wird? Irgendwie hatte ich im Kopf, dass das nur für RAW-Aufnahmen in Ordnung ist. Allerdings von Seiten der Fotografie, ich bin selbst noch nie dazu gekommen, RAW zu filmen.
Antwort von WoWu:
@ CameraRick
OT
Besten dank für den Artikel.
Ja, doch den kannte ich schon. Ich hatte angenommen, es gäbe etwas Spezielles zum Thema "Kompression" aber das liegt vielleicht daran, dass ich noch einen Unterschied zwischen "einfachen Mapping", wie es bei einem Übergang der Tonwerte entsteht und beispielsweise einer Kompression auf Pixelebene mache, bei der unterhalb bestimmter Pixelwerte die Spannung abgeleitet wird und so quasi eine andere Dynamik eintritt, wie z.B. bei DRS. und sich so für bestimmte Lichtverhältnisse andere Kurwenwerte einstellen.
Daher war ich so überrascht, dass die BMC Kamera das machen soll. Aber das hab ich dann nur falsch verstanden. Bzw. es liegt daran, dass ich unter Kompression noch etwas Anderes einschliesse.
Aber nochmal besten Dank.
OT OFF
@tehaix
Du solltest immer ausreichend belichten, egal ob Du RAW oder 8 Bit machst, denn Du verlierst am Sensor immer 50% der Übertragungswerte wenn Du auch nur eine Blende drunter bist.
Und das wirkt sich bei einem Übergang nach 8 Bit deutlich schlimmer aus, als würdest Du in RAW oder 10 Bit bleiben.
Antwort von CameraRick:
Warum sollte es denn schlecht sein? Ist ja keine 8bit Grütze :)
Man muss halt im Rahmen bleiben und im Kopf haben, dass man nicht jedes Detail nacher nutzen kann. Etwa, Windungen von Wolken
Antwort von CameraRick:
Besten dank für den Artikel.
Ja, doch den kannte ich schon. Ich hatte angenommen, es gäbe etwas Spezielles zum Thema "Kompression" aber das liegt vielleicht daran, dass ich noch einen Unterschied zwischen "einfachen Mapping", wie es bei einem Übergang der Tonwerte entsteht und beispielsweise einer Kompression auf Pixelebene mache, bei der unterhalb bestimmter Pixelwerte die Spannung abgeleitet wird und so quasi eine andere Dynamik eintritt, wie z.B. bei DRS. und sich so für bestimmte Lichtverhältnisse andere Kurwenwerte einstellen.
Daher war ich so überrascht, dass die BMC Kamera das machen soll. Aber das hab ich dann nur falsch verstanden. Bzw. es liegt daran, dass ich unter Kompression noch etwas Anderes einschliesse.
Aber nochmal besten Dank.
Daher meinte ich, "eine Art" Kompression. Wie wenn ich einen Schwamm drücke, das ja auch "komprimiert" :) kannst Dir vorstellen dass ich nicht so Begriff-sicher bin, was das angeht.
Irgendwo macht die BMCC ja etwas nahe am klassischen Cineon LOG (mehr Highlights in weniger Platz quetschen). Die Kurven ehen sich auch recht ähnlich
Antwort von Reiner M:
Der Creative-COW-Artikel zeigt und erklärt das anhand des Cineon-Konverters in After Effects.
Der Artikel ist für ruessel und andere Premiere Pro User sicher auch sehr interessant.
Denn genau der selbe Cineon-Konverter gehört in Premiere Pro zur Effekte-Bibliothek, die mit ausgeliefert wird. Die Parameter und Ergebnisse sind identisch. Die Vorgehensweise, die im Artikel beschrieben wird, kann übernommen und nachgestellt werden.
Wie ich oben schon geschrieben habe, lohnt es sich womöglich bei diesen Files, das mal auszuprobieren.
Beste Grüße,
Reiner
Antwort von WoWu:
Mein Vorschlag für Ruessel wäre, einmal systematisch vorzugehen und Chroma erst einsmal ganz nach hinten zu schieben, denn für die Bestimmung der Kurve braucht man nur die Luma Werte und die lassen sich erheblich einfacher und sehr viel präziser bestimmen, als die Distanzen zu Weiss denn auch Weiss muss man erst einmal bestimmen.
Im Grunde genommen ist es gar nicht so schwer, die Eigenarten der Kamera auszumessen und das geht vor allen Dingen auch mit "Bordmitteln".
Antwort von ruessel:
Im Grunde genommen ist es gar nicht so schwer, die Eigenarten der Kamera auszumessen und das geht vor allen Dingen auch mit "Bordmitteln".
Für mich dummen, der sich wirklich noch nicht mit dieser Materie auseinander gesetzt hat:
1. Wenn ich filme, bestimme ich mit Blende & Shutter die Lichtmenge die auf dem Sensor trifft. Ob Regen oder Sonnenschein, ich versuche automatisch immer fast die selbe Lichtmenge auf den Sensor fallen zu lassen... halt kurz vor der Sättigung des Sensors zu kommen = bester Rauschabstand.
2. Eine LUT direkt für eine Kamera erstellt, ist eine einfache numerische Tabelle um - ja was genau? - die Gammakurve (?) zu verändern. Mit einer LUT bekomme ich schon in etwa ein fertiges Bild, egal wie die Szene ausschaut.
3. Bastel ich dagegen nur eine Gammakurve und lege diese auf verschiedene Szenen (selbe Kamera) sieht es nicht richtig "entzerrt" aus.
Was ist falsch, was ist davon richtig?
Wie ich oben schon geschrieben habe, lohnt es sich womöglich bei diesen Files, das mal auszuprobieren.
Der Wille ist da, nur mir fehlt wirklich die Zeit.... mache gerade nebenbei meine Steuer....
Antwort von WoWu:
Moin Ruessel
Mein Vorschlag wäre, erst einmal ein Umfeld herzustellen, mit dem man Messungen vornehmen kann.
Dazu würde ich erst einmal eine Graukarte so beleuchten, dass auf dem Waveformmonitor 18% Pegel entstehen.
Normalerweise macht man das in der Ulbrichtkugel, um Streulicht zu vermeiden und um gleichmässige Ausleuchtung zu erzielen.
Daher kannst Du die Gleichmässigkeit am Besten am Waveform beurteilen, (ähnlich wie Du die KeyEinstellung für Green bezüglich der Ausleuchtung machst).
Wenn Das Bild gleichmässig ausgeleuchtet ist, hast Du die erste Ausgangsbedingung für einen Test, die Du nicht mehr ändern darfst.
Dann nimmst Du eine Grauabstufung, deren werte Du kennst. Also möglichst eine Karte, die weder ausgeblichen, noch vergilbt ist und auch sonst ok.
Das würde ich an Weiss und Schwarz festmachen. Wenn die beiden Werte stimmen (und sie müssen stimmen, wenn Grau stimmt, dann kannst Du am Waveform daraus schon mal alle Kurvenwerte ablesen.
Soweit würde ich das erst mal probieren, ob Du so einen Aufbau hinbekommst.
Die Erkenntnisse kan man hinterher in die Farbmessung einfliessen lassen.
Du musst nur drauf achten, dass das Licht für jede Messung wirklich völlig exakt bleibt,
Also Fenster zu und keinerlei Lichtänderungen oder Streulicht, sonst kannst Du jede Messung gleich in der Pfeife rauchen. Wenn das Licht -oder genauer gesagt, die Reflektion- nicht definiert ist, brauchst Du gar nicht anfangen zu messen.
Mach Dir von den Messbildern immer einen Screenshot und überprüf mal mit der Pipette eines Grafikprogramms, ob die Ergebnisse damit reproduzierbar sind, um hinterher mit den Shots auch weiter arbeiten zu können.
Wenn diese Ergebnisse nicht reproduzierbar sind, wird es schwer, auch hinterher den praktischen Beweis zu erstellen und die ganze Messung würde zu theoretisch bleiben.
Ach so, bezüglich der Karten ... Du musst etwas nehmen, was auch in 10 Bit die Auflösung bringt, also eine entsprechend feine Abstufung bzw. exakte Marker auf den Werten, wenn es ein Verlauf sein sollte.
Und in Angriff nehmen kannst Du das ja irgendwann, läuft Dir ja nichts weg.
Viel Spass bei der Steuer :-((
Antwort von ruessel:
Da fängt es schon an..... ich habe nur die normalen graukarten von kodak und das DSC LAB Chart.....
Antwort von Reiner M:
Mein Vorschlag für Ruessel wäre, einmal systematisch vorzugehen und Chroma erst einsmal ganz nach hinten zu schieben,
Wie meinst Du das?
Ein Blick in die YCbCr-Parade zeigt bei diesen Files, dass Chroma heftigst gestaucht erscheint, also Log ist (unter der Annahme, dass alle Farben da sind). Kann man ja mal mit der Parade aus der Sony vergleichen. Wenn man nun die "Sony-Farben" in etwa haben möchte, muss man da ansetzen. Log nach Linear ist daher der Schritt in die richtige Richtung. In wie fern kann Chroma-"Schieben" da helfen? Das würde neue Farben ergeben.
Luma ist m. E. in diesen Files auch anzupassen. Die Farben sind sehr flach. Es wirkt fast so, als wäre zusätzlich ein "Style" mit Warmton-Charakter oder Sepia-Grundton drauf. (Ich habe die Cam nicht und weiß dazu nichts zu sagen; das ist rein optisch am Output bewertet). Deshalb hatte ich empfohlen, vor den Cineon-Konverter im Effekte-Stapel eine Luma-Korrektur zu stellen. Dahinter das Clip-spezifische Feintuning (z. B. Dreiwege Lichter/Mitten/Tiefen). Dennoch wird das Ergebnis bei diesen Files m. E. niemals wie das der Sony aussehen.
Dein Vorschlag, nochmal eine neue, eindeutig bewertbare Aufnahme herzustellen, ist natürlich perfekt.
Weil die für dieses Modell existierenden LUTs bei den vorliegenden Aufnahmen nur wirklich sehr schlechte Ergebnisse liefern und meilenweit vom erwarteten Ziel entfernt sind, muss man eigentlich davon ausgehen, dass irgendwo ein Problem in der Aufnahme vorliegt. Vielleicht liegt auch tatsächlich ein Defekt in der Cam vor. Dann müsste eine zweite daneben, um das auszuschließen.
Beste Grüße,
Reiner
Antwort von ruessel:
Weil die für dieses Modell existierenden LUTs bei den vorliegenden Aufnahmen nur wirklich sehr schlechte Ergebnisse liefern und meilenweit vom erwarteten Ziel entfernt sind, muss man eigentlich davon ausgehen, dass irgendwo ein Problem in der Aufnahme vorliegt.
Schande über meinen Haupt..... ich hatte tatsächlich vergessen am Pocket Sensor meinen kleinen Umbau zu entfernen! Ich hatte das bei der Aufnahme völlig vergessen....
ob nun die BMD LUT funktioniert, muss ich gleich testen..... steuern müssen nun eben warten. Ergebnis kommt in der nächsten Stunde....
Antwort von WoWu:
@Reiner
Man muss bei solchen Messungen erst einmal dafür Sorgen, dass die Rahmenparameter auch stimmen und das fängt beim Licht und der gleichmässigen Ausleuchtung an, weil die Kamera über den ganzen Sensor integriert und deswegen muss die Reflektion erst einmal zum definierten Wert passen, sonst sind, entlang der Farben, alle Abstände unterschiedlich.
Man könnte natürlich aus den Farbabständen den Fehler errechnen, aber das ist müssig. Da ist eine Graukarte und der definierte Wert auf dem Waveform einfacher zu realisieren.
Und mein Ansatz ist der, aus den gewonnenen Erkenntnissen zur die Kurve zu schliessen und daraus anschliessend die Korrekturen (das LUT) zu bestimmen.
Denn nur so kann man den Eigenarten der Kamera wirklich begegnen.
Und solange man die nicht kennt, kurbelt man in den Farbwerten herum und bekommt die eine Farbe in den Griff und die andere rutscht einem hinten genau durch diese Einstellung wieder runter.
Deswegen sagte ich ... einmal systematisch, dann weiss man, das die Ergebnisse in der Folge verwertbar sind und kann sich sicher sein, dass sie nicht nur auf Fehlern oder Zufälligkeiten beruhen.
Es reicht schon, dass man hier mit Objektiv arbeiten muss, was eine weitere Fehlerquelle ist. Wenn man direkt mit Vorleuchteinheit auf den Sensor geht, ist alles sehr viel genauer und gibt wirklich Aufschluss über die Kamera und nicht über das Glas des Objektivs, aber mit der Ungenauigkeit muss man hier wohl leben.
Edit: vielleicht hat sich ja schon alles erledigt :-))
Antwort von CameraRick:
Der Creative-COW-Artikel zeigt und erklärt das anhand des Cineon-Konverters in After Effects.
Der Artikel ist für ruessel und andere Premiere Pro User sicher auch sehr interessant.
Denn genau der selbe Cineon-Konverter gehört in Premiere Pro zur Effekte-Bibliothek, die mit ausgeliefert wird. Die Parameter und Ergebnisse sind identisch. Die Vorgehensweise, die im Artikel beschrieben wird, kann übernommen und nachgestellt werden.
Wie ich oben schon geschrieben habe, lohnt es sich womöglich bei diesen Files, das mal auszuprobieren.
Beste Grüße,
Reiner
Den Artikel habe ich nicht wegen des Workflows verlinkt, sondern wegen einer Nachfrage von WoWu (es geht um Highlight-Handling und-mapping bei handelsüblichen Log-C Files). Dass es da um AE geht ist reiner Zufall :)
Antwort von ruessel:
Hier nun die Ergebnisse, mit der Pocket und der BMD LUT. Kommt schon näher, ist aber gerade im ROT weit entfernt, oder?
Antwort von Frank Glencairn:
Da läuft irgendwas ganz schief - ich schau mir das heute abend mal an.
Antwort von ruessel:
Hier mein Testaufbau.... leider mit einigen Fallen, die Pocket hat nur HDMI als Ausgang. Ich habe einen HDMI/FBAS Wandler dazwischen. Dann kommt noch dazu: gibt die Pocket das Sensorsignal so ohne Verfälschung weiter an HDMI?
ProResHQ Record stand auf "Film" und auch der HDMI Ausgang....
Antwort von Reiner M:
Den Artikel habe ich nicht wegen des Workflows verlinkt, sondern wegen einer Nachfrage von WoWu (es geht um Highlight-Handling und-mapping bei handelsüblichen Log-C Files). Dass es da um AE geht ist reiner Zufall :)
Ich weiß. ;)
Ich wollte die Gelegenheit nur nutzen, weil sich im Artikel quasi das Tutorial zu genau dem Effekt befindet, den ich zum Test nur mit grober Kurzanleitung empfohlen hatte. Bin mir ziemlich sicher, den kennen nicht viele. Da spart man sich doch gerne Erklärungsaufwand. Und wer weiß? Vielleicht hilfts ja irgend jemandem. Denn bei aller Theorie: Irgendwie muss man zum Schluss solche und ähnliche Herausforderungen ja sehr praktisch mit konkreten Werzkzeugen angehen können. ;)
Beste Grüße,
Reiner
Antwort von WoWu:
Wenn das 18% sein sollen, dann ist das ja völlig verguckt. Über FBAS würde ich auch nicht mehr gehen.
Dann Lieber ein File machen und den Abgleich übers NLE.
In der kette jetzt, hast Du ja beliebig viele Fehlerquellen drin.
Jedenfalls ist das alles Andere als die Reflektion von Grau.
Besser wäre es auch, die Kamera ohne Automatic zu betreiben und die Lichthelligkeit so einzustellen, dass 18% entstehen.
Antwort von ruessel:
Hier noch die Grautreppe.... egal wie ungenau das nun ist aber es sieht sehr stark nach LINEAR aus.
Antwort von WoWu:
Aber mit solchen Messungen kommst Du nicht in die Nähe des Problems. Da kann man bestenfalls feststellen, ob es LIN oder LOG ist, aber Abweichungen von Werten einer Kurve bekommst Du damit nicht raus.
Da muss man schon einwenig präziser ran.
Beispiel:
Antwort von Frank Glencairn:
Wie ich's mir dachte, irgendwas läuft bei dir schief Wolfgang.
Sieht bei mir quasi identisch mit deiner MTS Datei (links im Mediaplayer) aus.
Antwort von ruessel:
Der Cineon Konverter ist schon fast das tool was ich gesucht habe.... Danke für den Tipp.
Antwort von ruessel:
Sieht bei mir quasi identisch mit deiner MTS Datei (links) aus.
Perfekt!!
Antwort von CameraRick:
Der Cineon-Konverter ist ja eigentlich für normales Log-C gedacht, und auch eher als Support denn als "grading hilfe", aber nun gut.
So ein DaVinci Roundtrip tut nicht weh, ich würd dem mal eine Chance geben :)
Antwort von ruessel:
So ein DaVinci Roundtrip tut nicht weh, ich würd dem mal eine Chance geben :)
Ja, ja.... ihr habt ja recht. ;-)
Antwort von WoWu:
Da sind wir aber wieder genau bei dem oben angesprochenen Thema :-))
LOOK is LOOK, egal wie :-))
Antwort von ruessel:
LOOK is LOOK, egal wie :-))
keine Angst, ich bin mit dem Thema noch nicht durch..... ;-)
Antwort von WoWu:
War auch nicht so erst gemeint.
Ich freu mich, dass Du einen Schritt weiter bist.
Antwort von ruessel:
...habe nur wenig Möglichkeiten.
Antwort von ruessel:
Damit eine eigene LUT produzieren?
Antwort von Reiner M:
Der Cineon Konverter ist schon fast das tool was ich gesucht habe.... Danke für den Tipp.
Aber eben nur fast. ;) Bordmittel eben, aber das war ja gewünscht. Grading Tools sind da natürlich ausgefuchster.
Das Beispiel unten ist auch ein mögliches Ergebnis des Cineon-Konverters, jedoch mit vorgeschalteter Luminanz-Anpassung. Sie verhindert das Clipping, das wohl in Deinem Ergebnis auftritt.
Beste Grüße,
Reiner
Antwort von WoWu:
Das, was der in dem Beispiel da macht, ist ein LOOK.
Bei einem LUT geht es ja darum die "Absonderheiten" der Übertragung zu linearisieren.
Antwort von domain:
Diese Unterscheidung ist ja ziemliche Haarspalterei. Was erzeugt eine mathmatisch korrekte Delogarithmierung?
Na eben, einen anderen LOOK als ein matschiges Grauingrau, was sonst, wenn auch als Vorstufe zu einer ev. weitergehenden topografischen Verwerfung des Bildes im Grading.
Antwort von WoWu:
@ Schau mal nach dem Unterschied zwischen LOOK und einer Übertragungsfunktion.
Aber wir dreh'n uns im Kreis. Das hatten wir alles schon.
Wenn das, was der Kollege da im Video baut, auf eine andere Lichtsituation angewendet wird, kommen völlig abstruse Ergebnisse dabei heraus, nicht so bei einer konstanten Korrektur einer Übertragungsfunktion, die -egal welche Aufnahmesituation vorherrscht- immer eine neutrale Linearisierung durchführt.
Danach kannst Du dann nach "Geschmack" kurbeln.
Du hast doch gesehen, was bei deinen Farbexperimenten alles rausgekommen ist.
Ich glaube, für Dich heisst "Grading" nur an den Reglern kurbeln, bis es passt. Dann nimm doch erst gar kein LOG, dann hast Du es einfacher.
Denk doch erst einmal nach.
Antwort von Reiner M:
Damit eine eigene LUT produzieren?
Das ist eine Möglichkeit.
Eine andere ist Speedgrade. Hast Du das?
Beste Grüße,
Reiner
Antwort von domain:
Ich glaube, für Dich heisst "Grading" nur an den Reglern kurbeln, bis es passt. Dann nimm doch erst gar kein LOG, dann hast Du es einfacher.
Denk doch erst einmal nach.
Ich bin zu dumm zum Nachdenken.
Auch klar, dass die Entwickler der Adobe-Creative-Suite-Komponente: Speed-Grade lauter unprofessionelle Trottel sind. Deshalb sehen die Deppen auch keinen Unterschied mehr zwischen diversen Dingen ;-)
Zitat:
„Grades, LUTs and presets applied in SpeedGrade are combined into a single Lumetri filter effect.“
Antwort von CameraRick:
Nur weil mans gleich anwendet/anwenden kann, ist es noch lange nicht das Selbe.
Antwort von WoWu:
Ist Dir eigentlich klar, dass ein LUT lediglich aus einzelnen , wenigen Stützwerten besteht, zwischen denen dann interpoliert wird, eine Übertragungsfunktion aber aus dem kompletten Werteverlauf einer definierten Funktion ?
Nun wende mal eine solches LUT aus Teilstützstellen auf eine Kurve an, bei der es auf die exakte Reproduktion ankommt und veränder dann mal die Eingangssituation, was dann hinter rauskommt.
Richtig ... bei jeder neuen Situation eine andere Kurve, weil sich die Eingangswerte verändern.
Deswegen muss man auf eine definierte Funktion auch die genauso definierte Gegenfunktion anwenden, um ein definiertes Ergebnis zu erzielen.
Hast Du eigentlich im Matheunterricht auch völlig versagt ?
Abgesehen davon scheint es mit dem Englisch auch nicht so zu klappen.
Sie sagen nichts weiter, als dass sie verschiedene Systeme in einem Effekt vereint haben. sagen aber damit, dass es diese verschiedenen Effekte gibt.
Klar kannst Du LOOKs,s LUTs und LOGS in einem Arbeitsgang rechnen lassen. das Ergebnis ist dann eine individuelle Einstellung.
Was anderes machst Du im Grading ja auch nicht. Du machst erst die LOG und dann nach Gusto die LOOKS.
Video muss ja ein wahnsinnig schwer zu verstehendes Thema sein.
Du hättest beim Diafilm bleiben solln.
Antwort von domain:
Hast Du eigentlich im Matheunterricht auch völlig versagt ?
Abgesehen davon scheint es mit dem Englisch auch nicht so zu klappen.
.
Beides stimmt. Die Mathe-Matura habe ich so ziemlich von meinem Sitznachbarn abgeschrieben, später aber Funktionen dritten Grades für mein automatisiertes Farb-Labor entwickeln müssen, also Kurven mit S-förmigem Verlauf. Man lernt nur was, wenn eine Motivation vorhanden ist. Deshalb ist mir auch schon seit Jahren klar, was du eigentlich meinst.
Und mein Englisch war auch ziemlich mittemäßig, habe bei der Mündlichen z.B. Canoeing-Boat mit Kanonenboot übersetzt, ist mir heute noch peinlich.
Antwort von Reiner M:
Das, was der in dem Beispiel da macht, ist ein LOOK.
Bei einem LUT geht es ja darum die "Absonderheiten" der Übertragung zu linearisieren.
Das stimmt doch nur in einem einzigen Fall, Wolfgang. Nämlich dann, wenn die LUT für diesen Zweck hergestellt ist, oder?
Und zwar von demjenigen, der die Log-Speicherung festgelegt hat. Jeder andere wird das nicht schaffen, wenn ihm die genauen Parameter fehlen. Und das ist wohl i. d. R. so. Umständliches Ausmessen kann dann zwar helfen, erzeugt aber auch nur Näherungswerte, oder nicht? Und wenn er sie dann hat, wohin dann damit? In eine selbstgestrickte LUT ... - deshalb gibts die Dinger ja und das noch in Varianten. ;)
Eine Lookup-Tabelle beschreibt nur, wie Eingangsdaten zu Ausgangsdaten zu formen sind. Mehr nicht. Damit lassen sich auch Dollors in Euro umrechnen. Aber wir machen ja Video.
Selbstverständlich kann man also gerade in der Videobarbeitung die Transformationsregeln für Farben in Farbräumen zwischen Quelle und Ziel der Verarbeitung in LUTs ablegen.
Dafür unterstützen die Programme sowohl das Lesen und Anwenden standardisierter LUTs, sowie deren Erzeugung.
Der Begriff klebt daran, wie die Daten gespeichert sind (nämlich als pure Daten in einer Transformationstabelle) und wie sie aufzulösen sind (nämlich durch Funktionen in Programmen, die LUTs verwenden).
LUTs werden zudem applikationsunabhängig extern gespeichert, sind zwischen Applikationen austauschbar und erzeugen bei gleichen Voraussetzungen identische Ergebnisse. Looks arbeiten da völlig anders.
Beste Grüße,
Reiner
Antwort von domain:
Diese ganzen begrifflichen Unterscheidungen kann man sich doch in die Haare schmieren. Natürlich kennen die Speedgrade-Leute die unterschiedlichen Bedeutungen der Begriffe, haben sie aber in einer einzigen Funktion integriert und das zeigt doch, wohin der Haase läuft.
Antwort von Frank Glencairn:
Irgendwie versteh ich euer Problem nicht.
Ich hab Wolfgangs Datei in Resolve importiert, BMC>709 LUT drauf - passt - und fertig. Normaler Workflow mit der Pocket.
Warum in aller Welt macht ihr mit Cineon Kurven und wasnichtalles rum?
Antwort von Reiner M:
@Frank, vielleicht deshalb, weil er etwas für seine Systemumgebung Pr CS6 sucht und es da keine BMC -> 709 LUT gibt? ;)
Aber er vielleicht sind Programme wie Resolve oder Speedgrade oder sonstwas nötig (er hat sich gerade Red Giant angesehen), wenn man diese Cam hat? Das weiß ich leider nicht, ich habe die Cam nicht. Das müssen die Besitzer beurteilen. Empfehlenswert scheint es zu sein.
Beste Grüße,
Reiner
Antwort von Frank Glencairn:
Ehrlich gesagt sehe ich keinen Grund die BMC -> 709 LUT von Resolve nicht in Premiere zu benutzen.
Einfach in LUT Buddy oder die Lumentry Engine laden und fertig.
Antwort von Reiner M:
Stimmt schon, musst Du aber auch alles erstmal haben.
Also entweder den LUT Buddy von Red Giant besorgen oder Premiere Pro CC mit Lumetri und dann noch die LUT oder eben Resolve.
Ich verwende ja auch Pr CC und Speedgrade und habe somit alles, was nötig ist, inkl. LUTs. - außer der Cam ;)
Beste Grüße,
Reiner
Antwort von CameraRick:
@Frank, vielleicht deshalb, weil er etwas für seine Systemumgebung Pr CS6 sucht und es da keine BMC -> 709 LUT gibt? ;)
Die LUTs habe ich ihm doch schon vor Tagen hoch geladen (hier im Thread) und LUT Buddy ist kostenlos...? :)
Diese ganzen begrifflichen Unterscheidungen kann man sich doch in die Haare schmieren. Natürlich kennen die Speedgrade-Leute die unterschiedlichen Bedeutungen der Begriffe, haben sie aber in einer einzigen Funktion integriert und das zeigt doch, wohin der Haase läuft.
Eine LUT ist irgendwo ja auch nichts anderes als eine Kurve (ggf auch in mehreren Dimensionen), die kann man auf einige Arten anwenden, ja sogar manuell kannst die einstellen wenn Du magst. Aber das hat doch nichts damit zu tun, worüber hier gesprochen wird.
Antwort von WoWu:
@ Frank
Gleich die arte Gegenfrage: warum hast Du die 709 Kurve überhaupt draufgelegt ? Das ist eine solche Gammaentzerrung wie die Reversekurven für LOG. Warum hast Du sie nicht gleich weggelassen ?
Die Antwort ist leicht ... weil es Dir auf eine präzise Entzerrung des Signals geht.
So gibt es auch die Reverse Kurven, für viel erheblicher Verzerrungen, z.B. die LOG Entzerrungen.
Mit derselben Konsequenz sollte man solche Signale ebenfalls handhaben, wenn es einem schon auf das winzige 2.2 ankommt.
Noch vor ein paar Monaten haben sich die Leute aufgeregt, dass Quicktime mit 1.8 statt 2.2 entzerrte.
Ich denke, das ist Dir noch in Erinnerung.
Heute sagst Du, Dauempeilung und gut ist. geht natürlich auch.
Bei Dolby kannst Du auch ein paar Höhen wegnehmen und die Sache ist gegessen oder, um Ricas Beispiel zu nehmen, Du kannst auch ein Magnetabtastsytem mit ein paar Tiefen dahin drehen, dass es nicht mehr schmerzt.
Das wäre dann die Methode "Domain".
@ Reiner
Sofern eine LUT gebaut wird, die die "flache" Gammalage eines LOGs nachempfindet, besteht sicher kein grosser Unterschied, bis auf die Qualität der Berechnung.
Eine Logarithmische Kurve besteht natürlich aus einer "quasi" unendlich grossen Wertetabelle, ist also das präziseste, was man an Berechnung erhält.
Kennt man die Funktion in der Kamera, kennt man automatisch die Gegenfunktion und erreicht damit genau das, wofür die Gammänderung eigentlich eingefügt worden ist.
Eine LUT besteht aber, je nach Qualität aus wenigen Stützstellen, meist nur so aus 8-12 Werten. Für Renderbenutzung sind mindestens 64 Werte erforderlich um mit einer "akzeptablen" Genauigkeit zu rendern, aber noch weit ab von einer Reverse Kurve.
Ein LOOK ist nichts weiter als eine Wertetabelle, aus der sich bestimmte Effekte Parameter nehmen. Also sowas wie ein Remoteeinheit für Filter. Jedes Filter hat aber bestimmte Funktionsoparameter, als z.B. die Steilheit der Filterflanken, um nur einen Parameter einer ganzen Palette zu nennen.
Sie wirken also in Abhängigkeit vom Eingangssignal. Ist z.B. ein Wert auf NULL, dann kannst Du ein noch so tolles Filter auflegen, es wirkt nicht.
Anders die Reversekurve, weil sie die Werte direkt hinein mapped, also z.B. selbst aus einem nicht wirksamen wert Null einen andern Wert erzeugt, weil sie ihn nur ersetzt.
Die Wirkungsweise ist also völlig verschieden. daher sind solche Filter oder Looks, immer in ihrer Wirkung abhängig vom Eingangssignal und erzeugen bei unterschiedlichen Eingangssignalen relativ unterschiedliche Ergebnisse und damit für die Reproduktion eines Reversekurve völlig ungeeignet.
ARRI bietet in seinem Look Generator die Möglichkeit, einen benutzten LOOK später in ein LUT umzurechnen, weist aber eindringlich darauf hin, dass dies NUR für Gammakurven nutzbar ist, die sich quasi im Bereich der LOgC befinden.
Just aus den erklärten Gründen.
Aber, wie gesagt, wir müssen unterscheiden, ob jemand nur bunte Bilder haben will, oder an sauberer Arbeit interessiert ist.
Aber einfach zu sagen ... alles egal, mag zwar für den eine Lösung sein, aber dann kann er den ganzen Rest um die Videotechnik auch vergessen und soll sich bloss nicht nochmal darüber aufregen, dass Quicktime ein Gammaproblem hatte.
@ Domain
Du solltest meine Postings auch mal lesen, bevor Du Deine Polemik einfach vervielfältigst. Oder klappt das mit dem Lesen auch nicht ?
Antwort von Reiner M:
Die LUTs habe ich ihm doch schon vor Tagen hoch geladen (hier im Thread) und LUT Buddy ist kostenlos...? :)
Stimmt! Sorry ... Dann hat er schon alles.
Bei Dir sehen die Ergebnisse aber auch flacher aus, als bei Frank, oder täusch ich mich wieder?
@Frank: Ist das, was Du gezeigt hast, die LUT pur auf dem BMC-MOV?
Beste Grüße,
Reiner
Antwort von Frank Glencairn:
Yup, aber auf den DNG, - Effekt ist aber der mehr oder weniger der selbe.
Antwort von Reiner M:
Dann mach das bitte mal mit dem Prores-Mov.
Die LUT ist die selbe, das Ergebnis wohl nicht, denke ich.
Beste Grüße,
Reiner
Antwort von Frank Glencairn:
Welchen Teil von:
" Effekt ist aber der mehr oder weniger der selbe."
hast du nicht verstanden?
Antwort von Reiner M:
Ein LOOK ist nichts weiter als eine Wertetabelle, aus der sich bestimmte Effekte Parameter nehmen. Also sowas wie ein Remoteeinheit für Filter. Jedes Filter hat aber bestimmte Funktionsoparameter, als z.B. die Steilheit der Filterflanken, um nur einen Parameter einer ganzen Palette zu nennen.
Ich möchte das nicht überstressen, Wolfgang. Es sei nur noch angemerkt:
Im Unterschied zur LUT ist ein Look gerade KEINE Wertetabelle.
Wie Du ja schreibst, befinden sich in der Lookup-table nur wenige Zahlen. Die können nur von einer ganz bestimmten Funktion korrekt angewendet werden, die immer gleich arbeitet. Der Funktion ist es völlig egal, wie die Quelldatei aussieht. Sie wendet stur diese Transformation an. Das Ergebnis wird natürlich nur gut, wenn Quelldatei und LUT zu einander passen.
Das Beispiel ist die Prores-Datei von ruessel. Die BMC-LUT passt da m. E. nicht. Eines von beiden, Quelldaten oder LUT, ist für die Verarbeitung in in diesem Fall ungeeignet.
Ein LOOK ist dagegen ein Funktionsstapel. Ein Filterstapel. Ein Effektestapel. In ihm werden nicht nur Parameter-Werte beschrieben, sondern der komplette Funktionsaufruf resp. der Effektname vermerkt. Geht nicht anders.
Ein LOOK funktioniert deshalb nur in genau dem Programm, für das er gedacht ist und in dem er modifiziert wurde. Er stützt sich entweder auf programmeigene Effekte/Filter oder bringt sie als PlugIn-Funktionen für das konkrete Programm mit. Davon leben diverse Hersteller.
Aus einer LUT, die nur nackte Zahlen enthält, kann kein Programm LOOKs erzeugen, weil es damit keine Filterfunktionen verbinden kann. Woher soll der LUT-Interpreter wissen, ob sich hinter "5" eine Angabe für die Dreiwege-Korrektur, oder für die Lumakurve, oder für einen Weichzeichner befindet? Er wird sie immer als Transformationswert für eine Linearisierung verwenden, stur davon ausgehend, dass ein Log vorliegt. Für sonst nichts.
Klar: Wird ein Look als Grundlage für die Erzeugung einer LUT genutzt, gelten die LUT-Regeln. Logisch, "dass dies NUR für Gammakurven nutzbar ist, die sich quasi im Bereich der LOgC befinden. "
Du wirst in keiner LUT den LOOK in seiner Vollständigkeit speichern können und aus keiner LUT den LOOK rekonstruieren können, der einst seine Grundlage war.
Aber genau deshalb, Wolfgang, weil eben die Ergebnisse wichtiger Bearbeitungsschritte, die zum LOOK geführt haben und in ausmachen, in der LUT gar nicht präsent sind, ist eine LUT KEIN LOOK, ;)
Beste Grüße,
Reiner
Antwort von Frank Glencairn:
Sorgen habt ihr...
natürlich kann eine LUT auch ein Look sein, die Lumentri Looks sind das beste Beispiel dafür.
Allerdings ist eine LUT halt auch begrenznt.
Masken, Blur, Vignette usw geht halt da nicht - andere Sachen schon.
Antwort von Reiner M:
Welchen Teil von:
" Effekt ist aber der mehr oder weniger der selbe."
hast du nicht verstanden?
Frank, die gesamte Diskussion hier dreht sich um die Prores-Datei. Kein anderer hier hat es bisher geschafft, nur mit BMC-LUT-Draufschieben ein zufriedenstellendes Ergebnis zu erzeugen. Oder habe ich was übersehen? Das ist ja das Problem.
Wenn Du es geschafft hast, ist alles gut. Nur ist Dein DNG-Screenshot dafür wohl weniger ein Beleg. ;) - Egal.
Beste Grüße,
Reiner
Antwort von Reiner M:
Sorgen habt ihr...
natürlich kann eine LUT auch ein Look sein, die Lumentri Looks sind das beste Beispiel dafür.
Lumetri ist kein reiner LUT-Umsetzer. Er kann neben Dateien im Format LUT auch Dateien in bestimmten Look-Formaten verarbeiten.
Er kann z. B. den Look lesen, der in Speedgrade erzeugt wurde (Dateityp *.look) und hat dann mehr Infos zur Verfügung, als in der LUT stehen (*.lut, *.cube). Die LUT kann er auch lesen, er arbeitet dann aber selbstverständlich anders.
Beste Grüße,
Reiner
Antwort von ruessel:
Kein anderer hier hat es bisher geschafft, nur mit BMC-LUT-Draufschieben ein zufriedenstellendes Ergebnis zu erzeugen.
So sieht es wohl aus.
Ich habe gerade mit etwas mehr Sorgfalt eine neue Aufnahme mit der Pocket gemacht. Danach LUT Buddy nochmals installiert, hatte den Eindruck es funzt nicht richtig.
Nun das Ergebnis mit LUT Buddy und die 4 LUTs die ich dankenswerterweise zur Verfügung gestellt bekommen habe:
Ganz oben nochmal das Ausgangsframe der NX3, aufgenommen im automatischen Modus mit einem PP das kommt wirklich recht gut mit der Vorlage optisch hin.
Darunter nun meine überprüfte Pocket mit einem Olympus MFT Objektiv, hier auch Fokus und IRIS mit einem Druck auf dem Schalter autom. eingestellt.
Gleicher Chart, gleiches Licht.....
Darunter nun die 4 LUTs in Premiere CS6 mit LUT Buddy......
Die Luts gehen zwar in die richtige Richtung, aber auch wenn BMD an den LUTs draufsteht, hat das für mein Gefühl wenig mit der Pocket zu tun. Alleine der Gammawert kann so nicht stimmen.
Es kann ja sein, das das Ergebnis der LUTs in anderer Software auch anders ausschaut..... oder bei mir klemmt immer noch was (kopf oder LUT Buddy - oder beides)
Ich habe nun das Material noch einmal frisch hochgeladen:
http://www.digitalfx.de/color.zip (22MB - MTS, Mov, DNG)
Antwort von CameraRick:
Eine solche LUT setzt aber auch immer eine korrekte Belichtung voraus, sonst kann sie nicht so funktionieren, wie sie soll. Die Aufnahme ist sehr hell; macht man sie dunkler bevor man die LUT anwendet, sieht es schon deutlich besser aus.
Aber so eine LUT ersetzt eben kein Grading. Film LOG ist kein klick+bunt, das ist dann eher die Sony.
Antwort von domain:
Scheint wirklich überbelichtet zu sein, sieht man an der Tonwertverteilung. Aber retten kann man doch noch einiges, Farben scheinen jetzt in Ordnung zu sein, vielleicht etwas zu viel Grün in den Schatten.
Aber selbst wenn die Belichtung stimmen würde halte eine realistische Beurteilung der Bilder ohne Kontrastaufsteilung durch Gammakurvenkorrektur oder Tonwertspreizung für unzulänglich, viel zu weich alles.
Antwort von Frank Glencairn:
Frank, die gesamte Diskussion hier dreht sich um die Prores-Datei. Kein anderer hier hat es bisher geschafft, nur mit BMC-LUT-Draufschieben ein zufriedenstellendes Ergebnis zu erzeugen. Oder habe ich was übersehen? Das ist ja das Problem.
Nochmal auf die Schnelle, mit den neuen Daten:
Antwort von ruessel:
Nochmal auf die Schnelle, mit den neuen Daten:
Also funzt mein LUT Buddy nicht..... oder hast du noch was anderes als die LUT bewegt?
Scheint wirklich überbelichtet zu sein
So wird aber hier seit Monaten es besprochen, belichten bis 100% Zebra - und genau das macht automatisch (IRIS-Knopf) die Pocket im Filmmodus mit einer MFT Optik davor.
Davon abgesehen, das sieht alles besser aus, als das was ich vorher von meiner Pocket farblich gesehen habe... das lässt hoffen, das ich selbst noch richtig gute Farben bekomme.
Antwort von CameraRick:
Das "nach rechts" Belichten machst Du ja aber um die Dynamik maximal auszunutzen, "richtig belichtet" ist es dadurch ja nicht.
Sprich, man muss schon vorher dran rum machen, bevor man die LUT drauf knallt, sonst siehts eben aus wie in Deinem LUT Buddy (in DaVinci siehts mit dem originalen ProRes Clip auch so aus)
Antwort von ruessel:
Ich habe ein wenig in Premiere gespielt, mit LUT Buddy + Cineon Konverter komme ich jetzt wirklich ein großes Stück näher. "Draufklatschen" und ein klein wenig am Gammaregler spielen......
Selbst in Mischlicht sehen die Hautfarben nun nicht mehr völlig nach "Außerirdisch" aus.
Danke an alle die soooo viel Geduld mit mir hatten.
Antwort von domain:
Sprich, man muss schon vorher dran rum machen, bevor man die LUT draufknallt
Was Frank da aber vorher rumgemacht hat, ist ja nun auch nicht gerade brauchbar, das ganze Schmalz ist nun unten versammelt und die Waveform kommt über 65% nicht hinaus.
Ich frage mich nur, wie man mit einer derartigen LUT überhaupt zu einer brauchbaren Voransicht kommen kann. Aber Ruessel weist uns schon den Weg ...
Aber eines darf man auch nicht übersehen: mit jeder Kontrastaufsteilung nimmt auch die Farsättigung, also der Farbkontrast zu. Deshalb sehe ich in Franks LUT-Versuch bereits viel zu intensive Farben.
zum Bild http://img5.fotos-hochladen.net/uploads/twlow01tis61aedhl.jpg
zum Bild http://img5.fotos-hochladen.net/uploads/wf011846l2orc9.jpg
Antwort von ruessel:
Bei mir sieht es mit draufklatschen nun so aus: siehe Anlage
noch nicht perfekt (das rot fehlt im orange) aber zu 80% schon ganz o.k.
Antwort von CameraRick:
Mit ner richtigen Belichtung! Sonst siehts natürlich blöde aus. Es ist doch nicht so schwer zu verstehen, wie eine derartige LUT funktioniert.
Ich selbst würde diese LUT auch nie nutzen, oder nur sehr reduziert, weil ich sie nicht wirklich toll finde, im Endergebnis. Wenn man aber schnell tolle Farben will, keine Lust auf Color-Checker und co hat (Achtung: das würde wirklich helfen), nicht graden will, dann ist es eine Möglichkeit, etwas besseres - nicht gut! - zu erhalten.
LOG will ein Grading, und kein Look-LUT-Geraffel. Dann bleibt doch bei der Sony, wenn ihr auf die Post keine Lust habt?
Antwort von ruessel:
Dann bleibt doch bei der Sony, wenn ihr auf die Post keine Lust habt?
Da sind nur die Farben schön ;-)
Antwort von Reiner M:
Ja, die neue MOV-Aufnahme ist schon deutlich besser.
Sie hat nicht mehr diesen Sepia-/Braun-Grundton, der das justieren schwer macht.
Hier mal ein mögliches Ergebnis mit der neuen Datei ausgeführt in Speedgrade.
Die Farbe muss schon etwas intensiviert werden, wenn Gelb und Rot im Fokus liegen sollen.
Beste Grüße,
Reiner
Antwort von ruessel:
nicht schlecht.....
muss nun los, Eis essen....
Antwort von Frank Glencairn:
Was Frank da aber vorher rumgemacht hat, ist ja nun auch nicht gerade brauchbar, das ganze Schmalz ist nun unten versammelt und die Waveform kommt über 65% nicht hinaus.
Da is ja auch nicht viel Weiß im Spiel.
Antwort von domain:
Ja aber es gibt einen weißen Rand rund um die Farbtafel und auch der kommt mit der Pipette gemessen nicht über 160 bei Rot hinaus.
Antwort von ruessel:
Um hier auch mal ein wenig weiter zu kommen, habe ich mich um ein paar kleine Basics gekümmert. Ich habe von einem sehr guten Fotoapparat hochauflösende 7K Fotos bekommen, daraus habe ich mir einen kleinen "Hautfarben Chart" gebastelt - siehe Anhang.
Damit wollte ich noch einmal das Software Vectorscope in Premiere überprüfen. Ja - es funzt einwandfrei, die Farbe liegt recht genau da wo sie soll und bin erstaunt wie genau doch die Farbe der verschiedenen Menschen passt, nur das Kunstlichtbild tendiert etwas nach rot....
Nun habe ich meine Haut mit der Pocket gefilmt und in LUT Buddy plus kleine Farbkorrektur zur Deckung des Premiere Vectorscope gebracht und als eigene LUT abgespeichert. Keine Ahnung ob ich so völlig verkehrt bin aber mein Bühnenbild mit der Künstlerin (und meiner gebastelten LUT) sieht (auf einem justierten Flat) bei Ihr nach verdammt guter Hautfarbe aus... ;-)
Dieser Treffer kann natürlich ein Zufall sein, ich werde es in den nächsten Tagen weiter mit anderem Pocketmaterial ausprobieren.
Antwort von ruessel:
Vielleicht im dunklen Bereich etwas zu heftig?
Antwort von wp:
ja, vielleicht zu einen Ticken zu harsch - aber auch von den Schlagschatten abgesehen war das Licht auf der Breminale gestern etwas problematisch.
Das sind aber definitiv Fortschritte... warte mal ab, bis dir die Sonne gutes Licht wirft, dann rockt das richtig.
Antwort von domain:
So wie ich dich kenne Ruessel, sind dir gewisse Fortschritte zu wenig.
Ich habe vor einiger Zeit hervorragende Clips von Freezer mit der BMCC gesehen.
Ich frage mich schön langsam wozu ein Forum gut ist, wenn der eine so kämpft und der andere perfekte Bilder schon seit längerem zustande bringt.
Antwort von ruessel:
BMCC gesehen
Das ist eine völlig andere Kamera, daher stammen ja die fertigen LUTs, diese passen leider für die Pocket nicht wirklich. Und bitte beachten, mit ProRes 10 Bit in einer Kamera hatte ich vorher noch nie zutun....... Kinder entdecken die Welt!! Die ganze Pocket Farbgeschichte soll auch in Premiere stattfinden, ohne noch weitere Software zu bemühen, während andere noch in Ihrem Colorprogramm die Farben quälen - filme ich schon wieder ;-)
Ich muss mal schauen wie der WB Wert der Pocket da noch farblich eine Rolle spielt.
Antwort von domain:
Knapp daneben ist halt auch daneben, insbesondere wenn ich bedenke, mit welcher Akribie du schon div. PPs erstellt hast. Gibts denn in der Kamera selbst nichts diebezüglich zu justieren?
Wenn nein kann ich mir schon vorstellen, dass du mit dieser Herausforderung noch viele schöne Entdeckerstunden haben wirst, eigentlich die ideale Bastlerkamera, bekomme jetzt selbst beinahe schon einen Gusto darauf :-)
Aber doch irgendwie merkwürdig, dass sich die beiden Modelle von ein und demselben Hersteller so unterschiedlich verhalten.
Antwort von ruessel:
Gibts denn in der Kamera selbst nichts diebezüglich zu justieren?
Du darfst in sehr groben Schritten den WB Wert einstellen, das war es.....
Antwort von ruessel:
Aber doch irgendwie merkwürdig, dass sich die beiden Modelle von ein und demselben Hersteller so unterschiedlich verhalten.
Nein, Pocket nativen Sensor 1920x1080, BMCC 2432 x 1366, Production Camera 4K 3840 x 2160. Jeweils also ein völlig anderer Sensor.
Hersteller LUTs gibt es für BMCC + 4k
Antwort von CameraRick:
Hersteller LUTs gibt es für BMCC + 4k
Die für die 2,5K sind auch für die BMCC gedacht.
Habe nur einmal in einem anderweitig gedachtem Vergleich BMPCC und BMCC Material von selber Szenerie gehabt, da fand ich das Verhalten doch schon sehr ähnlich bis gleich
vielleicht weiß der Frank da mehr.
Antwort von Frank Glencairn:
Bei raw sind Pocket und 2.5k quasi identisch (bis auf die Auflösung natürlich) - bei Prores wird so einiges Eingebacken, was man dann nicht mehr so elegant anfassen kann wie bei raw - gut möglich daß es hier kleine Unterschiede zwischen 2.5k ProRes und Pocket ProRes gibt, aber weil ich fast ausschließlich raw drehe, ist das nicht so wirklich meine Baustelle, vor allem weil ich nicht in Premiere koloriere.
Antwort von Axel:
... und ich dachte, ich weiß nicht woher, die BMCC 2,5k mache in ProRes nur 1080?
Antwort von CameraRick:
... und ich dachte, ich weiß nicht woher, die BMCC 2,5k mache in ProRes nur 1080?
Kann sie auch nur. Ich denke, Frank meinte "Prores der 2,5K BMCC" und nicht wörtlich "2,5K Prores"
Antwort von Frank Glencairn:
genau
Antwort von ruessel:
Ich kann nur sagen, dass meine Pocket NICHT mit der 2,5K LUT wirklich funktioniert. Es ist leicht grünstichig und im Vectorscop sieht es recht bescheuert aus.
Noch etwas zum LUT Buddy, dieser funktioniert zum abspeichern NICHT in Premiere CS6 - da kommt reichlich blödsinn raus. In After effects jedoch funzt er super (das LUT speichern). Leider habe ich in AE kein Vectorscop (das extra TOOL mit dem einzigen Vectorscop sperrt andere Effekte).
Gestern habe ich in Da Vinci Lite gespielt - konnte aber nicht die Funktion LUT speichern finden (muss doch irgendwo sein), außerdem ist dort das Vectorscop etwas dürftig, es fehlt da die für mich wichtige "I" Linie.
Antwort von Frank Glencairn:
Die Linie kannste glaub ich in dem Vectorscope Fenster Menü ein und ausschalten.
LUT speichern = auf das thumbnail des clips rechtsklicken, ist dann irgendwo im dropdown menu.
Antwort von ruessel:
Dann muss ich mal schauen, habe es nicht gefunden... auch nicht die Zeit gehabt um die Anleitung zu studieren - wie immer ;-)
Ich benötige auch noch eine 200% Darstellung. Ich denke, ich muss so ein Hardwareteil mal in AE anschließen, dann gibt es auch eine Pocket LUT die gefällt.....
Was mit LUT Buddy aus AE kam, war schon recht ordentlich..... jedenfalls gab es keine Abweichung dazu in Premiere CS6.
Antwort von Frank Glencairn:
Ich arbeite auch mit externen scopes (pocketscope) - dann ist Resolve auch etwas geschmeidiger, wenn man die internen ausschaltet.
Antwort von ruessel:
Was für eine Ausgabehardware? SDI?
Antwort von Frank Glencairn:
Ja, SDI aus der Decklink
Antwort von CameraRick:
Ich kann nur sagen, dass meine Pocket NICHT mit der 2,5K LUT wirklich funktioniert. Es ist leicht grünstichig und im Vectorscop sieht es recht bescheuert aus.
Dann setzt Du eine Farbkorrektur davor und korrigierst etwas nach Magenta - durch die dürften WB Einstellungen ist es leicht, den WB gänzlich zu verzocken. Auch gerade weil man den G/M Tint ja gar nicht beeinflussen kann.
Antwort von ruessel:
Dann setzt Du eine Farbkorrektur davor
Nein, das ist alles gekräusel.... ich bin zeitlich noch nicht soweit, ich muss an meinen Schnittplatz noch eine Leitung für das waveform und Vectorscop legen - dann gehts da richtig ab ;-)
Ich habe dafür noch ein Tektronix mit "Diamont-Darstellung", muss da aber auch erst etwas Nachlesen....
Antwort von CameraRick:
Alle Messung setzt doch voraus, dass das Signal erst einmal korrekt ist. Und jede Konvertierung durch eine LUT zielt darauf ab, dass das Signal erst einmal korrekt ist.
Wenn da schon ein Tint drin ist, muss der raus; da Du keinen manuellen Weißabgleich machen kannst, die Stufen nicht sehr genau sind und dazu der Tint überhaupt nicht beeinflussbar ist, ist eine Pre-Korrektur eigentlich unerlässlich
Antwort von ruessel:
Ich mache es mit meinem DSC Farbchart, erst die Grautreppe in Ordnung bringen, dann die 6 Farben plus Hauttöne. In AE hatte ich es fast schon gut, aber aus Zeitgründen habe ich das eingestellt - die Feinarbeiten werden ohne echter Kontrolle so nix. Nächste Woche hoffe ich damit beginnen zu können.
Das Problem ist bei der Pocket die richtige Belichtung, ich werde den Weißpunkt des Testcharts etwas unter 100% Zebra stellen - ich hoffe das ist so korrekt. Wenn nicht, fange ich nochmal an - geht dann ja wesentlich schneller.
Aber wer weiß, vielleicht stelle ich mir das auch zu leicht vor ;-)
Antwort von WoWu:
Du kannst Dich sowieso auf den Luminanzbereich beschränken, denn was Anderes ändert Log ohnehin nicht, nur dass Du eben im mittleren und unteren Bereich mehr Werte hast aber die musst Du eben auf eine lineare Skala bringen.
Nur Du musst bei dem Messaufbau eben darauf achten, dass das reflektierten Licht auch stimmt.
Das ist bei diesen ganzen Tafeln immer das Hauptproblem und führt zu irrwitzigen Ergebnissen.
Die Farben kommen hinterher von ganz allein und brauchen eben dann nur noch die Korrektur, die Dein Messaufbau macht, z.B. das Objektiv oder Weisswert Korrekturen.
Antwort von CameraRick:
Es gibt auch eine dedizierte BMCCFilm to Linear LUT, falls man das braucht.
Ist eigentlich eher für die VFX gedacht, aber na ja.
Antwort von domain:
@ Ruessel
Mal gespannt bin ob du dein Vorhaben schaffst.
Hier ein anderes Beispiel, nämlich Original-SLOG2 Aufnahmen der A7S mit und ohne LUT-Korrektur.
Wie man sieht ist die LUT-Korrektur nicht schlecht, muss aber noch weiter bearbeitet werden. Sie ist komplexer als ich dachte.
Ganz unten mein eigener Versuch ohne LUT.
Es kam nicht nur eine Kontrastaufsteilung zum Zuge, sondern auch zusätzliche Farbsättigung und sogar ein Drehen des Blauvektors von 102 auf ca. 110 Grad, sonst erhielt ich falsche Blautöne.
Mit offizieller Lut-Korrektur
zum Bild http://img5.fotos-hochladen.net/uploads/lutkorrm50pyrhgz2.jpg
Original flaches SLOG2 aus diesem Video
Eigene Korrektur ohne LUT, erst hier gehen die Schatten bis 15 runter.
Alle Korrekturen sind in einem einzigen f(x) zusammengefasst und können projektübergreifend verwendet werden.
zum Bild http://img5.fotos-hochladen.net/uploads/selbstkorrsl6zaqg13j.jpg
Antwort von Reiner M:
Es kam nicht nur eine Kontrastaufsteilung zum Zuge, sondern auch zusätzliche Farbsättigung und sogar ein Drehen des Blauvektors von 112 auf ca.120 Grad, sonst erhielt ich falsche Blautöne.
Kein Wunder.
Schau doch einfach mit einem vorher/nachher-Vergleich einer Linearisierung via LUT ins Vektorskop und in die YC-Parade.
Du wirst feststellen, dass die Werte aller drei Kanäle (Y, Cb und Cr) verändert werden. Nicht nur die Helligkeitsverteilung in Y ändert sich, sondern auch die Verteilung der Farbsättigung.
Genau da steckt das Problem für die manuelle Lösung ohne passende LUT.
Mit einer Anpassung der Luminanzkurve (Y) allein ist das eben nicht zu lösen. Sonst wären wir hier schön längst fertig. ;)
Sättigung muss also mindestens rauf. Und es müssen zwangsläufig Farbbereiche nachjustiert werden, weil die Relation der Farbsättigungen zueinander nicht stimmen kann.
Das Ergebnis wird also von der Belichtung und vom Motiv maßgeblich bestimmt und nicht so ohne Weiteres auf andere Clips übertragbar sein.
Trotz aller Mühen bleibt jede manuelle Anpassung ohne Log2Lin-Konverter (auch LUT Buddy ist einer) bestenfalls eine optische/visuelle Annäherung im speziellen Motiv, weil die originalen Werte der Aufzeichnung ohne diese Werkzeuge nicht einmal annähernd korrekt entzerrt werden können.
Beste Grüße,
Reiner
Antwort von WoWu:
Die LOG Funktion ist ein Quantisierungstool.
Da hat man nichts weiter als die Helligkeitswerte des Sensors und die sind farbraumneutral.
Und was soll da die Phase "schieben".
Sowas passiert in der Regel durch billige Fiter in den NLEs oder irgendwelcher Hard- oder Software aber nicht durch logarithmische Quantisierung.
So ein Wandler ist eine reine "Zählmaschine", die am Signal nichts, aber auch gar nichts verändert.
Wo sollen denn da die Kausalität sein ?
Das ist so, als würdest Du sagen''' "das Auto fährt so langsam, weil es grün ist".
So ein Quatsch.
Antwort von Reiner M:
@WoWu,
wie wärs? Probiere es aus, wende nur Luminanzkorrektur an gemäß Deiner Vorgabe. Material hat ruessel genug zur Verfügung gestellt. Und zeige es hier via Screenshots.
Alle anderen haben es probiert und gezeigt, was machbar ist. Luminanzkorrektur allein führt zu nichts. Ist mehrfach abgehakt, denke ich. Nur bei Dir nicht. ;)
Aber bitte, zeige es. Toll wäre es, wenn Du das in Premiere Pro oder After Effects erledigst, denn dafür wird die Lösung ja gesucht. Wäre ja super, wenn es klappt!
Ich bin auf Deine Ergebnisse sehr gespannt.
Beste Grüße,
Reiner
PS.: Und wegen Quatsch: Denke einfach noch mal darüber nach, welche Folgen es für die Zahlenreihen hat, wenn logarithmisch gespeicherte Werte linearisiert werden oder auch nicht. Also richtig oder falsch interpretiert werden, und somit zwangsläufig zu richtigen oder falschen Farbdarstellungen führen.
Es beeinflusst die Farbigkeit des Bildes letztendlich erheblich. Das Vektorskop verrät es Dir ...
Ja, das könntest Du alles live selber prüfen. Müsstest nur mal endlich ein NLE benutzen ... ;)
Antwort von WoWu:
Red' doch nicht so einen Stuss, Rüssel will es doch gerade erst ausprobieren.
Kein Mensch hat hier bisher versucht das Offset zwischen linearen und logarithmischen Werten zu beseitigen, was so ein LUT eigentlich ist.
(Zeichnung)
Nur weil Du es mit Deinen Y'CbCr Werten nicht schaffst heisst das nicht, dass Quantisierung anders läuft.
Das heisst zunächst mal nur, dass in Deinen Verarbeitungsprozessen asynchrone Verarbeitung in den Filtern stattfindet, bei der Laufzeiten auftreten.
Schmeiss die Filter weg, wenn das passiert.
Antwort von Reiner M:
Wolfgang. Machs doch einfach mal.
Kannst Du es oder nicht?
Nebenbei könntest Du gleich mal im Vektorskop nachschauen, wie sich eine saubere Log2Lin-Konvertierung auswirkt. Bis dahin ist alles andere ziemlich inhaltsleer und fern der Praxis.
Nein, der Effekt ist nicht kaputt. Ich werde ihn nicht wegschmeissen, nur weil Du ihn nicht kennst oder nicht weißt, wie er funktioniert. Funktioniert nämlich super! Genau, wie er muss. ;)
Hier ist schon späte Nacht. Wünsch Dir noch einen schönen Abend,
Beste Grüße,
Reiner
Antwort von WoWu:
Die Frage ist ja nicht, ob man das verkurbelte Farbsignal hinwurschteln kann sondern welche approbaten Mittel verwendet werden sollten, um eine korrekte Reverse-Kurve zu erstellen.
Du verwechselst Ursache mit Wirkung.
ich hab von Anfang an gesagt, dass so ein Gedrehe an Farbwerten was für blutige Amateure ist.
Nun wirst Du nicht verlangen, dass ich den selben hirnrissigen Weg gehe.
Rüssel ist auf einem guten Weg, eine anständige Tabelle als Basis für eine LUT zu bauen.
Wenn er sich nun nicht von dem Pasenschiebegedöhns aus der Amateurliga beeinflussen lässt, wird es auch klappen.
Antwort von Reiner M:
Rüssel ist auf einem guten Weg, eine anständige Tabelle als Basis für eine LUT zu bauen.
Wenn er sich nun nicht von dem Pasenschiebegedöhns aus der Amateurliga beeinflussen lässt, wird es auch klappen.
Ja, meine Rede. ;) Wenn er eine korrekte LUT hinbekommt, wird es klappen, weil die sich bei der Anwendung auch wieder auf alle drei Kanäle korrekt auswirken wird. ;)
In meiner Antwort auf domain habe ich klar geschrieben, dass es keinen Sinn macht, irgendwas zu schieben, weil die Ergebnisse einfach nichts werden können. Bestenfalls optisch. Du brauchst die originale LUT oder musst eine schaffen, um den Log2Lin-Konverter einzusetzen. Aber egal.
Ansonsten ist Deine Wortwahl mal wieder ziemlich grenzwertig, finde ich. In meinen Augen ist das stillos und führt ganz allgemein eher nicht zu dem, was Du Dir womöglich davon erhoffst: Respekt. Eher im Gegenteil. Wäre doch schade. ;)
Beste Grüße,
Reiner
Antwort von WoWu:
Ach Reiner ... lieber etwas von der Wortwahl auf den Punkt gebracht, dafür aber inhaltlich substanziell als dies Gesäusel, dafür aber inhaltlich grenzwertig.
Das halte ich für zielgerichteter als dies gewurschtelt.
Es ist eben immer die Frage, ob Stil Inhalte ersetzen kann.
Ich denke nicht.
ich bin Pragmatiker und übe keine schöngeistige Wissenschaft aus.
Und wenn man Ansteure nicht mehr als solche bezeichnen darf und Quatsch nicht als solchen klassifizieren darf, dann stimmt auch irgendwas nicht in Deiner Beurteilung.
Und wenn uns beide lediglich der (geschmackliche) Stil unterscheidet, kann ich gut damit leben.
Ich befürchte aber, es gibt auch noch ein paar andere Differenzierungen.
Antwort von xteve:
Im neuen Davinci 11 gibt's ja jetzt die 3D Lut für die 4K. Genau die sieht am Pocket Material schonmal ziemlich amtlich aus finde ich.
Gruss aus Fernost,
Steve
Antwort von Axel:
Im neuen Davinci 11 gibt's ja jetzt die 3D Lut für die 4K. Genau die sieht am Pocket Material schonmal ziemlich amtlich aus finde ich.
Finde ich auch.
Allerdings gehöre ich zu den von WoWu verachteten Amateuren, schlimmer noch zu den Gesäusel-Verschwurblern.
Mein Verständnis: Wir reden hier von zweierlei Dingen. Der BMD Film-LUT (es gibt ihn neuerdings, auch in der 4k-Variante, serienmäßig in FCP X) appliziert eine Gammakurve und eine, wie auch immer geartete, die sich auf die Sättigung auswirkt. So, dass auf einem sRGB resp. rec_709-Monitor ("Fernseher") das Bild "normal" aussieht.
Dieser LUT verschiebt definitiv keine Farben, ändert also an einer falschen Darstellung der Farbtafel (Threadanfang, Vergleich mit Sony NEX) nix.
ruessel arbeitet nun an einer LUT, so wie ich es verstanden habe, um "die" Farben der Pocket denen der NEX anzugleichen.
Ich bin gespannt, aber ziemlich skeptisch, da ich sehe, wieviele Parameter - unter denen IR-Kontamination und ggfs. Gegenmaßnahmen und serienmäßig sehr ungenauer Weißabgleich nur zwei sind, "die" Farben der Pocket beeinflussen.
In einer Situation, die exakte Farben erfordert, ist daher offensichtlich Color Match mit entsprechender Farbkarte die Antwort. Mit Bordmitteln in einem NLE kommt man da wohl nicht zurecht.
Antwort von motiongroup:
vielleicht könnt ihr damit etwas anfangen...
http://www.oscars.org/science-technolog ... predictor/
Antwort von ruessel:
ruessel arbeitet nun an einer LUT, so wie ich es verstanden habe, um "die" Farben der Pocket denen der NEX anzugleichen.
Nein.
Nur die NEX 3 kommt den echten Farben schon sehr nahe, anders als am Anfang meine Pocket. Ich habe nun gelernt, das eine LUT der heilige Farbgral ist. Ich sehe das inzwischen auch so, auch wenn ich noch nicht verstehe, warum eine LUT nicht nur den Kontrast sondern auch massiv die Farben verändert.
Wie auch immer, ich habe gerade eine Testreihe mit der Pocket geschossen, ich werde aber wahrscheinlich nicht am WE dazu kommen diese auszuwerten. Ich muss auch noch Geld zum füllen meines Kühlschrankes verdienen.
Falls jemand LUT oder sonst was testen möchte, habe ich die Files schon einmal gezippt und hochgeladen:
http://www.digitalfx.de/LUT_exp.zip (136MB, stehen hier für einige Tage zum download bereit)
Was ist in der ZIP nun drin?
Aufbau: ein DSC Farbchart mit einer Grautreppe und den 6 Vectorscopfarben plus einer Hautfarbe für die "I" Linie, alle anderen Farben habe ich schwarz abgeklebt, diese verwirren auf dem Vectorscop nur. Beleuchtet habe ich den Chart mit Color Proof Lampen, diese haben einen Ra Wert von über 98 aber leider nur 5300 Kelvin.
Die Pocket besitzt nun leider keinen automatischen WB und auch die manuelle Kelvinzahl lässt nur 5000K und 5600K zu, dazwischen gibt es keine Änderung. Ich würde die LUT auf 5000K abstimmen und mit 5600K filmen, der Versatz von 300K (geeicht bei 5300K) dürfte dann das Bild der Pocket leicht wärmer machen, ein nicht ganz schlechter Nebeneffekt.
Die Pocket selber wurde von mir bei diesen Aufnahmen mit dem Speedbooster versehen und darauf ein Nikon DX 18-55.
Wenn man die Zip entpackt, sollte man 9 Dateien erhalten, 8 ProResHQ und ein JPG Bild.
1. das JPG Bild ist mit meiner D90 Nikon gemacht, selbes Objektiv, selber Abstand - evtl. als optische Referenz. Die Nikon steht im sRGB Modus.
2. die Szenen der Pocket sind so beschriftet: 100_5000K_800ASA.mov
Die erste Zahl bedeutet die Belichtung, 100 wurde also mit 100% Zebra belichtet (hellste Bildteile), danach folgt die Angabe der eingestellten Kelvinzahl in der Pocket (5000Kelvin + 5600Kelvin). Danach die ASA Zahl, meist 800ASA - ich habe aber für Kontrollzwecke auch noch je eine Aufnahme mit 400ASA und 200ASA - jeweils auch mit 100% Zebra belichtet.
Antwort von Frank Glencairn:
vielleicht könnt ihr damit etwas anfangen...
http://www.oscars.org/science-technolog ... predictor/
natürlich wieder nur für Apple - meh
Es gibt auch eine dedizierte BMCCFilm to Linear LUT, falls man das braucht.
Ist eigentlich eher für die VFX gedacht, aber na ja.
Ja, ist bei Resolve dabei.
Antwort von ruessel:
Mein erster Versuch, sieht im Vectorscop nicht ganz übel aus:
BMPCC LUT
http://www.digitalfx.de/100_5000K_800ASA.cube
Antwort von motiongroup:
Na ich möchte mich vielmals entschuldigen Frank......
Lasse es halt in einer vm auf deinem Androiden laufen...*ggg
Antwort von CameraRick:
Nebenbei könntest Du gleich mal im Vektorskop nachschauen, wie sich eine saubere Log2Lin-Konvertierung auswirkt.
Aber Du nutzt doch den Cineon-Konverter. Der bringt Cineon in linearen Space. Leider sind die BMD Cams nicht Cineon, sondern "BMDFilm", was die Linearisierung, die Du da machst, verfälscht.
Nimm lieber die von BMD gelieferte LUT zum Linearisieren (NICHT die REC.709 LUT, von der hier ansonsten immer geredet wurde), dann sind die Werte auch akkurat!
Antwort von Frank Glencairn:
Na ich möchte mich vielmals entschuldigen Frank......
Lasse es halt in einer vm auf deinem Androiden laufen...*ggg
:-)
Antwort von Reiner M:
Ich sehe das inzwischen auch so, auch wenn ich noch nicht verstehe, warum eine LUT nicht nur den Kontrast sondern auch massiv die Farben verändert.
Das liegt an der LUT und den eingesetzten Verfahren für die Umrechnung.
In einer 3D-LUT werden anders als in einer eindimensionalen LUT die Korrekturwerte für die Übertragung in den/einen Zielfarbraum abgebildet.
Eine 3D-LUT enthält die Korrekturwerte in einer Anordnung, die einem dreidimensionalen Gitter entspricht (Farbraummodell), wobei jede Achse eine RGB-Komponente beschreibt. Die Input-RGB-Tripel stellen den Index in den Gitterwürfel dar, die Werte in der LUT sind die Output-RGB-Tripel, die zu verwenden sind, mit denen die RGB-Tripel aufgefüllt werden.
Es findet also ganz nüchtern eine Transformation von einem Farbraum in einen anderen statt oder schlicht die nötige Korrektur von Farbwerten (ist ja RGB) innerhalb des selben Farbraums.
Durch die Umrechnung der RGB-Daten nach YCbCr sind die Auswirkungen in den YC-basierten Messgeräten zu sehen und funktionieren wie beschrieben.
Wenn diese nötige Transformation nicht erfolgt, oder falsch vorgenommen wird (beispielsweise nur auf der Grauskala; Luminanz), führt das zu falschen Farbverhältnissen bei Dateien, die eine 3D-LUT voraussetzen (das Vektorskop beweist es).
Von welchen Typ eine LUT ist, verrät z. T. das Suffix des Dateinamens oder ein Blick ins Tool. LUT Buddy zeigt es nach dem Import an.
I. d. R. liegen hier 3D-LUTs vor, so auch die BMC-LUTs.
Vielleicht begründet sich darin manch ein Missverständnis..
Du hast Deine *.cube direkt verlinkt. Klick einfach mal drauf, dann wirst Du drei Reihen Korrekturwerte als Text sehen (*.cube-Files sind letztendlich reine Textdateien), die den Achsen im 3G-Gitter entsprechen. Dass hier nicht 0-255 vorkommt, liegt am Speicherformat der Werte (hier: Bit-Tiefe 32bit Float, also Wertebereich 0.0 - 1.0). Es sind verschiedene Formate möglich.
Beste Grüße,
Reiner
Antwort von WoWu:
Du hast vergessen, dass die Lineare Umrechnung im Lumabereich von RGB (auch in der 3D Lut) stattfindet, nur mit der Ausnahme, dass das 3DLUT durch trilienaere Interpolation auch Werte erstellen kann, die ausserhalb des Farbraums liegen, also in einem andern Farbraum.
also aus 255 dann z.B. 170 in einem grösseren Farbraum errechnet und der Wert zwischen den drei RGB-Lumawerten stimmig ist.
Solche LUTs werden gern genommen, um aus Filmräumen (X,Y,Z) auf R'G'B' Monitoren zu sichten.
Ich kann mir nicht vorstellen, dass Rüssel hier den farbraum wechseln will und was sein Problem betrifft, arbeiten 3D Luts genauso wie 1D Luts. Nur dass sie zusätzlich noch andere Dinge machen und in Gänze umfangreicher sind.
@Rüssel
Du musst Dich aber vorsehen, wenn Du ein LUT Ergebnis mit dem Ergebnis aus andern Kameras vergleichen willst.
Ein LUT setzt nur die Werte auf Ausgangswerte zurück, die die Kamera liefern würde, wenn sie statt LOG, Lin machen würde.
Was dabei herauskommt, ist das Ergebnis der kamerainternen Bildverarbeitung, einschließlich des De-Bayering Prozesses, in dem die Farbgewichtungen stattfinden.
Du darfst also jetzt nicht Matschig (mit andern Kameras) mit der Reproduktion der Kamerawerte verwechseln.
Das sind zwei Schritte. Das eine ist eine Reproduktion und das zweite eine Interpretation.
Antwort von ruessel:
Also Freunde.... ich habe mir das nun mehrmals durchgelesen, so richtig schlau werde ich nicht daraus ;-) (ist denke ich auch nicht weiter schlimm, Colorist ist/war ein eigener Berufstand)
Ich ahne es vielleicht ein wenig, die Farbräume werden im 3D Raum (Würfel) verteilt und die Kontrast/Korrekturkurve da hinein gelegt... dadurch werden Helligkeit und der Farbwert geändert.
Wie gesagt, meine LUT sieht bei allen Aufnahmen (800ASA) vom Testbild o.k. aus, besser als alle anderen fertigen LUTs die ich in Lut-buddy eingeladen habe. Einzelne Farben könnten noch besser in der Stärke korrigiert werden, aber Bilder aus der freien Natur können nun als echter Test folgen.....
Antwort von WoWu:
Was mich einwenig wunder ist dass es von BMD kein amtliches LUT für die Kamera gibt.
Da muss ich IASI einwenig Recht geben. Der Support scheint nicht dolle zu sein. Sie bräuchten ja einfach nur die Werte (statisch) herausgeben. Aber auch an der Formel ist ja nix wirklich Geheimes.
Also das finde ich einwenig befremdlich, dass die Anwender da selbst Hand anlegen müssen.
Antwort von ruessel:
Ich habe keine offiziellen für die Pocket gefunden..... nur selbstgemachte in den bekannten Blogs.... mit eher bescheidenen Erfolg.
Antwort von WoWu:
Normalerweise finden sich ja auch Softwarefirmen, die solche Kameras mal kurz ausmessen und so ein Stück Software dann für ein paar $ auf ihrer Internetseite anbieten ... aber scheint ja auch nicht zu sein.
Woran liegt das ?
Antwort von ruessel:
Normalerweise finden sich ja auch Softwarefirmen, die solche Kameras mal kurz ausmessen und so ein Stück Software dann für ein paar $ auf ihrer Internetseite anbieten ... aber scheint ja auch nicht zu sein.
doch: http://www.colorgradingcentral.com/impulz (shooting with the Blackmagic Cinema 2.5K/Blackmagic Pocket Camera)
wenn ich mir aber die Demos anschaue, weiß ich warum ich da selber Hand anlegen muss.....
Antwort von WoWu:
:-) Kann ich verstehen. (Da ist aber auch ein LOOK mit drauf)
Mach doch mal 'ne Ordentliche Version und biet' sie auf Deiner WEB-Seite an.
Es scheint doch Bedarf zu geben und nicht jeder will die "graue Sosse".
Antwort von Frank Glencairn:
Was mich einwenig wunder ist dass es von BMD kein amtliches LUT für die Kamera gibt.
Gibts doch, und die ist bei Resolve dabei - ist die selbe wie für die BMC, weil die Colorscience des Pocket Sensors identisch ist, der ist nur kleiner und hat ne geringere Auflösung.
Antwort von WoWu:
Und wonach sucht Rüssel dann ?
Hmmm
Oder ist das "fest" mit Resolve verbunden und nicht frei in andern Programmen nutzbar ?
Antwort von CameraRick:
Ich habe keine offiziellen für die Pocket gefunden..... nur selbstgemachte in den bekannten Blogs.... mit eher bescheidenen Erfolg.
Ich sag doch die ganze Zeit, dass das die gleichen sind :/
Es gibt welche für REC709, oder eben in- und out LUTs für linearen Raum. Die LUTs kann man ohne Sorgen überall nutzen, wo es .cube Unterstützung gibt!
Vielleicht wird nach einer LUT gesucht, die schön ausschaut; aber vorher das Footage auch richtig anpassen, scheint weniger die Option zu sein.
Ich glaub der Rainer wirft hier zwei Dinge durcheinander - eine REC.709 LUT und einen Cineon Converter, was zwei total verschiedene Sachen sind.
Nehmt die BMDFilm to Linear LUT wenn ihr linear werden wollt, und Cineon Converter wenn ihr mit Cineon arbeitet. So komplex ists ja nicht :(
Sie bräuchten ja einfach nur die Werte (statisch) herausgeben. Aber auch an der Formel ist ja nix wirklich Geheimes.
LUTs geben sie ja aus, die Formel leider nicht. Plage mich seit Wochen mit dem The Foundry-Support rum, weil ich die Formel gerne hätte, um sie ins Nuke zu bringen :/
Antwort von Reiner M:
Du hast vergessen, dass die Lineare Umrechnung ..
Ja, ja, Wolfgang. Als "Experte" hättest Du m. E. sofort erkennen müssen, mit welchen LUTs wir hier hier arbeiten. ;) Oder? ;)
Trotzdem die Rückfrage: Wie ist das nun? Verändert sich die Farbigkeit der Bilder (Sättigung und ggf. sogar Winkel) durch den Einsatz dieser LUTs? Ja oder nein? ;)
Bisher hast Du das vehement bestritten. Bin gespannt ... ;)
... und was sein Problem betrifft, arbeiten 3D Luts genauso wie 1D Luts. Nur dass sie zusätzlich noch andere Dinge machen und in Gänze umfangreicher sind.
Das verstehe ich nicht. Arbeiten sie nun anders oder nicht?
Hättest Du Dich mal mit dem Material beschäftigt, dann hättest Du sehr schnell herausgefunden, dass es bei diesen Aufnahmen eben nicht genügt, allein die Helligkeitswerte zu entzerren. Das Problem klebt am Material der Aufnahme. Es erwartet und benötigt eine Korrektur mittels 3D-LUT im Farbraum.
Schaus Dir endlich einfach an. ;)
@ruessel,
Du bist auf dem richtigen Weg. Finde entweder die passende LUT oder passe eine sehr naheliegende an das Bild an, so gut es geht. Dann alles, was Helligkeiten und Farben betrifft. Das Ergebnis wird eine LUT sein, die Deine Änderungen innerhalb des Farbraums speichert. Sie wird Dir bei folgenden Aufnahmen beste Dienste erweisen - solange Du sie dann auch anwendest.
Beste Grüße,
Reiner
Antwort von CameraRick:
Ja, ja, Wolfgang. Als "Experte" hättest Du m. E. sofort erkennen müssen, mit welchen LUTs wir hier hier arbeiten. ;) Oder? ;)
Ich frage mich langsam, worüber Du eigentlich genau redest. Du wirfst die ganze Zeit die BMD LUTs und einen Cineon Konverter in einen Topf, die per se anders sind und dazu zum Teil nicht mal fürs Footage gedacht?
Antwort von Reiner M:
Ja, ja, Wolfgang. Als "Experte" hättest Du m. E. sofort erkennen müssen, mit welchen LUTs wir hier hier arbeiten. ;) Oder? ;)
Ich frage mich langsam, worüber Du eigentlich genau redest. Du wirfst die ganze Zeit die BMD LUTs und einen Cineon Konverter in einen Topf, die per se anders sind und dazu zum Teil nicht mal fürs Footage gedacht?
Ganz und gar nicht. Wenn ich über LUTs rede, ist Cineon-Konverte kein Thema. Der verwendet keine LUTs.
Der Cineon-Konverter diente als Beispiel für einen völlig anderen Lösungsweg.
Beste Grüße,
Reiner
Antwort von CameraRick:
Dann habe ich Dich missverstanden, dann will ich mich entschuldigen.
Den rechten Weg zu gehen, wenn man denn das Material wirklich linearisieren will (denn das macht diese LUT, um die es geht, ganz und gar nicht), ist aber sicher nicht verkehrt.
Ich kam nur drauf, weil Du schriebst:
Schau doch einfach mit einem vorher/nachher-Vergleich einer Linearisierung via LUT ins Vektorskop und in die YC-Parade.
Du wirst feststellen, dass die Werte aller drei Kanäle (Y, Cb und Cr) verändert werden. Nicht nur die Helligkeitsverteilung in Y ändert sich, sondern auch die Verteilung der Farbsättigung.
Ist nämlich total lustig, weil wenn Du BMD Material korrekt linearisierst, via korrekter LUT, gar nichts 3D verbogen wird. Die LUT weist jedem Farbkanal den gleichen Wert zu.
Antwort von Frank Glencairn:
Schau mal Wolfgang: http://3dlutcreator.com/
Antwort von Reiner M:
Dann habe ich Dich missverstanden, dann will ich mich entschuldigen.
Es gibt nichts zu entschuldigen. ;)
Den rechten Weg zu gehen, wenn man denn das Material wirklich linearisieren will (denn das macht diese LUT, um die es geht, ganz und gar nicht), ist aber sicher nicht verkehrt.
Da stimme ich Dir uneingeschränkt zu. Die verfügbaren LUTs passen nicht, sonst hätten wir die Diskussion ja nicht und ruessel nicht die Arbeit.
Ich kam nur drauf, weil Du schriebst:
Schau doch einfach mit einem vorher/nachher-Vergleich einer Linearisierung via LUT ins Vektorskop und in die YC-Parade.
Du wirst feststellen, dass die Werte aller drei Kanäle (Y, Cb und Cr) verändert werden. Nicht nur die Helligkeitsverteilung in Y ändert sich, sondern auch die Verteilung der Farbsättigung.
Ist nämlich total lustig, weil wenn Du BMD Material korrekt linearisierst, via korrekter LUT, gar nichts 3D verbogen wird. Die LUT weist jedem Farbkanal den gleichen Wert zu.
Das verstehe ich so, wie es da steht, nicht.
Allgemein: Die 3D-LUTs (das sind die DaVinci Resolve Cubes für BMCC auch) weisen den Kanälen in Summe nichts zu, oder habe ich Dich falsch verstanden?
Die LUTs weisen einzelnen RGB-Tripeln im Cube neue Werte zu. Also dem konkreten Input-Wert RGB 123/64/48 werden neue Output-Werte zugewiesen. Abhängig von den RGB-Farben einzelner Bildpixel werden im selben YC-Kanal die Veränderungen zwangsläufig unterschiedlich ausfallen. Es gibt ja nur 2 Chrominanzkanäle, in die ggf. mehrere Millionen RGB-Kombinationen münden. Immer vorausgesetzt, ein Pixel mit der geänderten RGB-Farbe kommt im Testmotiv überhaupt vor. Sonst sieht man natürlich keine Änderungen in den Meßgeräten.
Das wird dann auf allen Dateien so passieren, die mit dieser LUT linearisiert werden, ob sie zur LUT passen oder nicht.
Es werden doch haargenau die selben Algorithmen vom Tool verwendet und die LUT-Abarbeitung würde stur dafür sorgen, dass alle in der LUT beschriebenen Änderungen auch erfolgen. Natürlich sind die Ergebnisse im Endeffekt schlecht, wenn die LUT nicht passt.
Umgekehrt: Wenn nun eine LUT, angewendet auf bestimmtes Material, keine derartigen Änderungen zur Folge hat, sich also in den Cb-/Cr-Kanälen und im Vektorskop im vorher/nachher-Vergleich nichts tut, dann würde sie auch auf allen anderen Dateien dort nichts bewirken, oder doch?
Im Speziellen: Nun ist es aber so, dass die LUTs, die Du breitgestellt hast, zu Änderungen in allen drei YC-Kanälen führen, wie der Blick auf die Meßgeräte zeigt und wie es ruessel auch bestätigt hat.
Beste Grüße,
Reiner
Antwort von ruessel:
Was ich einfach nicht verstehe, warum motze ich nur alleine über die Pocketfarben bzw. warum ist jeder mit den BM2,5/4K LUTs zufrieden?
Stimmt was bei meinem Premiere Cs6 nicht? Meine Augen können es nicht sein, die Fehlanpassung ist ja deutlich im Vectorscop zu sehen.
Um noch genauer die LUT zu erzeugen, muss ich Zeit aufwenden um das richtige Tool in After effekts zu finden, das einzelne Farben vom Testchart am Vectorscop in Winkel und Stärke beeinflusst (Gelb Magenta). Nehme ich auf die schnelle ein normales RGB Farbtool, zerreißt es das Bild - das Bild bekommt schnell Artefakte.
Ich hoffe das Thema nächste Woche abschließen zu können, ist eigentlich kein großes Hexenwerk wenn man weiß wie es funktioniert - Dank Slashcam und seine unermüdlichen Helferlein habe ich es hoffentlich gelernt ;-)
(Vielleicht zu optimistisch? Noch ist nix fertig)
Antwort von Axel:
@ruessel
Ich bin wie gesagt sehr gespannt. Dein XH A1 "-3dB" war besser als das BBC-Farbprofil für die EX-3.
Was die Blackmagic-LUTs betrifft, so sollten die Farben in deinem NLE genao so aussehen, als würdest du in "REC" > "VIDEO" aufgenommen haben, d.h. "normale" Farben und exakt die gleichen, als würdest du ohne LUT den Kontrast anheben und die Sättigung erhöhen (subjektiv wurde keine Farbe verändert). Sollte das bei dir anders aussehen, läuft in der Tat etwas falsch.
Antwort von motiongroup:
Stimmt Axel, ist hier auch so und das kann er mit davinci gegentesten.
Antwort von ruessel:
d.h. "normale" Farben und exakt die gleichen, als würdest du ohne LUT den Kontrast anheben
Nein, ich habe da einen leichten Farbstich ins grüne..... In AE, PP mit Lut-Buddy.
Ich möchte mit der Pocket schnell arbeiten können und nicht erst Szene für Szene in DaVinci bearbeiten. (Vielleicht täusche ich mich und dort geht es auch Ruckzug)
Pocketszenen in Premiere blass schneiden, Einstellungsebene über alles, LUT-Buddy + Schärfe drauf und gut. Einzelne Szenen lassen sich dann immer noch bearbeiten, wenn notwendig. Ich mache doch keine Kinofilme oder Serienthriller...... Die Pocket macht im Filmmodus schon so schöne "organische" Aufnahmen, die brauchen doch keine Einstellungsorgie um zu wirken.
Ich möchte die pocket dahin bringen, wie jede Sony FS100 ab Werk schon ist, nur mit mehr Kontrastumfang, etwas besseren Farben und Detailauflösung - das ist eigentlich alles.
Antwort von Hypnotic:
Hallo Zusammen! Ich habe auch eine Pocket und möchte kurz neuen Input geben - In der neusten Resolve-Version ist das sogenannte Feature "Color Match" mit an Bord. Ihr nehmt z.B. den Color Checker von Xrite auf. Dann definiert ihr in Resolve, mit welcher Kamera und mit welcher Gammakurve ihr geschossen habt. Danach gebt ihr an in welchen Farbraum das Bild übertragen werden soll und Resolve gleicht das Bild dann z.B. dem Rec709 Farbraum an.
Habe das ganz kurz und dreckig getestet, das Ergebnis war um Längen besser als das mit der von BM zur Verfügung gestellten LUT.
Eine Idee für den AfterEffects & Premiere-Workflow: Könnte man nicht die Resolve Bearbeitung als LUT ausgeben? Dann erstellt man für verschiedene WB-Settings die einzelnen LUTs und kann die dann in Premiere / AE anwenden.
Antwort von ruessel:
Eine Idee für den AfterEffects & Premiere-Workflow: Könnte man nicht die Resolve Bearbeitung als LUT ausgeben? Dann erstellt man für verschiedene WB-Settings die einzelnen LUTs und kann die dann in Premiere / AE anwenden.
Ja, mache es und gebe sie mir.....
Im Anhang mal ein Beispiel wie es bei mir in Premiere CS6 ausschaut, siehe Anlage
Antwort von Frank Glencairn:
Pocketszenen in Premiere blass schneiden, Einstellungsebene über alles, LUT-Buddy + Schärfe drauf und gut. Einzelne Szenen lassen sich dann immer noch bearbeiten, wenn notwendig.
Genau so funktioniert das in Resolve.
Du kannst entweder gleich in Resolve schneiden oder dein Premiere Projekt nach Resolve exportieren (XML) und da die Farbe machen.
Der Zeitunterschied besteht im klicken auf "export XML" und "import XML" - du würdest also maximal 10 Sekunden verlieren.
Von der Zeit, die du bisher mit der Premiere only Lösung verschwendet hast, ganz zu schweigen ;-)
...und ja, irgendwas läuft mit der 709 LUT in Premiere extrem schief.
Warum nimmst du eigentlich nicht gleich im Video Mode auf, wenn du diesen Look willst?
Antwort von ruessel:
Von der Zeit, die du bisher mit der Premiere only Lösung verschwendet hast, ganz zu schweigen ;-)
Frank, Grundlagen....Grundlagen...... ich hatte vorher noch nie etwas mit LUTs zu tun. Kam die letzten 30 Jahre ohne sie aus..... nun ist es mit der Pocket völlig anders. (Solch geile Bilder habe ich noch nie in Video gesehen, (naja, FS100/FS700 gingen schon in die richtige Richtung)
Es hat sich gerade ein prof. Flame/Smoke Artist bei mir gemeldet - mit einem kleinen aber wichtigen Hinweis..... Danke, werde es demnächst testen.
Gibt es eigentlich einen LUT-Monitor? also evtl. ein Farbwürfel grafisch angezeigt in dem man Luts einladen kann und sieht was sie dort in 3D macht?
Antwort von ruessel:
Schau mal Wolfgang: http://3dlutcreator.com/
Ging hier unter.... COOL!! Ich probiere mal die Demo aus...... aber AE ist wirklich nicht schlecht um LUTs zu erstellen.
Antwort von ruessel:
die Demo von 3D LUT macht einen super Job, zumindest für Leute wie mich die keine Coloristenausbildung haben. Konnte sofort meinen Rotton direkt anpicken und reduzieren - das Vectorscop freut sich.....
Leider lässt sich nix abspeichern...... 99 Dollar muss ich in die Hand nehmen.
Antwort von ruessel:
Ich habe das Teil nun gestern bezahlt. Danke noch mal für diesen Tipp. Ich habe gemerkt wie schnell ich damit die einzelnen Farben gezielt verändern kann, das Raumgitter ist eine große Hilfe dabei - mit Reglern im Colorteil von AE ist es einfach schwieriger für mich.
Nur seltsam, das die Paypaladresse (Name) anders als die Webseite ist - soll ich doch zum ersten mal abgezockt worden sein? Mal schauen ob bis Montag die Software geliefert wird.
Zum Glück habe ich nun eine Zwangspause mit den LUTs, ich kann mich um andere wichtige Dinge kümmern....
Antwort von CameraRick:
Das verstehe ich so, wie es da steht, nicht.
Allgemein: Die 3D-LUTs (das sind die DaVinci Resolve Cubes für BMCC auch) weisen den Kanälen in Summe nichts zu, oder habe ich Dich falsch verstanden?
Die LUTs weisen einzelnen RGB-Tripeln im Cube neue Werte zu. Also dem konkreten Input-Wert RGB 123/64/48 werden neue Output-Werte zugewiesen. Abhängig von den RGB-Farben einzelner Bildpixel werden im selben YC-Kanal die Veränderungen zwangsläufig unterschiedlich ausfallen. Es gibt ja nur 2 Chrominanzkanäle, in die ggf. mehrere Millionen RGB-Kombinationen münden. Immer vorausgesetzt, ein Pixel mit der geänderten RGB-Farbe kommt im Testmotiv überhaupt vor. Sonst sieht man natürlich keine Änderungen in den Meßgeräten.
Ja, das machen LUTs. Aber wenn Du jedem Wert den gleichen für RGB zuweist, dann hast Du ja keinen 3D-Effekt. Jede .cube kann 3D sein, muss aber nicht. Und da kommen wir auch schon zum Irrtum...
Das wird dann auf allen Dateien so passieren, die mit dieser LUT linearisiert werden, ob sie zur LUT passen oder nicht.
Die LUT, um die es die ganze Zeit geht, linearisiert doch überhaupt nicht. Das ist eine REC709 LUT, keine Linearisirungs-LUT! Und wo die REC709 LUT schon an den Farben schraubt, ist die korrekte Linearisierungs-LUT da neutral, und weist jedem Wert, egal ob RG oder B, den selben Output zu.
In einem Linearisierungsprozess sind so Colorshifts sicher nicht so wild, ein lineares Bild braucht man ohnehin eher selten.
Aber so eine LUT, die auch sehr viel ändert, schreit nach einer korrekten Grundeinstellung. Klar, das Bild wird, egal was gefüttert wird, nach den Maßstäben der LUT angefasst. Nun kann eine 3D LUT aber auch nicht erwartungsgemäß funktionieren, wenn man das Grundmaterial "nicht richtig ist". Was ich meine ist, stell Dir vor die Blautöne werden gesondert angefasst. Nun ist aber durch fehlerhaften Weißabgleich zu viel, oder zu wenig in den Grundwerten, die angefasst werden. Damit kann die LUT nicht zum gewünschten Ergebnis kommen.
Und da kommen die unzulänglichkeiten der BMD Cams bei Prores raus: Du kannst den Weißabgleich nur sehr schwach, und den Tint gar nicht einstellen.
Die logische Schlussfolgerung ist also, vor der LUT eine kleine Grundkorrektur durchzuführen, um erst einmal alle "Fehler" der Aufnahme auszubügeln.
Was ich einfach nicht verstehe, warum motze ich nur alleine über die Pocketfarben bzw. warum ist jeder mit den BM2,5/4K LUTs zufrieden?
Ich glaube niemand ist so recht mit denen zufrieden, sondern die Leute graden statt einfach eine LUT drauf zu legen, und gut... :)
Antwort von domain:
Die LUT, um die es die ganze Zeit geht, linearisiert doch überhaupt nicht. Das ist eine REC709 LUT, keine Linearisirungs-LUT!.. :)
Wobei man aus meiner Sicht mal ganz besonders betonen sollte, dass eine Linearisierung überhaupt nicht zur Debatte steht. Das wäre ja genauso als wenn man die "Knee-Einstellungen" bei Profrikameras wieder rückgängig machen wollte.
Genau diese Linearisierung ist unerwünscht. Sie zeigt uns in den für das Auge eher unempfindlichen Lichtern mehr Details und Durchzeichnung.
Was da alles für Theorien existieren ohne den eigentlichen Sinn von logarithmischen Kurven verstanden zu haben ist ja abenteuerlich.
Antwort von CameraRick:
Das ist ja eine ganz andere Frage, aber wenn mir andauernd wer von "linearisierung" spricht um die es weder geht und im Bezug auf diese Kamera auch anders funktioniert, wie es erklärt wird.
In der VFX ist der lineare Raum eine sinnvolle Notwendigkeit, wenn die Mathematik denn richtig funktionieren soll; so an und für sich, sicher nicht erstrebenswert
Antwort von domain:
Was man heute so an logarithmisierten Bildern zu sehen bekommt ist ja die reinste Augenauswischerei. Ein Bild darf niemals wirklich flach und farbentleert aussehen, alles reines Marketing.
Immer muss es irgendwo „anstoßen“ sei es in den Schatten oder in den Lichtern. Niemals darf es sowohl in den Schatten als auch in den Lichtern einen nicht ausgenützten Bit-Abstand geben, aber genau so sieht es zwischenzeitlich aus.
Antwort von CameraRick:
Was man heute so an logarithmisierten Bildern zu sehen bekommt ist ja die reinste Augenauswischerei. Ein Bild darf niemals wirklich flach und farbentleert aussehen, alles reines Marketing.
Immer muss es irgendwo „anstoßen“ sei es in den Schatten oder in den Lichtern. Niemals darf es sowohl in den Schatten als auch in den Lichtern einen nicht ausgenützten Bit-Abstand geben, aber genau so sieht es zwischenzeitlich aus.
"heute" also, gut, dass es das bei gescanntem Film nie gab :o)
Antwort von domain:
Mathematik haben wir ja schon völlig ausreichend genug durch WoWu, der aber nichts allgemeinverständlich erklären kann.
Meiner Meinung nach sind die möglichst flachen und sonstwie verfälschten Originalaufnahmen ein bedeutendes Marketinginstrument,
je flacher desto besser ;-) = Modeerscheinung und als Gegenbewegung zu den knackigen Bildern z.B. eines Tieffliegers zu verstehen.
Läuft bei der Brillenmode ja derzeit auch so. Niemals hätte sich meine Frau gedacht, dass wieder große Fliege-Puck-Brillen modern würden. Und jetzt muss sie mich noch einige Jahre aushalten mit der zarten Panzersehschlitzbrille.
Antwort von CameraRick:
Dann hast Du LOG offenbar einfach nicht verstanden...
...und bleibst besser bei den knackingen Aufnahmen :)
Antwort von domain:
Und du bleibst besser bei deinen Log-Aufnahmen, von denen schon von jeher bekannt war, dass sie eigentlich nur Krücken im 8-Bit-Prozess sind.
Was anderes wurde übrigens auch nie von den Herstellern behauptet, nur natürlich in vergoldeter Schreibweise verfasst.
Antwort von WoWu:
Das Problem ist, dass sich vermutlich die Wenigsten, die mit solchen Kurven umgehen, überhaupt mal angeschaut haben, wofür sie eigentlich entwickelt worden sind.
Die "Mutter" aller Log Kurven ist C-LOG, das Kodak entwickelt hat, um Kameras mit Negativfilm ersetzen zu können.
Die Kurve beschreibt genau die Veränderung in der Kamera, die erforderlich ist, wenn das Material auf Film ausgelichtet wird, einschliesslich aller Durchlichteffekte bei der Projektion und Reflektionseffekte.
Bilder einer Filmkamera und einer E-Kamera sollten im Kino identisch aussehen.
Die Hersteller von digitale Projektoren haben diese Kurve als Ausgangspunkt genommen, um für Ihre Projektoren einsprechende LUTs zu erzeugen, die den Ausbelichtungseffekt zusätzlich simulieren, um optisch identische Ergebnisse zu erzielen.
Es gehören also immer zwei Komponenten dazu: Die Kamerakurve und die Präsentationskurve.
Die Meisten hier lassen einfach die zweite Hälfte der Kurve weg und sagen, es sei Kunst.
Das kann man natürlich auch machen, wenn man den Sinn von LOG Kurven nicht verstanden hat.
Antwort von CameraRick:
Ich weiß nun nicht wo Du mit Deinen 8bit her kommst, aber gut.
Mal Hand aufs Herz, Du sagst doch selbst, dass es Deiner Meinung nach nur Marketing sei. Das zeigt doch fehlendes Verständnis der Marterie ein wenig auf, oder meinst Du nicht?
LOG ist etabliert seit so langer Zeit, und ergibt so viel Sinn. Und nun bist Du der Meinung, das sei Marketing; egal ob wir Film "schon immer" so gescanned haben, aus gutem Grund!, oder nicht
Antwort von motiongroup:
Bilder einer Filmkamera und einer E-Kamera sollten im Kino identisch aussehen.
Die Hersteller von digitale Projektoren haben diese Kurve als Ausgangspunkt genommen, um für Ihre Projektoren einsprechende LUTs zu erzeugen, die den Ausbelichtungseffekt zusätzlich simulieren, um optisch identische Ergebnisse zu erzielen.
Es gehören also immer zwei Komponenten dazu: Die Kamerakurve und die Präsentationskurve.
Absolut zustimm....
Antwort von domain:
... wenn man den Sinn von LOG Kurven nicht verstanden hat.
Was gibt es da nicht zu verstehen? Eine sehr simple Angelegenheit.
Du reitest immer auf der korrigierenden gegengleichen LUT herum. Auch diese ist sehr einfach zu verstehen.
Also wo ist das Verständnisproblem dann eigentlich angesiedelt?
Antwort von WoWu:
Ganz einfach: In Deiner Denke gibt es keine zweite Hälfte der Kurve.
Auch verwechselst Du in deinem 8 Bit Beispiel die Veränderung eines bestehenden Datendatzes damit, dass in einer LOG Kurve einer Kamera aus grossen Wertemengen eines Sensors die in 8 Bit bereits fehlenden Werte in der Verteilung noch genutzt werden können.
Es ist ein Unterschied, ob ich aus 4096 Werten des Sensors 10% der Werte auf 30% der reduzierten Bandbreite des Zieldatenstroms verteile oder ob ich die 10% der Werte eines linearen Datenstroms lediglich Strecke. (In beiden Fällen hättest Du 30%)
Im ersten Fall aber habe ich 30% unterschiedliche Werte, also echte Graustufen des Sensors und im zweiten Fall habe ich keinen einzigen extra Wert und bekomme lediglich die 10% über 30% verteilt (Banding heisst hier das Zauberwort).
Du musst also schon genau hinschauen, was in jedem einzelnen Fall passiert.
Antwort von domain:
Ja klar, das hast du armer Kerl ja auch schon mindestens 5 mal hier zu erklären versucht.
Aber es ändert nichts an der Tastache, dass eine derartige Aufzeichnung zwar physiologisch wertvoll ist (unser Sinnesapparat funktioniert mal eben so) aber in Zukunft nicht mehr notwendig sein wird.
Aus der Sicht von 5 Jahren im voraus, wahrscheinlich nur mehr ein historisches Relikt.
Aber schön, dass wir derzeit so ausgiebig darüber diskutieren können, für die Forenteilnehmer muss es ja auch was Emotionales zu lesen geben.
Antwort von WoWu:
Tja, das ist Deine Meinung.
Mag ja sein, dass Dir all die zustimmen, die auch noch nicht begriffen haben, wozu die zweite Hälfte der Log Kurve gut ist.
Daran Zweifel ich gar nicht. Das sieht man ja an den, in der Zahl zunehmenden "Kunstwerken" im Netz.
Antwort von domain:
Also wenn man die zweite Hälfte der Sony Slog-Kurve der A7S ernst nehmen würde, dann ist man wirklich bedient.
So miserabel darf einfach keine entzerrende LUT sein, auf der man ev. ein weiteres Grading aufbauen möchte.
Für mich heißt das: vertraue keiner angelieferten LUT sondern prüfe sie selbst, da wird nämlich ein mords Schindluder betrieben, warum auch immer.
In dieser Angelegenheit schreibe ich ziemlich engagiert, weil ich mir diese Kamera selbst zulegen möchte, gehört aber nur im weiteren Sinne hierher.
Antwort von WoWu:
Das ist das, was Rick oben schon mal geschrieben hat.
Solche Kurven sind auch gar nicht dafür vorgesehen auf einem Monitor ohne die entsprechenden Kurven dargestellt zu werden.
Deswegen muss man auch zwischen LUTs und Reverse Kurven unterscheiden.
Machen hier die Meisten leider nicht und deswegen kommt es auch immer wieder zu solchen Missverständnissen und die Bilder sehen aus wie "Grütze".
Die Kurve ist ja für DCP gemacht, man muss also erst aus DCP wieder raus und dann nach 709. Dann sieht das auch bestens aus.
Das kommt davon, wenn man nicht mit den Kurven umgehen kann und gar nicht weiss, was sie eigentlich bedeuten sondern einfach drauf los kurbel.
Das Problem sitzt also 60 cm vor dem Monitor und nicht bei den Sony Entwicklern.
Antwort von dienstag_01:
WoWu, heisst das, man muss über DPX?
Antwort von WoWu:
Das kommt drauf an, was Dein Kino haben will. DPX bietet sich da an.
Antwort von dienstag_01:
Ich meinte, bevor ich Richtung 709 *abbiege*. ;)
Antwort von WoWu:
Da kannst Du abbieget, wie Du willst, kommt einwenig darauf an, was Du im Workflow benutzt und wie Deine HW da mitspielt. Bestimmtes File-Format brauchst Du da nicht.
Aber wenn Du da z.B. einen 10 Bit Monitor stehen hast, würde ich immer so dicht wie möglich am Zielfomat "abbiegen", wobei dann natürlich auch noch andere Alternativen denkbar wären.
Ich wollte hier auch eigentlich gar keine Kino-debatte vom Zaum brechen, nur aufzeigen, dass man mit Kurven "umgehen" muss und nicht einfach loskuppeln kann.
Kurven sind wie Werkzeuge. Wer nicht weiss, was man damit machen kann, soll sie nicht benutzen.
Antwort von dienstag_01:
Das *Abbiegen* bezog sich auf das Schaubild von dir. Und meine Frage geht in die Richtung, ob zwingend DPX nötig ist, da es VOR der Reverse Curve eingezeichnet ist.
Antwort von WoWu:
Na ja, das sollte zeigen, dass man vor der 709 Entzerrung erst mal aus S-LOG raus muss.
S-Log ist ja für DCP.
Hier versteht also der Projektor die Entzerrung und sorgt für korrekte Darstellung. DPX ist ja nur das Übergabeformat.
Antwort von CameraRick:
Aber es ändert nichts an der Tastache, dass eine derartige Aufzeichnung zwar physiologisch wertvoll ist (unser Sinnesapparat funktioniert mal eben so) aber in Zukunft nicht mehr notwendig sein wird.
In Zukunft wird so einiges anders sein, ändert nichts daran dass es heute durchaus Sinn ergibt. Wo genau, Deiner Meinung nach, ergibt denn LOG keinen Sinn? Weil nicht alle Werte ausgenutzt werden? Hast Du denn verstanden, wozu das gemacht wird?
Also wenn man die zweite Hälfte der Sony Slog-Kurve der A7S ernst nehmen würde, dann ist man wirklich bedient.
So miserabel darf einfach keine entzerrende LUT sein, auf der man ev. ein weiteres Grading aufbauen möchte.
Für mich heißt das: vertraue keiner angelieferten LUT sondern prüfe sie selbst, da wird nämlich ein mords Schindluder betrieben, warum auch immer.
Jetzt wirfst aber auch 8bit Grütze deiner Sony in dieses Thema ein, wo es bisher ausschließlich um 10bit ging.
Welche Kurve meinst Du denn genau, oder gibt es nur eine Kurve für SLog? Zeichnet die A7s nicht sogar SLog2 oder 3 auf? Ist ein Unterschied.
Eine LOG to REC709 LUT ist etwas, was ich ausschließlich zum Rechnen von Proxys verwenden würde. Dieses "drauf und schön" ist doch totaler Quatsch, dann kann ich auch direkt darin aufzeichnen. Und so oder so, eine solche LUT erwartet eben korrekt belichtetes und eingestelltes Material - sie macht immer das Selbe, diese LUT, und nur wenns richtig eingestellt war siehts kann es auch fürs Auge "schön" aussehen. Wenn nicht ist es zwar technisch korrekt, aber hässlich.
Anders ist das mit Linearisierungskurven, die erfüllen aber auch nicht den Zweck das Material so anzuschauen...
Antwort von ruessel:
Nur mal so zwischendurch, der LUT Creator ist vor einigen Minuten gekommen.... also doch kein beschi.... aus Russland.
Komme aber erst morgen dazu mich mit dem Teil zu beschäftigen.
Antwort von CameraRick:
Vergiss nicht, dass eine LUT nicht unbedingt ein Grading ersetzt.
Die Farben werden beim Verbiegen im LUT Creator nicht großartig anders oder "korrekter" als beim Verbiegen in Premiere oder DaVinci;
für "korrekte" Farben, die so schön/echt sind wie von Deiner Sony/Deiner Tafel, kriegst halt nur mit korrekter Belichtung/Einstellung (und im zweifel der Hilfe vom vielfac erwähnten Color Check)
Antwort von Anne Nerven:
Dieses Thema macht mich kirre.
Für mich bedeutete die Rec709-LUT, dass ich das Rohmaterial einer Kamera in diesem Farbraum mit dem entsprechenden Helligkeitsverlauf angezeigt bekomme. Auf Basis dieser LUT kann ich dann das Bild bearbeiten und verfärben, ohne Angst haben zu müssen, dass es die Farben für TVs gar nicht gibt und deshalb verfälscht dargestellt werden. Ich also nicht wild drauf los graden kann und mich dann wundern muss, warum es auf dem TV scheiße aussieht.
Wenn ich mir die 7 Seiten dieses Threads durchlese, zweifle ich aber langsam an dieser Methode. Kann mir jemand den korrekten Einsatz von LUTs für BMCC-Raw in Davinci aufzeigen. Wo muss mit welcher LUT entzerrt werden, bevor ich über welche LUT das Bild für TV beurteilen und danach graden kann?
Wie verfahre ich laut Wowus Schaubild mit BMCC-Raw? Wohin "raus" muss ich mit dem Log-Material, bevor ich die BMDFilm to Rec709-LUT anwende?
Wer kann helfen?
Antwort von TaoTao:
Hmm..Lut...erstmal schauen was das ist.
Lageunabhängiger Torpedo...
man ich hasse Abkürzungen..
Antwort von CameraRick:
Hmm..Lut...erstmal schauen was das ist.
Lageunabhängiger Torpedo...
man ich hasse Abkürzungen..
"Lookup Table"
Wie verfahre ich laut Wowus Schaubild mit BMCC-Raw?
Das musst Du ja erst einmal entwickeln; macht man ja gern auch mal dann zu BMDFilm. Und dann verhält es sich so wie BMDFilm es nun einmal tut, egal ob RAW oder Prores (nur, dass Du das RAW natürlich mehr quälen/"konfigurieren" kannst, ist klar)
Um das Material richtig beurteilen zu können, brauchst einen REC0709 fähigen/kalibrierten Monitor, das hilft schon einmal :)
Antwort von xteve:
Schau mal auf http://en.wikipedia.org/wiki/3D_LUT
Leider gibt's keine deutsche Fassung.
Eine Lookup Table lässt dein Digital Intermediate einfach nur korrekt auf dem Ausgabemedium erscheinen. So gibt's LUT's für HD rec709 (HDTV), digital cinema Projektoren und natürlich auch für Filmprints.
LUT's ersetzen ja das Grading nicht! Sie machen erst möglich.
Gruss Steve
Antwort von Anne Nerven:
Das musst Du ja erst einmal entwickeln; macht man ja gern auch mal dann zu BMDFilm.
Das ist diese geheimnisvolle Reverse-Kurve? In den Kamera Settings "BMDFilm" wählen? Aha.
Worin besteht eigentlich der Unterschied zwischen
Raw zu BMDFilm zu Rec709-LUT
und
Raw zu Rec709?
Um das Material richtig beurteilen zu können, brauchst einen REC0709 fähigen/kalibrierten Monitor, das hilft schon einmal :)Das ist mir klar, allerdings dachte ich nach 7 Seiten dieses Threads, da stecke erheblich mehr dahinter, als nur den Monitor zu kalibrieren. Denn eigentlich reicht es doch und man kann diesen ganzen LUT-Käse getrost vergessen. Was ich auf meinem 709-kalibrierten Monitor sehe, ist halt überall in 709 sichtbar, sofern das Endgerät nicht total verstellt ist. Wozu dann 7 Seiten über LUT und Look und Tralala? Alles nur Techniker-Posing?
Antwort von Anne Nerven:
Eine Lookup Table lässt dein Digital Intermediate einfach nur korrekt auf dem Ausgabemedium erscheinen...
LUT's ersetzen ja das Grading nicht! Sie machen erst möglich.Genau so verstehe ich es und schrieb das auch!?! Mit Ausnahme der Worte "Digital Intermediate".
Antwort von xteve:
In der Grading Suite werden die Vorschau-Monitore jeweils mit der dem Material/Monitor entsprechenden LUT versehen um zu graden(LUT dient hier nur als Vorschau für den Monitor) und den (später auf film) gewünschten Look zu erzeugen, damit bei der Ausbelichtung auf Film( Achtung hier kommt natürlich 'ne Kodak oder Fuji Film-LUT auf's Material) alles glatt läuft, und keine Zusatzkosten durch (was der Projektor zeigt sieht ja plötzlich ganz anders aus) entstehen.
Solange jemand in rec709 graded und das Material als rec709 für Broadcast rausrenderd ist das alles Wurscht! Da reichen Vektorskop und RGB Parade/Histogram vollkommen aus.
Allerdings ist es schon von Vorteil wenn man mit der entsprechenden LUT das Material "sieht wie es von Seiten Film/Sensor Hersteller eigentlich aussehen soll".
Gruss Steve
Antwort von CameraRick:
Das ist diese geheimnisvolle Reverse-Kurve? In den Kamera Settings "BMDFilm" wählen? Aha.
Ne, das ist ersteinmal die Entwicklung des Filmmaterials in einen bestimmten Farbraum; RAW ist ja erstmal "nichts"
Das ist mir klar, allerdings dachte ich nach 7 Seiten dieses Threads, da stecke erheblich mehr dahinter, als nur den Monitor zu kalibrieren. Denn eigentlich reicht es doch und man kann diesen ganzen LUT-Käse getrost vergessen. Was ich auf meinem 709-kalibrierten Monitor sehe, ist halt überall in 709 sichtbar, sofern das Endgerät nicht total verstellt ist. Wozu dann 7 Seiten über LUT und Look und Tralala? Alles nur Techniker-Posing?
Der Grundgedanke des Threads ist eben ein anderer. ruessel scheint einen Weg zu suchen, korrekte/richtige Farben "einfach" aus seiner Pocket zu kriegen. Da ist eine REC709 LUT, um den BMDFilm zu begegnen, ja erst einmal nicht der schlechteste Weg ist wenn man nicht groß graden will (sicher auch nicht der Beste, zugegeben).
Man kann, muss aber nicht mit so einer LUT arbeiten. Wer klick+fertig will, muss sich mit so etwas vermutlich mehr auseinander setzen, als jemand, der "richtig" graded.
Eine Lookup Table lässt dein Digital Intermediate einfach nur korrekt auf dem Ausgabemedium erscheinen. So gibt's LUT's für HD rec709 (HDTV), digital cinema Projektoren und natürlich auch für Filmprints.
Das ist eben der ursprüngliche Gedanke von LUTs, aber eben leider nicht mehr ausschließlich der einzige Gebrauch. Heute hast Du auch viele "Presets" damit verbunden, für die Faulen die denken es sei was besseres als etwa MB Looks oder so (und so einfach und so bunt).
Und man darf eben nicht die LUTs zur reinen Farbraum-Konvertierung vergessen, dies auch schon früher gab, die nicht einmal wirklich zum Durchschauen gedacht sind, wie die Linearisierung zB
Antwort von ruessel:
Der LUT Creator ist nun bei mir in Betrieb....... Habe gleich 3 Verbesserungen den Autor gemailt ;-) Ja, ich bin wirklich nicht schnell zufrieden....
Das Teil ist fast eine Offenbarung - wenn man weiß was man da macht. Da ich Hardwareseitig Vectorscop und Waveform daran laufen habe, ist das Einstellen fast ein Klacks.
Aber wie immer, kosten die Kleinigkeiten etwas Zeit, die ich im Moment nicht habe. Aber ich denke damit komme ich recht schnell an mein Ziel und noch weiter. Ich denke damit lassen sich auch schöne Looks erzeugen, ich habe noch ein paar Aufnahmen meiner Farbtafel auf chemischen Agfa und Kodak Film, daran könnte man sich orientieren und diesen analogen Look nachahmen.
Im Anhang ein Foto meines Vectorscop, das ist die BMPCC mit ihren 6+1 Farben. Etwas Arbeit muss ich noch bei den Hauttönen stecken, hier ist das Grid der Einstellung etwas zu grob gewesen..... aber für 2 Minuten Zeit nicht schlecht.
Antwort von ruessel:
Ich habe nun die Pocket LUT bei meinem Colortestchart noch exakter eingestellt, das geht recht schnell - nur das mitgelieferte Software Vectorscop ist unterirdisch schlecht in der Ablesung. Ich habe immer eine LUT Änderung in AE kontrolliert, hier sitzt über eine Matrox MXO2 Box ein Hardware Vectorscop dran.
Nun habe ich ein perfektes Bild mit der LUT, bei meinem 800ASA Beispiel bei 100% und 70% Belichtungsstärke, bei 30% zerreißt es fast schon den Codec. Ich denke hier müsste man den Schwarzwert ändern.
Enttäuschend ist aber die Anwendung dieser LUT auf echtes Pocketmaterial was ich auf der Straße gemacht habe, viel zu dunkel und viel zu farbig, der Himmel bei Gewitter bricht schon in Artefakte aus. Warum das so ist kann ich mir im Moment nicht erklären, vielleicht habe ich dort nicht mit 800 ASA gefilmt. Das wäre eine Erklärung, d.h. man benötigt für jede ASA Zahl eine eigene LUT weil die Mittentöne jeweils wo anders im Histogramm sitzen.
Es wäre aber kein Problem diese 200+400+1600 LUTs auf meinem System zu basteln. Ich benötige aber diverses Testmaterial von der Pocket, bei den diversen ASA Zahlen gefilmt - das ist nun der nächste Schritt. Leider bin ich mit ein paar anderen Sachen in Verzug, bei mir kann es also noch ca. 1 Woche dauern bis ich hier weiter "forschen" kann.
Antwort von CameraRick:
Darf ich mal ganz blöd fragen: erwartest Du, dass so eine LUT auf jedem Material genau das gewünschte Ergebnis bringt? Also, die Farben richtig getroffen werden etc?
Antwort von DeeZiD:
Habe mir inzwischen auch den X-rite Colorchecker (Passport) gegönnt. Aber irgendwie funktioniert das Zusammenspiel in Resolve nicht mal ansatzweise...
Auch die Trackingpunkte, die angezeigt werden müssten, fehlen vollends.
Antwort von CameraRick:
Habe mir inzwischen auch den X-rite Colorchecker (Passport) gegönnt. Aber irgendwie funktioniert das Zusammenspiel in Resolve nicht mal ansatzweise...
Auch die Trackingpunkte, die angezeigt werden müssten, fehlen vollends.
Du hast aber schon eine Maske gesetzt?
Im Viewer, wo bei Dir die Pipette ausgewählt ist, kannst die ColorChecker Maske anwählen und anbringen
Antwort von CameraRick:
Dann klappt's auch mit den Bildern :)
Antwort von DeeZiD:
Dann klappt's auch mit den Bildern :)
Danke, gerade rausgefunden.
Nettes Tool, um sein Handy mit der BMPC zu matchen. :D
Antwort von ruessel:
Darf ich mal ganz blöd fragen: erwartest Du, dass so eine LUT auf jedem Material genau das gewünschte Ergebnis bringt? Also, die Farben richtig getroffen werden etc?
Ganz klar JA.
Antwort von motiongroup:
Das kann aber nicht sein Wolfgang.
Würde nur dann funktionieren wenn du im 709er mode die Szene am kalibrierten Gerät(vektorscope usw.) einstellst und danach im flat mode aufzeichnest und danach via davinci die 709er drauflegst.. Beide sollten das gleiche Ergebnis bringen, es sei den das sich etwas am Set verändert hast und da genügt schon ne Wolke und eine andere Uhrzeit..
Du kannst ja eh bei deiner declink direkt rein gehen oder irre ich da..
Antwort von CameraRick:
Darf ich mal ganz blöd fragen: erwartest Du, dass so eine LUT auf jedem Material genau das gewünschte Ergebnis bringt? Also, die Farben richtig getroffen werden etc?
Ganz klar JA.
Aber das ist doch unmöglich!
Du baust grad auf einer generischen Aufnahme rum. Wenn Du so eine LUT willst, bräuchtest Du nicht eine für einzelne ASA Settings, sondern für verschiedene Weißabgleiche in verschiedenen Lichtsituationen :/
Da ist ja der Denkfehler, Du musst es eben pro Szene individuell machen, im Endeffekt, weil sich Licht, Weißabgleiche etc ändern (und Du manche Settings ja nicht einmal unternehmen kannst)
Wie soll denn das gehen? :/
Wenn Du wirklich immer die rechten Farben willst, dann halt einen Colorchecker vor jeder Aufnahme ins Bild; das ist schon das Einfachste, was Du da machen kannst :/
Antwort von ruessel:
Da ist ja der Denkfehler, Du musst es eben pro Szene individuell machen
Das würde aber eine LUT völlig überflüssig machen. Szene für Szene eine eigene LUT erstellen kann es doch nicht sein, wofür? Dann kann ich gleich normales grading mit Kontrast und Color machen.
Jeder normale Camcorder gibt ansehnliche Bilder wieder, egal welche Szene gerade wie Beleuchtet wird.
Antwort von CameraRick:
....weil eben eine LUT nicht dafür da ist. Bzw, es ist kein Klick+bunt, sondern braucht mehr Vorbereitung (Szenen aneinander anpassen, dass sie so greift, wie Du das chic findest)
Jeder normale Camcorder hat eben auch eine WB Automatik oder lässt sich hinreichend einstellen, diese Kameras nicht.
Das ist etwas dass wir seit Seite 1 versuchen, Dir dar zu legen - das sind keine Klick+Bunt Kameras, die brauchen Arbeit in der Post :/
Antwort von ruessel:
Sehe ich noch anders ;-)
Antwort von CameraRick:
Eine LUT ist doch nur eine (manchmal komplexe) Kurve. Wie soll die denn bei egal welchem Material alles richtig machen? :(
Man braucht immer die gleiche Ausgangslage. Daher funktioniert die REC709-LUT auch nicht mit jedem Shot gleich gut (oder gleich schlecht) :/
Antwort von ruessel:
Man braucht immer die gleiche Ausgangslage.
Genau. Was ist denn die "richtige Ausgangslage" ?? Richtig: die Belichtung des Sensors mit einer bestimmten Anzahl von Photonen (licht), geregelt über Blende und Shutter.
Bei der BMPCC ist es nun etwas anders, hier wird immer der hellste Punkt als 100% angenommen und je nach ASA Einstellung verschieben sich die darunter liegenden Lichtwerte im Histogramm - aber niemals der hellste Pixel. Also, daraus folgt, jede ASA Stufe benötigt ihre eigene LUT.
Antwort von domain:
Wenn man die Entwicklung von LOG-Kurven historisch (also ca. ab 2003) betrachtet, dann sind die Vorgängerversuche wohl Blackgamma, bzw. Blackstrech auf der einen und auf der anderen Seite die div. Knee-Einstellungen, alles damals natürlich bezogen auf eine 8-Bitcodierung.
Was war die Zielsetzung?
Es ging immer nur um die Erweiterung der sgn. „Latitude“ also um den erfassbaren und wiederzugebenden Belichtungsspielraum, um die Stops, von LUTs war noch gar keine Rede, der Begriff ist erst jüngst geläufig geworden.
Niemals aber ging es um eine Entzerrung, um eine Linearisierung der schon damals ziemlich verbiegbaren PP-Settings, sondern gerade immer nur um das Gegenteil: lass die Verbiegung so wirken, wie du sie schon in der Kamera eingestellt hast. Lass die Schatten härter (negatives Black Gamma) oder für ein späteres Grading weicher abgestuft erscheinen (positives Black Gamma).
Und genau so bei den Lichtern. Der Sinn einer flachen Aufzeichnung ist doch gerade, dass man dort vielleicht noch eine Durchzeichnung erkennen kann, ohne das Generalgamma der Mitteltöne dadurch stören zu müssen.
Also aus meiner Sicht ist eine Post-Linearisierung einer Log-Aufzeichnung, die ja soweit nicht von Blackstrech und Knee entfernt ist, ein ziemlicher Unfug. Die Log-Aufzeichnung speziell in den Lichtern entspricht ja genau unserer physiologisch eingeschränkten Wahrnehmungsfähigkeit.
Das bedeutet aber für uns kleine Amateure und Nichtvideodoktoren, dass ein sehr flach aufgenommenes und auch so auf dem Monitor erscheinendes Bild bei 8 Bit immer fragwürdig ist um nicht zu sagen ein Marketinggag der Hersteller.
Im Prinzip muss das Bild immer so ähnlich wie eine normale Aufnahme aussehen mit zwei möglichen Abweichungen. Entweder und wenn es einem wichtig ist, können die Schatten eine detaillierte Abstufung aufweisen, oder die Lichter eine undetailliertere aber mehr Blendenstufen umfassende.
Beides zugleich zu erreichen wird schwierig sein und mir wird immer schleierhafter, was die BMPPC ohne einkleidende LUT eigentlich abliefert.
Ist das eigentlich restlos geklärt?
Antwort von CameraRick:
Genau. Was ist denn die "richtige Ausgangslage" ?? Richtig: die Belichtung des Sensors mit einer bestimmten Anzahl von Photonen (licht), geregelt über Blende und Shutter.
Aber es geht nicht nur um Helligkeit, sondern auch Farben, also auch das Zusammenspiel von Weißabgleich, Lichtfarbe und Tint (den Du nicht beeinflussen kannst(!)).
Willst Du die Komponenten weg lassen, musst Du RAW filmen. Aber dann....
Bei der BMPCC ist es nun etwas anders, hier wird immer der hellste Punkt als 100% angenommen und je nach ASA Einstellung verschieben sich die darunter liegenden Lichtwerte im Histogramm - aber niemals der hellste Pixel. Also, daraus folgt, jede ASA Stufe benötigt ihre eigene LUT.
...ist die ASA auch egal, in RAW ist das nur ein Metawert.
Da Du aber beim Filmen von 200, 400 und 1600 eh nur Dynamik weg wirfst, weiß ich ohnehin nicht, wieso Du die nutzen willst (außer 1600 in der Nacht)
@domain
DPX gibt's seit '94, Cineon vielleicht sogar länger, weiß ich nicht. Seit man Film digital scanned (und das ist sicher nicht erst seit 2003 der Fall) gibts LUTs, vermutlich auch länger.
Das bedeutet aber für uns kleine Amateure und Nichtvideodoktoren, dass ein sehr flach aufgenommenes und auch so auf dem Monitor erscheinendes Bild bei 8 Bit immer fragwürdig ist um nicht zu sagen ein Marketinggag der Hersteller.
Warum denn nun wieder 8bit?
Beides zugleich zu erreichen wird schwierig sein und mir wird immer schleierhafter, was die BMPPC ohne einkleidende LUT eigentlich abliefert.
Ist das eigentlich restlos geklärt?
Ist eben BMDs Colourspace, BMDFilm. Der dürfte für die meisten genau so geklärt sein wie Cineon, SLog oder AlexaV3 LOG-C.
Linearisieren tun die meisten übrigens gar nicht, weiß nun nicht genau wie Du darauf kommst. Das hat die BMD LUT, die ich hier hochgeladen habe, auch gar nicht drauf. Kann aber gerne die Linearisierungs LUT bei tun.
//edit:
die Kurve von BMDFilm verläuft etwa weniger steil als Cineon, wenn Dir das hilft
Antwort von WoWu:
Ist das eigentlich restlos geklärt?
Das war ja mein Vorschlag eingangs, erst einmal festzustellen, was die Kamera eigentlich abliefert und Ruessel war da ja auf dem richtigen Weg.
Das kannst Du aber nur, wenn der Messaufbau definiert ist und damit auch mit einem einzuordnenden Ergebnis zu rechnen ist.
Das kannst Du auch nur mit den Luminanzwerten.
(Daraus leiten sich ja die Abstände zum Weisspunkt ab).
Fraglich ist sowieso, ob BMC da mit einer einfachen Log Kurve arbeitet oder mit einer LIN/LOG Kombination, auf den zwei Ausgangswerten des Sensors zurück zu führen denn die eigentliche Kameraempfindlichkeit ergibt sich bei dem Sensor aus Komparation dieser beiden Werte, sonst gäbe es keine "Black Sun".
Das würde auch erklären, warum verschiedene Ergebnisse bei unterschiedlichen ASA Einstellungen vorliegen.
Nur so etwas kann man nur sehen, wenn man einmal die Kamera ausmisst und feststellt, was sie eigentlich raus tut.
Antwort von domain:
Kürzlich ist der Begriff „Pixelfucking“ gefallen, der mir etwas sagt und dem offenbar schon viele verfallen sind.
Mit geschultem Auge nähern sich die Beurteilungsmethoden und -urteile jenen von professionellen Wein- oder Kaffeeverkostern an: aufnehmen, Luft durchzwitschern lassen, abkauen und dann profund urteilen: auf einem Kalkboden in der Nähe von Feigenbäumen gewachsen, Ananas, Erdbeere und Erdnuss im vordergründigen Geschmack, im Abgang ein zart nachhaltiges Cola-Aroma, einfach super, ziemlich sicher Jahrgang 2009 aus Frankreich.
Super, wenn im Chatau Petrus ein Petrus um min. € 800.- (neue Ernte pro Flasche) erzeugt wird, sowas steht unserem lieben WoWu sinngemäß ja auch zu.
Aber uns auch? Und wen interessiert überhaupt eine solche Qualität?
Antwort von Axel:
Und wen interessiert überhaupt eine solche Qualität?
Hier geht es nicht um Qualität, sondern um etwas sehr Praktisches: Ist es möglich, auf jeden von zig völlig unterschiedlich belichteten und unterschiedlich farbtemperierten Clips ein Preset anzuwenden, um daraus gewissermaßen Clips mit "Referenzfarben" zu machen?
Die Logik sagt nein, WoWu und ruessel sagen, klar doch.
Es geht, um in deinem Bilde zu bleiben, um einen irritierenden Fußschweißhauch, den der Verkoster vor Ort nie schmeckte, der aber, aus der Flasche kommend, retronasal eine jauchige Note anschlägt ...
Antwort von CameraRick:
So wie ich WoWu aber verstehe spricht er von einer technischen Seite, und ruessel von einer asthetischen.
Jetzt nimm einfach mal zwei "gleiche" Clips auf, einen setzt auf 3200K und den anderen auf 5600K, und erklär mir wie ein und die selbe Korrektur-Kurve zum selben Ergebnis (ästhetisch, nicht Korrektheit der Werte im Verhältnis zum Ausgangsmaterial) kommen sollen. Nur als Beispiel.
Eine LUT, die "schön" und nicht "technisch richtig" macht, ist nur so viel wert wie das Material, was rein kommt. Ist es "falsch", sieht das Ergebnis schnell "unschön" aus; auch wenns technisch "richtig" ist
Antwort von Anne Nerven:
Vielleicht werden einfach die Begriffe LUT und Preset vermischt. Nur dass das Preset hier in der Post eingesetzt wird. Farbe und Kontrast kann man doch auch an EX1 & Co anpassen/ändern. Das ist das, was mich jedenfalls hier an diesem Thread verwirrt. rüssel spricht von LUT aber entwickelt doch eigentlich ein Post Custom Preset für die Pocket. Für mich simuliert eine LUT ein Betrachtungsgerät, kein Aufnahmegerät.
Antwort von WoWu:
Es werden nicht nur Begriffe vermischt, sie werden auch noch falsch eingesetzt.
Jede Kamera hat, sofern man kein RAW entnimmt, eine eigene Farbabstimmung. Die wird nämlich durch unterschiedliche Gewichtung im De-Bayering festgelegt.
Die eine Firma hat etwas wärmere, die andere Firma etwas kältere Abstimmungen und Farbbewertungen. Die richten sich nämlich nach den Sensoreigenschaften und danach wie die farbliche Überlappung sowie die Grundfarben der Bayermaske sind, die wir alle nicht kennen.
Mit solchen Abstimmungen geht man normalerweise in der Farbkorrektur oder im Grading um.
Davor liegt aber eine individuell unterschiedliche Kennlinie der Übertragung. Darauf ist nichts in Richtung Farbe los sondern lediglich in der Zuordnung von Grauwerten in einem (oder zwei) technischen Algorithmen, die für alle Pixel identisch ist.
Die muss man auflösen, um überhaupt an das zu kommen, was sich der Kamerahersteller beim De-Bayering gedacht hat.
Hier wird aber versucht, mit einem farblichen Verbiegen von Werten, zwei Fliegen mit einer Klappe zu schlagen, ohne überhaupt zu wissen, wo die Fliegen eigentlich sitzen.
Und nochmal zur Erinnerung: Eine Reversekurve beinhaltet quasi durch unendlich viele Stützstellen eine absolut korrekte Rückwandlung einer Funktion.
Das passt haargenau, ohne Rundungsfehler und sonstige Unschärfen.
Eine LUT (in diesem Fall von 3D Creator) hat aber nur (hier) 20 Stützstellen, ist also relativ ungenau.
Wir haben es bei solchen Übertragungen mit drei unterschiedlichen Funktionen zu tun, von denen wir im Augenblick nicht mal wissen, ob hier nicht sogar zwei dieser Funktionen kombiniert worden sind. (Worauf einiges hindeutet).
Man kann jetzt natürlich noch ein paar Wochen versuchen, irgendwo eine Stützpunktanordnung zu finden, die einem gefällt oder man geht so vor, dass man die Übertragungsfunktion herausnimmt und gradet die Kamera dann, wie jede andere Kamera.
Dann passiert auch nicht, was Rick richtig entwendet, dass jede Szene bei einer festen LUT, die auf die Farbabstimmung zugreift, anders aussieht.
Das funktioniert mit einer LUT, die (in der 3D Creator Version) man gerade mal 20 Stützstellen hat ohnehin nicht, weil zwischen jeder einzelnen Stützstelle individuell interpoliert wird.
Man kann das sehr schön ausprobieren und mal versuchen, in dem Programm ein beliebiges Beispiel zu de-graden und dann manuell wieder -Punkt-für-Punkt- auf die linear Kurve zu ziehen.
Dann sieht man sehr schön, was bei solchen individuellen Interpolationen zwischen den Werten geschieht.
Also... warum zwei Fliegen, von denen man gar nicht weiss, wo sie sitzen, mit einer Klappe schlagen statt erst mal eine Fliege zu erledigen und sich dann der zweiten zu widmen.
@domain
Deinem spastischen Schwachsinn antworte ich gar nicht erst, der spricht für sich allein.
Antwort von domain:
@domain
Deinem spastischen Schwachsinn antworte ich gar nicht erst, der spricht für sich allein.
Das hast du sehr gut erkannt.
Aber ich habe auch seit langem erkannt, dass deine emotionale Intelligenz gegen Null tendiert, sonst wären solche und auch viele andere Aussagen von dir einfach unmöglich.
Musst wohl ein schweres jugendliches Trauma in der Fremde abarbeiten.
Antwort von WoWu:
Ja, ja, ist in Ordnung.
Solange das "Abarbeiten" bei 31 Grad am Pool stattfindet, nehme ich das "Trauma" gern hin.
Nur kein Neid.
Antwort von domain:
Reg dich nicht immer so auf wenn jemand mal nicht deiner Meinung ist, das ist kindisch, also nicht mehr kindlich.
Schade, dass du in deiner emotionalen Entwicklung etwas zurückgeblieben bist.
Antwort von WoWu:
Ich weiss gar nicht, was Du hast, ich gebe Dir doch Recht und sage, dass ich mit dem "Trauma" ganz prima leben kann.
Du musst mich also gar nicht bedauern :-)
Zum Thema zurück.
Ich habe mal für die, die sich hier wirklich für das Thema interessieren und einwenig über den Tellerrand eines Mitstreiters hinaussehen wollen, mal einen Aufsatz von Paul Debevec (University of California at Berkeley) rausgesucht, der genau diese Werterekonstruktion und das Ansprechverhalten von Kameras aus bestehenden Bildern thematisiert.
Der Aufsatz beinhaltet nicht die noch etwas genauere Methode durch abfotographieren einer bekannten Leuchtdichte, um dann die Pixel des Bildes mit dem gewonnenen Faktor zu skalieren, die ich oben schon angesprochen habe.
Das setzt aber, wie schon erwähnt, einwenig mehr Messaufwand voraus.
Nur das Prinzip wird auch so klar.
http://www.pauldebevec.com/Research/HDR ... raph97.pdf
Antwort von ruessel:
Jetzt nimm einfach mal zwei "gleiche" Clips auf, einen setzt auf 3200K und den anderen auf 5600K, und erklär mir wie ein und die selbe Korrektur-Kurve zum selben Ergebnis (ästhetisch, nicht Korrektheit der Werte im Verhältnis zum Ausgangsmaterial) kommen sollen. Nur als Beispiel.
Von Kunstlicht war bei mir gar nicht die rede.
Wie sieht die Filmpraxis bei mir aus? Ich besitze in meiner EX1R genau zwei PPs, einen für Tag und einen für LowLight wo dort die Gammakurve etwas milder verläuft. Desweiteren benutze ich drei Kelvinwerte fest, 5600K, 4300K und 3200K. Die 4300K habe ich wegen den Straßenlampen eingeführt. Damit komme ich zu 99% bestens klar.
Und genauso möchte ich meine Pocket benutzen. Ich müsste also mit 6 LUTs das gesamte Schema abdecken können. Es hindert ja keinen eine LUT zu benutzen und kleine Feinarbeiten anschließend noch weiter durchzuführen.
Schauen wir doch in Youtube oder anderen Videoportalen, die BMPCC Aufnahmen sehen zumeist farblich nicht besonders attraktiv aus, hier muss etwas passieren. ;-)
Antwort von Reiner M:
Und nochmal zur Erinnerung: Eine Reversekurve beinhaltet quasi durch unendlich viele Stützstellen eine absolut korrekte Rückwandlung einer Funktion.
Das passt haargenau, ohne Rundungsfehler und sonstige Unschärfen.
Wolfgang, wie erzeugst Du denn eine solche Kurve mit unendlich vielen Stützstellen? Das ginge nur durch die direkte Anwendung einer Funktion, nicht über Wertetabellen. Hardcoded im Programm. Was zwangsläufig zu Programmieraufwand führen würde,wenn man das Programm dafür mit der für das Quellmaterial dedizierten, bereits implementierten Funktion nicht besitzt. Also wie soll das gehen, praktisch? - Deshalb gibts doch LUTs ... ;)
Eine LUT (in diesem Fall von 3D Creator) hat aber nur (hier) 20 Stützstellen, ist also relativ ungenau.
...
Das funktioniert mit einer LUT, die (in der 3D Creator Version) man gerade mal 20 Stützstellen hat ohnehin nicht, weil zwischen jeder einzelnen Stützstelle individuell interpoliert wird.
Man kann das sehr schön ausprobieren ...
Das ist nicht richtig. Interpoliert wird zwar schon, aber ...
Eine LUT bietet der Wandlungsfunktion deutlich mehr Stützstellen, als Du glaubst. ;)
Die LUTs, die hier in diesem Thread ausgestauscht wurden, besitzen eine Samplesize von 33. Andere nutzen 16, 17, 32, 64, 128 Samples. Das wird bei der Erzeugung der LUT festgelegt.
Das meint: Ein Cube mit der Size 33 hat das Format 33x33x33, also 35.937 Zellen, "Stützstellen" wie Du es nennst.
Ich bastele mir meine 3D-Cubes mit einer Size von 64, also 64x64x64 = 262.144 "Stützstellen". In der .cube-Datei werden also 262.144 Wertetripel für R, G und B zu finden sein, also 786.432 Werte.
Durch die hohe Anzahl der Wertetripel, sowie durch die Nutzung von 32bit-Float-Werten und einer 32bit-Werte-Berechnung (sofern das NLE oder das nötige PlugIn das kann) reduzieren sich Interpolationsfehler in den nicht wahrnehmenbaren Bereich. Die sind garantiert nicht für signifikante Farbverschiebungen verantwortlich!
Richtig, Wolfgang: "Man kann das sehr schön ausprobieren ...", hast Du das mal gemacht? ;)
Auch richtig : man kann natürlich - mit geeigneten Werkzeugen - nur Y-Gamma und Gain korrigieren und das Ergebnis in einer LUT speichern. Dadurch bleiben die Farben CbCr unbeeindruckt.
Ich habe das selbstverständlich mit ruessels Dateien durchexerziert. Das Ergebnis ist ernüchternd, weil DIESES Material eine Farbkorrektur braucht (unter der Voraussetzung, dass die bereitgestellten Bilder der Sony und der Nikon als Referenz gelten sollen - was andres habe ich nicht.).
Die Farbkorrektur könnte man natürlich in der Post nach der Y-Gamma-LUT auch noch auf herkömmlichem Weg vornehmen, aber dann kann man sich in diesem Fall wohl den ganzen LUT Aufwand auch gleich schenken. Das individuell nachzuregeln ist dann im Verhältnis zur nötigen Farbanpassung kein Aufwand mehr.
Der Weg, den ruessel geht, ist m. E. schon richtig. Und da bin ich bei Dir: Er sollte sich nur auf wirklich sauber belichtete Charts konzentrieren. Also solche, wo bereits etwa 50% Luminanz bei der 18%-Graukarte erreicht werden. Es macht keinen Sinn, eine LUT auf fehlbelichtet Charts abzustimmen. Das Ergebnis würde auf jeder normalen "Alltagszene" angewendet sicher unbrauchbar ausfallen.
Beste Grüße,
Reiner
Antwort von ruessel:
Und da bin ich bei Dir: Er sollte sich nur auf wirklich sauber belichtete Charts konzentrieren.
Ich versuche noch lernfähig zu sein. Also, Butter bei die Fische.....
Wie soll ich in der Praxis genau vorgehen? Zur Zeit orientiere ich mich zuerst an der Grautreppe, das Weiß ist dort mit 100% Zebra belichtet und liegt mit der LUT im Waveform auf 100 IRE. Die Gamma Abstufung mache ich optisch zum Vergleichsfoto meiner NIKON D90 im sRGB Modus.
Danach kommen die 6 Vectorscopfarben plus dem Hautton für die "I" Linie dran. Mehr mache ich zur Zeit nicht. Wie gehts richtig?
Antwort von CameraRick:
Von Kunstlicht war bei mir gar nicht die rede.
Spricht doch keiner vom Licht.
Nur von der Aufnahme, weil Du ja leicht mal den Weißabgleich falsch einstellen kannst, weil die möglichen Abtufungen eben suboptimal sind, und ein Teilbereich eines kompletten Weißabgleichs nicht eingestellt werden kann
Du willst nun eine Hand voll LUTs, die jedes Szenario hinbiegen. Ich glaube, das ist einfach nicht drin, weil Du zu viele (unbeinflussbare) Variablen hast. Ich glaube, eine Colorchecker ist eher das richtige für Dich, der machts nämlich schnell und richtig. Ich glaube, jeder Clip braucht individuelles Behandeln, und nicht eine Sofortlösung aus dem Regal. Ich glaube, Du verschwendest da grad Deine Zeit und eiferst Dingen nach, die diese kleine Cam auf dem Weg, den Du einschlagen willst, nicht liefern kann.
Und ich würde nach wie vor von domain gern wissen, wieso er immer mit den 8bits um die Ecke kommt, die in der Unterhaltung hier nichts verloren haben?
Antwort von WoWu:
@ Rüssel
Ich versuche noch lernfähig zu sein. Also, Butter bei die Fische.....
Das hatte ich oben eigentlich schon erklärt. Du musst das Licht so setzen, dass Du definierte Werte an den Pixels erzeugst und über das Licht am WF-monitor die passenden Werte hast.
Danach variierst Du mit dem Timing die Bildhelligkeiten der unterschiedlichen Samples.
Antwort von Reiner M:
Also, Butter bei die Fische.....
Wenn Du magst, kannst Du ja mal diese LUT ausprobieren: http://www.stilkunst.de/videotemp/Reine ... _3DLUT.zip
(Donwload nur kurze Zeit möglich).
Die LUT funktioniert mit LUT Buddy (allerdings etwas träge), in Premiere Pro CC 2014 mit Lumetri (schnell), in Speedgrade, in After Effects über die Funktion "Effekte->Dienstprogramm->Farb-LUT anwenden".
Ich habe Dein 100_5000K_200ASA.mov als Grundlage genommen, weil es m. E. den mittleren Grauwert bereits sehr dicht an 50% Luminanz zeigt. Es soll ja eine LUT für ein "normal" belichtetes Bild entstehen.
Da wir davon ausgehen, dass dieses Chart den vollen Werteumfang der Grauskala zeigt (0-254, tut es aber nicht), habe ich dann die Grauwerte zwischen 0 und 254 eingepegelt, die Farbkänale zwischen 0 und 255.
Im Vergleich zum Nikon Bild war dann aber vor allem das Schwarz zu schwarz. (Das Nikon-Bild ist im Farbumfang übrigens auch nicht optimal). Als Anhaltspunkt habe ich deshalb die Kratzer auf den schwarzen Flächen gewählt, um das Schwarz einigemaßen zu justieren. Wahrscheinlich hätte ich es noch einen Tick anheben müssen. Das Weiß ist hingegen recht gut gelungen. Danach waren noch kleinere Anpassungen auch in den Farben nötig.
Die Blau-Gelb-Achse habe ich so gelassen. Sie ist auch im Nikon-Bild leicht versetzt, meine ich.
Unterm Strich im Wesentlichen neben Kleinkram: Korrektur Gama, Gain, und deftige Sättigungsanhebung der Farben.
Das Ergebnis kann alltagstauglich sein. Wie weit, weiß ich nicht. Habe diese Kamera nicht. Drann schrauben kann man immer noch.
Ich habe es an dem Material probiert, das Du breitgestellt hast. Wenn Dir das Bild zu Hell oder Dunkel erscheint, kannst Du selbstverständlich noch die Luminanz oder sonstwas Clip- und geschmacksspezifisch anpassen.
Wichtig für diese LUT: Wenn eine Aufnahme stark fehlbelichtet ist, solltest Du VOR der LUT-Anwendung im Effektstapel eine Luminanzkorrektur einbauen (zunächst nur einbauen). Dann die LUT drauf und dann erst an der Luminanz drehen, bis der mittlere Grauwert auf 50% steht.
Wenn das eingestellt ist, sollte die LUT womöglich auf viele Fälle passen (doch längst nicht auf alle).
Ob es Dir was nützt, weiß ich nicht.
Beste Grüße,
Reiner
Antwort von Reiner M:
Das hatte ich ...
... sicher kommen sehen.
Herzlichen Glückwunsch zum 10.000sten ...
Beste Grüße,
Reiner
Antwort von ruessel:
Wenn Du magst, kannst Du ja mal diese LUT ausprobieren:
Danke, habe sie gerade runtergeladen, komme aber erst morgen dazu mit zu spielen.
Antwort von Axel:
Wenn Du magst, kannst Du ja mal diese LUT ausprobieren: http://www.stilkunst.de/videotemp/Reine ... _3DLUT.zip
(Donwload nur kurze Zeit möglich).
Sieh einer an. Ein auf's Geratewohl herausgegriffenes Pocket-ProRes-Bild meines aktuellen *Hochzeitsfilms* (jawohl, die BMPCC ist hochzeitsfilmtauglich, aber sowas von, bin schon gespannt auf das dumme Gesicht der mit 1400 € verwöhnten Fotografin, die mir mit ihren #♰!@?♒︎⚔☹$☁︎! Blitzen alle schönen Momente versaut hat und die Stirn runzelte, wenn ich ihr und ihrer pansigen Nikon D800 im Wege war), das ziemlich ausgeglichen belichtet ist, sieht mit deinem LUT auf Anhieb besser aus als "BMD Film" (Orangestich*) und "BMD Film 4k" (dasselbe etwas flatter, die neuen integrierten FCP X - LUTs, die in Resolve auch so gelesen werden). Macht Hoffnung, dass ruessel Erfolg hat.
Die LUT funktioniert mit LUT Buddy (allerdings etwas träge), in Premiere Pro CC 2014 mit Lumetri (schnell), in Speedgrade, in After Effects über die Funktion "Effekte->Dienstprogramm->Farb-LUT anwenden".
... und in LUTutility.
*EDIT: Zum Orangestich. Die einen sehen 'nen Orangestich, die andern 'nen Grünstich, wieder andere 'ne Grünschwäche. Wat denn nu? Ich schätze, LUTs sehen überall gleich aus, aufgenommene Farben aber nicht. Hier: Zur Mittagszeit aufgenommene Gesichter bei 5600°K. Was auch möglich ist: Nicht kalibrierete Monitore. Laboriere z.Zt. noch am besser kalibrierten Decklink-HDMI-Monitor, bis dahin behelfe ich mir mit behelfsmäßig spyderkalibrierten Computermonitoren. Irgendwann, um's mit domain zu sagen, verwendet man Tafelwein nur noch zum Kochen.
Antwort von ruessel:
Das Ergebnis kann alltagstauglich sein. Wie weit, weiß ich nicht.
Ja, funktioniert relativ gut. Farblich muss aber noch dran gearbeitet werden, ist noch nicht für mich zufriedenstellend. siehe Anlage Vectorscopbild
*EDIT: Zum Orangestich. Die einen sehen 'nen Orangestich, die andern 'nen Grünstich, wieder andere 'ne Grünschwäche. Wat denn nu?
Deswegen hier mein Zwergenaufstand. Nur geeichte LUT (mit Tektronics) ist eine gute LUT ;-)
Ich bin aber zur Zeit völlig ausgebucht um hier nun Zeit zu investieren..... demnächst in diesem Theater auch gute Hauttöne.....
Antwort von Axel:
..... demnächst in diesem Theater auch gute Hauttöne.....
Geht in die Geschichte ein als längster Striptease aller Zeiten, entthront sogar BM-Ankündigungen. Einige liegen schon unter dem Tisch. Hey big spender ...
Antwort von ruessel:
Ja, ist ganz schlimm mit mir. Seit ich aber letztes Jahr tief in den menschlichen Abgrund geblickt habe, hat sich einiges bei mir geändert..... Zeit ist nun RELATIV ;-)
Antwort von Reiner M:
Ja, funktioniert relativ gut. Farblich muss aber noch dran gearbeitet werden, ist noch nicht für mich zufriedenstellend. siehe Anlage Vectorscopbild
Das war ja auch quick&dirty. ;)
Mein Ziel war es nicht, die "perfekte" LUT abzuliefern - da brauche ich auch bischen länger als 15 Minuten ... und besseres Basismaterial. ;)
Du wolltest "Butter bei die Fische" und hattest nach Vorgehen gefragt. Mein Beispiel sollte meine Tipps verdeutlichen, die da wären:
1. Du brauchst eine Aufnahme, die sauber belichtet ist. Das meint: der 18%-Grauwert der Graukarte sollte im unbearbeiteten Videofile in der Y-Wave bereits möglichst genau 50% Luminanz zeigen. Mache ggf. noch mal neue Belichtungsreihen und suche die beste Aufnahme für die Arbeiten an der LUT raus.
2. Der erste sinnvolle Schritt ist dann die Gamma-Anpassung im Y-Kanal. Dabei solltest Du darauf achten, dass der mittlere Grauwert immer auf 50% bleibt. Das zeigt Dir Dein Vektorskop nicht.
3. Dann erst gehts an die Farben. Wenn möglich, Cb-Gamma und Cr-Gamma getrennt justieren, ggf. eine Reverse, also ein S-Kurve drauf ausprobieren, um die Verteilung der Tonwerte anzupassen. (Kann man natürlich je nach Werkzeug auch anders machen).
Doch jede Änderung bedeutet für mich hier:
a) stets den mittleren Grauwert auf 50% halten,
b) bei den "Treppen" aller Grauwerte darauf achten, dass die Farben nicht auseinanderlaufen, sondern zusammengeführt bleiben oder werden. Eine weiße Stufe muss in der Wave weiß sein, nicht bunt gestreift. - Auch das zeigt Dir Dein Vektorskop nicht.
4. Wenn sich trotz aller Mühen die Farben nicht ideal ins Vektorskop einpassen lassen, würde ICH das gegen die Grauskala in der Wave nicht erzwingen. Die Folge wären zwangläufig Farbstiche. Dann ist die Charakteristik dieser Aufnahme halt so. Daher habe ich die Blau-Achse nicht angetastet. Das ist echt Mühe, weil dann die Grauwerte Tönung bekommen.* (Wobei ich allerdings mit Blick aufs Nikon-Bild denke, dass sich die Abweichung womöglich in der Aufnahmeesituation begründet, was ich aber nicht prüfen kann.)
Mein Tipp ist also schlicht: Behalte bei der Arbeit immer auch die Waves im Auge. Aber wem sage ich das ...
Umgekehrt habe ich dabei sicherlich zu wenig aufs Vektorskop geschaut. War aber auch nicht meine Absicht. ;)
Mein Beipiel sollte daneben auch zeigen, dass eine solche LUT dann tatsächlich nicht nur auf dem Videofile funktioniert, auf dem sie erzeugt wurde, sondern eben auf alle der selben Cam, solange nur die Belichtungswerte abweichen. Die kann man völlig einfach in der Post im Zusammenhang mit der LUT nachregeln. Deine übrigen Beispiel-Movs sollten damit ebenso korrigiert werden können, obwohl sich deren 18%-Grauwert z.T. jenseits von Gut und Böse befindet.
Bein Thema Farben wünsche ich Dir viel Erfolg.
Beste Grüße,
Reiner
Edit: *Tönung kann auch sinnvoll sein. Dann könnte man verschiedene LUT-Varianten anbieten, wie "warm", "neutral" und "kalt", was ja z.T. gemacht wird.
Antwort von ruessel:
Danke für die Info. Ich werde es versuchen, ich habe am LUT Creator ja Vectorscop + Waveform per HDMI dran. Sollte schon irgendwie klappen....mit neuem 18%/50-IRE Material.
Im Grunde braucht man eigentlich nur eine LUT, den WB Wert stelle ich in der Pocket ein - wenn auch etwas grob.
Wie wird es richtig gemacht: erst LUT auf das gefilmte Material und dann die Schwarz/Weißwerte exakt anpassen oder umgekehrt?
Antwort von Reiner M:
Wie weiter oben geschrieben fahre ich besser damit, die Luminanz/Helligkeitsanpassung in der Stapelfolge der Effekte VOR der LUT zu platzieren, aber erst einzupegeln, wenn die LUT schon drauf ist. Das ist absolut verlässlich.
Denn Die LUT ist ja auf 50% Luminanz "geeicht" und dieses Ergebnis soll sie schließlich zeigen, also Regelung in der Reihenfolge vor der LUT.
Dann kann man beispielsweise auch Aufnahmen, die mit Standard-Graukarten aufgenommen wurden, wunderbar leicht daran justieren.
Und dieses Vorgehen ist von dieser LUT übrigens unabhängig. Das würde ich zunächst in einem NLE bei Videos mit LUT immer so testen, um Belichtungsabweichungen auszugleichen.
Beste Grüße,
Reiner
Antwort von CameraRick:
Sieh einer an. Ein auf's Geratewohl herausgegriffenes Pocket-ProRes-Bild meines aktuellen *Hochzeitsfilms* (jawohl, die BMPCC ist hochzeitsfilmtauglich, aber sowas von, bin schon gespannt auf das dumme Gesicht der mit 1400 € verwöhnten Fotografin, die mir mit ihren #♰!@?♒︎⚔☹$☁︎! Blitzen alle schönen Momente versaut hat und die Stirn runzelte, wenn ich ihr und ihrer pansigen Nikon D800 im Wege war), das ziemlich ausgeglichen belichtet ist, sieht mit deinem LUT auf Anhieb besser aus als "BMD Film" (Orangestich*) und "BMD Film 4k" (dasselbe etwas flatter, die neuen integrierten FCP X - LUTs, die in Resolve auch so gelesen werden).
Auch mal die v2 versucht?
Ich glaube nicht, dass diese von BMD gegebenen LUTs wirklich dazu da sind, sie zum Graden auf die Art zu benutzen, wie das hier gewünscht ist. Da verwechselt ihr was. Aber klar, wenn man einfach eine LUT drauf werfen kann, statt das Material recht zu bearbeiten, ist natürlich einfacher.
Sogar noch einfacher als MB Looks, und noch weniger anpassbar :o)
Antwort von Axel:
Auch mal die v2 versucht?
Ja. Dachte einfach, das wäre in Resolve das, was FCP X "BMD 4k" nennt. In Wirklichkeit gucke ich mir diesen Kram gar nicht so genau an, weil das fertige Bild sowieso immer völlig anders wird. Ein LUT ist wie ein standardisierter Entwicklungsprozess, an dessen Ende ein Negativ als Ausgangspunkt steht. Dann beginnt der Spaß.
Antwort von WoWu:
@ Axel
Bei dem "standardisierten Entwicklungsprozess" verlierst Du aber eben genau das, was Dir RAW Formate bieten, nämlich genau auf die Parameter zuzugreifen, die Dir die wesentliche Einflussmöglichkeit auf das Bild geben.
Dann kannst Du ja gleich die Entwicklung der Kamera überlassen und 10 Bit 709 rausholen. Da sind die Prozesse sogar noch den kameraspezifischen Gegebenheiten angepasst, also deutlich besser als in "standardisierten Prozessen" ... oder sogar Schätzungen, wie in CinemaDNG.
Wo liegen also die Vorteile von standardisierten Prozessen ?
@Ruessel
Du must die 50% Luminanz mit dem Licht (oder der Blende) machen und nicht in irgend einem Einstellungsweg, also dafür sorgen, dass die werte am Sensor entstehen und nicht im Verarbeitungsweg.
Und der Weisspunkt ist das Verhältnis der Ladungsmengen zueinander bei einer bestimmten Lichtemperatur. Du kannst also auch mit jedem beliebigen Weisspunkt arbeiten, wenn Du ihn von der Lichtquelle kennst.
Das ist sonst wieder so ein Hingewurschtel auf irgendwelche erwarteten Ergebnisse.
Schau Dir mal an, wie so eine Kamera und das Signalprozessing funktioniert.
Und wenn Du bereits eine Kamera hast, bei denen Dir die Reproduktion Deines Darb Charts gefällt, dann mach doch daraus ein "FIT-Modell" , z.B. mit "ProfileMaker Pro" und bekommst daraus alle Korrekturwerte, die Du brauchst. dann hast Du eine einfachen Korrektur-LUT, so zu sagen als LOOK für das NLE.
Antwort von CameraRick:
Auch mal die v2 versucht?
Ja. Dachte einfach, das wäre in Resolve das, was FCP X "BMD 4k" nennt. In Wirklichkeit gucke ich mir diesen Kram gar nicht so genau an, weil das fertige Bild sowieso immer völlig anders wird. Ein LUT ist wie ein standardisierter Entwicklungsprozess, an dessen Ende ein Negativ als Ausgangspunkt steht. Dann beginnt der Spaß.
Weiß nicht, was FCP-X da so macht, wie Du weißt halte ich davon auch nicht so viel :)
Ich finde die 4K LUTs ja deutlich "sanfter" als die der BMCC, aber richtig chic ist das nicht. Warum auch, ich denke auch nicht so richtig, dass die dafür da sind; eben weil eine LUT nur "eine" Sache kann, und nicht so universal ist.
Wenn ihr wollt kann ich auch eine "Standard-Aufnahme" mit dem ColorChecker "bearbeiten" und das dann als Zauber-LUT, die auf jeden Fall rechte Farben macht, hochladen.
Antwort von Axel:
@ Axel
Bei dem "standardisierten Entwicklungsprozess" verlierst Du aber eben genau das, was Dir RAW Formate bieten, nämlich genau auf die Parameter zuzugreifen, die Dir die wesentliche Einflussmöglichkeit auf das Bild geben.
Es gibt Einflussmöglichkeiten, aber auch Unnötigkeiten. Und mit einem LUT verliere ich nicht die Einflussmöglichkeiten, es ist nur die Frage, ob ich jedesmal so tun soll, als wüsste ich ja gar nicht, wie das Bild "normal" aussehen könnte. Das finde ich unnötig.
Dann kannst Du ja gleich die Entwicklung der Kamera überlassen und 10 Bit 709 rausholen.
Unterhalb des LUTs sind alle aufgezeichneten Werte da, mit rec709 ist - ganz praktisch gesehen bei der Pocket, ohne je die Theorie dahinter erklären zu können,- nicht mehr viel da zum Nachbearbeiten. Selbst wenn ich also bloß okay und normal aussehendes Video erwarte, bin ich mit einem LUT flexibler.
Wo liegen also die Vorteile von standardisierten Prozessen ?
Zunächst Effizienz. Dann Orientierung an der Norm. Ist jetzt vielleicht ein bisschen philosophisch, aber letzten Endes bedeutet Originalität Ursprünglichkeit. Letztens wollte einer hier "surreale Farben" von der Pocket. Was er offensichtlich nicht meinte, sind völlig unrealistische Farben. Er wollte im Gegenteil, dass die Darstellung der Farben feiner und nuancierter ist als es eine normale Videoaufnahme schafft. Wenn (Threadanfang) leuchtendes Grasgrün nur als blasses Lindgrün zu haben ist, ist das kein guter Ausgangspunkt.
Antwort von WoWu:
@ Axel
Ich versteh' schon, nur die Pocket ist natürlich keine Pocket aus der analogen Welt und genau durch so ein "Hau-Ruck-Tool" wird sie natürlich dazu und verliert auf der gesamten Strecke aber auch die Vorzüge, die sie eigentlich hat.
Edit:
Verstehen kann ich den Ansatz schon und besser als das "rumgegrade" aus der grauen Sosse ist das auch.
Nur würde eine korrekte Handhabung solcher Kurven eben auch die Vorzüge solcher Kameras mit sich bringen, die bei dem "verbiegen" der Farben eben den Bach runter gehen und der Vorzug zur linearen Aufnahme nicht mehr zu erkenn ist, ganz im Gegenteil.
Jede lineare Aufnahme hätte da mehr Vorteile.
Antwort von tehaix:
1. Du brauchst eine Aufnahme, die sauber belichtet ist. Das meint: der 18%-Grauwert der Graukarte sollte im unbearbeiteten Videofile in der Y-Wave bereits möglichst genau 50% Luminanz zeigen. Mache ggf. noch mal neue Belichtungsreihen und suche die beste Aufnahme für die Arbeiten an der LUT raus.
Moin,
ich verfolge diesen Thread seit Anbeginn, da ich nach diversen Tests über den Kauf einer Pocket nachdenke und für manche Situationen eine LUT, wie sie hier diskutiert wird, sehr brauchbar wäre. Daher zunächst mal: Große Klasse, dass hier so viel darüber gesprochen und dran rumprobiert wird. Die schon mal aufgekommene Idee, am Ende das Resultat ins Netz zu stellen und für eine Spende zugänglich zu machen, kann ich daher nur unterstützen.
Aber eigentlich habe ich eine andere Frage, und die betrifft die Technik hinter der Belichtung. Inwiefern soll man auf 50% Luminanz belichten, und: Wie soll das gehen? Nach allem was ich bislang von Pocket-Usern gehört habe, wird entweder auf 95 oder 100 Prozent Zebra belichtet, der Rest dann in der Post hingebogen.
Oder bezieht sich das nur auf den hier angegangenen Versuchsaufbau? Belichtet eine Belichtungsautomatik einer DSLR die Graukarte auch "auf 50 Prozent"? Vielleicht bin ich auch verwirrt, weil Luminanz in meinem Kopf ein Candela nach sich zieht, aber ich vermute mal, das bezieht sich auf den Waveform-Monitor?
Sorry, Technik-Neuling zwischendurch..
Antwort von WoWu:
Das bezieht sich in der Tat auf auf den WF Monitor, der bei 18% Reflektion diesen Wert anzeigen sollte.
Aber das wiederum hat nichts mit der Erstellung der LUT zu tun, sondern das wäre erforderlich, wenn man ein Kameraprofil mittels Approximation erstellen will.
Antwort von Reiner M:
Aber das wiederum hat nichts mit der Erstellung der LUT zu tun, sondern das wäre erforderlich, wenn man ein Kameraprofil mittels Approximation erstellen will.
Das hat sehr viel mit der Erstellung der LUT zu tun.
Die LUT soll ja genau dafür Verwendung finden können: Justierung der Videos am mittleren Grau, z. B. anhand einer Standard-Graukarte, die sich während der Aufnahme im Motivbereich befindet.
Weil aber in jeder 3DLUT absolute Werte verwendet werden, keine relativen, kann die Erstellung der LUT nur dann erfolgreich sein, wenn es einen definierten Ankerpunkt gibt für alle nötigen Korrekturen von Gamma, Gain usw.. Und der ist nunmal 18% Grau bzw. 50% Luminanz.
Würde man eine fehlbelichtete Aufnahme als Basis für die Erstellung heranziehen, käme für die angedachten Zwecke nichts Gutes dabei raus.
Beste Grüße,
Reiner
Antwort von WoWu:
Das ist ja das, was CameraRick zurecht bemängelt, weil dann immer nur auf Graukarte gefilmt werden müsste und jede -auch noch so geringe- Abweichung den LUT nicht mehr funktionieren lässt.
In dem Fall würde ich eher die 100% als Ankerpunkt wählen, weil der wenigstens von der Kamera messtechnisch (mehr oder weniger genau) abgebildet wird.
Aber mach mal ... der Weg ist wahrscheinlich das Ziel.
Antwort von tehaix:
Weil aber in jeder 3DLUT absolute Werte verwendet werden, keine relativen, kann die Erstellung der LUT nur dann erfolgreich sein, wenn es einen definierten Ankerpunkt gibt für alle nötigen Korrekturen von Gamma, Gain usw.. Und der ist nunmal 18% Grau bzw. 50% Luminanz.
Würde man eine fehlbelichtete Aufnahme als Basis für die Erstellung heranziehen, käme für die angedachten Zwecke nichts Gutes dabei raus.
Beste Grüße,
Reiner
Ergo, eine "korrekt" belichtete Aufnahme besteht aus "50 Prozent Luminanz" bei einer Graukarte. Ich verstehe nur nicht, was genau das bedeutet. Die Kameraautomatik versucht, eine auf 18%iges Grau korrekt belichtete Aufnahme zu erstellen. Sind 50 % Luminanz dann das, was beim Sensor gemessen wird?
Antwort von Frank Glencairn:
Schau mal:
Antwort von WoWu:
Erklär doch mal, was Du daraus jetzt ableitest, ausser dass das Teil bei kleinen Blenden irrwitzig beugt. :-)
Antwort von Reiner M:
In dem Fall würde ich eher die 100% als Ankerpunkt wählen, weil der wenigstens von der Kamera messtechnisch (mehr oder weniger genau) abgebildet wird.
100%?
Damit würde ICH als Ankerpunkt bei der Erstellung der LUT auf keinen Fall arbeiten wollen!
1. Das würde doch a) jedes Clipping mit einschliessen, und b) könnte man die realen Differenzen zu allen anderen Grauwerten in der Aufnahme doch gar nicht mehr technisch ermitteln - Im LUT-Erstellungsprogramm.
Schau Dir mals ruessls gelieferte Beispiel-Movs an. Die meisten enthalten 100%-Werte, nur ist eben der 18%-Grauwert jeweils woanders. Wie bekommt man das nun normalisiert, in reale Verhältnisse gebracht?
2. Nehmen wir mal theoretisch an, es wäre auf 100% justiert. Wenn dann eine Aufnahme reinkommt, die 100% hat, wie bestimmtst Du dann die nötige Korrektur vor der LUT, damit das Gesamtergebnis respektabel wird?
Natürlich wäre jeder andere sinnvolle Ankerpunkt auch gut. Aber in der Praxis, empfiehlt sich die Graukarte auf 50% eingepegelt. Das ist doch ihr Sinn.
Ich denke, meine LUT macht das schon recht ordentlich, obwohl die Aufnahme, die ich zur Erstellung der LUT herangezogen habe, noch etwas genauer hätte ausfällen können, meine ich.
Jedenfalls tut sie, was sie soll: Sie korrigiert, und zwar recht respektabel, und zwar auch fehlbelichtete Aufnahmen.
Das zeigt schon, dass der Weg richtig ist, und ruessel mit dem nötigen Feintuning was Tolles hinbekommen wird.
Beste Grüße,
Reiner
Antwort von ruessel:
Ich wollte mich auch mal wieder dazu melden, nachdem ich meine Erkältung so einigermaßen überstanden habe (im Monat August mit dicker Nase im Bett zubringen - hatte ich noch nie), geht es in den nächsten Tagen mit diesem Thema bei mir weiter. Inzwischen ist auch die neue Firmware drauf, wer weiß ob da nicht auch an der Signalverarbeitung gearbeitet wurde - das wird nun auch berücksichtigt.
Um auch einen weiteren Vergleich zu haben, habe ich noch ein wenig Geld in einen weiteren Colorchart investiert..... alles wird gut ;-)
Antwort von WoWu:
@Rüssel
Moin Wolfgng
Hast Du eigentlich von der Software nocheas gehört, oder mal versucht eins seiner LUTs in eine NLE Timeline zu laden.
Das ist mir leider nicht gelungen. Ich befürchte, das sind nur teile für Grafikanwendungen und der Hersteller schont auf Anfragen nicht zu regieren oder spricht vielleicht ausser Russisch keine lebende Sprache.
Nette Oberfläche, also gutes UI aber ansonsten frage ich mich ob das für Videoanwendung wirklich brauchbar ist.
Wie sind denn Deine Erfahrungen ?
Antwort von ruessel:
Hast Du eigentlich von der Software nocheas gehört
Nein. Ich denke, ich bin mit meinen LUT Experimenten fertig.
Ich hoffe jetzt habe ich eine erste 800ASA LUT für die Pocket fertig, die mir gefällt. Allerdings habe ich die LUT für LUT Buddy nur an Testbildern von DSC Lab getestet..... egal ob unterbelichtet oder korrekt belichtet, die Farben stimmen exakt - besonders auch der Farbton für Hauttöne.
Siehe Anhangbilder mit Erklärung.
Antwort von ruessel:
Im Anhang nun den ersten Farbchart...... mit/ohne meiner LUT.
Ich habe den Chart nochmals kurz gefilmt, da ich nicht weiß ob mit der neuen Firmware auch an der Bildverarbeitung geändert wurde.
Antwort von ruessel:
Falls jemand meine LUT (Version 1.00) testen möchte, bitteschööön:
www.fxsupport.eu/temp/LUT.zip (63KB)
Nochmal Erklärt: Diese LUT ist für LUT Buddy in Premiere CS6 erstellt. Für BMPCC und ASA 800 ProRes Aufnahmen mit neuster Firmware.
Ich muss diese LUT auch erst noch an echtem Pocket 800 ASA Material testen..... also alles ohne wirklicher Gewähr ;-)
Sicherlich werde ich noch genauere 3D LUT erstellen, jetzt weiß ich ja wie es geht. Für echtes Tagellicht, für Kunstlicht und natürlich die anderen ASA Zahlen - falls erforderlich.
Antwort von ruessel:
Ach ja.... vielen Dank für die Geduld mit mir.... war wirklich eine schwere Geburt. Auch Dank an die vielen Tipps, besonders an Steve - dem Flame/Smoke Artist in Shanghai City. (was ist mit deiner Homepage los?)
Antwort von Axel:
@ruessel
Gratulation erstmal, dass du dein selbstgestecktes Ziel erreicht hast. Den LUT habe ich geladen und in Resolve und FCP X auf ProRes-Material angewendet, von dem ich weiß (Waveform), dass es ideal belichtet ist. Mit deinem LUT stauchen sich die Mitten direkt über den Tiefen, wodurch alles erheblich zu dunkel aussieht. Reiners LUT dagegen kommt dem nahe, was ich erwartet hatte.
Dennoch: Ein rasches Anpassen des Kontrastes, der Farbbalance und der Sättigung (kopierbar auf alle ähnlichen Clips), ohne LUT, führt in jedem Fall zu besseren Resultaten.
Antwort von ruessel:
Mit deinem LUT stauchen sich die Mitten direkt über den Tiefen, wodurch alles erheblich zu dunkel aussieht.
Wie geschrieben ist das Teil für LUT Buddy und wurde mit optimaler Beleuchtung und Testcharts angefertigt. Die Wirklichkeit kann abweichen, besonders wenn man auf die hellsten Bereiche im Bild belichtet - das gibt es im Testchart so nicht. Da muss ich aber erst selber neues Material zum testen filmen.
Ich habe gestern noch weitere LUTs für die diversen ASA Werte gemacht, sie sehen in ihrer Wirkung fast identisch aus, es reicht also im Prinzip nur eine LUT.
Antwort von Axel:
Mit deinem LUT stauchen sich die Mitten direkt über den Tiefen, wodurch alles erheblich zu dunkel aussieht.
Wie geschrieben ist das Teil für LUT Buddy und wurde mit optimaler Beleuchtung und Testcharts angefertigt. Die Wirklichkeit kann abweichen, besonders wenn man auf die hellsten Bereiche im Bild belichtet - das gibt es im Testchart so nicht.
Es würde mich überraschen, wenn LUT Buddy irgendwie auf seine Spezialart mit den cubes umgehen würde. Mit dem Histogramm werden nun tendenziell mehr Clips mit ETTC vorliegen, aber die "offiziellen" LUTs dunkeln die bisherigen Clips ja auch nicht ab.
Antwort von ruessel:
Guter Einwand.....
Ich werde einfach mehr Tests in der echten Welt vornehmen müssen.
Antwort von ruessel:
Habe nun bei bedeckten Wetter mit Speedbooster und Nikonglas einige Szenen aufgenommen und anschließend in PP6 mit Lut Buddy bearbeitet. Meine erstellte LUT arbeitet anscheinend völlig korrekt, sehr Filmähnlicher Look, keine Kontrastausreisser - kein Dynamikverlust.
Antwort von ruessel:
Achtung, ich stelle gerade fest, das meine alten Pocket Archivaufnahmen mit der LUT auch zu dunkel werden!
Entweder ich belichte seit kurzen völlig anders oder in der neuen Firmware 1.93 steckte mehr drin......
Antwort von Axel:
Habe nun bei bedeckten Wetter mit Speedbooster und Nikonglas einige Szenen aufgenommen und anschließend in PP6 mit Lut Buddy bearbeitet. Meine erstellte LUT arbeitet anscheinend völlig korrekt, sehr Filmähnlicher Look, keine Kontrastausreisser - kein Dynamikverlust.
Ja, interessant. Bei einigen meiner ersten Aufnahmen belichtete ich tatsächlich in ProRes ETTR. Beim Gartenbild hast du ja offensichtlich ebenfalls sehr hoch belichtet. Ich stellte fest, dass ich mir das mit der Zeit immer mehr abgewöhnte und eigentlich intuitiv, nur nach Gefühl, ETTC belichtete. Die alten Aufnahmen sehen, das muss ich zugeben, sehr gut aus mit deinem LUT
Allerdings entbehrt das der Logik. Es ist, wie gesagt, sehr wahrscheinlich, dass mit dem nun verfügbaren Histogramm die Leute versuchen werden, eine gleichmäßigere Werteverteilung zu erreichen und lediglich auch links nicht clippen zu lassen. Das würde auf einmal zu sehr vielen deutlich dunkleren Clips führen.
Antwort von ruessel:
meine Erfahrung bis heute ist, immer mittig/rechts am Histogramm zu belichten (mit etwas Reserve rechts) - ansonsten gibt es massives Bildgrieseln nach dem "Entwickeln".
Antwort von nhig:
@CameraRick
kannst du das "kalibrieren" der BMPCC/BMPCC (weiß jetzt nicht genau welche du hattest) mit dem ColorChecker empfehlen?
Bin schüler und suche nach einem günstigen weg die teilweise merkwürdigen Farben einfach zu korrigieren.
Antwort von xteve:
Ach ja.... vielen Dank für die Geduld mit mir.... war wirklich eine schwere Geburt. Auch Dank an die vielen Tipps, besonders an Steve - dem Flame/Smoke Artist in Shanghai City. (was ist mit deiner Homepage los?)
Keine Ursache.
Mein projekt blog hat dieser tage 'ne neue domain bekommen. (xteve.net)
Gruss aus Shanghai (Anting New Town)
Antwort von CameraRick:
@CameraRick
kannst du das "kalibrieren" der BMPCC/BMPCC (weiß jetzt nicht genau welche du hattest) mit dem ColorChecker empfehlen?
Bin schüler und suche nach einem günstigen weg die teilweise merkwürdigen Farben einfach zu korrigieren.
Es bedeuted etwas mehr Aufwand (da man ja zu jeden Clip die entsprechende Aufnahme raussuchen muss), man muss durch DaVinci gehen und alles in allem kostet es eben auch mal schlappe 70€, wenn das Günstig genug ist. Dazu kommt es mir so vor als ob das Ganze mit Cams, die einen suboptimalen Codec aufzeichnen, auch weniger Spaß macht.
@ruessel
Ich hab mir Deine LUT auch mal installiert. Nun siehts subjektiv nicht schlecht aus, nur habe ich das Gefühl, dass alles viel zu dunkel wird. Ich kenne das von LOG eigentlich anders rum
Antwort von Axel:
@ruessel
Ich hab mir Deine LUT auch mal installiert. Nun siehts subjektiv nicht schlecht aus, nur habe ich das Gefühl, dass alles viel zu dunkel wird. Ich kenne das von LOG eigentlich anders rum
Ich nicht. Durch Kontrastverstärkung sind die flauen LOG-Bilder bei mir schon subjektiv etwas dunkler. Ich kenne mich mit LUTs und wie man sie erstellt nicht aus, aber im Endeffekt hat ruessel das Gamma verändert, was die anderen LUTs nicht tun (Scopes). Wie wir spätestens seit Resolve wissen, gibt es sowohl ein "Y only" als auch ein "Luminanz erhalten". Das Anpassen der Farben darf auf die Helligkeit gar keinen Einfluss haben.
Antwort von ruessel:
Ich muss noch weiter testen, aber....... eigentlich funktioniert alles einwandfrei bei mir, die Originalframes aus meiner Pocket sind hell - um ein stimmiges Bild zu erhalten, muss eine LUT es dunkler machen. Die LUT funktioniert ja sogar wenn ich mit meiner Olympus MFT Optik mit Autoiris arbeite. Ich weiß ja nicht wie ihr belichtet...... da wird wohl ein Unterschied zu mir sein.
Antwort von cantsin:
Ich muss bei Deiner LUT auch Gain und Gamma nach oben ziehen, um richtig belichtete Bilder zu kriegen - obwohl das Material schon nach dem ETTR-Prinzip belichtet wurde.
Die Ergebnisse sehen wirklich prima aus, mit natürlichen Farben und auch guten Hauttönen. Nur ein Detail fällt mir auf: Bei meinen Aufnahmen 'übersteuert' Magenta mit Deiner LUT und wird zu grell. Siehe den angehängten Frame (direkt aus Resolve gerendert).
Antwort von ruessel:
Bei meinen Aufnahmen 'übersteuert' Magenta mit Deiner LUT und wird zu grell.
Ich kann da keine Übersteuerung erkennen, ich schaue aber nochmal - eine neue LUT ist recht schnell gemacht, bei mir ist noch alles dazu aufgebaut. Wie geschrieben, hier wurden die Farben nach dem teuren Testchart von DSC Lab justiert - immer LUT Buddy als Ziel.
Ich selber nutze inzwischen eine leicht modifizierte LUT, diese wurde mit einem ND Filter & IR Sperrfilter (Heliopan 103) justiert - das ist bei mir eigentlich eher die Praxis.
Ich habe gestern einige neue Aufnahmen gemacht, werde sie nachher auswerten - hier liegen Bildteile im Schatten, andere Bildteile völlig in der prallen Sonne..... mal sehen wie die LUT damit klar kommt.
Antwort von ruessel:
Ich muss bei Deiner LUT auch Gain und Gamma nach oben ziehen, um richtig belichtete Bilder zu kriegen
Das verstehe ich nicht, bei mir stimmen diese Werte perfekt......
Antwort von ruessel:
So, Problem erkannt. Siehe Anhänge....
Muss nun kräftig nachdenken um das Problem in der Praxis richtig sauber lösen zu können.
Bei den Aufnahmen habe ich ein 99 Euro Objektiv benutzt, eigentlich gar nicht so schlecht, oder?
Ich habe die LUT aus dem Download genommen....
Antwort von ruessel:
Das wird eine harte Nuss, wie soll ich 1024 Helligkeitsdaten in 256 Stufen verteilen? Muss wohl eine weitere Kurve definieren.....
Antwort von domain:
Wenn man mehrere LUTs für ein und dieselbe Kamera braucht, dann kann man sie ohnehin vergessen.
Das Problem scheint meiner Meinung nach in unterschiedlichen Belichtungsphilosophien zu liegen: die einen belichten von den maximalen Lichtern abwärts, die anderen von den Schatten aufwärts.
Wie soll da eine generell brauchbare LUT überhaupt zustande kommen?
Antwort von Axel:
Wenn man mehrere LUTs für ein und dieselbe Kamera braucht, dann kann man sie ohnehin vergessen.
Auch eine (ist table eigentlich Tisch oder Tafel, männlich oder weiblich?) Universal-LUT, als die sich die Blackmagic_to_rec709 durchaus versteht, ist maximal ein "Serviervorschlag". Der Glaube, sie könne die "wahren" Farben extrahieren, ist nicht haltbar. Nicht aus einem erkenntnisphilosophischen Grund, sondern weil wir es schlicht nicht mit einem kompakten System zu tun haben, sondern mit einem maximal modularen. Ein Versuchsaufbau mit n Unbekannten.
Das Problem scheint meiner Meinung nach in unterschiedlichen Belichtungsphilosophien zu liegen: die einen belichten von den maximalen Lichtern abwärts, die anderen von den Schatten aufwärts.
Wie soll da eine generell brauchbare LUT überhaupt zustande kommen?
Die anderen LUTs schaffen das auch. Man erwartet eine Korrektur der Farben, nicht der Helligkeit.
Antwort von cantsin:
Auch eine (ist table eigentlich Tisch oder Tafel, männlich oder weiblich?)
(Abgeleitet von lat. tabula, also weiblich.)
Antwort von ruessel:
Heute mache ich erweiterte Testaufnahmen mit Speedbooster und Pocket. Am WE kontrolliere ich damit meine LUT. Ich habe nun eine erstellt, die den Pegel fast unbehelligt lässt. Aber wirklich begeistert bin ich damit nicht. Pegel ich die Helligkeit nachträglich runter, verändert sich auch die Farbwirkung, meist ist die Farbe dann zu stark.
Ich fummel da erst noch ein wenig selbst rum. sobald ich ein Ergebnis habe, lade ich es wieder hoch.
Antwort von Axel:
Ich habe nun eine erstellt, die den Pegel fast unbehelligt lässt. Aber wirklich begeistert bin ich damit nicht. Pegel ich die Helligkeit nachträglich runter, verändert sich auch die Farbwirkung, meist ist die Farbe dann zu stark.
Wie gesagt, obwohl RGB ja Sättigung und Helligkeit kombiniert, sind beide unabhängig voneinander zu manipulieren. Und, wie gesagt, ich habe keinen Plan von LUT-Erstellung, aber ich finde Reiners LUT ziemlich genial. Mein erstes Pocket-Filmchen, ein Schulfilmchen, habe ich mal komplett mit einem Adjustmentlayer damit belegt, und, siehe da: Nicht mehr viel zu korrigieren, um's neutral aussehen zu lassen.
Antwort von ruessel:
Ich lerne gerade richtig belichten mit der Pocket. Hatte heute extreme lichsituationen mit meinen "Super 8 feeling Pocket lanc Griff".
Ich belichte nun reichlicher, Sonne, Fenster, Cromteile etc. dürfen auch schon mal gerne über 100% Zebra liegen. Die Hauptfiguren in der Szene werden zu 3/4 am Histogramm ausgerichtet (wie damals zu Schmalfilmzeiten hatten kleinere Lichtreflexe auch keinen großen Einfluss auf die Blende) egal ob ganz rechts sich ein Strich im Histogramm aufbaut.
Mal schauen wie das auf dem Flat ausschaut....
Antwort von cantsin:
Ich hab' mal einen schnellen Vergleich einer Reihe von LUTs für BMC und BM Pocket gemacht (per aus Resolve gerenderten TIFFs):
http://data.pleintekst.nl/bmpcc_lut_comparison/
Das Beispielframe wurde als CinemaDNG in der Pocket mit einem Panasonic 14-140mm + ND8-Filter + IR-Sperrfilter aufgenommen und in Resolve im Cinema LOG-Farbraum bei 5500K interpretiert.
Die LUTs sind immer direkt draufgeklatscht, ohne weitere Bildkorrekturen. Nur bei ruessels LUT, Reiners LUT und Tom Majerskis VisionT-LUT habe ich jeweils noch ein zweites Beispielbild mit einfacher Lift/Gamma/Gain-Korrektur (aber keiner Farbstichkorrektur) hinzugefügt.
Der Vergleich ist natürlich schwierig und unwissenschaftlich, weil schon die Objektiv-Filterkombination eigene Korrekturen erfordert, die wahrscheinlich für jeden LUT noch mal extra feingetunt werden müssten. Aber man kann immerhin sehen, wie gut man jeweils zu einer brauchbaren Ausgangskorrektur kommt, von der aus man weiterarbeiten kann.
(Subjektiv gefallen mir Kholi Comet Cleanser, Hook Vibe sowie Hook Film2Vid 1.1 sowie ruessels LUT nach Lift-/Gamma-/Gain-Korrektur am besten.)
Antwort von Axel:
Danke für die Mühe. Die meisten kannte ich gar nicht. Aber muss ich auch nicht. Deswegen mag ich auch Subway nicht: Zuviele Alternativen, und eine schlechter als die andere.
Antwort von cantsin:
Na, gerade für Leute, die mit der Kamera anfangen, ist es doch nützlich zu wissen, dass man statt den Gurkenfarben von der Standard-Rec.709-LUT für die Pocket in Resolve...
...mit einem kostenlosen Download und einem Mausklick auch das hier kriegen kann:
(Beide thumbnails mal anklicken und in separaten Browertabs öffnen, um sie in 1920x1080 zu vergleichen und den wirklichen Unterschied zu sehen.)
Antwort von srone:
danke cantsin für deine mühe, jedoch neige ich wie axel dazu, jeden clip einzeln zu bearbeiten, den "mehr" aufwand halte ich für marginal, imho lohnt es sich.
lg
srone
Antwort von cantsin:
danke cantsin für deine mühe, jedoch neige ich wie axel dazu, jeden clip einzeln zu bearbeiten, den "mehr" aufwand halte ich für marginal, imho lohnt es sich.
Sorry, falls das missverständlich war. Selbstverständlich bearbeite ich in allen meinen Projekten die Clips einzeln. In dem Vergleich ging es jedoch nur darum zu sehen, welche Ausgangsresultate diverse LUTs liefern, und inwiefern sie bessere Alternativen zu Blackmagics Standard-Film Log-zu-Rec709-LUT darstellen.
Ein möglicher Workflow ist, einen LUT, den man fürs Projekt geeignet findet, auf die Track-Node in Resolve zu legen, und dann die jeweiligen Farbkorrekturen und Gradings unterhalb dieses LUTs im Log-Farbraum via Clip-Nodes zu erledigen.
Antwort von srone:
Sorry, falls das missverständlich war. Selbstverständlich bearbeite ich in allen meinen Projekten die Clips einzeln.
was ich nicht in frage stellen wollte :-)
lg
srone
Antwort von Axel:
danke cantsin für deine mühe, jedoch neige ich wie axel dazu, jeden clip einzeln zu bearbeiten, den "mehr" aufwand halte ich für marginal, imho lohnt es sich.
Sorry, falls das missverständlich war. Selbstverständlich bearbeite ich in allen meinen Projekten die Clips einzeln. In dem Vergleich ging es jedoch nur darum zu sehen, welche Ausgangsresultate diverse LUTs liefern, und inwiefern sie bessere Alternativen zu Blackmagics Standard-Film Log-zu-Rec709-LUT darstellen.
Ein möglicher Workflow ist, einen LUT, den man fürs Projekt geeignet findet, auf die Track-Node in Resolve zu legen, und dann die jeweiligen Farbkorrekturen und Gradings unterhalb dieses LUTs im Log-Farbraum via Clip-Nodes zu erledigen.
Und sorry, falls das missverständlich war: Ich weiß zu schätzen, was ruessel hier macht und cantsin und andere. Obwohl "man" sich an einen Flat-Look sehr gut gewöhnen kann (zumindest ich kann es), ist es doch schöner, mit gefällig geluttetem (Eindeutschung der Woche!) Video zu schneiden.
Antwort von ruessel:
Die Frage beim Vergleich ist nun, ist das ein rotes T-Shirt oder orange? Auch sieht man schön an der Zeitung, das einige LUTs hier komplett versagen. Auch denke ich, das dies gezeigte Frame noch keine wirklich Herausforderung für eine gute LUT ist - es sind keine extreme Kontraste drin. Ich habe das "weiße Haus" in der Sonne mit der Pocket gefilmt, was passiert da in den Schattenbereichen. Ich denke eine universal LUT sollte hier aufhellen, damit man am Histogramm noch etwas drehen kann - lieber dunkler machen als aufziehen und rauschen sehen.
Ich komme mit meiner LUT im Moment nicht weiter, der neue Ohrwurm an der Pocket raubt mir im Moment die Zeit.
Antwort von WoWu:
Ist das nicht auch genau der Unterschied zwischen einem LUT und einem LOOK ?
Nach meiner Auffassung hat ein LUT auch nur die Aufgabe der Reproduktion. In einem LOOK ist es dann egal, ob das T-Shirt orange oder rot ist.
Insofern hat für mich auch einer der beiden ein LUT und der andere ein LOOK.
Antwort von cantsin:
Stimmt, nur ist das Problem, dass das Hemd im Original rot ist, und die sogenannte LUT von Blackmagic Resolve daraus einen Orange-Look macht.
Antwort von ruessel:
Stimmt, nur ist das Problem, dass das Hemd im Original rot ist, und die sogenannte LUT von Blackmagic Resolve daraus einen Orange-Look macht.
Na, dann funktioniert meine LUT ja schon recht gut....
Antwort von WoWu:
Stimmt, nur ist das Problem, dass das Hemd im Original rot ist, und die sogenannte LUT von Blackmagic Resolve daraus einen Orange-Look macht.
Das ist das, was ich meinte.
Da wird, glaube ich, mit den Bezeichnungen mal wieder munter durcheinander gewürfelt.
Denn wen die Übertragungskurve korrekt zurückgesetzt wurde, müsste da wieder die richtige Farbe bei herauskommen, um auch den richtigen Anhaltspunkt für eine Farbkorrektur zu haben.
Da hat Ruessel Recht, da ist sein LUT besser.
Mich würde mal interessieren, wie Violett wiedergegeben wird.
Antwort von cantsin:
@ruessel: Ja! Meiner Meinung nach bist Du 100% auf dem Weg einer echten Log-zu-Rec709 LUT (statt bloß eines weiteren Looks) für die Pocket. Nur die Eigenheiten bei Belichtung bzw. Gain und Gamma, die man ja auch in meinem LUT-Vergleich gut sehen kann, müssten noch ausgebügelt werden.
Antwort von Axel:
Um mal kurz zu erläutern, wo das Problem mit LUTs in der Praxis für mich liegt: Ich habe dazu mal ein Frame aus dem o.e. Hochzeitsfilm - das Paar im Standesamt, auf die Beamtin wartend - hergenommen. Die Persönlichkeitsrechte hoffe ich durch die geringe Auflösung ausreichend zu wahren.
Als Ein-Mann-Orchester stand ich vor einer ganzen Reihe von Problemen. Ruessels überwiegend famoser (wenn auch auf Dauer nicht stressfrei zu tragender) OPM würde mir zum Jawort in dem großen, halligen Raum nichts nützen, das war klar, also stellte ich einen Tascam DR-40 in Auto-Modus seitlich neben den Blumenstrauß.
Auf der rechten Seite kann man eine Fensterfront erahnen, auf der linken Seite viele, viele Halogenlampen. Vor den Fenstern außerdem vom Sturm verschonte Linden in voller Blätterpracht.
Der dynamische Bereich ganz links war schwach. Blende auf, nichts clippte. Ein Schwenk nach rechts, holla, Scherenschnitte vor "Greenscreen" mit massig Zebra.
Im Anschluss an den Ringtausch erfolgt, das kenne ich schon, die emotional für das Video sehr wichtige Umarmungsorgie mit Lachen und Tränen, bei der ich immer "nah dran" sein muss, abwechselnd auf der linken und auf der rechten Raumhälfte, um möglichst wenig der wichtigen Personen zu verpassen. In der Vergangenheit hatte ich gern bei der beschriebenen extremen Mischlichtsituation auf Vollautomatik geschaltet, mit überwiegend guten Ergebnissen (und freilich mit anderen Kameras).
Hier nun stand der Weißabgleich auf 3200°K. Das Licht von rechts war schlicht blau und direkt vorm Fenster blau und grün, das von links stimmte, in der Mitte kriegten die Gesichter Kanten. Das alles musste zusammengeschnitten werden zu einem stimmigen Ganzen, mit nur annähernd passender Belichtung (die großen Einfluss auf die Dynamik hat, wie wir inzwischen auswendig wissen). Das dauerte extrem lange und wäre ohne Splitscreenfunktion in Resolve fast aussichtslos gewesen. Vielleicht wäre es besser gewesen, auf, was weiß ich?, ungefähr 5000°K zu schalten, um die Mitte zwischen Glühlicht und Mittagshimmel zu haben, aber na ja.
Was ich dabei für mich feststellte: So schön es sein mag, ein ideal belichtetes Video mit passendem Weißabgleich ("Cinema"-Konditionen) mal rasch unterhalb einer schicken LUT feinzugraden, so wenig nützlich ist das, wenn man es mit suboptimalem Zeug zu tun hat. Im Gegenteil. Und: Wenn das Material gleich zu Anfang perfekt ist, geht es von Hand auch rapp zapp.
Das Beispiel zeigt auch, dass farbmäßig sehr wenig Vorteile in einer Raw-Aufnahme liegen. Hat man die Hauttöne belichtungsmäßig verkackt, war's das, in ProRes wie in Raw. Ist man halbwegs auf der richtigen Seite, erlauben beide die Korrektur.
Antwort von cantsin:
Hier mal eine verrückte Idee: Wäre es zum Erstellen einer farbneutralen LUT nicht optimal, für die Farbmessung statt eines Glas-Objektivs ein Pinhole-Objektiv zu verwenden, so dass alle Farbstiche durchs Glas ausgeschlossen werden können?
Falls an der Idee was dran ist, könnte ich ein Wanderlust-MFT-Pinholeobjektiv für Testzwecke zur Verfügung stellen.
Antwort von WoWu:
Eigentlich sollte die Objektiv-(Licht)verfärbung im Weissabgleich ausgeglichen werden.
Das ist ja genau die Variable in der Kamera, solche Feinheiten auszugleichen.
Antwort von cantsin:
Ja, aber wenn man das Referenzbild für die LUT-Erstellung mit einem bestimmten (Glas-) Objektiv erstellt, weiss man nicht, welche Farbkorrekturen allgemein Kamera- bzw. sensorspezifisch sind und welche objektivspezifisch. Durch ein Pinhole-Referenzbild schliesst man Farbverfälschungen durchs Objektiv aus.
Antwort von WoWu:
Wenn jeder für seine Testbilder WB macht, dürfte das nicht mehr die tragende Rolle spielen.
Die Ergebnisse sind ja auch schon ziemlich dicht dran.
Wenn Ruessel die Lim/Gam Korrektur noch macht, dann ist das schon ziemlich dicht dran.
Edit: Der Weissabgleich darf natürlich nicht Teil der LUT sein, sondern muss in der Kamera geschehen- sonst hast Du Recht.
Antwort von ruessel:
Wenn Ruessel die Lim/Gam Korrektur noch macht, dann ist das schon ziemlich dicht dran.
Sehe ich auch so, aber...... die Farbe rot macht auch bei mir Probleme. Genau wenn die Sonne auf einem faltigen t-Shirt fällt, habe ich vor der LUT noch jede Falte sauber auf dem Monitor, kommt nun meine LUT - ist das Shirt Faltenfrei - ein elektronischer Bügel sozusagen ;-)
Dabei clippt im Rotkanal noch gar nix, habe keine Ahnung wie ich das umgehen kann bzw. muss testen ob es nicht sogar an meiner Bildausgabe liegt.
Edit: Der Weissabgleich darf natürlich nicht Teil der LUT sein, sondern muss in der Kamera geschehen- sonst hast Du Recht.
Gibt es nicht bei der pocket, leider....
Antwort von WoWu:
Ja, stimmt, das ist ja sowas wie ein RAW.
Dann würde ich das einmal so machen, wie cantsin vorgeschlagen hat und dann kann sich jeder seinen Korrekturwert für die Objektive, die er benutzt ausmessen (oder vom Hersteller erfahren) und in seiner eigenen LUT korrigieren.
Aber ich denke, das ist Feinschliff.
Versuch doch mal, das Verhältnis Luma/Chroma zu verändern, ob dann das "Bügeln" nachlässt.
Das ist (vielleicht) der Schweincheneffekt, den man manchmal auch bei Hauttönen hat, wenn der Farbanteil zu hoch ist.
Antwort von ruessel:
Hier mal eine verrückte Idee: Wäre es zum Erstellen einer farbneutralen LUT nicht optimal, für die Farbmessung statt eines Glas-Objektivs ein Pinhole-Objektiv zu verwenden, so dass alle Farbstiche durchs Glas ausgeschlossen werden können?
Ich denke das wir die Glasfarbe nicht berücksichtigen brauchen, das sind die letzten 3% Farbtreue. Ich pflege jetzt schon den IR Sperrfilter ein, wenn damit dann 90% Farbgüte getroffen wird, ist das schon Meilenweit mehr als was jetzt so als ultimative LUT angeboten wird.
Auf Basis dieser LUT würde ich dann versuchen ein wenig "Kodak" Feeling in einer weiteren LUT einzubauen.... ich habe hier ein paar Werte von Kodak und altem Agfa Material als Krönung dann noch eine geile SW LUT.
Antwort von WoWu:
Das stimmt.
Lass aber eine LUT neutral, so dicht wie möglich an 709, bevor Du an das Kodak Feeling gehst, denn sonst hast Du wieder einen LOOK.
Ich würde die auch so unterscheiden.
Jedenfalls ist das schon gewaltig, was dabei herausgekommen ist.
Antwort von ruessel:
Jedenfalls ist das schon gewaltig, was dabei herausgekommen ist.
Hatte auch wirkliche Hard/Softwarekosten .... dafür weiß ich es wie man es machen kann - unbezahlbar ;-)
Lass aber eine LUT neutral, so dicht wie möglich an 709
ich schrieb doch ZUSÄTZLICHE LUT.....
Antwort von ruessel:
Nur mal laut gedacht, wären diese Infos nicht für eine realistische Film LUT nutzbar?
http://www.motion.kodak.com/motion/Prod ... ch2393.htm
Ich habe ja Software um diese Kurven nachbauen zu können, also erst die Farben der Pocket in Ordnung bringen und danach mit einer weiteren LUT diesen Kodak "Effekt" zusätzlich aufbringen.
Ich glaube ich werde es mal schnell in die Praxis umsetzen.....
Antwort von ruessel:
Gefällt mir......
Antwort von Axel:
@ruessel
Auf der verlinkten Seite dann auch der Hinweis:
When print LUTs may not be appropriate
Adding a print LUT actually degrades your image. You’ll notice it removes a lot of colour contrast and hue variation. And the film effect is actually quite strong. So if you’re after a clean, slick look or your after neutral images it might be easier to achieve without using the LUT.
Das sind, wie WoWu es nennt, reine Look-LUTs. Film gibt es nicht mehr (R.I.P.), einen tieferen Sinn haben sie nicht. Nostalgie.
Und von akkurater Simulation sind sie auch noch meilenweit entfernt. Denn sie berücksichtigen gar nicht die Farben des digitalen Ausgangsmaterials, die "Pocket Farben". Das tut freilich das teure Filmconvert:
Beyond print emulation LUTs
A print LUT is a one size fits all emulation that doesn’t take into account the colour response of the camera. A better solution for emulating film is FilmConvert from Rubber Monkey Software.
Das hätten wir dann durch dich. Zahlt sich täglich aus, Mitglied in diesem Forum zu sein.
Antwort von ruessel:
Ich will ja die Pocket als Super 8 Kamera Ersatz ;-)
Ich versuche mal heute Nachmittag was auf Kodak Basis zu machen.... nur mal so.
Ich habe hier noch meinen DSC LAB Colorchart auf chemischen Film (Kodak + Fuji + Agfa), das dürfte auch einen Vergleich bzw. Messungen zulassen.
Antwort von cantsin:
Filmconvert hat ein echtes Problem mit seinen Blackmagic-Kameraprofilen. Meiner Meinung nach hatten die infrared pollution bei ihrer Referenzmessung der Kamera, und deswegen ist alles Pocket-Material, das man direkt mit Filmconvert gradet, braun-magenta-stichig. Das ist auch auf meiner LUT-Vergleichsseite sehr gut zu sehen.
Man kann das aber umgehen, wenn man erst - dank ruessels LUT - sauber nach Rec709 konvertiert und dann in Filmconvert "RGB Default" als Kameraprofil wählt.
So oder so dürfte es da allerdings Einschränkungen geben, weil AFAIK keine Digitalkamera - auch die Blackmagics nicht - in ihrem Ausgangssignal den Tonwertumfang/die Farbtiefe von modernem Filmmaterial hat. (Und selbst ein Uraltmaterial wie Kodakchrome ist wohl digital nur eingeschränkt simulierbar.)
Antwort von domain:
@ Axel
Bei deinen die Persönlichkeitsrechte wahrenden „Thumbnails“ scheint mir oberflächlich betrachtet eigentlich nur das letzte (CC ohne LUT) der Wirklichkeit nahe zu kommen.
Aber bestimmt ist diese Betrachtungsweise falsch. Wahrscheinlich muss zunächst ein theoretisch ziemlich korrektes aber nicht herzeigbares Zwischenergebnis produziert werden, um es dann durch weitere CC vorzeigbar zu machen :-)
Antwort von ruessel:
zum Bild
Man kann das aber umgehen, wenn man erst - dank ruessels LUT - sauber nach Rec709 konvertiert und dann in Filmconvert "RGB Default" als Kameraprofil wählt.
Hmmmmm..... aber nacheinander gerendert. Beite LUTs gleichzeitig angewendet gibt nur Blödsinn aus......
Antwort von cantsin:
zum Bild
Man kann das aber umgehen, wenn man erst - dank ruessels LUT - sauber nach Rec709 konvertiert und dann in Filmconvert "RGB Default" als Kameraprofil wählt.
Hmmmmm..... aber nacheinander gerendert. Beite LUTs gleichzeitig angewendet gibt nur Blödsinn aus......
Klar. Ist aber weder in Resolve ein Problem (eine Node ruessel-LUT + eine Node Filmconvert), noch z.B. in Premiere (Lumetri mit ruessel-LUT als erster Effekt, Filmconvert als zweiter, ggfs. auch auf jeweils einem Adjustment Layer).
Antwort von ruessel:
So, ich benötige nun eure Hilfe.
Ich habe nun die LUT für die BMPCC fertig, sieht bei meinen Probeaufnahmen gut aus. So wie ich das verstehe, sind die LUTs in 8 Bit. Also kann da nicht mehr in der Dynamik viel korrigiert werden, jedenfalls nicht so viel wie bei 10 Bit Roh. Ich kann LUT Buddy zwar auf 32 Bit umstellen aber irgendwie ist das Verhalten wie bei 8 Bit.
Deshalb habe ich 3 LUTs erstellt, farblich alle gleich aber mit sehr unterschiedlichen Kontrastumfang.
1. BMPCC_Ruessel = ist die normale LUT REC709 für richtig belichtete Szenen.
2. BMPCC_LowLight1 = Für Aufnahmen die leicht unterbelichtet sind
3. BMPCC_LowLight2 = Für extrem unterbelichtete Szenen (holt stark Rauschen)
Erstellt wurden die LUTs mit Speedbooster, Nikon 18-55mm Glas, Heliopan 103 IR Sperrfilter, Heliopan ND0.9 - so wie es bei mir am Tage üblich ist.
http://www.fxsupport.eu/temp/Ruessel_LUT.zip (208 KB)
Antwort von ruessel:
Testbeispiele meiner 3 LUTs:
Oben das Rohbild, hier ist die normale LUT richtig.
zum Bild
Antwort von Axel:
Wow! Gute, echt brauchbare LUTs! Vielen Dank. Für Vorschauzwecke zumindest das Beste, was ich bisher gesehen habe!
Antwort von ruessel:
zum Bild
Hier würde ich LowLight1 nehmen...
Antwort von ruessel:
zum Bild
Antwort von ruessel:
zum Bild
Antwort von ruessel:
Falls jemand etwas negatives auffällt bitte hier melden. Ich kann da noch was ändern.
Ansonsten stürze ich mich in die Filmwelt, Kodak, Agfa, Polaroid.... alles lässt sich farblich umsetzen.
Antwort von srone:
auch wenn das hier etwas zu kurz kommt: DANKE!
gelungenes ergebnis.
lg
srone
Antwort von ruessel:
zum Bild
Ich blicke nun durch ;-)
Schaut man sich das hintere Fenster an, sieht man das bei der LUT ein paar Streben im Fenster fehlen - sie sind ausgebrannt. Das passiert bei einer REC709 LUT.
Fertige ich diese LUT sauber nach REC2020 an, ist alles i.O. Morgen schaue ich mir das mal genauer an.....
Antwort von Reiner M:
So, ich benötige nun eure Hilfe.
Ich habe nun die LUT für die BMPCC fertig, sieht bei meinen Probeaufnahmen gut aus. So wie ich das verstehe, sind die LUTs in 8 Bit.
Nein, Deine LUTs sind alle drei in 32-bit-Float.
Beste Grüße,
Reiner
Antwort von tehaix:
Ich habe leider derzeit überhaupt keine Zeit, um sie auszuprobieren, aber das kommt hoffentlich demnächst.
Dennoch auch von meiner Seite ein fettes DANKE für die Mühen und das Bereitstellen der Ergebnisse. Deine Testbilder sehen schon mal ziemlich gut aus.
Ich freu mich drauf!
Antwort von Axel:
Schaut man sich das hintere Fenster an, sieht man das bei der LUT ein paar Streben im Fenster fehlen - sie sind ausgebrannt. Das passiert bei einer REC709 LUT.
Fertige ich diese LUT sauber nach REC2020 an, ist alles i.O. Morgen schaue ich mir das mal genauer an.....
Lass dir deswegen aber keine grauen Haare wachsen. Wer die Pocket hat und nicht noch unterhalb der LUT zumindest ein bisschen Höhen/Mitten/Tiefen-Anpassung durchführt, hat das Teil gar nicht verdient. Die Hauptsache waren die guten Farben, und auch die sind schon Geschmackssache: Mir ist deine Kirche schon etwas zu bunt, d.h. zu gesättigt.
Ich möchte dich in deinem Perfektionismus nicht bremsen, glaube aber nach wie vor, dass es die perfekte LUT für eine solche Kamera nicht gibt, genauso wenig wie es das perfekte Eis gibt, zum Glück.
Antwort von domain:
Menschenskind, welchen Aufwand betreibst du denn Ruessel, bewundernswert.
Aus meiner eingeschränkten amateurhaften und mehr praktisch orientierten Sichtweise erhellt sich mir keineswegs der Sinn von mehreren verschiedenen LUTs, denn nach WoWus dubioser Terminologie handelt es sich dann doch wieder um das Erreichen von Looks, was ja überhaupt nicht Aufgabe einer LUT sein kann :-)
Schon Axel hat darauf hingewiesen, dass man mit einfachen Farbkorrekturen schon zu mindestens ebenso guten Ergebnissen kommt. Siehst du hier an der doch noch vorhandenen Durchzeichnung des großen Rosettenfensters, außerdem wirkt das Bild weniger kitschig.
Umso unverständlicher wird die automatisierte LUT-Korrektur unter Berücksichtigung von Aussagen einiger Teilnehmer hier, dass sie dennoch für jeden Clip eine individuelle Farbkorrektur vornehmen,
Also was hat die Zweischrittstrategie (mit LUT als Zwischenstufe) dann noch zu bieten außer einer Beschränkung der Möglichkeiten generell?
Hier eine einfache Farbkorrektur des Originals im Vergleich zur Low-Light1-LUT
zum Bild http://img5.fotos-hochladen.net/uploads/lutb3sine0u45pxhc9l.jpg
Antwort von cantsin:
Große Klasse, bei richtig belichtetem Material stimmen die Scopes perfekt - nichts clippt, nichts säuft unter den Schwarzpunkt ab.
Und die Farben sehen endlich richtig aus. Dabei fallen mir zwei Dinge auf: stark leuchtende rot-magenta-Töne kommen extrem knallig rüber (was meiner Meinung nach entweder an einer Rotschwäche des Kamerasensors oder den Grenzen des Rec709-Farbraums liegt), und es gibt das Phänomen der pinken Highlights (IMHO auch eine Sensorschwäche). Siehe angehängtes Beispielbild.
Wenn Du mit Filmkurven/looks experimentieren willst, gibt es eigentlich eine gebrauchsfertige (bezüglich der Farbsimulation noch besser als FilmConvert geeignete) Lösung mit Visioncolor Impulz. Der Name klingt zwar bescheuert, aber das Paket ist sehr gut durchdacht, weil es nicht nur einfach kameraspezifisch Farben nach Filmemulsionen transformiert, sondern das in der Proversion auch zweistufig mit sowohl Aufnahme- als auch Printemulsion tun kann. Im zweiten angehängten Bild habe ich erst Deinen Standard-LUT angewendet, dann per Impulz Rec709-nach-Cineon-LUT mit Kodak Vision3 50D-Charakteristik gewandelt und dann wieder von Cineon nach Kodak 2383-Printfilm.
Die 8bit-Einschränkung dürfte übrigens eine Einschränkung von LUT Buddy sein - unter Resolve hat Dein LUT keine solchen Einschränkungen.
Antwort von ruessel:
Nein, Deine LUTs sind alle drei in 32-bit-Float.
LUT Buddy zeigt mir 8 Bit an.
auch wenn das hier etwas zu kurz kommt: DANKE!
Bitte..... hat Zeit und leider auch Geld gekostet. Aber wenn es nix richtiges gibt.
Lass dir deswegen aber keine grauen Haare wachsen. Wer die Pocket hat und nicht noch unterhalb der LUT zumindest ein bisschen Höhen/Mitten/Tiefen-Anpassung durchführt, hat das Teil gar nicht verdient
Hmmm..... unterhalb der LUT geht bei mir in PP nicht mehr viel. Das muss etwas mit den 8 Bit zu tun haben.
Mir ist deine Kirche schon etwas zu bunt, d.h. zu gesättigt.
Ja, ich hatte es erst reduziert. Aber schaue dir das auf einen Flat im richtigen Farbraum an. Laut Messgeräten stimmt aber die Sättigung (von Color Chart). Ich habe das Gefühl das hier je dunkler die Szene ist auch die Farben stärker werden.
Ich möchte dich in deinem Perfektionismus nicht bremsen, glaube aber nach wie vor, dass es die perfekte LUT für eine solche Kamera nicht gibt
Es ging darum, das ich überhaupt keine richtigen Farben in PP bekomme habe. Zumindest gelang es mir nicht dort ein sauberes ROT und GELB zu bekommen - das macht nun die LUT.
Aus meiner eingeschränkten amateurhaften und mehr praktisch orientierten Sichtweise erhellt sich mir keineswegs der Sinn von mehreren verschiedenen LUTs, denn nach WoWus dubioser Terminologie handelt es sich dann doch wieder um das Erreichen von Looks, was ja überhaupt nicht Aufgabe einer LUT sein kann :-)
Nein, die LUT ist kein Look, zumindest sollte es keiner sein. Leider muss ich mich bei REC709 nicht nur auf die Farbe beschränken, sondern muss auch das endgültige Histogram festlegen. Bei selben Farben kann die LUT jeweils noch etwas anders aussehen, RGB muss im Raum gepegelt werden und legt damit auch Schatten, Mitten und Highlights fest.
Also was hat die Zweischrittstrategie (mit LUT als Zwischenstufe) dann noch zu bieten außer einer Beschränkung der Möglichkeiten generell?
Geschwindigkeit beim colorieren. Ausserdem ist es mir und auch anderen nicht gelungen aus ProRes saubere Farben zu ziehen. Vimeo zeigt Berge von Videos aus der Pocket mit grausigen Hauttönen.
Dabei fallen mir zwei Dinge auf: stark leuchtende rot-magenta-Töne kommen extrem knallig rüber
Stimmt. Habe keine Erklärung dafür. Im Waveform sieht es noch nicht geclippt aus. Diesen Effekt hatte ich bei der ersten LUT noch stärker. Leider darf ich rot nicht weiter zurück nehmen, dann passt im Vectorscop nicht mehr. Oder ich müsste das Rot bei einer bestimmten Stärke weich in einer Kurve schwächer ansteigen lassen. Muss mal schauen ob ich das hinbekomme.
Wenn Du mit Filmkurven/looks experimentieren willst, gibt es eigentlich eine gebrauchsfertige (bezüglich der Farbsimulation noch besser als FilmConvert geeignete) Lösung mit Visioncolor Impulz.
Kostet nochmals mein Geld (mit Hard- Software haben mich die LUTs ca. 300 Euro gekostet). Ich möchte da Filmlooks fertig für die Pocket haben. Dazu habe ich einen Colorchart vor Jahren schon auf chemischen Film gebannt, teilweise schon hochwertig scannen lassen. Nun kann ich die Differenz ausmessen und versuchen in der LUT einzupflegen.
Mir ist klar, das dies nur ein Look ist. Es werden dann nur Farben geändert ohne Grain, Kratzer oder Bildstandfehler. Aber mir macht das nix. Ich will mein Kodakchrome 40 zurück ;-)
Antwort von Reiner M:
Nein, Deine LUTs sind alle drei in 32-bit-Float.
LUT Buddy zeigt mir 8 Bit an.
Siehe Screenshot 1.
Links das Dialogfenster von LUT-Buddy nach Laden Deiner LUT in Pr CS6. Oben links unter "Stored LUT" sind die Eigenschaften der LUT ablesbar.
Im rechten Teil des Screenshots der Inhalt Deiner LUT im Editor.
Die Zeile 4: "LUT_3D_SIZE 32" zeigt LUT-Buddy in zwei Zeilen an: "Type: 3D" und "Samples: 32".
Ab Zeile 6 siehst Du je Zeile die RGB-Tripel für R, G und B als Float-Werte zwischen 0.0000 und 1.0000.
Definitiv 32bit-Float. Wären die LUTs 8bit, enthielte die Datei Werte zwischen 0 und 255.
Richtig: LUT Buddy selbst ist eine 8bit-Applikation. Sie kann zwar 32bit-Float-LUTs verarbeiten, aber das Video wird im 8bit-Processing bedient.
Zum Rot:
Stimmt. Habe keine Erklärung dafür. Im Waveform sieht es noch nicht geclippt aus. Diesen Effekt hatte ich bei der ersten LUT noch stärker. Leider darf ich rot nicht weiter zurück nehmen, dann passt im Vectorscop nicht mehr. Oder ich müsste das Rot bei einer bestimmten Stärke weich in einer Kurve schwächer ansteigen lassen. Muss mal schauen ob ich das hinbekomme.
Ich denke auch, dass Deine Farbeinstellung zu satt ist, allerdings fehlt mir das Quellmaterial dafür, das genau zu testen. Ich habe die Cam ja nicht nicht.
Experimente an Jpegs führen zu nichts, weil hier das JPEG-Gamma berücksichtigt werden müsste.
Daher habe ich Deine neue LUT mal auf das frühere Test-Mov von Dir gelegt. Screenshot 2 zeigt das Ergebnis. Das Vektorskop zeigt weit über 100%. Hier wäre die Lösung, die Sättigung runterzufahren. (aber eben vielleicht auch Gamma, ggf. Gain ... )
Wegen Clipping:
Wie man in der Wave sieht, ist das Rot als Mischanteil in vielen Farben vertreten. Das ist der Grund für den Eindruck. Die Übersättigung entlang der gesamten (!!) R-Cy-Achse führt dazu, dass alle Mischfarben betroffen sind, in denen auch nur geringste Rotanteile (bzw. Cy und Gelb) vorkommen und dann zu "dunkel" oder satt erscheinen. Es geht nicht nur um die Spitzenwerte in den Lichtern, sondern um die Sättigungsanhebung aller Rotwerte entlang der Achse.
Clipping oder nicht ist also kein ausreichender Indikator, um die korrekte Einstellung zu ermitteln oder zu begründen.
Ich erkläre es mir nun so, dass Dein Testbild, dass Du für die Erstellung verwendet hast, deutlich überbelichtet war (so interpretiere ich das Jpeg, dass Du gezeigt hast), was viel zu flache Farben produzierte und was Dich dort zwingt, Gamma runter und/oder Sättigung hochzutreiben. Aber auf relativ normal belichteten Aufnahmen führt das zu einer zu starken Präsenz gerade der Mitten, die dann motivabhängig mehr oder weniger deutlich wahrnehmbar wird.
Mangels Cam-Material kann ich das aber nicht genau überprüfen.
Vielleicht genügt es ja, von der bestehenden LUT eine Version zu erstellen, die nur etwas weniger Gesamtsättigung bringt. An den Farbverhältnissen ändert das ja nichts. Lohnt sich womöglich.
Beste Grüße,
Reiner
Antwort von ruessel:
Ich habe nun mit REc2020 ein wenig experimentiert. Ja, damit bekomme ich einen etwas anderen Farbraum aber keine erhöhte Bilddynamik.
Ich frage mich, mache ich was grundsätzlich falsch oder ist LUT Buddy nicht geeignet um die Pocket Bilddynamik in den Highlights zu sichern?
Richtig: LUT Buddy selbst ist eine 8bit-Applikation. Sie kann zwar 32bit-Float-LUTs verarbeiten, aber das Video wird im 8bit-Processing bedient.
Ist es das? Bekomme ich deshalb nicht mehr die ganzen 13 Blenden aus dem ProRes? Kann ich mir irgendwie gar nicht vorstellen.
allerdings fehlt mir das Quellmaterial dafür, das genau zu testen. Ich habe die Cam ja nicht nicht.
Soll ich dir das quellmaterial zur Verfügung stellen? Müsste ich aber neu erstellen damit die Daten möglichst klein bleiben. Eine Knappe Sekunde sollten ja völlig ausreichen.
Antwort von Reiner M:
Ich frage mich, mache ich was grundsätzlich falsch oder ist LUT Buddy nicht geeignet um die Pocket Bilddynamik in den Highlights zu sichern?
Ist es das? Bekomme ich deshalb nicht mehr die ganzen 13 Blenden aus dem ProRes? Kann ich mir irgendwie gar nicht vorstellen.
Was möchtest Du denn erreichen?
Deine LUT wird doch das Quellmaterial so ausrichten, dass Schwarz- und Weißpunkt für das Wiedergabemedium optimal erreicht werden. Der Dynamikumfang der Quelle wird also auf dem des Ziels abgebildet. In Deinem Fall war doch REC.709 das Ziel, oder? Also alles gut, oder nicht?
Tatsächlich wirkt sich der Unterschied 8bit vs. 32bit an anderen Stellen aus, die Dich bei dieser Aufgabenstellung m. E. nicht berühren sollten. Wichtig ist nur, dass Du LUTs mit 32bit-Werten produzierst (ist ja so) und große Cubes (sizes) vorsiehst. Size 32 ist gut. Gibt ihnen eine hohe Genauigkeit und macht sie universell einsetzbar. Also alles gut.
Nur am Rande: Damit Du mal einen der Seiteneffekt der 8bit-Verarbeitung siehst, habe ich einen Screenshot angehängt. Er zeigt Deine neue LUT im Einsatz, einmal mit LUT Buddy, einmal mit Premiere Pro Lumetri (CC 2014). Die vorangestellte Luminanzkurve korriert nur geringfügig die Helligkeit für die benutzte Quelle, hat sonst keine Bedeutung.
In den RGB-Paraden sieht man bei LUT Buddy Abrisse. Lumetri arbeitet mit echten 32bit-Prozessen und produziert folglich eine höhere Präzision bei allen anstehenden Berechnungen, die sich hier sichtbar auswirkt.
Ansonsten siehst ja gleich aus. Unterschiede sind im Video kaum wahrnehmbar. Ich denke daher, das ist für die Aufgabenstellung nebensächlich. Die Anwender werden unterschiedliche Programme verwenden, mit denen sie die LUT einsetzen. Das kannst Du nicht steuern. Die LUT selbst ist technisch problemfrei und bietet von der Seite für jeden Benutzer optimale Voraussetzungen.
Soll ich dir das quellmaterial zur Verfügung stellen? Müsste ich aber neu erstellen damit die Daten möglichst klein bleiben. Eine Knappe Sekunde sollten ja völlig ausreichen.
Wenn Du magst, gern.
Es reicht auch weniger als eine Sekunde. Wichtig wäre nur original aus der Cam.
Meine Beispiel-LUT basierte ja noch auf Deinen alten Testfiles und Deinem alten Versuchsaufbau, oder?
Gut wäre eine Aufnahme des Testcharts derart:
gut und gleichmäßig ausgeleuchtet, mit feststehender Cam ohne Wackler, und mit ca. 50% Grau. D. h., der mittelere (6.) Graubalken sowie die graue Grundfläche des Charts sollten in der Lumawave schon bei etwa 50% Luminanz liegen ohne Korrekturen im Programm vornehmen zu müssen.
Gut wäre es auch, das Chart vor einer schwarzen, stark absorbierenden Fläche aufzuhängen (kein farbiges Streulicht) und den Bildausschnitt so zu wählen, dass ein gutes Stück schwarzer Rand um das Chart liegt (um Beugungsfehler und Vignettierung der Objektivränder auf den eigentlichen Meßflächen zu reduzieren).
Dazu noch ein kurzes Stück Real-Life-Aufnahmen, möglichst mit den problematischen Farben für Testläufe.
Eilt aber nicht.Ich weiß nicht, wann ich dazu komme, mich zu kümmern.
Beste Grüße,
Reiner
Antwort von ruessel:
Also alles gut, oder nicht?
Ich habe den Dynamikumfang der Pocket noch nicht im Griff.... aber ich habe vermutlich meinen "Denkfehler" gefunden, jetzt bekomme ich mit EINER LUT alle Demos mit vollem Dynamik Umfang im Griff.
Das rote Ausbrechen kommt von meiner Software, schalte ich vorher auf sRGB und dann auf REC709 kommt knalliges rot ganz gut ohne total zu clippen.
Ich habe in der LUT praktisch eine weiche Gammakurve als "Knee" Funktion eingesetzt - jetzt bleiben die HighLights völlig erhalten.
Dafür stimmen nun die Hauttöne noch nicht.... ich bin aber dran.... dürfte sich nur noch um Stunden handeln. ;-)
Antwort von cantsin:
Hier ein Spendenaufruf - hab' soeben 30 Euro an ruessel (=winne@digitalfx.de) per PayPal für seine Arbeit an dem LUT gespendet. Angesichts seiner Ausgaben und Arbeitszeit immer noch wenig Geld...
Wer hier mitliest und sich ebenso über den LUT freut, gerne mitmachen!
Antwort von srone:
Hier ein Spendenaufruf - hab' soeben 30 Euro an ruessel (=winne@digitalfx.de) per PayPal für seine Arbeit an dem LUT gespendet. Angesichts seiner Ausgaben und Arbeitszeit immer noch wenig Geld...
Wer hier mitliest und sich ebenso über den LUT freut, gerne mitmachen!
würde auch was spenden, bin allerdings kein freund von pay-pal, wie wäre es mit einem spendenkonto zum überweisen?
lg
srone
Antwort von ruessel:
So Pocket Freunde..... ich glaube ist was ganz heißes hier:
http://www.fxsupport.eu/temp/BMPCC_LUT_V2.zip
volle Dynamik, kein Rotproblem mehr, nur noch eine LUT für alles.... einfacher geht es nicht. Ich hoffe da sind keine anderen (Bild)Fehler drin..... ;-)
Die Beispielframes habe ich schon in PP CS6 in Sekunden bearbeitet, deshalb vielleicht in den Highlights etwas beschnitten, könnt ihr vielleicht besser.
Bei diesen Aufnahmen stand die Pocket immer auf 5600K, auch bei den Kerzen - der Gelbton ist also völlig korrekt.
Ich habe die LUT ca. 200K wärmer abgestimmt, wirkt doch etwas geschmeidiger.
zum Bild
zum Bild
zum Bild
zum Bild
zum Bild
Lut draufwerfen und falls vorhanden mit Effekt "Histogramm" feinjustieren, ansonsten Helligkeit/Kontrast oder Blacklevel..... ihr werdet das schon machen. ;-)
Vorsicht, die LUT nutzt RGB 0-255 aus, also nicht vergessen zum Schluss für TV auf 16-235 zu stauchen.
Hier ein Spendenaufruf - hab' soeben 30 Euro an ruessel
Schönen Dank auch.... ist man in den heutigen Zeiten gar nicht mehr gewöhnt. Ich kanns nach langer Krankheit gut gebrauchen....
Antwort von Reiner M:
Schon besser. :-)
Die Übersättigung im Bereich Cy-B sehe ich nicht mehr. Du hast sie m.E. fast zu stark zurückgenommen. Jedoch ist der Rot-Gelb-Sektor noch immer deutlich präsent, oder?
Prüfe noch mal den Weißpunkt. Du hast das bessere Testmaterial. Ich denke, die LUT V2 produziert einen Tick zu warm. Wäre aber als Warmton-Variante auch okay.
Du hast die Cube-Size auf 64 gehoben: Finde ich persönlich gut, aber womöglich stoßen manche Rechner da an Grenzen. Muss man nur wissen, falls einer eine lahme Verabeitung bemängelt.
Beste Grüße
Reiner
Antwort von ruessel:
Die Übersättigung im Bereich Cy-B sehe ich nicht mehr. Du hast sie m.E. fast zu stark zurückgenommen. Jedoch ist der Rot-Gelb-Sektor noch immer deutlich präsent, oder?
Wie gesagt, den Weißpunkt habe ich leicht verschoben. Kann aber morgen nochmal saubere Testaufnahmen mit dem Farbchart machen.
Du hast die Cube-Size auf 64 gehoben
Mir war nicht klar, das deswegen die Renderzeiten ansteigen. Habe aber gesehen das die Tabelle länger wurde..... Könnte morgen noch eine kleinere 32er erzeugen.
Antwort von srone:
Ich denke, die LUT V2 produziert einen Tick zu warm. Wäre aber als Warmton-Variante auch okay.
dem schliesse ich mich an, das trifft es gut.
ich würde mir eine variante mit weniger sättigung wünschen, hab aber immer noch nicht deine bankverbindung ;-) ("benutzername"ätgmx.de)
lg
srone
Antwort von CameraRick:
@ruessel
Ich hab mir Deine LUT auch mal installiert. Nun siehts subjektiv nicht schlecht aus, nur habe ich das Gefühl, dass alles viel zu dunkel wird. Ich kenne das von LOG eigentlich anders rum
Ich nicht. Durch Kontrastverstärkung sind die flauen LOG-Bilder bei mir schon subjektiv etwas dunkler. Ich kenne mich mit LUTs und wie man sie erstellt nicht aus, aber im Endeffekt hat ruessel das Gamma verändert, was die anderen LUTs nicht tun (Scopes). Wie wir spätestens seit Resolve wissen, gibt es sowohl ein "Y only" als auch ein "Luminanz erhalten". Das Anpassen der Farben darf auf die Helligkeit gar keinen Einfluss haben.
LOG sieht überlicherweise dunkler aus, und erst dann recht belichtet wenn man die entsprechende LUT anwendet. Die superbrights beginnen bei Cineon LOG bei 685, vergiss das nicht
Antwort von Reiner M:
@ruessel
Ich würde es auf SIZE 64 lassen und mal abwarten, was andere dazu sagen. Neuere Hardware schafft das problemlos. Vor allem der RAM-Bedarf steigt, die Rechenzeit weniger. Das Speichern, Vorhalten und Umschichten der großen Datenmengen im RAM (nebst Tempbereichen) ist bei großen LUTs die Herausforderung für den Rechner.
Das mit dem Weißpunkt sollte keine Kritik sein. Es kann Sinn machen, mehrere LUTs anzubieten, gerade was Weißpunkt und Sättigung betrifft. Geschmäcker und Vorlieben sind ja so verschieden.
Varianten sind aber der zweite Schritt, sollten m. E. gezielt angepasst und dann auch so "verkauft" werden.
Der verschobene Weißpunkt wird jedoch bei der Annäherung Deines ursprünglichen Ziels, eine LUT mit korrekten Farbverhältnissen zu produzieren, nicht hilfreich sein. Macht also Sinn, da noch mal einzusteigen.
Beste Grüße,
Reiner
Antwort von ruessel:
Na gut, den WB auf neutral zu verschieben sollte kein großes Problem sein.
Ich habe gestern beim erstellen der LUT mehrere kleinere Varianten gemacht, diese habe ich immer auf meinen Flat per Matrox MXO2 Box via HDMI im richtigen Farbraum optisch kontrolliert. Die 38te Version ist das nun, ich fand sie am besten - in Richtung warm. Zuviel Farbe kann ich nicht bestätigen, erhöht ihr nachträglich den Kontrast mit einem Effekt, hat das auch Auswirkung auf die Farbwirkung - am besten ist es also mit einem "Histogramm Effekt" zu arbeiten. Besonders rot kann wieder clippen - warum auch immer. Dieses rote Farbverhalten zu korrigieren hat am meisten Zeit gekostet. Hier musste ich eine leichte Kurve nur für Rot verwenden, bis zu ca. 70% läuft rot linear, danach steigt rot nur noch 20% weiter an. Beim Kirchenfenster mit dem knall roten Glas erreiche ich so trotzdem einen R Wert von 255.
Ich werde also nochmals eine LUT erstellen die nach meinen Waveform und Vectorscop "neutral" ist. Auch werde ich davon jeweils 2 Varianten Size 32 und Size 64 erstellen.
Danach gibt es noch ein DIY Pack ;-) für alle die in die LUT Anfertigung einsteigen möchten. Ein ZIP mit einigen Testbilder im Pocket ProRes Format.
Bitte nochmals beachten, meine LUT wurde mit Heliopan 103 + Heliopan ND 0.9 bei 800 ASA erstellt.
Für die lieben Spender der 30 Euro habe ich mir folgendes ausgedacht, sie bekommen von mir exklusiv alle weiteren FilmLUTs für die Pocket. Das dauert aber noch ein paar Tage, ich gebe gerade das restliche Material zum scannen ab. Dazu habe ich gerade eben sogar ein Polaroid von einem Colorchart geschossen. Ich besitze die sauteure Profi Polaroid Land 190, da wurden nur sehr wenige von hergestellt. Sie hat einen ganz eigenen Look ;-)
zum Bild
Antwort von Reiner M:
Die 38te Version ist das nun, ich fand sie am besten - in Richtung warm. Zuviel Farbe kann ich nicht bestätigen,
Es ist das Zusammenspiel der Farben in der Mischung. Dreiviertel im Vektorskop von Magenta bis kurz vor Gelb ist in Ordnung, fast untersättigt. Das Viertel zwischen Gelb und Rot dagegen m. E. im Verhältnis sehr stark. Motive mit großen Farbanteilen daraus werden zu knallig werden. Die Relationen sind also noch nicht ganz stimmig, meine ich.
Besonders rot kann wieder clippen - warum auch immer.
Na, sag ich doch. ;)
Aber Clippen des reinen Rots ist nur ein kleiner Randeffekt daraus. Das steckt man weg. Der Eindruck der übrigen Farben machts aus, die sich aus den überhöhten Sättigungen entlang der Achse ergeben und wie sie im Verhältnis zum Rest stehen.
Der Warmton mildert diesen Eindruck m. E. etwas ab, nivelliert sozusagen das Bild. (Weshalb Du ihn wohl gewählt hast?). Das Gesamtbild erscheint optisch ausgewogener.
Ich werde also nochmals eine LUT erstellen
Hast Du mal eine Version probiert, die einfach die Gesamtsättigung etwas reduziert? Deine Vorgängerversion bot sich dafür an. Nur als Vorschlag: Gesamtsättigung runter und dann sehen, wo noch Korrekturbedarf ist.
Nimm dafür vielleicht auch mal das Testbild mit den Farbkästchen (die Sony-Geschichte). Da ist Rot stärker vertreten als im Kirchenfenster. Aber auch hier sollten 100% Sättigung eigentlich nicht überboten werden.
Verstehe das bitte nur als Tipps fürs Feintuning. Das bisherige Ergebnis ist schon recht gut, finde ich (soweit ich es ohne Cam beurteilen kann).
Ich wünsche Dir viel Erfolg und vor allem weiterhin viel Spaß.
Beste Grüße,
Reiner
Antwort von ruessel:
...und ich bin blutiger LUT Anfänger, vor einigen Wochen wusste ich noch nicht einmal was ich damit anfangen kann ;-)
Das Grün ist durch mein "Warm" auch nicht mehr exakt. Das geht wirklich noch ein wenig besser.
Ich habe gerade ein paar Testbilder hochgeladen: Pocket, 800ASA, Speedbooster, Nikon 18-55, Heliopan 103, Heliopan ND 0.9
Die meisten Testbilder habe ich in 3 Belichtungsvarianten gedreht, nach Histogramm der Pocket. (Histogramm normal mittig rechts, mittig, am linken Ende ausgerichtet)
http://www.fxsupport.eu/temp/pocket_test.zip (51 MB)
Antwort von domain:
So richtig spaßig wirds für Ruessel wohl erst werden, wenn er in einer zweiten Stufe seinen geliebten Kodachrome 40 simulieren kann ;-)
Hier ein Bild aus den 80-er Jahren, wo doch schon erhebliche Farbkorrekturen nach dem Scan notwendig waren, welche bei den Dias des wenige Jahre älteren Ektachrome 64 bisher nicht erforderlich waren, die glänzen noch nahezu in Originalfarben.
Titi&Gaga-See (durch Minenabwässer vergiftetes Dreckloch in den Anden) 1984 auf Kodachrome 64:
zum Bild http://img5.fotos-hochladen.net/uploads/titicacay0bfjlazsp.jpg
Antwort von acrossthewire:
So Pocket Freunde..... ich glaube ist was ganz heißes hier:
http://www.fxsupport.eu/temp/BMPCC_LUT_V2.zip
Hier ein Spendenaufruf - hab' soeben 30 Euro an ruessel
Schönen Dank auch.... ist man in den heutigen Zeiten gar nicht mehr gewöhnt. Ich kanns nach langer Krankheit gut gebrauchen....
Hallo Wolfgang
Hast du den Downloadlink gekillt? Würde bei gefallen auch spenden.
Liebe Grüsse
Jochen
Antwort von ruessel:
Hast du den Downloadlink gekillt?
Ja, damit nicht zu viele alte LUTs durch die Gegend fliegen.....
Link geht jetzt wieder. Version 2.11 nun völlig Farbneutral. Hoffe ich ;-)
http://www.fxsupport.eu/temp/BMPCC_LUT_V2.zip
Antwort von ruessel:
Hier noch aktuelle Beispiele der LUt V2.11.
LUT 64 in PP CS6 drauf geklatscht und nur eine Tonwertkorrektur durchgeführt - keine Farben, kein Kontrast, keine Helligkeit oder sonst etwas geändert. Geht bestimmt mit etwas gefummel noch besser..... ;-)
zum Bild
zum Bild
zum Bild
zum Bild
zum Bild
Antwort von ruessel:
BMPCC LUT V211
zum Bild
Antwort von ruessel:
Und natürlich wie immer der Hinweis, wem etwas ungewöhnliches an der LUT 2.11 auffällt - bitte melden.
Für heute ist aber Schluss und morgen muss ich mich um die Ohrwürmer 3 kümmern, sind wieder einige Gehäuse vorab gekommen. Die FilmLUTs werden wohl in einigen Tagen starten, morgen Abend sollen meine Scanns zurück kommen. Leider ist Kodakchrome 40 nicht dabei, den kann keiner mehr entwickeln.
Zu erwarten sind folgende LUTs:
Agfa Precisa 100
Fuji Provia 100 / 400X / 400F
Fuji Sensia 100
Polaroid 690 / 669
Kodakchrome 25 / 64 / 200
Ektachrome 100 GX / VS
Kodak Vision 3
Antwort von domain:
Mit leichtem Geschubse von unterschiedlichen Seiten bist du m.E. jetzt endlich bei nicht mehr so übertriebenen Farben und im vollen Dynamikumfang angelangt.
Die LUT 2.11 gefällt mir ausgesprochen gut.
Antwort von Reiner M:
@ruessel
Herzlichen Glückwunsch!
Das passt m. E. ganz gut!
Ich bin gespannt, was die Besitzer der Cam dazu sagen, die damit ihre Real-Life-Aufnahmen korrigieren.
Ich habe auch geschubst und ich hoffe, mit meinem Hang zum Perfektionismus nicht genervt zu haben. :)
Zwar ging noch was, aber nun soll es mal gut sein ...
----------------------
Zu Deinen geplanten Film-LUTs:
Das sind spannende Dinge. Aber sind sie nicht etwas zu nostalgisch? Gibst die Zielgruppe noch? ;)
Ich bin auch nicht mehr jung, mir sagt das deshalb noch was. Doch die Jungen unter uns? Was wissen die von "Ektachrome"?
Die suchen doch eher Looks, wie sie die Cam-Hersteller der digitalen Cams oft mitliefern und manchmal eben nicht. In der Post dann per LUT von "Neutral" auf "Landschaft", "Natürlich", "Club" oder "Film 70th" graden zu können, spricht sie vielleicht eher an.
Aber Du machst das schon. Ist Dein Baby ... ;)
Nur so viel: Denke ggf. an Varianten wie "warm", "kalt", "weniger satt" (ist auch irgendwie "in") - da gab es schon Wünsche hier.
Die V2.11 ist dafür eine gute Basis.
Du hast Dir da richtig Arbeit für viele neue Projekte aufgehalst. ;)
Viel Spaß dabei!
Beste Grüße,
Reiner
Antwort von dienstag_01:
Die Bilder zeigen sehr schön, wie kompliziert Farbe in Fotos/Film ist: das Ergebnis sieht nur noch billig bunt aus.
Ich will die geleistete Arbeit gar nicht in Zweifel ziehen, aber ausser für einen Null-Acht-Fuffzen-Magazinbeitrag kann man keines der Bilder verwenden.
Interessant ;)
Antwort von Axel:
Die Bilder zeigen sehr schön, wie kompliziert Farbe in Fotos/Film ist: das Ergebnis sieht nur noch billig bunt aus.
Ich will die geleistete Arbeit gar nicht in Zweifel ziehen, aber ausser für einen Null-Acht-Fuffzen-Magazinbeitrag kann man keines der Bilder verwenden.
Interessant ;)
Billig bunt?
Ich denke oft (aber nicht immer) bei TV-Nachrichtenbeiträgen, wie hoch die technische Qualität ist. Scharf, klar, stimmige Farben. Das ist die Pflicht. Man muss quasi handwerklich und technisch in der Lage sein, den röhrenden Hirsch zu malen, dann kommt die Kür.
Antwort von ruessel:
Das Problem am Anfang war hier, das ich keine richtigen Gelb und Rottöne aus meiner Pocket bekommen habe, das ist nun gelöst. Das die Bilder nun ausschauen wie aus einer Null Acht Fünfzig Kamera liegt einfach am sterilen REC709 look. Aber daraus nun gefällige Bilder zu machen dürfte doch nun wirklich kein Problem sein - alle Farben sind nun da, einschl. Hauttöne auf der I Linie.
Holt euch doch die anderen LUTs aus dem Netz und freut euch über orange T-Shirts und ausgefressene Lichter. ;-)
Ich lass meine Bilder so auch nicht, sie bekommen einen warmen Look, das passt dann schon für die meisten Aufgaben.
Wie nun die weiteren Looks ausschauen, Kodak Fuji, Agfa.... kann ich noch nicht sagen. Ich werde die LUT Tabelle nach den gemessenen Farben der abgescannten Bilder umbiegen. Keine Ahnung wie das ausschaut, da ja die Dichte der Bilder eigentlich noch selber optimiert werden muss, aber auch dort wird rot nicht unbedingt zu orange.
Aber sind sie nicht etwas zu nostalgisch? Gibst die Zielgruppe noch? ;)
Natürlich, aber wer kennt nicht die bunten Bilder aus den 60er + 70er Jahren.
zum Bild
Kodakchrome 64
Antwort von Klose:
Was ist mit dem GH4 Material?
Im Netz wird berichtet das das Orange viel zu stark gesättigt wird, meinst du es gibt eine LUT für die GH4?
VisionColor OSIRIS ist nicht auf die GH4 abgestimmt wegen dem Orange
weiß nicht ob VisionColor IMPULZ besser ist, das habe ich nicht.
Antwort von ruessel:
Was ist mit dem GH4 Material?
Keine Ahnung. Um eine LUT selber zu erstellen benötigt man genormte Farbcharts, genormtes Licht und die Kamera selber. Daraus kann man dann eine neutrale LUT erzeugen, wo ALLE Farben stimmig sind - diese LUT passt aber auch nur dann für diese eine Kamera.
Zu bedenken ist auch der Sensor der Kamera, wenn dort eine Farbe weit entfernt vom echten Leben aufgezeichnet wird, hat das auch Auswirkungen auf alle Zwischenfarben. Eine LUT wird zwar versuchen die Farbe auf den richtigen Platz zu zwingen, kann aber dann Banding oder andere nette Fehler erzeugen.
Die Version 2.11 muss nicht die letzte Version sein. Sie ist ein Produkt meines Kenntnisstandes meiner Software. Auch sind ein paar Parameter (Tiefen, mitte, Highlights) von mir fest in der LUT verdrahtet. Sollten Probleme später aufgezeigt werden, kann ich diese sofort verändern. In meinen Probeaufnahmen konnte ich aber nichts gravierend schlechtes feststellen, das hat aber nix zu sagen ;-)
Kontrolliert habe ich im YUV Farbraum auf einen neuen (etwas Farbjustierten) 46 Zoll Sony Flat.
Original Fuji Sensia 100
Antwort von cantsin:
Was ist mit dem GH4 Material?
Im Netz wird berichtet das das Orange viel zu stark gesättigt wird, meinst du es gibt eine LUT für die GH4?
Ich würde intern aufgezeichnetes Material der GH4 - und jeder anderen 8bit-Kamera - so wenig farbkorrigieren wie nötig (am besten gar nicht), sondern möglichst nahe am gewünschten Resultat in der Kamera aufzeichnen.
Antwort von ruessel:
Die ersten scanns sind per email angekommen, die Firma benutzt dazu den bekannten Nikon Scanner. Negative und Dias sind fertig, es fehlen noch weitere 8mm +16mm Filmschnipsel und die Polaroids.
Der erste Blick zeigt doch große Unterschiede im Material, ich versuche die Farben der Pocket (6 Grundfarben + 4 Hauttöne) plus der Grautreppe in einer LUT anzupassen...... mal schauen was da raus kommt. ;-)
Ich habe vor ein (Roh) Frame der Pocket vom Testchart mit LUT Buddy oben links ein 64er Farbraster zu schreiben. Danach kommt die Anpassung der Farben nach der Scannvorlage und dann das so mit geänderte 64er Farbraster mit LUT Buddy wieder auslesen und die 3D LUT zu speichern. Sollte doch so funktionieren?
zum Bild
Antwort von Klose:
Was ist mit dem GH4 Material?
Im Netz wird berichtet das das Orange viel zu stark gesättigt wird, meinst du es gibt eine LUT für die GH4?
Ich würde intern aufgezeichnetes Material der GH4 - und jeder anderen 8bit-Kamera - so wenig farbkorrigieren wie nötig (am besten gar nicht), sondern möglichst nahe am gewünschten Resultat in der Kamera aufzeichnen.
Ich benutze für die GH4 keine LOG Lut sondern das Rec709 von Osiris, damit kann mann die Farben nur in die gewünschte Richtung lenken, man muss halt dann den Kontrast Sättigung Lift Gamma usw leicht manuell bewegen.
Ich glaube bei 200mbs FHD Aufnahme kann man mehr machen trotz 420 8bit als in C4K
Antwort von domain:
Ruessel, woher hast du denn eigentlich das Dia- bzw. Negativmaterial, das du jetzt scannen ließest?
Speziell den Kodachrome inkl. Entwicklung gibt es ja schon länger nicht mehr.
Aber du hast mich jedenfalls dazu gebracht, mit dem Nikonscanner mal wieder einige alte Kodachom-Dias einzuscannen. Und da zeigten sich wieder dessen sehr spezielle Eigenschaften: stumpfe Farben, unnatürliche Grün- und Blautöne, zugefallende Schatten und fressende Lichter.
Mir schleierhaft, wie man sowas versuchen kann nachzuahmen :-)
Für Super8 war es allerdings wirklich das einzig brauchbare Filmmaterial.
zum Bild http://img5.fotos-hochladen.net/uploads/urubambav4lws92xtr.jpg
Antwort von Axel:
Speziell den Kodachrome inkl. Entwicklung gibt es ja schon länger nicht mehr.
(...)
Für Super8 war es allerdings wirklich das einzig brauchbare Filmmaterial
Ach, ich weiß nicht. Blaustichiger Kram, fand ich immer.
Fujichrome: Schön bunt, etwas weich, chromoxidgrün (Philodendrongrün, wie die Schachtel), ideal für den Alpenurlaub, weniger schön für alles andere.
Agfacolor Moviechrome: Orangestich, wie die Verpackung, schön für Menschen, da nur Haut nicht grieselte und schön wiedergegeben wurde. Hatte was Magisches.
Antwort von Skeptiker:
... Aber du hast mich jedenfalls dazu gebracht, mit dem Nikonscanner mal wieder einige alte Kodachom-Dias einzuscannen. Und da zeigten sich wieder dessen sehr spezielle Eigenschaften: stumpfe Farben, unnatürliche Grün- und Blautöne, zugefallende Schatten und fressende Lichter ...
Wenn ich mich kurz dazuschalten darf: Liegt das nun am Scan oder sehen die Original-Dias auch so aus (und wenn ja, sahen sie früher mal anders aus?)?
Ich habe ja neben KR64-Dias auch so einen Nikon-Scanner (LS-2000 mit SCSI), der leider vor einiger Zeit den Geist aufgegeben hat (man hört es beim Aufstarten: Es fehlen die üblichen Initialisierungs-Geräusche). Nikon will ihn nicht mehr reparieren, ich habe mir im Internet daher ein paar Bastelanleitungen heruntergeladen für den Fall, dass es nur eine Kleinigkeit wäre, aber bin noch nicht dazu gekommen, das Gerät zu öffnen.
Zurück zum Scan:
Ich erinnere mich, dass man für Kodachrome-Dias aufgrund der speziellen Beschaffenheit (im Gegensatz zu Dias, die mit E6-Prozess entwickelt wurden, wie Fuji- oder Ektachrome) ...
a) Im Prinzip bereits vor dem Scan in der Nikon Software Farbkorrekturen vornehmen muss (den Scanner auf Kodachrome kalibrieren).
b) Laut Nikon die automatische Software-Staubenfernung ausschalten sollte (was ich normalerweise nicht getan habe), weil sie das Scan-Ergebnis zusätzlich verfälscht.
Antwort von domain:
Mein SCSI-Nikonscanner ist sogar noch älter als deiner. Beinahe hätte ich den uralt Dell-PC unter WIN98 inkl. Scanner zum gerade stattfindenden allgemeinen Sperrmüllentsorgen getragen.
Mit DOS-Befehlen und der TWAIN-Schnittstelle in Picture-Publisher gelang dann nach 10 Jahren des Nichtgebrauches aber doch noch ein Scannen und zwar mit erheblichen Verbiegungen der Gammakurven.
Jetzt sehen die Dias beinahe besser aus als im Original, aber halt so bescheiden wie ein Kodachrome nach 30 Jahren Lagerung aussehen kann.
Hier ein Zwischenergebnis, Rotkurve etwas zu stark angehoben.
Die automatische Staubentfernung habe ich überhaupt nie verwendet.
zum Bild http://img5.fotos-hochladen.net/uploads/nikonls1000hpl37d4smr.jpg
Antwort von ruessel:
Ich hatte früh den wunsch mir eine elektronische Super 8 Kamera zu bauen. 2006 hatte ich mir eine sauteure DSC Testtafel gekauft, damals war ich HD Kameratester einer bekannten Video Zeitschrift. Dort begann ich auch auf chemischen Film die Tafel festzuhalten - sollte mal ein Bericht werden mit dem Thema Filmlook. Natürlich können nun Alterungsprozesse die Farben in den letzten 10 Jahren verändert haben, das ist nun einmal so.
Da ich auch ein SW Fan bin, natürlich auch auf SW Material. Auch habe ich bei Bekannten die damals noch mit 8+16mm gefilmt haben, kurz meine Tafel abfilmen lassen. Diese Filmschnipsel kommen nun fixiert in ein Glasdia, das sollte zur Analyse reichen. Die Polaroids werden mit einen prof. Flachbettscanner abgetastet. Nun übertrage ich meinen S8 Wunsch auf die Pocket, da brauche ich selber mit meinem 2K SDI Videomodul nicht mehr weiter zu experimentieren.
Ich denke hier nun völlig realistische Filmlooks herzustellen ist auch etwas hoch gegriffen, das Filmkorn z.B. brauche ich nun wirklich nicht. Ich gebe zu, das ist alles nur ein Look. Aber warum nicht? Und bitte beachten, ich würge die Farben vom BMPCC RohPRORes (inkl, IR Sperrfilter) um, diese LUTs passen zu keiner anderen Kamera bzw. geben da völlig andere unvorhersehbare Ergebnisse!
Ich glaube meine dias/Neg werden mit einem nikoin 8000er gescannt, bin mir aber nicht ganz sicher....
Antwort von domain:
Ich merke immer mehr, das du nicht loslassen kannst, sehr sympathisch.
Die Super-8 Videos sind doch qualitativ unter aller Kanone, so wie ich es immer schon gesagt habe, keine Spur davon, dass sie auch nur annähernd der letzten SD-Qualität entsprechen.
Das Loslassenkönnen versuche ich in den letzten Jahren zu kultivieren.
Mann, was habe ich schon alles entsorgt:
„Die zweiten Zähne ließ ich mir reißen, die dritten kommen gerade zurecht, um ins Gras zu beißen“
Antwort von ruessel:
da jeder mitbekommen hat, das ich nicht der Farbguru bin (bin aber Lernfähig....hoffe ich), mache ich nun eine Farbweiterbildung ;-)
17 Stunden Kursus..... danke Ralf für den Tipp. Möchte dafür kurz Werbung machen:
&
Antwort von Axel:
Die Sache mit dem zu Anfang der Tutorial-Preview erwähnten Ambientlights für seinen Schnittplatz ist gerade schwieriger geworden: Die 6400°K Leuchtstoffröhren (typische Küchenblenden-Stäbe, meist mit integrierten elektronischen Gleichrichtern) verschwinden aus den Regalen und werden von dreimal so teuren LED-Stäben abgelöst, die schreien: Mit mir verquast deine Netzhaut in Nullkommanix mit Kryptonit-Kristallen!
Antwort von ruessel:
Ich merke immer mehr, das du nicht loslassen kannst,
Wie ich von einem Forums-kollegen erfahren haben, arbeitet ARTE zur Zeit auch mit S8 Simulation in einer aktueller Reportage:
Do, 18.09. um 1:55 Uhr
http://www.arte.tv/guide/de/053431-000/ ... romae-more
sehr nett gemacht....... Also, Super 8 Farben müssen her ;-)
Antwort von domain:
Es gäbe natürlich schon gewisse Themen mit speziellen Bildern, die historisch besonders in Super-8 wirken würden.
Wenn ich nur an die 2-er Straßenbahn-Linie in Graz denke, auf deren Trittbretter wir aufgesprungen und schwarz auf holperigsten Schienen mitgefahren waren. Der Schaffner thronte (heute noch mit th geschrieben, weil sich Kaiser Franz Josef trotz Rechtschreibreform niemals auf einen Tron gesetzt hätte) auf einem erhöhten lederbezogenen Kissen ganz hinten und rief: bitte rückwärts einsteigen, dann zog er an einem Lederriemen über ihm, der ein Glockensignal für den Fahrer zur Abfahrt auslöste. Wäre eigentlich beim Wort zu nehmen gewesen, man hätte mit dem Rücken voraus mal hinten einsteigen müssen.
Aber hinten klingt für österr. Ohren nach Hintern, also genauso unanständig wie Stuhl, es gibt nur anständige Sessel. Vorne stehend der Wagenfahrer, kein kommoder Sitz, nur schwer zu bedienende und ratternde Bedienelemente.
Für solche Dokumente wäre Super-8 nicht nur ausreichend, sondern sogar prädestiniert, aber für sonst was kaum noch, außer für Puch-500 Urlaube zu viert nach Lig-Nano.
Einen besonderen Super-8- Film habe ich aber auch, nämlich den ganz jungen noch unverschmorten Niki-Lauda mit seinen Biberzähnen bei einem der ersten Salzburg-Ring-Rennen, wo übrigens auch Annemarie Pröll hetzhalber ein paar Runden mit einem Formelwagen fuhr.
Antwort von cantsin:
Mal wieder zurück zu ruessels LUT. Die Version mit cube size 64 scheint in Resolve Lite nicht zu funktionieren, wohl aber funktioniert cube size 32. Hier ein ultrakurz-Video, das mit ruessels BMPCC LUT32 V2.11 und Filmconvert (Standard sRGB nach FJ 8543 VD/Fuji Eterna Vivid 160T) farbkorrigiert wurde:
EDIT: was man hier übrigens sieht, ist, dass der Vimeo-Player die Farben verbiegt. Ich sehe auf allen Displays einen Lilastich z.B. beim Papier des Notizbuchs in der ersten Einstellung, obwohl da in Resolve die Farbsättigung per Maske völlig rausgenommen wurde.
Antwort von ruessel:
Also zwei LUTs hintereinander geschaltet?
da bin ich nicht so glücklich. Ich hatte ja Bildfehler dabei bemerkt, z.B. wird erst Gamma runtergezogen, danach wieder hoch - kann das so mehr rauschen?
Ich fange bald mit den neuen LUTs an. Dazu werde ich eine Seite basteln um den Stand der Dinge sichtbar zu machen...... ist jedenfalls so von mir geplant.
Ich arbeite aber gerade 17 Stunden Color Grading Videos durch.... dann fließt noch geballtes Wissen eines Farbprofis in meine Luts mit ein ;-)
Antwort von cantsin:
Also zwei LUTs hintereinander geschaltet?
In den meisten Farbkorrektur-Workflows ist das AFAIK völlig normal. Man hat z.B. Ausgangsmaterial verschiedener Kameras, dass man per jeweils angepasstem LUT nach Cineon-LOG bringt, gradet in Cineon, während man für den Vorschaumonitor noch eine Rec709-LUT dahinterschaltet - und rendert dann womöglich noch mit einer weiteren LUT in einen anderen Farbraum.
Das dürfte nur ein Problem bei LUT-Buddy und seinem 8bit-Output sein, nicht aber in Systemen wie Resolve oder Adobes Lumetri.
Antwort von ruessel:
Ich mache gerade eine Pause..... 17 Stunden ziehen sich. Ich werde nun in den nächsten Kapiteln Fit gemacht für Resolve, mal schauen ob da andere LUT Ergebnisse für die BMPCC raus kommen.
Kodak, Fuji, Orwo, and Agfa:
Ich sehe auf allen Displays einen Lilastich
Ist das nicht Fuji Vivid typisch?
Antwort von cantsin:
Ich sehe auf allen Displays einen Lilastich
Ist das nicht Fuji Vivid typisch?
Nee, das Material ist unter dem Fuji-LUT gegradet.
Antwort von Axel:
Ich mache gerade eine Pause..... 17 Stunden ziehen sich. Ich werde nun in den nächsten Kapiteln Fit gemacht für Resolve, mal schauen ob da andere LUT Ergebnisse für die BMPCC raus kommen.
Nach dem nun dritten Projekt, das ich in Resolve bearbeitet habe (19 Minuten, 54 Clips, 4 Minuten, 38 Clips und 9 Minuten, 148 Clips, meine diversen "Testshots" waren nicht in Resolve), bin ich hinreichend sicher, dass ich dort maximal eine Monitor-LUT zur korrekten Wiedergabe über Decklink Mini Monitor verwenden werde, auch weiterhin.
Mache bitte auch du den Versuch, eine Premiere-Testsequenz "aus dem Leben" auch einmal ohne LUT zu graden, beginnend vielleicht mit >Color >Primaries (den Balken), um per Waveform Höhen, Mitten und Tiefen einzustellen, wobei du die Sättigung schon einmal erhöhen kannst, um dann mit den Color Wheels unter Zuhilfennahme des Vektorskops die Farbbalance einzustellen. Stelle alles perfekt ein, so gut, wie es geht.
Mache einen Frame-Grab (alt cmd g - Screenshot eines Frames, der zugleich als Referenzbild für einen Vergleichssplitscreen dient, aber auch den Grade selbst speichert). Dann deaktiviere deine Korrekturen, wende deine LUT an und korrigiere den Clip fertig.
Anschließend vergleiche per Splitscreen beide Ergebnisse.
Antwort von cantsin:
Axel, verstehe ich Dich richtig, dass eine ganze Sequenz mit einer Einstellung gradest, und nicht jeden Clip individuell?
Antwort von Axel:
Axel, verstehe ich Dich richtig, dass eine ganze Sequenz mit einer Einstellung gradest, und nicht jeden Clip individuell?
Ich schneide im NLE und importiere die ungegradete Sequenz nach Resolve. Dort bearbeite ich natürlich Clip für Clip.
Allerdings verfahre ich dabei so, dass ich von einer tatsächlichen Sequenz (im Sinne von Szene, eine Abfolge von Clips in derselben Umgebung) mir das interessanteste Frame herauspicke und es komplett korrigiere, allerdings noch ohne einen Look im Hinterkopf. Die restlichen, die ähnlich sind, gruppiere ich und wende den Grade darauf an. Von da an arbeite ich mit alt cmd f (lädt das Referenzbild) und cmd w (toggelt den Splitscreen im Viewer) und passe die anderen Clips an den ersten weiter an.
Im NLE habe ich eine LUT auf einem Adjustment Layer, damit ich nicht permanent Grauschleier-Clips sehe.
Würde ich Raw schießen, wäre mein Workflow sicherlich so, dass ich, bevor ich Proxies für mein NLE mit Resolve herstellen würde, alle Clips mit einer LUT belegen würde.
Antwort von CameraRick:
Würde ich Raw schießen, wäre mein Workflow sicherlich so, dass ich, bevor ich Proxies für mein NLE mit Resolve herstellen würde, alle Clips mit einer LUT belegen würde.
Normalerweise importiert Resolve die RAW Clips ja schon immer mit REC709 settings (bei BM Cams und RED zumindest), sodass Du das im Zweifel gar nicht separat brauchst.
Ansonsten einfach eine 3D Output-LUT festlegen, alle Clips in eine Sequenz ziehen, komplett exportieren ("Individual Sourceclips" und "use Source Filenames" natürlich angeschaltet, keine Prefixe/Suffixe). Hat man nun noch im Menu die rechten Settings vergeben ist es ein traumhaft einfacher Offline-Workflow, der einem bevor steht :)
Antwort von ruessel:
Mache bitte auch du den Versuch, eine Premiere-Testsequenz "aus dem Leben" auch einmal ohne LUT zu graden
Kann ich später mal machen, aber damit wirst du wahrscheinlich kein richtiges Rot und Gelb/Grün bekommen, ich vermute fast - hier ist der Sensor der Pocket schuld und muss in diesen Farben korrigiert werden, das wäre mit einer passenden LUT wesentlich schneller gemacht. Wir werden sehen.
Antwort von ruessel:
Seit ich hier mit LUTs beschäftigt bin, ertappe ich mich dabei, auch bei Blurays aus Hollywood auf Kontraste und Farben stärker zu achten - man(n) kann einfach nicht abschalten ;-)
Gestern kam zum ersten mal "Dracula" von 1979 auf BD raus. Hier wurden die Farben auf Wunsch des Regisseurs zu einem grau/grünen Brei gemixt. Die "Farbgebung" sollte angeblich an die SW Vorgängerfilme angelehnt werden.
Meine Meinung dazu ist vernichtend, damit wurde ein völlig blutleerer Film gestaltet. Weder die Landschaftsszenen noch die Erotik des Bisses in den fleischigen Hals kommt so rüber. Hier hätte man wirklich gleich mit SW kontrasten arbeiten können. So ist es nicht Fisch und nicht Fleisch. In Hammers Dracula durfte Christopher Lee noch in schönen Primärfarben schwelgen - so wird Blut in den Vordergrund gestellt und das ist bei dem Thema Dracula auch gut so.
Auch hatte ich manchmal das Gefühl, beim entwickeln des Materials ist etwas schief gegangen. Wurde hier nur auf die HighLights belichtet?
zum Bild
zum Bild
zum Bild
Antwort von CameraRick:
Hey Ruessel,
immer noch interessiert an dem Gefummel im DaVinci?
Wenn man derzeit die Zeitschrift "Foto Hits" abonniert (35€/Jahr), kriegt man einen Spydercheckr (ca 55€) dabei, mit dem man die Color Match-Funktion nutzen kann; damit kommst ggf auch näher an das, was Du da vor hast?
Man spart etwas Geld und kriegt dazu noch (verhätnismäßig seichte) Unterhaltung aus einer Zeitschrift
Antwort von Axel:
Gestern kam zum ersten mal "Dracula" von 1979 auf BD raus. Hier wurden die Farben auf Wunsch des Regisseurs zu einem grau/grünen Brei gemixt.
(...)
Auch hatte ich manchmal das Gefühl, beim entwickeln des Materials ist etwas schief gegangen. Wurde hier nur auf die HighLights belichtet?
zum Bild
zum Bild
zum Bild
Bei diesem Dracula sind die Farben nicht das Problem. Das Problem ist, dass Frank Langella den Charme von Peter Alexander verströmt. Man erwartet jeden Augenblick, dass er mantelschwingend singt, mit österreichischem Süßrahm in der Stimme.
Du hast Recht, die Bilder passen nicht zum Genre, aber ein Pocket-Besitzer muss sie doch eigentlich schön finden?
Die aus meiner Sicht besten Draculas sind Murnaus Schwarzweiß-Stummfilm von 1922 und Coppolas farbenfrohe Kino-Oper. Beide übrigens sehr kreativ in ihren Spezialeffekten.
Antwort von ruessel:
Das Problem ist, dass Frank Langella den Charme von Peter Alexander verströmt. Man erwartet jeden Augenblick, dass er mantelschwingend singt, mit österreichischem Süßrahm in der Stimme.
;-)
aber ein Pocket-Besitzer muss sie doch eigentlich schön finden?
Stimmt in der Tat, ich habe beim Film schauen öfters einen ProRes Eindruck bekommen. Auch nicht gerade förderlich für den Film.
Ich finde es aber spannend das Hollywood auch voll neben den Farben haut......
immer noch interessiert an dem Gefummel im DaVinci?
ich fummel gerade am DaVinci, nach einigen Stunden massiver Fortbildung traue ich mich daran. Was ich auf jeden Fall verkehrt gemacht habe, ich habe die LUT im RGB Modus erstellt - vollkommen verkehrt, damit hat die Luminanz direkt Auswirkung auf die Farben. Zum Glück lässt sich DaVinci umstellen, bin mal gespannt ob somit genauere LUT erstellt werden können.
Ich habe unser Sonnenwetter zur Zeit für einige neue und sehr kritische Testaufnahmen in Prores bei 5600K ausgenutzt.
Antwort von CameraRick:
ich fummel gerade am DaVinci, nach einigen Stunden massiver Fortbildung traue ich mich daran. Was ich auf jeden Fall verkehrt gemacht habe, ich habe die LUT im RGB Modus erstellt - vollkommen verkehrt, damit hat die Luminanz direkt Auswirkung auf die Farben. Zum Glück lässt sich DaVinci umstellen, bin mal gespannt ob somit genauere LUT erstellt werden können.
Ich habe unser Sonnenwetter zur Zeit für einige neue und sehr kritische Testaufnahmen in Prores bei 5600K ausgenutzt.
Klingt super! Falls Du magst kann ich Dir auch Color-Checker Material zukommen lassen (nicht von der Pocket sondern der großen, aber die sollen nach Aussagen von vielen ja weitesgehen gleich sein)
Antwort von ruessel:
Falls Du magst kann ich Dir auch Color-Checker Material zukommen lassen
Danke, ich habe aber nun auch einen eigenen color checker....
Antwort von CameraRick:
Phantastisch! :)
Antwort von ruessel:
wir werden sehen ;-)
zum Bild
Antwort von Reiner M:
Was ich auf jeden Fall verkehrt gemacht habe, ich habe die LUT im RGB Modus erstellt - vollkommen verkehrt, damit hat die Luminanz direkt Auswirkung auf die Farben.
Meinst Du die Arbeitsweise oder das Ergebnis, die exportierte LUT?
Die Wahl der Werkzeuge bei der Arbeit beeinflusst nur die Vorgehensweise, um zum Ergebnis zu kommen. Mehr nicht.
Dein Vektorskop zeigt ja in jedem Fall während der Arbeit die Farben der Cb/Cr-Kanäle (nicht die RGB-Kanäle), die Y-Waveform die Luminanz im Y-Kanal. Egal, mit welchen Werkzeugen Du da ran gehst.
Die exportierte LUT enthält schließlich die resultierende Umsetzung Deiner Arbeit in RGB, also die absoluten RGB-Werte je RGB-Kanal.
Beste Grüße,
Reiner
Antwort von ruessel:
Meinst Du die Arbeitsweise oder das Ergebnis, die exportierte LUT?
Meine Arbeitsweise, denn die LUT kann doch nur in RGB vorliegen - wenn ich das richtig verstanden habe.
Es geht mir um die Kontrasteinstellung. Hier habe ich einen Fehler gemacht und zuerst die Farben getrimmt dann in einer anderen Software die Kontrasteinstellung im RGB Modus bearbeitet. Ich wusste nicht, das dabei im RGB die Farben auch hoch oder runtergezogen werden und nur im YUV Modus man wirklich sauber Helligkeit von der Farbe getrennt bearbeiten kann - Basics eines Coloristen der ich nicht bin.
Ich glaube auch, das nicht jede Software ein YUV Modus mitbringt, in Premiere CS6 habe ich noch gar nicht geschaut. Es ist ja ein leichtes dies festzustellen, bewege ich die Helligkeit darf das Vectorscop sich kein Haar bewegen. Ja, ich lerne dazu ;-)
Nochmal zum Color Checker, der bietet im DaVinci eine "mach mal schnell die Farben schön" Taste. Im Prinzip funktioniert es auch, nur in der Praxis nicht. Hier wird das Rot der Pocket völlig übersteuert und frisst aus. Das hatte ich auch schon von Hand festgestellt und versucht gefühlvoll zu steuern. Hier bin ich noch am basteln, Gelb und Grün gelingt mit DaVinci wirklich sauber.
Eigentlich wollte ich schon damit fertig sein, aber im Verwandtenkreis gibt es einen Krankheitsfall und ich mache den Fahrer...... ich komme nur Stundenweise dazu eine LUT zu basteln.
Antwort von krokymovie:
ruessel ich habe mal mit deiner lut gespielt...deine lut 2.11 trifft die farben gut ;O)
klasse arbeit von dir, danke.
gruß krokymovie
Antwort von ruessel:
Danke, wird vielleicht noch besser ......
Antwort von Reiner M:
Ich wusste nicht, das dabei im RGB die Farben auch hoch oder runtergezogen werden und nur im YUV Modus man wirklich sauber Helligkeit von der Farbe getrennt bearbeiten kann - Basics eines Coloristen der ich nicht bin.
Ich glaube auch, das nicht jede Software ein YUV Modus mitbringt, in Premiere CS6 habe ich noch gar nicht geschaut. Es ist ja ein leichtes dies festzustellen, bewege ich die Helligkeit darf das Vectorscop sich kein Haar bewegen. Ja, ich lerne dazu ;-)
Ja, das sind alles sind sehr wichtige Erkenntnisse. Ich hatte deshalb weiter oben schon mal darauf hingewiesen:
2. Der erste sinnvolle Schritt ist dann die Gamma-Anpassung im Y-Kanal. Dabei solltest Du darauf achten, dass der mittlere Grauwert immer auf 50% bleibt. Das zeigt Dir Dein Vektorskop nicht.
3. Dann erst gehts an die Farben. Wenn möglich, Cb-Gamma und Cr-Gamma getrennt justieren, ggf. eine Reverse, also ein S-Kurve drauf ausprobieren, um die Verteilung der Tonwerte anzupassen. (Kann man natürlich je nach Werkzeug auch anders machen).
RGB kennt keine dedizierten Kanäle für Luminanz und Sättigung. Helligkeiten und Sättigungen von Farben entstehen allein durch Wertänderungen in allen drei Kanälen R, G, und B, die ja immer gemischt werden.
Der Grauwert ist daher ein wichtiger Indikator bei dieser Arbeit. In reinen Grauwerten (von Schwarz bis Weiß) kommen in YCbCr keine Farben vor. Ein echtes S/W-Bild erzeugt im Vektorskop nur einen Punkt bei 0%, wenn auch in der RGB-Parade drei volle, identisch gefüllte Farbbalken.
Doch jede Änderung bedeutet für mich hier:
a) stets den mittleren Grauwert auf 50% halten,
b) bei den "Treppen" aller Grauwerte darauf achten, dass die Farben nicht auseinanderlaufen, sondern zusammengeführt bleiben oder werden. Eine weiße Stufe muss in der Wave weiß sein, nicht bunt gestreift.
Deshalb war es mir weiter oben auch wichtig, den Weißpunkt optimal zu justieren. Zu warrm oder zu kalt bringt insgesamt verdrehte Farben.
Premiere CS6 kennt übrigens unterschiedliche Werkzeuge. Manche arbeiten direkt auf YUV und nur dort, andere auf RGB. "Luminanzkurve" beispielsweise verändert tatsächlich nur die Luminanzwerte im Y-Kanal und fasst die Sättigungswerte in Cb/Cr nicht an. "RGB-Kurve" verhält sich natürlich anders.
Übrigens: In After Effects bietet "SA Color Finesse 3" (Synthetic Aperture) vollständige Werkzeuge für die getrennte Y-, Cb- und Cr-Modifikation. Leider ist dort aber der Export des Ergebnisses als LUT nicht so komfortabel gelöst. Das nur nebenbei. Du hast mit anderen Programmen zzt. genug zu tun, denke ich.
Beste Grüße,
Reiner
Antwort von ruessel:
Du hast mit anderen Programmen zzt. genug zu tun, denke ich.
Ja. ;-)
Leider funzt daVinci LUT nicht mit LUT Buddy, hier muss konvertiert werden. Umgekehrt geht es... aber nur die 32er, komisch.... habe auch schon den Header von Hand geändert, nützt aber nix.
Leider bin ich heute wieder zu nix gekommen.
Antwort von Reiner M:
habe auch schon den Header von Hand geändert, nützt aber nix.
Im Header alle Zeilen mit # (Kommentare) raus, alles Unnötige raus, nur die Zeile mit der Size-Angabe im Aufbau wie bei LUT Buddy, danach eine Leerzeile. Dann die Tabelle. Geht nicht?
Beste Grüße,
Reiner
Antwort von cantsin:
Im Header alle Zeilen mit # (Kommentare) raus, alles Unnötige raus, nur die Zeile mit der Size-Angabe im Aufbau wie bei LUT Buddy, danach eine Leerzeile. Dann die Tabelle. Geht nicht?
Bei ruessels BMPCC_LUT64_V2.11.cube : leider nein.
Antwort von ruessel:
Dann die Tabelle. Geht nicht?
Es kann nur noch die Länge der Tabelle das Problem sein - die ausgemessen habe ich nicht. Ich kann sie aber inzwischen problemlos konvertieren.
Später müssen wir uns noch unbedingt über die eigentliche Pocket Belichtung nach Histogramm kümmern. Ich würde schon einmal eine These in den Raum werfen: wenn man das Histogramm in der Mitte teilt, dann ist links davon der Böse Bereich - rechts davon der gute.
Belichte ich einen gedruckten Testchart (Grautreppe) ist der so mit Scheinwerfer beleuchtete Dynamikumfang für die Pocket zu klein, er nimmt ca. 1/3 drittel des Histogrammraumes ein. Ich habe nun die Möglichkeit diesen Testchart 3x unterschiedlich zu belichten, im unteren drittel, in der Mitte und im oberen drittel des Pocket Histogramms.
"Entwickel" ich nun diesen Chartfilm ProRes 10Bit in DaVinci, stellt sich raus, das alles was unterhalb der Mitte belichtet wurde auch sehr deutliches Bildgrieseln besitzt.
Fotografiere ich diesen Chart mit meiner Nikon in JPG, wird das gesamte Histogramm bei der selben Beleuchtung ausgenutzt. Das Bild ist dann super ohne Bildstörungen - wurde praktisch in der Kamera aus RAW so entwickelt. Bei ProRes habe ich diese Möglichkeit nicht mehr, hier sind zwar einige Blenden zum hervorholen noch drin, aber nicht mehr in guter Qualität - sprich für rauschfreie Mittentöne reicht es nicht mehr.
Das ist wichtig zu wissen. In der Natur z.B. hübsches Modell unter der Laterne sieht der Dynamikumfang ganz anders aus. Hier muss ich schon während der Aufnahme die Bildqualität festlegen.
Ich würde sagen, was nützt mir bei diesem Beispiel der Glühfaden in der Strassenlampe, wenn das Modell nachher "grieselt". Also das Modell sollte im Histogramm von der Mitte bis zum oberen drittel der Belichtung liegen, egal was das Histogramm zur Lampe sagt.
Antwort von cantsin:
"Entwickel" ich nun diesen Chartfilm ProRes 10Bit in DaVinci, stellt sich raus, das alles was unterhalb der Mitte belichtet wurde auch sehr deutliches Bildgrieseln besitzt.
Das dürfte auch der Grund sein, weshalb die Kamera nach dem ETTR-Prinzip belichtet wird (und deshalb anfangs auch nur Zebras und kein Histogramm hatte).
Antwort von ruessel:
(und deshalb anfangs auch nur Zebras und kein Histogramm hatte).
Nur Zebra finde ich aber sehr dürftig, hier kann ich eigentlich gar nix sehen wo mein Objekt der Begierde in der Belichtung steht.
Antwort von ruessel:
http://www.fxsupport.eu/temp/BMPCC_LUT_V32.zip
Neue BMPCC 3D LUT "Neutral" in drei Versionen ohne sichtbaren Unterschied untereinander:
1. LUT für Resolve
2. LUT Size 32 - LUT Buddy
3. LUT Size 64 - LUT Buddy
Ganz wichtig:
Erst die LUT benutzen und danach erst Gamma/Histogramm auf die Szene anpassen. Umgekehrt werden die Farben falsch eingestellt!!!!
LUT wurden unter Benutzung Resolve + Color Checker erstellt.
Antwort von ruessel:
Oben Link erneuert, neue Version 3.1
Jetzt auch inkl. mit etwas wärmeren Look.
ZIP enthält 3x Version 3.1 "neutral" plus 3x Version 3.1 "warm"
Antwort von Axel:
Echt gut geworden deine Resolve LUTs. Muss auch mal so einen Farbchart benutzen. Ist die Anwendung kompliziert? Gibt wohl ein paar, die ihre Schwierigkeiten damit hatten.
Antwort von ruessel:
Ist die Anwendung kompliziert?
Nein. Nur das automatische Ergebnis haut nicht hin..... ;-) Rot frisst Fläche.
Antwort von cantsin:
V3.1-warm für Resolve hat einen Bug - er funktioniert bei mir erst nach Ändern der Titelzeile.
Allgemein fällt mir auf, dass V3 mehr ins Grüne tendiert als V2, weswegen ich bei meinem Testprojekt Magenta/Grün entsprechend korrigieren mußte.
Antwort von ruessel:
Allgemein fällt mir auf, dass V3 mehr ins Grüne tendiert als V2,
Werde ich nochmal kontrollieren, Danke für den Hinweis.
Antwort von ruessel:
http://www.fxsupport.eu/temp/BMPCC_LUT_V32.zip
Ja, mit DaVinci und Colorchecker ist die Genauigkeit etwas daneben. Ich habe nun noch einmal den teuren DSC Farbchart im Sonnenlicht abgefilmt (Heliopan 103, ND Heliopan 0.9, Nikon 18-55 Optik, Speedbooster, 800ASA, 5600K).
Von Hand justiert scheint genauer, nach Vectorscop stimmen die Farben und sind auch einen Hauch kräftiger - aber extrem genau nach dem Resolve Vectorscop. siehe Anhang.
ZIP enthält wieder 3x neutral, 3x warm LUTs. Je 1x für Resolve und 2x für LUT Buddy in zwei Size Größen.
Ich weise darauf nochmals hin, zuerst das BMPCC ProRes File mit der LUT versehen, danach erst Schwarz, Mitte, Weißtöne abgleichen - sonst werden einzelne Farben wieder schief!
Antwort von ruessel:
Ich fange nun an einige Filmlooks als LUT zu basteln, aus den Daten meiner chemischen Filme.
Ich muss mir noch Gedanken machen wie ich die Gammakurven darin übertrage. Farbe und Gamma gehen Hand in Hand und können meiner Meinung nach nicht völlig getrennt gesehen werden. Wahrscheinlich kann ich diese nur Ansatzweise in die LUT einbauen, denn das rohe Prores benötigt immer noch eine Feinjustierung von Hand - je nach der Belichtung vom Kameramann/Frau.
Antwort von rainer7u5:
Fotografiere ich diesen Chart mit meiner Nikon in JPG, wird das gesamte Histogramm bei der selben Beleuchtung ausgenutzt.
Bei der Pocket hingegen ...
ist der so mit Scheinwerfer beleuchtete Dynamikumfang für die Pocket zu klein, er nimmt ca. 1/3 drittel des Histogrammraumes ein. Ich habe nun die Möglichkeit diesen Testchart 3x unterschiedlich zu belichten, im unteren drittel, in der Mitte und im oberen drittel des Pocket Histogramms.
Die Histogramme der Nikon/JPG und Pocket/ProRes-Film kannst du nicht so einfach vergleichen. JPG, sRGB und Rec.709 erlauben ca. 7 Blendenstufen Dynamikumfang, während die Pocket im Film-Modus ca. 13 Blendenstufen aufzeichnen kann. Deshalb ist im Histogramm der Pocket soviel Platz, bei der Nikon aber nicht.
Und während die Nikon wie fast alle Kameras auf 18% Grau belichtet - also in der Mitte des Histogramms normalerweise die meisten Werte liegen, belichtet die Pocket ETTR. Es wird möglichst überbelichtet, ohne die Lichter zu clippen, denn mehr Licht bedeutet mehr Detail und weniger Rauschen. Später im Grading muss man dann zwar die Belichtung herunterregeln, aber die Farbwerte haben eine bessere Qualität als wenn direkt auf 18% Grau belichtet worden wäre.
Über das Rauschen:
Fotografiere ich diesen Chart mit meiner Nikon in JPG, wird das gesamte Histogramm bei der selben Beleuchtung ausgenutzt. Das Bild ist dann super ohne Bildstörungen - wurde praktisch in der Kamera aus RAW so entwickelt. Bei ProRes habe ich diese Möglichkeit nicht mehr, hier sind zwar einige Blenden zum hervorholen noch drin, aber nicht mehr in guter Qualität - sprich für rauschfreie Mittentöne reicht es nicht mehr.
...
Ich würde sagen, was nützt mir bei diesem Beispiel der Glühfaden in der Strassenlampe, wenn das Modell nachher "grieselt". Also das Modell sollte im Histogramm von der Mitte bis zum oberen drittel der Belichtung liegen, egal was das Histogramm zur Lampe sagt.
Ich stimme dir hier zu, würde es aber anders formulieren:
1. Grundsätzlich muss der (potenziell) 13 Blendenstufen große Dynamikumfang auf die 7 Stufen von Rec.709 zusammengestaucht werden. Ob man da Schatten ins Schwarz gehen läßt oder helle Details ins Weiß, muss man im Einzelfall entscheiden.
2. Überbelichtete Bereiche abzudunkeln bewahrt deren hohe Aufnahmequalität, aber dunkle Bereiche aufzuhellen kann störendes Rauschen hervorbringen.
3. Deshalb würde ich bei der Aufnahme erstmal die Pocket ihre automatische ETTR machen lassen, dann aber prüfen, ob ggf. wichtige Bildbereiche zu dunkel erscheinen. Wenn nicht, ist alles in Ordnung, wenn ja, muss ich manuell abblenden und ausgefressene Lichter (den Glühfaden z.B.) in Kauf nehmen.
Antwort von ruessel:
kleiner Eindruck LUT Version 3.2 in der frühen Morgensonne, oben ProRes unbearbeitet, darunter die neutrale LUT inkl. schwarz/weißpunkt gesetzt, ganz unten die wärmere LUT.
zum Bild
Antwort von ruessel:
Deshalb würde ich bei der Aufnahme erstmal die Pocket ihre automatische ETTR machen lassen,
Tja, ich filme mit der Pocket grundsätzlich voll manuell..... hier muss ich mich nochmal mit dem LCD und dem Histogramm der Pocket auseinandersetzen. Denn im LCD habe ich mehr Details wenn ich ein klein wenig unter der Rechten Seite des Histogramms bleibe. Aber das ist nur das LCD was wahrscheinlich völlig nach dem Mond anzeigt.
Ein gutes Histogramm habe ich nun in PP CS6 auch gefunden, bei meinen Matroxeffekten kann ich in Echtzeit und ohne Verzögerung Schwarz/weiß und Mitten nach Histogramm einstellen. Reicht eigentlich zu 99% völlig aus.
JPG, sRGB und Rec.709 erlauben ca. 7 Blendenstufen Dynamikumfang, während die Pocket im Film-Modus ca. 13 Blendenstufen aufzeichnen kann.
Verstehe ich nicht ganz, ich kann doch auch 20 Blenden in einem JPG unterbringen, ist dann zwar optisch etwas seltsam. also 20 Blenden innerhalb von 0-255RGB, klar, dann bleiben wenig stufen pro Blende, aber sollte doch funktionieren.
Wie lange bleibe ich im 10Bit Farbraum? Kappt meine LUT schon die 10Bit auf 8Bit? Ich wüsste im Moment nicht wie ich das in PP CS6 kontrollieren könnte.
Antwort von rainer7u5:
Deshalb würde ich bei der Aufnahme erstmal die Pocket ihre automatische ETTR machen lassen,
Tja, ich filme mit der Pocket grundsätzlich voll manuell...
Wie belichtest du denn? Mittig, um die realen Verhältnisse abzubilden oder ETTR, um die "beste" Aufnahmequalität zu erhalten? Klaro, da gibt es nicht die eine mögliche Lösung.
Die Idee bei ETTR ist ja, möglichst keine Schatten aufhellen zu müssen, um Rauschen zu vermeiden. Ob ETTR manuell oder automatisch, ist dann ja egal.
Für mich ist diese ETTR-Idee ja auch ziemlich neu. Aber ich denke, es ist besser, mehrere Methoden anwenden zu können, je nach Situation.
Und im Prinzip hat ETTR viel mit dem Zonensystem der analogen Fotografie zu tun: Es ist ein Schritt, den Film so zu belichten, dass er den Dynamikumfang der Szene aufnimmt. Aber es ist ein zweiter Schritt, den Film so zu entwickeln, dass das Endresultat die richtige Helligkeit und Kontrast hat.
Erst mit Belichtung auf 18% Grau und automatischem Entwicklungsprozess auf 18% Grau sind wir verwöhnt worden.
Antwort von rainer7u5:
JPG, sRGB und Rec.709 erlauben ca. 7 Blendenstufen Dynamikumfang, während die Pocket im Film-Modus ca. 13 Blendenstufen aufzeichnen kann.
Verstehe ich nicht ganz, ich kann doch auch 20 Blenden in einem JPG unterbringen, ist dann zwar optisch etwas seltsam. also 20 Blenden innerhalb von 0-255RGB, klar, dann bleiben wenig stufen pro Blende, aber sollte doch funktionieren.
Eine Kamera, die direkt in JPG speichert, wird vielleicht noch oben und unten eine Blendenstufe unterbringen, indem sie einen weichen Rolloff macht (also technisch gesprochen eine moderate S-Kurve anwendet). Aber irgendwann muss sie die Schatten/Lichter abschneiden, denn JPG, sRGB und Rec.709 sind auf einen bestimmten Kontrast genormt.
Wenn allerdings 13 oder 20 Blendenstufen in Raw gespeichert wird und das auf einem normalen Monitor angezeigt wird, dann sehen wir das typische kontrast- und farbarme Bild, das wir von den BM Kameras kennen. Der Zuschauer wird das als häßlich empfinden, wir als "Grader" wissen aber, da muss jetzt noch der Kontrast erhöht werden, was ggf. Lichter oder Schatten abschneidet.
Wie lange bleibe ich im 10Bit Farbraum? Kappt meine LUT schon die 10Bit auf 8Bit? Ich wüsste im Moment nicht wie ich das in PP CS6 kontrollieren könnte.
Die .cube LUTs haben normalerweise Fließkomma-Genauigkeit für ihre Werte. Wichtiger sind aber die Knotenpunkte, bei deinen LUTs z.B. 32 oder 64. Das bedeutet, dass PP alles zwischen diesen Knotenpunkten interpolieren muss. PP wird also durch die wenigen Knotenpunkte gezwungen, intern in Fließkommazahlen zu rechnen. Nur schlechte Software würde danach noch alles auf 8 Bit reduzieren.
Antwort von domain:
Was mich ja wundert ist, das diese ganzen Umrechnungen überhaupt über Tabellen mit zu interpolierenden Knotenpunkten abgewickelt werden.
Bekanntlich kann jede beliebige Ziel-Kurvenform über eine simple mathematische Funktionen höheren Grades dargestellt werden.
Weiß jemand, warum das nicht in dieser Art gelöst wird?
Muss ja einen Grund haben.
Antwort von WoWu:
Weil LUTs nur zwischen den Werten interpolieren und nicht approximieren.
Antwort von domain:
Bei Funktionen muss doch weder approximiert noch interpoliert werden, da kann doch genau berechnet werden.
Verstehe ich nicht.
Antwort von ruessel:
Wie belichtest du denn?
Zur Zeit richte ich die Pocket auf mein Hauptmotiv aus und belichte nach Histogramm ganz rechts und drehe dann etwas "Headroom" noch dazu ein. Man erkennt es gut im Pocket LCD, erst wird es ganz flau mit etwas Raum zum rechten Histogrammrand kommt plötzlich Kontrast in die Anzeige.
Die .cube LUTs haben normalerweise Fließkomma-Genauigkeit für ihre Werte. Wichtiger sind aber die Knotenpunkte, bei deinen LUTs z.B. 32 oder 64.
Zur Zeit erstelle ich die LUTs mit 64 Samples (bei der 32+64LUT Pattern Size), reicht das aus? Bei 128 Samples habe ich schon mal Abstürze im LUT Buddy.
Antwort von ruessel:
dann erkläre doch mal warum man überhaupt über LUT-Tabellen gehen muss
Ich bin zwar der andere wolfgang.....
Ich finde LUTs nun richtig g..., wenn ich von Hand nach Vectorscop die Farbe drehen muss, ist das gar nicht so einfach.
Zum Beispiel ist die Farbe Grün bei der Pocket zu weit am Gelb angelegt, weder stimmt der Farbwinkel noch die Farbstärke gegenüber den anderen Farben. In DaVinci gibt es so umfangreiche Einstellungen, damit kann ich ganz gezielt und begrenzt einzelne Farbbereiche in allen Richtungen auf dem Vectorscop bewegen. Daraus kann dann direkt eine LUT generiert werden. Diese LUT ist keine einfache Lineare oder logarithmische Tabelle, sondern ein Konstrukt aus engen Haltepunkte im 3D Farbraum, mit Spitzen-, Spline und Glockenförmigen Kurven in der RGB Tabelle.
Diese erzeugte LUT kann nun in alle anderen Softwareprodukten sogar Plattformunabhängig die Farben identisch herstellen. Was wäre dazu die Alternative?
Antwort von domain:
Ruessel ,
im Grunde ist ja uninteressant, auf welche Art und Weise ein LUT erstellt wird, Hauptsache es funktioniert. Eindeutig ist aber, dass sie aufgrund von Funktionen erstellt wird.
Und nur darum drehte sich meine grundsätzliche Frage: warum eine LUT und nicht eine Funktion für die Umrechnung.
Wenn mir jemand sagen würde, dass die mathematische Umrechnung für jeden Pixel über eine Funktion wesentlich mehr Computerpower erfordern würde als eine Tabellenumrechnung, dann wäre ja schon alles geklärt.
Aber nicht mal WoWu kann es beantworten, er ist fixiert auf die gängige LUT-Praxis.
Antwort von WoWu:
@ Ruessel
Das was fehlt ist die Umwandlung bzw, die Approximation.
Wenn Du beispielsweise in einem ARRI LOOK maker so ein LUT erzeugst, um es in die Kamera zu laden (um die Vorschau zu haben) dann kannst Du es hinterher in den Look-maker zurück laden (ggf. mit Veränderungen). Dort wird dann aus den (wenigen) Stützstellen die entsprechende Funktion Approximiert (weil Punkte innerhalb der Stützstellen -s.B. Sattenpunkte) mit einbezogen werden müsse.
Daraus ergibt sich dann ein solches File, in dem Du, wenn Du an einem Punkt abfasst, die logischen Veränderungen an andern Stellen stattfinden.
Wenn Du z.B. nur eine Stützstelle in Grün veränderst, passiert sowas wie im Bild.
Änderst Du aber die Approximation, verändern sich alle Punkte auf dem Kurvengebilde mit. Funktionen hast Du nur selten. meistens sind es ja solche relativ willkürlichen Punktesammlungen, solange der Hersteller nicht die exakte Kurve rausgibt, die aber bei solchen "selbst gebaute" Kurven ohnehin nicht vorliegt.
@Domain, mit so wenig Ahnung würde ich mich einwenig zurückhalten. Es wirkt mittlerweile lächerlich.
Antwort von rainer7u5:
Wie belichtest du denn?
Zur Zeit richte ich die Pocket auf mein Hauptmotiv aus und belichte nach Histogramm ganz rechts und drehe dann etwas "Headroom" noch dazu ein.
Ich merke, beim Thema Belichtung sind wir ganz auf einer Linie...
Zur Zeit erstelle ich die LUTs mit 64 Samples (bei der 32+64LUT Pattern Size), reicht das aus? Bei 128 Samples habe ich schon mal Abstürze im LUT Buddy.
Üblich sind eher kleinere Werte, da der Speicherbedarf exponentiell ansteigt. Das zeigen auch die Probleme bei LUTBuddy.
32 bzw. 64 Samples sollten reichen. Dem fertigen Bild sieht man es ja sowieso nicht an, da die meisten Interpolationsmethoden sehr homogen sind.
Antwort von cantsin:
http://www.fxsupport.eu/temp/BMPCC_LUT_V32.zip
Sehr gut, der Grünstich von V3.1 ist jetzt weg.
Allerdings schluckt Resolve (10) den warmen LUT wieder nicht. An der Titelzeile kann's diesmal nicht liegen...
Antwort von Reiner M:
Wenn mir jemand sagen würde, dass die mathematische Umrechnung für jeden Pixel über eine Funktion wesentlich mehr Computerpower erfordern würde als eine Tabellenumrechnung, dann wäre ja schon alles geklärt.
Das ist der wesentliche Grund. Rechenleistung einsparen. Und es geht dabei um relativ viel eingesparte Power.
Bedenke bitte: Für eine flüssige Vorschau muss alles, was nötig ist, um einen fertigen Frame zu generieren, innerhalb einer 1/50 Sekunde vom Rechner bewältigt werden. Den Großteil der Zeit fressen bereits I/Os sowie andere aufwendige Algorithmen (bspw. Dekodierung). Da bleibt nicht mehr viel.
LUTs sind Daten pur - guter Ansatz, denn es geht eben in der EDV, also auch in der digitalen Videobearbeitung, um Datenverarbeitung ... ;)
Auch Videoinhalte werden ja nicht über Funktionen erzeugt.
Man benötigt an Funktionen, um die Daten einer LUT zu verarbeiten, im Wesentlichen nur "Lesen" und "Kopieren". Die Daten werden aus der Datei in die RGB-Tabelle übertragen, ggf. mit bereits vorhanden Modifikationen abgemischt. Dazu ein wenig relativ triviale Interpolation für die nicht vorhanden Zwischenwerte. Das macht den Austausch der LUTs leicht, vergrößert die Reichweite (nutzbar in vielen unterschiedlichen Programmen) und vereinfacht die Anwendung für den Benutzer (einfach laden, fertig). Völlig unabhängig von den tatsächlich verfügbaren Videoeffekten zur Farbkorrektur im Zielprogramm.
Ein anderer Grund: Die nötigen Funktionen könnten beliebig komplex werden, denn jeder RGB-Wert kann ja unanhängig von anderen verändert werden, abhängig von den verwendeten Werkzeugen und Funktionen. Du kannst Dich bei der Erstellung quer durch Deine Effekte-Bibliothek wühlen, andere LUTs dazu mischen und vorgefertigte Presets von Drittherstellern draufklatschen - egal. (Ob das Sinn macht, ist eine andere Frage).
Die LUT zeigt quasi in Auszügen einen Schnappschuss der RGB-Tabelle im Speicher zum Zeitpunkt des Exports der LUT aus dem erstellenden Programm. Ganz simpel. Die einzelnen Schritte, die zu diesem Ergebnis geführt haben, sind längst abgearbeitet und aus dieser Tabelle heraus nicht mehr auflösbar.
Ein weiterer Grund: Funktionen sind anders als Daten zwischen Programmen nicht beliebig austauschbar. Das erstellende Programm müsste zunächst diese spezifische Funktion erzeugen und dann ein Plug-In generieren, das die entsprechende Funktion enthält und das dem abarbeitetenden Programm über eine dafür standardisierte API bereitgestellt wird. Das muss es erst mal geben. Denn jede Modifikation, auch mit den selben Werkzeugen, würde eine andere Funktion ergeben, abhängig von den eingestellten Werten.
Diese Lösung - Funktionen statt LUTs - gibt es übrigens. Viele "Looks" sind am Markt für unterschiedliche Programme in dieser Form zu erwerben. Ggf. zusammen mit "Look"-Plug-Ins. Sie speichern Funktionsaufrufe und Parameterwerte und arbeiten sie dann über das vorgesehene API oder über das Plug-in erneut ab. Die nötige Rechenleistung ist oft deutlich zu spüren.
Beste Grüße,
Reiner
Antwort von domain:
Danke Reiner für deine erklärenwollenden Statements, denn sie unterscheiden sich mal wesentlich von dem nur persönlich treffen wollenden Schäumen von WoWu.
Nach meiner Praxis vom Programmieren stellt sich eigentlich nur mehr die Frage: ist es eigentlich weniger aufwändig, selbst mit indizierten Variablen einer Tabelle die erforderliche Umrechnung durchzuführen, als eine direkte über eine funktionale Rechenvorschrift erfolgende?
Antwort von Reiner M:
Das lässt sich nicht pauschal beantworten, Domain.
Wenn die Wertänderungen in der Tabelle einer festen Regel folgen, wird man wohl immer die Funktion bevorzugen.
Die "RGB-Tabelle" sieht nur zweidimensional aus. Sie repräsentiert tatsächlich einen dreidimensionalen Farbraum. Das meint:
Ein 8Bit-Cube besteht aus 256x256x256 Zellen. In einer Ecke befindet sich der Nullpunkt. Von ihm gehen die drei Index-Achsen aus für R, G, und B. Die Zelle direkt am Nullpunkt hat den Index 0/0/0 und anfänglich den Inhalt RGB 0/0/0, die Zelle diagonal gegenüber den Index 255/255/255.
Jede Zelle enthält ein Werte-Tripel R, G, B, dessen Inhalt durch die Anwendung der Farbkorrekturen verändert wird, wobei der Index gleich bleibt.
Änderst Du beispielsweise die Sättigung, werden die Inhalte aller Zellen verändert. Das gilt bei anderen Modifikationen gleichermaßen. Mal betrifft es die Farbe selbst, mal die Sättigung, mal die Helligkeit. Die Wertänderungen bewegen sich innerhalb des Cubes in unterschiedliche Richtungen bezogen auf die absoluten Werte R, G, und B. Das endgültige Ergebnis folgt also weder einer festen Regel, noch lässt sich eine simple Kurve aus dem Cube ableiten, die in eine einfache Funktion überführt werden könnte.
Gäbe es eine solche Funktion, würde sie m. E. immer alle Daten aller Zellen durchrechnen, auch solche, die gar nicht gebraucht werden. Stell Dir das mal in 32-BIT-Float vor ...
Die LUT vereinfacht das Problem, in dem sie mit einem kleineren Würfel arbeitet, der in den großen projiziert wird, und damit die Stützstellen für die Interpolation der im Frame benötigten Daten einrammt, die immer noch aufwendig genug ist. Es ist also ein Mischkonzept aus Daten und Funktionsberechnung, entwickelt unter dem Aspekt ressourcenschonender Vorgensweise (Rechenleistung, RAM-Bedarf) bei optimalem Ergebnis (marginale, nicht mehr wahrnehmbare Interpolationsfehler bei LUT SIZE 32 und 32Bit Float)
Beste Grüße,
Reiner
Antwort von domain:
Klingt ziemlich überzeugend, was du schreibst.
Ich habe aber nie nur eine und alles umfassenden Funktion im Sinn gehabt.
Aber eines habe ich schon früh begriffen: die Mathematik ist dazu da, um komplexe funktionale Zusammenhänge in stringent einfachster Form zu formulieren.
Welche Rolle sollen da bitte die unsäglichen Abweichungen und Sonderfälle spielen, die du da erwähnst?
Es gibt nichts, das nicht in Formeln gegossen werden könnte und schon gar nicht bei solch simplen Dingen wie bei der Umrechnung von Werten in andere Werte. Wir befinden uns ja nicht auf dem Gebiet der Relativitäts- oder gar der Quantentheorie.
Antwort von Reiner M:
Vielleicht liegst ja nur am Verständnis und an den Begrifflichkeiten, domain.
Ich will es mal so ausdrücken:
Programme, die LUTs verarbeiten können, benutzen eine "Universalfunktion" dafür, die sich zusätzlich auf die Werte in der LUT stützen, sozusagen als Parameter. Die Werte alleine sind wertlos.
Natürlich kannst Du das Problem mit nahezu beliebig vielen Formeln am Stück lösen. Doch unabhängig davon: Es kann nicht gelingen, wenn sie nicht die variablen Inhalte der RGB-Tabelle berücksichtigen. Du wirst also die konkreten RGB-Werte einer Verabeitung irgendwie als Parameter oder Variablenwerte den Funktionen mitgeben müssen, oder nicht? Und dann wirst Du merken, dass es keinen Sinn macht, den ganzen Cube durchzurechnen, und vermutlich überlegen, wo sich ein gesundes Verhältnis zwischen Genauigkeit, Qualität und Effizienz abzeichnet.
Es könnte sein, dass Du dann die LUTs mit den implizierten Interpolationsverfahren neu erfindest ... ;)
Oder was vergleichbares.
Es ist ein sehr praktisches Problem der Datenverarbeitung, domain. Auf konkreter IT-Technik für den Bereich Videobearbeitung. Kein theoretisches Problem der Mathematik.
Beste Grüße,
Reiner
Antwort von domain:
Es war mir immer klar, dass Programmierer ja nicht über Jahre solche Vollpfosten sein können, dass sie nicht die effizienteste Lösung für ein Problem gefunden hätten.
Bei mir beginnt sich ein Einsehen breit zu machen :-)
Antwort von ruessel:
Allerdings schluckt Resolve (10) den warmen LUT wieder nicht.
Seltsam, wurde mit der neusten Resolve Version selbst erzeugt. Ich schaue noch einmal nach....
Antwort von ruessel:
http://www.fxsupport.eu/temp/BMPCC_LUT_V32.zip (neu upgedatet)
Fehler in der LUT für Resolve gefunden, der Name darf eine bestimmte Namenslänge nicht überschreiten (9 Zeichen ???). Habe die LUT intern nun "hot" statt "warm" benannt und das einladen in meinen Resolve funktioniert.
Um dieses Thema nicht mit weiteren LUTs völlig zu pflastern zu müssen, mache ich für die (film) Looks ein neues Thema auf.
Für die reinen Pocketfarben soll es hier nun genug sein, es sei denn die beiden LUTs erzeugen noch undokumentierte Fehler.
Ich habe tatsächlich eine Szene wo es kleine Artefakte mit der LUT gibt - eine orange LED Anzeige die gepulst wird, kippt bei bestimmten Kamerawinkeln in einigen Segmenten für ein paar Frames zu reinen rot. Habe daran schon mehrere Stunden gebastelt, bekomme es aber nicht weg.
Und nochmals der Hinweis, in jeder Software muss die weitere Verarbeitung aus der LUT erfolgen. Zuerst ProRes auf LUT, danach erst weitere Schritte. Das erreicht man in Premiere und AE in dem die Effekte von oben nach unten durchlaufen werden.
Antwort von acrossthewire:
Ich will nicht nochmal den ganzen Thread umgraben müssen bei welchem WB wurde die LUT erstellt?
Gruss+Dank
Jochen
Antwort von ruessel:
5600K in der Kamera, mit Colorchart in der Mittagssonne.
Sollte aber selbst bei Kunstlicht funktionieren, die Pocket muss dann nur auf 3200K umgestellt werden.
Antwort von domain:
Habe jetzt mal gegogelt, warum bei LUTs nicht „einfach“ drei Funktionen, also eine pro Kanal für die Umrechnung und Verschiebung von Werten verwendet werden.
Wäre prinzipiell zwar möglich, aber es müsste viel zu viel Rechnpower aufgewendet werden. Das geht über referenzierte Tabellen mit Knotenpunkten (also quasi durch gerade Streckenstücke zusammengestoppelter „Kurve“) doch wesentlich schneller, auch wenn zwischen den Stützstellen interpoliert werden muss.
Antwort von ruessel:
es sind nicht nur schnöde Farben die eine LUT beeinflusst, sondern auch das gesamte Kontrastverhalten - RGB = Farben und Helligkeit.
Das war ja auch mein Anfangsfehler, hatte die erste LUT im RGB Farbraum gestaltet. Die neuen im YUV Farbraum, hier bleiben dann die Farben auch genau erhalten wenn ich vor abspeichern der LUT an den Gammawerten drehe. Die LUT macht natürlich wieder RGB daraus, aber inkl. genau mit meinen gewünschten Kontrastkurven.
Antwort von domain:
Ja aber du sprichst ja selbst von Kontrastkurven
Alles lässt sich in Kurven darstellen, selbst eine Erhöhung der Farbsättigung und das gilt für eine Kontraststeigerung erst recht: runter mit den Schatten und Aufhellen der Lichter.
Antwort von ruessel:
Ja aber du sprichst ja selbst von Kontrastkurven
Ich muss erst ein paar Wühlmausfallen kaufen, danach zeige ich dir mal die Kurven der BMPCC aus DaVinci, dann wird vielleicht einiges klarer.....
Antwort von domain:
Da bin ich aber schon gespannt.
Nur mal als Beispiel, wie die selektive Farbsättigung der Farbe Blau in Photoshop erhöht wird: vor der Korrektur RGB 141,153,169 nach der Korrektur 130,153, 183. Einfaches Umrechnungsschema eigentlich und natürlich abhängig vom gewünschten Grad der Sättigung.
Antwort von ruessel:
zum Bild
Hier in Resolve ist das nun ein kleiner Ausschnitt um die BMPCC Farben nach Vectorscop zu justieren. Siehe den roten Pfeil im Vectorscop und in dem HUE Farbtonmischer, davon gibt es dann noch einige mehr, z.B. für jeden Farbwert eine eigene Helligkeitskurve die genauso zerklüftet ausschaut. Alle Kurven müssen dann in einer reinen RGB Tabelle zusammen geführt werden, das macht resolve zum Glück ganz alleine und völlig automatisch. keine Ahnung wie genau die Kurve im RGB Farbraum sprich LUT im Endeffekt ausschaut, einfacher aber bestimmt nicht. Die fertige LUT ist dann 500 Kb "groß".
Antwort von domain:
Danke für deine Mühe Ruessel.
Sieht ja so zerklüftet wie ein Mittelgebirgsquerschnitt aus. Da glaube ich schon, dass rein mathematische Funktionen ziemlich komplex aussehen würden. Selbst mit den genial einfachen und mathematisch anspruchslosen Bezierkurven würde man ohne Stückelung nicht auskommen.
Ich kann sehr gut nachvollziehen, wie es dir bei der Konstruktion von LUTs ergeht. Ist eine ziemlich anstrengende Langzeitherausforderung, wo man sich richtig reinknieen muss und es viele Miss- aber letzten Endes mehr Erfolgserlebnisse gibt, halt die perfekte Dramaturgie.
Gottseidank können einige viel besser und mit mehr Geduld erklären als der herablassende Herr Doktor, der Antipädagoge, der mit einer Ortsfrequenz arbeitet, die vielen von uns zu hoch ist :-)
Antwort von ruessel:
Ich habe tatsächlich eine Szene wo es kleine Artefakte mit der LUT gibt - eine orange LED Anzeige die gepulst wird, kippt bei bestimmten Kamerawinkeln in einigen Segmenten für ein paar Frames zu reinen rot. Habe daran schon mehrere Stunden gebastelt, bekomme es aber nicht weg.
Diesen Fehler konnte ich nun beheben, hier war die Kurve im Rotbereich etwas zu breit.
Antwort von cantsin:
Hier noch ein kleiner Bugreport: Ich kriege (mit 3.2) 'pink highlights', mit anderen alternativ ausprobierten LUTs aber nicht. Es gibt dazu eine Diskussion hier im Blackmagic-Forum. Ich habe aber keine Ahnung, ob sich die dort vorgestellte Lösung auch in einen LUT bauen lässt.
Antwort von ruessel:
Hast du mal ein ProRes Frame mit diesem Problem für mich?
Antwort von cantsin:
Ich hab' das Problem mit Raw, das in Resolve als Film-Log-Material importiert/interpretiert wird.
Antwort von ruessel:
Ich hab' das Problem mit Raw
Sorry, nicht meine Baustelle ;-)