Frage von Wurzelkaries:Hallo,
in einem anderen Thread wurde mir empfohlen mich mal näher mit Waveform, Vectorscope etc. zu befassen um ein Gefühl für das Color correcting zu bekommen.
Ich habe mich nun damit befasst. Das sind meine ersten Schritte. Soweit ich es verstanden habe, sollte man bevor man an den Farben rumspielt erst mal die einzelnen Clips so konform wie möglich machen. Ich dachte mir, dass so eine Farbskala da helfen könnte. Ich hatte bei dem Dreh den Spyder checker 24 dabei und vor jeder Aufnahme wurde der in die Kamera gehalten.
Nun meine Frage: ich habe nun jeweils mittels Waveform, RGB Parade und Vectorscope Korrekturen vorgenommen. Ist das erst mal so richtig oder ist das schon zu sehr um die Ecke gedacht???
Thx
Stefan
Antwort von Wurzelkaries:
Und noch Waveform
Antwort von Starshine Pictures:
Bahnhof?
Grüsse, Stephan von Starshine Pictures
Antwort von Wurzelkaries:
Bahnhof?
Grüsse, Stephan von Starshine Pictures
Wie Bahnhof? In den ersten Bildern siehst Du die Situation vor Korrekturen, und in den zweiten Bildern die Situation danach. Dir Bilder sind mit before und after gekennzeichnet. Meine Frage ist eigentlich auch klar. Ist das ein Weg den man gehen muss/kann oder ist das schon too much. Gibt es Alternativen dazu.
Antwort von Starshine Pictures:
Jaja, ich weiss schon was du mit deiner Frage meinst. Aber ich versteh eben nur Bahnhof von dem Zeug. Hab sowas noch nie mit ner Farbkarte gemacht. Was hast du denn zwischen vorher und nachher gemacht?
Antwort von Wurzelkaries:
Ach so meinst Du das,
ich habe zuerst mal einen Weißabgleich von Colorista machen lassen. Dafür habe ich das Weiß aus der Karte genommen. Das habe ich gegengeprüft mit dem nächst kommenden Grau.
Danach habe ich mit Hue solange rumprobiert, bis Gelb im Vectorscope gelb war und Rot eben rot und das Blau eben blau. Dann habe ich aber noch den Skintone gecheckt. Einmal auf der Karte und dann mittels Maske an der Hand. Sobald das OK war, habe ich in der RGB Parade erst mal rot, grün, blau möglichst weiter ausgeglichen. Das war aber durch den Weißabgleich schon fast perfekt.
Nun fehlte noch die Helligkeitsanpassung. Mit em Waveformmonitor habe ich auch die noch angepasst. Die war vorher zu dunkel. Also habe ich solange an der Exposure gedreht bis es unten auf 0 und oben auf 100 stand.
Das wars
Antwort von Starshine Pictures:
Ok. Weissabgleich und Hell/Dunkel per Waveform kenn ich. Für den Weissabgleich nehm ich irgend eine Fläche im Bild die zwischen weiss und grau sein sollte. Oder pi mal Daumen per Hand da es eher selten perfekt hin haut mit der Automatik. Aber das Vectorscope nutze ich nie. Das ist mir dann doch zu viel des Guten. Hast du das Gefühl dass du damit noch wirklich markante relevante Änderungen nach dem Weissabgleich hin bekommst?
Den Waveform Monitor ziehe ich nie über die vollen 100% auf. Highlights die nicht clippen bis maximal 80-90%, Schwarz nie unter 5%. Deshalb sah dein Kontrast so unnatürlich aus in dem Godot Film. Und natürlich muss das ganze ins Gesamtbild passen. Manche Szenen sind nun mal dunkler als andere.
Antwort von Wurzelkaries:
Ah ok. Das ist nur eine Voreinstellung, um erst mal alle verschiedenen Clips zumindes ansatzweise farblich und auch in der Helligkeit anzugleichen. Und dann kann man je nach Stimmung, Gusto oder Aussage mit dem Grading anfangen. So zumindest ist die Theorie dahinter, so wie ich sie verstanden habe.
Das Vectorscope allerdings finde ich schon sehr interessant. Trotz Weißabgleich mit der Farbkarte, siehst Du ja, dass die Farben nicht in dem Bereich lagen wo sie sein sollten. Mit Hue + 5 hatte ich dann die Farben, wo sein sollten. Vor allem die Sache mit dem Skintone ist schon sehr hilfreich um zumindest eine Nullstellung zu finden. Danach kann man ja dann machen wie man möchte.
Antwort von Starshine Pictures:
Klar. Alles erst mal auf gleiches Niveau bringen und dann den Look mittels Grading machen. Ich meinte eher ob du mit Hilfe des Vectorscopes deine Hauttöne verbessern konntest oder ob du es nur zur Veranschaulichung genutzt hast dass da was passiert ist. Ich habs ja auch schon mal probiert damit die Hauttöne zu verbessern. Bin aber irgendwie nicht klar gekommen weil ich nicht wusste woran ich drehen soll damit was passiert.
Ich habe die Erfahrung gemacht dass es schwierig ist im Grading die vorhergehenden Korrekturen wieder zurück zu holen wenn sie so weit auseinder gezogen wurden. Deshalb nutze ich nicht den vollen 100% Bereich aus.
Antwort von Wurzelkaries:
Verstehe. Nun ich weiß ehrlich gesagt nicht, ob das so überhaupt richtig ist. Es ist ja auch nur nachempfunden, bzw. die Quintessenz aus verschiedenen Tutorials. Daher auch meine Frage, ob das alles schon too much ist.
Wenn Du Dir den Hautton an der "Fleshline" ansiehst, hat sich da im Gegensatz zu gelb tatsächlich nicht viel verändert
Antwort von Starshine Pictures:
Es klingt theoretisch schon mal alles plausibel. Und deine korrigierten Fassungen sehen auch immer deutlich stimmiger aus. Aber am Ende gefiel mir dein Grading in Godot trotzdem nicht. Zu viel Sättigung und Kontrast meiner Meinung nach. Zu sehr Camcorder like. Nun weiss ich eben nicht ob die Ursache irgendwo in einer deiner Techniken liegt oder schlichtweg an deinem/meinem Geschmack. Oder vielleicht sogar an deiner Kamera bzw. dem verwendeten Profil.
Antwort von klusterdegenerierung:
Kann es eigentlich sein das dieses Thema durch falsche Begriffswahl immer wieder in eine falsche bzw. ungewollte Richtung geht?
Ich habe wurzelkarries so verstanden, das er für sich das "Farbkorrigieren" lernen möchte, denn so steht es ja auch im Titel und deswegen hat Stefan auch nur Bahnhof verstanden, weil Stephan wiederum von Colorgrading spricht,
was für mich mittlerweile wie eine fiese ansteckende Krankheit klingt, denn Colorgrading beinhaltet ja mittlerweile schon das falsch Parken oder das Vegan essen gehen!!!
Früher als man noch E6 oder C41 Filme belichtet hat, war es eine Kunst, diese so zu entwickeln, das sie Farbecht waren!
Heute geht es nur noch darum diese fehlende Qualifikation mit Hollywood Farbspielereien zu kaschieren!
In so fern Wurzelkarries, hast Du alles richtig gemacht und Stephan tatsälchlich nur Bahnhof verstanden.
Ich finde im Job ist die Farbkorrektur eines der wichtigsten Mittel um wirkliche Qualität zu erzielen!
In sofern hast Du Dir eine gute Herrausforderung gesucht und das grading kannst Du getrost ganz schnell wieder vergessen! :-)
Sorry LutStephan! ;-))
Antwort von srone:
Ich finde im Job ist die Farbkorrektur eines der wichtigsten Mittel um wirkliche Qualität zu erzielen!
wenn man daraus licht-/farb-korrektur macht, gebe ich dir eine 1+ ;-)
lg
srone
Antwort von Starshine Pictures:
Ach so ein Quark. Natürlich hab ich das verstanden. Und ich korrigiere selber ja auch BEVOR ich grade. Immer. Aber halt nicht mit Vectorscope und Hue. Das hab ich noch nie benutzt weil ich mich damit nie beschäftigt habe. Deshalb frag ich ja den Wurzel was es damit auf sich hat.
Antwort von klusterdegenerierung:
Hallo Stephan, weiß ich doch :-)) Spaß! ;-)
Sollte man sich aber wirklich angewöhnen es mit den Mitteln zu machen, ist sehr präzise und schnell!
Hier habe ich mal was interessantes für die Raw Filmer endeckt!
Als ich noch mit der Pocket gefilmt habe, hatte ich manchmal auch ziemliche Schwierugkeiten mit den höhen in PP.
Hier habe ich ein kurzes tuto gefunden, der einen ziemlich sexy tip hat, wenn man ihn nicht kennt! :-
Antwort von Wurzelkaries:
Um mich mal wieder zu outen. Color correction und color grading hatte ich immer als ein und dasselbe verstanden.
Nun weiß ich es besser. :-)
Antwort von srone:
Um mich mal wieder zu outen. Color correction und color grading hatte ich immer als ein und dasselbe verstanden.
wie man so schön sagt, ein kardinalsfehler, erst die korrektur - dann der look, wenn das der allgemeine bildungsstand wäre, wären viele dieser sinnlosen lut-diskussionen obsolet. ;-)
lg
srone
Antwort von Axel:
Jeder, der CC2015 hat, sollte sich unbedingt mit Lumetri befassen. Die richtige Reihenfolge ist einfache Korrektur, neue Lumetri-Instanz (Lunetri-Farbkorrektur wiederum auf den Clip anwenden), sekundäre Farbkorrektur, neue Instanz, Look, neue Instanz, angleichen.
Klar fehlen eine Menge Dinge, die z.B. Resolve hat, aber dass die Bedienung so intuitiv ist, wird bei der Mehrzahl der Anwender zu besseren Ergebnissen führen. Die anderen CC-Werkzeuge in Premiere würde ich nicht mehr benutzen.
Antwort von Wurzelkaries:
Eine weitere Frage die mich beschäftigt ist, diese 16-235 Regel. So weit ich es gelesen habe auch hier auf shlashcam, ist diese Einstellung vor allem nötig um broadcast save zu bleiben. Und um ein Superschwarz und Superweiß zu vermeiden.
In Colorista III sehe ich keine Einstellung dazu und muss sie im Fast Color Corrector einstellen. Stelle hier also den output level auf 16 und 235. Dabei verändert sich das Bild natürlich und wird "milchig".
Gleichzeitig sehe ich im Waveform Monitor, dass schwarz bei ca. 10 IRE und weiß bei ca. 90 IRE liegt, was vorher 0 und 100 war. Genauso in der RGB Parade.
Nun frage ich mich, macht das überhaupt Sinn, denn so will ich das Bild ja nicht haben. Und wenn ich dann korrigiere bin ich ja dann doch wieder bei Superschwarz oder Superweiß, nur dass das Signal dann eben bei IRE 10 bzw. bei IRE 90 clippt.
Und ich produziere ja nicht für Broadcasting sondern fürs Web, oder wenn ich dahinkommen sollte, mal für einen kurzen Werbespot im Kino.
Danke für Infos
Stefan
Antwort von Peppermintpost:
16-235 brauchst du ausschliesslich für tv. dein fernseher zieht dir die schwärzen wieder runter und die highlight rauf. also was bei dir 235 nicht nichtig weis ist, ist im tv dann wieder weis, und dein 16 grau ist im tv wieder schwarz.
für internet und kino solltest du alles 0-255 machen.
Antwort von dienstag_01:
Premiere arbeitet standardmäßig in 16-235, angezeigt wird es aber 0-255. Wer da dran rum dreht, ist selber dran Schuld ;)
Und damit kann man natürlich Files für Internet UND auch für TV ausgeben ;)
Antwort von Wurzelkaries:
Also in premiere alles so lassen wie es ist. OK.
Danke
Antwort von dienstag_01:
Genau.
Noch ein kleiner Tipp zu deiner Farbkorrektur: schau dir mal den Unterschied der Schwarzwerte deiner Maske und deiner Farbkarte an. Man sollte sich nicht vom perfekten Schwarz der Maske blenden lassen ;)
Antwort von Wurzelkaries:
Genau.
Noch ein kleiner Tipp zu deiner Farbkorrektur: schau dir mal den Unterschied der Schwarzwerte deiner Maske und deiner Farbkarte an. Man sollte sich nicht vom perfekten Schwarz der Maske blenden lassen ;)
Ah ok... ich sehe was Du meinst. Darüber hatte ich heute ein wenig gegrübelt. Nach einigem Rumprobieren, meine ich, dass das Schwarz auf der Farbkarte kein absolutes Schwarz ist sondern ca. 90% Schwarz. Nachdem ich die Maske nur auf das dunkelste Schwarz der Farbkarte reduziert habe, wurde mir das klar. Also müsste das tiefste schwarz der Farbkarte bei etwa IRE 10 sein. Denn absolutes Schwarz ist der Bereich ausserhalb der Maske.
Antwort von dienstag_01:
Schwarz sollte es aber schon irgendwo im Bild geben. Ohne Maske ;)
Antwort von Peppermintpost:
Premiere arbeitet standardmäßig in 16-235, angezeigt wird es aber 0-255. Wer da dran rum dreht, ist selber dran Schuld ;)
Und damit kann man natürlich Files für Internet UND auch für TV ausgeben ;)
ach echt? das ist interessant. ich kenne mich mit film und video nicht so gut aus, daher hätte ich das gerne nochmal näher erklärt. also ich habe den srgb farbraum und den rec709 und die sind ja nunmal grund verschieden, und wenn ich jetzt meinen film aus premiere exportiere kann hat der direkt beide farbräume und der film merkt selbständig wo ich ihn abspiele?
das ist ja ein cooles feature, warum hab ich idiot mir darüber immer gedanken gemacht. hast du mal eine quelle von adobe oder so wo man das nachlesen kann?
Antwort von dienstag_01:
Das man Material ummappen kann, weisst du.
Das es Codecs gibt, die In Full Range oder in Legal Range arbeiten (z.B. DNxHD als RGB oder 709), weisst du.
Was also genau willst du wissen ;)
Antwort von WoWu:
warum denkt Ihr eigentlich erst über den zweiten Schritt nach und nicht erst über den ersten Schritt.
Schaut Euch mal an, wie bandbegrenzte Signale in Kameras erzeugt werden (also das Kamerasignal) und dann seht Euch die Flanken mal an, dann weiß man auch, wozu 709 dient.
Das hat nämlich überhaupt nichts mit Broadcast zu tun sondern mit der Signalverarbeitung und der Signalqualität.
Und wenn ein Signal einmal in 709 aus der Kamera gekommen ist, sei es über die eigentliche Übertragungsfunktion, oder den Codec, dann erübrigt sich die Überlegung, das im zweiten Schritt in 0/255 zu verarbeiten, denn dann ist man in derselben Situtation, wie hier lange mit LOG diskutiert, dass man das Signal spreizt, ohne auch nur einen einzigen Wert zu gewinnen oder andere Farfsamples zur Verfügung zu haben.
Antwort von klusterdegenerierung:
Und was ist dann jetzt der erste?
Antwort von Peppermintpost:
Und wenn ein Signal einmal in 709 aus der Kamera gekommen ist, sei es über die eigentliche Übertragungsfunktion, oder den Codec, dann erübrigt sich die Überlegung, das im zweiten Schritt in 0/255 zu verarbeiten, denn dann ist man in derselben Situtation, wie hier lange mit LOG diskutiert, dass man das Signal spreizt, ohne auch nur einen einzigen Wert zu gewinnen oder andere Farfsamples zur Verfügung zu haben.
aber wenn ich dunkel grau zu schwarz mappe und dunkel weis zu weis dann hab ich mathematisch nichts gewonnen, das ist richtig, aber es sieht dennoch besser aus und in diesem fall ist das auch statistisch überprüfbar.
Antwort von WoWu:
wenn Du dunkelgrau zu Schwarz Mappen musst, liegt schon ein Fehler vor, dass der Header im Datenstrom nicht gelesen wurde oder die Projekteonstellung falsch ist denn wenn das Signal 16/235 hat und die Projekteinstellung 0/255 dann liegt der Fehler 30cm vor dem Bildschirm 🙈
Antwort von Wurzelkaries:
Wie finde ich heraus welches Signal meine Kamera denn herausgibt. Ich weiß nur dass es 10bit 422 ist und 50MB/s. Aber das hat ja nun nichts mit 709 oder 0-255 zu tun. Bei 10bit ja dann eher mit 0-1024.
Ich check es nicht wirklich :-)
Antwort von Wurzelkaries:
Und was ist dann jetzt der erste?
Der erste Schritt ist die Kameraeinstellung so zu wählen, dass eben ein sauberes Signal entstehen kann. Zumindest nehme ich das an. Nur wie. 1000 Kameras 1000 Einstellungen, wo, wie.... Hilfe :-)
Antwort von dienstag_01:
Grundsätzlich gibt eine Kamera immer 709 in der Legal Range aus. Bei manchen kann man anderes einstellen (GH4), standardmäßig ist es aber Legal Range. Also 16-235 und bei 10bit das Äquivalent dazu (die genauen Werte weiss ich jetzt nicht) - aber eben nicht 0-1024 .
Wenn du jetzt das Signal deiner Kamera nimmst, so kann es durchaus sein, dass es über 235 liegt (das wird nicht beschnitten), unter 16 aber nicht.
Bei einer halbwegs professionellen Kamera sollte der Standard aber auch in der Bedienungsanleitung stehen.
Antwort von WoWu:
Wie finde ich heraus welches Signal meine Kamera denn herausgibt. Ich weiß nur dass es 10bit 422 ist und 50MB/s. Aber das hat ja nun nichts mit 709 oder 0-255 zu tun. Bei 10bit ja dann eher mit 0-1024.
Ich check es nicht wirklich :-)
Eigentlich arbeiten alle Kameras auf REC 709 -egal ob 8 Bit oder 10 Bit- solange man sie nicht manuell auf eine andere Ünertragung einstellt, beispielsweise durch die Benutzung eines LOG Profiles oder eines gesonderten Verfahrens.
Übrigens gibt es auch eine solche Limitoerung in REC 2020. Das ist also kein "Ding der Vergangenheit" das lange überbordet ist sondern die Proböematik ist nach wie vor akut und findet auch zukünftig seinen Niederschlag.
Wenn die Kamera also nichts anderes, als 10Bit 4:2:2 sagt, dann geh mal davon aus, dass sie 709 macht (64/940)
Antwort von Wurzelkaries:
OK... also ich werde die Bedienungsanleitung erst mal studieren.
BTW. Sony X70... als nix mit LOG. :-)
Antwort von Wurzelkaries:
Also man kann 709 einstellen.
Unter Gamma ITU709
ColorMode ITU709Matrix
Also meine Kamera gibt ITU(REC) 709 aus in 10bit422, was dann in 10bit 64/940 sind.
Antwort von dienstag_01:
Naja, wenn du in dem Mode aufgenommen hast, liegt dein Schwarz bei 64 und das ist in Premiere 0.
Antwort von WoWu:
Du musst in Erinnerung behalten, dass ein Sensor nur zwei Eckwerte hat: Kein Licht, also Schwarz und Full Well, also Systemweiss.
Diese beiden Werte kann man nun auf beliebige Übertragungswerte legen (mappen).
Dann weisst Du auch, dass es kein Superschwarz und kein Superweiss gibt, sondern dass das nur entstehen kann, wenn Du vorher das Schwarz des Sensors und/oder das Weiss des Sensors nicht an dem Platz hast, wo sie hingehören.
Hast Du aber die Werte auf den richtigen Positionen, werden sie in jedem Fernseher auch als Schwarz und weiss dargestellt. (auch über die Internetportale).
Wenn man das im Hinterkopf behält, wird das Thema auch transparenter.
Antwort von Wurzelkaries:
Du musst in Erinnerung behalten, dass ein Sensor nur zwei Eckwerte hat: Kein Licht, also Schwarz und Full Well, also Systemweiss.
Diese beiden Werte kann man nun auf beliebige Übertragungswerte legen (mappen).
Dann weisst Du auch, dass es kein Superschwarz und kein Superweiss gibt, sondern dass das nur entstehen kann, wenn Du vorher das Schwarz des Sensors und/oder das Weiss des Sensors nicht an dem Platz hast, wo sie hingehören.
Hast Du aber die Werte auf den richtigen Positionen, werden sie in jedem Fernseher auch als Schwarz und weiss dargestellt. (auch über die Internetportale).
Wenn man das im Hinterkopf behält, wird das Thema auch transparenter.
Deshalb hätte ich eben gerne die Monitore ( waveform etc) in der Kamera... hat sie aber nicht. Meine XF100 hat das onboard. Verkehrte Welt. So könnte ich doch anhand der Farbkarte meine Werte die ich haben möchte schon in der Kamera einstellen. Also weiß ich weiß und Schwarz ist schwarz.
Oder habe ich da jetzt einen Denkfehler?
Antwort von WoWu:
Damit kannst Du eher einen Kameraabgleich machen, aber eingestellt wird da eigentlich nichts mit.
Das wäre dann Deine Belichtung und das ist schon etwas unüblich, die mit Waveform zu machen.
Dann schon eher mit dem Histogramm.
Aber üblich ist da das Zebra, weil es auch schnell und gut, selbst unter kritischen Bedingungen abzulesen ist.
Nur solltest Du mit den Verschiedenen Übertragungsbereichen noch etwas vorsichtig umgehen ... meine Empfehlung ist, da zunächst im 709 Bereich zu bleiben und mit Signalspreizungen und künstlich erzeugtem Weiß erst gar nicht zu beginnen.
Die Quittung dafür bekommst Du nämlich ziemlich schnell mit Banding und komischen Bildeffekten, die dann gern mal auf die Codecs geschoben werden, die aber gar nichts dazu beigetragen haben.
Antwort von Wurzelkaries:
Hmmm... eigentlich gerne Waveform, Vectorscope und RGB Parade.... also all das mit was ich dann eigentlich erst in der Post zu tun hätte.
Wenn ich dass in der Kamera schon so einstellen könnte, anhand einer kalibrierten Farbtafel, müsste ich doch das Problem dieser Spreizung umgehen können.
Das heißt ich kann das weiß der Farbtafel als weiß in der Kamera einstellen, und mit schwarz ebenso.
Aber das ist auch nur wieder Laienhaft gedacht. :-)
Antwort von srone:
um das, was du willst, in der kamera zu machen fehlt dir die rechenleistung "on board" ;-)
deswegen schreien ja auch alle nach raw bzw hochwertigen codecs, daß für die post was übrig bleibt.
belichtung ist ein kompromiss, die relation zwischen vermeidbarem und unvermeidbarem und da tuts ein histogramm, um das zusammenspiel der bildgebenden funktionen wie iso (rauschen) und blende (tiefenschärfe) in einklang zu bringen.
dein sensor hat einen fixen dynamic range, dein set hat das nicht, also entweder dein set "zurecht"-leuchten oder mit dem kompromiss leben.
es macht immer wieder spass, bob ross zu zitieren "you have to make a decision".
lg
srone
Antwort von Wurzelkaries:
Ne... aber ich möchte gerne ein Flat Picture profile in der Kamera. Vielleicht suche ich ja nicht mit den richtigen Keywords... doch ich habe noch nicht herausgefunden, welche exakte Definition denn nun sich dahinter verbirgt. Wie stellt sich ein Flat Picture im Waveform, in der Parade und/oder im Vectorscope dar.
Gibt es da Werte die man beachten muss oder kann. Für eine DSLR finde ich da schon was... aber eben nicht für eine Videokamera mit Knee, Black level etc.
Und wie bekomme ich es hin, das mir der Monitor ein saturiertes Bild liefert, es aber Flat gespeichert wird.
Du siehst, ich habe mehr Fragen als Antworten. Vielleicht aber auch die falsche Kamera oder eben noch nicht genug Wissen.
Antwort von soan:
"Eigentlich" ist ein flat profile nicht wirklich sinnig WENN man die Kamera im Griff hat. Denn in der Post wird für ein optimales Bild ein "flaches" Signal in die Breite gezogen (Tiefen weiter runter gesetzt, Höhen nach oben optimiert), und dabei wird das Signal in den Tonwerten ein wenig gespreizt.
Es gibt eigentlich nichts besseres als optimal zu belichten - wenn das halt aus bestimmten Gründen nicht geht hat ein flaches Profil Vorteile, denn die Tiefen saufen nicht unwiederbringbar ab oder die Höhen fressen nicht gnadenlos aus. Ein "Mehr" an Sicherheit wird also mit gewissen Einbußen erkauft; das ist allerdings meine ganz persönliche Meinung.
Wenn man mit einem flachen Bildprofil am Set Mist baut nützt das auch nix mehr, überstrahlte Höhen bleiben zerstört und "inhaltlose" weil abgesoffene Tiefen bleiben leer.
Antwort von Wurzelkaries:
"Eigentlich" ist ein flat profile nicht wirklich sinnig WENN man die Kamera im Griff hat. Denn in der Post wird für ein optimales Bild ein "flaches" Signal in die Breite gezogen (Tiefen weiter runter gesetzt, Höhen nach oben optimiert), und dabei wird das Signal in den Tonwerten ein wenig gespreizt.
Es gibt eigentlich nichts besseres als optimal zu belichten - wenn das halt aus bestimmten Gründen nicht geht hat ein flaches Profil Vorteile, denn die Tiefen saufen nicht unwiederbringbar ab oder die Höhen fressen nicht gnadenlos aus. Ein "Mehr" an Sicherheit wird also mit gewissen Einbußen erkauft; das ist allerdings meine ganz persönliche Meinung.
Wenn man mit einem flachen Bildprofil am Set Mist baut nützt das auch nix mehr, überstrahlte Höhen bleiben zerstört und "inhaltlose" weil abgesoffene Tiefen bleiben leer.
Das klingt doch zumindest einleuchtend. Warum aber wird dann flat und log als die ultimative Waffe für die Post im Netz so hochgelobt. Ich hatte mir diese Videos angesehen und fand es eigentlich ganz einleuchtend flat oder in log aufzunehmen.
http://www.learncolorgrading.com/raw-an ... -profiles/
Antwort von soan:
Nur mal so: wenn im "flat" die Tiefen absaufen weil falsch belichtet oder die Dreh-Situation unvorteilhaft war sind die trotzdem "abgesoffen". Sie sind dann eben "graue Matsche" statt "schwarze Matsche". Ausgerissene Höhen wegen Überbelichtung bleiben trotzdem unwiderruflich ohne Detail.
Was aber Flat-Profile generell bieten: man hat etwas mehr Spielraum weil der fertige Clip nicht die 100% Bildbereich voll ausnutzt sondern eben oben und unten etwas Luft lässt. Wunder vollbringen kann man damit auch nicht, man hat aber etwas mehr Spielraum. Allerdings - und das lässt man oft unerwähnt - werden bestimmte Bildbereich (meistens Tiefen und Höhen) in der POST gespreizt und das führt definitiv ab einem bestimmten Schwellenwert zu Qualitätseinbußen / Abrissen etc.
Klar - man hat mehr Reserven, aber man hat ggfalls auch Qualitätseinbußen IN RELATION zu einer Aufnahme unter perfekten Bedingungen mit einem voll gespreizten Profil.
Edit: RAW ist natürlich die Krönung, denn da wird ja die Aufnahme mit deutlich mehr Reserven aufgezeichnet. Ich rede gerade ausschliesslich zb von einer Canon EOS mit im Vergleich 1. flachem Bildprofil oder 2. Standard-Settings (ich zb drehe Schärfe runter, Sättigung runter, Kontrast raus - bingo. Ein besonderes Profil nutze ich nicht, ich komme damit super klar.)
Antwort von WoWu:
weil die Meisten mit RAW nichts anfangen können ... und weil LOG Hipp ist.
Eigentlich ist LOG (das hat nichts mit Flat zu tun) eine technische Übertragung, in der die einzelnen Grauwerte anders verteilt werden.
Die Kamera widmet nämlich einer einzigen Blende bei WEISS 50% sämtlicher, zur Verfügung stehenden Übertragungswerte, obwohl das menschliche Auge gerade bei Weiß nicht so empfindlich ist.
Dafür spendiert die Kamera bei dunkelgrau und Schwarz nur wenige Werte, obwohl wir da deutlich besser unterscheiden können.
Das korrigiert die LOG Übertragungsfunktion, indem sie den Weisswerten einiges wegnimmt und den Grauwerten dafür mehr Werte spendiert.
Das heißt aber trotzdem, dass Du noch Weiße und Schwarze Werte in Deinem Bild hast und nicht nur Grautöne.
LOG und Flag Profiles werden leider oft verwechselt.
Und nun kommen noch LUTs hinzu, was wieder etwas völlig Anderes ist.
Weil die dunklen Graubereiche aber im Verhältnos zu dem, wie der Mensch seine Welt sieht, überwiegen, erscheint uns das Bild graulastig.
In der Post nimmt man nun sovielmal Grauwerte durch Kontrasterhöhung wieder raus, wie es erforderlich ist, ein anständiges Bild zu erzeugen, das mehr Grautöne aufweist, als ein Original Kamerabild (709).
Der Trend geht aber dahin, dass es in den Filmen weder schwarz noch weiß gibt ... und den blassen Farbkontrast versucht man damit zu kompensieren, dass man einfach mehr Farbe reindrängt .... ich hoffe, da willst Du nicht auch hin. Denn das ist einfach nur handwerklich schlechte Arbeit.
Oder Kunst ... die Bezeichnung muss oft für das Zeug herhalten.
Antwort von Starshine Pictures:
Der einzige Sinn eines flachen Profiles ist es nach oben und nach unten hin einen Sicherheitspuffer zu haben. So will man den Lichtern und den dunklen Bereichen genügend Platz zum sanft auslaufen geben. Wowu hatte das vor kurzem mal irgendwo in der langen Log Diskussion ganz wunderbar erläutert wie man so versucht das Verhalten von chemischem Film nachzuahmen. Das System hat aber seine Grenzen da wir uns in fest definierten Bereichen bewegen. Wir haben also nur 255 Werte bei 8bit. Und da muss alles rein. Wenn ich also den Lichtern und den Schatten viel Platz lasse zum Auslaufen muss ich das an anderer Stelle einsparen. In den Mitten zum Beispiel. Das V-Log der GH4 ist da ein extremes Beispiel. Da werden die Werte so massiv zusammen gepresst um genügend Sicherheitsabstand nach oben und unten zu haben dass am Ende beim Normalisieren ziemlich konisches Zeug übrig bleibt. Stell dir vor du hast ein Gefäss dass 255 Liter Flüssigkeit fasst. Wenn du es ganz bis oben hin voll machst hast du zwar die maximale Ausbeute, aber sobald irgend was schief geht schwappt dir ein grosser Teil über. Um so weniger du in den Pott füllst desto höher sind die Chancen dass du trockenen Fusses heim kommst. Aber übertreiben sollte man es nicht da sonst die Familie verdurstet. Nun liegt es an dir heraus zu finden, je nach Holprigkeitsgrad deines Weges die maximale Füllmenge deines Bottiches zu bestimmen damit du immer das maximale an Wasser heim bekommst ohne das was verschüttet.
Und wie Wowu auch schon etwas weiter oben anmerkte bringt es nichts bei der ersten Korrektur zwingend die Schatten auf 0 und die Highlights auf 255 zu zerren. Bei der Korrektur geht es darum dass alle Clips auf gleiches Niveau gebracht werden, egal welches das ist. Wenn du alle Schatten auf 10 statt 0 bringst ist das genau so gut korrigiert. Allerdings mit dem Vorteil dass du im Grading dein tiefes Schwarz nicht wieder hoch ziehen oder deine Lichter herabsetzten musst damit der Kontrast nicht so explodiert. Denn man muss sich bewusst sein dass jeder Schritt verlustbehaftet ist! Und es ist völliger Käse etwas flach zu filmen, dann so steil wie möglich in der "Korrektur" aufzustellen um es dann anschliessend wieder etwas abzuflachen damit es gefällig aussieht. Dann kann man sich das ganze GeLOGe und GeFLATe auch sparen weil man sich so sein Footage völlig zerrupft.
Grüsse, Stephan von Starshine Pictures
Antwort von Wurzelkaries:
Danke erst mal. Mir geht es jetzt erstmal nur um die Korrektur. Wenn ich das verstanden habe kümmere ich mich um den nächsten Schritt.
Schönen Sonntag
Antwort von Axel:
Wir haben also nur 255 Werte bei 8bit. Und da muss alles rein. Wenn ich also den Lichtern und den Schatten viel Platz lasse zum Auslaufen muss ich das an anderer Stelle einsparen. In den Mitten zum Beispiel. Das V-Log der GH4 ist da ein extremes Beispiel. Da werden die Werte so massiv zusammen gepresst um genügend Sicherheitsabstand nach oben und unten zu haben dass am Ende beim Normalisieren ziemlich konisches Zeug übrig bleibt.
Dieses komische Zeug sind häufig die Hautfarben, die sich i.d.R. in den Mitten befinden. Das
kann okay sein, liegt das Hauptaugenmerk des Videografen allerdings darauf, die Haut attraktiv darzustellen (z.B. Hochzeit, aber natürlich nicht nur), ist es in 8-bit
nicht mehr okay.
Da es bei Log nicht zuletzt darum geht, die Dynamik des Sensors auszureizen, muss man sich dann leider auch darauf beschränken, dessen native Empfindlichkeit zu verwenden. Diese kann bei unterschiedlichen Kameras sehr weit voneinander abweichen. Ein paar kenne ich. 5DMII - 100 Iso, GH2 - 320 Iso, Pocket - 800 Iso, A7s - 3200 Iso.
Ich schließe mich den obigen Aussagen an, dass Raw, Log und Konsorten den Spielraum in der Post etwas erweitern, dass aber Belichtung und Beleuchtung einen erheblich größeren Einfluss auf das Endergebnis haben.
Antwort von Jott:
Ein paar Leuchten zur Bildgestaltung zu nutzen wird vermehrt als zu anstrengend, zu teuer und gestrig empfunden. Daher die modischen Fluchtversuche in heilsbringende Aktionen.
Antwort von Wurzelkaries:
Also bei dem Thema bin ich zwar keine Leuchte..... ich hab aber ein paar davon. :-))