Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic S1 / S1H / S5 / S1R / GH4 / GH5 / GH5s / GH6-Forum

Infoseite // Panasonic GH4 - Color Grading 8Bit-Problem?



Frage von Stephan82:


Hi,

ich bin seit mehreren Monaten Besitzer einer GH4 und habe immer noch Probleme das Video-Material gut bearbeiten zu können.

Aufzeichnung: intern, 1080p, 200Mbit, Quicktime, Cine-D/Cine-V
Software: After Effects CC 2014, Projekteinstellung: 16 Bit

Ich habe oft das Problem, dass ich sehr schnell Artefakte/Blocking ins Bild bekomme, obwohl ich gar nicht so viel an dem Bild verändere. Ich habe jetzt mal mein internes 8Bit/Cine-D-Material (rechts) mit Shogun 10Bit/V-Log-Material (links) verglichen. Sobald ich die Sättigung über 20 stelle treten bei meinem Material deutliche Artefakte im Himmel auf. Das ist bei dem 10Bit-Material nicht der Fall. Ich würde sagen, dort wird es erst so ab einer Sättigung über 65 kritisch. Die unterschiedliche Bildqualität ist bereits bei Bearbeitung in After Effects sichtbar.

Liegt das wirklich nur an der unterschiedlichen Bittiefe?

Kann ein anderer GH4-Besitzer mein Broblem mit den Artefakten bestätigen, vor allem bei Veränderung eines Himmels bzw. einfarbigen Flächen oder kann es sein, dass etwas bei meiner Aufzeichnung schief geht? Bug der GH4 oder SD-Karte etc.? Falsche Einstellungen?


zum Bild http://www2.pic-upload.de/thumb/30338089/VergleichShogun10BitProResvs.Intern8BitQuicktime.jpg

Space


Antwort von Peppermintpost:

hat mit der bit tiefe wenig bis garnichts zu tuen sondern mit der kompression. das ist immer genau so ein fall wo ich sage die gh4 kompremiert das material zu tode und alle immer schreinen "nein, 1:100 kompression ist total geil"

Space


Antwort von srone:

hat mit der bit tiefe wenig bis garnichts zu tuen sondern mit der kompression. das ist immer genau so ein fall wo ich sage die gh4 kompremiert das material zu tode und alle immer schreinen "nein, 1:100 kompression ist total geil" bei 200mbit avchd?

das ist "fast" genausogut wie uncompressed, nein hier spielen die 8bit, die entscheidende rolle. ;-)

lg

srone

Space


Antwort von Peppermintpost:

4k unkompressed sind ca. 1000 mb/s - 200mbit/s sind 25mb/s.
die kompression ist also ca. 1:40.

geh doch mal einen kilometer zu fuss, und am nächsten tag mal 40 kilometer, dann wird dir der unterschied sehr sehr deutlich. ;-)

mal abgesehen davon, wenn die farbtiefe nicht hoch genug ist bildet sich banding, was du auf dem beispielbildern sehr gut sehen kannst, ist das kein banding stattfindet, sondern pixel zu quadratischen blöcken zusammengefasst werden, ein typisches zeichen von kompression.

Space


Antwort von Stephan82:

Schaut euch mal das Video unten an: interne Aufzeichnung, 8Bit, Cine-D und es wurde ordentlich gegradet oder Luts verwendet. Ich sehe keine oder kaum Bildfehler, obwohl etliche blaue Himmel zu sehen sind.

Ich verstehe einfach nicht, warum mein Bild total auseinanderfällt, wenn ich anfange das Material etwas zu graden.



Space


Antwort von srone:

nun gut, aber was ist nun der shogun im kontext, 10bit 422 in pro res bei 180 mbit?

lg

srone

Space


Antwort von dirkus:

Das ist halt der Preis für 4k;-)

Bei dieser hohen Auflösung bekommt dann bei billigen Konsumer Kameras nicht mehr jedes Pixel und jeder Frame die vollen Informationen.
Vereinfacht gesagt: Da wird dann zugunsten von detailierteren und feineren Kanten der Inhalt des Bildes stark ausradiert.

Echte 4k Kameras, wie z.b. die Red Epic ,haben nicht umsonst nen riesigen Lüfter am mitlaufen, damit sie den riesigen Datenstrom voll weitergeben können.

Naja, aber hauptsache man hat 4k;-)

Du kannst noch versuchen, dass Material ungeschnitten als Tiff zu rendern. Dann bekommt jeder nachfolgende Frame zumindest die selben Bildinformationen, wie der erste Frame eines Clusters. Die Tiffs lassen sich dann besser bearbeiten, weil das dann alles Einzelbilder als Haupt Frames sind.

Space


Antwort von Stephan82:

Mir ist schon klar, dass ne Red Epic ne andere Qualität hat.

ABER: Ich sehe reihenweise Videos im Netz (auch das was ich oben noch verlinkt habe), die eine wesentlich bessere Bildquali haben als meine Aufnahmen. Irgendwas stimmt mit meiner Cam, meinen Aufzeichnungseinstellungen oder der Bearbeitungssoftware nicht.

Das kann ja nicht sein, dass andere ein super Bild trotz Grading und Lut hinbekommen und mein Bild fällt sofort auseinander. Wäre halt gut, wenn andere GH4-Besitzer mal was dazu sagen könnten.

Space


Antwort von Peppermintpost:

Schaut euch mal das Video unten an: interne Aufzeichnung, 8Bit, Cine-D und es wurde ordentlich gegradet oder Luts verwendet. Ich sehe keine oder kaum Bildfehler, obwohl etliche blaue Himmel zu sehen sind.

Ich verstehe einfach nicht, warum mein Bild total auseinanderfällt, wenn ich anfange das Material etwas zu graden.

die kompression funktioniert ja dynamisch. ähnliche pixel werden zusammengefasst. im unteren teil des bildes, die bäume haben ja eine chaotische farbverteilung und detail verteilung, d.h. da ist die kompression geringer. der himmel der ja sehr wenig details hat und nur geringe pixel abweichungen wird stärker kompremiert.

Space



Space


Antwort von wolfgang:

Also ich vermute dass dir das 8bit 420 hier einfach zu stark zerfällt. Da hat das Shogun Material mit 10bit 420 halt mehr Reserven. Die Frage ist wie man das weiter evaluieren soll. Ich habe hier zwar die GH4 und den Shogun, aber arbeite halt mit anderer Software.

Space


Antwort von dirkus:

Die Leute, die ne bessere Qualität hinbekommen - sofern sie das Material bearbeiten - machen aus dem H.264 erst ein uncompressed File.

Entweder durch Umwandlung in ein Intermediate Codec, oder sie rendern das ungeschnittene Material zunächst als Einzelbilder (Tiff oder JPEG 2000) raus.

Erst dann kann man es ohne weitere Verluste bearbeiten.

Legst du H.264 direkt auf die Timeline, bekommt nur jeder 1. und 11. Frame die vollen Bildinformationen.

Space


Antwort von Skeptiker:

Hier sind die Bitraten teils etwas durcheinandergeraten - Full HD / UHD - AVC / ProRes, obwohl Peppermint's Rechnung im Prinzip stimmt.
4k unkompressed sind ca. 1000 mb/s - 200mbit/s sind 25mb/s.
die kompression ist also ca. 1:40. Ganz so schlimmt ist es wohl nicht. Korrektur: Doch - noch schlimmer!
Mit diesem Video filesize calculator kommt man für 4K-UHD 3840x2160 mit 25 Bildern/Sek. für 8bit RGB auf auf 622 MByte/s, das sind 4976 MBit/sec in 8bit uncompressed RGB RAW.

http://toolstud.io/video/filesize.php

Das wären dann für 10bit statt 8bit RAW gleich 622 MByte pro Sek / 8 * 10 = 778 MByte pro Sek.
Das sind 6224 Mbit/sec 10bit RAW.

Die GH4 nimmt AVC-Intra in Full HD mit max. 200 Mbit/sec auf (=25 MByte/sec).
UHD nimmt sie hingegen nur mit 100 Mbit/sec auf - allerdings kein 'intra' (Einzelbildkompression), sondern GOP.

Damit wäre die UHD-Kompression der GH4 gegenüber 8bit RAW gleich 4976 / 100 = rund 50x.
Allerdings vergleicht man dabei Einzelbilder (RAW) mit Bildergruppen (GOP).

Hingegen ist die All-i AVC Full HD Kompression der GH4 (verglichen mit 8bit Full HD RAW = 156 MByte/sec) gleich 156 / 25 = 6.24x - das entspricht etwa der ProRes HQ-Kompression durch den Codec.

nun gut, aber was ist nun der shogun im kontext, 10bit 422 in ProRes bei 180 mbit? Das ist für Full HD.
Bei UHD wären es 4x 183 = 732 Mbit/sec ProRes 422 HQ.

Das ist halt der Preis für 4k;-)
Bei dieser hohen Auflösung bekommt dann bei billigen Konsumer Kameras nicht mehr jedes Pixel und jeder Frame die vollen Informationen. Aber mit externem 4K-Rekorder (und möglichst 10bit Farbtiefe aus der Kamera) und ProRes HQ kommt man doch zu guter Qualität - nicht ganz RAW, aber immerhin einzeln komprimierte, JPEG-ähnliche Bilder in brauchbarer Qualität.
Die "Grossen" haben aber den besseren Dynamic Range.

Space


Antwort von dirkus:

Aber mit externem 4K-Rekorder (und möglichst 10bit Farbtiefe aus der Kamera) und ProRes HQ kommt man doch zu guter Qualität - nicht ganz RAW, aber immerhin einzeln komprimierte Bilder. ProRes auf externem Recorder liefert immer etwas bessere Qualität. Verliert zumindest nicht ganz so viel, wie das interne 8Bit H.264.


Der extreme Verlust von (anfangs vorhandener) Qualität hat aber nichts mit den 8 Bit zu tun. Der Verlust - bzw der zerfall des Bildes - kommt erst durch die mehrfachkomprimierung zustande.

Du legst komprimiertes Material auf die Timeline, dann wird es bearbeitet. Die Erhöhung des z.b. Kontrastes verstärkt dann die durch die komprimierung entstandenen Komprimierungsartefakte. Wird es beim rausrendern dann nochmal komprimiert, dann werden diese ganzen Artefakte nochmals miteinander vermatscht.

Das ganze kann man umgehen, wenn man alles vorher dekomprimiert. Dann kann sogar die Quali von H.264 aufgenommenen Bildmaterial weitgehend erhalten werden.

Space


Antwort von Skeptiker:

... Der Verlust - bzw der zerfall des Bildes - kommt erst durch die mehrfachkomprimierung zustande. ...

... Das ganze kann man umgehen, wenn man alles vorher dekomprimiert. ... Würde ich für intensivere Nachbearbeitung auch so machen.
Mein Rechner ist für RAW ungeignet -> (als Macianer) dann ProRes HQ!

Und ganz am Ende wieder H.264, falls nötig.

Aber die Profis hier nehmen natürlich RAW auf und 'graden' in DaVinci mit Vectorscope, Histogramm, evtl. LUT's und allem, was es sonst noch gibt.

Space


Antwort von srone:

also bei 27mbit/s 8bit 420 panasonic avchd (gh-2) kann ich "entsprechend" graden, das wären 108 mbit/s bei uhd, wir reden über 200mbit bei was?, leider nicht spezifiziert vom to, der vergleich zu uncompressed kam für mich auf, da es bei 8bit 420 200mbit avchd bei hd, wohl nur noch einen marginalen optischen unterschied gibt.

lg

srone

Space


Antwort von srone:

Das ganze kann man umgehen, wenn man alles vorher dekomprimiert. Dann kann sogar die Quali von H.264 aufgenommenen Bildmaterial weitgehend erhalten werden. was meinst du mit dekomprimieren, ein auffüllen der lücken durch nullen oder lieber gleich nativ in zb premiere?

lg

srone

Space


Antwort von Skeptiker:

@Stephan82

Etwas fällt mir auf.

Du schreibst zu Beginn:

Aufzeichnung: intern, 200Mbit, Quicktime, Cine-D/Cine-V
Software: After Effects CC 2014, Projekteinstellung: 16 Bit

Das wäre also 4:2:0 All-i AVC 8bit aus der Kamera.
Aber das AE-Projekt hat 16bit.

Könnte sich das negativ auswirken? (nur eine Idee - die Anderen wissen bei dem Thema besser Bescheid!)

Und Dein blasses Cine-Profil musst Du ja zwingend nachbearbeiten in Farbe und Kontrast.
Wie ist das: In welchem Format speichert denn AE die Render Files ab? (zum flüssigen Abspielen in der Timeline wirst Du vermutlich ab und zu rendern). Und wird auf diese Render Files dann ein weiterer Effekt 'kaskadiert'?
Oder findet das ganze 'Grading' ohne jeweiliges Zwischen-Rendering statt?

Space


Antwort von dirkus:


was meinst du mit dekomprimieren, ein auffüllen der lücken durch nullen oder lieber gleich nativ in zb premiere?

Ich rendere alles als Einzelbilder (Tiff). Dann habe ich es als BildSequenz auf der Timeline.

Space



Space


Antwort von Peppermintpost:

also wenn du in h264 mit 200mbit/sec aufgenommen hast, dann wird dir eine umwandlung z.b. in openEXR (32bit float, unkompremiert) oder tif (8bit, mathematisch unkompremiert) erstmal keinen direkten qualitätsvorteil generieren. es stimmt zwar das bei einigen codecs (wie h264) nur das difference frame gespeichert wird, das gleicht aber natürlich die software auf der timeline aus indem sie das natürlich zurück rechnet, das geschiet natürlich im ram und immer wieder erneut, darum verhalten sich diese codecs im schnitt so zäh, qualitativ ist das zunächst aber erst einmal keine einschränkung. der grosse vorteil der mit unkompremierten formaten wie exr oder wenn 8bit reicht tiff entsteht ist aber der das ich beliebig viele zwischenschritte rendern kann, ohne das es zu einem weiteren qualitätsverlust führt, solange das format nicht gewechselt wird.
also z.b. bei vfx anwendungen, wo es üblich ist verschiedene zwischenstufen zu rechnen ist das gängige praxis. für den reinen schnitt und farbkorrektur würde ich das aber nicht machen, weil das natürlich immense datenmengen generiert. als pi mal daumen regel kalkuliere ich immer hd=250mb/sec, 4k 1000mb/sec. die genaue rechnung hängt ja dann von der farbtiefe und dem format ab, wie skeptiker ja schon vorgerechnet hat.

ich selbst finde prores als aufzeichnungsformat einen extrem guten kompromiss. das kann man nicht ganz so krass graden wie raw footage, auch beim keying ist es raw deutlich unterlegen, aber es ist, wie die bilder von stefan82 ja zeigen, qualitativ extrem viel besser als das h264 basiertes footage und es ist im schnitt von der interaktivität auch erheblich besser als h264.

welchen weg ich beim workflow einschlage mache ich immer vom projekt abhängig. für youtube anwendungen finde ich einen prores workflow absolut ausreichend, für tv oder kino nehme ich die nachteile von unkompremierten files in kauf zugunsten einer etwas höheren qualität. aber h264 workflows versuche ich grundsätzlich zu vermeiden, das ist zäh, qualitativ unterirdisch und der einzige vorteil den ich sehen kann ist das die files klein sind.

Space


Antwort von srone:

@ dirkus

was soll das bringen, wenn der content, nicht mehr information, als 8bit 420 beinhaltet?

lg

srone

Space


Antwort von srone:

@ peppermintpost

das war nicht die frage, ich gebe dir recht, wenn ich die wahl habe zwischen 10bit 422 prores und 8bit 420 avchd, bei 10 bit 422 avchd sieht die entscheidung dann wohl anders aus, weil für mich das höherwertige signal.

lg

srone

Space


Antwort von dirkus:

@ dirkus

was soll das bringen, wenn der content, nicht mehr information, als 8bit 420 beinhaltet?

lg

srone
Es bringt natürlich keine bessere Qualität als das was vorhanden ist, aber es verhindert, dass das Material bei der Bearbeitung durch Mehrfachkomprimierung weiter zerfällt.

Die Einzelbilder haben dann alle die selben Bildinformationen und nicht nur jedes 1. oder 11. Bild wie bei Gop Material.

Man verhindert also, dass der Encoder jeden Bearbeitungschritt immer wieder neukomprimiert und das Material so weiter vermatscht.

Space


Antwort von Skeptiker:

@ dirkus

was soll das bringen, wenn der content, nicht mehr information, als 8bit 420 beinhaltet? Interessant wäre folgender Test:

Derselbe blaue Himmel in Full HD - einmal mit Shogun in ProRes HQ 422 und einmal GH4-intern mit 420 All-i AVC und 200 Mbit/sec. -> Bitrate vergleichbar!

Dann 2 Tests im AE-Projekt:

1. Das 8bit-AVC-Material nach ProRes HQ wandeln (und dabei 10bit-422 mit 8bit-420-Nullen auffüllen) und dann in AE importieren.

2. 420 All-i AVC direkt in AE importieren.

Dann beides Material graden in AE.

Gibt es Unterschiede bei der Bearbeitung / im Endergebnis?

Space


Antwort von srone:

@ dirkus

was soll das bringen, wenn der content, nicht mehr information, als 8bit 420 beinhaltet?

lg

srone
Es bringt natürlich keine bessere Qualität als das was vorhanden ist, aber es verhindert, dass das Material bei der Bearbeitung durch Mehrfachkomprimierung weiter zerfällt.

Die Einzelbilder haben dann alle die selben Bildinformationen und nicht nur jedes 1. oder 11. Bild wie bei Gop Material.

Man verhindert also, dass der Encoder jeden Bearbeitungschritt immer wieder neukomprimiert und das Material so weiter vermatscht. in premiere nativ? welche mehrfachkomprimierung?

lg

srone

Space


Antwort von dirkus:

Wenn du es bearbeitest ist es ja nicht mehr nativ;-)

Space


Antwort von srone:

@ dirkus

was soll das bringen, wenn der content, nicht mehr information, als 8bit 420 beinhaltet? Interessant wäre folgender Test:

Derselbe blaue Himmel in Full HD - einmal mit Shogun in ProRes HQ 422 und einmal GH4-intern mit 420 All-i AVC und 200 Mbit/sec. -> Bitrate vergleichbar!

Dann 2 Tests im AE-Projekt:

1. Das 8bit-AVC-Material nach ProRes HQ wandeln (und dabei 10bit-422 mit 8bit-420-Nullen auffüllen) und dann in AE importieren.

2. 420 All-i AVC direkt in AE importieren.

Dann beides Material graden in AE.

Gibt es Unterschiede bei der Bearbeitung / im Endergebnis? mehr bittiefe, bietet mehr bearbeitungsssicherheit, unabhängig vom eingangs content, der gibt die allgemeine qualität vor, sprich den bearbeitungsrange.

und wozu dann die shogun-aufnahme?

lg

srone

Space


Antwort von Jörg:

Die Einzelbilder haben dann alle die selben Bildinformationen und nicht nur jedes 1. oder 11. Bild wie bei Gop Material. was meinst Du, macht der Decoder in den NLE s?
warum ist das Abspielen von nativem Material in den timelines mitunter nicht in realtime möglich?

Space



Space


Antwort von Skeptiker:

... und wozu dann die shogun-aufnahme? Stimmt - die ist überflüssig!

Ich hatte sie zunächst auch noch in den Test genommen, aber den Vergleich gibt's ja schon (siehe Eingangsbeitrag von Stephan82!).

Space


Antwort von srone:

Wenn du es bearbeitest ist es ja nicht mehr nativ;-) dann hast du premiere nicht verstanden, premiere packt es aus, klar kannst du tifs draus machen, bloss die sind nicht besser als dein avchd - ausgepackt, und damit geht es dann auf der timeline weiter, also was? ;-)

lg

srone

Space


Antwort von dirkus:

Stephan82 kann es ja einfach mal machen und dann sagt er uns bestimmt, obs geklappt hat:-)

So, und jetzt muss ich ins Bettchen;-)

Space


Antwort von srone:

Stephan82 kann es ja einfach mal machen und dann sagt er uns bestimmt, obs geklappt hat:-)

So, und jetzt muss ich ins Bettchen;-) na dann, schlaf gut. ;-)

lg

srone

Space


Antwort von Stephan82:

@ dirkus

was soll das bringen, wenn der content, nicht mehr information, als 8bit 420 beinhaltet? Interessant wäre folgender Test:

Derselbe blaue Himmel in Full HD - einmal mit Shogun in ProRes HQ 422 und einmal GH4-intern mit 420 All-i AVC und 200 Mbit/sec. -> Bitrate vergleichbar!

Dann 2 Tests im AE-Projekt:

1. Das 8bit-AVC-Material nach ProRes HQ wandeln (und dabei 10bit-422 mit 8bit-420-Nullen auffüllen) und dann in AE importieren.

2. 420 All-i AVC direkt in AE importieren.

Dann beides Material graden in AE.

Gibt es Unterschiede bei der Bearbeitung / im Endergebnis? Leider habe ich keinen Shogun. Daher auch mein Vergleich mit meinem Material und Shogun-Material aus dem Netz. Hat sich jemand mal das verlinkte Youtube-Video angeschaut? Dort ist doch die Quali trotz 8Bit richtig gut.

Space


Antwort von Stephan82:

Schaut euch mal das Video unten an: interne Aufzeichnung, 8Bit, Cine-D und es wurde ordentlich gegradet oder Luts verwendet. Ich sehe keine oder kaum Bildfehler, obwohl etliche blaue Himmel zu sehen sind.

Ich verstehe einfach nicht, warum mein Bild total auseinanderfällt, wenn ich anfange das Material etwas zu graden.

die kompression funktioniert ja dynamisch. ähnliche pixel werden zusammengefasst. im unteren teil des bildes, die bäume haben ja eine chaotische farbverteilung und detail verteilung, d.h. da ist die kompression geringer. der himmel der ja sehr wenig details hat und nur geringe pixel abweichungen wird stärker kompremiert. Das ist mir schon klar. In dem Youtube-Video hat der Himmel aber trotzdem kaum bis gar keine Klötzchen. Und das obwohl Youtube doch nochmal komprimiert, oder? Irgendwas mache ich mit meinem Material doch falsch.

Gibts hier kein GH4-Besitzer, der mal seinen Workflow beschreiben kann oder einen Tipp hat?

Space


Antwort von srone:

Leider habe ich keinen Shogun. Daher auch mein Vergleich mit meinem Material und Shogun-Material aus dem Netz. Hat sich jemand mal das verlinkte Youtube-Video angeschaut? Dort ist doch die Quali trotz 8Bit richtig gut. weil der richtig belichtet und es kann?

8bit ist nicht per se das problem, sondern der umgang damit, wenn ich damit weit danneben liege, habe ich ein problem, was in deinen oben beschriebenen artefakten resultiert. ;-)

lg

srone

Space


Antwort von dirkus:

Leider habe ich keinen Shogun. Daher auch mein Vergleich mit meinem Material und Shogun-Material aus dem Netz. Hat sich jemand mal das verlinkte Youtube-Video angeschaut? Dort ist doch die Quali trotz 8Bit richtig gut. Dann mach mal den Test:

Zieh die unbearbeitete und ungeschnittene Sequenz in voller Länge ins AE.


Rendere einmal raus als tiff Sequenz.

Dann importiere die Tiff Sequenz in Premiere (Bilder als Sequenz importieren) und mach deine Bearbeitung nochmal.

Für Srone die Tiff Sequenz nochmal in AE importieren und dort 16bit bearbeiten.

Welches Ergebnis wird besser?

Space


Antwort von Stephan82:

Leider habe ich keinen Shogun. Daher auch mein Vergleich mit meinem Material und Shogun-Material aus dem Netz. Hat sich jemand mal das verlinkte Youtube-Video angeschaut? Dort ist doch die Quali trotz 8Bit richtig gut. 8bit ist nicht per se das problem, sondern der umgang damit...

srone Das bringt mich leider nicht weiter. Ich suche ja Tipps für den richtigen "Umgang".

Space



Space


Antwort von Stephan82:

Leider habe ich keinen Shogun. Daher auch mein Vergleich mit meinem Material und Shogun-Material aus dem Netz. Hat sich jemand mal das verlinkte Youtube-Video angeschaut? Dort ist doch die Quali trotz 8Bit richtig gut. Dann mach mal den Test:

Zieh die unbearbeitete und ungeschnittene Sequenz in voller Länge ins AE.


Rendere einmal raus als tiff Sequenz.

Dann importiere die Tiff Sequenz in Premiere (Bilder als Sequenz importieren) und mach deine Bearbeitung nochmal.

Für Srone die Tiff Sequenz nochmal in AE importieren und dort 16bit bearbeiten.

Welches Ergebnis wird besser? Kann ich erst morgen machen.

Space


Antwort von srone:

also gut, 8bit hat einen begrenzteren dynamic range, als 10bit, du hast zu tun, save your lights via nd-filter, belichte sorgsam, was ist bildwichtig, im sinne, der begrenzten korrekturmöglichkeiten, also richte dich darauf aus.

lg

srone

Space


Antwort von dirkus:

Bis morgen dann:-)

Space


Antwort von Starshine Pictures:

Ich denke da liegt der Fehler woanders. Dass GH4 Material so arg zerfällt ist eigentlich nicht normal.

Siehst du denn schon im Vorschaumonitor bei AE dass es so zerreisst oder erst nach dem raus Rendern? Hast du schon mal in einem anderen Programm versucht nachzubearbeiten? Premiere, Speedgrade oder DaVinci Resolve? Hast du es schon mal mit einem AE PlugIn probiert? Zum Beispiel mit Magic Bullet Colorista? Das ist auch kostenlos verfügbar und rechnet intern deutlich höherwertig als die Adobe Onboard Mittelchen. Du kannst auch mal einen original Schnipsel aus deiner GH4 hoch laden und uns zum Testen zur Verfügung stellen.



Liebe Grüsse, Stephan von Starshine Pictures

Space


Antwort von srone:

Dann mach mal den Test:

Zieh die unbearbeitete und ungeschnittene Sequenz in voller Länge ins AE.


Rendere einmal raus als tiff Sequenz.

Dann importiere die Tiff Sequenz in Premiere (Bilder als Sequenz importieren) und mach deine Bearbeitung nochmal.

Für Srone die Tiff Sequenz nochmal in AE importieren und dort 16bit bearbeiten.

Welches Ergebnis wird besser? mal so, per se, in premiere max bittiefe und max renderqualität aktiviert?

abgesehen davon, was soll, besser werden, mehr information ist nicht da, dh. woher soll sie kommen?

lg

srone

Space


Antwort von srone:

Ich denke da liegt der Fehler woanders. Dass GH4 Material so arg zerfällt ist eigentlich nicht normal.

Siehst du denn schon im Vorschaumonitor bei AE dass es so zerreisst oder erst nach dem raus Rendern? Hast du schon mal in einem anderen Programm versucht nachzubearbeiten? Premiere, Speedgrade oder DaVinci Resolve? Hast du es schon mal mit einem AE PlugIn probiert? Zum Beispiel mit Magic Bullet Colorista? Das ist auch kostenlos verfügbar und rechnet intern deutlich höherwertig als die Adobe Onboard Mittelchen. Du kannst auch mal einen original Schnipsel aus deiner GH4 hoch laden und uns zum Testen zur Verfügung stellen.



Liebe Grüsse, Stephan von Starshine Pictures doch ist so, als gh2 erfahrener user, kann ich dem kontext nur empfehlen, alles auf minus unendlich (;-) schärfe, sättigung ud kontrast, zu stellen, dann lässt sich das 8bit material bearbeiten, ohne nennenswert zu zerfallen, in neutral (0) ist das kind bereits in den brunnen gefallen.

lg

srone

Space


Antwort von wolfgang:

Es geht völlig in die falsche Richtung zu glauben, dass die Wandlung zu höherwertigeren codecs das Problem löst. Jede gute NLE und gerade auch AE rechnet das 8bit 420 Material im internen Signalfluss sowieso entsprechend hochwertig um. Intermediates bringen da dann kaum oder gar nicht mehr.

Und AE nutzt die 32bit floating point Methode, also was willst da noch raus holen? Maximal kanns noch sein dass in der Vorschau etwas mehr Artefakte auftauchen als beim finalen Rendern - aber das ist es dann auch schon.

Nee, das 8bit 420 Material scheint hier an Grenzen zu kommen - es hat eben weniger Spielraum in der Nachbearbeitung als das 10bit 422 Material des Shoguns. Und diverses youtube Material sieht nur vermutlich deshalb gut aus, weil es einerseits bei der Aufnahme schon gut belichtet und mit richtiger Farbtemperatur aufgenommen worden ist, und dann halt noch (oder nur) im Rahmen der Möglichkeiten geringfügiger als hier korrigiert worden ist. Man sollte halt nicht vergessen dass viele immer wieder meinen dass das 8bit Material möglichst fertig aus der Kamera kommen sollte - ganz so eng ist es nicht, aber der Spielraum ist halt nicht unendlich gross.

In meinen Vergleichen zwischen GH4 intern aufgezeichnetem 8bit Material und dem Shogun 10bit Material sind diese Unterschiede doch erkennbar. Also kann man sich nur darauf einstellen. Ach ja, mit v log l der GH4 arbeite ich nicht mit interner Aufnahme sondern nur mit dem Shogun. Aus durchaus diesem Grund. Also gerade mit flachen Profilen muss man bei 8bit auf Grenzen achten - es ist nicht unmöglich aber eben enger.

Space


Antwort von Starshine Pictures:

Und noch etwas: Kann man bei deiner Angabe dass du in 200Mbit gefilmt hast davon ausgeghen dass du in Full HD gefilmt hast? Denn für 4k sind ja meines Wissens nach nur die 100 Mbits möglich oder? Zudem ist dein Bildausschnitt im AE auf 100% eingestellt, und ich vermute mal dass du keinen 5k Monitor hast ... ;)

Space


Antwort von Stephan82:

Ich denke da liegt der Fehler woanders. Dass GH4 Material so arg zerfällt ist eigentlich nicht normal.

Siehst du denn schon im Vorschaumonitor bei AE dass es so zerreisst oder erst nach dem raus Rendern? Hast du schon mal in einem anderen Programm versucht nachzubearbeiten? Premiere, Speedgrade oder DaVinci Resolve? Hast du es schon mal mit einem AE PlugIn probiert? Zum Beispiel mit Magic Bullet Colorista? Das ist auch kostenlos verfügbar und rechnet intern deutlich höherwertig als die Adobe Onboard Mittelchen. Du kannst auch mal einen original Schnipsel aus deiner GH4 hoch laden und uns zum Testen zur Verfügung stellen.



Liebe Grüsse, Stephan von Starshine Pictures Sehe die Bildprobleme bereits in AE. Habe ja noch gar nicht gerendert. Habe momentan auch nur AE zur Verfügung.

Space



Space


Antwort von Stephan82:

doch ist so, als gh2 erfahrener user, kann ich dem kontext nur empfehlen, alles auf minus unendlich (;-) schärfe, sättigung ud kontrast, zu stellen, dann lässt sich das 8bit material bearbeiten, ohne nennenswert zu zerfallen, in neutral (0) ist das kind bereits in den brunnen gefallen.

lg

srone ich hatte alles auf -5 ;)

Space


Antwort von srone:

Es geht völlig in die falsche Richtung zu glauben, dass die Wandlung zu höherwertigeren codecs das Problem löst. Jede gute NLE und gerade auch AE rechnet das 8bit 420 Material im internen Signalfluss sowieso entsprechend hochwertig um. Intermediates bringen da dann kaum oder gar nicht mehr.

Und AE nutzt die 32bit floating point Methode, also was willst da noch raus holen? Maximal kanns noch sein dass in der Vorschau etwas mehr Artefakte auftauchen als beim finalen Rendern - aber das ist es dann auch schon.

Nee, das 8bit 420 Material scheint hier an Grenzen zu kommen - es hat eben weniger Spielraum in der Nachbearbeitung als das 10bit 422 Material des Shoguns. Und diverses youtube Material sieht nur vermutlich deshalb gut aus, weil es einerseits bei der Aufnahme schon gut belichtet und mit richtiger Farbtemperatur aufgenommen worden ist, und dann halt noch (oder nur) im Rahmen der Möglichkeiten geringfügiger als hier korrigiert worden ist. Man sollte halt nicht vergessen dass viele immer wieder meinen dass das 8bit Material möglichst fertig aus der Kamera kommen sollte - ganz so eng ist es nicht, aber der Spielraum ist halt nicht unendlich gross.

In meinen Vergleichen zwischen GH4 intern aufgezeichnetem 8bit Material und dem Shogun 10bit Material sind diese Unterschiede doch erkennbar. Also kann man sich nur darauf einstellen. Ach ja, mit v log l der GH4 arbeite ich nicht mit interner Aufnahme sondern nur mit dem Shogun. Aus durchaus diesem Grund. Also gerade mit flachen Profilen muss man bei 8bit auf Grenzen achten - es ist nicht unmöglich aber eben enger. 1+

lg

srone

Space


Antwort von Stephan82:

Und noch etwas: Kann man bei deiner Angabe dass du in 200Mbit gefilmt hast davon ausgeghen dass du in Full HD gefilmt hast? Denn für 4k sind ja meines Wissens nach nur die 100 Mbits möglich oder? Zudem ist dein Bildausschnitt im AE auf 100% eingestellt, und ich vermute mal dass du keinen 5k Monitor hast ... ;) Ja ist FullHD. Hatte im Menü 200Mbit eingestellt. Habe jetzt mal mir die Datei mit Media-Info angeschaut. Effektiv sind es nur 52,2MBit statt 200Mbit, weil die GH4 eine variable Bitrate verwendet. Glaube ich zumindest, denn andere Aufnahmen vom selben Tag schwanken auch eher zwischen 50 und 80Mbit. Auf 200Mbit komme ich gar nicht.

Space


Antwort von Starshine Pictures:

Ich empfehle dir dringend deine GH4 immer in 4k filmen zu lassen um die höchste Qualität aus ihr zu bekommen. Ausser du benutzt die Zeitlupenfunktion (mit knapp über 90fps glaub ich).

Du kannst gern mal ein paar Sekunden Material hoch laden und ich schau mir das mal an. Hab wenigstens Premiere und Colorista hier zum Testen zur Verfügung.

Space


Antwort von wolfgang:

ich hatte alles auf -5 ;) Ja und damit bekommst halt massiv flaches Material und musst entsprechend stark korrigieren. Und handelst dir die Probleme ein.

Space


Antwort von Stephan82:

Hier mal ein paar Clips vom selben Tag zum testen in verschiedenen Programmen. Wäre nett, wenn der ein oder andere mal bissl dran rumspielen und Feedback geben könnte.


Cine-D (alles -5, Sättigung -2)

1. https://www.dropbox.com/s/1k1jfrtdho42a ... 2.MOV?dl=0
2. https://www.dropbox.com/s/byclby2evexxl ... 0.MOV?dl=0
3. https://www.dropbox.com/s/govl7zwotcdkg ... 3.MOV?dl=0

Cine-V (-5,-5,-3,-3,0)
Das hier ist ein Clip, den ich statt mit Cine-D mit Cine-V aufgenommen habe. Geschnitten und gerendert mit After Effects. Keine Farbkorrektur.

https://www.dropbox.com/s/d3etgiiw988p1 ... 1.mp4?dl=0

Drop-Box-Download: oben rechts auf diese 3 Punkte klicken und dann runterladen ;)

Space


Antwort von Stephan82:

Ich empfehle dir dringend deine GH4 immer in 4k filmen zu lassen um die höchste Qualität aus ihr zu bekommen. Ausser du benutzt die Zeitlupenfunktion (mit knapp über 90fps glaub ich). 4K zwingt eben meinen Rechner ganz schön in die Knie.

Space


Antwort von motiongroup:

Warum drehst du aus dem eh schon flachen CineD nochmals alles raus..?
Die Diskussion über den Sinn der sich dahinter verbirgt und was es bringt die Datenbanken zum Überlaufen....nix außer das du dir Probleme damit einhandelst.. Das ging selbst bei der vlog Kaufoption in den meisten Fällen kläglich in die Hose..

Space


Antwort von wolfgang:

Ja das Material ist extrem flach dafür, dass es nicht mal v-log l ist. Kein Wunder dass du hier entsprechend graden mußt.

All meine Befüchtungen, die ich dir oben schon geschrieben habe, sehe ich hier bestätigt. Ich teste das Material auch bei mir mal gerne durch, halt in den von mir genutzten Applikationen.

Aber ich würde mich an deiner Stelle damit anfreunden, mich mal von diesem flachen Bildstil zu verabschieden, zumindest wenn du mit 8bit arbeitest. Oder du lachst dir einen Atomos Shogun/Assign an und fährst in Zukunft mit 10bit weiter.

Mit der GH4 bekommt man bei geeigneten Einstellungen direkt aus der Box Material welches schon sehr super ist. Aber nicht unbedingt wenn man alles rausdreht.

Die Frage ist halt ein wenig, ob du willens bist auf diese Kommentare einzugehen. Denn gesagt hast halt bisher zu diesen Anmerkungen nichts! ;)

Space



Space


Antwort von TomStg:

Oder du lachst dir einen Atomos Shogun/Assign an und fährst in Zukunft mit 10bit weiter. Oder Du ignorierst diesen Tip, mit dem eine inzwischen veraltete GH4 mit einem Spielzeug-Recorder zu einer Handlings-Mega-Krücke werden würde, und verkaufst Deine GH4, legst noch ein wenig drauf und bekommst zB mit einer Sony X-70 eine Kamera, die FHD in 4:2:2 mit 10 Bit direkt intern in ordentlicher Qualität aufnimmt.

Space


Antwort von -paleface-:

Behalte deine GH4. Die ist super.

Habe mir dein Material mal angesehen.
Ich bekomme auch die Artefakte. Weg bekommst du die, wenn du vor der Sättigung eine leichte S-Kurve machst.

Ich fürchte es ist eine Mischung aus, beim Dreh falsch belichtet und deinem zu flachen Material bei 8-Bit.

Dreh nicht überall alles raus. Nimm das Standart Cine-D.
Und bei dem Shogun V_log bei 10Bit.

Das 200Mbits Intra gedöns würde ich auch lassen und eher das 100ter nehmen. Habe da immer die besseren Ergebnisse bekommen.

Und warum nimmst du AVCHD?
Nimm Quicktime mit H.264.

Dann solltest du trotzdem überlegen in 4K zu filmen und es aber im Schnitt auf HD runter skalieren. Guck mal ob dein PC das packt. Pack deine Vorschau Qualität auf 50% in Premiere. Das hilft.

So drehe ich seit 2 Jahren mit 2 Gh4s und hatte noch nie solche Artefakte wie du die da hast.

Space


Antwort von wolfgang:

Behalte deine GH4. Die ist super. Exakt
Ich fürchte es ist eine Mischung aus, beim Dreh falsch belichtet und deinem zu flachen Material bei 8-Bit. +1!!
Dreh nicht überall alles raus. Nimm das Standart Cine-D.Und bei dem Shogun V_log bei 10Bit. Absolut ++++1!

Wenn gewünscht sind auch Profile der GH4 postbar.

Dann solltest du trotzdem überlegen in 4K zu filmen und es aber im Schnitt auf HD runter skalieren. Guck mal ob dein PC das packt. Pack deine Vorschau Qualität auf 50% in Premiere. Das hilft. Das Ergebnis wäre definitiv besser -aber die PC Frage ist vermutlich eine relevante. Nur für UHD/4K sind die Ansprüche (etwas) höher. Sagen wir es mal so: selbst mit meinem uralten aber auf ca. 4.2 Ghz übertakteten i7 2600K kann ich das in der GH4 intern aufgenommene mp4 Material gerade noch so bearbeiten. Allerdings in Vegas.

Zu den Clips: also die sind tatsächlich extrem flach. Gerade der Brückenclip ist gerade mal bis IRE 60 (also 60%) belichtet. Das ist natürlich zu wenig belichtet. Stell dir die Zebras entsprechend höher und nutze mal den Belichtungsspielraum aus.

Man kann das gerade in Vegas noch halbwegs herrichten, aber das geht hart an die Grenzen. Und wenn man weiß dasss man in Wirklichkeit mal zunächst den Lumabereich zwischen 0 und 100% einstellt, und dann erst die Farbkorrekturen macht. Das wird zumindest von vielen als die gängige Reihenfolge angesehen. Aber krass ist es schon - wenn man so stark colorieren will wie du dann muss ich halt die Farbsättigung bis an die Grenze der Farbkorrektur hochdrehen, weil eben dem Bild viel zu viel Farbe fehlt. DAS mußt in der Aufnahme besser hinbekommen - dann fliegt die Sache. Ich hänge mal (grob und quick und mehr als dirty) korrigierte Bilder an.

Space


Antwort von wolfgang:

Und hier noch die Einstellungen dieser (rein für Demozwecke quick und dirty gedrehten) Bilder.

Space


Antwort von blueplanet:

Wenn gewünscht sind auch Profile der GH4 postbar. ...aber der "gruslige" Farbeindruck bleibt (total margenta/grün-blau). Ich wüsste nicht, an welcher Stelle die Farbräder rotieren sollten, um aus diesem Ausgangsmaterial etwas Ansehenswertes zu bekommen (es sei denn, man(n) möchte es so ;).

Da ist, wie angemerkt, bereits Einiges im Vorfeld im argen und auf keinen Fall der GH4 anzulasten. Eure Profileeinstellungen würden mich in dem Zusammenhang auch interessieren.

Ich arbeite mit wenig zusätzlich modifizierten cine-D (lowlight) oder cine-V (daylight) in UHD und einem 80 prozentigen Zebra.

In der Post wird als erstes der Lumabereich was Lichter und Tiefen betrifft getrennt optimiert und ggf. im Anschluss die Mitten feinjustiert. So bekommt man aus der GH4, mit autom. Weißabgleich gedreht, schon relativ optimale Ergebnisse.

Im Anschluss wird auf HD scaliert und nach Geschmack geschärft. Für einen "Kinolook" des Materials lege ich als LUT das Profil der Canon C300 drüber. Damit werden die Lichter in Verbindung mit den Mitten etwas "zusammengeschoben" und gleichzeitig die Kantenschärfe abgemildert. Jetzt muss nur noch dezent die Farbsättigung angepasst werden.

Wie gesagt - das ist meine ganz persönlich-geschmackliche Herangehensweise. Die mag vom workflow her nicht ganz logisch sein, aber sie lässt mich zumindest ergebnisorientiert nicht im stich ;))

beste Grüße
Jens

Space


Antwort von wolfgang:

...aber der "gruslige" Farbeindruck bleibt (total margenta/grün-blau). Also das war hier für Demozwecke gemacht - mit falsch aufgenommenen Material. Auch lediglich um zu zeigen dass sich sogar dieses Ausgangsmaterial noch relativ stark belasten läßt bevor es zerfällt. Aber natürlich zerfällts irgendwann.
Ich wüsste nicht, an welcher Stelle die Farbräder rotieren sollten, um aus diesem Ausgangsmaterial etwas Ansehenswertes zu bekommen (es sei denn, man(n) möchte es so ;).

Da ist, wie angemerkt, bereits Einiges im Vorfeld im argen und auf keinen Fall der GH4 anzulasten. So ist es - da ist halt im Vorfeld viel versaut schief gelaufen.

Na mal schauen - wer fängt an seine Profile zu posten? Ich komme nicht vor Abend an die Kamera, und ich sags auch ganz offen: ich nutze halt den "Spielzeugrekorder" Shogun und bin daher eher mit v-log l unterwegs. Und komischerweise bin ich damit nicht unzufrieden. Wird halt an mir liegen! ;) Mehr will ich zu TomStg gar nicht sagen....

Und klar - es ist die typische Vorgehensweise erst mal die Luminanz zu korrigieren und dann die Farbkorrektur zu machen. Kann man sogar in Fachbüchern nachlesen wenn man will. :)

Space


Antwort von Stephan82:

Ja das Material ist extrem flach dafür, dass es nicht mal v-log l ist. Kein Wunder dass du hier entsprechend graden mußt.

All meine Befüchtungen, die ich dir oben schon geschrieben habe, sehe ich hier bestätigt. Ich teste das Material auch bei mir mal gerne durch, halt in den von mir genutzten Applikationen.

Aber ich würde mich an deiner Stelle damit anfreunden, mich mal von diesem flachen Bildstil zu verabschieden, zumindest wenn du mit 8bit arbeitest. Oder du lachst dir einen Atomos Shogun/Assign an und fährst in Zukunft mit 10bit weiter.

Mit der GH4 bekommt man bei geeigneten Einstellungen direkt aus der Box Material welches schon sehr super ist. Aber nicht unbedingt wenn man alles rausdreht.

Die Frage ist halt ein wenig, ob du willens bist auf diese Kommentare einzugehen. Denn gesagt hast halt bisher zu diesen Anmerkungen nichts! ;) Hey, ich bin total dankbar für die Beteiligung hier. Habe eigentlich versucht auf alles zu antworten. Ich drehe schon gerne an den Farben, Kontrasten usw. Deshalb liebäugle ich schon mit einem externen Recorder. Wollte vorher eben testen, ob ich den wirklich benötige. Habe daher einige Tests mit Cine-V/-D gemacht und eben verschiedene Profileinstellungen ausprobiert, die so im Netz umherschwirren (James Miller etc.). So richtig zufrieden war ich eben bisher nicht, obwohl andere Menschen tolle Filme mit wohl ähnlichen Profil-Einstellungen und interner Aufzeichnung präsentieren. Wahrscheinlich liegts dann wirklich am Workflow und meinen schlechteren Skills :(

Danke für deine geposteten Bearbeitungen.

Space


Antwort von Stephan82:

Warum drehst du aus dem eh schon flachen CineD nochmals alles raus..?
Die Diskussion über den Sinn der sich dahinter verbirgt und was es bringt die Datenbanken zum Überlaufen....nix außer das du dir Probleme damit einhandelst.. Das ging selbst bei der vlog Kaufoption in den meisten Fällen kläglich in die Hose.. Naja, wird eben fast überall (Foren etc.) empfohlen, dass man alles auf -5 stellen soll. Auch teilweise hier im Thread oder allgemein auf Slashcam. Zudem habe ich ja auch ein Beispiels-Video weiter oben angehänt, dass auch mit Cine-D und -5 aufgenommen und anschließend gegradet wurde. Die Qualität in dem Video ist eben wesentlich besser als das was ich momentan mit After Effects hinbekomme.

Space


Antwort von Peppermintpost:

verstehe das problem nicht, die beispielbilder lassen sich doch einwandfrei graden.

Space



Space


Antwort von Stephan82:

Behalte deine GH4. Die ist super.

Habe mir dein Material mal angesehen.
Ich bekomme auch die Artefakte. Weg bekommst du die, wenn du vor der Sättigung eine leichte S-Kurve machst.

Ich fürchte es ist eine Mischung aus, beim Dreh falsch belichtet und deinem zu flachen Material bei 8-Bit.

Dreh nicht überall alles raus. Nimm das Standart Cine-D.
Und bei dem Shogun V_log bei 10Bit.

Das 200Mbits Intra gedöns würde ich auch lassen und eher das 100ter nehmen. Habe da immer die besseren Ergebnisse bekommen.

Und warum nimmst du AVCHD?
Nimm Quicktime mit H.264.

Dann solltest du trotzdem überlegen in 4K zu filmen und es aber im Schnitt auf HD runter skalieren. Guck mal ob dein PC das packt. Pack deine Vorschau Qualität auf 50% in Premiere. Das hilft.

So drehe ich seit 2 Jahren mit 2 Gh4s und hatte noch nie solche Artefakte wie du die da hast. Danke für die Tipps. Zumindest liegt es nicht an After Effects, da du ja Premiere verwendet und ähnliche Probleme bekommen hast. Achja, ich habe Quicktime und H.264 verwendet. Wie kommst du auf AVCHD?

Space


Antwort von Stephan82:

verstehe das problem nicht, die beispielbilder lassen sich doch einwandfrei graden. Mhhh, und wie hast du das gemacht? Welche Software und welche Effekte? Du siehst doch, dass "ich" im Ausgangspost etliche Artefakte bekomme wenn ich den Himmel blauer mache.

Space


Antwort von wolfgang:

Deshalb liebäugle ich schon mit einem externen Recorder. Wollte vorher eben testen, ob ich den wirklich benötige. Habe daher einige Tests mit Cine-V/-D gemacht und eben verschiedene Profileinstellungen ausprobiert, die so im Netz umherschwirren (James Miller etc.). So richtig zufrieden war ich eben bisher nicht Es gab bei der Einführung von v-log l lange Diskussionen zur Tauglichkeit von v-log l. Das hängt damit zusammen, dass einerseits der Luminanzumfang von v-log l in der GH4 aber auch in der DVX200 aufgrund der 12 Blendenstufen dieser beiden Geräte bei 80% IRE clipt. Und da Schwarz bei 7% sitzt bleibt ein tatsächlich nutzbarer Bereich von lediglich 32-192. Das ist für die interne 8bit Aufzeichnung halt eher wenig. Mit einem externen Rekorder mit 10bit schauts besser aus, dort hat man deutlich mehr Werte.

Das andere Problem war dass gerade bei 8bit mit v-log l relativ kräftige Farbartefakte beobachtet worden sind. Offenbar vor allem dann, wenn man das v log Material nicht eher überbelichtet hat. Auch das wurde bei 10bit Material kaum beobachtet.

Die Meinungen haben sich da geteilt - einige meinten sie machen eher mit CineD und CineV weiter, und haben dafür Optierungen erstellt. Andere sind halt mit den 10bit Rekordern unterwegs und entwicklen das Material mit geeigneten LUTs.

Ich vermute, empfehlen sollte man v log l primär im Zusammenspiel mit den externen Rekordern. Klar gehts auch intern, aber halt nicht sonderlich berauschend.

Vorher würde ich aber mal mit CineD/CineV mein Glück probieren. Vor allem weil man dann den Vergleich hat. Und man sollte auch nicht vergessen dass v-log in der Bearbeitung noch schwieriger ist. Da ein paar Kaufluts wie die von James Miller zuzukaufen ist das Eine - es gibt aber auch genug gratis LUTs im Netz, auch für v-log l. Vor allem die von balazar finde ich gelungen.
http://www.dvxuser.com/V6/showthread.ph ... nd-V-Log-L

Infos und Links dazu hier:
http://www.videotreffpunkt.com/index.ph ... /?pageNo=8

Vergiß nicht dass die Bearbeitung von x-log grundsätzlich auch Rechenleistung braucht, je nach Lösung halt.

Space


Antwort von Peppermintpost:

weil du zu brachial an die sache heran gehst. wenn ich es mit dem grading übertreibe hab ich das gleiche problem. siehe bild. bei dir fällt die sache noch etwas extremer aus als bei mir, weil ich vermute das du dein grading im 8bit farbraum machst und ich im 32bit float. ist aber nur eine vermutung, kein wirkliches wissen, da müsste ich deine projekt einstellungen sehen.

Space


Antwort von CameraRick:

Ich hab nicht den gesamten Thread gelesen, daher ists vielleicht hinfällig, aber -


Stell die Sequenz mal auf 32bit, nicht 16bit. Oft taugt 16bit nicht so richtig auch wenn man es annehmen würde, vermutlich ists nicht float sondern integer, vielleicht kommt es daher.

Außerdem, nutze nicht Hue+Saturation. Ganz grausamer Effekt für die meisten Sachen - der geht einfach zu hart rein und zeigt keinen Respekt fürs Bild, will mathematisch korrekt ran gehen (was schwierig ist, wenn man nicht linear arbeitet). Vibrance hat auch einen Saturation-Regler integriert, den kann man ganz gut nutzen.

Space


Antwort von Stephan82:

weil du zu brachial an die sache heran gehst. wenn ich es mit dem grading übertreibe hab ich das gleiche problem. siehe bild. bei dir fällt die sache noch etwas extremer aus als bei mir, weil ich vermute das du dein grading im 8bit farbraum machst und ich im 32bit float. ist aber nur eine vermutung, kein wirkliches wissen, da müsste ich deine projekt einstellungen sehen. Habe in AE das Projekt nur von 8 auf 16Bit umgestellt. Sonst also auf standard gelassen.

Hast du auch AE verwendet?

Space


Antwort von CameraRick:

weil du zu brachial an die sache heran gehst. wenn ich es mit dem grading übertreibe hab ich das gleiche problem. siehe bild. bei dir fällt die sache noch etwas extremer aus als bei mir, weil ich vermute das du dein grading im 8bit farbraum machst und ich im 32bit float. ist aber nur eine vermutung, kein wirkliches wissen, da müsste ich deine projekt einstellungen sehen. Habe in AE das Projekt nur von 8 auf 16Bit umgestellt. Sonst also auf standard gelassen. 32, ich sags Dir.

Space


Antwort von Stephan82:

weil du zu brachial an die sache heran gehst. wenn ich es mit dem grading übertreibe hab ich das gleiche problem. siehe bild. bei dir fällt die sache noch etwas extremer aus als bei mir, weil ich vermute das du dein grading im 8bit farbraum machst und ich im 32bit float. ist aber nur eine vermutung, kein wirkliches wissen, da müsste ich deine projekt einstellungen sehen. Habe in AE das Projekt nur von 8 auf 16Bit umgestellt. Sonst also auf standard gelassen. 32, ich sags Dir. Ich werde es testen, wenn ich zuhause bin ;)

Space


Antwort von Peppermintpost:

ne AE verwende ich nur wenn ich ein bissel grafik in der gegend herum schubsen will. cc ist bei mir grundsätzlich davinci oder flame. in diesem fall davinci.

Space



Space


Antwort von wolfgang:

Noch ein paar Versuche falls es interessiert. Also ich sehe durchaus die Möglichkeit das zu retten - hier mal Bilder für relativ starke Colorierungen. Allerdings erstellt mit dem Catalyst. Es geht sicherlich noch besser - wenn man mehr Erfahrung als ich darin hat und sich mehr Zeit nehmen will/kann.

Space


Antwort von Starshine Pictures:

Hab auch mal dran herum geschraubt. Eigentlich verhält sich das Material genau so wie ich es erwartet habe. Für wirklich knallige Farben und Kontrast ist es schon ein wenig zu flach gefilmt. Aber trotzdem bekomme ich das Material nicht so zum Zerreissen wie du.

Einzig der Gegenlichtshot über den Park fand ich problematisch, aber das liegt wohl eher am Objektiv welches bei anscheinend Gegenlicht massive Falschfarben generiert. Das Grün ist ja zum Speien grauselig, inklusive einem violett-magenta Lensflare. Da bin ich sogar mit der Sättigung auf 90% runter gegangen.

Korrektur in Premiere mit Lumetri, geschärft mit Unscharf maskieren und noch etwas Charakter mittels FilmConvert generiert. Gearbeitet wurde in 32 bit Float (zu deutsch Gleitkomma) wobei ich keinen Unterschied zwischen 8bit und float erkennen konnte.



Grüsse, Stephan von Starshine Pictures

Space


Antwort von mash_gh4:

ganz pragmatisch:

immer 4k und 100mbps GOP und niemals -5 od. angehobenen MP verwenden!

4K weil die GH4 intern sehr schlecht skaliert und den 100mbps GOP codec, weil der die verfügbare bandbreite weit effektiver nutzt als der ALL-intra codec mit doppelter bandrbreite -- außer der bewegungsanteil im bild ist ungewöhnlich groß

-5 ist auch bei fast allen settings schwachsinn. evtl. könnte ich es noch bei der schärfe verstehen, aber ansonsten wirkt es sich in fast allen belangen spürbar kontraproduktiv aus, bspw. bei der rauschunterdrückung oder dem kontrast.

man muss bei solchen geschichten auch mitberücksichtigen, dass in den normalen bildprofilen die tonalität -- dh. die möglichen abstufungen von helilligkeits- bzw. intensität in den einzelnen farbkanälen -- nicht gleichmäßig über alles lichtintensitäten verteilt ist (im gegensatz zu den verschiedenen log varianten). in der mitte ist die entsprechende auflösungen bei den rec709 ähnlichen profilen recht gut, aber an den rändern nur gering. und dieser umstand betrifft nicht nur die summe bzw. helligkeit, wie man sie im histogramm sieht, sondern jeden farbkanal einzeln (wobei das nicht unbedingt RGB bezogen sein muss, sondern auch die YCbCr repräsentation bzw. umrechnung betrifft, wie sie intern vom h.264 genutzt wird). es reicht also, wenn dir in einem einzigen farbkanal die farben auszureißen beginnen.

und dass es bei wilderen grading orgien einen ziemlichn unterscheid machen kann, mit welcher präzision man rechnet, sollte auch allgemein bekannt sein. ich seh kaum einen grund, warum man hier nicht 32bit als zeitgemäß ansehen sollte.

Space


Antwort von blueplanet:

...mein verwendetes Profil mit der GH4:

- Cinema-like Video (nutze ich bei Tageslicht)
Kontrast -5
Schärfe -5
Rauschunterdrückung -5
Sättigung -2
Farbton 0

i.Dynamik off
i. Auflösung off
Schwarzwert-Pegel 0

Mit ISO 200, Blende 7,1, UHD/25fsp, Shutter 50 + Variablen Graufilter von B+W kommt dabei das raus:

Space


Antwort von wolfgang:

Profil 1

CNED
Kontrast +3
Schärfe -5
Rauschunterdrückung -5
Sättigung -2
Farbton +1

Highlight +2
Shadow -2


i.Dynamik off
i. Auflösung Standard
Schwarzwert-Pegel 0

Mit ISO 1600
Luminanzbereich 16-235
Iso 1600
Blende 2.8
1/50s


Profil 2
CNEV
Kontrast 0
Schärfe -5
Rauschunterdrückung -5
Sättigung -1
Farbton +1

Highlight +2
Shadow -2


i.Dynamik off
i. Auflösung Standard
Schwarzwert-Pegel 0

Mit ISO 400
Luminanzbereich 16-235
Iso 1600
Blende 2.8
1/50s


3. Profil
v-log

Schärfe -5
NR -5

i Auflösung Standard
Iso 800

Space


Antwort von Stephan82:

Danke nochmal an alle. Ich bin heute nicht dazu gekommen nochmal an dem Material rumzudrehen.

Bin nach wie vor zwiegespalten was die Profil-Einstellungen angeht. Grade die letzten paar Antworten unterscheiden sich ja deutlich. Einer sagt, dass Werte auf -5 totaler Quatsch sind, der nächste postet dann eine Profileinstellung mit 3 Werten auf -5. Mhhh, was denn nun?

Noch ne Frage zur NR. Die stellt ihr ja auch vorrangig auf -5. Hat man dann nicht Unmengen an Rauschen im Bild? Vor allem, wenn man eine Szene mit Licht und Schatten hat?

Wolfgang, könntest du noch erklären, wann du welches Profil verwendest?

Space


Antwort von mash_gh4:

Noch ne Frage zur NR. Die stellt ihr ja auch vorrangig auf -5. natürlich wünscht man sich alle details im bild zu erhalten, was natürlich mit rauschunterdrückungungsfiltern kaum vereinbar ist. wenn man aber die rauschunterdruckung zu gering wählt, läuft man gefahr, dass die kompressionsartifakte stark zunehmen, weil die daten beim komprimieren kaum mehr in der zielbandbreite unterzubringen sind. deshalb ist es sinnvoll, die rauschunterdrückung, die ja recht gezielt genau diesen einen typus von von kaum zu komprimierenden bildinhalten ausfiltert, mit dem nötigen fingerspitzengefühl einzustellen, anstatt andere folgen (=detailverlust und artifakte) über das gesamte resultat hinweg zu bewirken...
ich persönlich verwende hier jedenfalls sicher kein -5.

Space


Antwort von Peppermintpost:

die sache mit den einstellungen und den luts ist die, das es zu dem passen sollte was du am ende haben willst.
ich finde luts zum beispiel ätzend und in fast allen fällen kontraproduktiv. dennoch gibt es natürlich fälle wo es sinn macht. das problem ist nun das es eine kathegorie von benutzern gibt die haben keine ahnung und fragen wie man was benutzen soll. zu denen gehörst du. das ist auch ein richtiger ansatz, denn erst wenn du verstanden hast was da "unter der haube" los ist weist du wann du was und wie einsetzt.
dann gibts da die gruppe von denen die null ahnung haben, die es aber auch nicht interessiert, und von der fraktion findest du viele hier im forum, die kommen dann immer mit irgend einem dogma scheiss um die kurve um so zu tuen als hätten sie von irgendwas ne ahnung und die sagen dann so dinge wie "immer raw", oder "slog3 ist der beste" oder sonst irgend einen blödsinn.
das ist so ähnlich als würdest du fragen, welches auto ist das beste. und dann sagt einer: golf gti, der nächste sagt ferrari, der nächste sagt MAN und der nächste sagt, egal hauptsache es ist tiefer gelegt.
jede einzelne antwort ist natürlich blödsinn, weil die erste frage sein muss, was willst du denn damit machen. das problem ist, das wenn der eine oder andere mal die frage stellt, dann ist die antwort meistens, ich will damit fahren. das ist aber keine antwort die irgendwie weiter hilft.

wenn ich mir dein color grading so ansehe und unterstelle, das du das ernst meinst, dann sehe ich du willst sättigung und kontraste bis blut aus den augen spritzt. das kan man mögen oder nicht, das ist nicht der punkt, der punkt ist, wie zeichnest du das am besten auf, damit du das erreichst. es ist ja augenscheinlich so, das wenn du in einem farbraum von 0-255 aufzeichnest du in deinem bild mehr kontrast und mehr farbinformationen hast, als wenn du alles zwischen 80-150 aufzeichnest. die meisten luts machen im prinzip genau das. es gibt gute gründe das so zu handhaben, aber keiner der gründe deckt sich oder unterstützt deine grading vorstellungen. warum das also benutzen? wenn du in dein endresultat sättigung +500% rein schrauben willst/must, warum dann das bild bei der aufnahme entsättigen?

wenn du ein auto für deinen sohn kaufst und du willst das der nicht schneller als 100 fahren kann, dann kaufst du ihm doch auch keinen ferrari und machst dann mit nem abschleppseil einen panzerschrank daran fest. das ist doch schwachsinn. wenn es um kameras geht finden die meisten aber genau die verfahrenweise total geil.

slog-vlog-raw oder sonst irgend etwas das nicht rec709/srgb ist, wird erst dann sinnvoll wenn du genau weist was es macht und das prinzip dahinter verstanden hast. solange das nicht der fall ist, ist die default werks einstellung für dich die aller beste wahl.

Space


Antwort von Stephan82:

wenn ich mir dein color grading so ansehe und unterstelle, das du das ernst meinst, dann sehe ich du willst sättigung und kontraste bis blut aus den augen spritzt. Häh, wie kommst du da drauf? Welches Color Grading denn?

Mein erster Post diente nur zur Verdeutlichung der Artefakte, weil ich dachte, dass man sie bei Bild 2 (+25 Sättigung) vielleicht nicht deutlich genug sieht. Es ist klar, dass ich das 3te (+ 50 Sättigung) oder 4te Bild (+75 Sättigung) aus meinem ersten Post nicht als Ziel anstrebe. Mich hat einfach nur gewundert, dass das 10Bit-Material echt "viel mehr" aushält und dann die Frage gestellt, ob das allein an 10Bit liegt. Mittlerweile wurde ja doch oft erörtert, dass ich bei der Aufnahme schon einiges versäumt habe (keine optimale Belichtung, zu flaches Profil etc.).

Ich mag mal das eine, mal das andere. Mal knallige Farben und Kontraste, mal finde ich Log-Material unverändert schon cool. Ich habe ja auch ein von mir geschnittenes Video angefügt (allerdings mit Cine-V). Da habe ich gar nichts an den Farben und Kontrasten verändert, weil ich es so gut fand.

Space



Space


Antwort von Peppermintpost:

ah verstehe, ich dachte das mega gesättigte wo die kompression aufreist wäre dein ziel. schau dir mal an was die log profile machen und was der sinn dahinter ist. fang mal mit "der mutter aller logs" dem kodak cineon an und was die jungs sich dabei gedacht haben. dann schau dir mal verschiedene luts an was die so machen. und dann versuch heraus zu finden was die vor und die nachteile sind. wenn du das begriffen hast weist du genau wann du welchen lut wie benutzt. jeder lut bringt vorteile UND nachteile mit sich. das ist system bedingt. wenn du das heraus gefunden hast bist du einen riesen schritt weiter.

Space


Antwort von Starshine Pictures:

Dass das 10 bit Material in deinem Testbild mehr aushält ist so auch nicht wahr. Du darfst bei unterschiedlichem Material niemals nach den numerischen Werten an deinen Reglern gehen und diese gleich setzen, sondern du musst nach dem Bildeindruck gehen. Die Regler verhalten sich immer anders von Footage zu Footage. Deine 75% Sättigung im 10 bit Beispiel würde ich vom Sättigungsgrad eher mit der 50% Einstellung bei 8 bit vergleichen, wenn nicht sogar eher etwas zwischen 25 und 50%. Und da sieht der Unterschied schon gar nicht mehr so wahnsinnig aus. Um ehrlich zu sein gibts dann gar keinen Unterschied mehr. Du gewinnst mit 10 bit eher eine präzisere Einstellungsmöglichkeit als mehr Potential.

Space


Antwort von blueplanet:

ich persönlich verwende hier jedenfalls sicher kein -5. ...dann wäre es nun interessant, welchen Wert Du konkret an der GH4 einstellst?
Noch interessanter könnte es allerdings sein, wenn dazu einen Testchart erstellt wird (dazu fehlt mir das Wissen und die techn. Möglichkeiten), welcher den Unterschiede zwischen 0, -3 und -5 zeigt bzw. die durchaus logische Theorie untermauert.

Ich persönlich verwende die -5 deshalb, weil ich der Meinung bin - wenns rauscht, behandle ich das gezielt in der Post (neat) und nicht pauschal im laufenden Betrieb. Das beantwortet natürlich nicht konkret die Frage, was macht die Kamera standartmäßig -also beim Wert 0 und wie feinfühlig geht es in den Minusbereich. Klar, man könnte statt -5 halt auch -3 nehmen (bloß nicht Standart ;), aber das klingt eben auch nach "Glaskugel".

Oder änderst Du diesen Wert je nach Lichtsituation? Wenn die Sonne lacht, nimm' die "0", ist der Tag trüb "-3", ist es zappenduster -5 ODER gar umgekehrt??

beste Grüße
Jens

PS.: danke Wolfgang für die Profile (CINED: Sättigung -2...uff)
Ich denke, grundsätzlich sollte man "die Kirche im Dorf lassen". Derjenige der die Kamera konzipiert hat - hat sich dabei schon etwas gedacht ;). Die vorgegebenen Profile bieten bereits einen erweiterten "Spielraum" gegenüber dem "Automatikmodus" und zeigen entsprechend deutlich veränderte Ergebnisse. Wer tatsächlich in der Lage ist durch die Feinjustierung (die ja nie pauschal sein kann) zu optimieren, muss schon mehr als tief in der Problematik stecken und wird wohl zudem aufpassen müssen, dabei nicht das eine oder andere Motiv einfach zu verpassen ;))

Space


Antwort von wolfgang:

Wolfgang, könntest du noch erklären, wann du welches Profil verwendest? Seit v-log l verfügbar ist, primär das dritte. Eben zusammen mit dem Shogun.

Space


Antwort von wolfgang:

ich finde luts zum beispiel ätzend und in fast allen fällen kontraproduktiv. Nur von was redest eigentlich? Von Kamera-LUTs die etwa x-log zu rec.709 umsetzen? Oder von LUTs die einer zum Graden in Sinn der Erzeugung eines bestimmten Looks verwendet?

Erstere sind für mich ausgesprochen sinnvoll. Zweitere werden immer eine Geschmacksfrage sein, wo jeder selbst auch Hand anlegen sollte.

Space


Antwort von wolfgang:

PS.: danke Wolfgang für die Profile (CINED: Sättigung -2...uff) Ja das ist relativ stark entsättigt, und je nach Geschmack kann man das ja leicht hochdrehen. Bzw. in der Postpro etwas hochziehen.

Dass oft der NR auf -5 gesetzt wird hängt bei der GH4 meines Erachtens primär mit der relativ starken Rauschneigung des eher kleinen Sensors zusammen.

Ich habe in meiner ersten Zeit mit der GH4 mich ebenfalls damit gespielt (und das war lange vor v-log), möglichst flache Profile sowas einzustellen, und geht etwa mit CineD und Highlight/Shadow sogar recht leicht. Aber gerade mit 8bit ist das halt nicht völlig unproblematisch - weil man die Dinge dann zurück drehen muss und das Material dabei ja nicht unbedingt besser wird. :) Also so gesehen gehe ich bei 8bit heute nicht mehr oder deutlich weniger auf die flachen Profile, vor allem Highlight/Shadow greifen da recht stark in die Gammakurve ein.

Wie gesagt, ich nutze heute eher v-log l und das mit dem Shogun zusammen. Bei v-log sind ja in der GH4 fast alle Einstellmöglichkeit außer Kraft gesetzt. Aber das 10bit 422 ProRes Material hat doch ganz andere Nachbearbeitungsreserven als das mp4 8bit 420 Material. Und bei v-log l ist ohnedies klar dass man nachbearbeiten muss - das geht halt nicht anders, und ist gerade mit 10bit ein viel geringeres Thema. Und wenns nur der LUT v-log zu rec.709 ist den man braucht, oder sich das eben händisch ohne LUT entwickelt - beides ist ja möglich und legitim.

Gerade wer aber mit 8bit mit der GH4 filmt, kann direkt aus der Kamera recht gutes Material bekommen. Ich würde jedem raten mit den Profilen auch ein wenig zu spielen, und sich diese gepostenten Vorschläge hier so anzupassen wie es einem selbst zusagt. Und ich würde bei 8bit eher dem Ansatz sehen, dass schon aus der Kamera ein möglichst stimmiges Bild kommen soll, welches dann im Idealfall gar nicht bis wenig nachbearbeitet werden muss.

Space


Antwort von mash_gh4:

PS.: danke Wolfgang für die Profile (CINED: Sättigung -2...uff) Ja das ist relativ stark entsättigt, und je nach Geschmack kann man das ja leicht hochdrehen. Bzw. in der Postpro etwas hochziehen. es ist nicht nur eine geschmackssache, es gibt auch einen technisch-rationale begründung dafür:

in fällen, wo einzelne (grund-)farben besonders intensiv durchknallen -- bsw. buntes bühnenlicht -- wird durch eine niedrigere sättigung erreicht, dass die aussteuerung der einzelnen farbkänäle trotzdem noch im rahmen bleibt bzw. die unterschiede weniger stark von den gemessen helligkeiten bzw. dem angezeigten histogramm abweichen. damit gehen aber natürlich auch ähnliche nachteile einher, wie man sie sich mit flachen gammakurven einhandelt. aber in kleiner dosis -- eben -1 od. -2 -- kann es schon sinn machen, um diesem grundsätzlichen problem entgegen zu treten.
Dass oft der NR auf -5 gesetzt wird hängt bei der GH4 meines Erachtens primär mit der relativ starken Rauschneigung des eher kleinen Sensors zusammen. wie gesagt: man darf das nicht unabhängig von der kompression sehen!
rauschen ist wirklich der tod für jede sinnvolle erkennung redundanter bildinformation bzw. kompression. wenn du also in der verfügbaren aufzeichnungsbandbreite ein maximum an tatsächlich relevanter detailauflösung haben willst, ist es ausgesprochen sinnvoll, das rauschen bereits im vorfeld zu minimieren -- ansonsten macht dir das ohnehin die kompression, allerdings mit dem nebeneffekt, dass dir auch andere details verloren gehen und unhübsche artifakte im bild erscheinen.

die GH4 hat internen eine gar nicht so schlechte rauschunterdrückung. dort werden z.b. sogar temporale mechanismen der erkennung und unterdrückung benutzt, was man sich auf dieser eben gar nicht erwarten würde. im übrigen tritt ja das rauschen in unterschiedlich belichteten bereichen unterschiedlich stark auf. gerade dort, wo man aber alle entsprechenden rahmenbedingungen noch kennt, kann man das auch sehr selektiv ausfiltern. in dieser hinsicht sind filter direkt an der quelle prinzipiell gegenüber anderen lösungen in späteren stufen des postprocessing im vorteil, auch wenn ihnen nur die recht beschänkte rechenkapazität innerhalb der kamera zur verfugung steht. trotzdem: der springende punkt bleibt die unvereinbarkeit von rauschen und sinnvoller komprimierbarkeit.

über die v-log problematik und dem riesigen dort genutzen farbraum bzw. die damit verschenkten werte der bildrepräsentation will ich mich hier gar nicht auslassen. das ist einfach nur eine mittlere tragödie, die man am besten ignoriert.

Space


Antwort von Stephan82:

Dass oft der NR auf -5 gesetzt wird hängt bei der GH4 meines Erachtens primär mit der relativ starken Rauschneigung des eher kleinen Sensors zusammen. Jetzt bin ich etwas verwirrt. Die NR-Einstellng -5 verstärkt doch das Rauschen oder etwa nicht? Ich habe das immer so verstanden, dass bei -5 so gut wie nix entrauscht wird, bei 0 eben normal und bei +5 das Bild am meisten entrauscht bzw. eher glattgebügelt wird und dann eventuell Details verloren gehen.

Space


Antwort von CameraRick:

Rauschen ist aber nicht Dein Feind. Rauschen braucht Material, um zu Leben, wie viel ist natürlich eine andere Frage.
Matschige Farbflächen sind aber eben auch keine Antwort, selbst nach dem Processing, denke ich, macht NEAT v4 einen besseren Job als die interne NR

Space


Antwort von blueplanet:

...ja, genau so ;) D.h.: regle ich auf -5 herunter greift die Elektronik (was das Rauschen betrifft) am wenigsten ein. Es gehen (wie wir von @mash4 gelernt haben) jedoch nur theoretisch weniger Bildinformationen verloren.

In Wahrheit: @mash4 ...wenn du also in der verfügbaren aufzeichnungsbandbreite ein maximum an tatsächlich relevanter detailauflösung haben willst, ist es ausgesprochen sinnvoll, das rauschen bereits im vorfeld zu minimieren...

Space


Antwort von blueplanet:

PS.: …nochmal zur LUT-Problematik: wer denkt, das sich selbst über "fertiges" Material (also vorher in beispielsweise Speedgrade optimiert) einfach ein beliebiger LUT legen lässt und fertig ist die Kiste, wird nicht nur ein blaues Wunder erleben.

Es kann trotzdem nur ein Anhaltspunkt sein, wohin insgesamt die Reise am Ende gehen wird. Szenische Nacharbeit bleibt unerlässlich. Z.B. bereits der geringste Schwenk, Zoom in einer Szene kann das grading komplett in Schwierigkeiten bringen (im Übrigen ein genialer Vorteil von 4K im Gegensatz zu FHD – Schwenken, Zoomen im Bild).

Und ich bin mir sicher, ähnlich verhält es sich mit LOGs. Der Profi wird beim Dreh vor Ort wissen, welchen LOG für welche Szene -und nicht wie gern angenommen für das gesamte Projekt- er verwendet…Nur so ergibt das auch Sinn.

Wie bereits @mash4 angemerkt hat: weshalb etwas generell rausdrehen, wenn es in der Post mit Mühe geholt werden muss. Deshalb macht es z.B. bei der GH4 Sinn, mit den beiden bereits vorhandenen LOGs in jeweils bestimmten Szenen zu arbeiten. Wie gesagt, aus meinen Erfahrungen eignet sich CINEV sehr gut bei Tageslicht und CINED bei schlechten Lichtverhältnissen/Dunkelheit oder extreme Lichtunterschiede (größere Spreizung der Schwarzwerte/cliping-Gefahr). Ähnlich sollte man wohl die NR differenzieren…

Space


Antwort von Peppermintpost:


Und ich bin mir sicher, ähnlich verhält es sich mit LOGs. Der Profi wird beim Dreh vor Ort wissen, welchen LOG für welche Szene -und nicht wie gern angenommen für das gesamte Projekt- er verwendet…Nur so ergibt das auch Sinn.
naja, das würde sinn machen. meine erfahrungen sind da aber leider anders.
ich spreche hier von spielfilm und von high gloss tv werbung. leider erlebe ich es immer wieder, das kameramänner sich für irgend eine belichtungs lut entscheiden die sie gerade cool finden und dann wird alles auch genau so gedreht, egal ob nacht szene talking heads oder pralles sonnenlicht und auto mit metallic lackierung. um das ganze dann besonders spannend zu machen wird die kamera einstellung dann natürlich auch nicht dokumentiert, damit im color grading lustiges lut raten angesagt ist. der unterschied zum spielfilm ist, das hier gerne nochmal kompl. custom profile geladen werden, damit es auch garantiert in keinster weise mehr nachvollziehbar ist.

ich bin zwar der meinung, das bei einer bestimmten art von bild, ein lut technisch sinn machen kann. gerade bei bildern wo sich ein extremer kontrastumfang einfach nicht vermeiden lässt, z.b. ein sonnenpark, oder gehry's metall gebäude, aber meiner erfahrung nach wird sehr oft dann genau dieser vorteil in der post wieder vergurkt, weil auch da die meisten nicht damit umgehen können, oder weil es schlicht nicht dokumentiert ist.

der theoretische vorteil den luts mit sich bringen können, wird in der praxis in nahezu allen fällen durch unsachgemässe benutzung wieder ruiniert, und sehr oft auch mit dem ergebniss, das es schlechter ist als es direkt im passenden format aufzunehmen.

und wie eingangs gesagt, ich spreche hier nicht von hobby filmern die ein bissel rum experimentieren wollen, sondern von profis und professionellen filmproduktionen.

Space


Antwort von wolfgang:

Dass oft der NR auf -5 gesetzt wird hängt bei der GH4 meines Erachtens primär mit der relativ starken Rauschneigung des eher kleinen Sensors zusammen. Jetzt bin ich etwas verwirrt. Die NR-Einstellng -5 verstärkt doch das Rauschen oder etwa nicht? Mag sein - da ich mit diesen Profilen jetzt schon lange nicht mehr arbeite sondern mit vlog, bin ich da nur noch bedingt drinnen.

Space


Antwort von wolfgang:

PS.: …nochmal zur LUT-Problematik: wer denkt, das sich selbst über „fertiges“ Material (also vorher in beispielsweise Speedgrade optimiert) einfach ein beliebiger LUT legen lässt und fertig ist die Kiste, wird nicht nur ein blaues Wunder erleben. Nur wer kommt den auf die Idee auf fertiges Material eine beliebige LUT anzuwenden?

Ihr unterscheidet unverändert nicht zwischen Kamera-LUTs und LUTs für Colorierung. Ich rede primär von Ersterem, also etwa um x-log Material zu rec.709 umzurechnen. Und das sollte für eine definierte Kamera recht konstant sein.

Und dann da einen Look drauf zu setzen ist ein zweites Paar Schuhe. Das aber mit dem ersten wenig zu tun hat.

Space


Antwort von blueplanet:

...einigen wir uns auf LOOKs (Picture Profiles) und LUTs (Look Up Table) ;)

Space


Antwort von wolfgang:

...LOOKs (Picture Profiles)..... Nur das ist insofern gefährlich als Picture Profiles ja auch interne Kameraeinstellungen sind, die Basismaterial liefern. :)

Space


Antwort von Stephan82:

weil du zu brachial an die sache heran gehst. wenn ich es mit dem grading übertreibe hab ich das gleiche problem. siehe bild. bei dir fällt die sache noch etwas extremer aus als bei mir, weil ich vermute das du dein grading im 8bit farbraum machst und ich im 32bit float. ist aber nur eine vermutung, kein wirkliches wissen, da müsste ich deine projekt einstellungen sehen. Habe in AE das Projekt nur von 8 auf 16Bit umgestellt. Sonst also auf standard gelassen. 32, ich sags Dir. Ich werde es testen, wenn ich zuhause bin ;) Hatte heute die Möglichkeit das Material mal in AE 2015 CC auszuprobieren.

Bild 1: 8Bit-Projekt
Bild 2: 32Bit-Projekt
--> je +50 Sättigung.

Es ist eine hauchdünne "Verbesserung" mit 32Bit zu sehen. Zwischen einem 16Bit-Projekt (kein Bild) und dem 32Bit-Projekt sehe ich keine Unterschiede.

zum Bild http://www2.pic-upload.de/thumb/30357717/AEPojekt8Bit.jpg

zum Bild http://www2.pic-upload.de/thumb/30357718/AEPojekt32Bit.jpg

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic S1 / S1H / S5 / S1R / GH4 / GH5 / GH5s / GH6-Forum

Antworten zu ähnlichen Fragen //


GH4 & Cinelike D & False Color?
8Bit 4:2:0 vs 8Bit 4:2:2
Blackmagic Micro Color Panel - Günstigstes Color Grading Panel für DaVinci Resolve
Color Grading Problem.. (Mir fällt kein besserer Titel ein)
Panasonic S1/GH4/GH5 Forum - mit G9?
Grading oder nicht Grading...
Nikon Z8 RAW Grading-Wettbewerb - der Gewinnerbeitrag und wie das Grading umgesetzt wurde
bei Color Grading nur einzelne Clips bearbeiten möglich?
Davinci Resolve 16 stürzt beim Color Grading/Correction ab
Help - Color Grading reagiert nicht - Resolve 16
- Der Color Grading Thread -
tutorial video on color grading of super 8
Davinci Resolve 16 und 17 stürtzt bei color grading ab
Color-Grading-Modernisierung beim SWR
FilmLight: Awards für Color Grading
Emancipation / Color Grading
Davinci Resolve Color Grading View nach Update geändert
GH4 Premiere-Import geht nicht
Lumix GH4 mit Ninja V




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash