Frage von meawk:Hallo,
ich hab die ganze Zeit meine MOV-h.264 direkt verarbeitet, d. h. ohne vorheriges konvertieren in einen andern Codec (konnte das machen, da die Roh-Daten absolut geschmeidig und ohne Ruckeln etc. bearbeitet werden konnten - Schnitt, Color Grading . . . Rendern -).
Nun behauptet jemand in einem andern Forum, dass wäre "schlecht" wg. des "nicht so guten h.264-Codec" und sagt, "das Konvertieren zu einem anderen Codec wäre quasi auch für die Bildquali besser". Also er sagt, man sollte grundsätzlich, auch wenn das System die direkte Verarbeitung des Rohmaterials zulässt, in einen anderen "besseren" Codec konvertieren . . .
Hätte da gerne mal die Meinung von Experten. Falls dies Meinung zutrifft, welcher Codec wäre dann zu empfehlen, in den man vor der Bearbeitung konvertiert? Vielen Dank im voraus.
LG
Antwort von Meggs:
Allgemeingültig ist die Aussage aus dem anderen Forum meines Erachtens nicht. Ich halte es aber für möglich, daß bestimmtes Schnittsystem bei der direkten Verarbeitung von H.264 schlechtere Ergebnisse liefert.
Antwort von meawk:
Also, in meinem Fall ist das so: Ich arbeite mit Sony Vegas und war bisher der Meinung, dass z. B. diejenigen, die mit Apple FCP oder FCE arbeiten die Probleme mit den 1080p h.264 bzw. AVCHD-Rohdaten hatten, weil ich aus dieser Ecke das Gejammere in Sachen Echtzeitschnitt am lautesten vernommen hatte.
Ist h.264 "kein guter Codec", wie hier teilweise behauptet?
Wenn ich also mit Vegas keine Probleme mit den 1080p-Rohdaten in der Verarbeitung habe, ist es trotzdem aus Gründen des "angeblich nicht so guten h.264-Codec" ratsam, vorher in einen andern Codec zu konvertieren um eine bessere Bildquali nach dem rendern zu erhalten?
Da hat einer auch geschieben: "After Effects" findet diesen Krempel (h.264) unwürdig . . .??? Ähhhh . . .
LG
Antwort von Axel:
Zu einer Qualitätsverschlechterung kommt es nur, wenn z.B. vom NLE zu einem Effektprogramm gewechselt wird und dafür exportiert werden muss. Bleibst du dagegen in deinem NLE und musst für keinen der Bearbeitungsschritte zwischendurch rendern, beziehen sich alle Berechnungen des finalen Rendervorgangs auf die - zugegeben spärlichen - Informationen des Originalfootage.
Also dreht sich alles um Echtzeit. Ein schwächer comprimierter Codec erhöht die Echtzeit. Mit ihm wird das Endergebnis nicht besser, als wenn man mit passender Hard- und Software von A bis Z nativ in Echtzeit arbeitet. Aber er verhindert den deutlich sichtbaren Qualitätsverlust bei einem nötigen Zwischenexport oder einem Renderschritt, falls das Schnittsystem das nicht packt.
Zu der Apple-Geschichte: Apple setzt bekanntlich auf ProRes. Dass jemand "jammert" halte ich aber für ein Gerücht. Man kann H.264 mit Macs bis dato nicht gescheit in Echtzeit schneiden, Punkt. Wenn du es mit Vegas auf deinem System durchgehend in Echtzeit kannst, sei einfach froh.
Da hat einer auch geschieben: "After Effects" findet diesen Krempel (h.264) unwürdig . . .??? Ähhhh . . .
Derjenige hat wahrscheinlich versucht, mehrere Kompositionsebenen getrennt zu keyframen und nach dem Export festgestellt, dass der eine oder andere Keyframe "vergessen" wurde. Dann hat er das vielleicht voreilig darauf zurückgeführt, dass das H.264 zu stark zeitlich komprimiert war und hat einen Test mit einem Intraframe-Codec (z.B. DVCPRO HD "P2") gemacht, bei dem alle Keyframes dann "da" waren. "Unwürdiger Krempel" ist allerdings unsachlich, das stimmt. Sowas muss nicht passieren (tatsächlich ist das Problem bekannt und verbreitet), aber wenn es passiert, neigt man dann eher zu Codecs, die nicht "besser", aber "besser geeignet" sind ...
(EDIT: Mein Kumpel korrigiert mich gerade: Ein Renderschritt bedeutet keinen zusätzlichen Qualitätsverlust, aber er bringt auch nichts. Die nächste Änderung verwirft die vorhandenen Renderdateien. Also verdirbt lediglich der Ex- und Import die Bildqualität.)
Antwort von meawk:
Danke Axel!!!
Somit würd folgender workflow:
1. Original Rohdaten in Vegas laden, schneiden und zum Film rendern,
2. gerenderten Film in Vegas laden, Colorgrading, Looks etc. und dann final zum Film rendern
keinen weiteren Qualiverlust wg. Punkt 2. bedeuten. Sehe ich das richtig?
LG
Antwort von wolfgang:
Nun, der langjährige Leiter der Entwicklungabteilung von Sony Vegas hat nie ein Problem darin gesehen, wenn man in der Vegas Timeline direkt (also natives) HDV oder AVCHD Material verarbeitet. Um den Decodierschritt dieses Materials kommt man einfach nicht herrum - egal ob das nun in der NLE passiert, oder in einem Konversionstool wo man etwa zu einem Intermediate wandelt. Die Rechtfertigung der Intemediate Codecs - wie etwa dem Canopus HQ oder dem Cineform Codec - kommt einerseits daraus, dass man bei der Wandlung zu diesen Codecs zwar etwas an Qualität verliert (Meßbar aber praktisch nicht sichtbar), dann aber die Bildqualität über mehrere Rendergenerationen stabil erhalten kann - was für Compositing zusammen mit dem besseren Farbsampling ein Vorteil sein kann. Der zweite Grund dieser Codecs liegt in den besseren Abspielfähigkeiten in vielen NLEs. In Summe ist es aber interessant zu sehen, dass etwa auch Grass Valley - lange Verfechter ihres sehr sehr guten Canopus HQ codecs - heute einen neuen Decoder entwickelt hat, und den als AVCHD Booster im neuen Neo vertreibt - und sich damit von der Intermediate Verarbeitung vielleicht doch etwas verabschiedet? Spekulation vielleicht, aber dieses Produkt verarbeitet AVCHD nun eben nativ.
Was nach meinem Verstehen für den nativne AVCHD Schnitt spricht, ist der Umstand, dass die Korrekturmechanismen über AVCHD dann durchgängig erhalten bleiben. Bin da kein Experte, aber der Workflow in Vegas Pro 9c überzeugt hier inzwischen schon sehr - die Bildqualität des ausgegebenen Materials des Sony AVC-Encoders verliert gegenüber dem Originalmaterial inzwischen derart wenig, dass man schon mit der Nase am 1920er HDTV kleben muss und zwischen Original und Rendermaterial hin- und herschalten muss, um überhaupt noch einen Unterschied zu sehen.
Relevant ist halt, wie gut die Decoder- und Encoderqualität in einer spezifischen NLE ist. Sind diese Komponenten schlecht, verliert man vielleicht die Freude daran. Hat man ein gutes System, muß das aber nicht sein.
Mir reichen die Echtzeitfähigkeiten für viele Belange, wie ich sie heute auf einem 2.7 Ghz Q6600 mit Vegas Pro 9c habe - und vor all diesen Hintergründen schneide ich das AVCHD Material meiner Canon HF100 heute mehr und mehr nativ. Allerdings bin ich auch mit eher einfachen Compositing Anwendungen unterwegs, bei extrem viel Compositing mag das anders aussehen.
Antwort von meawk:
Danke Wolfgang!!!
Antwort von Axel:
@wolfgang. Genau so sehe ich das auch. Nativ ist gut. Die Grenze ist da, wo die Echtzeit aufhört - oder die Geduld des Cutters. Afaik gehörst du auch schon länger zu den Videofreunden und weißt daher, dass Echtzeit früher nicht so selbstverständlich war. Es gab aber auch - und gibt es noch heute - die Beurteilung eines Standbildes, das in voller Auflösung dargestellt wurde. Das kann genügen, solange es nicht gerade um das Timing von Animationen geht.
Somit würd folgender workflow:
1. Original Rohdaten in Vegas laden, schneiden und zum Film rendern,
2. gerenderten Film in Vegas laden, Colorgrading, Looks etc. und dann final zum Film rendern
keinen weiteren Qualiverlust wg. Punkt 2. bedeuten. Sehe ich das richtig?
LG
Gehe bitte von einem Pixel aus, das irgendwo in deinem Clip in irgendeinem Frame liegt. Die H.264 Datei beschreibt dieses Pixel (Position, Farbe, Helligkeit). Es ist zu 99,9% dasselbe Pixel, das mit einem Codec beschrieben würde, der jedes Frame unabhängig voneinander komprimiert. Wenn du jetzt die Abfolge der Frames veränderst, durch sogenannte harte Schnitte, muss das gesamte Bezugssystem neu auf alle verbleibenden Daten umgerechnet werden. Je nachdem, wie gut der Encoder ist, ist das Pixel vielleicht zu 98,5 % dasselbe wie zuvor (beim Intra-Codec 100 %).
Das Wichtigste ist, sich bewusst zu sein, dass durch Neukomprimierung auf jeden Fall ein gewisser Qualitätsverlust stattfindet. Darum wäre es besser, den Film vor den Effekten und dem Grading im selben Programm gar nicht zu exportieren. Ist der Encoder nicht ganz so toll, kann bereits bei harten Schnitten die Brillanz weg sein.
Das ist aber bei Vegas wohl noch unwahrscheinlich (von den vielen matschigen DSLR Videos, die in meinem Umkreis im Umlauf sind, zu urteilen, kann man das nicht von allen sagen.). Absolut verboten ist es aber, an dem Film vor dem ersten Export etwas zu ändern, was sich auf Pixel in einem Frame auswirkt, also deren Position, Chroma oder Luma. Geschieht das, gehen nicht nur die Originalinformationen über jenes eine hypothetische Pixel verloren, sondern unrettbar auch alle zeitlich und räumlich darauf bezogenen.
Die nächste Generation - nach dem Import und einem endültigen Export also - wird schwammig aussehen und voller Artefakte sein. Das brauchst du nicht vom Hörensagen zu glauben, du kannst es testen: Exportiere das Standbild eines Originalclips. Dann verändere minimal die Helligkeit und exportiere. Re-importiere, mach eine Letterbox-Maske drüber (oder so) und exportiere erneut. Mach von derselben Stelle erneut ein Standbild. Dass es dunkler ist und eine Letterbox hat, ist nicht das Schlimme. Es ist Matsche geworden! Und die Änderungen sind im Vergleich zu dem, was man in der Regel mit Video anstellt, lächerlich.
Bearbeitest du dagegen in einem Schwung in Echtzeit und exportierst nach Schnitt usw. einen endgültigen Film, wird dessen Standbild mit bloßem Auge nicht vom Original zu unterscheiden sein, bis auf die Verbesserungen durch die Postpro.
Antwort von wolfgang:
Somit würd folgender workflow:
1. Original Rohdaten in Vegas laden, schneiden und zum Film rendern,
2. gerenderten Film in Vegas laden, Colorgrading, Looks etc. und dann final zum Film rendern
keinen weiteren Qualiverlust wg. Punkt 2. bedeuten. Sehe ich das richtig?
Vielleicht einfacher formuliert: dieser Workflow wäre deshalb schelcht, weil er defacto über 2 Rendergenerationen geht. Der native Schnitt ist dann empfehlenswert, wenn man nur eine einzige Rendergeneration braucht - sprich das Material in die timeline legt, dort alle Veränderungen macht und dann das Ergebnis direkt rausrendert.
Vegas unterstützt zwar inoffiziell und in spezifischen Fällen smartrendern von AVCHD Material, bei Canon HF100 Material aber nur dann wenn man den Event in der timeline nicht am Anfang trimmt. Da sowas aber beim Schnitt oft passiert, nützt das kaum was.
Also: alles in Vegas schneiden und in der timeline korrigieren, und dann raus rendern.
Ach ja Axel, natürlich hatten wir eine Zeit da war avi kaum schneidbar. Dann kam DV. Und dann hatten wir eine Zeit, da war mpeg2 kaum schneidbar - wir sprachen davon dass mpeg2 ein Distributionsformat sei, für den Schnitt ungeeignet und nur für damals SVCDs oder DVDs gut wäre. Heute schneiden wir mpeg2 in Form von HDV oder auch full-HD mpeg2 butterweich und ohne Probleme. Heute spricht man fallweise davon dass AVC ein Distributionsformat sei - was man wohl morgen dazu sagen wird?
Die Güte von gerenderten Material läßt sich noch immer gut betrachten, wenn man im Schnittsystem das Originalmaterial und das gerenderte Material framegenau übereinander legt - und sich verschiedene Bilder etwa in Form von Differenzbildern ansieht. Das kann man sogar quantifizieren, aber es bleiben natürlich statische Bilder. Aber macht man das sieht man halte heute relativ geringe Differenzen bei AVCHD, zwischen Originalmaterial und einer ersten Rendergeneration.
Die Echtzeitfähigkeiten sind heute nicht mehr soo sehr das bottleneck - klar brauchts schnelle Systeme, unverändert. Aber einige Decoder sind bereits heute von der Taktung des Prozessors relativ unabhängig geworden, beispielsweise bringt es auf meinem Q6600 gegenwärtig nichts mehr, für die Echtzeitvorschau in Vegas Pro 9 bei 1920er AVCHD Material zu übertakten. Natürlich sind wir heute nicht soweit wie etwa bei mpeg2, aber die Systeme entwickeln sich weiter (langsamer als ursprünglich vielleicht erwartet, aber sie entwickeln sich weiter). In Summe kommt der native Schnitt von AVCHD halt mehr und mehr in Mode.
Unnötig zu betonen, dass all diese Überlegungen eher für das Consumer/Prosumer Segment gelten. Profis werden unverändert ein höherwertigeres Akquisitionsformat nehmen, und das aus guten Gründen. AVCHD und HDV sind unverändert Consumerformate, von AVC-i ist hier halt nicht die Rede.
Antwort von meawk:
Danke Axel, danke Wolfgang, da ist mir doch jetzt einiges "klarer" . . .
LG
Antwort von Axel:
Aber macht man das sieht man halte heute relativ geringe Differenzen bei AVCHD, zwischen Originalmaterial und einer ersten Rendergeneration.
WoWu kann das immer sehr genau erklären. Obwohl die Dateien kleiner sind als z.B. bei HDV, ist AVCHD nicht "stärker komprimiert", sondern intelligenter komprimiert. Es kann schon sein, dass damit ein Smart-Rendern möglich ist, auch wenn man den Anfang trimmt, zumindest, dass man keinen Unterschied sieht. H.264 ist ähnlich.
Aber ich schrieb ja auch gar nicht über die erste Generation, sondern über die nächste, und ich schrieb auch von Änderungen am Pixel. Dieses wird eben nur über wenige Werte definiert, und jede Änderung daran ist Verschenken von Informationen, nicht, wie bei harten Schnitten, im Promillebereich, sondern im zweistelligen Prozentbereich.
Wenn die zweite Generation dann auf diesen beschnittenen Informationen aufbaut, nützen auch die ausgefeilten Encoding-Protokolle nichts mehr, sofern nicht ein hellblaues Pixel sagt: Im einem früher abgespeicherten Mov war ich aber grün ....
Antwort von meawk:
Danke Axel, ich weiß worauf Du hinaus willst und ich werde künftig nicht mehr so "hemdsärmelig" an die Sache rangehen.
LG
Antwort von wolfgang:
Stimmt, der Codec hat halt eine bessere Kompression als mpeg2, und auch leistungsähigere Korrekturmechanismen - ohne dass ich da Spezialist bin.
Die Methodik, Rendergenerationen über Differenzbilder zu vergleichen, kann man natürlich auch für beliebig viele Rendergenerationen anwenden. Ich habe das sogar mal für bis zu 10 Rendergenerationen des Canopus HQ codecs quantifiziert und verglichen - und da sieht man halt wie gut dieser Codec über auch sehr viele Rendergenerationen hinweg bleibt (und welcher Workflow braucht schon 10 Rendergenerationen).
Aber es ist schon recht einfach, in einer NLE mit guter Ausgabekette das Originalmaterial, die erste Rendergeneration, die zweite Rendergeneration bildgenau übereinander zu legen und durch Ein- und Ausschalten der Spuren sich die Unterschiede zum Original anzusehen. Vorraussetzung ist dafür eigentlich nur eine hochwertige 1920er HD Ausgabekette, eine NLE die das kann (Vegas geht etwa, andere auch, etwa in Zusammenhant mit einer Intensity Pro), und dass man darauf achtet das wirklich gerendert worden ist (etwa einen kleinen Punkt wo einstanzen, damit man nicht über smartrendern stolpert). Und dann siehst recht schön was sich am Bild wirklich ändert, und ob sich was Sichtbares ändert.