Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kameras Allgemein-Forum

Infoseite // 8 oder 10 Bit?



Frage von klusterdegenerierung:


Da sieht man mal wie sehr 10Bit überbewertet wird.

Space


Antwort von funkytown:

klusterdegenerierung hat geschrieben:
Da sieht man mal wie sehr 10Bit überbewertet wird.
Also ich möchte 10 Bit definitiv nicht mehr missen. So schön die Z6/Z7 auch ist, die Möglichkeit einer internen 10 Bit 4:2:2 Aufzeichnung fehlt. In der Preisklasse gibt es mit der Pocket 4K und der GH5 einfach zu starke Konkurrenz.

Ich finde das sehr bedauerlich. Ich fotografiere seit Jahren Nikon (D750). Ich werde mit der GH5 (so gut sie auch ist) einfach nicht warm. Das ist mir alles zu fummelig, zu kleine Tasten, Menüstruktur finde ich grausig. Kurzum: Das macht Nikon einfach viel besser. Ich hätte mir also überlegt die GH5 mit der Z6 zu ersetzen. Aber ich möchte wie gesagt nicht mehr auf 10 Bit verzichten. Sorry Nikon.

Space


Antwort von klusterdegenerierung:

funkytown hat geschrieben:
klusterdegenerierung hat geschrieben:
Da sieht man mal wie sehr 10Bit überbewertet wird.
Also ich möchte 10 Bit definitiv nicht mehr missen. So schön die Z6/Z7 auch ist, die Möglichkeit einer internen 10 Bit 4:2:2 Aufzeichnung fehlt. In der Preisklasse gibt es mit der Pocket 4K und der GH5 einfach zu starke Konkurrenz.

Ich finde das sehr bedauerlich. Ich fotografiere seit Jahren Nikon (D750). Ich werde mit der GH5 (so gut sie auch ist) einfach nicht warm. Das ist mir alles zu fummelig, zu kleine Tasten, Menüstruktur finde ich grausig. Kurzum: Das macht Nikon einfach viel besser. Ich hätte mir also überlegt die GH5 mit der Z6 zu ersetzen. Aber ich möchte wie gesagt nicht mehr auf 10 Bit verzichten. Sorry Nikon.
Mir ging es genauso, ich arbeite 50/50 und konnte mit der GH4 einfach nicht warm werden,
aus gleichen Gründen, aber hinzu kam das sie in beiden Bereichen in einigen für mich wichtigen Punkten schwächelte.

Space


Antwort von iasi:

klusterdegenerierung hat geschrieben:
Da sieht man mal wie sehr 10Bit überbewertet wird.

Ob sich diejenigen, die 10bit überbewertet sehen, sich beim Fotografieren dann den Raw-Aufwand auch sparen?

Space


Antwort von klusterdegenerierung:

iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Da sieht man mal wie sehr 10Bit überbewertet wird.

Ob sich diejenigen, die 10bit überbewertet sehen, sich beim Fotografieren dann den Raw-Aufwand auch sparen?
Sind ja 2 Paar völlig verschieden Paar Schuhe!
Wenn man das, was man bei, im übrigen 16Bit Raw, auch bei 10 Bit Film an justage möglichkeiten hätte,
dann hätte ich nur noch 10bit Cams, das ist aber ja garnicht der Fall,
da 8Bit vs 16Bit nun mal eine komplett andere Welt als 8Bit vs 10Bit sind.

Zudem brauche ich bei Raw Foto verarbeiten bzw tweaken auf das max,
nicht zwingend eine 10Bit Peripherie wie ich es bei 10Bit Film bräuchte!
Du schmeißt da also 2 nicht vergleichbare Themen in die Schale!

Ausserdem ist mir 10Bit als Filmer selbstverständlich immer lieber als 8Bit, deswegen habe ich ja auch eine Raw Cam,
aber 8Bit reicht fasst für alles, oder hat Dein Kunde nach dem Job schon mal zu Dir gesagt,
super iasi, gut das Du mir den Film in 10Bit gerendert hast, den sich jetzt 97% meiner Rezipienten am 8Bit Moni ansehen,
sonst wäre das echt in die Hose gegangen, nicht auszudenken wie 8Bit auf einem 8Bit 150€ Moni ausgesehen hätte?!!

Space


Antwort von iasi:

klusterdegenerierung hat geschrieben:

Sind ja 2 Paar völlig verschieden Paar Schuhe!
Was sind da denn 2 Paar Schuhe?
Weil ich als Filmer 24fps habe, ist die Bearbeitung dieser Bilder etwas ganz anderes als bei dem einen Bild eines Fotografen?

Und wenn ich nicht Raw bekomme, dann will ich kein 10bit und nehme 8bit?
Dir ist aber schon klar, dass 10bit gegenüber 8bit dann doch nochmal mehr Gestaltungsspielraum bietet.

Wenn ich das Material einer Canon FF oder einer Samsung NX in Resolve habe, stelle ich jedenfalls immer wieder fest, dass ich selbst mit dem ProRes aus einer BMCC mehr anfangen kann.
Klar geht dann mit Raw aus der BMCC oder Red nochmal mehr, aber auch das ProRes gibt mir weit mehr Möglichkeiten als das 8bit-Zeug.

Space


Antwort von klusterdegenerierung:

Oh man, wie kann man jemand extra so Missverstehen???

Bei Foto hat man kein 10Bit sondern 16, das ist a zu 10Bit ein riesen Unterschied und zu 8Bit zu 10Bit ebenso.
Zudem arbeitet man mit 16Bit Raw Fotos anders als in 10Bit Film,
alleine schon weil man bei 10Bit nicht wirklich mit ACR arbeitet.

Desweiteren braucht man für Fotos wie gesagt kaum eine 10Bit Peripherie wie bei Film,
weil es dort oft um andere Dinge geht die man auch schon bei 8Bit sehen würde.

Wie gesagt, gerne 10Bit, aber wozu,
wenn es ausser uns Filmer eh kaum einer sieht oder die technischen Mittel zur Wahrnehmng dafür hat.

Space


Antwort von MrMeeseeks:

klusterdegenerierung hat geschrieben:

Desweiteren braucht man für Fotos wie gesagt kaum eine 10Bit Peripherie wie bei Film,
weil es dort oft um andere Dinge geht die man auch schon bei 8Bit sehen würde.
Kannst du uns erläutern warum 10Bit die bei 24 Bildern in der Sekunde vor dem Auge vorbeirattern wichtiger in der Nachbearbeitung sind als ein Standbild über welches die Augen eine wesentlich länger Zeit fahren...und vor allem genauer.

Space


Antwort von iasi:

klusterdegenerierung hat geschrieben:

Wie gesagt, gerne 10Bit, aber wozu,
wenn es ausser uns Filmer eh kaum einer sieht oder die technischen Mittel zur Wahrnehmng dafür hat.
Tja - außer den Fotografen sieht auch kaum einer Raw.

Wie Raw ist eben 10bit auch für die Nachbearbeitung in der Post geeignet, was man von 8bit-Material nicht sagen kann.

Raw bietet natürlich noch mehr Möglichkeiten und Spielraum, aber auch das ProRes-Material einer BM-Cam kann man durchaus in der Post etwas kneten. 8bit zerfällt hingegen, sobald man es etwas drückt.

Also wozu 10bit?
Antwort: Um Gestaltungsmöglichkeiten in der Post zu bekommen.

Space



Space


Antwort von klusterdegenerierung:

Du weißt das dies dummes Zeug ist!
8Bit verhält soo viel anders auch nicht. Der Unterschied zu 10Bit ist natürlich sichtbar vorhanden,
aber wir sprechen doch nicht davon, das es "keinen Unterschied" gibt, sondern davon,
das 8Bit richtig bearbeitet und am besten in Resolve, auch seine Reserven hat und durchaus für brauchbare Ergebnisse sorgt,
besonders in Verbindung mit Slog.

Und noch mal ganz groß zum Mitschreiben, JAAA 10Bit ist besser, cooler und hat mehr Reserven,
aber 8Bit ist deswegen kein Schrott.

Ein 16Bit Raw Foto schiesse ich schon ganz anders,
weil ich um dessen riesen Reserven weiß und diese voll ausschöpfen möchte,
ich zumindest und da gehe ich dann ganz anders ran als an ein 10Bit frame.

Ach und können wir jetzt endlich mal die Albernheiten mit den 24 frames lassen,
die ändern ja nun mal garnix an der Bittiefe.

Space


Antwort von pillepalle:

Die meisten von euch werden mit hoher Wahrscheinlichkeit nicht 16bit RAW bei Fotos haben. Die Nikon DSLRs machen nämlich nur 12 oder 14bit RAWs ;) Und natürlich machen die 2bit mehr einen Unterschied. 12bit wie bei der neuen Blackmagic Pocket 4k wären noch besser, aber man freut sich ja über jeden noch so kleinen Schritt in die richtige Richtung.

VG

Space


Antwort von iasi:

klusterdegenerierung hat geschrieben:

Und noch mal ganz groß zum Mitschreiben, JAAA 10Bit ist besser, cooler und hat mehr Reserven,
aber 8Bit ist deswegen kein Schrott.

8Bit versperrt den Weg zu den Post-Möglichkeiten.

Es gibt (gab) die Durchführungsprotokolle der einzelnen Teams im Camerashootout 2012.
Auch wenn die Unterschiede bei Ergebnisse am Ende gar nicht so groß waren, so war eben der gravierende Unterschied, dass
1. Die 8Bit Teams weit mehr Zeit für die Ausleuchtung benötigten, da sie eben auch mehr Lichtmittel einsetzen mussten.
2. Die Raw- und 10bit-Teams mehr Zeit am Rechner verbrachten.

Der Grund ist eben nun einmal, dass z.B. das Aufhellen einer Gesichtshälfte bei einer sich bewegenden Person mit Raw und eben auch 10Bit noch geht, bei 8Bit aber eben versucht werden muss, dies mit Leuchtmitteln während der Drehzeit zu lösen.

8Bit ist letztlich teurer, weil Drehzeit teuer ist, aufwändiger, da mehr Lichtmittel eingesetzt werden müssen, und weniger genau zu steuern, da die Drehbedingungen eben immer auch Einschränkungen bei der Ausleuchtung mit sich bringen (auch im Studio).

Space


Antwort von klusterdegenerierung:

iasi hat geschrieben:
8Bit versperrt den Weg zu den Post-Möglichkeiten.
UFF!! Der Satz wird in die Geschichte eingehen und Du bekommst noch Heute einen Wikipedia Eintrag!!

Also damit hast Du echt den Vogel abgeschossen!!!
Was meinst Du wie viele Kunden jpgs ich hier ständig auf den Tisch bekomme, die Kunden mal eben ohne Kentnisse,
oder mit Handy auf einem Event geschossen wurden?!!

Die schiebe ich ins ACR und bei 80% aller Aufnahmen bekomme ich trotz 8Bit ein sehr brauchbares Foto erstellt,
ob abgesoffen oder überbelichtet!

Wer so daher redet hat anscheinend noch nie was mit Foto oder Film zu tun gehabt!
Den quatsch tue ich mir nicht mehr an! Vielleicht kannst Du ja damit als Lachnummer bei extra3 posieren!

Space


Antwort von iasi:

klusterdegenerierung hat geschrieben:

Was meinst Du wie viele Kunden jpgs ich hier ständig auf den Tisch bekomme, die Kunden mal eben ohne Kentnisse,
oder mit Handy auf einem Event geschossen wurden?!!

Die schiebe ich ins ACR und bei 80% aller Aufnahmen bekomme ich trotz 8Bit ein sehr brauchbares Foto erstellt,
ob abgesoffen oder überbelichtet!

Jetzt wird"s mir klar, warum du"s nicht verstehst.
sehr brauchbar ... offensichtlich haben wir ganz unterschiedliche Vorstellungen von Qualität.

Wenn dein Maßstab unterbelichtete 8bit-Smartphonebilder sind, brauchen wir nicht mehr weiter zu reden.
Wenn es nur darum geht, dass noch etwas zu erkennen ist, dann kannst du alles wie wild im ACR verbiegen.

Nur stellt sich dann die Frage, weshalb so eine teure Kamera?

Space


Antwort von Roland Schulz:

...“wer“ hatte hier denn kürzlich noch ne BMPCC eingeworfen ;-) ??!!!

Space


Antwort von iasi:

"Roland Schulz" hat geschrieben:
...“wer“ hatte hier denn kürzlich noch ne BMPCC eingeworfen ;-) ??!!!
Weiß nicht? Ja - wer denn?

Also ich sprach von einer BMCC.
Aber selbst eine BMPCC liefert wohl besseres Material als ein 8bit-Telefon.

Space


Antwort von pixelschubser2006:

Ich sehe das mal ganz pragmatisch und sage: Das hängt ganz massiv vom persönlichen Einsatzbereich ab. Natürlich sind 10 Bit eine feine Sache, und wer als Reisefilme mit ganz leichtem Gepäck und puristisch Spitzenqualität einfangen will, dürfte die 10 Bit vielleicht vermissen. Nur: Welche andere vergleichbare Kamera bietet das denn? Nicht falsch verstehen - mir fehlt der Überblick. Auf die Schnelle finde ich keine DSLR / DSLM, die 10 Bit 422 aufzeichnet, und das noch mit 4K 60p. und wenn, dann bestimmt nicht mit Vollformat und für 2000 Euro. Immerhin können die neuen Nikons 4K 10 Bit extern ausgeben. Das dürfte für den praktischen Einsatz völlig ok sein.

Und wie Kluster schon geschrieben hat, kannst Du den 10 Bit Workflow nicht mit RAW-Entwicklung vergleichen. Für eine brauchbare RAW-Entwicklung eines Fotos brauche ich ne Minute. Das ist dann sicherlich noch keine Basis für einen Fineart-Print, aber immerhin drastisch besser als kamerainternes JPEG. Zeitaufwand bei Foto-Rawentwicklung ist also drastisch geringer als bei Bewegtbild - und bringt deutlich mehr. Mit wenig Aufwand lässt sich sicher gelegentlich eine Belichtungspanne im Video ausbügeln, was dann bei 10 Bit sicherlich besser geht. Aber da geht es um Fehler, die garnicht erst passieren sollten. Ich habe wirklich den Vergleich: Meine Sony HXR-NX100 mit 8 Bit 4:2:0 und nun meine Z150 als "Zwilling" mit 10 Bit 4:2:2. Ständig am Limit im Einsatz, da ich als Polizeireporter sehr oft in der Dämmerung filme bzw. mit der Ausleuchtung einer Einsatzstelle. Wer die Kameras richtig kennt und weiß wo die Grenzen sind, bekommt das hin. Schon mit der NX100 sehen meine Nachtbilder im ÖR top aus. Meine Z150 hat bislang noch keine sichtbaren Vorteile ergeben, allerdings hatte ich auch noch keine Zeit um sie parallel zu testen und das Material am Eizo zu sichten.

Space


Antwort von klusterdegenerierung:

@iasi
Sorry aber verstehst Du nicht den Unterschied zwischen groß und klein, viel und wenig etc??
Wenn ich ein popeliges Handyfoto in 8Bit schon derart gut bearbeitet bekomme,
was kann ich dann erst mit einem 8Bit Profifoto aus einer Sony etc. Cam machen???

Klingelts? Nein? Hab ich mir gedacht!

@pixelschubser2006
Ich kann mich noch gut an die Zeit meine alten GH4 erinnern, wo es die vielen vergeblichen 8Bit vs 10Bit Videos gab,
in denen man es aber leider nicht mal Ansatzweise einen sichtbaren Unterschied zu zeigen konnte.

Selbst bei meinen ProRes 10Bit Aufnahmen fehlt mir bei der FS700 der große wow effekt,
den habe ich dort erst bei 14Bit raw.

Space



Space


Antwort von pillepalle:

@ klusterdegenerierung

Vermutlich liegt das nur an der unterschiedlichen Definition von 'gut'. Mir ist auch noch nie ein gutes Handyfoto zwischen die Finger gekommen. Meist sträuben sich bei mir alle Nackenhaare wenn ich die Bilder sehe die von anderen als 'gut' bezeichnet werden.

Ich weiss auch nicht was es bringen soll einen offensichtlichen Vorteil weg diskutieren zu wollen? Es kann ja sein das Du es nicht brauchst, oder bei der Arbeit keinen Unterschied bemerkst, aber das bedeutet ja nicht das es für alle so sein muss.

VG

Space


Antwort von klusterdegenerierung:

Ich habe das Gefühl jeder redet hier von komplett unterschiedlichen Dingen.
Worum es iasi mit den 10Bit doch geht, ist das es damit mehr Spielraum für abgesoffene tiefen, überzogene Höhen und Verläufe gibt.

Was hat das ganze denn mit einem "guten" Handyfoto zu tun?
Es ist doch lediglich ein Grenzbeispiel dafür, das man selbst eine simples Handyfoto in 8Bit,
noch derart gut aufgewertet bekommt, das man dabei zu der Erkenntnis kommt,
das 8Bit so viel schlechter als 10Bit nicht sein kann.

Dafür gibt es einen ganz simplen Test, den jeder ausprobieren kann.
Man shoote ein unterbelichtetes Foto gleichzeitig in Raw und jpg,
man exportiert beide ins ACR und bringt beide an die Grenze des machbaren. Da staunt dann so manche,
wieso da 8Bit jpg fasst genauso viel Reserven wie das Raw bereit hält.

Da muß doch jedem deppen auffallen, das 8Bit nicht derart schlecht sein kann, das man es nicht verwenden kann!
Unser ganzer Alltag besteht zu 90% aus 8Bit und die sind alle Schrott???

Hier ein Beispiel!
WhatsApp Foto vom Set, übelste Auflösung und kompression, ach und 8Bit :-)
Danach das gleiche bearbeitet und immernoch 8 Bit. Was dann also bei einem guten 8Bit noch mehr geht, ist wohl klar oder?
Aber 8Bit bietet eben Null Reserven, schon klar. In 10Bit sähe das selbe Handyfoto jetzt aus wie ein Fineartprint!

Space


Antwort von klusterdegenerierung:

Sag mal liest Du auch meine Posts, mir reicht es gleich!!
Genau das habe ich doch auch gesagt und nie bestritten!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Klar ist da mehr drin, aber wir sprechen nicht von 12, nicht von 14, nicht von 16, sondern von "10"Bit
und der Unterschied ist nunmal nicht sooo riesig wie ihn manche hier machen und 8Bit nicht so mies wie ihn viele hier gerne hätten!!!

Space


Antwort von pillepalle:

@ klusterdegenerierung

Wer hat denn gesagt das 8bit mies sind? Ich filme selber noch in 8bit. Aber wenn ich die Möglichkeit habe in 10bit zu filmen, weil ich dann 1024 Tonwertabstufungen habe statt 256, dann freue ich mich darüber. Und das es immer noch besser geht, darüber brauchen wir auch nicht zu reden. Für manche machen diese 10bit 4:2:2 mehr eben einen Unterschied, für andere offensichtlich nicht. Und gibt es scheinbar unterschiedliche Meinungen.

Mir persönlich sind 10bit wichtiger als z.B. 60p. Aber es wird andere geben die das genau anders sehen. Nur macht es wenig Sinn darüber zu diskutieren.

VG

Space


Antwort von klusterdegenerierung:

pillepalle hat geschrieben:
Wer hat denn gesagt das 8bit mies sind?
Kann es sein das Du quer eingestiegen bist und die hälfte verpasst hast?
Deine Antwort lautet "iasi"!

Space


Antwort von pillepalle:

Na ja, ich schreibe jetzt nicht in Vertretung von iasi ;) Aber scheinbar sind wir uns ja gar nicht so uneinig und haben nur aneinander vorbei geredet...

VG

Space


Antwort von klusterdegenerierung:

Ne, deswegen ja meine verärgerung, wir sind da eher nah statt fern.
Ich werde aber das Gefühl nicht los das hier so manch einer in 5 Foren gleizeitig schreibt ;-)

Space


Antwort von Jott:

klusterdegenerierung hat geschrieben:
der Unterschied ist nunmal nicht sooo riesig wie ihn manche hier machen und 8Bit nicht so mies wie ihn viele hier gerne hätten!!!
Hast dir ein schlechtes Beispiel rausgesucht mit dem Set-Foto. Die Artefakte auf der Softbox sind unterirdisch, so was geht wirklich nicht mit einem unterbelichteten Handy-JPEG. Richtig belichtet (beim Handy: die richtige Stelle antippen) wäre alles gut, so wie richtiges Belichten der Schlüssel zu guten Videoaufnahmen in 8Bit ist. Richtig belichten ist seit 100 Jahren der "Trick", weil man's halt immer musste und folglich auch gelernt hatte.

Wieso nur halten heute so viele 10Bit/12Bit/Raw für den Freibrief dafür, Aufnahmen straflos versemmeln zu können?

Space


Antwort von cantsin:

klusterdegenerierung hat geschrieben:
Klar ist da mehr drin, aber wir sprechen nicht von 12, nicht von 14, nicht von 16, sondern von "10"Bit
10bit hat immerhin 4mal soviel Farbwerte (bzw. eine 4mal höhere Farbauflösung) pro RGB-Farbkanal als 8bit, 10bit 4:2:2 sogar 8mal mehr als 8bit 4:2:0. Aufs ganze Farbspektrum gerechnet ergibt das eine 12- bzw. 24fache Farbtiefe.

Unbestritten ist auch, dass Log-Profile ohne 10bit-Farbauflösung nicht viel taugen.

Space



Space


Antwort von wolfgang:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Klar ist da mehr drin, aber wir sprechen nicht von 12, nicht von 14, nicht von 16, sondern von "10"Bit
10bit hat immerhin 4mal soviel Farbwerte (bzw. eine 4mal höhere Farbauflösung) pro RGB-Farbkanal als 8bit, 10bit 4:2:2 sogar 8mal mehr als 8bit 4:2:0. Aufs ganze Farbspektrum gerechnet ergibt das eine 12- bzw. 24fache Farbtiefe.

Unbestritten ist auch, dass Log-Profile ohne 10bit-Farbauflösung nicht viel taugen.
Ob das so unbestritten ist fragt man sich schon, wenn man das hier alles so liest.

Wenn die neuen Nikons die Sony XQD Karten nutzt, hätte eigentlich auch eine interne 10bit Aufzeichnung bei UHD 50/60p möglich sein können. DAS wäre der Hammer gewesen.

Space


Antwort von klusterdegenerierung:

Jott hat geschrieben:
Hast dir ein schlechtes Beispiel rausgesucht mit dem Set-Foto. Die Artefakte auf der Softbox sind unterirdisch,
HAAAAALLOOOOOOOO

Jemand Zuhause im Oberstübchen?
Weißt Du nicht das Bit nichts mit Kompression zu tun hat???????????????????????????????

Hast Du Heute das erste mal eine Cam in der Hand, oder bist Du zugekifft bis oben hin????
Unglaublich! Der macht das extra, so doof kann niemand sein!!!

Space


Antwort von klusterdegenerierung:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Klar ist da mehr drin, aber wir sprechen nicht von 12, nicht von 14, nicht von 16, sondern von "10"Bit
10bit hat immerhin 4mal soviel Farbwerte (bzw. eine 4mal höhere Farbauflösung) pro RGB-Farbkanal als 8bit, 10bit 4:2:2 sogar 8mal mehr als 8bit 4:2:0. Aufs ganze Farbspektrum gerechnet ergibt das eine 12- bzw. 24fache Farbtiefe.

Unbestritten ist auch, dass Log-Profile ohne 10bit-Farbauflösung nicht viel taugen.
Ach Du scheiße, jetzt schmeißt ihr auch noch Chroma Subsampling mit Bittiefe in einen Topf, hier sind ja nur Profis am Werk!!!
Und JAAAAAAAAA

zum letzten mal, 10Bit ist geiler,
aber 8bit deswegen nicht wertlos oder unbrauchbar!!!!!

Nimmt eure 10Bit und werdet damit Glücklich, während ich jeden Tag mit 8Bit mein Geld verdiene, ausschließlich!!!

Space


Antwort von Roland Schulz:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Klar ist da mehr drin, aber wir sprechen nicht von 12, nicht von 14, nicht von 16, sondern von "10"Bit
10bit hat immerhin 4mal soviel Farbwerte (bzw. eine 4mal höhere Farbauflösung) pro RGB-Farbkanal als 8bit, 10bit 4:2:2 sogar 8mal mehr als 8bit 4:2:0. Aufs ganze Farbspektrum gerechnet ergibt das eine 12- bzw. 24fache Farbtiefe.

Unbestritten ist auch, dass Log-Profile ohne 10bit-Farbauflösung nicht viel taugen.
Da geht aber jetzt wirklich einiges in den Acker :-(!
Vielleicht sollte man dazu besser zwischen Farbdynamik und Farbauflösung differenzieren.
Beides zu multiplizieren führt eher zu Kopfschmerzen wegen zu vielem Kopfschütteln, nicht aber zu 24-facher Farbtiefe.

Space


Antwort von Darth Schneider:

Mi 8Bit oder doch lieber mit 10 Bit drehen, ist doch einfach abhängig von was man dreht. Einen SF Film würde ich lieber mit 10 Bit drehen, weil ich die zusätzlichen Informationen in der Post gut gebrauchen kann, damit nach der ganzen Effektlerei und Graderei noch was von den Schauspielern im Film zu erkennen ist.
Aber für Hochzeiten, Imagefilme, Konzertfilme, gefilmten Theaterstücken und Tanzaufführungen und Hobbyfimen jeglicher Art genügt doch eigentlich 8 Bit...Sicher für kleine Film Werke, auch für DVDs, BluRays, Youtube und co.
Also ist es am Schluss denn nicht einfach Geschmacksache, natürlich auch abhängig vom Budged und auch abhängig vom persönlichen Workflow ?
Ich denke schon, also kann man nicht sagen was besser ist, 8 oder 10 Bit, das kommt darauf an...
...Natürlich macht es Vieleicht mehr Spass in 6K zu drehen, das kommt ja so oder so, also warum denn sich erst mit 4K 10 Bit herumplagen ? das ist doch schon wieder ein alter Hut....
Lieber gleich auslassen und Alles, auch die Urlaubsfime, aufjedenfall mit einer Red in 8K mit 20 Bit drehen.
Was ? Die gibt es noch nicht, Warum ??
Gruss Boris

Space


Antwort von Opera Cator:

Ich gebe eine Runde Beruhigungstee für alle aus.
Und nun erwarte ich ernsthaft, dass ihr euch mit diesem dämlichen 8bit vs 10bit vs Raw Gelaber in einen dafür passenden Thread verzieht und hier über die Nikon Z6 und Z7 diskutiert wird.
Sorry an die Moderatoren - mir ist das hier bei weitem zu offtopic.

Space


Antwort von roki100:

also das finde ich sehr interessant:



Kurz: 8bit 4K ist so gut wie 10bit 1080p ?

Space


Antwort von Jalue:

roki100 hat geschrieben:
also das finde ich sehr interessant:



Kurz: 8bit 4K ist so gut wie 10bit 1080p ?
Sorry, aber ich muss gestehen, als jemand, der nicht Pixel peept, sondern sein Geld mit dem Kram verdient, interessiert mich die Antwort nicht die Bohne. Ich weiß, ich wiederhole mich, aber es ist doch einfach so: Allen Unkenrufen zum Trotz verlangen viele TV-Kunden immer noch normgerechtes HD mit 4:2:2 10Bit. Möglicherweise wird man dort -nach einem guten Gespräch mit dem IvD und diversen Testläufen, so die Leute denn überhaupt Bock darauf haben- auch downconvertiertes 8Bit 4K los, aber wer bezahlt mir den Aufwand? Wozu ihn überhaupt betreiben? Genau ... "Quatsch, heutzutage versenden die alles!". In Bezug auf Hausteams mag das nahe an der Wahrheit liegen, für freie Produzenten ist die Aussage ein klassischer Fall von Bullshit-Bingo.

Space


Antwort von Jott:

Jalue hat geschrieben:
Allen Unkenrufen zum Trotz verlangen viele TV-Kunden immer noch normgerechtes HD mit 4:2:2 10Bit.
Die meisten sogar 4:2:2 8Bit. 10Bit ist nur das aussterbende 720p-AVC Intra.

Abgesehen davon: es ist übrigens kein Aufwand, 4K „runter zu konvertieren“. Null. Man wirft einfach UHD (und gerne 8Bit 4:2:0) in eine 1080-Timeline, die wiederum sinnvollerweise in 10Bit 4:2:2. Das läuft in jedem modernen NLE realtime. Und dass das hervorragend aussieht (wenn man die Kamera nicht überschärft eingestellt hatte), ist aller Diskussionen zum Trotz nun mal so, auch wenn Theoretiker deswegen verbale Kriege führen.

Wer natürlich als TV-Zulieferer (EB/Reportage) im Besitz einer Kamera ist, die das verlangte XDCAM 422 aufnehmen kann - egal ob klassischer Sony-EB-Schulterbomber oder Z7/X70/Henkelmann bis hin zur Arri Amira - der entgeht jeder Diskussion. 8Bit ist die Norm. 720p 10Bit (AVC Intra) wird nur noch gebietsweise akzeptiert.

TV ist eine ganz andere Welt als die, über die man sich hier im Forum austauscht. Weit weniger aufregend in Sachen Pixel. Dafür sind dort aussterbende Künste unerlässlich wie korrektes Belichten und Leuchten in jeder Situation, ganz ohne Arschretter wie raw und fix it in the post! :-)

Space



Space


Antwort von Roland Schulz:

iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Da sieht man mal wie sehr 10Bit überbewertet wird.

Ob sich diejenigen, die 10bit überbewertet sehen, sich beim Fotografieren dann den Raw-Aufwand auch sparen?
Ja und zwar dann wenn ich zwischen nem RX100 RAW und nem a7RIII JPEG entscheiden müsste!

Space


Antwort von Roland Schulz:

iasi hat geschrieben:
Also wozu 10bit?
Antwort: Um Gestaltungsmöglichkeiten in der Post zu bekommen.
...musste halt mal anständig bei der Aufnahme arbeiten!

Space


Antwort von Roland Schulz:

Jott hat geschrieben:
Wieso nur halten heute so viele 10Bit/12Bit/Raw für den Freibrief dafür, Aufnahmen straflos versemmeln zu können?
Richtig, man darf auch mit n-bit, RAW etc. die Aufnahme selbst nicht vergurken und wenn die Kamera zudem a) rauscht wie die Breitbachklamm oder b) nen beschränkten Kontrastumfang aufweist wie ne (alte) BMPCC, dazu ggf. noch Fixed Pattern Noise, Shading oder nichtlineare Colorcasts in den Encoder wirft musste auch mit 1:1 RAW richtig aufpassen, selbst wenn bei der Aufnahme alles richtig läuft!

Nochmal, auch nen perfekt belichtetes RX100 RAW Foto toppt nicht zwangsweise ein durchschnittliches a7RIII JPEG!
Der Codec ist lange nicht alles!

Ich denke zudem dass der Trend irgendwo auch im Videobereich weg von klassischem RAW gehen wird, wir auf absehbare Zeit eher mit hochbitratigem HEVC oder Nachfolgern und hoher Quantisierung um die 12bit arbeiten anstatt mit reinem, "unintegriertem" RAW und so weit sind wir teilweise schon gar nicht mehr weg wenn wir "gutes" (!!) 800Mbps Intra gegen 4:1 RAW stellen (was dann ungefähr der gleichen Bitrate entsprechen kann) und bei dem ja angeblich (will ich gar nicht in Frage stellen) keiner nen Unterschied sieht.
Wenn wir jetzt mal über 200Mbps HEVC Interframe/GOP, ggf. auch mit nur 10-12bit nachdenken müsste man schon mal arg grübeln was denn unterm Strich ggf. mehr Potential hat - so ganz offensichtlich ist das nicht mehr!
Dazu kommen dann auch noch Objektivkorrekturen, adaptives Denoising, die oben genannten Punkte etc. etc. die im RAW Post ohne Hilfen/vorhandene Metadaten schon ne Herausforderung darstellen!

Keine Frage, eine höhere Quantisierung/Bitrate ist grundsätzlich erstmal sinnvoll und hinter dem gleichen Sensor würde ich eine höhere Bittiefe/-rate auch immer bevorzugen! Mehr Potential, was man allerdings noch bewältigen können muss, sehe ich immer als Vorteil!
Habe ich aber nur nen größer/gleich zwei Klassen schlechteren Sensor vor dem Codec muss man schon mal intensiv abwägen in welche Richtung der Weg Sinn macht!


Aus aktuellem Anlass (35mm Panasonic S1) sehe ich aber spätestens jetzt auch den Startschuss für eine a7SIII mit min. 4K50p, 10bit und 200Mbps HEVC gefallen, dann brauchen wir sowas hier gar nicht mehr diskutieren.
Ich denke mal das Ding ist bereits fertig und man checkt noch den Mitbewerb ab um bereits fertige, implementierte Features ggf. auch noch mal rauszustreichen bzw. zu reduzieren.
Man wird auch weiterhin nur so hoch springen wie man muss, morgen soll der Schuppen auch noch laufen und wenn man sich den Aktienkurs bei Sony über die letzten ~5 Jahre ansieht wird man unweigerlich feststellen, dass zumindest das Management auf dem absolut richtigen Weg ist (die Kamerasparte hat einen nicht unerheblichen Einfluss).

Wir und auch ich hätten natürlich heute schon gerne die "perfekte" Kamera, egal von wem!

Space


Antwort von Bruno Peter:

Jott hat geschrieben:
Abgesehen davon: es ist übrigens kein Aufwand, 4K „runter zu konvertieren“. Null. Man wirft einfach UHD (und gerne 8Bit 4:2:0) in eine 1080-Timeline, die wiederum sinnvollerweise in 10Bit 4:2:2. Das läuft in jedem modernen NLE realtime. Und dass das hervorragend aussieht (wenn man die Kamera nicht überschärft eingestellt hatte), ist aller Diskussionen zum Trotz nun mal so, auch wenn Theoretiker deswegen verbale Kriege führen.
Das entspricht auch meiner Hobbyfilmererfahrung!

Space


Antwort von Jott:

Am Rande: wie erstrebenswert "pures raw" ist, muss man wirklich genau betrachten.

Viele Kameras korrigieren heute bekannte Objektivfehler intern, das ist irgendwo zwischen "nice to have" bis "zwingend erforderlich" einzuordnen. Teilweise werden so Optiken möglich, die wegen dieser Technik nur ein Zehntel oder Zwanzigstel kosten als solche, die auch ohne diesen Eingriff auskommen. Paradebeispiel: Sony 18-105. Ein S35-Motorzoom mit Blende 4.0 durchgehend (kein Ramping) für erfreuliche 400 Euro wäre ohne intelligente digitale Korrektur in der Kamera nicht möglich.

Was bei raw aber nicht geht, denn die Korrektur erfolgt ja mit dem "Einbacken". Wenn die Kamera der Wahl überhaupt korrigieren kann. Die herbeigesehnte Pocket 4K kann es nicht. Damit hat der Iasi dann "viel Spielraum", um mühsam in Resolve oder anderweitig Objektivfehler zu beheben, wenn's überhaupt funktioniert. Was es bedeutet, zwingend nur Optiken zu benutzen, die von Haus aus NICHT verzeichnen und sonstige Fehler/Kompromisse aufweisen, muss jedem klar sein: VIIIEL Kohle, insbesondere bei Zooms. Was nicht so recht zu einer billigen Kamera passen will.

Dass sich in den Blackmagic-Werbevideos (Apartment) am Bildrand die Balken biegen, illustriert die Problematik recht eindrucksvoll. Ohne Korrektur in der Kamera wird's schnell abenteuerlich.

Space


Antwort von KallePeng:

Kollegen, stellt mal ne gelockte Blondine vor einen Greenscreen und vergleicht den Key zwischen 8 Bit und 10 Bit direkt im selben Set.
Ich möchte denjenigen sehen, der anschliessend behauptet 10 Bit würde überbewertet, in unserer sFx lastigen Zeit.
Ich zumindest habe zu 8 Bit Zeiten immer gekotzt wenn ich Hintergründe austauschen mußte.
Da war ich immer dankbar, wenn der Kunde keine Ahnung hatte und die grünen Säume oder die schön weich beburten Ränder nicht bemerkt hatte.
Colorcorrection ist nicht alles, was den Unterschied macht ;-)

Space


Antwort von Jott:

Von Chroma Key war auch nicht die Rede. Allerdings ist da nicht unbedingt 10Bit das Wichtige, sondern die 4:2:2-Farbabtastung. Und die ist ja meistens nur in Verbindung mit 10Bit zu haben (Ausnahme: XDCAM HD).

Und auch hier betreten wir schon wieder ein Minenfeld: 8Bit 4:2:0 UHD zum Keyen in einer HD 10Bit-4:2:2-Timeline: wie schaut's? Neugierige probieren's mal!

Space


Antwort von blueplanet:

Jott hat geschrieben:
8Bit 4:2:0 UHD zum Keyen in einer HD 10Bit-4:2:2-Timeline: wie schaut's? Neugierige probieren's mal!
...aber Du machst das nicht 1:1? Oder?
Was ich praktiziere, um es u.a. auch leichter bearbeiten zu können...ich ruble UHD 8Bit H.264 in UHD 10Bit cineform um, und werfe es anschließend(!) in eine 10Bit DNxHD HQ-Timeline.
Ja, und ich liebe Voodoo ;))

LG

Space


Antwort von dienstag_01:

Was nutzt ihr denn für wunderliche NLEs, in denen man in den Sequenz Settings die Bittiefe und das Color Sampling festlegt?

Space



Space


Antwort von Axel:

Habe selbst seit UHD kein Greenscreen mehr probiert, aber das Thema Downscaling zu 1080 in einen 444 Codec, wobei das 420 Katzengold auf wundersame Weise verwandelt wird, hatten wir gefühlt schon hundertmal (debunked). Was dagegen stimmt und ein alter Hut ist: dass das freizustellende Objekt die größtmögliche Auflösung haben sollte. Tip aus DV-Zeiten (mit rechteckigen Pixeln!) war, einen Sprecher vor einer Wand bildfüllend und hochkant aufzunehmen. Es gab auch ein Video, in dem dasselbe Setting für HD einmal mit BMCC Raw und einmal mit GH4 2160 gekeyed wurde (viele Jahre altes Lesezeichen unter zu vielen Bookmarks verschütt). Ergebnis: das höher aufgelöste 420 Bild lieferte den saubereren Key ...

Space


Antwort von Jott:

dienstag_01 hat geschrieben:
Was nutzt ihr denn für wunderliche NLEs, in denen man in den Sequenz Settings die Bittiefe und das Color Sampling festlegt?
In welchen wunderlichen NLEs geht das denn nicht?

Space


Antwort von dienstag_01:

Jott hat geschrieben:
dienstag_01 hat geschrieben:
Was nutzt ihr denn für wunderliche NLEs, in denen man in den Sequenz Settings die Bittiefe und das Color Sampling festlegt?
In welchen wunderlichen NLEs geht das denn nicht?
Also Avid arbeitet anders, Premiere auch...
Hmm.

Space


Antwort von Roland Schulz:

Ich gehe jede Wette dass nen 6K -> 4K 4:2:0 8bit Oversamplingbild ein nativ ausgelesenes ("pseudo") 4K 4:4:4 10bit Bayerbild schlägt ;-)!!
Hier kommt"s nun mal wirklich auf Details an, nicht auf Farbtiefe weil wer nen Blue-/Greenscreen in der Belichtung so dermaßen versaut.....!!

Eine nativ ausgelesene Bayerkamera schafft praktisch überhaupt kein 4:2:2, die schafft noch nichtmal echtes 4:2:0!
Unbenannt2.PNG Quelle: dpreview.com

Der Beispiel Video-Screenshot zeigt Standbilder von einer nativ auflösenden 4K Bayerkamera (Panasonic GH5s) im Vergleich mit einer 6K -> 4K Oversamplingkamera (Sony a7M3).
Letzteres Ergebnis liegt definitiv nur in 4:2:0 vor da die Kamera nicht mehr beherrscht.
Bei der Panasonic, welche das 4:2:2 "Format" beherrscht ist das trotzdem irrelevant da noch nicht mal die 4:2:0 (Farb-)Auflösung der Sony erreicht wird.


Ich verstehe diesen ganzen 4:2:2 Hype und Wirbel nicht! Das ist ein Relikt aus der 3-Chip Interlace Zeit.
Erst wenn wir 8K nach 4K oversamplen oder ne 3Chip Kamera nutzen wird 4:2:2 oder 4:4:4 interessant, ansonsten ist das mehr "Etikettenschwindel" als Nutzen!
Dazu kommt das "viele" Kameras die horizontale Komponente der vertikalen gegenüber bevorzugt debayern, was weiterhin gegen einen theoretischen Gewinn von 4:2:2 spricht.
Unbenannt.PNG Quelle: dpreview.com
Beispiel Canon EOS 5DMKII im Fotomodus, höhere horizontale Chroma-Auflösung.
Bei den Videoscreenshots ist mir aber ehrlich gesagt kein Sample aufgefallen wo das zutrifft.

Space


Antwort von Roland Schulz:

Axel hat geschrieben:
Habe selbst seit UHD kein Greenscreen mehr probiert, aber das Thema Downscaling zu 1080 in einen 444 Codec, wobei das 420 Katzengold auf wundersame Weise verwandelt wird, hatten wir gefühlt schon hundertmal (debunked). Was dagegen stimmt und ein alter Hut ist: dass das freizustellende Objekt die größtmögliche Auflösung haben sollte.
Richtig, der UHD 4:2:0 -> FHD 4:4:4 Downscale bringt fast nie was...
...es sei denn Du hast (nur) nen FHD Wiedergabegerät welches aber immerhin 4:4:4 (RGB...) beherrscht ;-)!

Space


Antwort von blueplanet:

"Roland Schulz" hat geschrieben:
Bei der Panasonic, welche das 4:2:2 "Format" beherrscht ist das trotzdem irrelevant da noch nicht mal die 4:2:0 (Farb-)Auflösung der Sony erreicht wird.
...rums...MTF trifft auf FF und 1500€ auf 2300€ ;)), aber trotzden wirklich danke, für die für Klarheit sorgenden Erkenntnisse!!

Space


Antwort von blueplanet:

"Roland Schulz" hat geschrieben:
Richtig, der UHD 4:2:0 -> FHD 4:4:4 Downscale bringt fast nie was...
...es sei denn Du hast (nur) nen FHD Wiedergabegerät welches aber immerhin 4:4:4 (RGB...) beherrscht ;-)!
...ergo im Prinzip alle "herkömmlichen" PC-Monitore - nicht! Und was ist mit einem handelsüblichen, z.B. Panasonic NeonPlasma per USB-Eingang, FHD-TV? Welches Signal wird z.B. von einem Mediaplayer über HDMI übertragen? Ausschließlich 4:2:0?
Für "wirkliche" RGB-Komponentenübertragung gibt es doch kaum noch Anschlüsse an den Geräten...
Oder wird (ausgenommen durch die Grafikkarte des PC, ohnehin alles wieder 4:2:0? Ist 4:4:4 oder 4:2:2 im Grunde nur etwas für die Art der "Gewinnung" des Signals?
Ich stehe auf dem Verständnisschlauch ;)

Space


Antwort von dienstag_01:

Sag mal, Roland, hattest du mit deinen Theorien zum Color Subsampling nicht schon mal bei Panasonic für eine gewisse Erheiterung gesorgt? Oder war das eine andere Firma?

Space


Antwort von blueplanet:

dienstag_01 hat geschrieben:
Was nutzt ihr denn für wunderliche NLEs, in denen man in den Sequenz Settings die Bittiefe und das Color Sampling festlegt?
...na wäre das nicht schlimm, wenn ich in Premiere einen File einlese (UHD, 4:2:2) und die entstehende Sequenz, schert sich nicht um die implementierten Vorgaben? Das Pixelverhältnis und die Framerate wird doch auch übernommen?!

Space



Space


Antwort von dienstag_01:

blueplanet hat geschrieben:
dienstag_01 hat geschrieben:
Was nutzt ihr denn für wunderliche NLEs, in denen man in den Sequenz Settings die Bittiefe und das Color Sampling festlegt?
...na wäre das nicht Schlimm, wenn ich in Premiere einen File einlese (UHD, 4:2:2) und die entstehende Sequenz, schert sich nicht um die implementierten Vorgaben? Das Pixelverhältnis und die Framerate wird doch auch übernommen?!
Es gibt aber keine 10bit Einstellung. Dein Ausgangsformat wird solange beibehalten, bis du es in etwas anderes umrechnest.

Space


Antwort von Roland Schulz:

dienstag_01 hat geschrieben:
Sag mal, Roland, hattest du mit deinen Theorien zum Color Subsampling nicht schon mal bei Panasonic für eine gewisse Erheiterung gesorgt? Oder war das eine andere Firma?
Für Erheiterung bei Panasonic nicht unbedingt, die Erheiterung lag auf meiner Seite und richtig, da gab"s "jemanden" der nen "Tech Sheet" für die DVX200 erstellt hat und aus UHD 4:2:0 8bit FHD 4:4:4 10bit erstellen konnte - was Blödsinn ist!!

Space


Antwort von blueplanet:

dienstag_01 hat geschrieben:
Es gibt aber keine 10bit Einstellung. Dein Ausgangsformat wird solange beibehalten, bis du es in etwas anderes umrechnest.
...aber genau das mache ich doch ;) Ich lege also nicht das 4:2:0 in die Timeline und sage : es werde Katzengold. Ich mache erst über die Neuberechnung Katzengold daraus ;)) Und das bleibt dann doch "erhalten"? Oder? Zumindest innerhalb der Datei auf dem PC.

Space


Antwort von nachtaktiv:

Jalue hat geschrieben:
es ist doch einfach so: Allen Unkenrufen zum Trotz verlangen viele TV-Kunden immer noch normgerechtes HD mit 4:2:2 10Bit. Möglicherweise wird man dort -nach einem guten Gespräch mit dem IvD und diversen Testläufen, so die Leute denn überhaupt Bock darauf haben- auch downconvertiertes 8Bit 4K los, aber wer bezahlt mir den Aufwand? Wozu ihn überhaupt betreiben? Genau ... "Quatsch, heutzutage versenden die alles!". In Bezug auf Hausteams mag das nahe an der Wahrheit liegen, für freie Produzenten ist die Aussage ein klassischer Fall von Bullshit-Bingo.
hm. das ist jetzt nun auch schon sechs jahre her...





Space


Antwort von Roland Schulz:

blueplanet hat geschrieben:
"Roland Schulz" hat geschrieben:
Richtig, der UHD 4:2:0 -> FHD 4:4:4 Downscale bringt fast nie was...
...es sei denn Du hast (nur) nen FHD Wiedergabegerät welches aber immerhin 4:4:4 (RGB...) beherrscht ;-)!
...ergo im Prinzip alle "herkömmlichen" PC-Monitore - nicht! Und was ist mit einem handelsüblichen, z.B. Panasonic NeonPlasma per USB-Eingang, FHD-TV? Welches Signal wird z.B. von einem Mediaplayer über HDMI übertragen? Ausschließlich 4:2:0?
Für "wirkliche" RGB-Komponentenübertragung gibt es doch kaum noch Anschlüsse an den Geräten...
Oder wird (ausgenommen durch die Grafikkarte des PC, ohnehin alles wieder 4:2:0? Ist 4:4:4 oder 4:2:2 im Grunde nur etwas für die Art der "Gewinnung" des Signals?
Ich stehe auf dem Verständnisschlauch ;)
Das kann ich pauschal auch nicht beantworten, bei PC Monitoren würde ich aber mal behaupten dass in jedem Fall eine 4:4:4 Darstellung bei RGB Übertragung zu erzielen ist (Desktop, Photoshop...). Dort ist Farbunterabtastung eher die Seltenheit.

USB Mediaplayer in Fernsehern werden in der Regeln nur 4:2:0 leisten, grundsätzlich steht auch in Frage welcher Player (Software, Hardware mit SoC) überhaupt in der Lage wäre überhaupt 4:4:4 und dann auch als 4:4:4 wiederzugeben.

Ich schätze den Vorteil eher theoretisch ein. Für Standbilder aus UHD Videos die in FHD dargestellt werden sollen ginge das technisch aber ohne weiteres - wenn jemand eine solche Anwendung denn überhaupt hat.

Space


Antwort von dienstag_01:

blueplanet hat geschrieben:
dienstag_01 hat geschrieben:
Es gibt aber keine 10bit Einstellung. Dein Ausgangsformat wird solange beibehalten, bis du es in etwas anderes umrechnest.
...aber genau das mache ich doch ;) Ich lege also nicht das 4:2:0 in die Timeline und sage : es werde Katzengold. Ich mache erst über die Neuberechnung Katzengold daraus ;)) Und das bleibt dann doch "erhalten"? Oder? Zumindest innerhalb der Datei auf dem PC.
Natürlich, wenn es konvertiert wurde.
Aber Jott schreibt ja im Gegensatz zu dir nichts von einem konvertierten Video.

Space


Antwort von Roland Schulz:

Ihr müsst aber alle aufpassen ob Euer NLE intern überhaupt 4:4:4 macht - EDIUS kann‘s nicht.
Wie gesagt, eher alles theoretischer Natur!

UHD Standbild in Photoshop downscalen geht aber in 4:4:4!

@blueplanet: eine Sony a6300/6500 macht aber fast das gleiche wie ne a7M3 - auch für <<1.500€ ;-)!

Space


Antwort von dienstag_01:

"Roland Schulz" hat geschrieben:
Ihr müsst aber alle aufpassen ob Euer NLE intern überhaupt 4:4:4 macht - EDIUS kann‘s nicht.
Wie gesagt, eher alles theoretischer Natur!

UHD Standbild in Photoshop downscalen geht aber in 4:4:4!

@blueplanet: eine Sony a6300/6500 macht aber fast das gleiche wie ne a7M3 - auch für <<1.500€ ;-)!
Ein NLE *macht das nicht*, was ist denn das schon wieder für ein Blödsinn?! Das *macht* der Codec, ganz allein ;)

Space


Antwort von Jott:

Keine Ahnung, auf welchem Konfrontations-Dampfer du bist. Du kannst doch in die Timeline werfen, was du willst, da wird nichts vorher konvertiert. Bei fcp x jedenfalls. Ob die Timeline jetzt uncompressed, 12Bit, 10Bit oder weiß der Kuckuck was haben soll, definiert natürlich deren Codec (bei uncompressed die Abwesenheit eines solchen), also der Arbeitscodec. Den wählt man. In fcp meistens eine Geschmacksrichtung des bööösen ProRes, in AVID meistens eine Geschmacksrichtung des guuuten DNxHD/HR, in Premiere irgendwas nach gusto. Und mit der Wahl des Arbeitscodecs wählst du Bittiefe und Farbsampling, der hat das ja definiert. Will man in 4:4:4 12Bit arbeiten, dann ProRes 4444 als Timelinecodec. Oder in fcp-Neusprech Projektcodec. Du meine Güte.

Ausgangspunkt des Exkurses war ja nur die Anregung, mal auszuprobieren, mit einer UHD 8Bit/4:2:0-Quelle in einer HD Timeline mit 10Bit 4:2:2 zu keyen und sich ein Urteil zu bilden. Fernab der Verbalgefechte zu diesem Thema.

Space



Space


Antwort von dienstag_01:

Jott hat geschrieben:
Keine Ahnung, auf welchem Konfrontations-Dampfer du bist. Du kannst doch in die Timeline werfen, was du willst, da wird nichts vorher konvertiert. Bei fcp x jedenfalls. Ob die Timeline jetzt uncompressed, 12Bit, 10Bit oder weiß der Kuckuck was haben soll, definiert natürlich deren Codec (bei uncompressed die Abwesenheit eines solchen), also der Arbeitscodec. Den wählt man. In fcp meistens eine Geschmacksrichtung des bööösen ProRes, in AVID meistens eine Geschmacksrichtung des guuuten DNxHD/HR, in Premiere irgendwas nach gusto. Und mit der Wahl des Arbeitscodecs wählst du Bittiefe und Farbsampling, der hat das ja definiert. Will man in 4:4:4 12Bit arbeiten, dann ProRes 4444 als Timelinecodec. Oder in fcp-Neusprech Projektcodec. Du meine Güte.

Ausgangspunkt des Exkurses war ja nur die Anregung, mal auszuprobieren, mit einer UHD 8Bit/4:2:0-Quelle in einer HD Timeline mit 10Bit 4:2:2 zu keyen und sich ein Urteil zu bilden. Fernab der Verbalgefechte zu diesem Thema.
Du hättest doch einfach schreiben können, dass du das Video konvertierst, dann wäre alles klar gewesen. *Du meine Güte.*

Hast du übrigens deinen Workflow mit 4:4:4 statt 4:2:2 getestet? Denn meiner Ansicht nach verschenkst du da Qualität.

Space


Antwort von Jott:

Nie probiert, stimmt, könnte man mal noch mit 444 vergleichen. Das Schöne bei Keying-Versuchen ist ja, dass man's gleich sieht.

Und nein, man muss bei fcp nicht vorher konvertieren. War schon vor zehn Jahren so: ProRes-Timeline, damals HDV oder XDCAM einfach nativ rein, Realtime ohne Rendern, auch damals schon zwangsweise dann in 10Bit 4:2:2 weiterverarbeitet.

Space


Antwort von dienstag_01:

Jott hat geschrieben:
Nie probiert, stimmt, könnte man mal noch mit 444 vergleichen. Das Schöne bei Keying-Versuchen ist ja, dass man's gleich sieht.

Und nein, man muss bei fcp nicht vorher konvertieren. War schon vor zehn Jahren so: ProRes-Timeline, damals HDV oder XDCAM einfach nativ rein, Realtime ohne Rendern, auch damals schon zwangsweise dann in 10Bit 4:2:2 weiterverarbeitet.
Naja, wenn du es nach dem keyen erst wandelst... ;)

Space


Antwort von Jott:

Du redest wirr! :-)
Und da du nicht damit aufhören wirst, lassen wir's gut sein.

Space


Antwort von dienstag_01:

Jott hat geschrieben:
Du redest wirr! :-)
Und da du nicht damit aufhören wirst, lassen wir's gut sein.
Selbstverständlich ;)

Space


Antwort von Roland Schulz:

dienstag_01 hat geschrieben:
"Roland Schulz" hat geschrieben:
Ihr müsst aber alle aufpassen ob Euer NLE intern überhaupt 4:4:4 macht - EDIUS kann‘s nicht.
Wie gesagt, eher alles theoretischer Natur!

UHD Standbild in Photoshop downscalen geht aber in 4:4:4!

@blueplanet: eine Sony a6300/6500 macht aber fast das gleiche wie ne a7M3 - auch für <<1.500€ ;-)!
Ein NLE *macht das nicht*, was ist denn das schon wieder für ein Blödsinn?! Das *macht* der Codec, ganz allein ;)
Auf welchem Standstreifen hast Du denn hier gerade geparkt ;-) ?! Es geht um den Downscale nach 4:4:4, und dafür muss nen NLE erstmal 4:4:4 unterstützen. EDIUS kann"s z.B. nicht!
Mit dem Codec hat das überhaupt nichts zu tun, der skaliert sich schliesslich nicht selbst.

Space


Antwort von TomStg:

"Roland Schulz" hat geschrieben:
Es geht um den Downscale nach 4:4:4, ...
Das ist ja das Problem: Es gibt keinen wundersamen „Downscale“ von 4:2:0/4:2:2 nach 4:4:4.
Aus Blei wird nun mal kein Gold - allenfalls Katzengold.

Space


Antwort von dienstag_01:

"Roland Schulz" hat geschrieben:
dienstag_01 hat geschrieben:

Ein NLE *macht das nicht*, was ist denn das schon wieder für ein Blödsinn?! Das *macht* der Codec, ganz allein ;)
Auf welchem Standstreifen hast Du denn hier gerade geparkt ;-) ?! Es geht um den Downscale nach 4:4:4, und dafür muss nen NLE erstmal 4:4:4 unterstützen. EDIUS kann"s z.B. nicht!
Mit dem Codec hat das überhaupt nichts zu tun, der skaliert sich schliesslich nicht selbst.
Dafür hast du sicher auch einen Beleg. Das wäre nämlich sowas wie ein Alleinstellungsmerkmal bei NLEs: Wir importieren Ihr Material in voller Farbauflösung und machen es dann augenfreundlich schlechter. Finden Sie nur bei uns.
Das ist doch Unsinn oder;)

Space


Antwort von Roland Schulz:

TomStg hat geschrieben:
"Roland Schulz" hat geschrieben:
Es geht um den Downscale nach 4:4:4, ...
Das ist ja das Problem: Es gibt keinen wundersamen „Downscale“ von 4:2:0/4:2:2 nach 4:4:4.
Aus Blei wird nun mal kein Gold - allenfalls Katzengold.
-> Photoshop funktioniert z.B für Stills, auf jeden Fall!
Es ging auch immer um die Theorie, und die stimmt!

Ggf. können FCPX und andere NLEs das auch, für irgendwas wird ja Prores 444/4 auch gut sein.

Trotzdem steht seit gefühlt 5 Jahren der Sinn und Nutzen klar in Frage!

Space



Space


Antwort von Roland Schulz:

dienstag_01 hat geschrieben:
"Roland Schulz" hat geschrieben:

Auf welchem Standstreifen hast Du denn hier gerade geparkt ;-) ?! Es geht um den Downscale nach 4:4:4, und dafür muss nen NLE erstmal 4:4:4 unterstützen. EDIUS kann"s z.B. nicht!
Mit dem Codec hat das überhaupt nichts zu tun, der skaliert sich schliesslich nicht selbst.
Dafür hast du sicher auch einen Beleg. Das wäre nämlich sowas wie ein Alleinstellungsmerkmal bei NLEs: Wir importieren Ihr Material in voller Farbauflösung und machen es dann augenfreundlich schlechter. Finden Sie nur bei uns.
Das ist doch Unsinn oder;)
EDIUS kann intern mit dem
eigenen HQX intermediate Codec kein 4:4:4 verarbeiten, sondern nur 4:2:2:
http://wwwapps.grassvalley.com/manuals/ ... #gsc.tab=0

Ist jetzt trotzdem nicht das wirkliche K.O. Kriterium für mich.
Falls Dir das nicht reicht frag bei GV nach - mir ist‘s eher egal!

Space


Antwort von dienstag_01:

"Roland Schulz" hat geschrieben:
dienstag_01 hat geschrieben:

Dafür hast du sicher auch einen Beleg. Das wäre nämlich sowas wie ein Alleinstellungsmerkmal bei NLEs: Wir importieren Ihr Material in voller Farbauflösung und machen es dann augenfreundlich schlechter. Finden Sie nur bei uns.
Das ist doch Unsinn oder;)
EDIUS kann intern mit dem
eigenen HQX intermediate Codec kein 4:4:4 verarbeiten, sondern nur 4:2:2:
http://wwwapps.grassvalley.com/manuals/ ... #gsc.tab=0

Ist jetzt trotzdem nicht das wirkliche K.O. Kriterium für mich.
Falls Dir das nicht reicht frag bei GV nach - mir ist‘s eher egal!
Also, ich kenne mich natürlich nicht annähernd so gut aus mit Edius, wie du, deshalb frage ich mal: man denn Videofiles beim Import in den Intermediate konvertieren?

Space


Antwort von Roland Schulz:

dienstag_01 hat geschrieben:
Also, ich kenne mich natürlich nicht annähernd so gut aus mit Edius, wie du, deshalb frage ich mal: man denn Videofiles beim Import in den Intermediate konvertieren?
...man denn Videofiles....?????

"muss" man natürlich nicht - aber was bringt"s? EDIUS würde native 4:4:4 Files auch nicht in 4:4:4 exportieren können!

Space


Antwort von dienstag_01:

"Roland Schulz" hat geschrieben:
dienstag_01 hat geschrieben:
Also, ich kenne mich natürlich nicht annähernd so gut aus mit Edius, wie du, deshalb frage ich mal: man denn Videofiles beim Import in den Intermediate konvertieren?
...man denn Videofiles....?????

"muss" man natürlich nicht - aber was bringt"s? EDIUS würde native 4:4:4 Files auch nicht in 4:4:4 exportieren können!
Kein DNxHR für Edius, kein ProRes?

Space


Antwort von roki100:

was ist genau der unterschied zwischen DNxHR und ProRes?

Space


Antwort von mash_gh4:

roki100 hat geschrieben:
was ist genau der unterschied zwischen DNxHR und ProRes?
im wesentichen der name und die jeweiligen definitionsmacht marktbeherrschender firmen.

aber unter der oberfläche sind sie sich sehr ähnlich bzw. gehören sie zur selben famile von bild- u. videokompressionsmethoden.

ein bisserl genauer ist es u.a. hier dokumentiert:

https://wiki.multimedia.cx/index.php/Apple_ProRes
https://wiki.multimedia.cx/index.php/DNxHD

Space


Antwort von roki100:

Das finde ich sehr Interessant:



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kameras Allgemein-Forum

Antworten zu ähnlichen Fragen //


Wie herausfinden, ob echtes 10-bit video vorliegt o. 8bit Quelle in 10-bit Container?
Dynamik Smartphone mit 10 Bit Log vs. Vollformat Standardprofil 8 Bit
16 Bit Waveform schmaler als 24 Bit Waveform?
Green Screen MP4 oder ProRes, beides 422 10 Bit
Konverter Thunderbolt auf Thunderbolt (oder HDMI) und FBAS (oder SDI)?
Briefing Raw Cam 4k60p mit AF S5+ Ninja oder R5 oder? Format für Resolve
Schnittrechner oder -Laptop oder beides?
Elgato Cam Link oder Atem Mini oder etwas anderes?
Dynamik-Umfang bei 8 Bit limitiert?
Neue Sony A7S III filmt intern in 4K 10 Bit 4:2:2 bis 120fps - mit 15+ Dynamikumfang
Sony A7S III Praxistest: Hauttöne, 10 Bit 4:2:2 LOG/LUT und stabilisierter Sensor - Teil 1
Canon EOS R5 im Praxistest: Hauttöne, 12 Bit RAW, LOG/LUT - Teil 1
Panasonic S5 in der Praxis: Hauttöne, 10 Bit 50p intern, Gimbal-Betrieb, AF, LOG/LUT ? Teil 1
Panasonic LUMIX S5 vorgestellt -- kompakte und günstige Vollformat Kamera mit 4K / 10 bit Video
Apple: iPad Air mit A14 Bionic CPU: Noch mehr Leistung für Echtzeit 10 Bit H.265 4:2:2 Editing?
Canon EOS R6 im Praxistest - die bessere Alternative für 4K 10 Bit LOG 50p? - Teil1
Erstes Hands On mit der Canon EOS C70: 16+ DR, 10 Bit Log, ND-Filter, XLR-Audio, Kompakt-Gehäuse uvm ...
iPhone 12 10-Bit Dolby Vision HDR auch ohne Pro?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash