Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Sony a7R III: 4K HLG, Slog 3, Dual Card Slots, besserer Akku - kein 10 Bit Video



Newsmeldung von slashCAM:



Sony hat auf einem Event in China seine neue Vollformat Sony Alpha a7R III vorgestellt. Obwohl der Sensor mit 42,4 MP der gleiche ist wie im Vorgänger a7R II hat die neue...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Sony a7R III: 4K HLG, Slog 3, Dual Card Slots, besserer Akku - kein 10 Bit Video


Space


Antwort von Roland Schulz:

...und wieder steht HDR/HLG drauf wo"s nicht draufstehen darf!! Keine 10-/12bit, kein HDR/HLG!!

Als Videocodec wird XAVC-S aufgeführt - wenn der nicht über Nacht aufgebohrt wurde sind das weiter 8bit bis 100Mbps.

Space


Antwort von rob:

Der Preis wurde jetzt offiziell nachgereicht:

Die UVP liegt bei 3.500,- Euro

(unsere News spielt gerade aktualisiert neu aus)

Viele Grüße
Rob

Space


Antwort von rush:

"Roland Schulz" hat geschrieben:
...und wieder steht HDR/HLG drauf wo"s nicht draufstehen darf!! Keine 10-/12bit, kein HDR/HLG!!

Es wird sich nicht um BT.2100 handeln sondern vermutlich um BT.2020 so wie es bspw. auch an der FS5 mit HLG realisiert wird...

Ob und wie das nun konkret spezifiziert ist - i dont know... Ist mir aber prinzipiell auch Latte in einem quasi Consumergerät der eigentlich ein Fotoapparat ist ;-)

Space


Antwort von Roland Schulz:

Denke das Ding steht ganz klar weiter im Fokus der Fotografie, nicht so ganz der Videografie.

Pixel Shift Multishot ist zwar keine neue Erfindung aber kann für die ein oder andere Aufgabe auf nem SUPERSTABILEN Stativ schon interessant sein. Ansonsten war ja die 7RII schon ne Riesenkamera!

Space


Antwort von Roland Schulz:

rush hat geschrieben:
"Roland Schulz" hat geschrieben:
...und wieder steht HDR/HLG drauf wo"s nicht draufstehen darf!! Keine 10-/12bit, kein HDR/HLG!!

Es wird sich nicht um BT.2100 handeln sondern vermutlich um BT.2020 so wie es bspw. auch an der FS5 mit HLG realisiert wird...

Ob und wie das nun konkret spezifiziert ist - i dont know... Ist mir aber prinzipiell auch Latte in einem quasi Consumergerät der eigentlich ein Fotoapparat ist ;-)
Auch die BT.2020 sieht kein 8bit sondern nur 10-/12bit vor!

Sony selbst verkauft uns HDR als 10-/12bit!! Auch da hebt man den Vorteil gegenüber 8bit SDR etc. ganz klar durch den Gewinn an Quantisierung heraus!!
https://pro.sony.com/bbsccms/assets/fil ... _1_HDR.pdf (Seite 6)
Das ist allerdings keine Spezifikation bzw. Standard sondern eher ein "Tech Sheet".
In jedem Fall widersprüchlich im eigenen Haus!

Space


Antwort von MrMeeseeks:

Wow...da hatte die Nikon D850 ja ihre 3 Wochen Ruhm und wurde gleich mal überflügelt.

Beim Thema Fotografie nahezu alles verbessert was kritisiert wurde.

Space


Antwort von wolfgang:

Es hätte mich ja gewundert wenn Roland nicht schon wieder auf seinen Feldzug gegen HDR-Sony aufgesprungen wäre! So recht er in der Sache hat, so fraglich ist es auch ob sich irgendwer um diese Kritik kümmern wird.

Ich würde es mit einer Feststellungsklage gegen Sony probieren! ;)
(nicht ganz ernst gemeint)

Space


Antwort von klusterdegenerierung:

... als a6000/6300 Besitzer trotzdem extremer habenwollen Faktor!!!

Space



Space


Antwort von Uwe:

wolfgang hat geschrieben:
,,, So recht er in der Sache hat, so fraglich ist es auch ob sich irgendwer um diese Kritik kümmern wird.
.....
Für Leute, die ernsthaftes Interesse an dieser Kamera haben, könnte es doch schon eine wichtige Information sein. Mir ist es ehrlich gesagt auch schleierhaft, was Sony mit einem 8bit-HLG Feature eigentlich bezwecken will? Vielleicht einfach nur ein bisschen "HDR-Anmutung"? Allerdings ohne jeglichen realen Gewinn für einen Nutzer, denn wer es nur in 8bit bekommt, kann doch lieber gleich zu den normalen Bild-Modi oder Log-Profilen greifen...

Space


Antwort von wolfgang:

Ja klar ist das für einen potentiellen Käufer wichtig, gar keine Frage.

Wenn es bei der A7R III wenigstens in HD einen 10bit Modus gäbe, wie das offenbar bei der Z90 der Fall ist, ließe ich mir das ja noch einreden. Aber genau genommen ist es der gleiche Unfug mit HDR bzw. HLG mit 8bit zu fahren wie es fast ebenso unsinnig war log mit 8bit aufzunehmen.

Aber nur "fast": denn es gibt natürlich bei HLG eine gute sachliche Ausrede und einen Unterschied zu log. Wenn ich HLG einfach in die timeline lege und nur hart schneide, also bewußt nicht grade und vielleicht nur minimal korrigiere wie man das heute schon bei 8bit macht, und wenn ich das direkt wieder zu HLG ausgebe, dann dürfte da weit weniger passieren als wenn ich log grade und massive Luminanz- und Farbanpassungen vornehmen muss. Da könnte Sony sogar recht haben wenn die argumentieren würden dass man 8bit Material (auch HLG 8bit Material) eben gleich so hinstellen muss wie man es später eben haben will.

Natürlich ist es mit 10bit schöner, aber dann muss man halt doch als Mini-Variante GH5 plus Shogun Inferno nehmen... oder bleibt bei der Z90 mit HLG eben bei HD.

Space


Antwort von Uwe:

Ich hatte jetzt mal ein bisschen weiter über Google gewühlt, weil ich nicht weiß, ob bei HLG 10bit eigentlich zwingend erforderlich ist (so wie bei HDR). In diesem Artikel gibt es dazu doch einige aufschlussreiche Passagen: http://www.xdcam-user.com/2017/07/what- ... -used-for/
HLG was designed for 10 bit distribution using HEVC, it was never meant to be used with 8 bit codecs, so be very, very careful if using it in UHD with the FS5 as this is only 8 bit.

So, HLG’s big party trick is that it produces an acceptable looking image on a Rec-709 TV, but also gives an HDR image on an HDR TV. So one signal can be used for both HDR and SDR giving what might be called backwards compatibility with regular SDR TV’s. But it is worth noting that on a 709 TV HLG images don’t look as good as images specifically shot or graded for 709. It is a bit of a compromise.

BTW OT: wolfgang hat geschrieben:
.....
Natürlich ist es mit 10bit schöner, aber dann muss man halt doch als Mini-Variante GH5 plus Shogun Inferno nehmen... oder bleibt bei der Z90 mit HLG eben bei HD.
Wieso plus Shogun Inferno? Die GH5 kann HLG in 10bit in H264 oder H265 ohne Shogun...

Space


Antwort von WoWu:

Eine Übertragungsfunktion hat ja nicht zwangsläufig etwas mit HDR-Tv zu tun.
HDR Übertragungsfunktionen gibt es in unterschiedlichen Varianten seit den 90er Jahren und sind in ihrer Sonderfunktion bereits im Annex von 709 beschrieben, um in 709 12 Blenden zu übertragen.
Sie haben daher auch in 8Bit wohl noch eher ihre Berechtigungen als LOG Funktionen, weil sie den Ünertragungsraum deutlich besser ausnutzen, als manche LOG Übertragungen.
Das Internet nutzt wohl doch eher dem, der nicht alles glaubt, was so in den Blogs gefaselt wird.

Space


Antwort von Whazabi:

Na dann hoffen wir mal, dass Sony wenigstens der neuen A7S 10 bit spendiert oder ob Sony lieber den Canon Weg einschlägt und die Bedürfnisse der eigenen Kundschaft komplett ignoriert.

Bezüglich HDR und Standards ... letztlich ist das alles im BT.2020 https://www.itu.int/dms_pubrec/itu-r/re ... !PDF-E.pdf bzw.
BT.2100 https://www.itu.int/dms_pubrec/itu-r/re ... !PDF-E.pdf festgesetzt.
Da wird nirgendwo von 8 bit Quantisierung ausgegangen. Entweder es wird eine ganzzahlige 10 bzw. 12 bit Qunatisierung verwendet oder 16 bit Gleitkomma.

Dementsprechend aber zu behaupten HLG oder LOG-Kurven für Kameras, die nur in 8-bit aufzeichnen währen unnütz ist falsch. Gerade bei niedriger Auflösung können Abweichungen von einer linearen Übertragungsfunktion deutliche Vorteile mit sich bringen. Man muss sie nur richtig zu nutzen wissen.
Eigentlich ist es sogar umgekehrt. Je genauer ich quantisiere, umso weniger profitiere ich von einer logarithmischen OETF/EOTF.

Space


Antwort von wolfgang:

Uwe hat geschrieben:
Ich hatte jetzt mal ein bisschen weiter über Google gewühlt, weil ich nicht weiß, ob bei HLG 10bit eigentlich zwingend erforderlich ist (so wie bei HDR). In diesem Artikel gibt es dazu doch einige aufschlussreiche Passagen: http://www.xdcam-user.com/2017/07/what- ... -used-for/
HLG was designed for 10 bit distribution using HEVC, it was never meant to be used with 8 bit codecs, so be very, very careful if using it in UHD with the FS5 as this is only 8 bit.
Ja dieser Artikel von Chapman ist einer der ersten der die Dinge klar darstellt.

Allerdings - es war bisher NIE bei irgendeinem HDR-Format (und HLG ist ja auch ein HDR-Format) die Rede von 8bit. Ganz im Gegenteil, es war auch die Rede von 12bit (Dolby) und bei HDR10 dann von 10bit.

Also 8bit ist und bleibt mutig.

Uwe hat geschrieben:
BTW OT: wolfgang hat geschrieben:
.....
Natürlich ist es mit 10bit schöner, aber dann muss man halt doch als Mini-Variante GH5 plus Shogun Inferno nehmen... oder bleibt bei der Z90 mit HLG eben bei HD.
Wieso plus Shogun Inferno? Die GH5 kann HLG in 10bit in H264 oder H265 ohne Shogun...
Weil die GH5 ebenso wie die EVA1 die 10bit mit H264 nur bis UHD 30p können. H.265 müssen unsere Systeme ja erst mal vernünftig verarbeiten können.

Space


Antwort von iasi:

Videomäßig nicht mehr zeitgemäß ... eben nur mäßig ... was nutzt ein toller Sensor, wenn der Codec damit nichts anfangen kann.

Space


Antwort von Whazabi:

Bearbeitung von H.265 Material von meiner NX1 funktioniert seit 2015 problemlos mit halbwegs aktueller NVidia Grafikkarte und Intel CPU sowohl in Premiere als mittlerweile auch in Davinci Resolve und was man so liest funktioniert H.265 10bit Material von der GH5 unter Resolve ebenfalls problemlos und nach einigen Anfangsschwierigkeiten mittlerweile auch unter Premiere.

Space


Antwort von Uwe:

wolfgang hat geschrieben:
..... Weil die GH5 ebenso wie die EVA1 die 10bit mit H264 nur bis UHD 30p können...
Klar, 10bit 50/60p läuft noch nicht intern. Aber für HLG/HDR reicht mir persönlich UHD,30p,10bit völlig aus.
H.265 müssen unsere Systeme ja erst mal vernünftig verarbeiten können Da kann ich Whazabi voll + ganz bestätigen. In Resolve 14 läuft es tadellos bei mir (GH5_H265), selbst mit ein bisschen Grading in Echtzeit auf der TL. Bei Premiere CC2018 ist es noch ein bisschen ruckeliger, aber geht auch...

Space



Space


Antwort von wolfgang:

WoWu hat geschrieben:
Eine Übertragungsfunktion hat ja nicht zwangsläufig etwas mit HDR-Tv zu tun.
HDR Übertragungsfunktionen gibt es in unterschiedlichen Varianten seit den 90er Jahren und sind in ihrer Sonderfunktion bereits im Annex von 709 beschrieben, um in 709 12 Blenden zu übertragen.
Sie haben daher auch in 8Bit wohl noch eher ihre Berechtigungen als LOG Funktionen, weil sie den Ünertragungsraum deutlich besser ausnutzen, als manche LOG Übertragungen.
Das Internet nutzt wohl doch eher dem, der nicht alles glaubt, was so in den Blogs gefaselt wird.
Ich hätte mal gerne folgendes gewußt: es wird immer wieder heftig gesagt dass eine echte rec709 Kamera nur ihre 5-6 Stops.
http://www.xdcam-user.com/2012/04/rec-7 ... mic-range/

Nur haben viele Kameras längst andere Varianten verbaut. Die diversen Erweiterungen zu z.B. Hypergamma oder auch die Rec709(800) Kurve gibt es, die haben typischerweise einen größeren Dynamikumfang (vielleicht um die 10 Blendenstufen), aber das ist eben nicht mehr das klassische rec709. Und dann Dinge wie knees auch noch über Scene files händisch parametrierbar sind fehlt dann viel von der ursprünglichen Normierung.

Und ich mir vorstellen dass Gegner von Log - und da gehört WoWu definitiv dazu - uns gerne einreden wollen dass die rec709 Übertragungsfunktionen ohnedies viel mehr können als log und wichtiger seien. Aber ich hätte gerne mal gewusst in welcher rec709 Variante oder in welcher Hypergamma-Variante ich die 14-16 Blendenstufen moderner Kameras unterbringen kann. Und welche nicht-HDR-Sichtgeräte diese 14-16 Blendenstufen überhaupt darstellen können.

Denn egal wie man es dreht und wendet - mit 8bit auch nur 10 Blendenstufen aufzuzeichen und dann editieren zu wollen führt schnell zu Datenabrissen und Banding. Sowas sollte man sich nicht wirklich antun. Meine Meinung dazu.

Space


Antwort von wolfgang:

Whazabi hat geschrieben:
Bearbeitung von H.265 Material von meiner NX1 funktioniert seit 2015 problemlos mit halbwegs aktueller NVidia Grafikkarte und Intel CPU sowohl in Premiere als mittlerweile auch in Davinci Resolve und was man so liest funktioniert H.265 10bit Material von der GH5 unter Resolve ebenfalls problemlos und nach einigen Anfangsschwierigkeiten mittlerweile auch unter Premiere.
Nur soll es neben Resolve und Prmiere auch noch andere Werkzeuge geben.

Space


Antwort von Borke:

Die Nikon D850 könnte mit ihren 144MBit vielleicht das bessere 8bit Bild machen?

Space


Antwort von Whazabi:

Also momentan ist mir tatsächlich nur ein einziger NLE bekannt, der H.265 noch nicht unterstützt und das ist FCPX.
Alle anderen mir bekannten Tools haben eine native Unterstützung für H.265 spätestens seit diesem Jahr erhalten.
Aus dieser Perspektive gesehen würde ich schon sagen, dass H.265 Unterstützung mittlerweile eher der Standard bei Editing Software geworden ist als die Ausnahme.

Zu OETFs Folgendes:
Letztlich zeichnet eine Kamera zunächst immer mit dem selben Dynamikumfang auf und der hängt maßgeblich vom Sensor ab.
Die OETF oder Log-Kurven beschrieben letztlich nur wie die übertragene Dynamik auf die zur Verfügung stehenden digitalen Werte abgebildet werden.
Da ist bei hoher Dynamik im Bild natürlich eine logarithmische Kurve zu bevorzugen, gerade wenn die Kamera nur mit 8 bit quantisiert, weil dadurch die Aufzeichnung mehr Speicher für dunklere Bildinformationen zulässt als bei linearer OETF. Weil das menschliche Sehrvermögen jetzt eben genau bei viel Licht weniger Details und bei weniger Licht genauere Unterschiede ausmachen kann ist es letztlich auch fürs Grading sinvoll in den dunkleren Bereichen mehr Informationen zu speichern.
Allerdings gibt es auch hier immer wieder Einschränkungen die man berücksichtigen muss. Gerade wenn man in sehr hellen Bildbereichen ein starkes Grading einsetzen möchte neigen Bilder mit logarithmischer OETF logischerweise eher zum Banding, da gröbere Abstufungen gespeichert werden.

Außerdem - und das kommt gerade bei den ganzen Systemkameras hinzu - sind Codecs wie H.264 oder H.265 eigentlich Endverbraucher Codecs. Das heißt der Codec komprimiert ohne Rücksicht darauf, dass jemand vllt. nochmal das Signal bearbeiten möchte und legt daher zB größere Blöcke gerne in Bildteile, sodass sie im Material, das out of the box aus der Kamera kommt, nicht wahrnehmbar sind, sehr wohl aber sobald man sich ans Grading macht. Genau da liegt jetzt aber das Problem, denn während du Bildmaterial mit linearer OETF normalerweise einfach so ohne Grading weiterverwenden kannst, musst du Log Material hingegen eigentlich immer zumindest einem moderaten Grading unterziehen.
Und da sind gerade Codecs wie eben H.264 und Co richtige Spaßbremsen, denn es ist mehr oder weniger Zufall ob Blöcke im Bild gerade an sehr günstigen oder sehr ungünstigen Stellen liegen, da der Codec ja nicht weiß, wie du später graden möchtest. Dadurch wird man beim Grading nach meiner Erfahrung letztlich deutlich stärker eingeschränkt als durch die 8 bit Quantisierung, selbst bei relativ hohen Datenraten von über 100 Mbps. Denn gerade durch die relativ aggressive Blockbildung bei diesen Codecs können Bandingeffekte deutlich drastischere Ausmaße annehmen als eigentlich nötig.

Wer das meiste aus seiner Kamera herausholen möchte verwendet am besten einen der vom Hersteller vorgegebenen Log-Modi zusammen mit einem Codec, der auch für die professionelle Aufzeichnung gedacht ist (ProRes/DNxHR) oder RAW.
Für den Alltag, wenn man zB nicht immer seinen riesen externen Recorer mitschleppen will und die eigene Kamera nur H.264 kann, gibt es aber eigentlich keine wirkliche Faustregel.
Generell gilt aber: log-Kurve = Mehr Information in dunkleren weniger Informationen in hellen Bildteilen; linear = Informationen gliechverteilt.
Wenn man das berücksichtigt und eine entsprechende Belichtung vornimmt, die der Umgebungsituation angemessen ist, dann erhält man eigentlich relativ solide Resultate.

Space


Antwort von Roland Schulz:

Vielleicht kriegt das slashcam Team ja von Sony mal ne qualifizierte Antwort warum Sony meint auf ne 8bit Kamera HDR und HLG draufschreiben zu dürfen.

Wenn man als "Consumer" anfragt kriegt man nur gesagt dass ne AX700 ja 10bit aufzeichnet und deshalb HDR kann.

WAS genau ist das Geheimnis hinter den 8bit die eigentlich 10bit sind (oder sein müssten)?!?!

Space


Antwort von Roland Schulz:

Die Cine- oder Hypergammas haben den Vorteil gegenüber S-LOG, dass sie "näher" an einer üblichen, "ansehnlichen" REC709 Abbildung sind, weniger Anpassung im Post und benötigen und damit weniger Veluste erkaufen.
In Form einer a6500 / Cine 1 gehen z.B. ohne Probleme 13+ Blenden in 8bit, dabei wird der Wertebereich zudem weit ausgenutzt. Natürlich ist das auf nem "normalen" Bildschirm nicht mehr ganz frei von Banding, mit nem ordentlichen TV mit Bandingfilter ist das aber "einwandfrei".

Ohne Frage, 10bit hätte ich trotzdem
lieber in dem Ding!!

Space


Antwort von Alf_300:

Deshalb bieten wir jetzt für unsere Einsteigermodelle an Handcamcordern eine HDR-Funktion, bei der mit Hybrid Log-Gamma (HLG) aufgenommen wird. So können einfache filebasierte Workflows verwendet werden und gleichzeitig wird die Bildqualität von HDR erreicht.

Space


Antwort von Bruno Peter:

Alf_300 hat geschrieben:
Deshalb bieten wir jetzt für unsere Einsteigermodelle an Handcamcordern eine HDR-Funktion, bei der mit Hybrid Log-Gamma (HLG) aufgenommen wird. So können einfache filebasierte Workflows verwendet werden und gleichzeitig wird die Bildqualität von HDR erreicht.
Wer ist mit wir gemeint, für wen sprichst Du?

Space


Antwort von Alf_300:

Hier gehts um Sony ;-)

Space



Space


Antwort von Roland Schulz:

Er hat nur den "Sonyslogan" zitiert...

Space


Antwort von Alf_300:

Richtig.
Sony bietet eine HDR Funktion an mit der HDR Qualität erreicht werden kann.

Also kein echtes HDR

Space


Antwort von Bruno Peter:

Das muss dann aber als Zitat hier reingestellt werden.
Etwas Mühe sollte man sich schon geben!

Space


Antwort von Roland Schulz:

Alf_300 hat geschrieben:
Richtig.
Sony bietet eine HDR Funktion an mit der HDR Qualität erreicht werden kann.

Also kein echtes HDR
Na ja, eben nicht, HDR Qualität ist min. 10bit mit nahezu keinen Abrissen.
Man hätte vielleicht schreiben können "HDR ähnlichem Effekt" o.ä..

Space


Antwort von Roland Schulz:

"Bruno Peter" hat geschrieben:
Das muss dann aber als Zitat hier reingestellt werden.
Etwas Mühe sollte man sich schon geben!
@Alf: lass Dir dass eine Lehre sein!!
Dass das hier nicht noch mal vorkommt, sonst gibt's Senge, Freundchen!!

;-) ;-) ;-)

Space


Antwort von WoWu:

Woher kommt eigentlich diese HDR Euphorie?
Die eigentlichen Vorzüge einer Hyper Gamma EOTF machen sich nur auf Geräten nach Rec 2020 bemerkbar und auf herkömmlichen Geräten, auch nur, wenn sie 2020 unterstützen.
Insofern relativiert sich die Abwärtskompatibilität auf älteren Geräten doch schon gewaltig.
Die EOTF bildet nämlich die lineare Szenen-Luminanz Ys auf der lineare Anzeige-Luminanz Yd ab.
Dies unterscheidet sich von der aktuellen Praxis für SDR, die die EOTF auf jede Farbkomponente unabhängig anwendet.
Aber die Anwendung der EOTF auf jede Komponente ändert die Sättigung und auch den Farbton des Bildes.
Da sich die EOTF mit der Anzeige ändern muss, muss sie auf Luminanz angewendet werden, um inkonsistente Farben zu vermeiden.
Die Szenenleuchtdichte Ys kann aus dem Signal zwar zurückgewonnen werden, indem zuerst die Umkehrung des OETF auf jede Farbkomponente R ', G' und B 'angewendet wird, um die linearen Farbkomponenten R, G und B zu erhalten, aber der Aufwand ist dann doch etwas größer, als hier wohl angenommen wird.
Aus den linearen Farbkomponenten kann so die Szenenluminanz abgeleitet werden (vorausgesetzung ist aber nach wie vor:ITU-R Rec 2020 Kolorimetrie)
Kommt noch hinzu, dass der Weisspunkt auch nur bei rd. 50% abgebildet wird, was in der Nachbearbeitung deutlich zu Banding führen wird, sofern nicht wenigstens 10 Bit vorliegen.

Dies relativiert den Hauptvorteil dann doch wieder wesentlich.
Daher verstehe ich nicht, das hier so muter die Übertragungsfunktion mit HDR gleichgesetzt wird und dass es auch egal scheint, ob 8 oder 10 Bit.
Solange nicht in 2020 gearbeitet wird, ist das alles Flickschusterei und wenn SONY sowas in ihre Werbung schreibt dann ist das nix weiter als Werbung.
Aber seit wann müssen Werbefritzen eigentlich was von ihren Produkten verstehen. ...

Space


Antwort von Kamerafreund:

Für alle, die meinen das sie mit einem schrottigen shogun oder 10 Bit auf einmal zum Videoprofi werden: glaubt nicht alles, Atomos ist leider Hauptsponsor der meisten Indie-Film Seiten. Schaut lieber hier: https://www.youtube.com/watch?v=rz_ZjdwtUQ8

Und hier
https://www.youtube.com/watch?v=AekKwgvS5K0

Space


Antwort von rush:

WoWu hat geschrieben:
Woher kommt eigentlich diese HDR Euphorie?
Wat weiß ich....

Letztlich ist es doch auch nur eine weitere Variable bzw. Variante der Slog-Übertragungsfunktion... und solange man diese in 8bit betrachtet und nutzt - muss man sich doch darüber hinaus überhaupt keine Platte machen.

Firmen nutzen "Schlagworte" für Marketingzwecke... und bestimmte Features wie Full HD sagen auch so rein gar nichts aus. Nur weil ein Sensor das theoretisch abbilden kann - bedeutet dies nicht auch automatisch das wir ein "grundsolides" Endprodukt bekommen... ganz zu schweigen von verwendeten Codes und Datenraten.

Andererseits: Wenn ich mir überlege wie lang ich mit DV (25Mbps!) unterwegs war... und später alle über avchd meckerten..... heute erleben wir dasselbe Spiel bei xavx-s und Konsorten.... natürlich sind das eigentlich keine Aufzeichnungsformate sondern per se eher "Distributionscodecs".. auf der anderen Seite sind die Dinger teilweise so gut und brauchbar bei entsprechender Datenrate - das alles andere echt theoretisches Meckern auf hohen Niveau ist.

Werbung ist und bleibt relativ... hatten wir nicht kürzlich erst das Thema mit dem Adjektiv "wahrscheinlich" besprochen? ;) ( Hint: Kuka Robotics "Automatica" Video )

Und das man aus einem 8Bit Signal eben keine "echten" 10 Bit bekommt - wissen doch eigentlich auch alle.... kein wirklich neuer "Schuh".... aber manche stehen halt drauf und das ist doch auch okay. Oft geht es eben um das "Gefühl" des Mehrwertes... nicht immer um Fakten. Weder in der Videowelt - und genauso wenig in der realen Welt... die aktuelle politische Lage zeigt es uns doch beinahe täglich...

Space


Antwort von WoWu:

Weitestgehend stimme ich überein.
Nur in Sachen „Distributionscodec“ nicht.
Weder H.264 noch HEVC sind „Distributionscodecs“ weil sie bis Losless, also bitgenau zum Original definiert sind.
Dann müsste genauso ProRes als “Distributionscodec“ bezeichnen, weil er MPEG2 Architektur benutzt.

Wenn Hersteller die Maximalgrenze des Codecs auf (für sie) wirtschaftliche Bandbreiten reduziert, hat das nichts mit dem Codec zu tun, sondern ist ein Zeichen dafür, dass die Kamera (bzw. der Hersteller) nix taugt.
Der Codec ist nach oben offen und in der Lage jede beliebige Qualität zu liefern.
Aber der Hersteller offenbar nicht.
Dass die Codecs in ihrer“schmalen Ausformung“ auch zur Distribution verwendet werden können, spricht nur für sie, schließt aber die Verwendung in der Akquision nicht aus.
Das schließt der Hersteller mit einer mangelhaften Implementierung aus.

Distributionscodec ist nämlich auch so ein BUZZ Word, das sich durch alle möglichen Blogs und Foren zieht ... aber davon wird es nicht richtiger sondern bleibt Quatsch.

Space



Space


Antwort von Roland Schulz:

Hier müssen mal alle die auf dem Teppich bleiben die trotz RAW was weiß ich (vielleicht nen tollen Film) aber trotzdem qualitativ flaue Matschgrütze abliefern.
Da ziehe "ich" hochauflösenden XAVC-S 100Mbps "Datenschrott" klar vor!!
Es muss auch nicht jeder zwingend alles bis zur Unkenntlichkeit von Positiv auf Negativ plattgraden. Mit gewissen Farb- und Kontrastkorrekturen kann auch 100Mbps H.264 noch verdammt gut aussehen!!

Space


Antwort von WoWu:

Das meiste vergrützt man auch in der Vorarbeit oder bei der Aufnahme.
Schau Dir mal auf Youtube „Lawless“ auf einem halbwegs vernünftigen Monitor an .... 8 Bit mit „grützigem Distributionscodec“.
Na bitte...

Space


Antwort von rush:

"Roland Schulz" hat geschrieben:

Da ziehe "ich" hochauflösenden XAVC-S 100Mbps "Datenschrott" klar vor!!
Warum dann so "Kontra" Sony HLG gegenüber eingestellt ?

Klar - wir würden uns vermutlich alle 10Bit oder Raw wünschen... aber bei Consumermöhren wissen wir ja auch eigentlich wo in der Nahrungskette so stehen... vllt. mit Ausnahme bei Panasonic'ss GH5.... haben die eigentlich sowas wie HLG/HDR implemetiert? Habe ich mich noch nicht mit beschäftigt...

Space


Antwort von Whazabi:

@WoWu
Also abhängig davon, was genau man unter Szenen Luminanz versteht ist die Aussage nicht unbedingt richtig.
Prinzipiell gibt es ja zwei Funktionen. Die OETF in der Kamera und die EOTF am Anzeigegerät.
Die OETF kann jetzt alles mögliche sein linear, S-Log, V-Log ...
unter Szenen Luminanz verstehe ich jetzt das tatsächliche Licht, welches von der Kamera am Drehort eingefangen wird.
Wenn die Kamera darauf jetzt aber eine nicht lineare OETF anwendet ist das was die EOTF von der SZenenluminanz abbekommt schon mal nicht mehr linear.
Bezüglich Anwendung der EOTF auf Chromakanäle gibt es auch zwei Wahrheiten. Was du angesprochen hast beschreibt den Fall bei konstanter Luminanz. BT.2020 spezifiziert allerdings auch einen Modus mit nicht konstanter Luminanz, welcher letztlich analog zu dem Verfahren bei SDR funktioniert.
Ich persönlich und einige andere Coloristen - von denen ich den Tipp habe ;) - verwenden gerne nicht konstante Luminanz, weil das den Schritt von HDR zu SDR etwas vereinfacht.
Wie letztendlich genau in beiden Fällen verfahren werden muss kann man relativ schnell hier nachlesen https://www.itu.int/dms_pubrec/itu-r/re ... !PDF-E.pdf

Deine Befürchtung, dass der Weißpunkt zu enorm hohem Banding führt, kann ich ehrlich gesagt nicht ganz nachvollziehen.
Aus eigener Erfahrung mit meiner NX1 muss ich auch sagen, dass ich Banding auch beim Graden von HDR tatsächlich eher selten wahrnehme.
Hauptsächlich bei großflächigen Objekten mit nur leichtem Heligkeitgradienten - klassisches Beispiel: Himmel. Aber auch hier muss ich sagen, dass der Codec in meinen Augen wesentlich mehr kaputt macht, als die 8bit Quantisierung meiner Kamera. Mit meinem externen Recorder hält sich dann das Banding einigermaßen zurück, wobei man aber natürlich sagen muss, dass es eine 10+bit Aufnahme niemals ersetzen kann und man beim Grading natürlich deutlich mehr Acht geben muss und weniger Freiheiten hat. Das zwingt einen aber auch dazu direkt bei der Aufnahme gleich zu überlegen wie ich den Shot dann letztlich später mal haben möchte. Wenn die Kamera perfekt eingestellt ist braucht man so gut wie kein Grading und hat dementsprechend auch nur selten mit Banding zu kämpfen.

@Roland
Das ist prinzipiell richtig, aber wenn du anfängst mit HDR zu hantieren wirst du feststellen, wie schnell du an die Grenzen von 8bit AVC Material kommst. Da Sony aber mit HDR bei der Kamera wirbt, ist die Frage nach besseren Alternativen zu dem in der A7R3 voraussichtlich verwendetem Codec durchaus relevant.

Space


Antwort von WoWu:

Was das mapping von Ys nach Yd betrifft, kommt es immer auf den eigenen Anspruch der Wiedergabetreuheit an.
Die Abwärtskompartibilität ist nicht per se gegeben, sondern muss erst in der Post erarbeitet werden. Wenn hier also munter mit den Vrfahren jongliert wird, dann hätte ich so meinen Zweifel, dass das von jedem hier leistbar ist.

Was sie Bandinggefahr betrifft, kann man hier natürlich trefflich diskutieren.
Ein guter Anhaltspunkt ist da wahrscheinlich die Barten Kurve, weil die wahrscheinlich jenseits aller Diskussion ist und die Sache sehr schön objektiviert.
Da sieht man, wie Banding im Störbereich, speziell oberhalb von 100Nits das Bild beeinflussen kann.
Wäre es so, wie Du sagtest, hätte sich die Industrie sicher die 10 Bit geschenkt denn erst bei 15 Bit ist der Gesamtbereich quasi bandingfrei, bzw. so, wie Dolby es mit ihrer Funktion bis auf 12 Bit in den wirtschaftlichen Bereich gebracht hat.
Und was den Weisspunkt betrifft, stellt sich natürlich die Frage in der Bearbeitung, ob man ihn bei 50% belassen will, oder ihn in der Post hochzieht, wobei das Banding mit jedem % zunimmt.
Liegt er gleich im Bereich des Zielgradings, ist das Banding entsprechend geringer, allerdings auch die Dynamik im oberen Bereich.
50% sorgen jedenfalls für ein zunehmendes Bandingrisiko.

Was den Codec betrifft, habe ich oben bereits geschrieben.
Nimmt man nämlich das falsche Profil oder Level, ist das ein Bedienfehler, den man der Produktion zuzuschreiben hat.
Wer den Teil eines Codecs (oder eine Kamera) benutzt, der ungeeignet für die angestrebte Bildqualität ist, sollte sich lieber fragen, ob er den richtigen Job ausübt.

Im Amateurbereich sieht das natürlich anders aus, aber für wenig Invest gibt es eben auch nur mittelmäßig schlechte Bilder.
Dann sollte man das aber nicht auf den Codec schieben sondern auf sein Budget.

Space


Antwort von Whazabi:

Naja die Abwärtskompatibilität ist per se schon gegeben. Man muss sich halt an den Standard halten.
Wenn man sich einmal einen Workflow richtig eingerichtet hat, dann funktioniert das erfahrungsgemäß relativ straight forward.
Momentan allerdings leider nur mit Davinci Resolve richtig gut evtl. bald auch mit Edius 9 das würde ich gerne mal ausprobieren.

Ich will auch nicht sagen, dass Banding überhaupt kein Problem ist bei 8bit ganz im Gegenteil. Aber es kommt eben sehr stark darauf an, wie man das Signal gradet.
Wenn man aus den 8bit auf einmal 15 Stops machen möchte, dann geht das ziemlich schnell in die Hose. Erfahrungsgemäß ist aber mit einer richtigen Belichtung und einer Log-OETF durchaus ein Dynamikbereich von 10 Stops in vielen Fällen komplett ohne Banding machbar und das ist schon mal ein enormer Fortschritt zu den 6 Stops die man mit SDR erreicht. Hinzu kommt, dass aktuelle TVs bauart bedingt sowieso meist nicht mehr als 12 Stops schaffen.
Also wie gesagt 8bit für HDR ist sehr grenzwertig aber durchaus machbar abhängig von Motiv, Belichtung und dem Dynamik-Bereich den man tatsächlich nutzen möchte.
Wie du auf deine 15bit kommst verstehe ich gerade nicht. Mit HDR werden letztlich über 20 Stops abgedeckt. Dolby schafft das mit 12 bit und der PQ. Für Kameras ist das momentan uninteressant die bekommen mit Ach und Krach gerade so 16 Stops hin meist mit 14bit und ich bezweifle, dass sich das in der OETF jemals so gut komprimieren lassen wird wie in der EOTF daher denke ich, dass wir in Zukunft vermutlich eher auf fp16 oder höhere Integer Quantisierung umschwenken könnten.

HEVC und AVC sind keine Intermediate Codecs. Du kannst natürlich prinzipiell die Datenrate der beiden künstlich erhöhen soweit du willst. Verlustfrei werden sie dennoch nicht. Ab einem gewissen Punkt wird dein Bild Material einfach nicht mehr besser. Prores ist hier deutlich weniger aggressiv, man nimmt einfach eine höhere Datenrate in Kauf und verzichtet dafür auf diverse verlustbehaftete Features der Enduser Codecs. Daher erhält man mit ProRes ein Bild das deutlich freier von Kompressionsartefakten ist, selbst dann wenn man HEVC auf die selbe Datenrate aufzieht.
Allerdings kann man da keine allgemeingültigen Schlussfolgerungen ziehen, da die Codec Implementierungen wie du ja schon anführst deutlich unterschiedlich ausfallen können.
Das Argument für wenig Budget gibt's nur mittelmäßige Matschcodecs lasse ich so auch nicht gelten. Blackmagic schafft es ja zB auch für unter 1k€ Kameras an den Mann zu bringen die mit guten Codec Lösungen daherkommen. Das Problem bei HDR ist einfach, dass man sehr schnell in Regionen kommt wo jede noch so gute AVC Implementierung an ihre Grenzen stößt.
Die etablierten Kamera Hersteller tragen diesem Umstand aber in keiner Weise Rechnung. Mein Eindruck ist, dass viele Hersteller meinen "wer billig kauft kann nicht mehr erwarten und wer viel Geld ausgibt kann sich auch noch einen guten Recorder leisten". Das ist in meinen Augen schon ziemlich arrogant.

Space


Antwort von WoWu:

In sachen Banding sind wir uns dann ja offensichtlich einig, dass es ein Problem darstellt.
Dass die Kompartibilität erst durch einen entsprechenden Workflow dargestellt werden muss, sollte eigentlich klar sein.
Für die Meisten hier, aber kaum darstellbar, weil der Aufbau des Workflows, vorausgesetzt man legt Wert auf eine gute Bildqualität, wie oben beschrieben, nicht eben mal „so mit Links“ vonstatten geht.

Was die 15 Bit betrifft, so ist das der Wert eines linearen Signals, der zur Bandingfreiheot führen würde, also die fortschreibung von 709 in 8Bit.

Was den Dynamikbereich von 709 angeht, reicht der in der Standardversion mit 220 Quantisierungswerten einschliesslich des Störabstandes von -50db, über 9 Blenden, Störabstandbereinigt, über 7 Blenden.
Unter Hinzunahme des Annex 800 werden es im identischen Übertragungsrahmen 12 Blenden.
Deine Informationen mögen ja populär sein, sind aber leider falsch.

Bezüglich HEVC ist Deine Aussage ebenfalls falsch.
Es gibt sehr wohl eine verlustfreie Codierung (Version 2.4).
Bei verlustfrei HEVC-kodierte Bitstreams, bei denen, die rekonstruierten Bilder bitgenau zu den Quellbildern sind, ist Ratensteuerung definitionsgemäß deaktiviert, und der Encoder deaktiviert alle Qualitätsmetriken. Stattdessen bekommt man am Ende der Kodierung nur einen Komprimierungsfaktor.
 
Bei HEVC bedeutet verlustfreie Codierung, dass sowohl die DCT-Transformationen umgangen als auch die Quantisierung umgangen werden (oft als transquanter Bypass bezeichnet).
Normale Vorhersagen sind immer noch erlaubt, so dass der Codierer optimale Zwischen- oder Intra-Vorhersagen findet und dann den Restverlust (mit Transquant-Bypass) verlustfrei codiert.
Du kannst das ja (mit Bordmitteln) auf x265 mit ffMpeg mal ausprobieren.
Ob das nun Hersteller machen, oder nicht, liegt jedenfalls nicht am Codec, sondern daran, dass Anwender Kameras wählen, die mit hochkomprimierten Versionen des Codecs arbeiten, um wirtschaftliche Ziele zu erreichen (billige Speicher und geringe Datengeschwindigkeiten).
Wählt man als Anwender nun eine solche Kamera oder ein entsprechendes Profil, ist das der Fehler des Anwenders und nicht des Codecs.
HEVC kann sowohl Lossless, als auch near Lossless.
Mal ganz abgesehen davon, dass Apple zukünftig HEVC unterstützen wird und man fast darauf wetten kann, dass ein solches Verfahren wohl in absehbarer Zeit das antiquierte ProRess ablösen dürfte.
Du sagst auch, HEVC oder h.264 seien kein Intermediate Codec ....
Wir benutzen h.264 seit 2006 in der I-Frame Variante und haben daher nie einen solches Provisorium wie einen Intermediate Codec gebraucht.
Wer auf so etwas zurückgreifen muss hat den Fehler doch schon im Ansatz gemacht.
Das würde ich jetzt an Deiner Stelle nicht als Vorteil verkaufen und schon gar nicht mit ProRes.

Space


Antwort von Jott:

Kamerafreund hat geschrieben:
Für alle, die meinen das sie mit einem schrottigen shogun oder 10 Bit auf einmal zum Videoprofi werden: glaubt nicht alles
Längere Videos wie so was gucken ist aber anstrengender als Nachplappern.

Space


Antwort von Kamerafreund:

Kann einer der Theorie-Pantoffelhelden mir mal das fürchterliche banding vom xavc-s in cine1, cine4 oder slog2 zeigen??? Wenn es auftritt lässt es sich schon mit ein 10-bit Rauschen beheben - und davon haben die meisten Kameras deutlich mehr als die a7-Serie. Wer Hochglanz-Werbefilme dreht kann das gerne in Raw machen. Ich kann mir aber kaum eine Situation vorstellen, in der der unterschied zwischen 8 und 10 Bit in der Sony groß erkennbar ist. Dazu ist Sendestandard immer noch meistens 8 Bit..

Space



Space


Antwort von CameraRick:

Kamerafreund hat geschrieben:
Dazu ist Sendestandard immer noch meistens 8 Bit..
Was nachher versendet wird steht doch nicht zwangsläufig im Kontrast zu dem, was Du aufnimmst. HD Fernsehen ist auch noch nicht überall angekommen, aber SD filmt ja auch niemand mehr.
Kamerafreund hat geschrieben:
Kann einer der Theorie-Pantoffelhelden mir mal das fürchterliche banding vom xavc-s in cine1, cine4 oder slog2 zeigen??? Wenn es auftritt lässt es sich schon mit ein 10-bit Rauschen beheben - und davon haben die meisten Kameras deutlich mehr als die a7-Serie.
Mit derartigem Dithering brauchst halt auch immer gleich wieder eine höhere Datenrate, wenn wir jetzt bei den üblichen Sendekopien für TV sprechen (wenn Du das mit Sendestandard meinst) wirds da oft schon eng, ohne großes Gematsche zu kriegen.
Wobei mich bei den Sonys ja tendenziell eher das Macroblocking stört als das Banding, wieso man dennoch keine grundlegend bessere Qualität will und meint 8bit sei doch gut, kann ich beim besten Willen nicht verstehen. Wir reden ja nicht von einem 500€ Apparat.

Space


Antwort von Kamerafreund:

sorry. Meinte Hausstandard. Der ist meistens xdcamhd 8 bit. 10 bit wird also vor dem Schnitt runterkonvertiert. und macroblocking gibt's eher mehr bei mehr Bit und nicht so viel mehr Datenrate. Ich kann wirklich nirgendwo ein beispiel für das banding bei xavc-s 4k finden. Wir reden hier also über Gespenster..

Space


Antwort von Bruno Peter:

Ich warte einfach ab bis die TV-Sender die Haushalte mit HLG bedienen werden
was wohl aus Vernunftgründen der künftige Sender-Standard wird.
Dann entscheide ich erst wie ich evtl. meine Hobyausrüstung modernisiere.
An Diskussionen über ungelegte Eier beteilige ich mich deshalb kaum!

Space


Antwort von Kamerafreund:

Selbst dann:

HLG stands for Hybrid Log Gamma. It is one of the gamma curves used for DISTRIBUTION of HDR content to HDR TV’s that support the HLG standard. It was never meant to be used for capture, it was specifically designed for delivery.

http://www.xdcam-user.com/2017/07/what- ... -used-for/

Space


Antwort von DocD:

Whazabi hat geschrieben:
Bearbeitung von H.265 Material von meiner NX1 funktioniert seit 2015 problemlos mit halbwegs aktueller NVidia Grafikkarte und Intel CPU sowohl in Premiere als mittlerweile auch in Davinci Resolve und was man so liest funktioniert H.265 10bit Material von der GH5 unter Resolve ebenfalls problemlos und nach einigen Anfangsschwierigkeiten mittlerweile auch unter Premiere.
"Mittlerweile auch unter Premiere"... Auf einem iPhone 7 kann ich 6K Anamorph H.265-Material der GH5 mit Lumafusion schneiden. Ganz ohne NVidia Grafikkarte, ganz ohne teures Adobe-Abo. Das iPhone lässt zwar nativ das Abspielen der H.265-Files nicht zu, in Lumafusion spielen sie dann aber flüssig ab.

Space


Antwort von CameraRick:

Kamerafreund hat geschrieben:
sorry. Meinte Hausstandard. Der ist meistens xdcamhd 8 bit. 10 bit wird also vor dem Schnitt runterkonvertiert. und macroblocking gibt's eher mehr bei mehr Bit und nicht so viel mehr Datenrate. Ich kann wirklich nirgendwo ein beispiel für das banding bei xavc-s 4k finden. Wir reden hier also über Gespenster..
Was nicht genau was ein Hausstandard in diesem Fall ist, Sendekopien lässt sich so ziemlich jeder als XDCAM HD 50 zusenden, da ist die Datenrate für Dithering und sonstigen Grain erfahrungsgemäß schon heikel. Warum man in 10bit aufnimmt aber dann in 8bit umwandelt musst Du mir noch einmal erklären? Oder ist das nur für den Schnitt? Das machen wir auch (DNxHD36), aber da endet der Film zum Glück ja nicht.

Macroblocking kommt natürlich von der Datenrate und nicht der Bittiefe, ich sage ja auch nur dass ich das eher als Problem sehe. Banding in XAVC-S, auch in 4K, ist aber auch nicht sooo schwer zu erleben. Mir kommt da ein Projekt in den Sinn, aber Material teilen darf ich leider sowieso nicht.
Warum man 8bit verteidigt, es erschließt sich mir dennoch nicht. Wieso gönnt man den Leuten, die von besserem Material gebrauch machen können, das denn nicht? Immerhin legen die da dreieinhalb Lappen auf den Tisch. Warum diese Grundsatzdiskussion, dass der alte Scheiß denn noch ausreicht?

Space


Antwort von Kamerafreund:

Ich wollte eben nur sagen, dass 10 Bit in den meisten Sendeanstalten keinen Sinn machen, da Rohmaterial nur in 8 Bit angenommen oder vor dem Schnitt gewandelt wird und sowieso 8 Bit wird. Auch zur Farbkorrektur kann nicht mehr auf das 10 Bit Material zugegriffen werden. 10 Bit wären also verschenkte Bandbreite (Thema Macroblocking). Ich wundere mich eben nur, weil ich nirgendwo belege für das 8-bit-banding bei diesem Codec gefunden habe. Hier wird auf ziemlich abstrakter Ebene diskutiert, aber was von diesen tollen 10 oder 12 Bit Vorteilen mit einigermaßen gut gedrehtem Material übrig bleibt, kann ich eben nicht sehen. Da würde ich mich über Beispiele freuen. Sogar bei Slog2 sehen hier die Ergebnisse nicht schlecht aus - wenn sich das wirklich jemand antun will. Aber cine1 und cine4 reichen vollkommen aus. Klar: Mehr ist immer schöner, aber die Frage ist doch irgendwann: Bringt das überhaupt noch was? Viel wichtiger ist doch ein Codec mit guter Kompression, ausreichend Bitrate für die Farbauflösung und -tiefe und vor allem: Wenig Bildrauschen. Und da eben beim Bildrauschen sind die A7-Kameras deutlich stärker als z.B. die FS7. Davon abgesehen: XDCAM als Codec würde ich mir natürlich in der Kamera wünschen, aber irgendwie muss man ja auch die teureren Kameras rechtfertigen. Was ich nur nicht verstehe: Warum muss die FS7 so viel größer und schwerer sein, wenn eine Kamera der Größe einer A7 das gleiche könnte, wenn die Hersteller nur wollten?

Space


Antwort von Kamerafreund:

Worum es mir vor allem geht: Mir scheint, dass viele Seiten und Foren von Atomos und Blackmagic dominiert werden. Die haben sich auf den Amateur-Bereich spezialisiert und argumentieren immer mit: viel hilft viel. Nach dem Motto: Schau mal, für weniger Geld bekommst du hier viel mehr Farbtiefe und Auflösung. Was fehlt sind nur leider immer die Belege, dass diese Kameras oder Recorder wirklich in den meisten Situationen bessere Ergebnisse liefern. Und das ist meiner Meinung nach nicht der Fall. Die Bildqualität von einem xavc-s Codec ist wirklich sehr gut, auch wenn die Spezifiationen unter der tollen Blackmagic liegen. Zum Beispiel macht das Bildrauschen einen gewaltigen Teil der Bitrate-Vorteile vollständig zunichte. Und bei dem was die meisten vermutlich damit machen, reicht der Codec vollständig aus. Wenn ich einen Vergleich sehen würde, der mir das Gegenteil beweist, lasse ich mich gerne überzeugen. Vor allem werden es keine Unterschiede sein, die im jeweiligen Ausspielweg irgendwie zum Tragen kommen.

Space


Antwort von CameraRick:

Also liegt das Problem bei den Sendeanstalten mit degenriertem Signalfluss? So einen Arbeitsfluss will ich mir wirklich nicht vorstellen, da bin ich ja fast ganz froh noch mit klassischer Offline/Online zu arbeiten :)

"Belege" ist immer so eine Sache. Filme einen Verlauf und drehe dran, meist erklärt es sich da von selbst. Ich merke den Unterschied gerade im Keying (und ich rede jetzt nicht von blau und grün), da bricht es eben schneller ein.
Klar: Mehr ist immer schöner, aber die Frage ist doch irgendwann: Bringt das überhaupt noch was? Eine Bluray von "Der Hobbit" ist auch nur 8bit, aber Du glaubst schließlich auch nicht dass Du so ein Bild mit Deiner Sony hinbekommen würdest?

Space



Space


Antwort von Kamerafreund:

OK ich gebe nach: Wenn du den hobbit drehst, nimm besser keine a7s. ;)

Space


Antwort von Bruno Peter:

CameraRick hat geschrieben:
Warum man 8bit verteidigt, es erschließt sich mir dennoch nicht. Wieso gönnt man den Leuten, die von besserem Material gebrauch machen können, das denn nicht? Immerhin legen die da dreieinhalb Lappen auf den Tisch. Warum diese Grundsatzdiskussion, dass der alte Scheiß denn noch ausreicht?
Nicht jeder kann "dreieinhalb Lappen" auf den Tisch legen, insgesamt wird man sogar noch mehr ausgeben müssen wenn man mehr möchte als den künftigen HLG-TV-Standard. Vielleicht muss man sogar ein eigenes Kino für noch mehr bauen müssen...

Ich bin mit dem jetzigen Standard und:

- Cine-like D= Flexibilität bei der gewünschten Feinabstimmung der Videos (Farbgebung erforderlich)
- Cine-like V= Hochwertige Videos im Handumdrehen (Farbgebung nicht erforderlich)

als Heimverbraucher zufrieden und muss diese Zufriedenheit weder verteidigen noch rechtfertigen.
Gehöre nicht zu Denjenigen die in hellen und dunklen Stellen des Videos nach akribisch nach Unzulänglichkeiten suchen müssen.

Ist doch toll, was die letzten Jahrzehnte seit meiner Kodak-Schmalfilmerei der 70/80er Jahre für die Bewegbilderfassung alles geschehen ist, ein riesiger Qualitätssprung den ich jetzt genießen kann.

Ich warte ab bis der HLG-TV-Standard eingeführt ist und entscheide dann ob ich mein Equipment anpassen möchte.

Space


Antwort von Kamerafreund:

Mit der a7s würde man sich am set des hobbit auch blamieren. Da braucht man schon eine gh5 mit Shogun um zu beindrucken.
Also liegt das Problem bei den Sendeanstalten mit degenriertem Signalfluss? So einen Arbeitsfluss will ich mir wirklich nicht vorstellen, da bin ich ja fast ganz froh noch mit klassischer Offline/Online zu arbeiten :)

"Belege" ist immer so eine Sache. Filme einen Verlauf und drehe dran, meist erklärt es sich da von selbst. Ich merke den Unterschied gerade im Keying (und ich rede jetzt nicht von blau und grün), da bricht es eben schneller ein.
Klar: Mehr ist immer schöner, aber die Frage ist doch irgendwann: Bringt das überhaupt noch was? Eine Bluray von "Der Hobbit" ist auch nur 8bit, aber Du glaubst schließlich auch nicht dass Du so ein Bild mit Deiner Sony hinbekommen würdest?


Space


Antwort von Uwe:

Was mich ja einfach mal interessieren würde ist, ob das HLG in 8bit überhaupt von einem HDR-TV als HDR erkannt wird. Also falls jemand mal eine Original-Datei ergattern kann, bitte hier mal posten...

Space


Antwort von Roland Schulz:

Uwe hat geschrieben:
Was mich ja einfach mal interessieren würde ist, ob das HLG in 8bit überhaupt von einem HDR-TV als HDR erkannt wird. Also falls jemand mal eine Original-Datei ergattern kann, bitte hier mal posten...
Gleiches gilt für die AX700 & Co.. Das soll aber bereits über den USB Anschluss (wahrscheinlich als Kartenleser) klappen, zumindest bei Sony TVs.
Über HDMI derzeit noch zero/zero. Da muss man vielleicht erst noch den Stream aufpimpen damit 10bit übertragen werden - also werden die LSBs vielleicht gedithert (also Random ;-) ) oder einfach gleich statisch gesetzt.
Ansonsten lassen sich die meisten TVs noch manuell auf HDR umstellen, meine dass mein ZD9 da aber gar kein HLG zur Auswahl zeigt sondern sich neben Auto nur auf HDR10 umstellen lässt, da müsste ich aber noch mal gucken. DolbyVision ist da auch seit über nem Jahr im Anflug (als FW Update), bisher aber nix. Davon ab ohnehin uninteressant, was und wie will man schon DV zuspielen?! Gibt glaube ich BD Player von LG, das war"s dann aber auch schon.

Space


Antwort von Uwe:

"Roland Schulz" hat geschrieben:
.....
Über HDMI derzeit noch zero/zero. Da muss man vielleicht erst noch den Stream aufpimpen damit 10bit übertragen werden - also werden die LSBs vielleicht gedithert (also Random ;-) ) oder einfach gleich statisch gesetzt.
....
Also die HLG's (HEVC, 10bit) der GH5 erkennt mein HDR-TV (Samsung) problemlos als HDR - sei es über HDMI oder über WLAN...

Space


Antwort von wolfgang:

Ja hat den der ältere ZD9 überhaupt ein HLG Update bekommen?

Soweit ich weiß lassen sich die meisten Sonys manuell auf HDR umstellen. Aber bei den anderen Marken ist das nicht immer der Fall. Was ein Problem für die Vorschau in HLG am Schnittplatz sein kann.

Space


Antwort von Uwe:

Cinema 5D hat einen Sony-Mitarbeiter zur Kamera befragt. Leider noch keine HLG Dateien:
https://www.cinema5d.com/sony-a7r-iii-s ... irst-look/
Sony added an HLG (Hyper Log Gamma) picture profile so that HDR (High Dynamic Range) content can be filmed with extended clarity and beauty. Unlike the 3D flop, HDR is steadily catching up as more camera and display manufacturers incorporate it at affordable prices. If you’ve had the chance to watch some HDR content, you know how vivid and life-like it can seem. That said, for the short time I spent with the camera I decided to shoot in Slog 2 as Adobe Premiere does not yet support the HDR-flagged signal, meaning that although editing the footage would have been possible, exporting and uploading it to YouTube (for example) to watch in HDR would not have been

Space


Antwort von Whazabi:

WoWu hat geschrieben:
In sachen Banding sind wir uns dann ja offensichtlich einig, dass es ein Problem darstellt.
Dass die Kompartibilität erst durch einen entsprechenden Workflow dargestellt werden muss, sollte eigentlich klar sein.
Für die Meisten hier, aber kaum darstellbar, weil der Aufbau des Workflows, vorausgesetzt man legt Wert auf eine gute Bildqualität, wie oben beschrieben, nicht eben mal „so mit Links“ vonstatten geht.
Warum denn nicht? So billig wie heute ist man noch nie zu vor an gute sogar teilweise sehr professionelle Software herangekommen. Dann muss man halt einmal Zeit investieren in einen ordentlichen Workflow und man hat's. Dann bastelt man sich noch ein paar grundlegende LUTs für seine Kameras, sodass zB die Farben von diversen Log-Kurven etc. wieder gerichtet werden und das bisschen Gading, dass dann jedes mal noch ansteht erledigt sich relativ schnell. Selbst für jemanden der das als Hobby betreibt ist das durchaus machbar und finanzierbar.
Was den Dynamikbereich von 709 angeht, reicht der in der Standardversion mit 220 Quantisierungswerten einschliesslich des Störabstandes von -50db, über 9 Blenden, Störabstandbereinigt, über 7 Blenden.
Unter Hinzunahme des Annex 800 werden es im identischen Übertragungsrahmen 12 Blenden.
Deine Informationen mögen ja populär sein, sind aber leider falsch.
Das ist aber seltsam, dass meine Informationen falsch sind, dann muss ich wohl die Paper der BBC und vieler anderer falsch verstanden haben, wo es zB heißt "However, with a standard 8-bit Rec 709 signal about 100:1 dynamic range is all that can be achieved" http://downloads.bbc.co.uk/rd/pubs/whp/ ... WHP283.pdf Ja das ist etwas mehr als 6,5 Stops, jedoch weitab von dem, was du hier postulieren möchtest. Je nach dem welchen Wert du für die Weber-Fraction einsetzt bekommst du halt ein etwas anderes Ergebnis.
Bezüglich HEVC ist Deine Aussage ebenfalls falsch.
Es gibt sehr wohl eine verlustfreie Codierung (Version 2.4).
Bei verlustfrei HEVC-kodierte Bitstreams, bei denen, die rekonstruierten Bilder bitgenau zu den Quellbildern sind, ist Ratensteuerung definitionsgemäß deaktiviert, und der Encoder deaktiviert alle Qualitätsmetriken. Stattdessen bekommt man am Ende der Kodierung nur einen Komprimierungsfaktor.
Ich denke wir haben hier ein Definitionsproblem. HEVC gehört zur Gruppe der Transformationscodecs. Wenn ich jetzt dem Codec seine inhärente Eigenschaft nehme, dann ist das in meinen Augen kein "richtiges" HEVC mehr.
Genauso könnte man die Frage stellen, ob ein Farbfernseher noch ein Farbfernseher ist, wenn die Farbstärke durch die Firmware statisch auf 0 festgesetzt wurde.

Und ja Prores liefert meist eine bessere Qualität als diverse AVC-I Implementierungen von Sony & Co. wie sie in vielen (semi-)professionellen kameras zu finden ist.
Gibt im Netz diverse Vergleiche mit SSIM oder PSNR und wenn du Zahlen nicht glaubst, dann schau dir Videos an.
Es ist ja ganz toll, dass du die Codecs prinzipiell auch anders umsetzen kannst, aber in einer Kamera musst du immer berücksichtigen, dass du beschränkte Rechenleistung und begrenzten Speicher (Volumen/Geschwindigkeit) hast und dennoch muss irgendwie alles in Echtzeit aufgezeichnet werden. Das lässt dir bei der Umsetzung deiner Codecs nur begrenzt Spielraum.
Zugegeben XAVC und Konsorten liefern ein sehr gutes Ergebnis, welches dicke für SDR Videos reicht, aber wie gesagt bei HDR trennt sich die Spreu vom Weizen. Selbst RAW Material bedeutet zu ProRes je nach Situation nochmal einen deutlichen Fortschritt, sodass sich manchmal noch eine Blende mehr aus dem Signal rausholen lässt.

Aber stimmt ich habe natürlich keine Ahnung und es ist schon alles genauso schwarz/weiß wie du das siehst. ProRes und DNx sind eigentlich überflüssig und wer sowas einsetzt hat sowieso nicht mehr alle Tassen im Schrank.

Ob man nun 8bit, 10bit, 12bit, Raw, ProRes oder andere Codecs einsetzt,wichtig ist viel mehr zu wissen wie man richtig belichtet. Wenn man das nicht drauf hat, hilft einem die beste Kameratechnik auch nicht weiter.

Space



Space


Antwort von WoWu:

Du musst meine Üostings schon genau lesen denn 9 Blenden beziehen sich auf den Gesamtbereich, also einschließlich des -50 db Störabstands.
Ohne den sind es 7 Blenden.
Heutige Kameras haben aber durchaus noch bessere Werte, sodass auch hier noch die eine oder andere Blende hinzu kommt, abhängig vom SNR.
Wenn Du den BBC artikel mit 6,5 Blenden anführst, musst Du den berücksichtigten Störabstand berücksichtigen.
Was den erweiterten Dynamkbereich von 709 nach Appendix 800 angeht, sagt der BBC Artikel überhaupt nichts aus, darum geht es aber hier primär, weil er für 709 ähnliche Erweiterungen erlaubt, wie die hier besprochene Bezierkurve.
Du führst also nicht nur die halbe Wahrheit auf, sondern auch noch die falsche Hälfte.
wer über 709 spricht, sollte aber den gesamten Empfehlungsrahmen kennen und berücksichtige.

Was die Codecs betrifft, so begrenzt Du offenbar die Verwendbarkeit auf das, was Deine Argumentation stützt, nach dem Motte, „für mich ist das nur ein Distributionscodec“.
Fakt ist aber, dass erst HEVC ab Version 2.4 auch HDR10+ unterstützt und darin ist nun mal „lossless“ und „ near lossless“ definiert. Ob Dir das nun in Deine Argumentation passt, oder nicht.


Ich verstehe leider nicht, warum Du HDR ständig als „so besonders“ herausstellst, auf der andern Seite aber sagtest, „kein Problem -workflow ist easy-.
In HLG wird im Dunkelbereich überhaupt nichts verändert, weil die HLG Dunkelwerte identisch mit Gamma 2.4 sind.
Dieser Teil der Kurve läuft nämlich auch in HDR (quasi) linear.
Da ist also absolut nicht Besonderes dran.
Lediglich die Kompression der Hellwerte entspricht PQ und in der Tat könnte man die Bezierkurve 2084 durch diese Kurve ersetzen. Die einzige Schwierigkeit besteht lediglich darin, das vernünftige Maß zu SDR auf diesem Teil der Blendenwerte zu finden, also den relativen Kontrast von HDR zu SDR, weil HDR seine Weisswerte bis (meinetwegen) 5000 Nits ausführt, während SDR seinen Weisswert noch deutlich unterhalb des -für SDR- üblichen Weisswertes hat.
Die Bilder erscheinen also entsprechen matter und daher deutlich unattraktiver als Bilder, die linear nach 709 für SDR gemacht worden sind, speziell wenn der maximal Weisspegel einen niedrigen Maximalwerte voraussetzt, weil die Hardwarereglung des TV Monitors einsetzt und den gesamten Kontrast auf 70% drückt.
Da hilft dann auch keine korrekte Belichtung mehr, weil der Fehler erst dahinter entsteht.
Bei HDR ist noch lange nicht alles in „trockenen Tüchern“.

Space


Antwort von Whazabi:

Na dann lies meinen Beitrag aber doch bitte genauso sorgfältig, wie ich deinen lesen soll. Ich hab ganz klar hinten angefügt, dass der abbildbare Dynamikumfang auch davon abhängt welche Weber-Fraction man zu Grund legen will also wie viel Quantisierungsrauschen.
Auf Rec.709 800% bin ich deswegen nicht näher eingegangen, weil es eben eine andere Kurve ist. Du hast gemeint ich läge mit den 6 Blenden total daneben und ich wollte lediglich meine Aussage untermauern. Dass es noch andere Kurven gibt habe ich nie in Abrede gestellt.

Naja in welcher Kamera würdest du denn zB HEVC lossless einsetzen? Letztlich doch eigentlich in gar keiner, da die riesige Datenrate den Codec vollkommen uninteressant macht gegenüber der Option gleich in RAW aufzuzeichnen. Genau das war meine Aussage. Dass H.265 lossless zB als Mastercodec durchaus Berechtigung haben kann stelle ich überhaupt nicht in Frage. In einer Kamera aber eher weniger und genau darum ging's mir.

Warum muss der Workflow denn kompliziert sein, damit man etwas "besonderes" hat?
Letztlich ist das Grading nach PQ auch nicht wesentlich komplexer als für HLG. Gut für HLG gibt es mittlerweile in ein paar Kameras eine passende OETF, sodass man quasi keinen Aufwand braucht und trotzdem sofort von HDR profitieren kann, dafür aber eben nur - wie du schon sagtest - bei den Highlights mehr Dynamik. Immerhin eine Verbesserung für quasi keinen Aufwand.
Aber auch Grading nach PQ ist in meinen Augen nicht sonderlich komplex. In Resolve einmal Projektsettings gemacht, ein paar LUTs für jede Kamera, sodass die jeweiligen OETFs entzerrt werden und man ist quasi fertig. Das ist auch kein wirklicher Mehraufwand zu bisherigen Aufnahmen mit S-LOG & Co. Da muss man das ebenfalls machen. Den einzigen Zusatzaufwand muss man betreiben wenn man Material in HDR(PQ) und SDR anbieten möchte, eben genau weil man nicht einfach die PQ-EOTF gegen eine HLG oder BT.1886 Kruve austauschen kann, denn die Kurven verlaufen nicht mal ansatzweise linear. Weder PQ noch BT.1886/HLG.
Deswegen komme ich momentan tatsächlich nicht drum herum entweder eine LUT zu verwenden, was eher schlecht als Recht funktioniert. Oder eben zwei Projekte aufbauen.
Deswegen bin ich auch auf Edius 9 gespannt, denn das soll es tatsächlich ermöglichen in einer Timeline sowohl HDR als auch SDR zu haben. Mal schauen wie das funktioniert.
Mit Premiere bin ich persönlich durch. Nach zahllosen Bugs an allen Ecken und Enden und bis heute keiner Möglichkeit eines HDR Preview Bildes wird das Adobe Abbo zum nächst möglichen Zeitpunkt gekündigt. Schade Premiere war mal besser ...

Space


Antwort von WoWu:

Na ja, lassen wir’s dabei denn auf Deiner ursprünglichen Reduktion von 709 auf 6 Blenden beharrst Du ja, obwohl 709 mit Annex quasi identische Dynamk anbietet, wie die hier besprochene Hyper Gamma Funktion.
Manchmal sieht man eben nicht, was man nicht sehen will.

Auch das Rauschen, das bei einer geringeren Weber-fraktion auftritt und damit zwar sehr begrenzt etwas mit dem Dynamikumfang zutun hat, dafür aber sehr viel mehr mit dem, von Dir ja in Abrede gestellten Banding, sollten wir nicht näher betrachten, weil Du Dich da vermutlich, ebenso wie in die Übertragungsfunktuonen aus 709 wohl erst noch genauer einlesen musst.
Gleichwohl auch in die linearität von HLG im Dunkelbereich, dass absolut identisch mit 709 verläuft und auch in HEVC Gegebenheiten, denn auch da hast Du mein Posting entweder nicht gelesen oder nicht verstanden, denn es entstehen erhebliche Unterschiede in der erforderlichen Bandbreite zwischen RAW und HEVC lossless.
Aber ich hab Dir ja einen Tipp gegeben, wie man das auch mit Bordmitteln selbst testen kann.

Du ziehst Dich wohl lieber in faktenlose Allgemeinaussagen des Gradings zurück, ohne die zuvor gemachten (falschen) Aussagen zum Thema zu konkretisieren.
Mal ganz davon abgesehen, dass es, bis auf die Gleichzeitigkeit in Bezug auf die besprochenen Fehler überhaupt nicht bringt, SDR und HDR in einer Timeline zu haben, denn die Bildqualitäten muss man ohnehin weiterhin separat graden ( aus den oben von mir beschriebenen Unterschieden).
Nun ja, sei’s drum.

Space


Antwort von wolfgang:

Also wenigstens sind wir hier mal soweit, dass Leute wie WoWu nicht weiter behaupten, dass rec709 mehr als 6 Blendenstufen hat.

Dass HLG dann Stärken hat, wenn es eben nicht gegraded wird, scheint auch angekommen zu sein. Soll es aber auch gar nicht, und vielleicht ist das der Grund warum man da sogar mit 8bit in der Kamera auskommt (bei log sicher nicht).

Dass Kameras mit 10 oder mehr bit Vorteile in der Postpro haben - na das sehen offenbar die meisten ein. Und wenn es nur dazu gut ist um sauberes finales 8bit liefern zu können.

Aber das wars auch schon. Für mich kommen diese 8bit nicht im Frage, da jage ich slog lieber durch einen ACES workflow, dann aber bitte mit 10bit.

Space


Antwort von Bruno Peter:

wolfgang hat geschrieben:
Aber das wars auch schon. Für mich kommen diese 8bit nicht im Frage, da jage ich slog lieber durch einen ACES workflow, dann aber bitte mit 10bit.
Lieber Wolfgang aus dem Videotreffpunkt,
dann tue es doch, keine hat was dagegen, Du hast die "Scheine" dafür ausgegeben und
Deine Maschine liefert die von Dir schon sehr lange ersehnten 10bit, jage es auch durch
Deinen ACES-Workflow. Bitte sehr...

Es gibt aber auch Leute ohne "Scheinewerfer" und Kameras ohne 10bit aber doch Möglichkeiten
trotzdem für den Hobbybereich etwas zufriedenstellendes damit zu erstellen.
Deshalb sind mit die Beiträge von Whazabi so sympathisch und eine Anerkennung Wert,
auch wenn Du möglicherwese nur ein müdes Lächeln dafür übrig hast.

Zu der neuen TV-OLED Errungenschaft und HDR sagt ein Mittglied Deines Forums mit nicht gerade
wenigen Kenntnissen zum Videothema nach nur vier Tage Nutzung des neuen LG-TVs:

"Die Nutzung des ‘HDR-Effekt‘ in den Bildoptionen zeigt zwar ein sehr dynamisches Bild, das aber, wie andere HDR-Aufnahmen, die ich gesehen hatte, eher unnatürlich wirken. Das nutzt sich relativ schnell ab und man wünscht sich wieder natürliche Aufnahmen. Zumal dieser hohe Kontrast und Dynamik sehr anstrengend für die Augen ist. Gut daß ich das hier einfach durch Umschalten beseitigen kann."

Er hat also seinen "Schalter" gefunden...

Ich denke wir alle werden unabhängig voneinander ebenfalls den richtigen Schalter schon noch finden!

Space


Antwort von rush:

Ist doch sowieso alles relativ subjektiv...

Wenn ich mich an die Anfänge der digitalen HDR-Fotografie zurückerinnere... da haben es einige auch massiv übertrieben und reizten aus was rauszuholen war ;)
Irgendwann legt sich sowas aber auch wieder... einige werden weiterhin die Extrema nutzen - die Masse findet aber dann vermutlich doch den goldenen Mittelweg interessanter und ansehnlicher.

HDR ist selbst in der Fotografie für mich eigentlich kein Thema mehr... dank der hohen Dynamik und fetten RAW Dateien mit vielen Reserven kann man damit mehr als ausreichende "HDR-Spreizungen" aus nur einem Bild herauskitzeln...

Entsprechend würde ich lieber häufiger internes RAW im Bewegtbildbereich sehen als halbgare 8bit slog oder HGR/HDR Implementierungen... 10 Bit mag da womöglich helfen, wäre aber für mich ebenfalls noch kein ausschlaggebender Wechselgrund...

So ist das eben... jeder hat so seine Vorstellungen und Wünsche ;)

Space


Antwort von Roland Schulz:

...davon ab gucke ich 8bit CINE1 -> REC.709 (!?!?) Material auf nem ~2.000nits TV mit Bandingfilter und bin davon völlig begeistert, brauche auch keine Sonnenbrille dafür und sehe auch keine Abrisse!!

Man muss sich vielleicht einfach mal fragen was REC.709... nein Gamma 2.4... was auch immer in der Übertragung und der Ausgabe überhaupt bedeutet - eigentlich ist das nur die Übertragungsfunktion vom eingehenden Material zur Darstellung auf dem Endgerät. Wenn das Endgerät jetzt 11 Blenden (dynamisch deutlich mehr) darstellen kann wird unser REC.709/Gamma2.4/... auf einmal auf 11+ Blenden aufgeblasen - und...?!?!

Bleibe trotzdem dabei dass >10bit die bessere Vorraussetzung für nahezu alles ist, keine Frage!
"Gamma 2.4" kennt allerdings keine historischen Annahmen von Spitzenhelligkeiten von ~100cd usw.!!

Space


Antwort von Whazabi:

WoWu hat geschrieben:
Na ja, lassen wir’s dabei denn auf Deiner ursprünglichen Reduktion von 709 auf 6 Blenden beharrst Du ja, obwohl 709 mit Annex quasi identische Dynamk anbietet, wie die hier besprochene Hyper Gamma Funktion.
Manchmal sieht man eben nicht, was man nicht sehen will.
Wo hab ich denn bitte geleugnet, dass es diese Funktionen gibt? Meine einzige Aussage war, dass rec.709 6 Blendenstufen hat. Dafür hast du mich gleich von der Seite angegriffen, dass das komplett falsch sei und mich als Populisten beschimpft. Ich habe versucht dir mit Verweisen auf andere Forschungspapers zu zeigen, dass ich nicht unrecht habe. Aber du scheinst ja andere Meinungen als deine eigene nur schwer akzeptieren zu können.
Auch das Rauschen, das bei einer geringeren Weber-fraktion auftritt und damit zwar sehr begrenzt etwas mit dem Dynamikumfang zutun hat, dafür aber sehr viel mehr mit dem, von Dir ja in Abrede gestellten Banding, sollten wir nicht näher betrachten, weil Du Dich da vermutlich, ebenso wie in die Übertragungsfunktuonen aus 709 wohl erst noch genauer einlesen musst.
Gleichwohl auch in die linearität von HLG im Dunkelbereich, dass absolut identisch mit 709 verläuft und auch in HEVC Gegebenheiten, denn auch da hast Du mein Posting entweder nicht gelesen oder nicht verstanden, denn es entstehen erhebliche Unterschiede in der erforderlichen Bandbreite zwischen RAW und HEVC lossless.
Aber ich hab Dir ja einen Tipp gegeben, wie man das auch mit Bordmitteln selbst testen kann.
Die Weber-fraktion hat sogar sehr viel mit der darstellbaren Dynamik innerhalb einer OETF mit x bit Quantisierung zu tun. Letztlich beschreibt sie ja - wie du auch schon erkannt hast - wie viel Banding in dem Videosignal vorliegt. Was ist denn jetzt Banding anderes als Quantisierungrauschen? Rein theoretisch kann ich doch jede beliebig genau quantisierte Aufnahme in einen beliebig großen Dynamikbereich quetschen, auch die von dir verschmähten 8 bit, wenn mir das Banding egal ist.
Von daher ist die Weber-fraktion bzw. das Banding mit die wichtigste Kenngröße, wenn es um die Frage geht wie viel Dynamik ich mit meinem System darstellen kann.
Bei HEVC lossless hast du offensichtlich nicht verstanden worauf ich hinaus möchte. Es ist egal, ob HEVC lossless einen kleinen Vorteil in der Datenrate bringt, schließlich wird RAW ebenfalls lossless bzw. lossy (je nach Bedarf) komprimiert. Der Vorteil bei RAW ist allerdings, dass ich direkt das rausbekomme, was der Sensor aufzeichnet und keine abgewandelte Interpretation davon, wie es dann wieder bei HEVC der Fall wäre. RAW ist bzw. sollte vom Hersteller inklusive passender OETF perfekt an die Fähigkeiten des Sensors abgestimmt sein, sodass man letztlich ds bestmögliche Ergebnis erhält. Mit HEVC kommst du da nicht ganz ran. Warum soll ich als eine fast genauso hohe Datenrate in der Kamera für HEVC verwenden, wenn ich mit RAW ein besseres, auf den Sensor zugeschnittenes, Ergebnis bekomme?
Du ziehst Dich wohl lieber in faktenlose Allgemeinaussagen des Gradings zurück, ohne die zuvor gemachten (falschen) Aussagen zum Thema zu konkretisieren.
Mal ganz davon abgesehen, dass es, bis auf die Gleichzeitigkeit in Bezug auf die besprochenen Fehler überhaupt nicht bringt, SDR und HDR in einer Timeline zu haben, denn die Bildqualitäten muss man ohnehin weiterhin separat graden ( aus den oben von mir beschriebenen Unterschieden).
Nun ja, sei’s drum.
Ich denke von uns beiden bin ich derjenige, der hier am ehesten noch versucht hat Belege für seine Thesen zu liefern, oder täusche ich mich? Wenn ich irgendwo falsche Aussagen habe stehen lassen, dann korrigiere mich doch bitte, aber wenn möglich ohne mich dabei gleich wieder persönlich anzugreifen, das wäre sehr nett.

Space


Antwort von Bruno Peter:

"Roland Schulz" hat geschrieben:
Bleibe trotzdem dabei dass >10bit die bessere Vorraussetzung für nahezu alles ist, keine Frage!
Das ist wohl sicher so, allerdings benötigt man dann einen "Scheinewerfer" um die gesamte Videoausrüstung
umzukrempeln. Vielleicht aber kommt ja 10bit auch in Kamerapreisregionen unter 800 €uro für den Hobbyfilmer.
Ich bleibe zunächst mal auf meinem recht soliden Fundament auf dem ich mich recht gut auskenne, auch mit
Cine-like D mit S-Gamma etc. um geeignetes Colorgrading-Material zu erfassen und in EDIUS oder DaVinci Resolve
"aufzuhübschen" oder gar emotionale Farbstimmungsvideos ohne Banding mit 8bit-Rohmaterial zu generieren!

Space



Space


Antwort von Alf_300:

Nachdem wir uns inzwischen alle einig sind, sollten wir vielleicht anfangen

Space


Antwort von Funless:

Alf_300 hat geschrieben:
Nachdem wir uns inzwischen alle einig sind, sollten wir vielleicht anfangen
womit?

Space


Antwort von Alf_300:

Gute Frage

Ich hab gedacht hier geht um tolles HLG,HDR, HEVC und sonstige Schmankerl die das Videoleben erst lebenswert machen.

Space


Antwort von CameraRick:

Kamerafreund hat geschrieben:
OK ich gebe nach: Wenn du den hobbit drehst, nimm besser keine a7s. ;)
Das ist ein reiner Konter für das immer währende Totschlagargument "8bit wird geliefert, also muss nur 8bit gedreht werden". Was halt totaler Quatsch ist, aber spricht auch Bände dass Du Dich lieber drüber lustig machst als beim Thema zu bleiben. Tut mir halt auch leid, dass man bei euch das Signal schon beim Einliefern massakrieren muss.
"Bruno Peter" hat geschrieben:
CameraRick hat geschrieben:
Warum man 8bit verteidigt, es erschließt sich mir dennoch nicht. Wieso gönnt man den Leuten, die von besserem Material gebrauch machen können, das denn nicht? Immerhin legen die da dreieinhalb Lappen auf den Tisch. Warum diese Grundsatzdiskussion, dass der alte Scheiß denn noch ausreicht?
Nicht jeder kann "dreieinhalb Lappen" auf den Tisch legen, insgesamt wird man sogar noch mehr ausgeben müssen wenn man mehr möchte als den künftigen HLG-TV-Standard.
Was ich damit sagen wollte ist, dass mancheiner (vermutlich nicht Du) 3500€ auf den Tisch legt und dennoch alte Kamellen wie 8bit-only verteidigt, als ob es keinen Sinn ergeben könnte (gerade mit dem Aufkommen von HDR etc). Wirkt wie reines Stockholm-Syndrom.
Ich bin doch selber GH5 User, weil Panasonic anscheinend verstanden hat, dass es auch Leute gibt die gerne was für ihr Geld bekommen.

Space


Antwort von Roland Schulz:

wolfgang hat geschrieben:
Ja hat den der ältere ZD9 überhaupt ein HLG Update bekommen?

Soweit ich weiß lassen sich die meisten Sonys manuell auf HDR umstellen. Aber bei den anderen Marken ist das nicht immer der Fall. Was ein Problem für die Vorschau in HLG am Schnittplatz sein kann.
Gerade erst gesehen - ja, der ZD9 kann HLG!

Space


Antwort von WoWu:

@Wolfgang

Davon, dass mehr Leute behaupten, dass rec709 nicht mehr als 6 Blendenstufen hat, wird es nicht richtiger.
Es zeigt nur, das mehr Leute die Recommendation nicht vollumfänglich kennen und speziell nicht den Anhang (annex 800).
Du scheinst dazu zu gehören.
Du solltest Dich lieber mal mit rec709 genauer beschäftigen.

Space


Antwort von wolfgang:

"Bruno Peter" hat geschrieben:
wolfgang hat geschrieben:
Aber das wars auch schon. Für mich kommen diese 8bit nicht im Frage, da jage ich slog lieber durch einen ACES workflow, dann aber bitte mit 10bit.
Lieber Wolfgang aus dem Videotreffpunkt,
dann tue es doch, keine hat was dagegen, Du hast die "Scheine" dafür ausgegeben und
Deine Maschine liefert die von Dir schon sehr lange ersehnten 10bit, jage es auch durch
Deinen ACES-Workflow. Bitte sehr...

Es gibt aber auch Leute ohne "Scheinewerfer" und Kameras ohne 10bit aber doch Möglichkeiten
trotzdem für den Hobbybereich etwas zufriedenstellendes damit zu erstellen.
Deshalb sind mit die Beiträge von Whazabi so sympathisch und eine Anerkennung Wert,
auch wenn Du möglicherwese nur ein müdes Lächeln dafür übrig hast.

Zu der neuen TV-OLED Errungenschaft und HDR sagt ein Mittglied Deines Forums mit nicht gerade
wenigen Kenntnissen zum Videothema nach nur vier Tage Nutzung des neuen LG-TVs:

"Die Nutzung des ‘HDR-Effekt‘ in den Bildoptionen zeigt zwar ein sehr dynamisches Bild, das aber, wie andere HDR-Aufnahmen, die ich gesehen hatte, eher unnatürlich wirken. Das nutzt sich relativ schnell ab und man wünscht sich wieder natürliche Aufnahmen. Zumal dieser hohe Kontrast und Dynamik sehr anstrengend für die Augen ist. Gut daß ich das hier einfach durch Umschalten beseitigen kann."

Er hat also seinen "Schalter" gefunden...

Ich denke wir alle werden unabhängig voneinander ebenfalls den richtigen Schalter schon noch finden!
Was soll das mit dem Schalter bedeuten? Tut mir leid, das ist für mich Unsinn.

Und was soll jemand, der sich gerade ein Gerät zugelegt hat, eigentlich jetzt schon dazu sagen? Dazu brauchts mal geeignetes Material und nicht hochgedrehte Testsender.

Und was bitte soll ich gegen Wazabis Beiträge haben? Die finde ich durchaus gut, also was soll man da belächeln? Man soll nicht immer Anderen etwas unterstellen, lieber Bruno.

Space


Antwort von WoWu:

@whazabi

Nochmal ... in Deinem verlinkten BBC Papier geht es um die transferefunktion, die in Tv Geräten zur Verarbeitung kommt, nicht aber um Übertragungsfunktionen der Kamera.
Da in TV Geräten aber rec 709 in der linearen Ausformung benutzt wird und nicht, wie in der Übertragung der Kamera möglich, auch in der Audformung Annex 800, ist das verlinkte Papier von sehr begrenzter Relevanz für die hier diskutierte High Gamma Überttagungsfunktion in Kameras.
Also HDR vs. 709.
Kein Mensch käme auf die Idee, lin. 709 in HDR als EOTF einzusetzen.

Fakt ist, das Rec 709 in solchen Einsatzgebieten, wie Kameras, einen Annex definiert, der rd. 12 Blenden umfasst, also im Übertragungsbereich Kamera, nicht auf die linearität beschränkt ist.

Das Webersche Grsetzt beschreibt nichts Anderes, als die Menge der Abstufungen in einer Quantisierung, ab der Abstufungen vom Menschlichen Auge sichtbar werden und nicht mehr als flüssig wahrgenommen werden.
Das Wenersche Gesetz beschreibt nicht den Dynamikumfang eines Signals.
Insofern ist es zur Beschreibung dynamischer Bedingungen völlig ungeeignet, zumal ein möglicher Anstieg des Quantisierungsrauschens aufgrund gröberer Übertragungsabstände in den SNR gar nicht eingehen.

Was RAW vs. HEVC betrifft, so besteht der Unterschied sehr wohl in einer deutlichen Verengung der erforderlichen Bandbreite und vor Allem darin, dass der Workflow einem Videosignal entspricht und keinem Datensignal, in dem nur ein Wert pro Pixel vorliegt und der Workflow deutlich aufwändiger ist.

Space


Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
wolfgang hat geschrieben:
Ja hat den der ältere ZD9 überhaupt ein HLG Update bekommen?

Soweit ich weiß lassen sich die meisten Sonys manuell auf HDR umstellen. Aber bei den anderen Marken ist das nicht immer der Fall. Was ein Problem für die Vorschau in HLG am Schnittplatz sein kann.
Gerade erst gesehen - ja, der ZD9 kann HLG!
Danke für die Info, also wenn HLG bei dem ZD9 geht finde ich das gut. Denn der kann ja auch noch 3D.

Space



Space


Antwort von Roland Schulz:

wolfgang hat geschrieben:
"Roland Schulz" hat geschrieben:


Gerade erst gesehen - ja, der ZD9 kann HLG!
Danke für die Info, also wenn HLG bei dem ZD9 geht finde ich das gut. Denn der kann ja auch noch 3D.
Richtig, einer der letzten mit 3D!
Eigentlich ein ziemliches Top Gerät das zudem aktuell im Preis noch mal richtig runter gegangen ist, zumindest der Kleine...

Space


Antwort von Bruno Peter:

wolfgang hat geschrieben:
Was soll das mit dem Schalter bedeuten? Tut mir leid, das ist für mich Unsinn.
Mit einem "Schalter" kann man etwas umschalten..., auch im Kopf!

Space


Antwort von wolfgang:

WoWu hat geschrieben:
@Wolfgang

Davon, dass mehr Leute behaupten, dass rec709 nicht mehr als 6 Blendenstufen hat, wird es nicht richtiger.
Es zeigt nur, das mehr Leute die Recomandation nicht vollumfänglich kennen und speziell nicht den Anhang (annex 800).
Du scheinst dazu zu gehören.
Du solltest Dich lieber mal mit rec709 genauer beschäftigen.
Da ich weiß dass du immer die Theorie erzählst dass rec709 wundersamerweise so viele Blendenstufen hat, und der Annex ist ja sicherlich fesch und lustig.

Aber in der Praxis haben dann die Anwender doch ihre liebe Not mit klassischen rec709 Kameras, etwa wenn sie eine Person im Inneren eines normal beleuchteten Raumes gegen ein helles Fenster so belichtet zu wollen dass es so erscheint wie es das menschliche Auge sieht: nämlich dass man beides erkennt. Komischerweise habe ich das Problem mir slog meiner FS7 halt nicht mehr, denn die hat einfach den nötigenDynamikumfang in so einer Situation.

Und daher braucht es kein Studium deines kleinen Annex, nur um zu wissen was halt bisher in der nüchternen Praxis ohne Zusatzmittel nicht gegangen ist. Es reicht sich anzusehen was die Dinge tatsächlich leisten - statt nur Annexes zu lesen.

Space


Antwort von wolfgang:

"Bruno Peter" hat geschrieben:
wolfgang hat geschrieben:
Was soll das mit dem Schalter bedeuten? Tut mir leid, das ist für mich Unsinn.
Mit einem "Schalter" kann man etwas umschalten..., auch im Kopf!
Na dann schalte mal schön bei dir.

Space


Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
wolfgang hat geschrieben:

Danke für die Info, also wenn HLG bei dem ZD9 geht finde ich das gut. Denn der kann ja auch noch 3D.
Richtig, einer der letzten mit 3D!
Eigentlich ein ziemliches Top Gerät das zudem aktuell im Preis noch mal richtig runter gegangen ist, zumindest der Kleine...
Ja, deshalb ist der ja durchaus interessant.

Space


Antwort von Roland Schulz:

wolfgang hat geschrieben:
"Roland Schulz" hat geschrieben:

Richtig, einer der letzten mit 3D!
Eigentlich ein ziemliches Top Gerät das zudem aktuell im Preis noch mal richtig runter gegangen ist, zumindest der Kleine...
Ja, deshalb ist der ja durchaus interessant.
WENN Du einen kaufst lass' Android 6.0.1 drauf (wenn HLG interessant ist und da schon drin war).
Android 7 bringt mir keinen erkennbaren Mehrwert, macht die ganze Kiste aber spürbar langsamer. Zurück geht nix.

Space


Antwort von Bruno Peter:

"Roland Schulz" hat geschrieben:

WENN Du einen kaufst lass' Android 6.0.1 drauf (wenn HLG interessant ist und da schon drin war).
Android 7 bringt mir keinen erkennbaren Mehrwert, macht die ganze Kiste aber spürbar langsamer. Zurück geht nix.
Das grenzt ja an Körperverletzung!

Space


Antwort von Uwe:

"Bruno Peter" hat geschrieben:
.....
Zu der neuen TV-OLED Errungenschaft und HDR sagt ein Mittglied Deines Forums mit nicht gerade
wenigen Kenntnissen zum Videothema nach nur vier Tage Nutzung des neuen LG-TVs:

"Die Nutzung des ‘HDR-Effekt‘ in den Bildoptionen zeigt zwar ein sehr dynamisches Bild, das aber, wie andere HDR-Aufnahmen, die ich gesehen hatte, eher unnatürlich wirken. Das nutzt sich relativ schnell ab und man wünscht sich wieder natürliche Aufnahmen. Zumal dieser hohe Kontrast und Dynamik sehr anstrengend für die Augen ist. Gut daß ich das hier einfach durch Umschalten beseitigen kann."
......
Ganz sicher werden wir solche und ähnliche Aussagen in Zukunft öfter zu lesen bekommen. Ich vermute mal, dass viele am Anfang nicht bereit sind, sich auf "neue Sehgewohnheiten" einzulassen und/oder sie sich gleich zuerst die schlecht gemachten Serien reinziehen. Und einige werden sich wahrscheinlich nie an diesen Look gewöhnen können. Ist ja auch alles OK. Ich für meinen Teil bin von HDR-Serien wie "Der Mann im hohen Schloss", die von Ridley Scott produziert wurde oder die neue Serie von David Fincher "Mindhunter" begeistert. Man wird abwarten müssen, wie sich das Ganze weiter entwickelt...

Space


Antwort von Whazabi:

WoWu hat geschrieben:
@whazabi

Nochmal ... in Deinem verlinkten BBC Papier geht es um die transferefunktion, die in Tv Geräten zur Verarbeitung kommt, nicht aber um Übertragungsfunktionen der Kamera.
Da in TV Geräten aber rec 709 in der linearen Ausformung benutzt wird und nicht, wie in der Übertragung der Kamera möglich, auch in der Audformung Annex 800, ist das verlinkte Papier von sehr begrenzter Relevanz für die hier diskutierte High Gamma Überttagungsfunktion in Kameras.
Also HDR vs. 709.
Kein Mensch käme auf die Idee, lin. 709 in HDR als EOTF einzusetzen.
Und die normale REC.709 OETF unterscheidet sich signifikant von der EOTF? Ich dachte das wären einfach zueinander inverse Funktionen.
Über die Rec.709 800% rede ich hier gar nicht. Das ist eine andere Kruve. Nur weil 709 draufsteht is das ja nicht das selbe. Genauso könnte ich HEVC als Erweiterung von AVC bzw. letztlich als Erweiterung zu MPEG2 sehen und sagen klar krieg ich mit MPEG2 so ne gute Kompression hin, schau dir doch H.265 an.
Mir geht es ausschließlich um die reguläre 709 und darauf bezog sich meine Aussage mit den 6 Blenden.
Und linear ist letztlich keine der Kurven. Weder 709 noch HLG noch PQ oder diverse Log Kurven.
Das Webersche Grsetzt beschreibt nichts Anderes, als die Menge der Abstufungen in einer Quantisierung, ab der Abstufungen vom Menschlichen Auge sichtbar werden und nicht mehr als flüssig wahrgenommen werden.
Das Wenersche Gesetz beschreibt nicht den Dynamikumfang eines Signals.
Insofern ist es zur Beschreibung dynamischer Bedingungen völlig ungeeignet, zumal ein möglicher Anstieg des Quantisierungsrauschens aufgrund gröberer Übertragungsabstände in den SNR gar nicht eingehen.
Dann frag ich mal ganz dumm: Warum soll ich dann überhaupt mehr als 8 bit verwenden? Wenn das Quantisierungsrauschen für die Dynamik keine Rolle spielt?
Was RAW vs. HEVC betrifft, so besteht der Unterschied sehr wohl in einer deutlichen Verengung der erforderlichen Bandbreite und vor Allem darin, dass der Workflow einem Videosignal entspricht und keinem Datensignal, in dem nur ein Wert pro Pixel vorliegt und der Workflow deutlich aufwändiger ist. Also ich bezweifle, dass du mit HEVC lossless eine deutlich geringere Datenrate, als mit RAW hinbekommst. Einfach auf Grund der Tatsache, dass du bei RAW in der Regel nur ein Drittel der Daten speichern musst und diese dann nochmal durch das RAW Format im Faktor von ca. 2:1 lossless komprimiert werden. Wenn ich mich nicht täusche gelingt HEVC lossless eine Komprimierung von etwas mehr als 3:1. Da wäre man dann auf Augenhöhe mit unkomprimiertem RAW.
Mit near lossless HEVC geht das eher. Das könnte man sogar evtl. für Kameras nutzen nur bin ich da nicht tief genug mit der Materie vertraut um das jetzt Knall auf Fall beurteilen zu können. Aber auch da gilt du tauschst Datenrate gegen Qualität.
Dass ein RAW Workflow deutlich aufwändiger sein soll stimmt so auch nicht immer. Die Blackmagic Kameras machen's vor. Von dort kann ich das Material 1:1 in Resolve oder Premiere oder sonstigen NLEs, die CinemaDNG als Format unterstützen, als Videoclips reinzihen. Bei vielen anderen bekannten RAW Formaten von RED oder ARRI ist der Aufwand mittlerweile ähnlich einfach. Bleibt letztlich nur die große Datenmenge als Minuspunkt.

@Uwe:
Ich glaube, dass manche Videostreams heute auch die neuen Möglichkeiten von HDR sehr exzessiv nutzen um einen tollen Effekt zu bekommen. Wenn sich die Coloristen mehr mit HDR außeinandergesetzt haben und ein Verständnis dafür entstanden ist, wie man richtig in HDR gradet, dann denke ich werden viele der angesprochenen "unnatürlichen Effekte" verschwinden. Viele Filme, die nicht auf Effekthascherei aus sind, haben heute schon ein gutes HDR Bild. Es fällt halt dann nicht so sehr auf, denn die Vorteile von HDR sind - richtig eingesetzt - häufig eher subtil aber dafür wirkungsvoll ;)

Space


Antwort von Uwe:

Whazabi hat geschrieben:
...................
@Uwe:
Ich glaube, dass manche Videostreams heute auch die neuen Möglichkeiten von HDR sehr exzessiv nutzen um einen tollen Effekt zu bekommen. Wenn sich die Coloristen mehr mit HDR außeinandergesetzt haben und ein Verständnis dafür entstanden ist, wie man richtig in HDR gradet, dann denke ich werden viele der angesprochenen "unnatürlichen Effekte" verschwinden. Viele Filme, die nicht auf Effekthascherei aus sind, haben heute schon ein gutes HDR Bild. Es fällt halt dann nicht so sehr auf, denn die Vorteile von HDR sind - richtig eingesetzt - häufig eher subtil aber dafür wirkungsvoll ;)
Genau mein Reden. Ich bin ja selbst noch in der "Experimentier-Phase". Meine ersten Test-Ergebnisse waren grauenhaft - vor allen Dingen in Sachen Farben und Kontrasten. Aber es bringt Spaß sich da weiter rein zu arbeiten. Und z.B. "Mindhunter" verkörpert imho genau das, was Du sagst mit "denn die Vorteile von HDR sind - richtig eingesetzt - häufig eher subtil aber dafür wirkungsvoll ;)"

https://www.youtube.com/watch?v=7gZCfRD_zWE

Space


Antwort von WoWu:

Nochmal
Recommendation 709 beschreibt nicht nur die Gammkurve 2.4 (die allgemein als linear bezeichnet wird) sondern auch diverse Erweiterungen, einschließlich einer Hyper log ähnlichen Funktion, im Annex 800 beschrieben und seit nunmehr fast 20 Jahren von Firmen, wie SONY als 709(800) in ihren Kameras eingesetzt.

Wenn Du unter 709 ausschließlich die (quasi) Lineare Funktion verstehst, erklärt sich der Dosput, der einfach nur darauf zurückzuführen ist, dass Du die Rec709 nicht kennst.
Aber dann haben wir das ja endgültig geklärt und können festhalten, dass REC709 im Anhang 800 bis zu 12 Blenden bereitstellt.
Genau das war mein Ausgangpunkt, denn wenn wir über die HLG der Kamera sprechen, dann sind die zusätzlichen Blenden eben nichts neues und können gleichwohl auch in Rec 709 dargestellt werde.
Und nun komm mir bitte nicht wieder mit Deinen 6 Blenden.
Wir vergleichen hier quasi identische Hybridkurven und keine Gammakorrektur in TV Geräten.

"Das ist eine andere Kruve. Nur weil 709 draufsteht is das ja nicht das selbe. Genauso könnte ich HEVC als Erweiterung von AVC bzw. letztlich als Erweiterung zu MPEG2 "

Die Rec, die über 20 Jahre als Ersatz eines Standards hergehalten hat, definiert alle Möglichkeiten eines solche Standards.
709 definiert ja auch 10 Bit. Nach Deinet Logic wäre das ja auch etwas anderes, das nicht mit 709 zu tun hat.
Tut es aber eben nicht .... es ist ein und derselbe Standard, den Dir vermutlich nur in Teilen geläufig ist.

Bei deinem HEVC vs. AVC handelt es sich aber um völlig unterschiedlichbeschriebene Standards.
Um in einem korrekten Vergleich zu bleiben, entsprächen die verschiedenen Rec 709 Formate im Codecvergleich den unterschiedliche Profiles und Level.
Mit Deinem Vergleich zeigst Du, dass Du die Inhalte der jeweiligen Standards bzw. Empfehlungen gar nicht kennst.
Und weil wir gerade bei Codecs sind .... auch hier vergleichst Du munter Äpfel mit Birnen, denn einige der genannten "RAWs" sind Videoformate, die bereits ein De-Bayering durchlaufen haben, insofern also gar keine Datenformate mehr, die ein echtes RAW kennzeichnen.
Insofern ist Deine Einlassung da ziemlich unsubstantiell.

Letzter Punkt, Webersches Gesetz.
In dem Gesetz geht es in keiner Weise um irgendwelches Quantisierungsrauschen sondern darum, welche Augenenpfindlichkeit noch welche Menge an Quantisierungsstufen als flüssig wahrnimmt und welche Abstufungen nicht mehr.
Diese Erkenntnis liegt auch im HDR Bereich der Barten Ramp zugrunde.

Dass bei groben Abstufungen das Quantisierungsrauschen anhebt ist unbestritten nur liegt es in seiner stochastischen Verteilung weit unter dem Bereich, anderer Rauschwerte und hat daher keinen nennenswerten Einfluss auf die SN Ratio der Kamera, die letztlich der Bestimmung des Dynamikumfang zugrunde liegt.

Wie gesagt ... mit einwenig besserem Verständnis der Grundlagen hätten wir auch nicht solange aneinander vorbei geredet.

Fakt ist, um auf den Ausgangspunkt zurück zu kommen, dass Übertragungsfunktionen, wie sie mit der HLG hier besprochen wird, gibt es in REC 709 seit 20 Jahren, mit rd. 12 Blenden Übertragungsumfang.
HLG ist also keine Erfindung des 21.Jahrhunders.
Lediglich der Umstand, dass man den oberen Teil der Übertragungsfunktion (709 lin) zukünftig auch in TV Geräten im LOG fortführt, ist neu.
Das ist aber auch alles und hat eigentlich nichts mit der Übertragungsfunktion einer Kamera zu tun. Sie wird nur zufällig dort auch angewendet.

Space


Antwort von Roland Schulz:

...nochmal zurück zur ohne Frage interessanten Kamera und zu Sony's übergreifender Motivation HDR auch als 8bit zu vermarkten - haltet ihr das für valide und wenn ja warum?!
Ich finde HDR und HLG nur als 10-/12bit definiert, 8bit ist dafür nicht vorgesehen soweit ich das überblicke.

Space


Antwort von rush:

@ Roland: Wer bspw. Slog in 8Bit nutzt - wird auch wenig Berührungsängste haben sich mal mit HLG @ 8Bit zu beschäftigen...

Space


Antwort von Alf_300:

hdr= 8 bit
HDR10= 10 bit statisch
Dolby Vison= 12 bit dynanmisch

Space


Antwort von Whazabi:

WoWu hat geschrieben:
Wenn Du unter 709 ausschließlich die (quasi) Lineare Funktion verstehst, erklärt sich der Dosput, der einfach nur darauf zurückzuführen ist, dass Du die Rec709 nicht kennst.
Nein es ist vielmehr darauf zurückzuführen, dass ich ausschließlich von der "normalen" Rec.709 geredet habe, wie in meinen vorigen Posts auch immer geschildert. Die 709 800% hast du letztlich dann ins Feld geführt.
Die Rec, die über 20 Jahre als Ersatz eines Standards hergehalten hat, definiert alle Möglichkeiten eines solche Standards.
709 definiert ja auch 10 Bit. Nach Deinet Logic wäre das ja auch etwas anderes, das nicht mit 709 zu tun hat.
Tut es aber eben nicht .... es ist ein und derselbe Standard, den Dir vermutlich nur in Teilen geläufig ist.
Ich denke nicht dass irgendwer diesen Standard vollumfänglich in und auswendig kennt. Die meisten kennen, den Teil der für ihre Arbeit relevant ist und das reicht ja auch. Den REst kann man zur Not wieder nachlesen.
Bei deinem HEVC vs. AVC handelt es sich aber um völlig unterschiedlichbeschriebene Standards.
Um in einem korrekten Vergleich zu bleiben, entsprächen die verschiedenen Rec 709 Formate im Codecvergleich den unterschiedliche Profiles und Level.
Ich denke der hauptsächliche Unterschied ist dass wir mal wieder aneinander vorbeireden. Ich beziehe mich hauptsächlich auf die Technik die dahinter steht, um Ähnlichkeiten aufzuzeigen und du gehst nach der Bezeichnung in ihrem Standard.
Und weil wir gerade bei Codecs sind .... auch hier vergleichst Du munter Äpfel mit Birnen, denn einige der genannten "RAWs" sind Videoformate, die bereits ein De-Bayering durchlaufen haben, insofern also gar keine Datenformate mehr, die ein echtes RAW kennzeichnen.
Insofern ist Deine Einlassung da ziemlich unsubstantiell.
Dann nenn mir doch mal konkret welcher den von mir aufgezählten RAW Codecs bereits debayert ist. Bei Blackmagic ist es definitiv nicht so, bei RED und ARRI meines Wissens nach auch nicht.
Es würde auch dem Konzept eines RAW-Codecs für einen Sensor mit Bayerpattern zuwider laufen das Debayering bereits im RAW File durchzuführen, da du dann eben keine Sensordaten mehr vorliegen hast. Da Debayering je nach Implementierung ein irreversibler Vorgang ist, kannst du in so einem Fall die Sensordaten auch gar nicht mehr zurückgewinnen.
Letzter Punkt, Webersches Gesetz.
In dem Gesetz geht es in keiner Weise um irgendwelches Quantisierungsrauschen sondern darum, welche Augenenpfindlichkeit noch welche Menge an Quantisierungsstufen als flüssig wahrnimmt und welche Abstufungen nicht mehr.
Diese Erkenntnis liegt auch im HDR Bereich der Barten Ramp zugrunde.

Dass bei groben Abstufungen das Quantisierungsrauschen anhebt ist unbestritten nur liegt es in seiner stochastischen Verteilung weit unter dem Bereich, anderer Rauschwerte und hat daher keinen nennenswerten Einfluss auf die SN Ratio der Kamera, die letztlich der Bestimmung des Dynamikumfang zugrunde liegt.
Wenn du das Webersche Gesetz jetzt aber zB hernimmst und nichts anderes machst als deine gegebenen Werte einzusetzen, also Gamma, Leuchtdichte, Quantisierung, dann erhältst du einen Wert, der eine Aussage darüber trifft wie stark das Banding in diesem Bereich durch den Menschen wahrnehmbar ist. Dementsprechend triffst du dadurch aber eben eine Aussage über das Quantisierungsrauschen. Keine absolute, sondern natürlich immer in Relation zur menschlichen Wahrnehmung. Aber das ist ja auch außreichend solange ich nur Menschen mit meinem Video bespaßen will.
Deswegen frage ich dich nochmal: Wenn es jetzt - wie du sagst - so wäre, dass das sichtbare Quantisierungsrauschen in Form von Banding vernachlässigbar für die Aufzeichnung der Bilddynamik eines Kamersensors ist, warum brauche ich dann deiner Meinung nach mehr als 8bit? Es geht nicht um die Bestimung der Dynamik des Sensors, sondern des fertigen, von der Kamera produzierten, Videosignals.
Wie gesagt ... mit einwenig besserem Verständnis der Grundlagen hätten wir auch nicht solange aneinander vorbei geredet. Ich würde eher behaupten mit ein wenig mehr Textverständnis, denn ich mache seit mehreren Posts eigentlich nichts anderes als meine Aussagen immer leicht abgewandelt zu wiederholen.
Deswegen gehen mir so langsam die Ideen aus, wie ich dir meinen Standpunkt noch erklären soll, da du anscheinend essentielle Aussagen meiner Posts gerne überliest und nur das wahrnimmst, was du gesehen haben willst. Zumindest habe ich diesen Eindruck.
Fakt ist, um auf den Ausgangspunkt zurück zu kommen, dass Übertragungsfunktionen, wie sie mit der HLG hier besprochen wird, gibt es in REC 709 seit 20 Jahren, mit rd. 12 Blenden Übertragungsumfang.
HLG ist also keine Erfindung des 21.Jahrhunders.
Lediglich der Umstand, dass man den oberen Teil der Übertragungsfunktion (709 lin) zukünftig auch in TV Geräten im LOG fortführt, ist neu.
Das ist aber auch alles und hat eigentlich nichts mit der Übertragungsfunktion einer Kamera zu tun. Sie wird nur zufällig dort auch angewendet.
Da würde ich dir auch nur teilweise zustimmen. Also ja mit ner 709 800% bekommst du bestimmt eine sehr ähnliche Dynamik hin wie mit HLG (ohne das jetzt genau nachzurechnen). Neben dem größeren Farbraum ist allerdings auch das Konzept, welches du anscheinend als kleinen Randnotiz wahrnimmst, dass es eine passende OETF/EOTF Kombi mit höherem Dynamikumfang gibt, eben neu und das ist der wesentliche Vorteil an HLG. Es ist quasi ein point and shoot HDR. In meinen Augen ist das viel wert, da es den Prozess der Erzeugen von HDR Material nochmal deutlich vereinfacht und in sofern auch sehr zur akzeptanz von HDR beitragen dürfte.
Vor allem bei vielen Youtubern würde ich sehr stark davon ausgehen, dass sich normalerweise niemand mit HDR herumschlagen würde, da viele eben einfach point and shoot machen. Ist ja auch ein valider Ansatz.
Wenn es jetzt aber auf einmal heißt, hey du musst deine Kamera eigentlich nur auf HLG stellen und der Rest passiert automatisch, dann ist das ein Aufwand, den bestimmt auch der technisch am wenigsten versierteste Youtuber bereit ist einzugehen.

@Roland:
Naja HDR an und für sich ist ja kein geschützter Begriff. Bedeutet einfach nur, dass du einen höheren Dynamikumfang als normalerweise bekommst. Stellt sich halt immer die Frage: Was ist normal?
Ja prinzipiell kann man auch für 8bit Kameras mit HDR werben, aber es ist nicht ganz redlich wie ich finde, denn in der Praxis wird man dann durch die niedrige Quantisierung häufig stark eingeschränkt.
Ehrlicher wäre es die Quantisierung mit einzubeziehen als zb: "Die neue Sony Kamera jetzt auch mit HDR-8"
Aber Kapitalismus und Ehrlichkeit sind halt zwei paar Schuhe ...

Space


Antwort von Uwe:

"Roland Schulz" hat geschrieben:
...nochmal zurück zur ohne Frage interessanten Kamera und zu Sony's übergreifender Motivation HDR auch als 8bit zu vermarkten - haltet ihr das für valide und wenn ja warum?!
................
Wenn man "valide" als gültig versteht hab ich jedenfalls bis jetzt nichts gegenteiliges gefunden. Wenn man es als "gute Lösung" interpretiert, dann sicherlich nicht. Die Gefahr von Banding in den Lichtern ist sicherlich größer als bei 10bit...etc. Das Log-Material der GH4 in 8bit war schrecklich. Sony hat sich da bestimmt ein bisschen mehr Mühe gegeben - ich bin gespannt. Außerdem habe ich die Vermutung, dass das HLG der Sony auch nur auf Sony HDR-TV's wiedergegeben werden kann - nicht wegen 8/10bit, sondern einfach aufgrund des Codecs (kein HEVC) - muß man abwarten. Ich persönlich würde mir in der heutigen Zeit keine Kamera mehr antun, die kein 10bit anbietet...

https://www.youtube.com/watch?v=xVjo2G-c01s

Space


Antwort von wolfgang:

WoWu hat geschrieben:
Nochmal
Recommendation 709 beschreibt nicht nur die Gammkurve 2.4 (die allgemein als linear bezeichnet wird) sondern auch diverse Erweiterungen, einschließlich einer Hyper log ähnlichen Funktion, im Annex 800 beschrieben und seit nunmehr fast 20 Jahren von Firmen, wie SONY als 709(800) in ihren Kameras eingesetzt.
Uninteressant weil in kaum eine Kamera implementiert. Und dort wie ich das habe (FS7), habe ich auch die besseren slog Funktionen.
WoWu hat geschrieben:
Wenn Du unter 709 ausschließlich die (quasi) Lineare Funktion verstehst, erklärt sich der Dosput, der einfach nur darauf zurückzuführen ist, dass Du die Rec709 nicht kennst.
Aber dann haben wir das ja endgültig geklärt und können festhalten, dass REC709 im Anhang 800 bis zu 12 Blenden bereitstellt.
Wer behauptet das rec709 12 Blenden hätte, der hat mal wieder nicht die Praxis verstanden. Und zwar weder die Realität der Kameras noch die Realität der Sichtgeräte. Dort ist nämlich ganz und gar nix von 12 Blendenstufen implementiert.

Space


Antwort von Bruno Peter:

Uwe hat geschrieben:
Ich persönlich würde mir in der heutigen Zeit keine Kamera mehr antun, die kein 10bit anbietet...
Das Angebot ist ja derzeit für Hobbyfilmer sehr mager oder überhaupt nicht vorhanden unter 1000 €uro
die man sich erst einmal erarbeiten muss!

Space


Antwort von wolfgang:

Whazabi hat geschrieben:
WoWu hat geschrieben:
Wenn Du unter 709 ausschließlich die (quasi) Lineare Funktion verstehst, erklärt sich der Dosput, der einfach nur darauf zurückzuführen ist, dass Du die Rec709 nicht kennst.
Nein es ist vielmehr darauf zurückzuführen, dass ich ausschließlich von der "normalen" Rec.709 geredet habe, wie in meinen vorigen Posts auch immer geschildert. Die 709 800% hast du letztlich dann ins Feld geführt.
So ist es. Und leider packt WoWu bei diesem Punkt seit geraumer Zeit den Unterschied zwischen der Theorie, und dem was er im Annex nachliest, einfach nicht. Schade.
Whazabi hat geschrieben:
@Roland:
Naja HDR an und für sich ist ja kein geschützter Begriff. Bedeutet einfach nur, dass du einen höheren Dynamikumfang als normalerweise bekommst. Stellt sich halt immer die Frage: Was ist normal?
Ja prinzipiell kann man auch für 8bit Kameras mit HDR werben, aber es ist nicht ganz redlich wie ich finde, denn in der Praxis wird man dann durch die niedrige Quantisierung häufig stark eingeschränkt.
Ehrlicher wäre es die Quantisierung mit einzubeziehen als zb: "Die neue Sony Kamera jetzt auch mit HDR-8"
Aber Kapitalismus und Ehrlichkeit sind halt zwei paar Schuhe ...
Es ist weder redlich noch sonderlich sinnvoll und natürlich ein kapitalistischer Wirtschaftstrick .... aber wenn man sich das erste Demomaterial der Sony 700er anschaut, dann macht das keinen schlechten Eindruck. Ja es gibt zwischen HLG und SDR den bereits bekannten Luminanzsprung, aber normgerecht abgespielt ist das auf den Geräten noch ok.

In der Praxis kommt Sony mit dem nicht nur deswegen durch, weil sie einfach die Marktmacht haben damit durch zu kommen. Sondern weil es genug Anwender gibt, denen die HLG-Funktion (mit einfachen Schnitten) durchaus einen Mehrwert bieten werden. Auf SDR-Displays ebenso anschaubar wie auf HDR-Displays, und keiner muss sonderlich viel graden. Und weil keiner viel graded zerfällt das Material bei einem einfahen Schnitt auch nicht sonderlich.

Wer das nicht will - bitte GH5 kaufen, die hat auch HLG und 10bit in UHD.

Space


Antwort von Uwe:

"Bruno Peter" hat geschrieben:
Uwe hat geschrieben:
Ich persönlich würde mir in der heutigen Zeit keine Kamera mehr antun, die kein 10bit anbietet...
Das Angebot ist ja derzeit für Hobbyfilmer sehr mager oder überhaupt nicht vorhanden unter 1000 €uro
die man sich erst einmal erarbeiten muss!
Da hast Du natürlich recht. Für mich passte das insofern ganz gut, da ich ja schon die GH2 + die GH4 hatte. Und klar, 2000-3000,- Euro für eine Hobby-Kamera ist bestimmt für einige Leute hier äußerst schmerzhaft - vielleicht überhaupt nicht zu stemmen. Ich bin aber ziemlich sicher, dass da 2018 noch einiges kommen wird - allerdings wohl auch nicht unter 1000,- Euronen...

Space


Antwort von Alf_300:

Man sollte zwei Freaks nicht alleine lassen, zum Schluß kriegen all die 8bit Cam Besitzer noch Komplexe.

Drum Wolfgang, Verfechter von 3D , kommts mit 10bit HDR genauso ?

Space


Antwort von Roland Schulz:

Die Sony HDR Nummer ist und bleibt unsauber weil es kein einziges Tech Sheet (zu finden) gibt welches HDR im Zusammenhang (Video) mit nur 8bit definiert, Sony zudem im eigenen Tech Sheet ebenfalls mit mindestens 10bit den technischen Fortschritt umwirbt, eigentlich alle Werbetrommeln im Bereich HDR Video immer mit min. 10bit rappelten.
Mit HDR8 käme ich klar, so ist das ziemlich mieses Machwerk!

@Wolfgang: Die HLG Clips sehen nicht so schlecht aus, richtig, schafft man mit ner X70 aber schon seit ein paar Monden in Cinegamma! Man hat hier lediglich die AX100 "entriegelt", sonst nix. Der AF ist natürlich ne andere Nummer!

Na ja, was soll's, ich kauf das Ding so nicht.

Space


Antwort von klusterdegenerierung:

Können wir uns denn nicht viel besser darauf einigen das HLG für fasst niemanden interessant ist, weil es ein TV Standart ist den keinen interessiert!
Zudem frage ich mich, wer von uns oder Kunde besorgt sich einen HLG tauglichen Fernseher?

Ist doch wieder son Modequatsch wie 360 VR etc. ;-)

Space


Antwort von Roland Schulz:

Na ja, ich hab schon fast nen Jahr nen 4K 12bit HDR HLG fähigen Fernseher...

HLG ist so trotzdem für die Kollekte, mit 10bit hätte das vielleicht wenigstens nen bisschen Wert gezeigt...

Space


Antwort von Alf_300:

Aber jetzt, mit Edius 9, bist Du doch wieder voll im Rennen
d.h nicht ganz denn als letzten Schritt mußt Du Dein H264 422 HDR noch in H265 wandekln.
das macht vielleicht Handbrake

Space


Antwort von Whazabi:

Stichwort Konvertierung ... mich würde mal der Workflow von anderen HDR Tüftlern hier im Forum interessieren.

Also mal abgesehen von den ganzen Settings in Davinci Resolve, die von Projekt zu Projekt immer leicht abweichen, exportiere ich von da eigentlich immer in DnxHR HQX 10 bit und konvertiere das dann mittels Hybrid entweder per NVenc wenn's schnell gehen muss, oder x265. Das funktioniert mehr oder minder problemfrei ... Hybrid hat noch ein paar kleine Bugs, die man umschiffen muss. Sonst bin ich aber eigentlich immer relativ glücklich mit den Resultaten. Auch der NVenc liefert relativ solide Ergebnisse und man kann die HDR Metadaten über ein Skript (nvhsp) gleich mit einspeisen lassen. Allerdings hat hier die GUI von Hybrid einen kleinen Bug wenn man die maxcll bzw. maxfall manuell eingeben will.
Deswegen muss ich das Skript dann im Nachhinein immer manuell durchlaufen lassen. Oder man bleibt bei den standard Settings von 1000,300

Space


Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
@Wolfgang: Die HLG Clips sehen nicht so schlecht aus, richtig, schafft man mit ner X70 aber schon seit ein paar Monden in Cinegamma! Man hat hier lediglich die AX100 "entriegelt", sonst nix. Der AF ist natürlich ne andere Nummer!

Na ja, was soll's, ich kauf das Ding so nicht.
Ich finde den Preis ein wenig heftig, da geht auch eine GH5 darum. Der Formfaktor ist halt ein anderer aber damit kann man umgehen.

Space


Antwort von Uwe:

Whazabi hat geschrieben:
...
Also mal abgesehen von den ganzen Settings in Davinci Resolve, die von Projekt zu Projekt immer leicht abweichen, exportiere ich von da eigentlich immer in DnxHR HQX 10 bit und konvertiere das dann mittels Hybrid entweder per NVenc wenn's schnell gehen muss, oder x265.
Bis jetzt immer x265. Leider hat es bei mir noch nicht geklappt, dass ich die "current settings" irgendwie speichern konnte. Ich gebe sie zwar inzwischen fast im Schlaf ein aber ein Abspeichern wäre natürlich Klasse.
Oder man bleibt bei den standard Settings von 1000,300 Bei mir 1000 + 180

Space


Antwort von Roland Schulz:

Alf_300 hat geschrieben:
Aber jetzt, mit Edius 9, bist Du doch wieder voll im Rennen
d.h nicht ganz denn als letzten Schritt mußt Du Dein H264 422 HDR noch in H265 wandekln.
das macht vielleicht Handbrake
10bit geht schon mit E8.52, hab das tatsächlich kürzlich für mich und meine Videos als kleine Verbesserung entdeckt.
Projekt auf 10bit und dann als HQX erstmal in 10bit raus. Dann über x265 in main10 High und man hat nen 10bit Video - wenn auch noch ohne HDR aber von den "Vorteilen" bin ich ohnehin noch nicht überzeugt.
Wiedergeben kann das dann direkt der ZD9 (mpc-hc gibt das mit ner GTX1060 zwar ebenfalls wieder, ob 10bit tatsächlich am TV ankommen muss ich nochmal verifizieren, die nVidia Systemsteuerung gibt zumindest nen 4:2:2 12bit Connect wieder), vom Netz werden 80Mbps allerdings schon knapp und der Kasten puffert schon mal.
Die 10bit Ausgabe von 8bit Material (a6500) macht zudem Sinn da eine Primäre Farbkorrektur so nicht mehr zu (weiteren) Verschlechterungen führt.

x265 ist nach meinen letzten Vergleichen (zumindest jetzt) auch tatsächlich besser (!!) als x264. Bisher hatte ich das nie so genau betrachtet, aber 80Mbps HEVC bügelt 100Mbps H.264 zumindest in vergrößerter Darstellung ohne Wenn und Aber!

Ab nem Apollo Lake dürfte der Schnitt von H.265 UHD 10bit 50p Material in EDIUS auch kein Problem mehr sein, mit meinem derzeitigen Skylake krankt das noch. Warte jetzt bis der 8700K verfügbar ist.

Als Aquisition scheint die Umsetzung bisher aber noch niemand so richtig effektiv hingekriegt zu haben. Bei der GH5 scheint H.264 derzeit noch besser zu sein, beim Phantom 4 Pro ebenfalls.

Wenn Pegasys jetzt noch den Hintern hochkriegt und das EDIUS Plugin mit x265 erweitert und 10bit kann wäre die EDIUS Welt auch noch mal nen Stückchen weiter - in deren Suite kriegen die das ja auch schon hin. Bis dahin bleibt der Umweg über HQX.

Space


Antwort von Alf_300:

Roland
Das war doch mal ein Bericht der Freude aufkommen läßt

Danke.

Space


Antwort von klusterdegenerierung:

"Roland Schulz" hat geschrieben:
Na ja, ich hab schon fast nen Jahr nen 4K 12bit HDR HLG fähigen Fernseher...
:-)) Roland, ich hatte jetzt eigentlich gedacht das Du seit 2 Jahren einen 8K 16Bit HDR HLG+ Fernseher hast!! ;-)))))

Space


Antwort von Whazabi:

Uwe hat geschrieben:
Bis jetzt immer x265. Leider hat es bei mir noch nicht geklappt, dass ich die "current settings" irgendwie speichern konnte. Ich gebe sie zwar inzwischen fast im Schlaf ein aber ein Abspeichern wäre natürlich Klasse.
Gehst du dann direkt über die Konsole oder nutzt du auch eine GUI. In Hybrid kann ich meine Settings auf jeden FAll speichern. Sonst kann man sich aber auch schnell ein Skript schreiben oder einfach das x265 Kommando in nem Textfile speichern.

Ist aber schon mal interessant, dass wir doch relativ ähnlich vorgehen. Gut mag auch daran liegen, dass es momentan wohl nicht wirklich viele Alternativen gibt.

@Roland
Zum Abspielen über den PC verwende ich persönlich den Potplayer in Verbindung mit madVR. Dürfte also auch auf was sehr Ähnliches wie bei dir rauslaufen. Das funktioniert soweit auch ganz stabil mit 10bit.
Das Schöne bei madVR ist ja, dass er nicht nur HDR Metadaten weiterreichen kann, sondern auch eine, je nach Einstellung, ziemlich aufwändige SDR Konvertierung machen kann. Das kann man für jedes angeschlossene Display individuell einstellen.
Alternativ schiebe ich einfach mein Video auf nen USB-Stick und schau's direkt am TV an.

Space


Antwort von Roland Schulz:

klusterdegenerierung hat geschrieben:
"Roland Schulz" hat geschrieben:
Na ja, ich hab schon fast nen Jahr nen 4K 12bit HDR HLG fähigen Fernseher...
:-)) Roland, ich hatte jetzt eigentlich gedacht das Du seit 2 Jahren einen 8K 16Bit HDR HLG+ Fernseher hast!! ;-)))))
...kann ich Geld sch...... oder was ;-)?!?!? Bin armer "Angestellter"!!! Sowas kostet min. 1.000.000.000€ ;-)!!!!!

Space


Antwort von Roland Schulz:

Whazabi hat geschrieben:
@Roland
Zum Abspielen über den PC verwende ich persönlich den Potplayer in Verbindung mit madVR. Dürfte also auch auf was sehr Ähnliches wie bei dir rauslaufen. Das funktioniert soweit auch ganz stabil mit 10bit.
Das Schöne bei madVR ist ja, dass er nicht nur HDR Metadaten weiterreichen kann, sondern auch eine, je nach Einstellung, ziemlich aufwändige SDR Konvertierung machen kann. Das kann man für jedes angeschlossene Display individuell einstellen.
Alternativ schiebe ich einfach mein Video auf nen USB-Stick und schau's direkt am TV an.
Habe auch schon mit Potplayer und MPC-BE rumhantiert die ja eigentlich alle sehr ähnlich sind, madVR ist ebenfalls drauf. Irgendwie hatte ich da bisher aber immer mal irgendwo nen Huster dazwischen, MPC-HC läuft bei mir irgendwie doch am rundesten wobei ich madVR da noch mal mit reinnehmen werde...

HDR Zeugs habe ich bisher immer mit Rechtsklick auf die Datei und "wiedergeben auf" abgespielt, sollte ähnlich sein wie die Wiedergabe vom USB Stick. Stelle aber fest dass auch HDR irgendwie nicht gleich HDR ist. Gestern noch das Tuscany Demo von Samsung geladen und abgespielt. Das sieht bei mir von den Farben und der Helligkeit ganz anders aus als im Laden, da kann ich auch drehen was ich will!


Irgendwie müllen wir jetzt den Thread hier zu, scheint aber keinen zu stören, ebensowenig wie"s einen zu stören scheint was Sony da mit 8bit HDR verbricht ;-)...

Space


Antwort von Alf_300:

Zur Erinnerung

Hier gibts jede Menge Demos, zum Download für Tests wasn was geht und was nicht.

http://demo-uhd3d.com/categorie.php?tag=hevc

Space


Antwort von Roland Schulz:

Da siehste nur keinen Unterschied ob nun das Video taugt oder die Kette wirklich 10bit+ kann.

Hab"s gerade noch mal mit nem Graukeil oben 8 unten 16 bit aus Photoshop probiert. Aus EDIUS in 10bit raus und über x265 in main10 geht mit dem MPC-HC selbst mit dem normalen EVR und DXVA2 definitiv 10bit aus ner GTX1060 raus auf den TV!!
Auf der anderen Seite ist aber auch schon irre was der Bandingfilter im TV kann. Sony nennt"s in der Werbung Superbitmapping, im TV heißts "gleichmäßige Abstufungen" und lässt sich dreistufig einstellen. Funktioniert in nem ZD9 aber auch um Welten besser als auf nem XE85!!
Eingeschaltet sieht man da keinen Unterschied mehr zwischen dem oberen Teil in 8bit und dem unteren Teil in 10bit. Denke der Filter wird so aber auch gewollte oder enthaltene Farbdifferenzierungen wegbügeln.

Space


Antwort von Uwe:

"Roland Schulz" hat geschrieben:
Irgendwie müllen wir jetzt den Thread hier zu, scheint aber keinen zu stören...
Ich hatte mal vor ein Wochen hier einen Fred aufgemacht über die HDR-Bearbeitung mit Resolve - vielleicht können wir ja da weitermachen ohne diesen thread voll zu müllen:
viewtopic.php?f=5&t=137771&start=35

@Whazabi

Ich stell Dir dort mal ne Frage

Space


Antwort von Kamerafreund:

Nein, für das Argument: Mehr bit ist bessere Qualität. Jeder Kamerahersteller kann seinen Codec aufblasen, aber das Bild wird dadurch nicht besser. Hast du den Vergleich im Video gesehen, dass ich vorher gepostet habe? Bildrauschen und Kompressionsartefakte sind die grösseren Probleme als die Bitrate..

CameraRick hat geschrieben:
Kamerafreund hat geschrieben:
OK ich gebe nach: Wenn du den hobbit drehst, nimm besser keine a7s. ;)
Das ist ein reiner Konter für das immer währende Totschlagargument "8bit wird geliefert, also muss nur 8bit gedreht werden". Was halt totaler Quatsch ist, aber spricht auch Bände dass Du Dich lieber drüber lustig machst als beim Thema zu bleiben. Tut mir halt auch leid, dass man bei euch das Signal schon beim Einliefern massakrieren muss.
"Bruno Peter" hat geschrieben:


Nicht jeder kann "dreieinhalb Lappen" auf den Tisch legen, insgesamt wird man sogar noch mehr ausgeben müssen wenn man mehr möchte als den künftigen HLG-TV-Standard.
Was ich damit sagen wollte ist, dass mancheiner (vermutlich nicht Du) 3500€ auf den Tisch legt und dennoch alte Kamellen wie 8bit-only verteidigt, als ob es keinen Sinn ergeben könnte (gerade mit dem Aufkommen von HDR etc). Wirkt wie reines Stockholm-Syndrom.
Ich bin doch selber GH5 User, weil Panasonic anscheinend verstanden hat, dass es auch Leute gibt die gerne was für ihr Geld bekommen.


Space


Antwort von WoWu:

Die Compressionsartefakte gehen weitgehend einher mit der Datenrate.
Es sei denn, die Rechenleistung der Kamera ist zu gering.
Dann werden Kompressionsalgorithemen ebenfalls an einigen punkten abgebrochen, bzw. auf bestimmte Räume im Bild beschränkt.
Dem Ganzen liegt eine Bildanalyse zugrunde, die die einzelnen Tasks steuert.
Priority processing heißt das Verfahren und wird quasi in allen Kameras mittlerweile eingesetzt.

Space


Antwort von CameraRick:

Kamerafreund hat geschrieben:
Nein, für das Argument: Mehr bit ist bessere Qualität. Jeder Kamerahersteller kann seinen Codec aufblasen, aber das Bild wird dadurch nicht besser. Hast du den Vergleich im Video gesehen, dass ich vorher gepostet habe? Bildrauschen und Kompressionsartefakte sind die grösseren Probleme als die Bitrate..
Natürlich ist nicht mehr Bit gleich besser, aber dann ist das Problem eben nicht die Bittiefe sondern weil es anderen Orts fehlt.
Warum verteidigst Du nochmal minderwertiges Material? Ich habe nicht den Eindruck, dass Du überhaupt mehr willst, weil es in Deinem Workflow nichts bringen kann. Das verstehe ich, und das ist legitim. Wieso Du aber der Ansicht bist dass deswegen niemand "mehr" brauchen oder wollen sollte, das erschließt sich mir nicht.

Kompressionsartefakte sind ein riesiges Problem, die sehe ich auch gerade bei Sony. Gerade im XAVC-S, aber auch in großen XAVC-Formaten mit zu geringer Datenrate (zB der 240Mbit All-I, Katastrophe).

Space


Antwort von WoWu:

Ich glaube, in der Diskussion von 8vs.10 Bit werden immer ein paar Dinge vermischt.
Einmal, was 8Bit zu leisten in der Lage ist und ob man mit 8 Bit im Workflow auskommt.
Das sind zwei paar Schuhe.
Schau Dir mal solche 8 Bit Kopien wie „Lawless“ bei youtube an.
Da wirst Du sicher nicht sagen, das sei eine mangelhafte Qualität denn es zeigt sehr deutlich, was man in 8 Bit an Dynamik übertragen kann.
Und wenn 8Bit solche Qualiäten enthält (und das siehst Du ja an dem Beispiel - und ich könnte noch eine ganze Menge andere Beispiele anführen), dann scheint 8 Bit offenbar doch nicht ganz so schlecht zu sein, wie sein Ruf bei manchen Anwendern.

Problem ist eben nur, dass 8Bit keine großen Experimente in der Postproduktion zulässt.
Entweder stimmt alles, einschließlich Licht und OETF oder es stimmt eben nicht.
Was Du in dem Beispiel siehst, ist natürlich die Abtastung eines Films, der eine entsprechend hohe Qualität hatte, aber das, was Du siehst, sind 8Bit mit all den Unzulänglichkeiten in Sachen Farbraum, Linearität usw.
Es liegt also nicht an den 8Bit, sondern am Workflow, der davor liegt.
Den zu gestalten ist sicher nicht so ganz einfach, prägt aber das Bild ganz wesentlich, wie man an dem Beispiel sehen kann.
Wäre es aber auch nicht wenn Du dieselben Fehler in 10Bit machst.
Das simple Benutzen von 10 statt 8 Bit, bringt Dich also nicht viel weiter denn bis auf einwenig höhere Fehlertolleranz in mancherlei Hinsicht und einem andern optischen Eindruck auf 10Bit TV Geräten, bringt Dir 10 Bit wenig.

Wir arbeiten übrigens seit den 90er Jahren in 10 Bit im Workflow, aber neben einigen technischen Aspekten, eher aus wirtschaftlicher Sicht und nicht aus der Überzeugung, dass man in 8Bit nicht auch gute Ergebnisse erzielen kann.

Space


Antwort von iasi:

das ist keine neue Erkenntnis

der Camera-Shootout 2012 zeigte kaum Unterschiede beim Ergebnis zwischen GH2 und Alexa/Red und Co. ... aber eben doch in der Arbeitsweise.

8bit muss beim Dreh 100% stimmen - das erhöht den Aufwand beträchtlich. Mehr Zeit und mehr Mittel sind erforderlich ... und dies bei einer kontrollierten Studio-Situation.

10bit ermöglicht eine Arbeitsweise, die auf den Gestaltungsspielraum in der Post bauen lässt. Dadurch spart man eben auch immer knappe, teure und wertvolle Drehzeit.

Dieser Spielraum ist bei Außenaufnahmen zudem oft notwendig, wenn die absolute Lichtkontrolle nicht gegeben ist.

Mit vorhandenem Licht zu filmen und/oder lange Aufnahmen mit viel Kamerabewegung erfordern diesen Spielraum in der Post - Bsp. Birdman.

Mehr als 8bit sind technisch ebenso möglich wie mehr als FHD ... weshalb also diese Kastration ... für Filmer sind die neuen Sony- und Nikon-Knippsen olles Klump ...

Space


Antwort von WoWu:

Jau, damit bestätigst Du, dass es sich bei 8 Bit um kein schlechtes Signal handelt, nur wer auf „I’ll fix it in the post“ aus ist, oder möglichst schnell und billig produzieren will oder keine wirkliche Ahnung von dem hat, was er da am Set technisch zu leisten hat, 8 Bit kaum geeignet ist, sofern hohe Qualitätsansprüche gestellt werden.

Damit ist doch klar, dass es nicht an 8Bit liegt, sondern an den (mehr oder weniger schlechten) Rahmembedingungen, unter denen produziert wird.
Alles klar, dann soll sich aber auch keiner über 8Bit beschweren, wenn sie nicht vernünftiges damit anfangen können.

Space


Antwort von iasi:

WoWu hat geschrieben:
Jau, damit bestätigst Du, dass es sich bei 8 Bit um kein schlechtes Signal handelt, nur wer auf „I’ll fix it in the post“ aus ist, oder möglichst schnell und billig produzieren will oder keine wirkliche Ahnung von dem hat, was er da am Set technisch zu leisten hat, 8 Bit kaum geeignet ist, sofern hohe Qualitätsansprüche gestellt werden.

Damit ist doch klar, dass es nicht an 8Bit liegt, sondern an den (mehr oder weniger schlechten) Rahmembedingungen, unter denen produziert wird.
Alles klar, dann soll sich aber auch keiner über 8Bit beschweren, wenn sie nicht vernünftiges damit anfangen können.
Dein Beitrag hier zeigt mal wieder, dass du dich weit mehr mit der Theorie der Codecs als mit der Produktionspraxis beschäftigst.

Hast du dich eigentlich schon mal gefragt, weshalb die Knippsen nicht auch nur JPGs bieten.
Wahrscheinlich, weil die Fotografen alle unfähig sind, auch nur ein ordentliches Bild zu machen.

Ich wußte zudem gar nicht, dass auch US-Produktionen so schlechte Rahmembedingungen bieten, dass sie alle nach dem Prinzip „I’ll fix it in the post“ arbeiten müssen.

Wer wirklich denkt, er müsse mit Digitalkameras wie mit Sofortbildkameras arbeiten, der hat noch nicht erkannt, welche Möglichkeiten sie bieten.

Space


Antwort von Jott:

Hier geht‘s doch um 8Bit vs. 10Bit? Bisher warst du doch kompromissloser raw-Verfechter, jetzt reicht dir gebackenes 10Bit auch schon zum „Rauskitzeln“ (bzw. vermurkste Aufnahmen retten)? Schau an.

Space


Antwort von iasi:

Jott hat geschrieben:
Hier geht‘s doch um 8Bit vs. 10Bit? Bisher warst du doch kompromissloser raw-Verfechter, jetzt reicht dir gebackenes 10Bit auch schon zum "Rauskitzeln" (bzw. vermurkste Aufnahmen retten)? Schau an.
Es geht darum, ob 8bit noch zeitgemäß ist.
Natürlich ist mir RAW lieber, aber ich bin dann doch auch so realistisch, dass ich bei 2k€ oder Fotokameras aktuell kaum mehr als 10bit erwarte - aber die sollten es zumindest sein.
Mit 8bit kann man letztlich in der Post gar nichts anstellen - 10bit bietet zumindest einen gewissen Spielraum.

Wer hier übrigens immer an "vermurkste Aufnahmen retten" denkt, der hat schlicht keine Ahnung - so direkt muss ich"s mal sagen.

Space


Antwort von wolfgang:

Na wenn uns jetzt der WoWu erklärt, dass 8bit ja so toll seien, und das nachdem er uns hier jahrelang erklärt hat, er würde keine 8bit Kamera mehr kaufen ....


.... dann ist das für mich eine interessante Kehrtwende. Die ebenso interessant wie absurd klingt.

Keine Frage dass man mit 8bit super filmen und liefer kann, auch wenn der kleine verlinkte Spielfilm auch nicht in 8bit produziert worden ist. Nur wie sah den der workflow dazwischen aus?

Aber bitte dann bei 8bit nur geringfügige Bachbearbeitung und eher zarte Korrekturen, denn in der Postpro liegt ja eher die Vorteile von 10bit. Mal abgesehen dass 10bit in Zukunft von HDR10 oder auch HLG gefordert werden (nicht aber von Dolby Vision, die wollen 12bit).

Aber es soll doch jeder filmen wie er mag. Die Vor- oder Nachteile hat ja auch jeder selbst.

Space


Antwort von iasi:

http://www.zacuto.com/revenge-of-the-gr ... otout-2012

Das Ergebnis ist dabei nicht das wirklich Interessante.
Leider finde ich sie nicht mehr, aber es gab auch detailierte Informationen zur Ausleuchtung, zum Zeitaufwand und zum Workflow der einzelnen Kamerateams.
Die 8bit-Leute mussten dabei sehr viel mehr Zeit und Leuchtmittel während der Aufnahme einsetzen, während die anderen mit weniger Drehzeit und Aufwand ihre Ergebnisse erzielten.

Dabei handelte es sich um Studioaufnahmen, bei denen die Lichtverhältnisse stabil blieben.
Auch waren die Kamerabewegung minimal und der Bildausschnitt änderte sich kaum, was das Ausleuchten ziemlich erleichterte.
Man denke nur mal an eine Kamerafahrt, bei der kaum ein Eck außerhalb des Bildes mehr für die Leuchtmittel bleibt.

Gerade bei leichten, sehr mobilen Kameras auf Gimbals müssten mindestens 10bit Pflicht sein.

Space


Antwort von Roland Schulz:

Ich denke alle hier haben ein ganzes Stück weit Recht - auch heute kann man mit 8bit noch sehr gut produzieren und ablefern, für "notwendige Farb- und Kontrastkorrekturen" reicht das allemal aus!
Wenn wir zuhause nur einen Bruchteil von dem kriegen würden was moderne 8bit Kameras zu leisten vermögen könnten wir schon glücklich sein!!
Auch vergessen darf man nicht dass die teilweise vierfach höhere Auflösung von UHD gegen FHD durch "Rauschen", nein, natürliches Dither ;-) Nachteile anteilig kompensieren kann.

Im aktuellen Beispiel dreht Sony weiter an der Gewinnspirale. Technisch sollte es heute gar kein Problem sein 10bit oder mehr auch aus nem wirtschaftlich lukrativen Sensor auszulesen, Panasonic macht das vor.
Ist eine GH5 jetzt deshalb besser als eine a6500 oder Top-a7?! Ich denke nicht da der Sensor immer noch ein schlechteres SNR und weniger DR aufweist. Am Ende sind die Resultate noch halbwegs in Waage und Sony verkauft soviel wie Panasonic. Morgen kann man durch 10bit usw. dann aber nochmal ne Kamera bewerben und verkaufen - das braucht die Industrie zum überleben, gerade jetzt!!

"Ich" persönlich hätte auch lieber heute als morgen ne a7000 mit 10bit, min. 200Mbps in vernünftigem HEVC und 50p, betriebswirtschaftlich gesehen ist das aber suboptimal weil's dann für übermorgen noch keine neue Innovation gibt.
Sony ist gerade zumindest im Kamerabereich mit Overboost auf der Überholspur - da werden die keine zu großen Sprünge machen um das Geschäft absehbar auszubremsen. Man darf auch nicht vergessen dass das primär immer noch Fotokameras sind und da einiges zu bieten haben, sich bei den alten Platzhirschen eigentlich jeden Tag nen weiterer Manager hängen müsste...

Was allerdings gar nicht geht ist der HDR/HLG BETRUG!!

Space


Antwort von iasi:

"Roland Schulz" hat geschrieben:

Ist eine GH5 jetzt deshalb besser als eine a6500 oder Top-a7?! Ich denke nicht da der Sensor immer noch ein schlechteres SNR und weniger DR aufweist.
Die GH5 ist besser.
Allein schon, da sie die Möglichkeiten der Post eröffnet.
DR? Hohen Kontrasten kann man recht leicht entgegen wirken - oft genügt schon ein Reflektor. Wenn man überhaupt mal so hohen Kontrast hat und dann auch noch Zeichnung von den tiefsten Schatten bis in die hellsten Lichter erwartet.
SNR? Ganz ähnlich: Warum sollten die Schatten keine NR vertragen?

Die Möglichkeit, die Augen um eine halbe Blende anzuheben oder die Mitten in einen bestimmten Bildbereich um 1 Blende hochzuziehen und ihn so zu betonen, zählt weit mehr.

Space


Antwort von rush:

iasi hat geschrieben:
"Roland Schulz" hat geschrieben:

Ist eine GH5 jetzt deshalb besser als eine a6500 oder Top-a7?! Ich denke nicht da der Sensor immer noch ein schlechteres SNR und weniger DR aufweist.
Die GH5 ist besser.
Das kann man so behaupten - aber vielleicht sollte man "besser" auch mal definieren. Denn nur weil man "technisch" mehr Spielraum für die Post bekommt - erhält man nicht automatisch den interessanteren oder gar "besseren" Look... denn auch letzteres ist wieder Definitions bzw. Auslegungssache.

Ich finde bspw. die 10 Bit 50p/60p Aufnahmen aus der Gh5 sehr "soap-lastig" und ziemlich unsexy.
Vielleicht ist es auch nur eine Einstellungssache, aber man hat es damals bei den ersten GH5 Filmen auf YT deutlich gesehen (erinnere mich an diesen Typen der was mit Eisskulpturen gemacht hat oder die Dinger für die Bar bearbeitete?!) und auch sonst sieht man dieses "Phänomen" immer mal wieder.... Die im Parallelthread von Panasonic angesprochene HC-X1 ( viewtopic.php?f=39&t=138310&hilit=gh5#p921113 ) zeigt noch immer exakt dasselbe Verhalten - wobei ich nicht weiß ob da intern oder extern aufgezeichnet wurde... vllt. liegt es auch nichtmal an den 10Bit sondern eher an den 50p/60p... aber das wäre für mich ein Grund, diese Kamera nicht zu kaufen bzw. zumindest diese Einstellung zu meiden.... denn das man auch anderes Material aus den GHxen bekommt ist mir auch bewusst - die GH2 seinerzeit jedenfalls sah nicht so übel nach Soap-Opera aus :-)

Für mich ist in dem Zusammenhang die GH5 trotz 10Bit eben nicht automatisch "besser".

Space


Antwort von wolfgang:

Na nach den Meinungen hier ist eine 10bit fähige Kamera deshalb besser, weil man sich damit genau den gewünschten Look problemloser schaffen kann den man eben haben will. Und wenn ein Roland von Betrug spricht, sind das starke Vorwürfe. Möge er nicht in die Verlegenheit kommen diesen Vorwurf nachweisen zu müssen.

Space


Antwort von Jott:

iasi hat geschrieben:


Die Möglichkeit, die Augen um eine halbe Blende anzuheben oder die Mitten in einen bestimmten Bildbereich um 1 Blende hochzuziehen und ihn so zu betonen, zählt weit mehr.
Und du willst im Ernst behaupten, so ein lapidarer Eingriff sei mit 8 Bit-Material nicht möglich? Den Keine-Ahnung-Ball spiele ich da aber mit hohem Bogen zurück! :-)

Du solltest vielleicht bei Gelegenheit mal was filmen oder gar produzieren, egal womit.

Space


Antwort von Roland Schulz:

iasi hat geschrieben:
"Roland Schulz" hat geschrieben:

Ist eine GH5 jetzt deshalb besser als eine a6500 oder Top-a7?! Ich denke nicht da der Sensor immer noch ein schlechteres SNR und weniger DR aufweist.
Die GH5 ist besser.
Allein schon, da sie die Möglichkeiten der Post eröffnet.
DR? Hohen Kontrasten kann man recht leicht entgegen wirken - oft genügt schon ein Reflektor. Wenn man überhaupt mal so hohen Kontrast hat und dann auch noch Zeichnung von den tiefsten Schatten bis in die hellsten Lichter erwartet.
SNR? Ganz ähnlich: Warum sollten die Schatten keine NR vertragen?

Die Möglichkeit, die Augen um eine halbe Blende anzuheben oder die Mitten in einen bestimmten Bildbereich um 1 Blende hochzuziehen und ihn so zu betonen, zählt weit mehr.
Die GH5 ist von den Specs auf dem Papier besser - in vielen (relevanten) Punkten verliert sie klar.

Space


Antwort von Roland Schulz:

wolfgang hat geschrieben:
Na nach den Meinungen hier ist eine 10bit fähige Kamera deshalb besser, weil man sich damit genau den gewünschten Look problemloser schaffen kann den man eben haben will. Und wenn ein Roland von Betrug spricht, sind das starke Vorwürfe. Möge er nicht in die Verlegenheit kommen diesen Vorwurf nachweisen zu müssen.
Das mache ich ganz einfach Anhand deren eingenem Tech Sheet in dem man uns uninterpretierbar mitteilt dass HDR die 8bit Limitierung aufhebt und 10- oder 12bit nutzt. Da gibt"s kein Sternchen oder eine Fußnote welche 8bit erlaubt. Ebenso ist das mit sämtlichen Specs die es zu HDR und HLG gibt, bisher konnte hier niemand eins mit 8bit vorzeigen.
Sony selbst hat mir zudem persönlich per E-Mail meine Frage beantwortet und schriftlich bestätigt(!!), dass eine AX700 10bit aufzeichnet - denke das reicht dann.
Für den Zweifelsfall hab ich das auch alles sorgfältig archiviert. Ich bin also VÖLLIG entspannt.

Nicht so entspannt sollte da vielleicht Sony sein, soll aber keiner sagen man hätte nicht drauf hingewiesen...
Sony hat noch ne Menge Hausaufgaben, nicht nur bei den Produkten. Man müsste mal nen korrektes Impressum auf Webseiten im deutschen Raum schalten, zudem dürfen die da hinterlegten (E-Mail-) Adressen nicht wiederholt "unzustellbare" Verbindungen aufweisen.
...ich mache mir wirklich keine Sorgen ;-)!!

Space


Antwort von wolfgang:

Ich vermute mal die werden jetzt schon furchtbar zittern! ;)

Space


Antwort von Roland Schulz:

wolfgang hat geschrieben:
Ich vermute mal die werden jetzt schon furchtbar zittern! ;)
....nicht deswegen ;-)!
Verstehe nach wie vor nicht die Akzeptanz solcher Machenschaften hier...

Space


Antwort von rush:

"Roland Schulz" hat geschrieben:
wolfgang hat geschrieben:
Ich vermute mal die werden jetzt schon furchtbar zittern! ;)
....nicht deswegen ;-)!
Verstehe nach wie vor nicht die Akzeptanz solcher Machenschaften hier...
Ab Minute 7:40... Dort heißt es: 10Bit bei der Z90 und jeweils "Nur" 8bit bei der NX80 und AX700. Wenn's stimmt was der Herr von Sony dort erläutert - dürfte deine gewünschte AX700 wohl mit "fiesen und falschen" Machenschaften beworben worden sein.

https://www.youtube.com/watch?v=B-XxdA2PqHI

Aber vielleicht einfach mal abwarten bis die Kisten ausgeliefert werden und erste Specs/Test vorliegen... ich denke: es wird so wie im Video sein und nur das "Topmodell" mit 10Bit daherkommen. Alles andere würde mich wundern.

Space


Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
wolfgang hat geschrieben:
Ich vermute mal die werden jetzt schon furchtbar zittern! ;)
....nicht deswegen ;-)!
Verstehe nach wie vor nicht die Akzeptanz solcher Machenschaften hier...
Nicht Akzeptanz - ich sagte dir ja schon mehrfach dass ich das auch nicht gut finde. Aber realistisch die Unmöglichkeit da irgend etwas zu bewirken.

Space


Antwort von Roland Schulz:

@rush: nur die Z90 kann 10bit, ja, aber nur bei FHD!! Sony wirbt mit 4K HDR...

@wolfgang: ne Abmahnung müsste man dem Laden mal verpassen, mir fielen mittlerweile min. drei Gründe ein!
Am Ende haben "wir" aber nix davon, nur Aufwände. Auf 10bit switchen die die Klamotten trotzdem nicht um und auf das Logo gebe ich nichts mehr.
Trotzdem wettbewerbsverzerrend, ggf. tritt da mal ein anderer Hersteller ein und die haben teuren Ärger am Hintern, so schlau wie wir hier sind andere (hoffentlich) auch.

Was macht der ZD9?!? Steht noch im Laden oder hängt schon an der Wand ;-)?!

Space


Antwort von wolfgang:

Der ZD9 steht noch im Laden, da ich auch mit dem A1 liebäugle, und Lösungen für Schnittplatz (A1)und Wohnzimmer (ZD9) überlege. Eventuell für den Schnitplatz auch den Sumo oder Dell andenke.

Space


Antwort von rush:

wolfgang hat geschrieben:
Der ZD9 steht noch im Laden
Ich hoffe doch das es um die 100" Variante geht?! ;) Spaß...

Aber holla die Waldfee - kauft sowas tatsächlich jemand bei dem Preisschild???

Da bekäme man ja exakt 20 (in Worten: ZWANZIG!) mal die neuste A7rIII für :D Verrückt... was es nicht alles gibt.. und bei anderen Herstellen kann man ja noch tiefer in die Tasche greifen. Pervers.

http://www.saturn.de/de/product/_sony-k ... 64607.html

Space


Antwort von Roland Schulz:

rush hat geschrieben:
wolfgang hat geschrieben:
Der ZD9 steht noch im Laden
Ich hoffe doch das es um die 100" Variante geht?! ;) Spaß...

Aber holla die Waldfee - kauft sowas tatsächlich jemand bei dem Preisschild???

Da bekäme man ja exakt 20 (in Worten: ZWANZIG!) mal die neuste A7rIII für :D Verrückt... was es nicht alles gibt.. und bei anderen Herstellen kann man ja noch tiefer in die Tasche greifen. Pervers.

http://www.saturn.de/de/product/_sony-k ... 64607.html
...es gibt Leute die kaufen Autos dafür bekäme man 70 (in Worten: SIEBZIG!) mal die neueste A7rIII für :D (glaube ich bin wirklich verrückt...).
...und bei anderen Herstellen kann man ja noch tiefer in die Tasche greifen (...bin doch vernünftig, puh...).


Bei mir hängt nur der 65" der aktuell quasi schon verramscht wird. Mehr macht bei nur ~4,5m Abstand auch keinen Sinn da alles was Wolfgang dreht klar unter echtem 4K bleibt, bei anderen Produzenten kann man aber noch viel tiefer "fallen" ;-) ;-) ;-)!!!

@Wolfgang: Panasonic EZW954 und EZW1004 dabei nicht ganz aus den Augen verlieren.

Space


Antwort von Funless:

rush hat geschrieben:
http://www.saturn.de/de/product/_sony-k ... 64607.html
Was‘n das für‘n schrottiger Fernseher? Potthässlich und dann kann man den ja nicht mal an die Wand hängen. Ist Sony damit etwa auf‘nem back-to-the-80‘s-retro-trip?

Space


Antwort von sanftmut:

Welche Akkulösung schwebt Euch da vor um den zum Schärfeziehen an einen Ronin M zu packen?

Space


Antwort von Roland Schulz:

Funless hat geschrieben:
rush hat geschrieben:
http://www.saturn.de/de/product/_sony-k ... 64607.html
Was‘n das für‘n schrottiger Fernseher? Potthässlich und dann kann man den ja nicht mal an die Wand hängen. Ist Sony damit etwa auf‘nem back-to-the-80‘s-retro-trip?
Sony ist damit auf dem Trip zu Leuten die Geld haben sich a) riesige Wohnzimmer leisten zu können und b) danach noch Geld für nen riesigen Fernseher über haben ;-)!!

Schalt mal auf den 65" um und guck Dir die schrottigen Testergebnisse an - ganz so Unrecht haben die gar nicht ;-)...

Bzgl. Zitat: Männer mit Glatze sind die Speerspitze der Evolution ;-p!! Frag" mal unsere "Spitzenposter" ;-)...

Space


Antwort von Funless:

"Roland Schulz" hat geschrieben:
Funless hat geschrieben:


Was‘n das für‘n schrottiger Fernseher? Potthässlich und dann kann man den ja nicht mal an die Wand hängen. Ist Sony damit etwa auf‘nem back-to-the-80‘s-retro-trip?
Sony ist damit auf dem Trip zu Leuten die Geld haben sich a) riesige Wohnzimmer leisten zu können und b) danach noch Geld für nen riesigen Fernseher über haben ;-)!!
... und sich dann auf dem 80'er Jahre Retroteil alle 8 Staffeln von Chuck Norris als Texas Ranger reinziehen?

Space


Antwort von wolfgang:

rush hat geschrieben:
wolfgang hat geschrieben:
Der ZD9 steht noch im Laden
Ich hoffe doch das es um die 100" Variante geht?! ;) Spaß...

Aber holla die Waldfee - kauft sowas tatsächlich jemand bei dem Preisschild???

Da bekäme man ja exakt 20 (in Worten: ZWANZIG!) mal die neuste A7rIII für :D Verrückt... was es nicht alles gibt.. und bei anderen Herstellen kann man ja noch tiefer in die Tasche greifen. Pervers.

http://www.saturn.de/de/product/_sony-k ... 64607.html
Nee, es ginge eher um die 65- oder 75 Zoll Variante. Ist aber auch mehr als genug Kleingeld. ;)

Space


Antwort von wolfgang:

"Roland Schulz" hat geschrieben:
Bei mir hängt nur der 65" der aktuell quasi schon verramscht wird. Mehr macht bei nur ~4,5m Abstand auch keinen Sinn da alles was Wolfgang dreht klar unter echtem 4K bleibt, bei anderen Produzenten kann man aber noch viel tiefer "fallen" ;-) ;-) ;-)!!!

@Wolfgang: Panasonic EZW954 und EZW1004 dabei nicht ganz aus den Augen verlieren.
Also obs so dramatisch unter 4K bleibt ist eine der offenen Fragen.... vielleicht schneide ich mir ja eine Glatze (uff, das wird teuer beim Haarschneider), spare den 9er, und nehme eine EVA1 dafür (die behaupten ja sie machen echtes 4K von 4.7K her kommend).

Die Panas muss ich mir mal ansehen.

Space


Antwort von Jan:

Kleine technische Änderungen
Stille Einführung der Sony Alpha 7R IIIA und 7R IVA


https://www.digitalkamera.de/Meldung/St ... 12343.aspx


https://petapixel.com/2021/04/07/sony-q ... s-cameras/

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Nikon Z5: Potente Einsteiger-Vollformat DSLM inkl. Sensor-Stabilisierung, Dual Card Slots uvm.
Wise Dual SD UHS-II Card Reader u.a. für Canon C70, Panasonic GH5 II und Sony Alpha 1
Sony Alpha 1 im Vergleich zu A9 II, A7R IV und A7S III - welche Kamera wofür?
A7s III Slog einstellen:wie&wo im Menü?
Sony A7R IV LED Banding // Flackern
Kaufberatung Zubehör Sony A7R II
Verständnisfrage zu PCIEX16- Slots
A7 iii HLG in HD zu dunkel
Slog 2/3 bei Sony alpha 6600
Shure Akku Guide: Wie lange hält ein Akku? Und wie lagert man ihn am besten?
Kostenlose Video-KI Kling jetzt in Version 1.5 mit 1080p und noch besserer Qualität
Slog Material bearbeiten mit FCPX
Slog Luts Unterschiede?
Davinci Resolve, Color Card und Monitorkalibrierung
adapter C Fast SDXC card
Sony zeigt neuartige Stacked CMOS-Bildsensor-Technologie mit besserer Dynamik
Wie herausfinden, ob echtes 10-bit video vorliegt o. 8bit Quelle in 10-bit Container?
G9 10bit Video im HLG Modus qualitativ in mp4 konvertieren ?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash