Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Nikon RAW-Ausgabe für Z6 und Z7 ist jetzt verfügbar!



Newsmeldung von slashCAM:



Mit dem Upgrade der Firmware-Version 2.20 stellt Nikon ab heute die Videoausgabe im RAW-Format für die spiegellosen Vollformatkameras Z 7 und Z 6 bereit. Allerdings ist e...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Nikon RAW-Ausgabe für Z6 und Z7 ist jetzt verfügbar!


Space


Antwort von cantsin:

Tja, das verheisst auch nichts gutes für das geplante ProRes Raw-Firmware-Upgrade der Sigma fp: Wenn schon bei der Z6/Z7 auf 4K Raw runtergesampelt wird, wird es bei der fp wahrscheinlich ebenso laufen, und wird ProRes Raw in dieser Hinsicht keine Vorteile ggü. der bestehenden CinemaDNG-Aufzeichnung bringen.

Schade, dass runterskaliertes "RAW" jetzt scheinbar zum Industriestandard wird...

@Slashcam, diesen thread hier vielleicht mit diesem zusammenführen: viewtopic.php?f=2&t=146508&p=1021195#p1021195

Space


Antwort von Borke:

Ich stelle mir immer wieder die Frage was für eine Pappnase in deren Marketingabteilung steckt? Wie kann man ein RAW-Showreel nur in HD auf Youtube anbieten? Mal abgesehen davon, daß man lange Szenen sehen wollen würde, um einen echten Eindruck zu bekommen, wie gut oder schlecht RAW nun auf Z6/Z7 aussehen.

Space


Antwort von Darth Schneider:

Sehe ich jetzt nicht so drastisch, raw ist in 4K nicht mehr raw als in HD und auf YouTube spielt das doch eh keine Rolle...
Komisch finde ich eher, das mit dem bringen zum Servicepoint und das man nochmal 200€ mehr bezahlen muss.;) Abgesehen davon den Ninja kommt ja dann auch noch dazu...Bei BMD geht das filmen mit Raw intern, auf SD Karten und kostet keinen Cent mehr als wenn man mit ProRes filmt und die Updates sind gratis, mitsamt der Software.
Wenn ich Nikon wäre wäre ich nicht so optimistisch was die Verkaufszahlen anbelangt, vielleicht werden die Kameras für Fotografen ein Hit, aber für Filmer, denke ich eher weniger.
GrussBoris

Space


Antwort von iasi:

2700€ für den Z6 Essential Movie Kit

Nicht schlecht - vor allem für Leute mit Nikon-Linsen.

Space


Antwort von -paleface-:

Warum soll die kein Hit werden?
Ist die erste richtige Nikon RAW Kamera.

Da lecken sich bestimmt viele die Finger nach.

Mit dem Firmware Update ist aber wirklich kompliziert. Vermutlich Angst vor Jailbreak.

Space


Antwort von Paralkar:

Raw und runterskalieren,

Genau erstes Nikon Raw....

Space


Antwort von Axel:

Was soll‘s mit dem Runterskalieren? Ist im Grunde halt 12-bit bei akzeptablen Datenraten, ist ja bei BRAW nicht anders. Und dass 6k > 4k eine Vorbehandlung voraussetzt ist klar, aber auch, dass es sehr sauber geht. Man soll es mit dem Purismus nicht übertreiben.

Space


Antwort von MrMeeseeks:

Werte Slashcam Redaktion, könnte man die Z6 mal mit sem Update testen?

Den ganzen Youtube-Pappnasen kann man echt nicht mehr glauben. (da wird sicher viel Müll die Wochen erscheinen).

Space



Space


Antwort von rob:

Hallo M.

wir sind auch schon gespannt darauf -
es wird auf jeden Fall demnächst einen Z6 - ProRes RAW Test auf slashCAM geben ...

Viele Grüße

Rob/
slashCAM

Space


Antwort von cantsin:

Axel hat geschrieben:
Was soll‘s mit dem Runterskalieren? Ist im Grunde halt 12-bit bei akzeptablen Datenraten, ist ja bei BRAW nicht anders.
Deine Argumentation verstehe ich nicht ganz - BRAW ist nicht skaliert, sondern immer in der Sensorauflösung aufgezeichnet.

Space


Antwort von rush:

-paleface- hat geschrieben:
Warum soll die kein Hit werden?
Ist die erste richtige Nikon RAW Kamera.

Da lecken sich bestimmt viele die Finger nach.

Mit dem Firmware Update ist aber wirklich kompliziert. Vermutlich Angst vor Jailbreak.
Ein Hit wäre es bei interner Aufzeichnung geworden.

Dieses Ninja-Gedöns hält sicherlich einige Nutzer auch wieder davon ab zuzugreifen.

Und dann auch noch die Kamera einschicken?

Kann man nur hoffen das Nikon als auch Atomos neu verkauften Kameras möglichst die passenden Updates einbaut sodass man das ganze nach Zahlung von 200 Tacken wenigstens ohne einschicken "freischalten" kann...
Muss man den Ninja ebenfalls einschicken? ;)

Naja - mal gucken was die Early Birder so berichten werden... ich lehne mich mal entspannt zurück und beobachte.
Aber wurde ja auch wirklich mal Zeit das sie in die Puschen kommen...

Space


Antwort von MrMeeseeks:

rush hat geschrieben:
-paleface- hat geschrieben:
Warum soll die kein Hit werden?
Ist die erste richtige Nikon RAW Kamera.

Da lecken sich bestimmt viele die Finger nach.

Mit dem Firmware Update ist aber wirklich kompliziert. Vermutlich Angst vor Jailbreak.
Ein Hit wäre es bei interner Aufzeichnung gewesen.
Ja bei Speicherkarten die 10-15x !!!!!! so teuer sind die wie der SSD Speicher eines Atomos Ninja V.

Ein echter Hit.

Space


Antwort von rush:

Im Fall der Z6 mag das ja mit den "teuren" Karten so sein sein - BMD aber zeigt doch bspw. das man selbst auf moderaten und wirklich bezahlbaren SD Karten bereits RAW wegschreiben kann... die Möglichkeit einer externen SSD via USB hat man on top dann immernoch.

Nikon zwingt einem die Ninja V Lösung quasi mit auf - die vermeintlich "gesparten" Euro für den Monitor holt man sich dann über das Bezahlupdate wieder hinten herum rein. Schon etwas merkwürdig - aber wenn's optisch hinhaut und passt werden sicherlich einige drauf anspringen... die bisher schon den Ninja erworben haben sowieso.

Space


Antwort von didah:

finds schade, dass das nur mim ninjav geht. klar is der für die größe der z6 perfekt, aber ein shogun inferno kann ja auch prores raw aufzeichen.... nu anscheined nicht das der nikon... hmpf...

Space


Antwort von roki100:

rob hat geschrieben:
Hallo M.

wir sind auch schon gespannt darauf -
es wird auf jeden Fall demnächst einen Z6 - ProRes RAW Test auf slashCAM geben ...

Viele Grüße

Rob/
slashCAM
Interessant wäre dann zu wissen, ob RAW tatsächlich RAW ist und nicht nur 12Bit oderso. Google suche findet wenig und das was man findet handelt von Streitereien und "BRAW is better, it's amazing and blablabla" usw. usf. aber keine klare/sachliche Bestätigung darüber, ob WB/ColorTemp & Co. doch nicht etwa eingebacken ist? Allein die frage darüber löst bei einigen komische Reaktion aus (wahrscheinlich auch hier und jetzt... hoffentlich nicht). ;)

Space


Antwort von Jott:

Du musst nur statt „im Netz“ bei Apple im Whitepaper nachlesen, dann weißt du, wie es funktioniert. Ganz sachlich.

Space


Antwort von Darth Schneider:

An Roki100
...Also die 4K Pocket kann man ja schon mieten, für irgend ein Hunderter proTag. Dann kannst du mindestens das BRaw selber austesten und selber mit deinen Augen vergleichen, Bei ProRes RAW weiss ich auch nicht ob die Kameras schon beim Verleiher sind.
Alles andere ist doch Spekulation.
SlashCAM hat ja auch noch nicht mal das BRaw der neuen 4/6K Pockets getestet......(nur im Bezug auf die Ursa Mini Pro) also selbst wenn die jetzt ProRes RAW testen hast du dann nicht wirklich ein für dich relevanten Vergleich zu den anderen neuen RAW Formaten...;))
Gruss Boris

Space



Space


Antwort von cantsin:

ProRes Raw ist ein kompromiertes undebayertes Aufzeichnungsverfahren mit bis zu 12bit Farbtiefe. Mehr muss man eigentlich nicht wissen bzw. hängt von der Nachbearbeitungssoftware ab.

Space


Antwort von Axel:

cantsin hat geschrieben:
ProRes Raw ist ein kompromiertes undebayertes Aufzeichnungsverfahren mit bis zu 12bit Farbtiefe. Mehr muss man eigentlich nicht wissen bzw. hängt von der Nachbearbeitungssoftware ab.
Naja, man möchte‘s schon wissen, aus akademischer Neugier. Zum Beispiel in Bezug auf das Downsampling von 8 bzw. 6k auf 4k. Das widerspricht dem Laienverständnis von rohen Pixeldaten. Hier sagte weiland WoWu immer, ach, bei Raw kocht doch eh jeder Hersteller sein eigenes Süppchen. Aber ganz offensichtlich gibt es zwischen Wasser, Salz, Sellerie, Liebstöckl und einem Maggiwürfel noch viele gangbare Kompromisse.

Was ich weiter oben sagen wollte ist, es ist mir persönlich egal, ob getrickst wird, solange das Ergebnis überzeugt.

Space


Antwort von cantsin:

Axel hat geschrieben:
Naja, man möchte‘s schon wissen, aus akademischer Neugier. Zum Beispiel in Bezug auf das Downsampling von 8 bzw. 6k auf 4k.
Das macht aber nicht ProRes Raw, sondern die Kamera/der externe Recorder.

Auch CinemaDNG kann ja runterskaliert aufgezeichnet werden, wie bei der Sigma fp oder MagicLantern, ohne dass das irgendein Feature des Formats ist.

CinemaDNG und ProRes RAW sind nur zwei verschiedene Container, mit jeweils eigenen möglichen Kompressionsverfahren, für undebayerte Videodaten.

Space


Antwort von Jott:

Getrickst wird in der Kamera. Der ProRes raw-Recorder zeichnet halt das gelieferte nicht de-bayerte raw-Signal auf und hat keine Ahnung davon, ob das in der Kamera skaliert wurde oder nicht, und wenn, dann wie.

Gibt es wirklich Leute, die von solchen Fragen um den Schlaf gebracht werden?

Ups, Cantsin war schneller.

Space


Antwort von Axel:

cantsin hat geschrieben:
Axel hat geschrieben:
Naja, man möchte‘s schon wissen, aus akademischer Neugier. Zum Beispiel in Bezug auf das Downsampling von 8 bzw. 6k auf 4k.
Das macht aber nicht ProRes Raw, sondern die Kamera/der externe Recorder.

Auch CinemaDNG kann ja runterskaliert aufgezeichnet werden, wie bei der Sigma fp oder MagicLantern, ohne dass das irgendein Feature des Formats ist.
Bei der Sigma fp, wenn ich das richtig mitbekommen habe, bisher mit Artefakten. Aber wenn es gut gemacht ist (wer macht es? schon die Nikon oder erst der Ninja?), kann das dann nicht sogar ein Vorteil sein? Das Debayern ist doch bei 1:1 Auflösung nicht sauber möglich, oder wie ist das? Nicht, dass ich ein Auflösungs-Pixelpeeper wäre, aber das CDNG der alten Pocket war für mich wegen unübersehbaren Moirés dem matschigeren ProRes unterlegen. Ich las auch von („partially debayered“ - Grant Petty) BRAW, dass es, obwohl „weicher“, im Grunde von vielen gegenüber CDNG bevorzugt wird. Schonend vorgekocht.

Space


Antwort von rush:

Jott hat geschrieben:
Getrickst wird in der Kamera. Der ProRes raw-Recorder zeichnet halt das gelieferte nicht de-bayerte raw-Signal auf und hat keine Ahnung davon, ob das in der Kamera skaliert wurde oder nicht, und wenn, dann wie.

Gibt es wirklich Leute, die von solchen Fragen um den Schlaf gebracht werden?

Ups, Cantsin war schneller.
Um den Schlaf bringt es vermutlich keinen - außer vielleicht einige Nikon Nutzer.

Aber dennoch darf man sicherlich und auch berechtigterweise die Frage in den Raum stellen ob es sinnvoll ist bereits vorher zu skalieren wenn man im Zusammenhang von "RAW" sunterwegs ist bzw. das als Merkmal herausstellt.... das dies erst einmal nicht unbedingt ProRes RAW tangiert weil es darin am Ende nur transportiert wird ist dabei eher nebensächlich.
Abzuwarten bleibt wie gut das Downsampling dann entsprechend funzt und was am Ende dabei herauskommt. Sony zeigt ja durchaus das internes skalieren von 6k auf 4k ziemlich gut funkionieren kann - wenn man das dann noch sauber in 12Bit als quasi-RAW transportiert bekommt - warum nicht. Warum man dazu dann aber überhaupt erst extern gehen muss und das ganze nicht direkt intern zulässt entbehrt sich weiterhin meinem Verständnis - zumal man die neueren, schnellen Speicherkarten ja ebenfalls zu unterstützen scheint... 12Bit 4k Pro Res RAW sollte damit doch locker drin sein - oder sind das dann eher wieder lizenzrechtliche Fragestellungen die Nikon über den externen Atomos Weg zu umgehen versucht?

Space


Antwort von Jott:

Axel hat geschrieben:
aber das CDNG der alten Pocket war für mich wegen unübersehbaren Moirés dem matschigeren ProRes unterlegen
Aufschrei: Roki!

Space


Antwort von pillepalle:

Habe gerade soviel zu tun das ich das RAW Upgrade fast verpennt hätte. Konnte es mir dann aber doch nicht nehmen lassen und bin kurz bei Nikon vorbei. Na ja, kurz ist relativ. Das dauert eine knappe Stunde und ich warte gerade auf die Kamera.
Habe vermutlich erst zum Wochenende Zeit damit etwas rum zu spielen. Irgendwelche Blumentöpfe in RAW Filmen macht eh keinen Sinn :)

VG

Space


Antwort von Funless:

pillepalle hat geschrieben:
Habe vermutlich erst zum Wochenende Zeit damit etwas rum zu spielen. Irgendwelche Blumentöpfe in RAW Filmen macht eh keinen Sinn :)

VG
Na du wirst ja wohl'ne Katze haben.

Space



Space


Antwort von pillepalle:

Funless hat geschrieben:
Na du wirst ja wohl'ne Katze haben.
Nicht mal das 😂 Aber ich schaue mal. Muss eigentlich noch was fertig schneiden, aber falls es mich zu sehr in den Finger juckt mache ich nacher ein paar phantastische Aufnahmen vom Hinterhof... oder so.

VG

Space


Antwort von roki100:

ich habe mich schon gewundert warum pillepalle sich hier nicht gemeldet hat...aber anscheint ist er sofort zu Nikon marschiert und hatte keine Zeit. ;)

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
An Roki100
...Also die 4K Pocket kann man ja schon mieten, für irgend ein Hunderter proTag. Dann kannst du mindestens das BRaw selber austesten und selber mit deinen Augen vergleichen, Bei ProRes RAW weiss ich auch nicht ob die Kameras schon beim Verleiher sind.
Für das Geld hol ich mir lieber eine gute Helios Linse ;)
SlashCAM hat ja auch noch nicht mal das BRaw der neuen 4/6K Pockets getestet...... Ja siehe: viewtopic.php?f=3&t=143064&start=35#p1015996 bzw. SlasCam wusste (wie die meisten) nicht, dass bei CDNG eine weitere Korrektur nötig ist (Pan und Tilt auf 0.500).

Space


Antwort von CameraRick:

roki100 hat geschrieben:
SlashCAM hat ja auch noch nicht mal das BRaw der neuen 4/6K Pockets getestet...... Ja siehe: viewtopic.php?f=3&t=143064&start=35#p1015996 bzw. SlasCam wusste (wie die meisten) nicht, dass bei CDNG eine weitere Korrektur nötig ist (Pan und Tilt auf 0.500).
Da Resolve in Relationen arbeitet wäre eine Info über Timeline-Größe aber auch nicht verkehrt. Wenn es ein Verschieben um Halbpixel-Werte darstellt interpoliert man zwangsläufig das Bild neu; da ist mit bloßem Auge selten ein Schärfeverlust, zu viel machen würde ich das aber auch nicht. Gerade weil Resolve uns mit seinen Begrifflichkeiten "sharper" usw nicht erzählt, welche Transformationsfilter da eigentlich greifen.

Space


Antwort von pillepalle:

Habe gerade nur mal einen kleinen Funktionstest gemacht und alles läuft wie es soll. Da mein Premiere Abo abgelaufen ist, habe ich mir eine Demo Version von Edius herunter geladen, habe aber gerade keine Zeit mich damit zu beschäftigen und bin ziemlich planlos wie die Software funktioniert. Immerhin habe ich die Scopes gefunden und ein paar Screenshots gemacht. Sind vielleicht nicht besonders hilfreich, zeigen aber ganz gut die Unterschiede zwischen der RAW und der Log Datei. So sehen die 'out of cam' aus. Wer genau hinschaut dem wird auffallen das die RAW Datei einen minimal größeren Bildausschnitt hat, also echtes Vollformat ist. Die 10bit Dateien waren ja immer minimal beschnitten. Die Dateigröße ist je nach komprimierung 3 bis 6 mal größer als 10bit Prores. Auf einer 1TB SSD zeigt der Recorder 55 min Restzeit an. Zum Vergleich dazu in Prores 422 HQ 2Std 48 min und in Prores 422 5 Std. 30 Min.


zum Bild



zum Bild


VG

Space


Antwort von roki100:

@pillepalle

wenn Premiere bei dir wieder läuft, wäre es gut wenn Du folgendes mal testen könntest:
1. in der Kamera falsche ColorTemp Werte setzen (so um 2000 +/-). Dann einmal in ProRes RAW und in ProRes HQ aufnehmen. Dann in Resolve das Ganze versuchen zu korrigieren und schauen ob es ein unterschied zwischen das eine(ProRes RAW) und das andere(ProRes) Format gibt.

2. in der Kamera niedrigen ISO Wert einstellen (vll. - 200 oder -400) und einmal in ProRes RAW und in ProRes HQ aufnehmen. Dann in Resolve mit Gain (weil ProRes RAW scheinbar keine RAW Optionen hat, wie z.B. nachträgliche ISO Änderung, daher Gain...) das ganze versuchen zu wiederherstellen, und schauen ob sich ProRes RAW da anders verhält als das normale ProRes.

Danke im Voraus!

Space


Antwort von roki100:

CameraRick hat geschrieben:
roki100 hat geschrieben:


Ja siehe: viewtopic.php?f=3&t=143064&start=35#p1015996 bzw. SlasCam wusste (wie die meisten) nicht, dass bei CDNG eine weitere Korrektur nötig ist (Pan und Tilt auf 0.500).
Da Resolve in Relationen arbeitet wäre eine Info über Timeline-Größe aber auch nicht verkehrt.
Die Timeline ist auf 1080p eingestellt.
Wenn es ein Verschieben um Halbpixel-Werte darstellt interpoliert man zwangsläufig das Bild neu; da ist mit bloßem Auge selten ein Schärfeverlust, zu viel machen würde ich das aber auch nicht. Ich habe es genau untersucht, an der Schärfe wird nichts verändert und mehr als 0.500 bringt nichts. Es ist exakt 0.500 (Pan und Tilt) was die Artefakte verschwinden lässt.

Space


Antwort von pillepalle:

@ roki100

Ja, ich benutze ja eigentlich Resolve, deshalb bin ich gar nicht so scharf auf ein Premiere Abo :) Ich werde mal was filmen wenn ich etwas mehr Zeit und Ruhe habe und mir das in Ruhe anschauen, denke aber das der RAW Workflow bei mir eher ausnahmsweise eingesetzt werden wird. Vielleicht hat man etwas mehr Dynamik (die Schatten haben in der RAW Aufnahme noch mehr Luft nach unten) und mehr Möglichkeiten bei extremem Grading, aber wenn ich deshalb eine andere Software nutzen muss, ist das für mich erstmal ein zusätzlicher Mehraufwand (einfach weil ich dann zwei Programme beherrschen muss). Kann das mit dem verhauenen Weißabgleich aber gerne mal für Dich ausprobieren. Für mich ist das mehr eine nette Dreingabe die eine ohnehin schon gute Kamera noch etwas besser macht. Wenn ich meine Doku in RAW gedreht hätte, dann lägen jetzt statt 8TB 24-30TB auf meinen Festplatten. Ist immer auch eine praktische Frage.

Es gibt auch schon RAW Videos Online...

https://www.youtube.com/watch?v=0O-MSeLEu0o

VG

Space


Antwort von roki100:

@pillepalle
Ich denke da wie iasi, warum auf etwas besseres Verzichten? Da würde ich sogar die Software ersetzen und mich da neu einarbeiten wenn es sein muss.

Hoffentlich gibt es bald ProRes RAW für BMD DR.

Space



Space


Antwort von rush:

Warum dann überhaupt 200€ investieren wenn man eigentlich gar nicht plant damit zu arbeiten? Interessante Ansicht.

Das RAW mehr Speicherplatz frisst war/ist doch vorher bekannt....

Dennoch viel Spaß beim ausprobieren.

PS. Macht es Sinn ein Log Profil mit einem RAW Bild zu vergleichen?

Space


Antwort von roki100:

rush hat geschrieben:
PS. Macht es Sinn ein Log Profil mit einem RAW Bild zu vergleichen?
Ja, vor allem um zu sehen ob RAW das ist was es eigentlich sein sollte: unabhängig von Kamera Einstellungen, die nachträgliche Korrektur (ISO, WB/ColorTemp...)

Space


Antwort von pillepalle:

@ rush

Ich habe ja nicht gesagt das ich gar nicht vor habe in RAW zu drehen, aber ich habe vor es nur einzusetzen wenn ich es auch wirklich brauche. Also z.B. wenn es wirklich mal schwierige Bedingungen sind, oder ein potentieller Kunde das möchte usw. Für mich ist das wie mit Kanonen auf Spatzen schießen. Wenn ich das auch in 10 bit ProRes problemlos hinbekomme, warum dann RAW verwenden? Nicht alles was ich mache ist große Kunst oder sind Meisterwerke :D

VG

Space


Antwort von roki100:

Wieso der Kunde? Du hast es doch leichter. Unabhängig jetzt von 12Bit, das entscheidende ist doch, dass Du beim dreh dich nicht um WB/ColorTemp, ISO & Co. kümmern musst...das geschieht dann alles nachträglich. Darum RAW.

Space


Antwort von pillepalle:

@ roki

Klar, aber meine Lieblingssoftware nicht verwenden zu können, oder transcodieren zu müssen ist auch ein Argument. Habe ehrlich gesagt diese Jahr noch nie ernsthafte Probleme mit der Farbtemperatur, oder der ISO Einstelung gehabt. Das ist ein Knopfdruck. Wie gesagt, RAW ist einfach eine Option mehr die man hat. Vielleicht bin ich ja bald so begeistert davon das ich das tatsächlich häufiger benutze. Aber ich sehe das pragmatisch.

VG

Space


Antwort von iasi:

pillepalle hat geschrieben:
@ rush

Ich habe ja nicht gesagt das ich gar nicht vor habe in RAW zu drehen, aber ich habe vor es nur einzusetzen wenn ich es auch wirklich brauche. Also z.B. wenn es wirklich mal schwierige Bedingungen sind, oder ein potentieller Kunde das möchte usw. Für mich ist das wie mit Kanonen auf Spatzen schießen. Wenn ich das auch in 10 bit ProRes problemlos hinbekomme, warum dann RAW verwenden? Nicht alles was ich mache ist große Kunst oder sind Meisterwerke :D

VG
Wenn das Material eh in den Besitz des Kunden übergeht und/oder dieser die Raw-Vorteile gar nicht erwartet bzw. das Ergebnis nur kurzzeitig genutzt wird, lohnt Raw eher nicht.

Space


Antwort von iasi:

roki100 hat geschrieben:
Wieso der Kunde? Du hast es doch leichter. Unabhängig jetzt von 12Bit, das entscheidende ist doch, dass Du beim dreh dich nicht um WB/ColorTemp, ISO & Co. kümmern musst...das geschieht dann alles nachträglich. Darum RAW.
Es ist aber eben doch ein zusätzlicher Aufwand, will man die Raw-Vorteile nutzen.
Nicht immer lohnt sich dieser Aufwand.

Space


Antwort von pillepalle:

iasi hat geschrieben:
Wenn das Material eh in den Besitz des Kunden übergeht und/oder dieser die Raw-Vorteile gar nicht erwartet bzw. das Ergebnis nur kurzzeitig genutzt wird, lohnt Raw eher nicht.
Na ja, ich weiß ja nicht wie ihr das handhabt, aber bei mir geht keine RAW Datei in den Besitz des Kunden über. Wäre ja noch schöner :) Der bekommt noch nicht mal das gesamte Material sondern immer nur eine Auswahl und die Nutzungrechte, je nachdem was ausgehandelt wurde. Das ist wie halbfertige Sachen abgeben.

VG

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:
Wieso der Kunde? Du hast es doch leichter. Unabhängig jetzt von 12Bit, das entscheidende ist doch, dass Du beim dreh dich nicht um WB/ColorTemp, ISO & Co. kümmern musst...das geschieht dann alles nachträglich. Darum RAW.
Es ist aber eben doch ein zusätzlicher Aufwand, will man die Raw-Vorteile nutzen.
Nicht immer lohnt sich dieser Aufwand.
ich weiß nicht, wenn ich allein daran denke, dass ich mehrere male bei ETTR + ProRes doch nicht perfekt belichtet habe und nachträglich das überbelichtete doch nicht mehr zu retten war, da war ich froh darüber, dass ich CDNG Files hatte (ProRes mit BM VA. aufgenommen und CDNG Kameraintern)...denn damit konnte ich die Highlights runterziehen (Highlight Recovery) und alles war gut.

Gut, man weiß nachträglich, dass man für ETTR+ProRes die Zebras um +5% erhöhen sollte... Dennoch, wäre Kameramann mein Job, würde ich RAW immer bevorzugen.

Space



Space


Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
Wenn das Material eh in den Besitz des Kunden übergeht und/oder dieser die Raw-Vorteile gar nicht erwartet bzw. das Ergebnis nur kurzzeitig genutzt wird, lohnt Raw eher nicht.
Na ja, ich weiß ja nicht wie ihr das handhabt, aber bei mir geht keine RAW Datei in den Besitz des Kunden über. Wäre ja noch schöner :) Der bekommt noch nicht mal das gesamte Material sondern immer nur eine Auswahl und die Nutzungrechte, je nachdem was ausgehandelt wurde. Das ist wie halbfertige Sachen abgeben.

VG
Na ja - die Inhalte sind meist nicht einfach nutzbar für andere Zwecke.
Eine Firma wird dich z.B. nicht einfach Aufnahmen von den Werkhallen für andere Projekte nutzen lassen.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Es ist aber eben doch ein zusätzlicher Aufwand, will man die Raw-Vorteile nutzen.
Nicht immer lohnt sich dieser Aufwand.
ich weiß nicht, wenn ich allein daran denke, dass ich mehrere male bei ETTR + ProRes doch nicht perfekt belichtet habe und nachträglich das überbelichtete doch nicht mehr zu retten war, da war ich froh darüber, dass ich CDNG Files hatte (ProRes mit BM VA. aufgenommen und CDNG Kameraintern)...denn damit konnte ich die Highlights runterziehen (Highlight Recovery) und alles war gut.

Gut, man weiß nachträglich, dass man für ETTR+ProRes die Zebras um +5% erhöhen sollte... Dennoch, wäre Kameramann mein Job, würde ich RAW immer bevorzugen.
Ich denke, man muss das immer abwägen.
Beispiel: Ein Hochzeitsvideo in Raw zu drehen, bedeutet eben doch auch höhere Kosten. Wenn das Brautpaar so viel bezahlt, dass mit mehreren Red-Cams, Drohnen, Kran und und und gefilmt werden kann - OK - das gab"s ja auch schon. Aber der Normalfall ist das wohl eher nicht.

Space


Antwort von cantsin:

Axel hat geschrieben:
Bei der Sigma fp, wenn ich das richtig mitbekommen habe, bisher mit Artefakten. Aber wenn es gut gemacht ist (wer macht es? schon die Nikon oder erst der Ninja?), kann das dann nicht sogar ein Vorteil sein?
Nein, nicht bei RAW, nur nach dem Debayern. Wenn man eine Bayer-Sensormatrix, die vom Sensor kommt, in eine neue, Pseudo-Bayer-Sensormatrix herunterskaliert, können dabei eigentlich nur Verschlechterungen 'rauskommen. Ungefähr so, als wenn man beim Kochen die Roh-Ingredienten in einen Topf wirft, die Hälfte des Gemischs wegschmeisst, und anschliessend versucht, die Roh-Ingredienten wieder einigermaßen zu trennen und damit nach Rezept zu kochen.

Richtig wäre der Workflow natives Sensor-Bayermuster -> Debayering -> Herunterskalieren/Downsampling auf Delivery-Auflösung. So machen es ja auch Kameras wie die S1H, C300 etc.

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
Axel hat geschrieben:
Bei der Sigma fp, wenn ich das richtig mitbekommen habe, bisher mit Artefakten. Aber wenn es gut gemacht ist (wer macht es? schon die Nikon oder erst der Ninja?), kann das dann nicht sogar ein Vorteil sein?
Nein, nicht bei RAW, nur nach dem Debayern. Wenn man eine Bayer-Sensormatrix, die vom Sensor kommt, in eine neue, Pseudo-Bayer-Sensormatrix herunterskaliert, können dabei eigentlich nur Verschlechterungen 'rauskommen. Ungefähr so, als wenn man beim Kochen die Roh-Ingredienten in einen Topf wirft, die Hälfte des Gemischs wegschmeisst, und anschliessend versucht, die Roh-Ingredienten wieder einigermaßen zu trennen und damit nach Rezept zu kochen.

Richtig wäre der Workflow natives Sensor-Bayermuster -> Debayering -> Herunterskalieren/Downsampling auf Delivery-Auflösung. So machen es ja auch Kameras wie die S1H, C300 etc.
Bei modernen Sensoren finden eine Menge Berechnungen schon auf dem Sensor (sozusagen auf Pixelebene) statt. Ich kenne zwar den Sigma Sensor nicht, aber das da irgendwas skaliert wird wie in Photoshop, ist in meinen Augen eine sehr naive Vorstellung. Daher ist auch der Gedanke, dass Video und Matrix nicht übereinstimmen könnten, eher als wilde Theorie zu betrachten ;)

Space


Antwort von pillepalle:

Hier ist noch ein Bericht zum ProRes Raw der Nikon von Matthew Allard von newsshooter.com Den Anfang kann man getrost überspringen, interessanter wird's erst im hinteren Teil, ab 'How is RAW over HDMI from the Nikon Z6'. Wobei der auch nichts weltbewegendes herausgefunden hat.

https://www.newsshooter.com/2019/12/17/ ... rores-raw/

VG

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Bei modernen Sensoren finden eine Menge Berechnungen schon auf dem Sensor (sozusagen auf Pixelebene) statt. Ich kenne zwar den Sigma Sensor nicht, aber das da irgendwas skaliert wird wie in Photoshop, ist in meinen Augen eine sehr naive Vorstellung. Daher ist auch der Gedanke, dass Video und Matrix nicht übereinstimmen könnten, eher als wilde Theorie zu betrachten ;)
Nein, das ist tatsächlich so, lies mal Slashcams Test der Sigma fp:

https://www.slashcam.de/artikel/Test/Vo ... html#Die_S

Bei der Kamera wird das 6K-Bayer-Pattern des Sensors auf ein 4K-Bayer-Pattern in der RAW-Aufzeichnung runterskaliert, ohne Windowing/Sensorcrop. Und genau das gleiche machen jetzt Nikon/Atomos bei der ProRes RAW-Aufzeichnung der Z6/Z7.

Space


Antwort von iasi:

pillepalle hat geschrieben:
Hier ist noch ein Bericht zum ProRes Raw der Nikon von Matthew Allard von newsshooter.com Den Anfang kann man getrost überspringen, interessanter wird's erst im hinteren Teil, ab 'How is RAW over HDMI from the Nikon Z6'. Wobei der auch nichts weltbewegendes herausgefunden hat.

https://www.newsshooter.com/2019/12/17/ ... rores-raw/

VG
ja - leider geht er nicht auf den Unterschied zwischen UHD von FX und DX ein.

4k-Raw von einem 6k-Sensor?
Dies sehe ich als die wichtigste Frage.

Space


Antwort von pillepalle:

Edit: Völliger Quatsch. Hatte nur nicht kapiert das man das nur im neuen RAW-Menu der Kamera umstellen kann. Ist etwas umständlicher, aber geht. Also DX RAW und FX RAW.
(Hab das gerade nochmal ausprobiert, aber im RAW Modus kann man tatsächlich nur im Vollformat Filmen. Auch wenn die Kamera im DX/Crop Modus steht, schaltet sie auf FX um, sobald der Ninja ein RAW-Signal erkennt.)
Vom Wechsel von DX zu FX mache ich recht regen Gebrauch. Da kann ich aus dem Bildwinkel meines 35ers, mal eben per Knopfdruck den Bildwinkel eines 50ers machen. Dafür gibt's aber auch Vorteile. Man kann in RAW bis 100 ASA runter gehen. Das erspart einem hin und wieder den ND Filter.

VG

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Bei modernen Sensoren finden eine Menge Berechnungen schon auf dem Sensor (sozusagen auf Pixelebene) statt. Ich kenne zwar den Sigma Sensor nicht, aber das da irgendwas skaliert wird wie in Photoshop, ist in meinen Augen eine sehr naive Vorstellung. Daher ist auch der Gedanke, dass Video und Matrix nicht übereinstimmen könnten, eher als wilde Theorie zu betrachten ;)
Nein, das ist tatsächlich so, lies mal Slashcams Test der Sigma fp:

https://www.slashcam.de/artikel/Test/Vo ... html#Die_S

Bei der Kamera wird das 6K-Bayer-Pattern des Sensors auf ein 4K-Bayer-Pattern in der RAW-Aufzeichnung runterskaliert, ohne Windowing/Sensorcrop. Und genau das gleiche machen jetzt Nikon/Atomos bei der ProRes RAW-Aufzeichnung der Z6/Z7.
Mir geht es eigentlich nur darum, dass *runterskaliert* sehr viele Bedeutungen haben kann. Bei dir klingt es nach einfachem Zusammenfassen, ohne dass auf die Bayernmatrix geachtet wird. Und das ist eine Vermutung, mehr nicht. Meines Erachtens eine ziemlich wilde.

Space



Space


Antwort von Beavis27:

Schade nur, daß man das neue Feature nur nutzen kann, wenn man einen Mac hat!
Da muß ich wahrscheinlich nochmal ein Jahr warten, bis auch ich Raw mit meiner Z7 aufnehmen kann.

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Mir geht es eigentlich nur darum, dass *runterskaliert* sehr viele Bedeutungen haben kann. Bei dir klingt es nach einfachem Zusammenfassen, ohne dass auf die Bayernmatrix geachtet wird. Und das ist eine Vermutung, mehr nicht. Meines Erachtens eine ziemlich wilde.
Lies Dir doch einfach mal den von mir oben verlinkten Slashcam-Test durch bzw. sieh' Dir die Testbilder an...

Space


Antwort von Jott:

Beavis27 hat geschrieben:
Schade nur, daß man das neue Feature nur nutzen kann, wenn man einen Mac hat!
Wieso? Edius, Adobe, Avid unter Windows können’s schon bzw. ist angekündigt. Oder was meinst du?

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Mir geht es eigentlich nur darum, dass *runterskaliert* sehr viele Bedeutungen haben kann. Bei dir klingt es nach einfachem Zusammenfassen, ohne dass auf die Bayernmatrix geachtet wird. Und das ist eine Vermutung, mehr nicht. Meines Erachtens eine ziemlich wilde.
Lies Dir doch einfach mal den von mir oben verlinkten Slashcam-Test durch bzw. sieh' Dir die Testbilder an...
Was willst du denn damit sagen? Willst du denn wirklich anhand der Testbilder auf Algorithmen/Verfahren schließen?
Sorry.

Space


Antwort von Beavis27:

Jott hat geschrieben:
Beavis27 hat geschrieben:
Schade nur, daß man das neue Feature nur nutzen kann, wenn man einen Mac hat!
Wieso? Edius, Adobe, Avid unter Windows können’s schon bzw. ist angekündigt. Oder was meinst du?
Achso, das wußte ich noch nicht.
Danke für die Aufklärung!

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
cantsin hat geschrieben:


Lies Dir doch einfach mal den von mir oben verlinkten Slashcam-Test durch bzw. sieh' Dir die Testbilder an...
Was willst du denn damit sagen? Willst du denn wirklich anhand der Testbilder auf Algorithmen/Verfahren schließen?
Sorry.
Nochmals: Aus einer Bayer 6K-Matrix wird durch algorithmische Umrechnung eine Bayer 4K-Matrix erzeugt. Dabei werden 3x3 RGGB-Pixel jeweils zu 2x2 RGGB-Pixeln zusammengefasst (laut Slashcam-Test übrigens durch Line skipping: "Offensichtlich findet auch in diesem Format kein Full-Sensor-Readout mit vollem Downscaling statt").

Erklär mir bitte, wie das sauber vonstatten gehen soll.

Space


Antwort von roki100:

Bayer und Matrix und hin und her... ;) Auf jeden Fall ist die Sigma FP besser für deine zwecke geeignet, denn die letzte Aufnahme von dem Theater da, sah am Besten aus... Anscheint hat Sigma etwas besser gemacht, als alle deine andere Kameras... ;)

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:

Was willst du denn damit sagen? Willst du denn wirklich anhand der Testbilder auf Algorithmen/Verfahren schließen?
Sorry.
Nochmals: Aus einer Bayer 6K-Matrix wird durch algorithmische Umrechnung eine Bayer 4K-Matrix erzeugt. Dabei werden 3x3 RGGB-Pixel jeweils zu 2x2 RGGB-Pixeln zusammengefasst (laut Slashcam-Test übrigens durch Line skipping: "Offensichtlich findet auch in diesem Format kein Full-Sensor-Readout mit vollem Downscaling statt").

Erklär mir bitte, wie das sauber vonstatten gehen soll.
Man könnte gleich auf Sensorebene Pixel (Sensel) zusammenfassen. Mal als Beispiel.

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Man könnte gleich auf Sensorebene Pixel (Sensel) zusammenfassen. Mal als Beispiel.
Welchen Unterschied macht das? Nochmals, ich bestreite ja nicht den Sinn von Downsampling/Sensel-Zusammenfassung, sondern nur den Sinn davon, das auf der Ebene von Bayer-Mustern zu tun. Völlig egal, ob das in Hardware oder Software passiert. (Und in beiden Fällen muss dafür irgendein mathematisch beschreibbares Verfahren angewendet werden.)

Space



Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Man könnte gleich auf Sensorebene Pixel (Sensel) zusammenfassen. Mal als Beispiel.
Welchen Unterschied macht das? Nochmals, ich bestreite ja nicht den Sinn von Downsampling/Sensel-Zusammenfassung, sondern nur den Sinn davon, das auf der Ebene von Bayer-Mustern zu tun. Völlig egal, ob das in Hardware oder Software passiert. (Und in beiden Fällen muss dafür irgendein mathematisch beschreibbares Verfahren angewendet werden.)
Der Unterschied wäre, dass ich einmal Daten eines 6k Sensors habe und diese dann verarbeite (mit Verringerung auf 4K), das andere mal aus einem 6k Sensor nur die Daten für 4k auslese.
Kann man das anhand des Testbildes feststellen?

Nachtrag: in diesem kleinen Disput mit cantsin dreht es sich um die Sigma Cam. Bitte nicht einfach auf die Nikon übertragen.

Space


Antwort von Axel:

Hm, line skipping wäre wahrscheinlich ein dealbreaker.
Aber ich bin trotzdem auf Reviews gespannt. Nach einem so überzogen langen Trommelwirbel wäre ein Bild voller Artefakte für drei Parteien heftigste Blamage in dieser Passage, und Apple (preismäßig der Einstieg und damit für viele der erste Kontakt mit PRAW) wäre eine davon. Kaum vorstellbar, dass da keine Ingenieure aus Cupertino mit im Boot saßen. Und kaum vorstellbar, dass für einen bloßen proof of concept (Raw über HDMI) Nikon 200 Euro Upgradegebühr erheben würde. Zumal da die Konkurrenz schon länger ihre Flaggen gehisst hat. Zum Glück gibt es kritische Tester zuhauf, nicht zuletzt unsere bewährte slahCAM Redaktion.

Space


Antwort von iasi:

6k-Raw für 4k wäre ideal, wenn der Rolling Shutter sich in Grenzen halten würde.

Aber 4k-Raw von einem 6k-Sensor ist nicht Fisch, nicht Fleisch.

Bei der Sigma fp kann man diesen Kompromiss vielleicht noch eingehen, da Größe und Gewicht einzigartig sind und auf eine externe SSD geschrieben wird.

Die Nikon-Lösung ist hingegen nur für Leute interessant, die schon reichlich Nikon-Linsen besitzen oder die Kamera vorwiegend zum Fotografieren nutzen.
Vorausgesetzt, diese Leute verfügen über die passende Software. ;)

Jedenfalls ist eine P6k noch immer die konsequentere Film-Lösung.

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Der Unterschied wäre, dass ich einmal Daten eines 6k Sensors habe und diese dann verarbeite (mit Verringerung auf 4K), das andere mal aus einem 6k Sensor nur die Daten für 4k auslese.
Letzteres kannst Du aber entweder nur durch Windowing tun (so, wie es Arri, RED und praktisch alle professionellen Kameramodelle tun) oder durch eine Auslesung, die nicht in einem durchgängigen RGGB-Bayer-Muster resultiert, zumindest nicht bei der Reduktion von 6K nach 4K.

Stattdessen wird ein fiktives Bayer-Muster erzeugt, dass nicht mehr mit den Senseln des Sensors korrespondiert (und deshalb auch all die im Slashcam-Test beschriebenen Artefakte aufweist).

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Der Unterschied wäre, dass ich einmal Daten eines 6k Sensors habe und diese dann verarbeite (mit Verringerung auf 4K), das andere mal aus einem 6k Sensor nur die Daten für 4k auslese.
Letzteres kannst Du aber entweder nur durch Windowing tun (so, wie es Arri, RED und praktisch alle professionellen Kameramodelle tun) oder durch eine Auslesung, die nicht in einem durchgängigen RGGB-Bayer-Muster resultiert, zumindest nicht bei der Reduktion von 6K nach 4K.

Stattdessen wird ein fiktives Bayer-Muster erzeugt, dass nicht mehr mit den Senseln des Sensors korrespondiert (und deshalb auch all die im Slashcam-Test beschriebenen Artefakte aufweist).
Für mich sehen die Artefakte der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.

Space


Antwort von pillepalle:

Verstehe nicht so ganz warum es bei RAW mehr Artefakte geben sollte als bei den 10bit ProRes? Da macht es doch die Kamera und der Ninja speichert 'nur'. Macht das in RAW der Ninja V? Und muss das zwangsläufig schlechter sein, wenn es dann so wäre?

Ich werde die Tage mal versuchen ein paar 'schwierige' Motive zu filmen. Mit feinen Strukturen. Bisher hab ich jedenfalls keine Artefakte entdecken können und denke auch nicht das es eine große Praxisrelevanz hat.
Kann ja auch sein das die Sigma diesbezüglich tatsächlich schlechter ist.

VG

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Für mich sehen die Artefakte der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.
Skipping und fiktives Pattern ist doch dasselbe, zumindest wenn bei der Auflösungsreduktion von 6K nach 4K wieder ein durchgängiges RGGB-Bayer-Pattern erzeugt wird. (Ich frage mich wirklich, ob wir die ganze Zeit aneinander vorbeireden...)

Ein Bayer-Pattern ist normalerweise eine 1:1-Repräsentation der Sensorpixel/Sensel. Alle Skalierungen/Auflösungsreduktionen werden normalerweise nach dem Debayering gemacht, was auch technisch sinnvoll ist. (Da man wahrgenommene Farbwerte runterskaliert, nicht ein Raster. Genau so, wie man Bild für den Druck erst skaliert und dann rastert, und nicht von einem Raster in ein anderes herunterrechnet.)

Bei der Sigma fp und nun auch beim ProRes Raw der Z6/Z7 haben wir es zum ersten Mal mit Bayer-Pattern zu tun, die nicht mehr 1:1 mit Senseln korrespondieren. Und wo auch nicht einfach Sensel ausgelassen werden, denn sonst gäbe es im auflösungsreduzierten, undebayerten Signal ein anderes Pixelmuster als durchgängig RGGB. Es werden also RGGB-Pixel mit Werten erzeugt, die nicht mehr Sensel-RGGB-Werten entsprechen.

Daher "fiktives" Bayer-Pattern.

Space


Antwort von iasi:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Für mich sehen die Artefakte der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.
Skipping und fiktives Pattern ist doch dasselbe, zumindest wenn bei der Auflösungsreduktion von 6K nach 4K wieder ein durchgängiges RGGB-Bayer-Pattern erzeugt wird. (Ich frage mich wirklich, ob wir die ganze Zeit aneinander vorbeireden...)

Ein Bayer-Pattern ist normalerweise eine 1:1-Repräsentation der Sensorpixel/Sensel. Alle Skalierungen/Auflösungsreduktionen werden normalerweise nach dem Debayering gemacht, was auch technisch sinnvoll ist. (Da man wahrgenommene Farbwerte runterskaliert, nicht ein Raster. Genau so, wie man Bild für den Druck erst skaliert und dann rastert, und nicht von einem Raster in ein anderes herunterrechnet.)

Bei der Sigma fp und nun auch beim ProRes Raw der Z6/Z7 haben wir es zum ersten Mal mit Bayer-Pattern zu tun, die nicht mehr 1:1 mit Senseln korrespondieren. Und wo auch nicht einfach Sensel ausgelassen werden, denn sonst gäbe es im auflösungsreduzierten, undebayerten Signal ein anderes Pixelmuster als durchgängig RGGB. Es werden also RGGB-Pixel mit Werten erzeugt, die nicht mehr Sensel-RGGB-Werten entsprechen.

Daher "fiktives" Bayer-Pattern.
so oder so ist es suboptimal - ein Kompromiss

6k-Raw wäre schon in der Cine-Cam-Klasse, wobei dann eben noch die Auslesegeschwindigkeit eine bedeutende Rolle spielen würde.

Ich hab mich nun nicht sehr mit ProRes-Raw beschäftigt - vielleicht ist es ja ein pseudo-Raw, das ein Skalieren erlaubt.

Space


Antwort von pillepalle:

Wieso sollte ProRes Raw ein pseudo RAW sein? Wenn man Cropt liest man eben nur den Mittleren Teil des Sensors aus. Geht im Fotomodus übrigens auch und da spricht niemand von pseudo RAW.

Wartet doch erst einmal ab anstatt vorher schon zu Unken. Mir kommt diese Diskussion jedenfalls ziemlich akademisch vor und hat vermutlich auch kaum Relevanz in der Praxis. Ich habe dieses Jahr über 300 Std. ProRes gefilmt und mir sind nirgendwo Artefakte aufgefallen, geschweige denn anderen Leuten. Und das trotz des 'schlechten' downdamplings 😉

VG

Space



Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Für mich sehen die Artefakte der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.
Skipping und fiktives Pattern ist doch dasselbe, zumindest wenn bei der Auflösungsreduktion von 6K nach 4K wieder ein durchgängiges RGGB-Bayer-Pattern erzeugt wird. (Ich frage mich wirklich, ob wir die ganze Zeit aneinander vorbeireden...)

Ein Bayer-Pattern ist normalerweise eine 1:1-Repräsentation der Sensorpixel/Sensel. Alle Skalierungen/Auflösungsreduktionen werden normalerweise nach dem Debayering gemacht, was auch technisch sinnvoll ist. (Da man wahrgenommene Farbwerte runterskaliert, nicht ein Raster. Genau so, wie man Bild für den Druck erst skaliert und dann rastert, und nicht von einem Raster in ein anderes herunterrechnet.)

Bei der Sigma fp und nun auch beim ProRes Raw der Z6/Z7 haben wir es zum ersten Mal mit Bayer-Pattern zu tun, die nicht mehr 1:1 mit Senseln korrespondieren. Und wo auch nicht einfach Sensel ausgelassen werden, denn sonst gäbe es im auflösungsreduzierten, undebayerten Signal ein anderes Pixelmuster als durchgängig RGGB. Es werden also RGGB-Pixel mit Werten erzeugt, die nicht mehr Sensel-RGGB-Werten entsprechen.

Daher "fiktives" Bayer-Pattern.
Skipping und fiktives Pattern sind das selbe, aber fiktives Pattern ist nicht unbedingt Skipping. Bei manchen Sachen, vor allem, wenn sie neu sind, sollte man sich ab und zu mal deren Komplexität vor Augen führen. Nichts anderes will ich sagen.

Space


Antwort von iasi:

pillepalle hat geschrieben:
Wieso sollte ProRes Raw ein pseudo RAW sein? Wenn man Cropt liest man eben nur den Mittleren Teil des Sensors aus. Geht im Fotomodus übrigens auch und da spricht niemand von pseudo RAW.

VG
Was ist denn mit dem Vollformat-Modus, bei dem aus 6k plötzlich 4k werden?

Im Crop-Mode sind es 4k von S35 - da bietet die P6k mehr.

Space


Antwort von roki100:

Also CinemaDNG von der Blackmagic Kameras sieht zuerst schlechter aus als ProRes. Doch dann kann man nachträglich mehr machen als mit ProRes, nämlich WB/ColorTemp, ISO, Highlights. Ganz einfach: wenn nachträglich alles das fehlt und man sollte beim dreh schon darauf achten, korrekte ISO, ColorTemp Wert zu setzen, dann ist das nach meiner Verständnis von RAW, kein RAW, sondern nur ein besseres ProRes (12Bit)...?

Also wenn 6K auf 4K skaliert wird, sehe ich das eher als Vorteil (macht man nachträglich sowieso) doch nachträgliche Korrektor wie ISO, ColorTemp, dass muss doch dabei sein? Ist bei RAW Fotos doch auch so?

Space


Antwort von iasi:

dienstag_01 hat geschrieben:

Skipping und fiktives Pattern sind das selbe, aber fiktives Pattern ist nicht unbedingt Skipping. Bei manchen Sachen, vor allem, wenn sie neu sind, sollte man sich ab und zu mal deren Komplexität vor Augen führen. Nichts anderes will ich sagen.
4k-Raw ergibt kein 4k. Das ist schon mal ein Nachteil.

Wie ein sauberes Debayering stattfinden soll, wenn die Werte benachbarter Sensel nicht vorhanden sind, vermag ich mir nur schwer vorzustellen.

Space


Antwort von pillepalle:

@iasi

Natürlich lassen die beim downsampling einen Teil der Informationen weg. Aber deshalb muss da doch nichts vorher schon eingebacken werden.

Dich hindert ja auch niemand daran ne Pocket zu nutzen. Ich finde die Nikon als Kamera besser und hatte schon passende Optiken, deshalb war ich auch nicht wild auf die Pocket. Jeder so wie er mag.

@Roki

In ProRes Raw kannst Du doch auch die WB nachträglich verschieben.

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Wieso sollte ProRes Raw ein pseudo RAW sein? Wenn man Cropt liest man eben nur den Mittleren Teil des Sensors aus. Geht im Fotomodus übrigens auch und da spricht niemand von pseudo RAW.
Geht nicht bei der Z6/Z7 (aber immerhin bei der Sigma fp). Wie hier jemand früher in diesem Thread schrieb, schaltet das Kameramenü automatisch von APS-C-Crop nach Full Frame-Auslesung, wenn ProRes Raw-Aufzeichnung aktiviert wird.

Space


Antwort von roki100:

pillepalle hat geschrieben:
@Roki

In ProRes Raw kannst Du doch auch die WB nachträglich verschieben.
ja, aber handelt es sich um die selben Regler wie die die man für ProRes benutzt? Da ProRes RAW scheinbar keine extra RAW Optionen hat, dann kannst Du nur so herausfinden, indem Du mit völlig falsche ColorTemp Wert aufnimmst, also übertreiben z.B. auf +4000 in der Kamera ColorTemp einstellst und dann nachträglich schauen, ob man es exakt so korrigieren kann, als hättest Du mit optimalen ColorTemp Wert aufgenommen.
CDNG/RAW Regler für ColorTemp ist völlig was anderes, als die Regler ColorTemp, Tint etc. was man (z.B. in DaVinci Resolve) unter Color Wheels findet. Auch RAW Exposure(=ISO) ist völlig was anderes als Gain...

Space


Antwort von pillepalle:

cantsin hat geschrieben:
]

Geht nicht bei der Z6/Z7 (aber immerhin bei der Sigma fp). Wie hier jemand früher in diesem Thread schrieb, schaltet das Kameramenü automatisch von APS-C-Crop nach Full Frame-Auslesung, wenn ProRes Raw-Aufzeichnung aktiviert wird.
Das hatte ich fälschlicherweise geschrieben. Natürlich geht das bei der Z6.

@roki100

Habe wie schon gesagt gerade wenig Zeit, aber in einer ruhigen Minute schaue ich mir Edius mal an und wo ich da welche Regler finde. Ich bin mir auch sicher das man damit mehr Flexibilität haben wird als mit normalem ProRes. Mache Dir dann auch ein paar schräge Aufnahmen zur Demo 😉

VG

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Skipping und fiktives Pattern sind das selbe, aber fiktives Pattern ist nicht unbedingt Skipping. Bei manchen Sachen, vor allem, wenn sie neu sind, sollte man sich ab und zu mal deren Komplexität vor Augen führen. Nichts anderes will ich sagen.
Klar, da sind wir auf einer Linie.

Nur entsteht durch die "neuen" Raw-Videoaufzeichnungsverfahren (wie Blackmagics vordebayertes BRAW, das wohl faktisch eher 12bit-Log ist, und nun auch Sigmas und Nikons auflösungsreduziertes RAW mit fiktiven Bayern-Pattern) erstmals die Situation, dass RAW nicht mehr per definitionem synonym mit der bestmöglichen Video-Signalqualität ist.

Gutes Beispiel sind das 4K-Full Frame-CinemaDNG der Sigma fp ggü. der 6K h265- und 4K-h264-Videoaufzeichnung der Panasonic S1H. Beide Kameras haben denselben Sensor - und sehr wahrscheinlich stammt auch die gesamte übrige Kameraelektronik der Sigma fp von Panasonic -, aber die S1H liefert in h265/h264 ein qualitativ deutlich besseres Videosignal als die Sigma fp in RAW.

Bei der Nikon Z6/Z7 und ProRes RAW bin ich gespannt auf Slashcams Testergebnisse. Wäre den Nikon-Besitzern sehr zu wünschen, dass das Bayer-Signal mit besseren Verfahren runterskaliert wird als bei der Sigma fp.

Space



Space


Antwort von roki100:

cantsin hat geschrieben:
aber die S1H liefert in h265/h264 ein qualitativ deutlich besseres Videosignal als die Sigma fp in RAW.
Das verstehe ich wiedermal nicht. Ist h265/h264 von S1H dann auch besser für nachträgliche Bearbeitung als RAW von Sigma FP? Denn darum geht es ja... und nicht darum was Kameraintern passiert und geliefert wird.

Space


Antwort von pillepalle:

Eigentlich liegt der Sinn von RAW in der höheren Flexibilität in der Post und darin den Rechenintensiven Teil der Verarbeitung nicht die Kamera machen zu lassen, sondern den leistungsfähigeren externen Rechner. Zumindest laut Allister Chapman, oder wie der Vogel heißt...

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Eigentlich liegt der Sinn von RAW in der höheren Flexibilität in der Post und darin den Rechenintensiven Teil der Verarbeitung nicht die Kamera machen zu lassen, sondern den leistungsfähigeren externen Rechner.
Was allerdings von derart stark bereits in der Aufnahme-Pipeline prozessiertem RAW konterkariert wird.... Schätze mal, dass die Signalverarbeitung von skaliertem ProRes RAW deutlich komplexer ist als 10bit-Videoaufzeichnung.

Space


Antwort von cantsin:

roki100 hat geschrieben:
cantsin hat geschrieben:
aber die S1H liefert in h265/h264 ein qualitativ deutlich besseres Videosignal als die Sigma fp in RAW.
Das verstehe ich wiedermal nicht. Ist h265/h264 von S1H dann auch besser für nachträgliche Bearbeitung als RAW von Sigma FP?
Tja, wenn man diesem Video hier glauben darf:

https://youtu.be/rghbaHoVRsk?t=676

Space


Antwort von pillepalle:

cantsin hat geschrieben:
Was allerdings von derart stark bereits in der Aufnahme-Pipeline prozessiertem RAW konterkariert wird....
Eben, alles nur Vermutungen. Wenig Wissen ;)

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
cantsin hat geschrieben:
Was allerdings von derart stark bereits in der Aufnahme-Pipeline prozessiertem RAW konterkariert wird....
Eben, alles nur Vermutungen. Wenig Wissen ;)
Sorry, was ist denn bitte eine Vermutung und kein Wissen, dass:
(a) bei der Sigma fp und Nikon Z6/Z7 die Sensorauflösung auf Bayer-Pattern-Ebene verringert wird und in fiktiven Bayer-Pattern resultiert, um (aus Kompatibilitätsgründen) der Nachbearbeitungssoftware Sensor-RAW vorzugaukeln;
(b) bei BRAW bereits kameraintern heftige Signalverarbeitung inkl. temporal Denoising und Debayering stattfindet.

Das sind Fakten.

Und nur um das klarzustellen: Ich bin kein RAW-Purist und behaupte nicht, dass diese Verfahren per se schlecht sind. (BRAW hat viele Vorteile in der Praxis, und bei der Z6/Z7-ProRes Raw-Aufzeichnung muss man noch sehen, wie gut die 4K-Skalierung in der Praxis aussieht.)

Sie führen nur zu einer neuen Situation, wo die alte Gleichung "Raw = un- bzw. wenig prozessiertes Signal" nicht mehr gilt, und damit auch eine ganze Reihe von Grundannahmen über die Vorteile von Raw-Aufzeichnung. Wie am Beispiel Sigma fp vs. Panasonic S1h ausgeführt, gibt es bereits heute Beispiele, in denen Raw-Aufzeichnung klassischer Videoaufzeichnung bildqualitativ unterlegen ist.

Damit gelten für Videokameras jetzt die gleichen neuen Gewissheiten wie für Smartphone-Kameras (bei denen RAW-Fotografie auch oft qualitativ schlechter ist als die eingebauten und kameraoptimierten algorithmischen Bildverbesserungen bzw. computational photography).

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Skipping und fiktives Pattern sind das selbe, aber fiktives Pattern ist nicht unbedingt Skipping. Bei manchen Sachen, vor allem, wenn sie neu sind, sollte man sich ab und zu mal deren Komplexität vor Augen führen. Nichts anderes will ich sagen.
Klar, da sind wir auf einer Linie.

Nur entsteht durch die "neuen" Raw-Videoaufzeichnungsverfahren (wie Blackmagics vordebayertes BRAW, das wohl faktisch eher 12bit-Log ist, und nun auch Sigmas und Nikons auflösungsreduziertes RAW mit fiktiven Bayern-Pattern) erstmals die Situation, dass RAW nicht mehr per definitionem synonym mit der bestmöglichen Video-Signalqualität ist.

Gutes Beispiel sind das 4K-Full Frame-CinemaDNG der Sigma fp ggü. der 6K h265- und 4K-h264-Videoaufzeichnung der Panasonic S1H. Beide Kameras haben denselben Sensor - und sehr wahrscheinlich stammt auch die gesamte übrige Kameraelektronik der Sigma fp von Panasonic -, aber die S1H liefert in h265/h264 ein qualitativ deutlich besseres Videosignal als die Sigma fp in RAW.

Bei der Nikon Z6/Z7 und ProRes RAW bin ich gespannt auf Slashcams Testergebnisse. Wäre den Nikon-Besitzern sehr zu wünschen, dass das Bayer-Signal mit besseren Verfahren runterskaliert wird als bei der Sigma fp.
RAW hieß eben noch nie bestmöglich, das haben viele genau so lange geglaubt, wie die Prozessoren in den Cams noch nicht für bestimmte rechenintensive Aufgaben geeignet waren. Allgemein kann man vielleicht sagen, dass sich der Vorteil von RAW im Vergleich zu anderen Formaten DERSELBEN Kamera zu beweisen hat, alles andere idealisiert das Format (RAW). Eine Art Wolkenkuckucksheim-RAW (in Analogie zum fiktiven), sehen wir ja jetzt ;)

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Allgemein kann man vielleicht sagen, dass sich der Vorteil von RAW im Vergleich zu anderen Formaten DERSELBEN Kamera zu beweisen hat, alles andere idealisiert das Format (RAW).
Völlig einverstanden. Wobei es dann wirklich spannend bei der Panasonic S1H werden könnte, falls deren ProRes RAW-Aufzeichnung auch nur in 'runtergerechnetem 4K möglich sei sollte.

Und, wie gesagt, bei High End-Smartphones ist die von Dir beschriebene Situation (RAW hat keine Vorteile mehr, sondern sogar bildqualitative Nachteile ggü. dem kameraintern prozessierten Bild) bereits Realität.

Space


Antwort von iasi:

pillepalle hat geschrieben:
@iasi

Natürlich lassen die beim downsampling einen Teil der Informationen weg. Aber deshalb muss da doch nichts vorher schon eingebacken werden.
Nun - wenn sie einen Teil der Informationen weglassen, dann funktioniert der Debayer-Algorithmus nicht mehr optimal.

Space


Antwort von pillepalle:

Gut möglich das er der Debayer-Algorythmus nicht mehr optimal funktioniert, könnte aber auch sei dass sie sich eine intelligenter Methode einfallen lassen um das Bild runter zu skalieren und es dann trotzdem ganz gut passt.

Ich würde jedenfalls erstmal abwarten was da tatsächlich hinten raus kommt, anstatt vorher zu spekulieren und anzunehmen alle Kameras müssten so schlecht abschneiden wie die Sigma.

VG

Space


Antwort von iasi:

cantsin hat geschrieben:

Sorry, was ist denn bitte eine Vermutung und kein Wissen, dass:
(a) bei der Sigma fp und Nikon Z6/Z7 die Sensorauflösung auf Bayer-Pattern-Ebene verringert wird und in fiktiven Bayer-Pattern resultiert, um (aus Kompatibilitätsgründen) der Nachbearbeitungssoftware Sensor-RAW vorzugaukeln;
(b) bei BRAW bereits kameraintern heftige Signalverarbeitung inkl. temporal Denoising und Debayering stattfindet.
Da vergleichst du nun aber Äpfel mit Birnen.

Sigma und Nikon werfen Sensordaten über Bord, da die Auslesegeschwindigkeit zu niedrig und/oder die Datenmenge zu groß wird.
Wenn im Crop der Sensor beschnitten wird, bleibt wenigstens die Bayer-Struktur erhalten. Bei der Nutzung der vollen Sensorfläche leidet diese Struktur.

BRAW ist kein reines Raw, aber es liefert eben doch alle Pixeldaten - wenn auch in bearbeiteter Form.

Space


Antwort von iasi:

pillepalle hat geschrieben:
Gut möglich das er der Debayer-Algorythmus nicht mehr optimal funktioniert, könnte aber auch sei dass sie sich eine intelligenter Methode einfallen lassen um das Bild runter zu skalieren und es dann trotzdem ganz gut passt.
Das kann sein - vielleicht bietet hier ProRes-Raw einen Ansatz.

Space


Antwort von rush:

Ich würde mir da auch keine allzu großen Sorgen machen... einerseits haben Apple, Atomos und Nikon da mehr als lange dran geschraubt - und zum anderen zeigt Sony doch seit Jahren wie gut etwa 6k auf 4k Downsampling innerhalb der Kamera am Ende aussehen kann...

https://www.slashcam.de/artikel/Test/Di ... utter.html

Das ganze dann noch sauber transportiert mit etwas mehr Datenrate und Bit-Tiefe aka ProRes Raw... ist ganz sicher allemal spürbar besser als die bisherigen 8bit 420 Derivate und der ganze Kram... so gesehen können Nikon Nutzer ja faktisch nur von profitieren wenn sie bereit sind nochmal ein paar Euronen klarzumachen.

Space


Antwort von iasi:

rush hat geschrieben:
Ich würde mir da auch keine allzu großen Sorgen machen... einerseits haben Apple, Atomos und Nikon da mehr als lange dran geschraubt - und zum anderen zeigt Sony doch seit Jahren wie gut etwa 6k auf 4k Downsampling innerhalb der Kamera am Ende aussehen kann...
Da werden nicht 6k-Raw auf 4k-Video heruntergerechnet, was ja in der Post auch mit 6k-Raw passiert, sondern 6k-Raw auf 4k-Raw reduziert.

Für die Panasonic S1H sollen es dann ja auch 5,9k-ProRes-Raw sein, was eben weit kompromissloser wäre, als dieses 6k --> 4k.

Space


Antwort von pillepalle:

Ich habe jetzt mal zwei Videostills in voller Auflösung hochgeladen. Einmal ein ProRes Raw Bild und einmal ein ProRes422HQ (je 26MB). Von Artefakten ist selbst in feinen Strukturen (wie Dachziegeln, oder feinen Ästen in der Ferne) keine Spur. Ist allerdings auch nicht verwunderlich, weil die Bilder natürlich noch nicht geschärft und flau sind. Artefakte entstehen ja oft auch erst durch falsche Nachbewarbeitung. Aufgenommen sind die mit Blende 13, sollten also eigentlich von vorne bis hinten rappelscharf sein.

Komme mit Edius allerdings immer noch nicht klar, die Timeline kann man nur auf 8 bit oder 10bit einstellen, ein RAW Menu konnte ich auch nirgendwo finden, genau so wenig wie irgendwelche Importeinstellungen. Ich ziehe die ganz blöd einfach per drag&drop in die Timeline. Noch nicht mal einen Tab für's Graden gefunden... *lol* Muss vielleicht doch mal versuchen die Files in Final Cut zu importieren um zu schauen was man damit machen kann.

http://giotta.com/ProRes_Raw.bmp

http://giotta.com/ProRes422HQ.bmp

VG

Space


Antwort von roki100:

Ist das eine Samyang (12mm) Linse? Ich sehe da auch keine Artefakte, außer die Unschärfe... So sah es es aus als ich letztens eine Samyang (mft) 12mm Linse getestet habe. Fand die Unschärfe sehr schlecht...

Du hast doch ne Katze, diese Model da. Film die doch mal in ProRes RAW ;)

EDIT:
Vorhin konnte ich die Bilder noch sehen. Jetzt erscheint die Meldung: Objekt nicht gefunden

Space


Antwort von pillepalle:

@ roki100

Das ist ein 1.4/35er Zeiss Distagon. Wie gesagt, die Aufnahme ist scharf, nur noch nicht nachgeschärft. Die kommen immer erst einmal so weich aus der Kamera. Auch die Beugung spielt bei der Auflösung noch keine große Rolle. Weiss es gerade gar nicht genau, aber ich glaube die Kamera hat einen Tiefpassfilter drin. Keine Ahnung warum die Bilder weg waren. Jetzt sind sie wieder da.

VG

Space


Antwort von Darth Schneider:

An roki100
Also mein Samjang 12 mit MFT, mm ist überhaupt nicht unscharf, und zeigt auch sonst keine Mängel. Das ist eine super Linse.
Als Nächstes mal hol ich mit das 35iger, oder ein 50iger von Samjang.
Die Samjangs werden ja auch zum fotografieren benutzt, und verkauft, wüsste jetzt nicht warum die zum in HD zu filmen jetzt zu unscharf sein sollten.
Vielleicht war dein getestetes Model fehlerhaft....
Gruss Boris

Space


Antwort von pillepalle:

Da sich roki100 ein Katzenvideo gewünscht hat, komme ich seinem Wunsch natürlich gerne nach :D Einmal im berüchtigten downgesampleten Fullframe Modus und einmal im Crop-Modus. Aufgenommen bei ISO 200, 135mm, f5.6.

http://giotta.com/PR_RAW_FX.bmp

http://giotta.com/PR_RAW_DX.bmp

Ich entschuldige mich vorab bei allen Tierfreunden das es sich dabei um eine tote Katze handelt.

VG

Space


Antwort von rush:

pillepalle hat geschrieben:
Ich habe jetzt mal zwei Videostills in voller Auflösung hochgeladen. Einmal ein ProRes Raw Bild und einmal ein ProRes422HQ (je 26MB). Von Artefakten ist selbst in feinen Strukturen (wie Dachziegeln, oder feinen Ästen in der Ferne) keine Spur. Ist allerdings auch nicht verwunderlich, weil die Bilder natürlich noch nicht geschärft und flau sind.
Also so flau und unscharf sehen die *.braw stills aus der P4K bei mir eher nicht aus... schon gar nicht bei Blende 13! (warum überhaupt f/13?) Da ist womöglich nicht nur irgendwas flau, sondern eher etwas faul?! ;)

Space


Antwort von pillepalle:

Kann ich mir heute Abend noch mal anschauen. Vielleicht habe ich vergessen richtig zu fokussieren... Blende 13 weil ich keinen ND Filter verwenden wollte.

VG

Space


Antwort von Axel:

pillepalle hat geschrieben:
Komme mit Edius allerdings immer noch nicht klar, die Timeline kann man nur auf 8 bit oder 10bit einstellen, ein RAW Menu konnte ich auch nirgendwo finden, genau so wenig wie irgendwelche Importeinstellungen. Ich ziehe die ganz blöd einfach per drag&drop in die Timeline. Noch nicht mal einen Tab für's Graden gefunden... *lol* Muss vielleicht doch mal versuchen die Files in Final Cut zu importieren um zu schauen was man damit machen kann.
Du hättest ETTR anwenden sollen. Das hätte dir statt Blende 13 auch den ND-Filter erspart. Wäre dann rechnerisch zwischen 6 und 7 gewesen. Am sichersten gehts mit Zebra 100 plus. Gerade so abblenden, dass das Zebra verschwindet (ausgenommen Sonne und direkte Lichtquellen). Ausgehend von Beschreibungen zu Raw-Fotos mit dieser Kamera wäre die native Iso 800. Eine alternative ETTR-Methode zu Zebra in heller Umgebung wäre dann, auf Iso 200 zu stellen und nach Augenmaß abzublenden (am Zebra dürfte sich dann nichts ändern!). Weiß nicht, ob sich das von BM-Kameras übertragen lässt, aber versuchen kannst du's ja mal.
https://youtu.be/eXPApYc6Id4?t=197
Iso 200 wäre dann in FCPX (und natürlich auch in Edius) eine Meta-Date, mit der das eigentlich um zwei Blenden überbelichtete Bild lediglich vom NLE interpretiert wird. Hättest du mit Iso 800 aufgenommen (was du zwangsläufig eigentlich getan hast), hättest du es in FCPX mit einem grauenhaft geclippten, fast weißen Bild zu tun, was du aber über den Belichtungs-Regler (die spielzeugmäßig aussehende, von iMovie übernommene Farbtafel vermittelt noch am ehesten das Gefühl, tatsächlich mit Raw zu arbeiten) alles wieder zurückholen kannst. Mit dem im jüngsten slashCAM-Artikel beschriebenen Vorteil von absolut rauschfreien Tiefen. Das ist neben der ebenfalls nicht so kritischen Weißabgleichs-Bestimmung der Trumpf von Raw (Es ist banal, ein versehentlich auf 5600°K eingestelltes Kunstlichtbild nachträglich zu korrigieren. Raw ist dagegen besonders gut darin, Farbkontraste zu verstärken. Das bedeutet, dass man während der Aufnahme besonderes Augenmerk darauf richten sollte. Ein mit einer gleichmäßigen Lichtquelle beleuchtetes Bild sieht in Raw genau so flach aus wie überall sonst). Im Zweifelsfalle lieber etwas überbelichten, das ist ja einfach (man sollte natürlich trotzdem nicht zu schlampig sein, denn auch Raw clippt irgendwann, und das Matchen von zig völlig unterschiedlich belichteten Clips braucht man nicht zu forcieren).
pillepalle hat geschrieben:
http://giotta.com/ProRes_Raw.bmp

http://giotta.com/ProRes422HQ.bmp
Diese Bilder sind tatsächlich komplett unscharf. Aber aus reiner Neugier: wo ist das? Kommt mir bekannt vor. Welche Stadt?

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
An roki100
Also mein Samjang 12 mit MFT, mm ist überhaupt nicht unscharf, und zeigt auch sonst keine Mängel. Das ist eine super Linse.
Als Nächstes mal hol ich mit das 35iger, oder ein 50iger von Samjang.
Die Samjangs werden ja auch zum fotografieren benutzt, und verkauft, wüsste jetzt nicht warum die zum in HD zu filmen jetzt zu unscharf sein sollten.
Vielleicht war dein getestetes Model fehlerhaft....
Gruss Boris
Kannst Du vll. eine Testaufnahme von draußen machen? Also keine Nahaufnahme sondern etwas in der weite....und ohne nachschärfe. Ich meine, super scharf muss es nicht sein, aber das was ich gesehen habe, war wirklich sehr unscharf.

Space


Antwort von pillepalle:

@roki100

Ja, mache ich Dir später. Da gebe ich mir dann mal Mühe mit dem Fokus 🙈 Vielleicht auch noch weitwinkeliger als 35mm, weil die Strukturen für den Sensor dann noch feiner sind.

Aber eigentlich sind auch Felle und Stoffe oft eine Herausforderung. Deshalb fand ich die Katzen Idee gar nicht so schlecht. Das eine sind Siemenssterne und irgendwelche Testmuster, aber die Praxis ist eben nochmal was anderes. Da spielen viele Dinge die in der Theorie dramatisiert werden kaum noch eine Rolle.

VG

Space


Antwort von roki100:

@pillepalle
ich meinte Darth Schneider mit der Samyang 12mm Linse.

Die tote Katze sieht doch schick aus. :)

Space


Antwort von Jott:

pillepalle hat geschrieben:
Ich habe jetzt mal zwei Videostills in voller Auflösung hochgeladen.

http://giotta.com/ProRes_Raw.bmp

http://giotta.com/ProRes422HQ.bmp

VG
Ist das Satire?

Space


Antwort von Darth Schneider:

An roki100
Kann im Moment nix hochladen weil ich seit ich heute Morgen Resovle Studio auf Version 16 up gadatet habe, kann ich nix mehr exportieren....
Die Software sagt habe keine Berechtigung zum speichern, oder sowas.
Ich hab jetzt wenig Zeit, probiere es morgen wieder.....
So ein Kack...Ich hab nix verstellt, nicht das ich wüsste.
Gruss Boris

Space


Antwort von pillepalle:

@ Jott

Mensch, das war doch nur der Hack für cinematische Bilder mit der Z6 ;) Hier kommt noch ein extra scharfes

http://giotta.com/PRR_21.bmp

VG

Space


Antwort von Axel:



Ich habe auch die Vorgängervideos geguckt und die PRAW-Schnippsel runtergeladen.

Und ich bin nicht übermäßig beeindruckt.

Er vergleicht hier PRAW mit ProResHQ (warum nicht normalem 422?) und H.264 im NLog-Profil. Das Fazit: *halbwegs* richtig belichtet gibt es keinen Unterschied! Mir gefallen sogar die Farben ootb bei meinem Sony GFILM Profil (SLog2 mit kleinen Farbtweaks, nicht mehr nötig für A7iii, A6400 und A6600) besser. Und ich kann sie in dem Maße verbiegen, das mir sinnvoll erscheint.

Nicht falsch verstehen, es ist gewiss ein geiler Codec, sogar schnittfreundlicher als XAVC trotz Raw. Und mit der richtigen Kamera und der richtigen Bearbeitungssoftware: sonnenklare Sache.

Aber man würde sich das ständige Retten von Tiefen und Höhen nur antun, würde ich sagen, wenn man es wirklich ernst meint mit dem Grading. Und nicht nur ein bisschen korrigiert. Ich find's witzig, dass der freundliche Mann noch vor ein paar Tagen die Farbräder benutzt hat, als ich sagte, die Farbtafel sei für Raw ansprechfreundlicher (noch besser sind Kurven). Machen wir uns nichts vor, eine Schwalbe macht noch keinen Sommer, und FCP ist in Sachen Farbe trotz sukzessiver Nachrüstung nicht auf dem Niveau von Resolve. Die HSL-Farbmasken, die mit 10.4.7 nachgeliefert wurden, nützen einem nicht viel, wenn man das nicht machen kann, weil Layer-Nodes fehlen (getimet):
https://youtu.be/Il9CW3KbjPA?t=586

Wenn PRAW in Resolve Einzug hält, dann wird's ein Selbstläufer.

Space


Antwort von cantsin:

Axel hat geschrieben:
Wenn PRAW in Resolve Einzug hält, dann wird's ein Selbstläufer.
Die RAW Wars sind aus Nutzersicht einfach nur ärgerlich. Wünschenswert wäre, dass sowohl PRAW-, als auch BRAW-Unterstützung in alle relevanten NLEs und sonstigen Postproduktionsprogramme einzieht.

Space


Antwort von Axel:

cantsin hat geschrieben:
Axel hat geschrieben:
Wenn PRAW in Resolve Einzug hält, dann wird's ein Selbstläufer.
Die RAW Wars sind aus Nutzersicht einfach nur ärgerlich. Wünschenswert wäre, dass sowohl PRAW-, als auch BRAW-Unterstützung in alle relevanten NLEs und sonstigen Postproduktionsprogramme einzieht.
Der Langzeiteffekt wird sein, dass Raw insgesamt normaler wird, auch im Einsteiger / Low-Budget - Bereich der Kameras. Nicht unbedingt echtes Raw (siehe RED-Patente). Wozu brauchen wir zum Beispiel durch HEVC noch platzsparendere Kompression bei immer weiter fallenden Speicherkartenpreisen? Soll das ganze Jahr auf eine Briefmarke passen? Und irgendwann werden die gängigsten Geschmacksrichtungen überall unterstützt werden. Aber, wie man in Amiland sagt, halt nicht die Luft an.

Space


Antwort von cantsin:

roki100 hat geschrieben:
Ist das eine Samyang (12mm) Linse? Ich sehe da auch keine Artefakte, außer die Unschärfe... So sah es es aus als ich letztens eine Samyang (mft) 12mm Linse getestet habe. Fand die Unschärfe sehr schlecht...
(Offtopic)

Das Samyang 12mm hat Auflösungsschwächen an den Rändern, wenn man 4K-DCI (z.B. mit der Pocket 4K) aufnimmt, löst aber in der Bildmitte IMHO sehr ordentlich auf. Anbei ein mit der Pocket 4K geschossenes Test-DNG-Still, bei Blende 2.8.

An Deiner alten Pocket, mit ihrem 1"-Sensor, funktioniert das Objektiv besser; siehe das zweite Bild, bei dem Beschnitt und Auflösung der alten Pocket entsprechen.

https://data.pleintekst.nl/A002_11282259_S001.jpg


https://data.pleintekst.nl/A002_1128225 ... _scale.jpg


Space


Antwort von pillepalle:

Na ja, was Blackmagic machen könnte wäre BRaw over HDMI in den eigenen Recordern anzubieten. Lohnt sich vermutlich nur nicht für die 5 Nikon und Panasonic Nutzer...

VG

Space


Antwort von Jott:

Wer hat denn Lust, bei jedem einzigen Clip mühsam manuell die Bildfehler der billigen Optiken wegzumachen (insbesondere CA und Verzeichnungen), die man üblicherweise auf billigen Kameras verwendet? Mal ehrlich - ist viel angenehmer, wenn sich schon die Kamera selber drum kümmern kann. Was sie im raw-Modus naturbedingt nicht kann.

Erst neulich hat hier wieder einer geschrieben, raw sei geil, weil man sich nicht mehr um Belichtung und Weißabgleich kümmern muss. Cool. Aber mal angenommen, man beherrscht beides - eigentlich ja wohl Grundqualifikation jedes Kameramanns! - dann schrumpft die Wichtigkeit von raw auf eine vernachlässigbare Größe, wenn man nicht gerade im High End-Bereich zuhause ist. Und wer ist das denn schon von den hiesigen Diskutanten?

Andersrum: nur bei Kameras, die grundsätzlich keine Optikkorrektur vornehmen können/wollen, ist raw automatisch die bessere Wahl.

Andere Meinungen sind selbstverständlich gestattet!

Space


Antwort von pillepalle:

@ Jott

Ja, sehe ich ähnlich, wobei die Kamera ohnehin nur bei internen Aufnahmen und Z-Optiken korrigiert. Berührt mich also nicht weil ich ja immer über den Ninja aufnehme. Braucht ja noch nicht mal Billigglas zu sein. Selbst viele hochgelobte Fuji und Panasonic Optiken sehen ohne interne Korreltur der Kamera ziemlich gruselig aus. Das sind die modernen Zeiten. Alles muss speziell sein, nix ist kompatibel und so kauft man ständig neuen Kram. Ich persönlich verzichte da lieber auf die neusten Gimmicks und nutze das Equipment dafür länger. Dann darf es auch mal etwas mehr kosten.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Na ja, was Blackmagic machen könnte wäre BRaw over HDMI in den eigenen Recordern anzubieten.
Das tun sie bereits mit dem neuen Blackmagic Video Assist 12G HDR (zumindest über SDI, weiss nicht ob es auch via HDMI geht).
Jott hat geschrieben:
Erst neulich hat hier wieder einer geschrieben, raw sei geil, weil man sich nicht mehr um Belichtung und Weißabgleich kümmern muss. Cool. Aber mal angenommen, man beherrscht beides - eigentlich ja wohl Grundqualifikation jedes Kameramanns! - dann schrumpft die Wichtigkeit von raw auf eine vernachlässigbare Größe, wenn man nicht gerade im High End-Bereich zuhause ist. Andere Meinungen sind selbstverständlich gestattet!
Die Behauptung, dass man sich bei RAW nicht mehr um die Belichtung kümmern müsse, stimmt ja sowieso nicht...

Aber: RAW hat auch im Low-End-Bereich (z.B. beim Drehen in Clubs und von Konzerten/Bühnen) klare Vorteile, wenn man in nicht-kontrollierten Lichtbedingungen drehen muss: Bei Mischlicht (schnell wechselnden und gemischten Farbtemperaturen), bei Schwachlicht (weil man in der Post mit Neat & Co. deutlich besser/hochqualitativer entrauschen kann als in der Kamera), wenn man - für bestimmte Looks - künstliche Nachschärfungen und Rauschfilter ganz abschalten will oder wenn man extreme Grades macht (z.B. Simulation von Crossprocessing), und wenn man Material in anderen Projekten mit völlig anderen Looks wiederverwenden will.

Praktisches Beispiel: Das gefürchtete Magenta-Bühnenlicht, das heutzutage praktisch überall bei Konzerten geleuchtet wird und auf Video i.d.R. schlimm aussieht, kann man bei RAW-Material ziemlich gut neutralisieren bzw. abmildern. (Das geht zwar auch mit Gegensteuern beim Weißabgleich bei herkömmlichen Videokameras - doch der hilft dann nicht mehr bei Mischlicht.) Im Extremfall kann man sogar verschiedene Bildteile maskieren & tracken und jeweils mit eigenem Weißabgleich versehen.

Zugegebenermaßen reicht für die einige der o.g. Anwendungsfälle (Wiederverwenden von Material mit anderen Looks) auch Log-Material mit ausreichender Bittiefe und in einem guten Codec. Andererseits haben Codecs wie das klassische ProRes und DNxHR praktisch keine Vorteile hinsichtlich Dateigröße und Verarbeitungsgeschwindigkeit ggü. neueren Formaten wie PRAW und BRAW.

Dass bei RAW-Video Software-Objektivkorrekturen entweder wegfallen oder händisch nachgebaut werden müssen, stimmt zwar in der (heutigen) Praxis, liegt aber nicht mehr an den RAW-Formaten, sondern an der Nachbearbeitungssoftware, die diese Korrekturen (noch) nicht macht/kann. Dass das auch anders geht, zeigen ja RAW-Fotografie bzw. Lightroom & Co.

Sehr seltsam übrigens, dass Adobe seinen Heimvorteil nicht ausspielt und das ACR-RAW-Rendering (einschliesslich aller Parameter-Regler) nicht in Premiere einbaut...

Space


Antwort von Axel:

cantsin hat geschrieben:
Sehr seltsam übrigens, dass Adobe seinen Heimvorteil nicht ausspielt und das ACR-RAW-Rendering (einschliesslich aller Parameter-Regler) nicht in Premiere einbaut...
Fun fact am Rande: Photoshop kann Videoclips öffnen, ganz normale, man kann den (Top-Menu) Adobe-Camera-Raw-Filter darauf anwenden und mit dem Media Encoder exportieren. Ich hab ja schon immer gesagt, der ACR ist das beliebteste Tool überhaupt.

Space


Antwort von ksingle:

Axel hat geschrieben:
Machen wir uns nichts vor, eine Schwalbe macht noch keinen Sommer, und FCP ist in Sachen Farbe trotz sukzessiver Nachrüstung nicht auf dem Niveau von Resolve. Die HSL-Farbmasken, die mit 10.4.7 nachgeliefert wurden, nützen einem nicht viel, wenn man das nicht machen kann, weil Layer-Nodes fehlen
Ich arbeite mit beiden Programmen. Hast du es in Final Cut X schon mal mit mehreren Einstellungsebenen übereinander probiert? Das kommt der Bearbeitung mit den Nodes in Resolve in manchen Belangen schon recht nahe.
Und mal ehrlich: wer von den Usern hier arbeitet schon so filigran an einem Video, wie in dem oben gezeigten Blockbuster-Beispiel?

Space


Antwort von iasi:

Jott hat geschrieben:

Erst neulich hat hier wieder einer geschrieben, raw sei geil, weil man sich nicht mehr um Belichtung und Weißabgleich kümmern muss. Cool. Aber mal angenommen, man beherrscht beides - eigentlich ja wohl Grundqualifikation jedes Kameramanns! - dann schrumpft die Wichtigkeit von raw auf eine vernachlässigbare Größe, wenn man nicht gerade im High End-Bereich zuhause ist. Und wer ist das denn schon von den hiesigen Diskutanten?
Schreib das mal in einem Foto-Forum.
Die werden dir dann sicherlich erklären, warum du ziemlich falsch liegst mit deinen Einschätzungen.

Space


Antwort von iasi:

Aktuell gibts ja hier ein gutes Beispiel dafür, was Raw ermöglicht.

viewtopic.php?f=9&t=146901

Richtig belichtet wurde hier sicherlich.
Da immer auf Wolken gewartet wurde, war wohl auch der DR kein Problem.
Licht konnte Deakins jedoch meist nicht setzen, denn Ausleuchten war schlicht oft nicht möglich.

Und dennoch sehen die Aufnahmen nach Kino aus. Wie das wohl kommt?! ;)

Space


Antwort von Jott:

Ach Iasi. Du hast kein Wort verstanden, aber das musst du auch nicht. Dreh deinen Spielfilm.

Space


Antwort von Axel:

Axel hat geschrieben:
Fun fact am Rande: Photoshop kann Videoclips öffnen, ganz normale, man kann den (Top-Menu) Adobe-Camera-Raw-Filter darauf anwenden und mit dem Media Encoder exportieren. Ich hab ja schon immer gesagt, der ACR ist das beliebteste Tool überhaupt.
War Quatsch. Der ACR wird nur auf dem Frame angewendet, auf dem sich der Playhead befindet, der Rest wird unbearbeitet rausgerendert. Was schade ist, denn was man im ACR schon mit 8-bit alles rausholen kann. Wenn FCP nur 50% davon brächte ...

Ich erinnere mich an so einen Türkei-Film mit Ballons:
https://vimeo.com/108018156
... den der Macher als Bildserie in ACR verarbeitet hatte, weil er das am besten fand.
ksingle hat geschrieben:
Axel hat geschrieben:
Machen wir uns nichts vor, eine Schwalbe macht noch keinen Sommer, und FCP ist in Sachen Farbe trotz sukzessiver Nachrüstung nicht auf dem Niveau von Resolve. Die HSL-Farbmasken, die mit 10.4.7 nachgeliefert wurden, nützen einem nicht viel, wenn man das nicht machen kann, weil Layer-Nodes fehlen
Ich arbeite mit beiden Programmen. Hast du es in Final Cut X schon mal mit mehreren Einstellungsebenen übereinander probiert?
Jetzt gerade mal flüchtig. Keine schlechte Idee. Was fehlt:

1. Ich habe keine Ahnung, was ich auf den Einstellungsebenen veranstaltet habe. Umbenennen kann ich sie auch nicht, genauso wenig wie die einzelnen Instanzen im Farbtab, bzw. Inspektor. Resolve dagegen zeigt mir in dem Node-Icon eine kleine Repräsentation des Keys, die verwendeten Werkzeuge als Mini-Icon, und umbenennen kann ich die Nodes auch, falls mir das nicht reicht. Dazu kommt, dass ich in FCP gar keinen zweiten Farbbereich auf einer höheren Ebene auswählen kann, ohne die Ebene darunter mit v zu deaktivieren (Klick in Resolve).

2. Bevor es die HSL-Qualifier gab konnte man die Farbmaske weichzeichnen. Das geht jetzt nicht mehr. Eine harte Auswahl ist aber Scheiße. Und die kleinen Anfasser links und rechts haben nicht den gleichen Effekt! Oder habe ich da was übersehen?

3. Ich kann die Formmaske (anderswo bekannt als power window) nicht automatisch tracken.

4. Ich kann die Formmaske nicht kopieren. Die Einstellungsebenen sind kaum anders als würde ich den gesamten Clip als sein eigenes Duplikat übereinanderstapeln und mit Kompositionsmodi rumhantieren. Das wäre wahrscheinlich übersichtlicher.

5. Der Vorteil von FCPX beim Schnitt ist die Effizienz. Vor kurzem noch im fcp.co forum anhand von "asymmetrischem Trimmen" (zu deutsch: ein L- oder J-Cut) in AVID verglichen. Kein Klick in FCP (bei verbundenem Audio nur ein Doppelklick, dann länger ziehen), sehr viele Klicks in AVID (abhängig davon, wie viele Spuren man vorher auswählen muss). Oder vergleichend eine Temporampe in Premiere und FCP. Kompliziert? Nein Danke. Und in FCP ist durch die Fensteranordnung und durch das Prinzip der Effektliste statt Node-Tree die Farbkorrektur schon per se erschwert, wird aber bei einer etwas komplizierten Aufgabe lächerlich umständlich. Die oben genannten vier Punkte summieren sich nämlich, jeder einzelne wäre u.U. verschmerzbar.
ksingle hat geschrieben:
Das kommt der Bearbeitung mit den Nodes in Resolve in manchen Belangen schon recht nahe.
Das würde jeder freiwillig bleiben lassen.
ksingle hat geschrieben:
Und mal ehrlich: wer von den Usern hier arbeitet schon so filigran an einem Video, wie in dem oben gezeigten Blockbuster-Beispiel?
Nun ja, das lassen schon viele freiwillig bleiben. Aber auch eine ganz einfache Farbkorrektur mit zaghaftem Allerweltslook ist schneller in Resolve, das einmalige XML-Schicken schon eingerechnet. Auf Seite von Resolve wird nämlich bei einer FCPX-Delivery die Rückantwort gleich mit generiert. Fast ein Dynamic Link!

Space


Antwort von Jott:

Hat schon jemand das neue Color Finale probiert? Dessen Anspruch: scheiß auf Resolve, geht jetzt alles direkt in fcp, Roundtrips waren gestern.

Space


Antwort von Axel:

Jott hat geschrieben:
Hat schon jemand das neue Color Finale probiert? Dessen Anspruch: scheiß auf Resolve, geht jetzt alles direkt in fcp, Roundtrips waren gestern.


Ja, ein paar Sachen sind besser. Aber erstens nicht so gut wie Resolve (da fehlt noch 'ne ganze Menge) und zweitens kostet's mal wieder 149 €. Beim letzten Mal haben sich die, die die Pro-Version gekauft haben, geärgert, als zwei Wochen später FCP 10.4 rauskam, was vieles davon konnte. Und zudem schneller renderte. Dann kam immer wieder noch was dazu, z.B. in FCPX das Compare-Fenster (finde ich wichtig, aber den "Wipe" in Resolve finde ich noch gelungener), funzt das eigentlich mit CFP? Vielleicht wird 10.5 wieder Farbe zum Thema machen, wer weiß das schon?

Space


Antwort von roki100:

cantsin hat geschrieben:
Das Samyang 12mm hat Auflösungsschwächen an den Rändern, wenn man 4K-DCI (z.B. mit der Pocket 4K) aufnimmt, löst aber in der Bildmitte IMHO sehr ordentlich auf. Anbei ein mit der Pocket 4K geschossenes Test-DNG-Still, bei Blende 2.8.
Das sah beim Test überhaupt nicht so aus, sondern das gesamt Bild ungefähr so, wie die Ränder bei deinem 4K Beispiel. Der User nedag hat hier irgendwo Beispiel Bild mit der Samyang 12mm Linse gepostet, auch sehr unscharf...
Ich habe es auch mit f2.8 und f4 getestet... erst ab f8 sah es etwas besser aus.

Space


Antwort von pillepalle:

@ roki100

Das ist doch normal. Bei preiswerten Optiken hat man immer eine größere Streuung. D.h. es ist viel wahrscheinlicher das Du auch mal eine 'Gurke' erwischst. Da hilft nur mehrere ausprobieren bis man eine Gute findet.

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
@ roki100

Das ist doch normal. Bei preiswerten Optiken hat man immer eine größere Streuung. D.h. es ist viel wahrscheinlicher das Du auch mal eine 'Gurke' erwischst. Da hilft nur mehrere ausprobieren bis man eine Gute findet.

VG
das weiß ich Mittlerweile auch. Lieder gibt es keine Anleitung im netz, wie man Samyang 12mm selbst justieren/kalibrieren kann. Der Verkäufer meinte, man muss es nach Polen schicken.

Space


Antwort von Axel:

Eine Handvoll PRAW-Tests mit der Nikon Z6 sickert jetzt auf Youtube rein. Alle ziemlich enttäuschend. Der ist okay:


Aber nichts, was 8-bit nicht gekonnt hätte. Der Ersteller sagt, es ist lächerlich, das in 8-bit versuchen zu wollen, aber das sehe ich nicht so. Da sind die meisten Kätzchen von BM-Kameras auf Anhieb eindrucksvoller (und schärfer 🤨).

Space


Antwort von Funless:

Ja Schärfe, Schärfe, Schärfe ...

The digital filmmaker‘s curse of the 21st century.

Space


Antwort von roki100:

https://www.youtube.com/watch?v=YnQA75YheW4

WB/ColorTemp ist also eingebacken...?


kein Highlight Recovery...?

https://www.youtube.com/watch?v=Tfu4XtxtPxk

Space


Antwort von Axel:

Die blaue Lampe im Hintergrund ist sowohl bei N-Log als auch bei PRAW "kompletter Schrott" (auch mit Colorchecker, wohlgemerkt), bei interner (8-bit) Aufzeichnung aber visuell "voll okay". Aber wahrscheinlich liegt das an der "schlechten Qualität der Lampe" ???

Worauf will der Mann hinaus?

wolfcrow: "once it is clipped, it stays clipped."

Seufz.

Space


Antwort von roki100:

Axel hat geschrieben:
Worauf will der Mann hinaus?
er glaubt, es würde an die schlechte LED Lampe liegen ;) Es liegt definitiv an eingebackene ColorTemp bzw. das kalte (zu blau) lässt sich nicht wiederherstellen.... und eingebrannt in den Highlights (die LED Lampe). Vielleicht ist das nur ein ProRes RAW Bug und es kommt demnächst ein Atomos oder Nikon fix.

Space


Antwort von Axel:

roki100 hat geschrieben:
Axel hat geschrieben:
Worauf will der Mann hinaus?
er glaubt, es würde an die schlechtes LED Lampe liegen ;) Es liegt definitiv an eingebackene ColorTemp bzw. das kalte (zu blau) lässt sich nicht wiederherstellen.... und eingebrannt in den Highlights (die LED Lampe). Vielleicht ist das ProRes RAW Bug und es kommt demnächst ein Atomos oder Nikon fix.
Ich tippe darauf, dass er was falsch macht. Was man mit Testclips aber leicht nachvollziehen kann ist, dass, zumindest in FCPX, nicht das Gefühl aufkommen will, tatsächlich mit Raw zu arbeiten.

Space


Antwort von roki100:

er hat doch alles richtig gemacht, also mit falsche ColorTemp werte aufgenommen und nachträglich diese korrigiert bzw. das was ich vor ein paar Wochen vorgeschlagen habe, um so zu testen ob ColorTemp eingebacken ist: viewtopic.php?f=2&t=147648&start=70#p1021595
wolfcrow: "once it is clipped, it stays clipped." Damit ist gemeint, dass Highlight Recovery nicht möglich ist. Und in diesem Video ist das mit PRRAW möglich:

https://www.youtube.com/watch?v=Pc6Nt2UlTQw

Es handelt sich jedoch nicht um Nikon + Atomos PRRAW.... Entweder ist das Ganze ein (Nikon oder Atomos) Bug oder es geht nicht anders.

Space


Antwort von Axel:

Bin gerade unterwegs und kann auf dem Phone-Display nicht genau sehen, was er einstellt. Ich kann mir vage vorstellen, warum hier (scheinbar) klappt und dort (scheinbar) nicht. Die Highlight-Recovery ist eine Roll-Off-Kurvenkorrektur, und sowas gibt es in FCP halt nicht, weil im DSLR-Shooter-Video die S-Kurve erst manuell durch die Korrektur erzeugt wird. Das ist das Problem (oder vielleicht das Missverständnis?), dass alle in einem 2020 Farbraum beginnen und das dann in einer 709-Timeline anwenden. Total nervig. Aber geclippt ist geclippt. wolfcrow muss N-Log und PRAW unterschiedlich belichtet haben.

Space


Antwort von pillepalle:

Schade dass ich da nicht hin kann... :)

https://www.facebook.com/plugins/post.p ... 701312%3A0

VG

Space


Antwort von Axel:

Ich habe mir wolfcrows Video nochmal in Ruhe angesehen. Seinen "download link in the description" habe ich nicht gefunden. Aber einen möglichen / wahrscheinlichen Fehler:

Er sagt, dass ein Vorteil von PRAW ist, dass er alle anderen ISO-Werte außer 800 verwenden kann im Gegensatz zu N-Log, somit bei Sonnenlicht ISO 100 statt eines NDs verwenden kann. Bei echtem Raw, das ich kenne, für Fotos von Canon, Nikon, Panasonic und Sony, für Video von Blackmagic, ändert sich durch Verstellen des ISO eigentlich gar nichts - bis möglicherweise auf die von mir eingestellte Belichtung. Ich erinnere mich vage an einen Noobie-Eintrag im RED Forum, wo einer sich Scarlett oder Raven vom Mund abgespart hatte, dann mit hoher ISO aufgenommen hatte, nur, um später festzustellen, dass alles unerwarteterweise unterbelichtet war. Das Gegenteil wird hier passiert sein. Er hat um, wie es scheint, eine Blende überbelichtet, absolut geclippt. Und natürlich hat ein geclipptes Raw-Video weniger Dynamik als ein korrekt belichtetes Log-Video derselben Kamera.

Ansonsten scheint er den Nagel auf den Kopf zu treffen. Welche ISO-Empfindlichkeit kameraseits eingestellt war, das muss man im NLE sehen können. Fehlanzeige im sonst so metadatenfreundlichen FCPX. Kein Raw-Modul, das anhand dieser Einstellungen eine normalisierte Vorschau ermöglicht. Mit anderen Worten: kein praktikabler Workflow. Oder alle machen was falsch, wirklich alle. Es ist auch unlogisch, dass dieser deutsche Tester die blaue Lampe in PRAW nicht vom Kanal-Clipping hat bewahren können, da ja sämtliche Farb- und Helligkeitsinformationen, die im normal aussehenden 8-bit-Vergleichsclip sind, da sein müssen. Falsch interpretiert, würde ich mal tippen. Was sagt die FCP Hilfe zu PRAW? Dass das Programm automatisch den Kamerahersteller erkennt (was mit Atomos und Nikon Z offenbar nicht der Fall ist) und eine Konvertierungs-LUT anwendet, allerdings, "um die Farbe in ProRes RAW-Videos so zu korrigieren, als handele es sich um SDR-Videos." Na toll. Aber immerhin:

zum Bild


Man hat die Wahl zwischen Informationen wegschmeißen oder gar keinem Tonemapping? Ich muss da was missverstehen.

Space


Antwort von pillepalle:

@ Axel

Es macht in RAW natürlich einen Unterschied mit welcher ASA Zahl man dreht. Auch bei Fotos. Normalerweise reduziert man mit hochdrehen der ASA Zahl ja auch den Dynamikumfang. Das ist der Preis für die höhere Empfindlichkeit. Und wenn es bei Fotos nicht egal ist, warum sollte es dann bei Film egal sein? Klar verwendet man immer eine möglichst niedrige ISO, aber wenn man zu stark unterbelichtet, dann ist da auch mit RAW nix mehr zu holen...

VG

Space


Antwort von dienstag_01:

https://www.foto-schuhmacher.de/artikel ... rianz.html

Es gibt halt solches und solches Processing ;)

Space


Antwort von pillepalle:

Das Prinzip ist mir schon klar, nur die Praxis ist eine andere. Wirklich isoless Sensoren kenne ich keinen. Mach mal ein RAW-Bild mit der Base ISO 32-200 (je nach Kameramodell) und eins mit ISO 6400. Du wirst sehen das sich die Ergebnisse sehr wohl unterscheiden.
Auch bei der Pocket hat man einen eingeschränkten ISO Bereich und kann nur innerhalb weniger Blenden die ISO nachträglich verändern. Da gibt es gar kein ISO 100, oder 25.000 soweit ich weiss.

VG

Space


Antwort von Jörg:

danke für den link

Space


Antwort von roki100:

@pillepalle
Bei BMD CDNG gibt es nachträglich noch Exposure, was das selbe ist wie ISO. Exposure +1 ist +ISO200 / -0.50 ist -ISO100 usw.
Wie das mit BRAW ist weiß ich nicht.

Space


Antwort von pillepalle:

roki100 hat geschrieben:
@pillepalle
Bei BMD CDNG gibt es nachträglich noch Exposure, was das selbe ist wie ISO. Exposure +1 ist +ISO200 / -0.50 ist -ISO100 usw.
Wie das mit BRAW ist weiß ich nicht.
Und um wieviel Blenden kannst Du die nachträglich verschieben?

Space


Antwort von dienstag_01:

Bei DPreview gibt es zu jeder aktuellen Kamera einen ISO-Invarianz Text.

Space


Antwort von roki100:

@pillepalle
Die Einstellung für ISO ist (z.B. für BMPCC) ISO200 bis ISO1600. Das sind aber keine feste Werte, weil es noch Exposure Regler von -5.00 bis +5.00 gibt. Das heißt, ISO200 ist nicht der niedrigste Wert, da man noch Exposure bis -5 bedienen kann (-0.50 ist gleich wie ISO100) ...

Space


Antwort von pillepalle:

Kann ich gerade nicht finden, weil ich unterwegs bin. Suche ich heute Abend noch mal nach. Das einzige was ich bei DP Review auf die Schnelle gefunden habe war die Aussage da sie neuesten Sony Sensoren isoless seien (welche das auch immer sein mögen) und es bei allen anderen eben doch einen Unterschied macht, bzw. sich nur in bestimmten Bereichen (z. B. über ISO 1600) wirklich Isoless Verhalten würden.
Die Nikon Kameras sind es jedenfalls nicht.

VG

Space


Antwort von Axel:

"pillepalle"]Das Prinzip ist mir schon klar, nur die Praxis ist eine andere. Wirklich isoless Sensoren kenne ich keinen. Mach mal ein RAW-Bild mit der Base ISO 32-200 (je nach Kameramodell) und eins mit ISO 6400. Du wirst sehen das sich die Ergebnisse sehr wohl unterscheiden.
Auch bei der Pocket hat man einen eingeschränkten ISO Bereich und kann nur innerhalb weniger Blenden die ISO nachträglich verändern. Da gibt es gar kein ISO 100, oder 25.000 soweit ich weiss.
Ich weiß nicht, wie es bei Dual Iso funktioniert. Ansonsten gibt es bei der Pocket HD und bei der Nikon Z6 eine native Sensorempfindlichkeit von 800, und nur in dieser steht der volle Dynamikbereich zur Verfügung (weswegen er auch bei Log-Profilen der Default ist, d.h. man kann darüber gehen, aber nicht 400, 200, 100 wählen). Anscheinend meinst du einen Sensor ohne echten Gain, was komplizierter ist (siehe von dienstag_01 verlinkten Artikel). Aus eigener Erfahrung weiß ich, dass ich höhere Iso bei Slog freischalten und als ETTR verwenden kann, und zwar, um Rauschen (und allerdings auch Dynamik!) zu minimieren. Das lässt den Umkehrschluss zu, dass keine analoge Signalverstärkung stattfindet (dann würde es mehr rauschen) sondern dass die Signale durch eine bei der Kodierung eingebackene Kurve digital verstärkt werden.

VG[quote=dienstag_01 hat geschrieben:

https://www.foto-schuhmacher.de/artikel ... rianz.html

Es gibt halt solches und solches Processing ;) Daraus (bezieht sich auf modernste Sensoren):
Der Analog-Digital-Wandler rückt eine Stufe nach links auf 3. Die ISO-Aufhellung liegt nun auf 4. Aber sie geht nur noch als reiner Zahlenwert in die RAW-Datei ein. De facto wird für RAW-Dateien nichts mehr verstärkt. Eine kamerainterne reale Signalverstärkung tritt nur noch für JPEG-Dateien ein. Und dass dieser reine Zahlenwert nicht zur Verfügung steht und "Belichtung" das Bild nur heller oder dunkler macht anstatt, wie bei 8-bit, effektiv (anscheinend) den Gammawert zu verschieben - das ist gegenwärtig der Murks in FCPX. Im Februar soll Gerüchten zufolge Version 10.5 kommen. Da dürfen wir gespannt sein, ob Apple hier Nägel mit Köpfen macht.

Space


Antwort von pillepalle:

roki100 hat geschrieben:
@pillepalle
Die Einstellung für ISO ist (z.B. für BMPCC) ISO200 bis ISO1600. Das sind aber keine feste Werte, weil es noch Exposure Regler von -5.00 bis +5.00 gibt. Das heißt, ISO200 ist nicht der niedrigste Wert, da man noch Exposure bis -5 bedienen kann (-0.50 ist gleich wie ISO100) ...
Du kannst die Kamera dann nur über 3 Blenden in den ISO Werten einstellen? Dann wäre die Kamera also in dem Bereich ISO invariant. Ist natürlich etwas weniger als bei einer Kamera bei denen man über 9 oder 10 Blenden die ISO verändern kann.

VG

Space


Antwort von Axel:

Zu dem angeblich "eingebackenen" WB: Der "Farbtemperatur"-Regler in FCPX hat eine normalere Anmutung für 8-bit. Bei PRAW wärmt oder kühlt er tendenziell mehr das gesamte Bild. Dasselbe mit "Färbung" (Tint). In PRAW fast wie ein einfacher Magenta/Grün-Filter. Es sieht so aus, dass FCP das PRAW nicht so recht "versteht".

EDIT: Interessante Beobachtung ist, dass der Master-Puck "Farbe" der vermeintlich primitiven Farbtafel die Farbtemperatur realistisch verändert, genau wie die "Färbung". "Belichtung" reagiert auch richtig.

Space


Antwort von dienstag_01:

Was man darüber hinaus verstehen sollte, das RAW Processing in der Kamera und die Rückführung in der Software sind zwei verschiedene Dinge. In der Kamera macht das der Hersteller der Kamera, die Softwarehersteller der Raw Entwickler bekommen a nicht alle Informationen von ihnen (bleibt nur Revers Engineering) und b entscheiden sie selbst, wie das Raw des jeweiligen Herstellers verarbeitet/aussehen wird.

Warum schreibe ich das? Man sollte aus dem Verhalten einer Raw Datei in einem x-beliebigen Entwickler keine eins-zu-eins Rückschlüsse auf die Verarbeitung in der Kamera ziehen. Oder wenigstens vorsichtig damit sein.

Space


Antwort von pillepalle:

Ich hatte mir jetzt mal den Themenblock (ca. 30min.) den Nikon auf der CES zu ProRes RAW hatte angeschaut, aber wirklich interessantes zum Workflow gab es da noch nicht (Das Adobe und Avid als NLEs dazu kommen werden, war ja schon bekannt). Einzig das es sich bei den beiden RAW Codecs um ProRes Raw HQ 5:1 und ProREs Raw HQ 3:1 handelt, das die Kamera keinerlei Datenverarbeitung vornehme und es sich um echte RAW Daten handelt, wurde von offizieller Seite nochmals erwähnt. Sobald Premiere das Format unterstützt werde ich mir ein Monatsabo gönnen und mir anschauen wie es dort implementiert wurde...

https://www.youtube.com/watch?v=4sn5YvmnrH4

VG

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Nikon RAW-Ausgabe für Z6 und Z7 ist jetzt verfügbar!
Nikon Z7 - viele Crop-Modi und deren Unterschiede in der Bildqualität beim Filmen
Panasonic S5IIX (DC-S5M2X) Ende Mai verfügbar- mit Blackmagic RAW Ausgabe
Nikon Z6II und Video Assist 12G: Wie gut ist Blackmagic Raw mit der Nikon Z6II in der Praxis?
Sony FX9 v2.0 Update ist da mit FF5K-Crop, C4K, HLG, User 3D-LUTs, RAW-Ausgabe und mehr
Atomos Shogun 7 Update: ProRes RAW Aufnahme mit Sonys FX9 jetzt verfügbar
Nikon 10 Bit N-Log 3D LUT für Nikon Z6 u. Z7 zum freien Download da - ProRes RAW kostenpflichtig
Media Composer 2020.12 ist verfügbar - jetzt mit HEVC/H.265
Lenovo ThinkVision Creator Extreme: Profi 27" 4K Mini-LED-Monitor mit 1152 Local Dimming Zonen ist jetzt verfügbar
Nikon 10 Bit N-Log LUT ausprobiert: Wie gut ist die offizielle N-Log LUT für Nikon Z6 und Z7?
Sony Firmware 2.1 für Sony FX9 bringt 4K 120p RAW Ausgabe
Firmware-Update bringt Blackmagic RAW Ausgabe für Panasonic GH5S und BGH1
ProRes RAW vs Nikon N-Log Hauttöne im Vergleich - Nikon Z6 und Atomos Ninja V in der Praxis
slashCAM präsentiert: Nikon RAW Grading-Wettbewerb - Nikon Z 8 zu gewinnen!
Blackmagic RAW für Nikon Z6 II und Z7 II ist da (- via BMD Video Assist)
RAW-Ausgabe: Olympus OM-D E-M1X und E-M1 Mark III Update kommt am 3. Dezember
Sony Firmware-Updates 2021 - FX6, FX9 bekommen 4Kp120 RAW-Ausgabe, XDCAM-Camcorder besseren HDR-Workflow
HDMI RAW Ausgabe und Gimbal Steuerung Ronin
Tascam CA-XLR2d: XLR-Adapter für Canon, Nikon und Fujifilm DSLMs demnächst verfügbar
Ist Video RAW mit Foto RAW vergleichbar?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash