Frage von Gregott:Die Vorteile der Raw Verarbeitung von Lightroom liegen doch auf der Hand... oder nicht? Wie verhalten sich Raw Daten eigentlich. Welcher Wert ausser der Belichtung ist überhaupt Raw? Ich kann in Davinci Resolve ja nur die Belichtung "Raw" also ohne Datenverust einstellen und das nur über einen ekligen unkenweg. Meine Frage zielt auf folgendes ab. Ziehe ich überbelichtetes Footage "Raw" in Davinci kann ich mit der normalen Tonwertkurve nichts mehr retten. Es beschneidet den Farbraum ja nur. Mit der Raw Belichtungsänderung kann ich aber alles rausholen. Welche Einstellungen also muss man in Lightroom vornehmen um die RawDaten ohne Qualiätsverlust zu optimieren. Sprich... will ich die Tiefen aufhellen würde ich ganz normal in Davinci die Kurve unten anheben, was zur folge hätte das sich die Tiefen abreissen und man anstelle eines schwarzes immer mehr ins grau ginge, ohne auch nur die geringsten Verbesserungen in der Detailinformation zu haben. Wenn ich in Lightroom jetzt aber den Tiefen aufhellen Regler anschiebe, hellen sich die dunklen Bereiche auf und man bekommt Bildinformationen die einem vorher nicht sichtbar waren. Jetzt wirds aber hässlich, genau diesen Wert müsste man sich eigentlich als Videovorschau ansehen um zu sehen wie sich das rauschen verhält, denn wenn ich Tiefen aufhelle muss ich aufpassen das ich nicht ein wiederliches Rauschen reinbekomme, was man aber beim Bewegtbild besser sieht als in der einzelbildbearbeitung von Lightroom.
Klar kann ich danach noch Sachen ändern und das Material nochmal anpassen. Mir wird grade bloss der wiederliche unendlich unnötig zeitverschlingende Workflow bewusst. BlackMagic hat eine Raw Kamera rausgebracht ohne eine schöne Lösung zu bieten das Material in einem schönen Workflow zu verarbeiten.
Was ist mit Farben, in Davinci oder Lightroom? Wie siehts mit Schärfe etc. aus?
Ich bitte darum mir zu schreiben was ich für ein unendlich unglaublicher unprofessioneller Versager ich bin. Denn dann würde hoffentlich die Erklärung kommen wie man es besser macht und mein Problem wäre gelöst :D
Antwort von WoWu:
Ich glaube nicht, dass Du der "unendliche Versager" bist, weil, so, wie ich das verstanden habe, die RAW Daten ins Davinci importiert werden, also eine De-Bayering durchgeführt wird, das von Aussen gar nicht zu beeinflussen ist ... und damit hast Du es anschliessend mit einem "stink-normales" Videobild zu tun, also gar nicht mehr mit den RAW Daten.
In einem De-Bayering würdest Du durch den Eingriff in den Algorthmus solche Gewichtungen vornehmen können. (So machen wir das jedenfalls).
Was allerdings die Belichtung -sprich Weissättigung- betrifft, so bist Du bei RAW genauso "verraten und verkauft" wie bei jedem Videosignal, weil Full-Well für den Sensor immer Schluss der Fahnenstange ist, egal ob RAw herausgegeben oder als Video.
Das, was viele Leute für den Vorteil von RAW halten, ist meistens den 12 Bit geschuldet und die wesentlichen Vorteile von RAW ist die spätere Gewichtung im De-bayering sowie der nicht bereits vollzogene Eingriff, z.B. in die Schärfe und ein paar andere Parameter.
Aber Du hast mit den Rauschwerten bei RAW fast ebenso zu kämpfen, wie in einem Videosignal.
Antwort von Gregott:
Ich glaube nicht, dass Du der "unendliche Versager" bist, weil, so, wie ich das verstanden habe, die RAW Daten ins Davinci importiert werden, also eine De-Bayering durchgeführt wird, das von Aussen gar nicht zu beeinflussen ist ... und damit hast Du es anschliessend mit einem "stink-normales" Videobild zu tun, also gar nicht mehr mit den RAW Daten.
Da muss ich dir in einem Punkt wiedersprechen, du kannst in Davinci die "Raw" Belichtung einstellen.
http://www.freshdv.com/2012/10/resolve- ... ading.html
Sorry ich weiss mich manchmal nicht richtig auszudrücken.
Meine Frage nochmal kurz. Ich würde diesen unkenweg wie in dem Link oben gerne auf mich nehmen unter einer Voraussetzung. Ich habe qulitativ keine Vorteile mehr andere Werte in Lightroom einzustellen. Das mit dem debayering in dem Zusammenhang hab ich jetzt nicht ganz gerallt... :D werde mal grad nachforschen ;-)
Antwort von WoWu:
Na, ja, die "Belichtung" kannst Du bei jedem Video auch "einstellen".
Aber Du kannst nicht auf die individuellen Pixels des RAW Formates zugreifen ... da greift Davinci erst mal mit einem festen De-Bayering ein und als Resultat hat Du ein irgendwie geartetes Videoformat.
Sonst könntest Du nämlich auch alternative De-Bayerings einsetzen.
Das kannst Du (meines Wissens) bei Davinci nicht.
Ich muss dazu sagen, wir arbeiten nicht mit DaVinci, daher lasse ich mich da gern korrigieren.
Antwort von Gregott:
Ja in Davinci (ausser über den Unkenweg) wird nur das ausgegebene Videobild verändert, du hast das was du siehst und kannst noch ein bisschen rumpfuschen. In etwa wie wenn du in Lightroom oder Camera Raw ein jpeg lädst, du änderst zwar die Werte die Informationen bleiben aber gleich... wenn man dann aber mal ein Raw in Lightroom bearbeitet kommt die Offenbarung. Bei Davinci bleibt sie aber aus... mich wundert es nur das es keine Möglichkeit scheinbar gibt, nativ Raw Daten in Resolve zu verarbeiten... komisch das das noch keinen aufgefallen ist ;-)
PS: Mit was gradest du RawFootage? Also spezell cinema DNG? Red Raw würde mir nichts nützen, das geht ja auch nativ in Final Cut... oh da kommt mir eine Idee... vielleicht kann ich das Cinema DNG ja qualitätsverlustfrei in Red Raw konvertieren... aber alles hässliche unkenwege... :D
Antwort von WoWu:
Es stellt sich bei DaVinci die Frage, ob es die DNG-Files verändert, damit in einem finalen Ränder- oder Ausbelichtungsprozess das gesamte File erst zur Bearbeitung kommt, denn so machen wir das auch.
Wir sehen quasi nur ein Proxy-File der RAW Daten auf einem entsprechenden LUT und die Änderungen werden als Metadaten in die DNG Files geschrieben. Das Ganze wird dann vom Belichtet gelesen, gerendert und ausgelichtet.
Evtl. ist Resolve ja auch auf diese Arbeitsweise ausgelegt (was Sinn machen würde) und nicht so sehr (nur) auf eine Videoverarbeitung.
Denn zwischen Farbkorrektur und einer Maskenverarbeitung ist ein himmelweiter Unterschied.
Ich glaube sowieso, dass sehr viele RAW nur vom Namen her benutzen, und nur sehr wenige von der Wirkungsweise her.
Insofern kommt Resolve der ersten Gruppe entgegen und macht die Sache einfach.
Nachtrag:
Wir haben Kodak Software auf der Quantel laufen, weil wir 12 Bit nur für Ausbelichtung benutzen und die Software (und speziell die LUTs) auf den Belichter+der Filmcharge abgestimmt sind.
Wir sehen also auch die Durchlichteffekte (so weit es geht) auf dem Monitor.
Das erspart die Filmmuster.
Wir rendern also gar nicht.
Den Vorschlag mit der RED RAW Wandlung würde ich nicht machen, weil Du dann über Wavelet gehst.
Antwort von Frank Glencairn:
1. Kann mich mal einer aufklären, was ein "unkenweg" sein soll?
2. Natürlich kannst du in Davinci raw genauso bearbeiten wie in Lightroom.
3. Das Tutorial auf FreshDV ist völlig veraltet, mittlerweile sind spezielle Module für CinemaDNG eingebaut.
For the record: Niemand kann irgendwas nach RedRaw konvertieren, bestenfalls nach Cineform, was bei uns öfter mal gemacht wird.
Antwort von Gregott:
@Wowu bin gerade dabei rauszufinden auf was Resolve da ausgelegt ist :D mit deinem Seitenschwenk auf die Lemminge hast du Recht ;-)
@Frank gebenedeit seist du wenn du mir optimalerweisse ein Tutorial schickst oder irgendetwas das mich verstehen lässt wie man das macht.
Der "Unkenweg" ist die hier beschriebene Arbeitsweise
http://www.freshdv.com/2012/10/resolve- ... ading.html
für mich ist unkig, das man keine Vorschau der Veränderungen hat, für mich ist auch unkig das man nur die Belichtung einstellen kann und nicht, alle Regler wie in Lightroom hat, also in der Raw Bearbeitung nicht im normalen Color Grading wie man es in Davinci kennt.
Nochmal @Frank... kacke... scheinbar hab ich mir das Wort unkenweg ausgedacht... nehmen wir Krüppel Lösung :D
Antwort von Frank Glencairn:
Resolve is seit zig Jahren (neben ein-zwei anderen) eines der führenden Programme zu Farbkorrektur und wurde für unzählige Kinofilme eingesetzt.
Lightroom wird in erster Line von Laien und Hobbyisten genutzt und ist dementsprechend idiotensicher aufgebaut.
Das ist der große Unterschied und wahrscheinlich auch der Grund warum du mit Resove nicht auf Anhieb zurecht kommst. Es ist ein Profitool, das ein entsprechendes Training oder wenigsten einiges an Übung und Verständnis der Vorgänge unter der Haube voraussetzt. Resolve Coloristen waren, mit die bestbezahltesten Jungs in der Post. Sowas kommt nicht von ungefähr.
So, was machen wir jetzt mit dir?
Ein paar Fragen
Aus welcher Kamera kommen deine raw Daten?
Wie hast du sie belichtet?
Auf welcher Hardwre läuft dein Resolve und welche Verion?
Wie steuerst du deinen Vorschaumonitor and und wie hast du ihn kalibriert?
Antwort von Gregott:
Resolve is seit zig Jahren (neben ein-zwei anderen) eines der führenden Programme zu Farbkorrektur und wurde für unzählige Kinofilme eingesetzt.
Lightroom wird in erster Line von Laien und Hobbyisten genutzt und ist dementsprechend idiotensicher aufgebaut.
Das ist der große Unterschied und wahrscheinlich auch der Grund warum du mit Resove nicht auf Anhieb zurecht kommst. Es ist ein Profitool, das ein entsprechendes Training oder wenigsten einiges an Übung und Verständnis der Vorgänge unter der Haube voraussetzt. Resolve Coloristen waren, mit die bestbezahltesten Jungs in der Post. Sowas kommt nicht von ungefähr.
So, was machen wir jetzt mit dir?
Ein paar Fragen
Aus welcher Kamera kommen deine raw Daten?
Wie hast du sie belichtet?
Auf welcher Hardwre läuft dein Resolve und welche Verion?
Wie steuerst du deinen Vorschaumonitor and und wie hast du ihn kalibriert?
Ich bin jetzt grade zuhause am Computer und habe die Versionen nicht im Überblick, habe die Version vor der aktuellen Aktualisierung.
Die Daten kommen wie angekündigt aus der Black Magic.
Wenn du mich frägst wie ich Sie belichtet habe, bedenke eines. Ich komme voll aus der digitalen Schiene und habe so auch eine völlig andere Denkweise.
Hardware, das tut zwar nichts zur Sache, da es mir um die Bearbeitung an sich geht und nicht um meine Leistung, falls du darauf anspielst ich habe kein Davinci Control Panel für 30.000 € ich habe einem Mac Pro 8Core mit ner Nvidia gtx 660ti... und ner gt 150 (weiss nicht mehr genau wie die hiess) für den Computerbildschirm.
Den Referenzmonitor steuer ich über die Deckling SDI an, der Monitor (pvm 2541) wird dementsprechend mit SDI angesteuert.
Sollte da jemand Verbesserungsvorschläge habe bin ich gerne offen, darum gehts mir aber nicht. Mir würde schon reichen wenn du mir sagst was an dem von mir geposteten Tutorial veraltet ist und wie es jetzt gemacht wird. Gerne darfst du auch versuchen, einen scheinbar über Davinci äußerst komplizierten und für "dumme" Lightroom User wie mich schwer zu verstehenden Workflow nahe zu bringen... Sorry fotografiere auch viel in Raw, daher für mich der erste Weg, da ich Ihn in Davinci nicht gefunden habe. Versuche das ja nachzuholen hier. Ich habe vorher also nur mit Raw Fotos gearbeitet nicht mit Raw Video. Irgendwann muss man ja versuchen sich einen schönen Workflow zurechtzulegen.
Man kann es auch schlecht reden wie man will... die Ergebnisse die der Workflow mit Lightroom bringt sind... Krank... aufwendig... aber absolut brilliant. :D (Bitte versuchen konstruktiv zu bleiben ohne jetzt auf was anspielen zu wollen... bitte lasst den Post nicht in einer endlosen Debatte enden ;-))
Antwort von srone:
interessanterweise scheint raw, doch nicht raw zu sein, -da vinci resolve scheint nur noch als oberflächliche lösung zu existieren, wenn man nicht auch noch in den den debayering-prozess eingreifen kann, also ab wann ist etwas "raw" und wann nicht mehr, bzw ab wann "ultra"-raw?
lg
srone
Antwort von WoWu:
Da gibt es ja keine Normierung für. Jeder Hersteller darf jedes Signal RAW nennen.
Meine Unterscheidung besteht darin, dass ein Signal, das ich ohne Bearbeitung sehen kann, ein Videosignal ist und ein Signal, dass erst einer Interpolation im Computer bedarf, (weil man es sonst nicht sehen kann) für mich ein RAW Signal ist.
Das wäre demnach ein nicht-De-beyertes Signal..... denn da habe ich wirklich alle Möglichkeiten .... und kann ganz wesentlich Einfluss auf das Signal nehmen.
Aber, wie gesagt, da gibt es die unterschiedlichsten Auffassungen und jeder Hersteller versucht sich mit dem RAW Begriff zu schmücken ....
Antwort von srone:
@ wowu
es beschäftigt mich, nach all deinen debayering ausführungen-> kenne mittlerweile ca 10 varianten, die frage, was sollte raw sein, idealerweise?
lg
srone
Antwort von Frank Glencairn:
@Gregott
Zu deiner Beruhigung CinemaDNG sind auch nur einzelne Bilder ;-)
Das wichtigste ist, beim anlegen eines neuen Projektes peinlich genau auf die Projekteinstellungen zu achten, die Framerate kann man z
:b: später nicht mehr ändern, wen man mal material importiert hat.
Wenn du deine Bilder drin hast, geh zuerst auf den raw Tab (der mit der kleinen Kamera drauf).
Ersten Frame in der Timeline anklicken (aktivieren)
Im raw Tab das oberste Feld auf "Clip" stellen.
Whitebalance auf "Cusom"
Die unteren beiden auf "BMC Film" (ich hoffe du hast im "Film" Mode gedreht)
Dann den Node anklicken und mit rechter Maustaste auf die 3D LUT BMC-709 auswählen. Was du jetzt hast, ist dein Startpunkt und entspricht in etwa dem, wa du siehst, wenn du ein Bild in Lightroom lädst.
Das klingt erst mal umständlich. Mann kann aber das alles auch in den Projektoptionen für die ganze Timeline voreinstellen, und als Preset speichern, dann kann man sich das alles sparen.
Im raw tab stellst du dann zuerst deine Belichtung (Exposure) ein.
Schau dabei auf dein Waveform/Histogram, damit du siehst wo du stehst.
Bei der BMC ist es wichtig alles zu vergessen, was du über Belichtung weißt (deshalb hab ch gefragt). Stell deine Zebras auf 100% und belichte so, daß sie gerade so verschwinden (abgesehen von Scheinwerfern, Sonne, Chrom usw.) ansonsten wird das Material nahezu unbrauchbar sein.
Für gewöhnlich wirst du die Exposure im raw Tab 2-3 Blenden runter ziehen um in alle Highlights im legalen Raum zu haben.
Als nächstes stellst du die Farbtemperatur (Blau/Rot) und den Tint (Magenta/Grün) ein.
Das ist sozusagen deine First-Light Korrektur.
Jetzt geht's ans eingemachte.
Geh zu dem Tab mit den Lift Gamma Gain Offset Schiebern (nicht die Farbkreise) Lift entspricht in Lightroom den Schatten, Gamma den Mitten und Gain den Lichtern. Offset entspricht der Belichtung. Du siehst also, es ist alles da. Allerdings kannst du auf die Farben und die Helligkeit einzeln mit den Reglern viel feiner und gezielter zugreifen, als das in Lightroom möglich ist.
Der Grund, warum du zuerst deine "Exposure" im raw Tab einstellen mußt, ist daß er eben damit direkt auf die raw Daten beim Debayering zugreift, während die anderen Kontrollen wie ein Layer darüber liegen. Das bedeutet, um auf deine hellsten Lichter zugreifen zu können, mußt du die erst mal mit Exposure im raw tab in den sichtbaren Bereich holen.
Das wär's erst mal grob. Ich glaub ich mach mal ein ausführliches Tutorial in meinem Blog.
Antwort von WoWu:
@ wowu
es beschäftigt mich, nach all deinen debayering ausführungen-> kenne mittlerweile ca 10 varianten, die frage, was sollte raw sein, idealerweise?
lg
srone
Kurze Antwort, weil wir hier OT sind (sorry Gregott bin auch jetzt raus :-) )
@srone
Es sollten wirklich nur die einzelnen Lumawerte der Pixel sein, hinter der "dead Pixel" Korrektur, der Linearisierung und der Dunkelbildkorrektur.
Antwort von srone:
danke, sehe ich genauso, fehlt nur noch die farbkorrekturfähige und schärfebestimmende de-bayering-funktion in den gängstigten nle"s. ;-)
ebenso sorry @gregott, für ot.
lg
srone
Antwort von Gregott:
@Gregott
Zu deiner Beruhigung CinemaDNG sind auch nur einzelne Bilder ;-)
Das wichtigste ist, beim anlegen eines neuen Projektes peinlich genau auf die Projekteinstellungen zu achten, die Framerate kann man z
:b: später nicht mehr ändern, wen man mal material importiert hat.
Wenn du deine Bilder drin hast, geh zuerst auf den raw Tab (der mit der kleinen Kamera drauf).
Ersten Frame in der Timeline anklicken (aktivieren)
Im raw Tab das oberste Feld auf "Clip" stellen.
Whitebalance auf "Cusom"
Die unteren beiden auf "BMC Film" (ich hoffe du hast im "Film" Mode gedreht)
Dann den Node anklicken und mit rechter Maustaste auf die 3D LUT BMC-709 auswählen. Was du jetzt hast, ist dein Startpunkt und entspricht in etwa dem, wa du siehst, wenn du ein Bild in Lightroom lädst.
Das klingt erst mal umständlich. Mann kann aber das alles auch in den Projektoptionen für die ganze Timeline voreinstellen, und als Preset speichern, dann kann man sich das alles sparen.
Im raw tab stellst du dann zuerst deine Belichtung (Exposure) ein.
Schau dabei auf dein Waveform/Histogram, damit du siehst wo du stehst.
Bei der BMC ist es wichtig alles zu vergessen, was du über Belichtung weißt (deshalb hab ch gefragt). Stell deine Zebras auf 100% und belichte so, daß sie gerade so verschwinden (abgesehen von Scheinwerfern, Sonne, Chrom usw.) ansonsten wird das Material nahezu unbrauchbar sein.
Für gewöhnlich wirst du die Exposure im raw Tab 2-3 Blenden runter ziehen um in alle Highlights im legalen Raum zu haben.
Als nächstes stellst du die Farbtemperatur (Blau/Rot) und den Tint (Magenta/Grün) ein.
Das ist sozusagen deine First-Light Korrektur.
Jetzt geht's ans eingemachte.
Geh zu dem Tab mit den Lift Gamma Gain Offset Schiebern (nicht die Farbkreise) Lift entspricht in Lightroom den Schatten, Gamma den Mitten und Gain den Lichtern. Offset entspricht der Belichtung. Du siehst also, es ist alles da. Allerdings kannst du auf die Farben und die Helligkeit einzeln mit den Reglern viel feiner und gezielter zugreifen, als das in Lightroom möglich ist.
Der Grund, warum du zuerst deine "Exposure" im raw Tab einstellen mußt, ist daß er eben damit direkt auf die raw Daten beim Debayering zugreift, während die anderen Kontrollen wie ein Layer darüber liegen. Das bedeutet, um auf deine hellsten Lichter zugreifen zu können, mußt du die erst mal mit Exposure im raw tab in den sichtbaren Bereich holen.
Das wär's erst mal grob. Ich glaub ich mach mal ein ausführliches Tutorial in meinem Blog.
Ok jetzt fange ich an es zu verstehen...
Raw heisst ja für mich eigentlich und das funzt ja bei der BMDCC ganz gut. Bildkorrekturen wie sie auf JPG für Bildstile eingesetzt werden (destruktiv) kann man mit Raw Dateien selbst einstellen (nondestruktiv) du kannst die digitale Belichtung rauf und runter setzen was sonst durch eine belichtungskorrektur schon vorher in der Kamera geschieht... kannst das Bild Scharf und weichzeichnen ohne schon scharfgezeichnete Kanten weichzuzeichnen und ohne weichgezeichnete kanten verzweifelnt versuchen scharfzuzeichnen. Ich mache das was sonst intern in der Cam abgeht. Was sind das aber für Werte die hier betroffen sind? Ich kann ja auch einzelne Farbkanäle (Fotodenke Lightroom) in Raw ansteuern, sagen wir ich steuere einen bestimmten Rotkanal an und will ihn entsättigen. Habe ich jetzt hier im Raw nicht eine viel klarer abgegrenzte Möglichkeit? Beispiel... ich spiele einen bestimmten Rotton im Raw an und entsättige ihn, habe ich jetzt 12 bit ist die Kante fließend habe ich 8 bit reisst die Kante pixelig ab. Was spricht davinci mit dem normalen Kontrollpanel eigentlich an? Eine Videoproxy (im normalen Gradingworkflow von Davinci werden ja schließlich nicht die RawDatei bearbeitet) Der Raw Dialog aber von Davinci spricht dies ja schon an, bloss eben nicht mit so vielen Einstellmöglichkeiten wie in Lightroom.
Ein bisschen komme ich jetzt durcheinander, werde das Morgen noch mal testen aufgrund deiner Beschreibung Fank. Ich fürchte ich habe da noch ein paar Blockaden aufgrund meiner Fotobearbeitung drin. Davinci ist mir auch noch nicht so ganz vertraut.
Bezüglich der Aufnahme mit der BlackMagic... ja ist mir auch aufgefallen das man da extrem Vorsichtig sein muss. Man kann sich ja auch keine Tonwertkurven anzeigen lassen (seltsammerweisse) ausser über Videoscope und den Workflow will ich mir nicht auch noch antun. Mit Referenzmonitor und die Anzeige auf Video schalten, danach gehts super.
Bezüglich der unbrauchbarkeit des Footages... Überbelichtet und so... das finde ich ja grad das geile. Als ich den ersten Footage gesichtet habe, habe ich mir gedacht... kacke was ist denn jetzt los. Gnadenlos falsch belichtet, derart überbelichtet wie es mir eigentlich noch nie passiert ist. Zack... Footage in Lightroom reingezogen und selbst in den derbst überbelichteten Bereichen eine 100ige Zeichnung reinbekommen und derart viele Details... man kann eigentlich aus fast jeder Aufnahme ein HDR zaubern... selbst aus ner überbelichteten. So sehr es mich beim Fotografieren gelangweilt hat wenn ich mal ne Aufnahme falsch belichtet habe, so langweilt es mich eigentlich jetzt auch bei ner Raw Videoaufnahme, viel Unterschied zu ner cr2 Foto"Raw" Datei aus der 5D Mark II ist nicht(!). Wenn da nicht der Workflow wäre, der sich grade für mich kostenintensiv gestaltet. Kannst dir ja für jedes Projekt ein paar Terabyte speicher holen :D und der damit verbundene für mich noch hässliche und hoffentlich sehr optimierungsfähige Workflow.
 |
Antwort von iasi:
Da gibt es ja keine Normierung für. Jeder Hersteller darf jedes Signal RAW nennen.
Meine Unterscheidung besteht darin, dass ein Signal, das ich ohne Bearbeitung sehen kann, ein Videosignal ist und ein Signal, dass erst einer Interpolation im Computer bedarf, (weil man es sonst nicht sehen kann) für mich ein RAW Signal ist.
Das wäre demnach ein nicht-De-beyertes Signal..... denn da habe ich wirklich alle Möglichkeiten .... und kann ganz wesentlich Einfluss auf das Signal nehmen.
Aber, wie gesagt, da gibt es die unterschiedlichsten Auffassungen und jeder Hersteller versucht sich mit dem RAW Begriff zu schmücken ....
Warum sagst du dann immer wieder RedRaw sei kein Raw?
Aber mal im Ernst:
Es ist doch keine Religion - wahres Raw oder nicht.
Eure Arbeitsweise hat sich für euch bewährt - gut so. Dies liegt aber eben auch zu einem großen Teil daran, dass eure Arbeitsprozesse eingespielt und mittlerweile sehr gut abgestimmt sind.
Im Umkehrschluss bedeutet dies doch aber nicht, dass man auf anderen Wegen nicht auch zum Ziel kommen kann.
Resolve taugt nicht viel, sofern der Nutzer nur ein paar Regler zu verschieben weiß. Ein eingearbeiteter Anwender erzielt mit Resolve jedoch hervorragende Ergebnisse. Man muss eben ein Werkzeug nur zu nutzen wissen.
Ich bin immer wieder überrascht, von findigen Detaillösungen, die User erarbeitet haben.
Antwort von WoWu:
Ich sage gar nicht, RedRaw sei kein RAW. Jeder Hersteller bestimmt selbst, wie sein RAW aussieht.
Nur muss jeder seine eigene Definition treffen. Wenn jemand sagt, ein "mattes" Bild in 10 oder 12 Bit sei auch ein RAW für ihn, dann bitte.
Nur an einem Arbeitsschritt kommt man eben nicht vorbei:
Dem De-Bayering.
Frage ist also .... habe ich es in der Hand oder nicht.
Meine Definition ist, das RAW die Sensordaten ohne wesentliche Bearbeitung sind, die noch kein Bild darstellen.
Nach dem De-Bayering ist es ein Video Signal, das zwar flach entzerrt ist, aber eher den verschiedenen LOG Kurven ähnelt als dem Sensordatensatz.
Mehr sag ich gar nicht ... Du hast halt eine andere Definition ... macht doch nix.
Es gibt keine "Normierung" für RAW.
Wenn Hersteller ihr Material RAW nenne wollen, dann tun sie es. Es bleibt also eine Definition im Auge des Betrachters.