Newsmeldung von slashCAM:Erfahrungsberichte: Erfahrungsberichte: Canon Magic Lantern RAW - Unsere erste Einschätzung von rudi - 22 May 2013 19:56:00
>Mal wieder in Zusammenarbeit mit EOSHD hatten wir heute die Möglichkeit uns einmal näher mit der aktuellen Magic Lantern Firmware an der Canon EOS 5D Mk3 zu befassen und dabei die ersten praktischen Eindrücke zu sammeln...
zum ganzen Artikel
Antwort von Valentino:
Die Idee mit dem Mini-Laptopist ist ganz gut, sollte in der Parxis aber nicht über 60MB/sekunde wegschreiben können.
Gerade wenn an dem USB3.0 Controller noch die Backup HDD hängt,
geht die Kopierleistung schnell in die Knie.
Wer schnell kopieren will, sollte schon ein Notebook der gehobenen Preisklasse wählen.
Wir arbeiten hier mit dem Thinkpad W520, das Platz für zwei 2,5" HDD/SDDs hat und dazu noch über eSata und Express34 verfügt.
Bis jetzt erreichen wir mit UMDA7 Karten über einen Express34 Kartenleser über 70 bis 90MB/Sekunde.
Damit hat der eine oder andere USB3.0 Kartenleser so seine Probleme.
Mit zwei zusätzlichen Akkus kommen wir fast über einen 10h Drehtag.
Antwort von handiro:
Schöne Wortwahl, A1ex and his Magic :-) Das Team leistet wirklich bemerkenswertes, wer hätte das gedacht? Habt Ihr nicht Lust das gleiche mal mit meiner MK2 zu testen?
Antwort von Tiefflieger:
Ich habe mal den Film analysiert.
Die Bilddetails (Schärfe) sind für eine DSLR gut.
Aber der Kontrastumfang ist trotz RAW bescheiden und keine Zeichnung oder Details in Schatten.
Im Zeitindex 3:01 links oben in den Baumschatten gibt es Schwarz-Rauschen.
So wäre die Kamera nichts für mich.
Gruss Tiefflieger
Antwort von Clemens Schiesko:
Aber der Kontrastumfang ist trotz RAW bescheiden und keine Zeichnung oder Details in Schatten.
Im Zeitindex 3:01 links oben in den Baumschatten gibt es Schwarz-Rauschen.
So wäre die Kamera nichts für mich.
Da kann ich dir gerade nicht ganz folgen. Also du schlussfolgerst anhand dieses Video auf den Kontrastumfang vom Canon RAW? Wer weiß denn schon, welche Einstellungen Andrew Reid dort genau vorgenommen, was er inwiefern korrigiert und gegradet hat. Ich habe hier jedenfalls unangepasstes DNG rumliegen, wo sehr wohl noch Zeichnungen und Details in den Tiefen vorhanden sind. Also davon würde ich das nicht abhängig machen.
---------
Ich jedenfalls bin sehr froh über dieses "Update". Morgen sollte meine Lexar 1000x ankommen und wenn das Wetter wieder mitspielt werde ich mich mal an ihr austesten.
Einen positiven Nebeneffekt finde ich zudem, dass ich so einen Klaps auf den Hintern bekomme, mich wieder etwas intensiver mit dem Videomodus auseinanderzusetzen und einen Clip zu basteln. Dieser mag dann zwar vielleicht nichts weltbewegendes sein, aber Impressionen können immer auch Inspiration für andere und eine schöne Erinnerung für einen selbst sein.
Hinzu kommt, dass man durch den RAW-Modus und der geringeren Aufnahmekapazität wohl noch ein wenig bedachter filmt, vielleicht etwas länger überlegt, bevor man auf den Auslöser drückt. Das kann dem Endprodukt nur zugute kommen und neue Erkenntnisse bringen.
Schön finde ich auch, dass nun wieder viele kleine Videos auf Vimeo rumschwirren, die aufgrund des fehlenden Audiokanals viele kleine musikalische Schmuckstücke hervorbringen und man auf Filmproduzenten stößt, deren Videos man vorher vllt. nicht kannte. Ähnlich wie zu den Anfangszeiten der Mark II. Wie gesagt, nur ein positiver Nebeneffekt der mit Magic Lantern jetzt aber nicht viel zu tun hat.
Die Schwierigkeiten und den größeren Zeitaufwand um RAW sehe ich für mich zudem als weniger problematisch. Vielmehr finde ich, das so nochmal ein klein wenig die Spreu vom Weizen getrennt wird. Nicht jeder beherrscht RAW in seinem vollen Umfang und ist sich dem Aufwand wert. Wer damit nichts anfangen kann, lässt es. Der Rest erfreut sich an den neu gewonnen Möglichkeiten. Was übrig bleibt, wird sich zeigen.
Bei den elendigen Diskussionen in den anderen Threads empfinde ich übrigens ein metaphorisches Bild: Urmenschen die, im Kreis versammelt, das erste Mal vor einem Feuerzeug stehen und stundenlang abwägen, was das wohl ist, wie man es nutzt, ob es was bringt, wem es was bringt, und, und, und. Und derjenige, der einfach drauf zu geht und es benutzt, ist den anderen schon Meilen voraus, während diese sich immer noch den Kopf zerbrechen...
Antwort von Joggel:
ja genau: als ich vor 30 Jahren 16mm gefilmt habe, hat jede Sekunde einen Euro gekostet. Mit den neuen 1000x Karten ist es wieder so :-)
Antwort von Tiefflieger:
Aber der Kontrastumfang ist trotz RAW bescheiden und keine Zeichnung oder Details in Schatten.
Im Zeitindex 3:01 links oben in den Baumschatten gibt es Schwarz-Rauschen.
So wäre die Kamera nichts für mich.
Da kann ich dir gerade nicht ganz folgen. Also du schlussfolgerst anhand dieses Video auf den Kontrastumfang vom Canon RAW? Wer weiß denn schon, welche Einstellungen Andrew Reid dort genau vorgenommen, was er inwiefern korrigiert und gegradet hat. Ich habe hier jedenfalls unangepasstes DNG rumliegen, wo sehr wohl noch Zeichnungen und Details in den Tiefen vorhanden sind. Also davon würde ich das nicht abhängig machen.
...
Ich bin gespannt auf Deine Ergebnisse, sofern Du etwas zeigen kannst und willst :-)
Ich habe ein paar Standbilder aus dem MP4 Download im Eingangs-Artikel rausgezogen.
Von links nach rechts.
Das 1. Bild der dunkle Bereich rechts ist "schwarz" ohne Zeichnung
Das 2. Bild ist vermutlich unterbelichtet und die Bäume sind fast Matsch
Das 3. Bild würde man vermutlich die Musterung der dicken Äste im unteren Bereich noch sehen
Im 4. Bild Zeitindex 3:01 (Filmende) im roten Rahmen gut zu sehen ist das Grün verrauscht.
zum Bild http://www.fotos-hochladen.net/thumbnail/canoneosmk300jo7uxib2fy_thumb.jpg /
/
zum Bild http://www.fotos-hochladen.net/thumbnail/canoneosmk302m2gyqksdwn_thumb.jpg /
(click)
Gruss Tiefflieger
Antwort von iasi:
Wer die 5dIII schon besitzt oder sie eh fürs Fotografieren kaufen möchte, kann sich freuen.
Ansonsten bin ich doch noch sehr skeptisch.
Im Full-Frame-Modus wäre sie wirklich etwas besonderes, im Crop-Modus stellt sich jedoch die Frage: Gibt es da nicht bessere Alternativen?
Insgesamt ist es wohl noch ein ziemliches Gewürge.
Könnte die Kamera 25fps in der niedrigeren RAW-Auflösung als Reihenaufnahme auf die Karte schreiben, wäre das eine feine Sache - so gibt es ja z.B. S-RAW mit 2.880 x 1.920 und bei voller Auflsösung schafft die Kamera 6fps. So aber ...
Die EOS 1D-X sollte bei (S-RAW) 2.592 x 1.728 doch prinzipiell auch in der Lage sein, Reihenaufnahmen mit 25fps zu machen - bei 4-facher Auflösung schafft sie immerhin 12fps. Wobei man dann jedoch bei 180MB/s wäre.
Antwort von domain:
@ Tiefflieger
Stimmt eigentlich.
Ich sehe alles und jedes von dir Analysierte beinahe schon so negativ wie du: alles ohne Zeichnung, unterbelichtet, fast Matsch und alles Grün verrauscht.
Was hast du eigentlich für eine Kamera, wo all das nicht existent ist?
Bisher hast du uns das noch nie verraten.
Antwort von WoWu:
Urmenschen die, im Kreis versammelt, das erste Mal vor einem Feuerzeug stehen und stundenlang abwägen, was das wohl ist, wie man es nutzt, ob es was bringt, wem es was bringt, und, und, und. Und derjenige, der einfach drauf zu geht und es benutzt, ist den anderen schon Meilen voraus, während diese sich immer noch den Kopf zerbrechen...
:-)) ... bis die andern dann zugestiegen sind und denen, die gleich losgefahren sind gesagt haben, dass man am Lenkrad drehen muss, um nicht immer im Kreis zu fahren.
:-))
Antwort von iasi:
Aber der Kontrastumfang ist trotz RAW bescheiden und keine Zeichnung oder Details in Schatten.
Im Zeitindex 3:01 links oben in den Baumschatten gibt es Schwarz-Rauschen.
So wäre die Kamera nichts für mich.
Da kann ich dir gerade nicht ganz folgen. Also du schlussfolgerst anhand dieses Video auf den Kontrastumfang vom Canon RAW? Wer weiß denn schon, welche Einstellungen Andrew Reid dort genau vorgenommen, was er inwiefern korrigiert und gegradet hat. Ich habe hier jedenfalls unangepasstes DNG rumliegen, wo sehr wohl noch Zeichnungen und Details in den Tiefen vorhanden sind. Also davon würde ich das nicht abhängig machen.
...
Ich bin gespannt auf Deine Ergebnisse, sofern Du etwas zeigen kannst und willst :-)
Ich habe ein paar Standbilder aus dem MP4 Download im Eingangs-Artikel rausgezogen.
Von links nach rechts.
Das 1. Bild der dunkle Bereich rechts ist "schwarz" ohne Zeichnung
Das 2. Bild ist vermutlich unterbelichtet und die Bäume sind fast Matsch
Das 3. Bild würde man vermutlich die Musterung der dicken Äste im unteren Bereich noch sehen
Im 4. Bild Zeitindex 3:01 (Ende) im roten Rahmen gut zu sehen ist das Grün verrauscht.
Gruss Tiefflieger
Anhand der Standbilder kannst du wirklich keine Aussagen machen ... die sagen nichts darüber aus, wieviel Zeichnung in den RAW-Aufnahmen waren.
Antwort von Tiefflieger:
@ Tiefflieger
Stimmt eigentlich.
Ich sehe alles und jedes von dir Analysierte beinahe schon so negativ wie du: alles ohne Zeichnung, unterbelichtet, fast Matsch und alles Grün verrauscht.
Was hast du eigentlich für eine Kamera, wo all das nicht existent ist?
Bisher hast du uns das noch nie verraten.
Im Film hat es auch Szenen mit besserer Zeichnung.
Die Details stimmen und viele Szenen sind gut gezeichnet.
Aber anhand dieses Ergebnisses bin ich kritisch.
Gruss Tiefflieger
Antwort von Tiefflieger:
Aber der Kontrastumfang ist trotz RAW bescheiden und keine Zeichnung oder Details in Schatten.
Im Zeitindex 3:01 links oben in den Baumschatten gibt es Schwarz-Rauschen.
So wäre die Kamera nichts für mich.
Da kann ich dir gerade nicht ganz folgen. Also du schlussfolgerst anhand dieses Video auf den Kontrastumfang vom Canon RAW? Wer weiß denn schon, welche Einstellungen Andrew Reid dort genau vorgenommen, was er inwiefern korrigiert und gegradet hat. Ich habe hier jedenfalls unangepasstes DNG rumliegen, wo sehr wohl noch Zeichnungen und Details in den Tiefen vorhanden sind. Also davon würde ich das nicht abhängig machen.
...
Ich bin gespannt auf Deine Ergebnisse, sofern Du etwas zeigen kannst und willst :-)
Ich habe ein paar Standbilder aus dem MP4 Download im Eingangs-Artikel rausgezogen.
Von links nach rechts.
Das 1. Bild der dunkle Bereich rechts ist "schwarz" ohne Zeichnung
Das 2. Bild ist vermutlich unterbelichtet und die Bäume sind fast Matsch
Das 3. Bild würde man vermutlich die Musterung der dicken Äste im unteren Bereich noch sehen
Im 4. Bild Zeitindex 3:01 (Ende) im roten Rahmen gut zu sehen ist das Grün verrauscht.
Gruss Tiefflieger
Anhand der Standbilder kannst du wirklich keine Aussagen machen ... die sagen nichts darüber aus, wieviel Zeichnung in den RAW-Aufnahmen waren.
Klar es ist ein 8 bit Vimeo Format aber es hat einige Stellen ohne Details in den Tiefen (h.264 mit 24 Mbps sollte besser aussehen). Aber gerade da um etwas RAW Vorteile zu zeigen könnte mit anderem Gamma oder flachem Profil der Tiefenumfang gezeigt werden.
Gruss Tiefflieger
Antwort von iasi:
@ Tiefflieger
Stimmt eigentlich.
Ich sehe alles und jedes von dir Analysierte beinahe schon so negativ wie du: alles ohne Zeichnung, unterbelichtet, fast Matsch und alles Grün verrauscht.
Was hast du eigentlich für eine Kamera, wo all das nicht existent ist?
Bisher hast du uns das noch nie verraten.
Im Film hat es auch Szenen mit besserer Zeichnung.
Die Details stimmen und viele Szenen sind gut gezeichnet.
Aber anhand dieses Ergebnisses bin ich kritisch.
Gruss Tiefflieger
na also - normalerweise lässt sich anhand dieser guten Einstellungen auf die Qualität des RAW-Material schließen. Man kann sowohl bei der Belichtung als auch beim Grading die Möglichkeiten von RAW durchaus beschneiden.
Wer die Lichter clippen lässt oder es andererseits mit dem Schutz der Lichter übertreibt, nutzt den DR nicht richtig aus.
Und wer RAW anhand des Vorschaumonitors beurteilt, liegt häufig daneben - das Histogramm ist der Schlüssel zum Erfolg.
Antwort von glnf:
Das Ausmass dieser Entwicklung ist schon krass. So bedeutet es, dass die Sensoren von Fotokameras offensichtlich schon längst in voller Auflösung und Bildrate ausgelesen werden können, die Hersteller es aber nicht für nötig erachten dies den Anwendern zur Verfügung zu stellen.
Ein schnelles Interface und simpelste Software hätten seit Jahren gereicht um die RAW-Daten extern aufzuzeichnen, mit allen Vorteilen. 2K und 4K Video mit hohem Kontrastumfang ist somit seit langem günstig möglich, wir haben die Geräte quasi in der Hand, es fehlt nur die passende Schnittstelle. Und auch die ist nicht Raketentechnologie. Firewire oder USB 3 reichen aus. Statt dessen werden Jahr für Jahr neue Spezialgammas und "Cinestyles" eigeführt die kompliziert zu verarbeiten sind und doch den Möglichkeiten von RAW heftig hinterherhinken. Weshalb nur? Müssen sich die Fotografen mit verschiedenen Übertragungskurven, Spezialsondergammas und Colorprofiles herumschlagen? Nein. Ihnen wird seit über 10 Jahren RAW gegönnt damit ihnen die bestmögliche Qualität zur Verfügung steht.
Entweder verstehen die Hersteller ihre eigenen Produkte und Kunden nicht oder sie beschneiden ihre Kameras seit Urzeiten gezielt um Verbesserungen nur tröpfchenweise in neue und möglichst teuer Produkte einfliessen zu lassen. Dabei vermeiden Firmen wie Canon, Sony und Panasonic die simple und hochwertige RAW Aufzeichnung und bringen lieber unbezahlbare, komplizierten und inkompatible Produkte auf den Markt. Kein Wunder steht die Türe so weit offen für kleine Firmen wie Black Magic oder eben Coder wie A1ex von Magic Lantern.
Antwort von le.sas:
Im Endeffekt ist es doch so wie vor 4 Jahren: Es gibt einen riesigen geilen Sensor, alles was noch gemacht werden muss, ist das Signal abzugreifen. Das hätte man auch schon vor 4 Jahren machen können.
Ich finde es immer etwas kritisch, sich über technische Dinge auszulassen, die gerade noch in der Entwicklung sind, und dann noch anhand von Internetvideos oder Bildern..
Man analysiert ja auch nicht einen Kuchen der noch nicht im Ofen war, oder?
Ich finde dass es natürlich kein Überfliegermaterial ist, aber wovon reden wir hier?
Es ist ein Fotoapparat, der jetzt fast so gute Qualität wie eine C300 hat, und das im, und ich betone es nochmals, Entwicklerstatus!
14 Bit Material ist su super zu graden, das ist unglaublich wenn man das mit dem h.264 Material vergleicht. Wenn man ein bißchen mit Camera-Raw gearbeitet hat, bekommt man wirklich guten Scheiß aus dem Material, das ist unglaublich.
Und noch eine kleine Ergänzung zum Speicherbedarf-
Es wird gerade an einem Skript gearbeitet, das scheinbar doch in den Prozessor eingreift und das Material komprimieren kann- und zwar die Farbtiefe und somit die Bitrate.
Was das heißt (wenn es denn so funktioniert), dass man statt 14 eben in 12 oder 10 Bit aufnimmt (was mehr als ausreichend ist), was erstens die Bitrate senkt (und somit auch das Aufnehmen mit langsameren Karten ermöglicht), und die Aufnahme von höhern Auflösungen über 2K.
Was mich mal interessieren würde (@Slashcam)-
ich hab bisher einen einzigen Ebayanbieter (der kommt mir relativ spanisch vor) und Komputerbay selbst bei Amazon (da gibt es die karte für 150 aus US and the A) gefunden für die 64er Version.
Habt ihr noch alternativen wo man die bekommen könnte...?
Antwort von rudi:
Es wird gerade an einem Skript gearbeitet, das scheinbar doch in den Prozessor eingreift und das Material komprimieren kann- und zwar die Farbtiefe und somit die Bitrate.
Was das heißt (wenn es denn so funktioniert), dass man statt 14 eben in 12 oder 10 Bit aufnimmt (was mehr als ausreichend ist), was erstens die Bitrate senkt (und somit auch das Aufnehmen mit langsameren Karten ermöglicht), und die Aufnahme von höhern Auflösungen über 2K.
Hast du da nen Link? Ich hatte das nämlich A1ex vor einer Woche oder so im ML Forum vorgeschlagen und er meinte, dass nur die Emdac-Routinen so schnell kopieren können, dass RAW überhaupt geht. Und die Emdacs kann man kaum programmieren. Drum würde es mich interessieren, wie der emdac jetzt umschifft werden soll.
Was mich mal interessieren würde (@Slashcam)-
ich hab bisher einen einzigen Ebayanbieter (der kommt mir relativ spanisch vor) und Komputerbay selbst bei Amazon (da gibt es die karte für 150 aus US and the A) gefunden für die 64er Version.
Habt ihr noch alternativen wo man die bekommen könnte...?
Leider nein, wir haben auch selber keine, sondern nur Andrew, der unseres Wissens nach bei amazon gekauft hat.
Antwort von glnf:
Ich finde dass es natürlich kein Überfliegermaterial ist, aber wovon reden wir hier?
Also ich finde die Qualität schon recht überfliegermässig.
Ist ja bezüglich Farbe und Kontrastumfang genau das selbe was die Kamera im Stillmodus leistet. (Abgesehen von einem Minidetail welches aber kaum eine Rolle spielt.)
Antwort von le.sas:
Jo klar:
http://www.magiclantern.fm/forum/index. ... n#msg39196
Da ist ein neuer User gestern mit angekommen.
Aber ich glaube man sollte lieber noch nicht die Pferde wild machen...
Und wegen der Karte- danke, denke mal dass da in letzter Zeit viele Bestellungen eingingen, deßhalb ist sie so schwer zu bekommen.
150 Euro ist aber schon ne Hausnummer für so ne "Billigkarte".
Aber sieht für mich gerade nach der besten Alternative aus.
Ich teste nachher nochmal ne Sandisk 32er 90MB/s, aber die komputerbay mit ihren über 90 MB/s ist schon sehr nice. Allein die Ausfallrate von der alle reden nervt etwas...
Wahrscheinlich müssen von allen gängigen Karten erstmal Benchmarks gemacht werden, meine Lexar 1000x schafft zb auch nur 74 MB/s, was leider etwas wenig ist.
Antwort von krissto:
zur Speicherkarte: Habe letzte Woche noch eine 64 GB Karte von Komputerbay für 99 Euro bei Amazon bestellt, kam gestern an, insofern einfach ein zwei Wochen warten, dann sind die wahrscheinlich wieder auf Lager... Gruß Krissto
Antwort von ruessel:
Habe ich Tomaten auf den Augen? Die Auflösung ist doch noch unter einem vernünftigen AVCHD Camcorder zum viertel Preis. Ich verstehe die ganze Aufregung nicht....
Wann zeigt Slashcam mal die rechte Seite des Charts? Max. 600 LPH ist doch schon seit 8 Jahren kalter Kaffee.

Antwort von le.sas:
Haha da hatte ich sie auch noch gesehen... hätte ich mal zugeschlagen.
Dank dir für den Tip!
Antwort von le.sas:
Unglaublich wie alle immer auf die Auflösung abgehen, in einer Youtubewelt.
Das Alleinstellungsmerkmal ist keine 8 Bit mehr zu haben.
Wer sich ein bißchen damit auskennt, weiß sofort um das Potential von mehr farbtiefe.
Alle anderen zählen halt weiterhin brav jedes einzelne Pixel...
Antwort von ruessel:
Wer sich ein bißchen damit auskennt, weiß sofort um das Potential von mehr farbtiefe.
Gähn.....
Antwort von le.sas:
Ok, das Gähn zeigt uns ja gerade dass du zu denen gehörst, die sich nicht auskennen.
Ist ja furchtbar, auch wenn du arrogant rüberkommen möchtest, klappt das leider nicht so.
Also schreib entweder was produktives oder am Besten gar nichts zu dem Thema, wenn du eh denkst dass das alles Unsinn ist.
Antwort von mella:
Klar, und so ein Look geht sicher auch mit einer anderen Videokamera für 2700 Euro:
Vielleicht mit der BMCC, aber selbst da bin ich mir nicht mehr so sicher und außerdem gibts die nicht beim Saturn um die Ecke...
Antwort von WoWu:
Alle anderen zählen halt weiterhin brav jedes einzelne Pixel...
Und wer zählt hier die Bits, die er auf keine Karte mehr bekommt ?
@Ruessel
Die Binnen ja den Sensor schon kräftig, damit ihnen der Prozessor nicht schmilzt.
Da wird das so schnell vermutlich nix mit zeitgemässer Auflösung bei Bewegtbild in vernünftigen Bewegungsphasen.
Da hat meila schon Recht ... sowas gibt's schon... und in guten Frameraten.
Antwort von le.sas:
Ich würde sagen derjenige der was damit anzufangen weiß...
Sorry jungs ich muss wieder aus, drehen.
Ihr könnt ja währenddessen noch ein bißchen zu einem Thema rumnerden dass euch eigentlich gar nicht interessiert.
Antwort von glnf:
... sowas gibt's schon... und in guten Frameraten.
Hallo Wowu, an welche Kameras denkst du dabei?
Antwort von ruessel:
Ok, das Gähn zeigt uns ja gerade dass du zu denen gehörst, die sich nicht auskennen.
Ich habe mich schon gewundert das keine Reaktionen kamen ;-)
Ich denke eine gute Kamera gut abgestimmt, macht auch gute Bilder in 8Bit. Ob auf AVCHD oder MPG2, das Endziel ist bei mir sowieso eine BD in 4:2:0. Und wer beim Filmen seinen Verstand schon einschaltet, kann auch aus normalen AVCHD Farblich noch optimieren.
Ich habe manchmal den Eindruck hier sind nur Leute versammelt, die nicht richtig mit der Blende umgehen können und hoffen später in aller Ruhe anständige Bilder aus suboptimalen Belichteten 12Bit quetschen zu können.
Rolling Shutter bei jeder kleinen Bewegung, eine Auflösung unter HDV aber möglichst 16 Bit... steigert dadurch wirklich die Bildqualität der Produktion gewaltig?
Antwort von WoWu:
@le.sas
Woher willst Du wissen, dass es nicht interessiert ?
Es ist nur sehr schwer zu erkennen, wo die eigentliche Innovation dabei ist.
Es gibt zum identischen Preis Kameras, die mehr als das können (und besser).
Erklär mir doch mal, wo die Innovation ist und was Dich so ausflippen lässt.
Antwort von glnf:
Es gibt zum identischen Preis Kameras, die mehr als das können (und besser).
Und das waren... welche schon wieder?
Antwort von WoWu:
@Ruessel
Etwas mehr als 8 Bit 4:2:0 darf es schon sein. Dagegen wird keiner was haben aber ich glaube, hier wird mal wieder auf RAW "abgefahren" und auf die 16 Bit.
Dass man die 16 Bit nur durch das Bin erreicht und dass dabei die Auflösung auf der Strecke bleibt, wird dabei völlig vergessen.
Ich glaube, das Thema ist euphorisch überbewertet und wird von den Blogs nur hochgepuscht.
Das war bei dem GH2 Hack doch nicht anders, der sich dann als "Maus" entpuppte.
Nice Hack, und wer die MKIII hat, wird ihn sicher nutzen, aber ein Kaufgrund
wäre das für mich nicht.
Antwort von ruessel:
Ich glaube, das Thema ist euphorisch überbewertet und wird von den Blogs nur hochgepuscht.
Ja, das hat mich eigentlich hier im Bericht gestört:
Das haute uns dann doch aus den Socken. Zwar liegt die erzielbare Schärfe nicht ganz an einer C100/300, die natürlich von ihrem für FullHDFullHD im Glossar erklärt optimierten Sensor profitiert. Dennoch liegt die erzielbare Schärfe in diesem Modus definitiv in der DSLR-Oberliga.
Schon eine sehr leichte nachträgliche Schärfung der 8 BitBit im Glossar erklärt Datei zeigt, wie viel Spielraum hier noch im Raw-Material für die Postproduktion enthalten ist. Gepaart mit der beispiellosen Dynamik, die man durch die RAW-Dateien hat bekommt man hier plötzlich eine Kamera, die kaum Konkurrenz neben sich hat.
Und dann werden optimierte Ausschnitte gezeigt, wo ich mich doch schon sehr wundern muss....

Oben ein alter 600,- Euro AVCHD Camcorder für die Hosentasche. Sieht doch der Testchart bis auf den versauten WB ein wenig besser aus.
Antwort von iasi:
Vielleicht bringt dieses 14 zu 12 (10) Bit nochmal Schub in die Geschichte
http://www.magiclantern.fm/forum/index. ... ic=5601.50
Immerhin könnte dies die Datenmengen bei 1920x1080 (+) auf ein Maß reduzieren helfen, das von der Hardware zu bewältigen ist.
Ich hätte ja nichts dagegen, wenn meine 5dII ein bearbeitbares 12Bit-RAW-Format in Full-Frame und/oder Crop-Mode ausspucken würde, welches 1080/25p oder mehr bietet.
Bin mal gespannt.
Ansonsten muss man eben hoffen, dass BMD im Sommer wirklich liefern kann.
Antwort von WoWu:
Vielleicht bringt dieses 14 zu 12 (10) Bit nochmal Schub in die Geschichte
http://www.magiclantern.fm/forum/index. ... ic=5601.50
Immerhin könnte dies die Datenmengen bei 1920x1080 (+) auf ein Maß reduzieren helfen, das von der Hardware zu bewältigen ist.
Ich hätte ja nichts dagegen, wenn meine 5dII ein bearbeitbares 12Bit-RAW-Format in Full-Frame und/oder Crop-Mode ausspucken würde, welches 1080/25p oder mehr bietet.
Bin mal gespannt.
Ansonsten muss man eben hoffen, dass BMD im Sommer wirklich liefern kann.
Die 16 Bit kannst Du ohnehin vergessen, weil 2 Bit davon sowieso nicht nutzbar sind und nur Datenrate verschwenden.
Problem ist eben nur, dass das Binning im Sensor gemacht wird.
Dazu müsste man an die Tabellen, die das sensor-intern treiben.
Da wird es hapern.
Demnach bleiben nur die Konstellationen, die der Chiphersteller implementiert hat.
Antwort von glnf:
Die 16 Bit kannst Du ohnehin vergessen, weil 2 Bit davon sowieso nicht nutzbar sind und nur Datenrate verschwenden.
Ausser ruessel und dir spricht niemand von 16 Bit. Es sind 14 Bits die der AD Wandler liefert und da die letzten 2 Bits, wie du richtig anmerkst, eh Rauschen sind, versuchen die ML Leute gerade die Daten auf 12 bzw. 10 Bis zu beschneiden. Dadurch liesse sich die Datenrate leicht reduzieren. Es wird gerade die Frage geklärt ob sich die benötigte Rechenleistung dazu in der Kamera irgendwo abzwacken lässt.
Antwort von iasi:
letztlich wäre ich mit jeder Verbesserung gegenüber den aktuellen 8Bit 4:2:0 zufrieden - einem geschenkten Gaul schaut man schließlich nicht ins Maul.
Antwort von Valentino:
Aber dann doch nicht gleich RAW,hat hier jemand mal den clear HDMI Out der 5DMK3 ausprobiert, da sollten doch echte 8bit 4:2:2 anliegen oder?
Schon mit einem BM Shuttle hätte man eine deutliche höhere Farbauflösung und geringere Komprimierung.
Durch das ganze RAW Gehype geht diese Funktion völlig unter, und wird für die meisten dazu noch sinnvoller sein als dieser riesiger "RAW-Datengrab-Montser Workflow",
bei dem man nicht sicher sein kann, das es nicht irgendwo Droped Frames oder ähnliches auftritt.
Antwort von WoWu:
Die 16 Bit kannst Du ohnehin vergessen, weil 2 Bit davon sowieso nicht nutzbar sind und nur Datenrate verschwenden.
Ausser ruessel und dir spricht niemand von 16 Bit. Es sind 14 Bits die der AD Wandler liefert und da die letzten 2 Bits, wie du richtig anmerkst, eh Rauschen sind, versuchen die ML Leute gerade die Daten auf 12 bzw. 10 Bis zu beschneiden. Dadurch liesse sich die Datenrate leicht reduzieren. Es wird gerade die Frage geklärt ob sich die benötigte Rechenleistung dazu in der Kamera irgendwo abzwacken lässt.
Sorry, natürlich 14 Bit.
Nur bleibt das Problem, dass sie nicht in die Binningtabellen reinkommen, um grössere Auflösungen, schnell genug zu übertragen.
Antwort von domain:
Ich denke eine gute Kamera gut abgestimmt, macht auch gute Bilder in 8Bit. Ob auf AVCHD oder MPG2, das Endziel ist bei mir sowieso eine BD in 4:2:0. Und wer beim Filmen seinen Verstand schon einschaltet, kann auch aus normalen AVCHD Farblich noch optimieren.
Ich weiß nicht, ob ich bisher was übersehen habe, vielleicht könnt ihr mich aufklären.
Meiner Meinung nach kann selbst bei nur 8Bit bei einer auch noch so starken Farbkorrektur kein Banding entstehen, sofern das Original so ziemlich den gesamten Wertebereich zwischen 16 und 235 umfasste. Erst bei einer massiven Tonwertspreizung eines engen Bereiches wird das sichtbar.
Als Beispiel habe ich hier den links äußersten Bereich des BelleNuit-Graukeiles, also genau die Werte 10-100 auf 0-255 gespreizt. Nun ist leichtes Banding erkennbar, das aber auch nur in größeren eher unstrukturierten Flächen sichtbar würde.
Aber selbst die stärksten anschließenden Farbkorrekturen können das Banding nicht mehr erhöhen.
Es ist m.E. ja eine totale Fehleinschätzung, dass in einer 8-Bitcodierung keine wesentlichen Farbkorrekturen mehr möglich sind.
Antwort von ruessel:
Meiner Meinung nach kann selbst bei nur 8Bit bei einer auch noch so starken Farbkorrektur kein Banding entstehen,
Ich glaube Banding ist auch nicht das Problem. Bei 8 bit ist halt der nachträgliche verschiebbare Kontrastumfang etwas klein. Vergleiche es mit einem guten JPG und einen TIFF Bild. Beim JPG kommen irgendwann Artefakte zum Vorschein beim Tiff nicht so schnell. (ja, der Vergleich hakt ein wenig)
Antwort von glnf:
Da habt ihr schon recht. Die 8 Bits sind grundsätzlich meist ausreichend. Das leichte Rauschen und die Strukturen die reale Bilder immer haben kaschieren zusätzlich potentielle Probleme.
Das tolle an dem Hack und an RAW im allgemeinen ist ja primär der viel höhere Kontrastumfang. Das bedeutet, dass man erst mal sehr "flaue" Bilder erhält die direkt nicht zu verwenden sind. Dafür kann man im Nachhinein präzise steuern ab welcher Helligkeit die Lichter zusammenlaufen sollen und wie viel Details in den ganz dunklen Bildbereichen noch erwünscht sind. Gerade das Beispiel weiter oben mit den Aufnahmen vom Strand zeigen sehr eindrücklich was RAW erlaubt. Immerhin sind die Aufnahmen in praller Sonne gedreht worden und soweit ich es sehen kann wurden keine Reflektoren zum Aufhellen der Gesichter verwendet. Meine (sehr gute) Videokamera würde in der Situation völlig versagen. Es wäre schlicht unmöglich so zu filmen.
Antwort von WoWu:
Dafür kann man im Nachhinein präzise steuern ab welcher Helligkeit die Lichter zusammenlaufen sollen und wie viel Details in den ganz dunklen Bildbereichen noch erwünscht sind.
.....und landen wird man dann bei so etwas wie einer LOG Kurve.
Nein, nein, der eigentliche Vorteil von RAW wird von den meisten gar nicht genutzt.
Er liegt nicht nur darin, 12 Bit vom Sensor zu bekommen sondern darin, dass das Ganze farbraumneutral ist und man durch individuelles Eingreifen ins De-Bayering erst, sowohl eine Farbgewichtung vornehmen kann, als auch individuell Einfluss auf die "Deplatzierung" (nenne ich das mal), der Farbpixel Einfluss hat, um den klassischen Moirebildungen entgegen zu wirken.
Dann erübrigt sich auch meist die Kantenaufsteilung, denen man ohne RAW ausgesetzt ist von allein.
Danach wird man aber genau wieder da landen, wo fast alle LOG Kurven auch gelandet sind.
Wer also den Vorzug von RAW nur nutzt, um es wie LOG zu benutzen, kann auch gleich LOG nehmen. da hat er die ganzen Probleme nicht, die RAW mit sich bringen.
Antwort von glnf:
Seit Jahren frage ich mich, weshalb meine Stills so viel besser sind als meine Videoaufnahmen. Umso mehr, als dass die Stillkamera auch Video aufzeichnen kann. Nur, dass sie dann diesen Schnellwaschgang dazwischen schaltet und die Bilder irgendwie bunt und kontrastreich macht. Das erklärt auch, weshalb Timelapse Aufnahmen so viel besser aussehen als Videoaufnahmen. Eben weil die Kamera sie als Stills und nicht als Video behandelt.
Was will mich da mit LOG herumschlagen. Mit RAW bin ich mehr als glücklich. Abgesehen davon das die LOGs der diversen Hersteller ja vor allem auf Inkompatibilität setzten und oft genug nur für heftige Aufpreise freigeschalten werden. Also mir gefällt die Entwicklung die mit Red angefangen hat, unter anderem von Black Magic aufgenommen wurde und nun auch die Hackerszene antreibt.
Antwort von WoWu:
Da bin ich ja völlig bei Dir, nur dass Du es eben mit Datenmengen (innerhalb eines sehr begrenzten Zeitraums) zu tun hast. Das ist weder bei LOG, noch bei Timelaps und schon gar nicht bei Stills der Fall.
Also geht das hier zulasten der räumlichen Auflösung.
Und eben solche Probleme haben die Hersteller durch eine moderate Kompression und eine geschickte Übertragungskurve gelöst.
Und ich glaube nicht, dass die Hacker das Rad neu erfinden.
Sie kommen an Schnittstellen und den Übertragungsgeschwindigkeiten auch nicht vorbei.
Mal ganz abgesehen davon, dass man im RAW sämtliche Korrekturen, speziell auch im Bereich der Optik, die sonst die Kamera durchführt, alle in der Post-Pro "an der Hacke" hat.
Und was die Kompartibilität angeht .... da ist RAW ja nun der absolute Vorreiter.
Da ist ja gar nichts kompatibel.
Dagegen sind LOG Kurven, weil sie ohnehin im Videobereich liegen ja noch leicht handhabbar.
Ich will gar nichts gegen RAW sagen, wir benutzen es in sehr speziellen Fällen selbst, aber ich wette, dass ML hier keine Revolution auf die Beine stellt. Weil sie die Probleme, die damit verbunden sind, auch nicht so einfach vom Tisch wischen.
Antwort von glnf:
Naja, bei den Fotografen hat sich RAW völlig durchgesetzt. Ich würde mal eher vermuten, dass LOGs (also die logarithmische Abbildung von Werten) ähnlich wie das elende Colorsubsampling (4:2:2, 4:2:0, etc.) primär eine Massnahme zur Datenreduktion ist und keinen weiteren Komfort oder Vorteil gegenüber den ursprünglichen und unveränderten Sensordaten bietet.
Antwort von WoWu:
Nee, LOGs sind NULL Datenreduktion.
Bei Fotografen ist das klar, die machen auch nicht 50 Bilder in der Sekunde.
Nur es gibt eben derzeit rd. 15 verschiedene File Formate. DNG unterstützt wenigstens ein paar davon und fängt so wenigstens das grösste Chaos auf.
Und RED gelingt es auch nur durch Kompression eine halbwegs akzeptable Auflösung nach aussen zu führen.
Es bleibt eben immer dasselbe Problem.
Aber - wie gesagt - ich weiss ja auch RAW sehr zu schätzen und auch damit umzugehen. Nur wird bei solchen Hacks eben das Rad nicht ein zweites Mal erfunden und man sollte eben nicht zuviel davon erwarten.
Wenn man mit den 600+ Zeilen Auflösung auskommt und damit hübschere Bilder macht als zuvor, dann ist das ja schon die halbe Miete.
Nur darf man das nicht mit Kameras vergleichen, die der HD Auflösung (zeitlich und räumlich) entsprechen.
Ich warte jetzt nur noch darauf, dass irgend jemand sagt, dann bräuche man ja keine Alexa mehr. .... Kommt bestimmt noch.
Aber das ist es eben nicht.
Wenn die Kamera die Qualität einer BMCC auch nur annähernd erreicht, kann jeder Besitzer damit mehr als zufrieden sein.
Ich würde da die Erwartungen an den Hack nicht allzu hoch schrauben, dass sich das wesentlich ändert.
Aber, wie gesagt, jeder, der sie hat, wird das gern nutzen, ein Kaufargument ist das aber bei weitem nicht.
Antwort von glnf:
Wenn die Kamera die Qualität einer BMCC auch nur annähernd erreicht, kann jeder Besitzer damit mehr als zufrieden sein.
Momentan scheint die Frage eher zu sein, wie weit die 5D3 die BMCC überholt. Aber mal schauen. Ich bin gespannt. Wenigstens problemlos erhältlich ist die Canon. Und ich brauch keine Ultraspezialweitwinkel. Und, noch besser, ich kann locker mit Blende 5.6 oder 4 arbeiten und erhalte eine Tiefenschärfe vergleichbar mit Filmkameras. Keine superschnelle Objektive nötig dazu. Sie soll auch ganz Lichtstark sein, abgesehen davon. Schon verlockend, nicht?
Antwort von WoWu:
Na eben nicht ... es sei denn, Du brauchst die geringe Tiefenschärfe, die bietet Dir natürlich nur ein Vollformat.
Aber die Empfindlichkeit, ist eben der geringen Auflösung geschuldet. Beides wird nicht gehen.
Die BMCC macht ja auch bei 2k ein Binning und verliert eine Blende, wenn sie voll auflöst.
Das sind eben Dinge, die hängen immer fest zusammen.
Aber ich bin da mit Dir einer Meinung, gegenüber der bisherigen Videoleistung der MKIII ist der Hack ein Fortschritt, sofern man sich wenig Arbeit mit der RAW Verarbeitung macht und mit den kurzen Aufnahmelängen und teuren Speicherpreisen klar kommt.
Aber mit dem Überholen, bin ich nicht so ganz bei Dir.
Aber die Blogs werden Dir da sicher zustimmen, schliesslich ist jeder Click wichtig und ein Fotograf muss nicht unbedingt verstehen, wie ein Sensor funktioniert ...
Antwort von iasi:
Hab ich da etwas verpasst?
Die volle Sensorfläche zu nutzen bringt bei der 5dIII doch so manche Nachteile mit sich - dachte ich zumindest.
Beim 1:1-Crop ist dann aber eben von der einstigen Größe nicht mehr viel übrig.
Nun mal zum Vergleich die BMPC, die es leider noch nicht gibt:
21.12mm x 11.88mm (Super 35)
3840 x 2160
2.5” SSD
Apple ProRes 422 (HQ)
...
und eben ein offener Standard: CinemaDNG RAW
Wenn BMD es diesesmal schaffen sollte, die Liefertermine einzuhalten fällt die Wahl nicht schwer.
Antwort von glnf:
Meanwhile in America: http://www.magiclantern.fm/forum/index. ... c=5601.100
Antwort von WoWu:
@Iasi
Ich kann diese ganzen Bezeichnungen (wie 1:1) Crop nicht wirklich einordnen, weil das zunächst mal leere Worthülsen sind und nirgend belastbar feststeht, was eigentlich dahinter steht.
Ich gehe mal davon aus, dass der Hack die Tabellen im Sensor benutzt, die von Canon beauftragt wurden. Danach wird jeweils nur umgebinned, um eine vergleichbare Datenrate bei den einzelnen Modi zu erreichen.
Wäre das nicht der Fall, wäre das sowieso inakzeptabel.
@Ginf
Das sieht aber höllisch danach aus, als ob die da im Bildprocessing rumstochern ... das hat mit RAW nix mehr zu tun.
(Ich hab das aber nur mal so angelesen ... nicht wirklich intensiv betrachtet.)
Antwort von iasi:
ja - es geht wohl vorran mit 14 zu 12 Bit.
Nur muss es dann eben auch noch das bringen, was man sich erhofft: Höhere Auflösung durch reduzierte Datenmengen.
Das ist alles schon recht nett - aber letztlich läuft es ein wenig auf Flickschusterei hinaus, denn die Kameras sind dafür ursprünglich nicht konzipiert.
Antwort von Angry_C:
ja - es geht wohl vorran mit 14 zu 12 Bit.
Nur muss es dann eben auch noch das bringen, was man sich erhofft: Höhere Auflösung durch reduzierte Datenmengen.
Das ist alles schon recht nett - aber letztlich läuft es ein wenig auf Flickschusterei hinaus, denn die Kameras sind dafür ursprünglich nicht konzipiert.
Da wird einem wenigstens nicht langweilig. 90 % der Leute, die seit 2 Jahren ihre GH2 Hacks testen, haben nicht mehr zustande gebracht als irgendwelche Blumen Closeups aus dem eigenen Garten.
Solange es Spass macht, die Grenzen eines Gerätes auszuloten, ist das doch eine schöne Sache.
Antwort von cantsin:
Mal ganz abgesehen davon, dass man im RAW sämtliche Korrekturen, speziell auch im Bereich der Optik, die sonst die Kamera durchführt, alle in der Post-Pro "an der Hacke" hat.
Das ist aber in der Digitalfotografie ein längst gelöstes Problem, z.B. mit Lightroom/Adobe Camera Raw und DxO Optics Pro, die anhand der in den EXIF-Metadaten abgelegten Objektiv-/Kamerabodykombinationen automatisch die entsprechenden Softwarekorrekturen zuschalten. Gerade DxO holt damit eine fantastische Qualität aus den RAW-Daten. Nichts (ausser natürlich der Verarbeitungsgeschwindigkeit) spricht dagegen, sowas auch bei Video zu implementieren.
Antwort von WoWu:
Das ist wohl richtig.
Nur wenn ich sehe, dass die Meisten hier das RAW Format einfach irgendwo importieren und zu einem halbwegs ansehnlichen Bild machen, dann hab ich doch meine hellen Befürchtungen, dass solche intensiven Bearbeitungen weitestgehend auf der Strecke bleiben.
All die, die sich mit RAW nicht wirklich befassen wollen, sind mit einem LOG deutlich besser bedient .... da ist dann "all-inclusive".
Antwort von iasi:
All die, die sich mit RAW nicht wirklich befassen wollen, sind mit einem LOG deutlich besser bedient .... da ist dann "all-inclusive".
wohl wahr ... und für das Arbeiten mit RAW braucht es dann aber eben auch etwas Fleisch - die 1920x1080 der BM-Pocket sind hierfür z.B. eigentlich auch zu wenig
Antwort von glnf:
@Ginf
Das sieht aber höllisch danach aus, als ob die da im Bildprocessing rumstochern ... das hat mit RAW nix mehr zu tun.
Nana, nichts wildes. Die hacken nur die zwei minderwertigsten Bits ab um ein wenig Speicherplatz und hoffentlich Transferrate zu sparen. Die lustigen Zwischenergebnisse haben offensichtlich damit zu tun, dass entweder die Werte vorzeichenbehaftet sind (?!? ich durchschau diesen Teil auch nicht ganz - sie reden von "Schwarzwert" aber dass kann auch nicht sein ?!?) oder die falschen Bits erwischt werden bzw. der Rest falsch interpretiert wird. Aber eigentlich ganz naheliegend, da die letzten ~2 Bits normalerweise zu vernachlässigen sind und eh nur Rauschen.
Antwort von WoWu:
Tja, das verstehe ich nicht. Normalerweise macht man das in der Quantisierung so dass die Quantisierungsschritte um den Faktor 2^(16-12)=16 größer werden. Die Auflösung würde somit um den Faktor 16 abnehmen.
Das bedeutet, dass am „less significant Bit- Ende“ des Datenwortes Auflösung verloren gehen würde. Reduziert man also das Datenwort von 16 auf 12 Bit, würde Shot-Noise abnehmen, bei gleichzeitiger Beibehaltung der signifikanten, nicht schwankenden Daten.
Aber die werden das schon machen.
Wenn .... ja wenn es nicht so ist, dass sie, ähnlich wie der Russe, nur in irgendwelchen Tabellen hacken. Dann klappt das nicht.
Antwort von iasi:
Wenn es nur besser wäre, als das bisherige 8Bit-Zeug, wäre doch schon viel gewonnen.
Und wenn sich das bisherige Material z.B. in Photoshop wirklich so bearbeiten lässt, wie die RAW-Standbilder, wäre das schon mal ein enormer Schritt.
Nun hab ich leider die 5dII und bekomme nicht die gewünschte Auflösung - Full-Frame geht wohl damit auch nicht (trotz den bekannten Schwächen beim Scaling wäre dies ja auch schon mal etwas.)
Na - mal sehen, was noch kommt.
Antwort von Clemens Schiesko:
Heute konnte ich den RAW-Modus nun endlich auch mal mit meiner 5D Mark III antesten. Dazu habe ich gleich mal eine kleine deutsche Anleitung zur Installation geschrieben, weil auch ich mich erst etwas länger durchs Netz nach brauchbaren Informationen forschen musste.
ANLEITUNG: WWW.SCHIESKO.DE/RAW
Viel konnte ich aber noch nicht testen, was ich morgen aber nachholen möchte. Ein paar Szenen konnte ich aber dennoch einfangen. Dazu mal 5 Beispielframes mit sehr flacher Kurve, wen es interessiert: http://we.tl/xi1lisZbpg
Ansonsten lief mit der Lexar 32GB 1000x alles flüssig im Full-Frame Modus bei 1920x1080 25fps.
Nett finde ich auch, dass man durch Camera Raw gleichzeitig einen guten Rauschunterdrücker oder eine Objektivkorrektur für z.B. Verzerrungen mitgeliefert bekommt.
Antwort von glnf:
Tja, das verstehe ich nicht. Die Auflösung würde somit um den Faktor 16 abnehmen.
Du sagst es. Mit 14 Bit Farbtiefe sind 2^14 also 16384 Helligkeitswerte darstellbar. Pro Kanal bzw. Pixel, versteht sich, wie daraus danach die Farben generiert werden muss in dem Moment nicht interessieren. Schneide ich nun 2 Bits weg bleiben noch 2^12 = 4096 darstellbare Helligkeitswerte. Also Faktor 4 Verlust. Kürze ich von 14 auf 10 Bits ist es Faktor 16. Da die letzten Handvoll Bits nur einen sehr geringen Einfluss auf den dargestellten Wert haben (man denke an Nachkommastellen, die verlieren auch an Bedeutung je weiter hinten sie sind) und vermutlich sowieso keine echten Daten enthalten (sondern Rauschen = zufällige Werte) kann ich getrost darauf verzichten. Bezüglich der Bildauflösung ändert sich natürlich gar nichts - die Anzahl Pixel bleibt gleich.
Antwort von domain:
Wer also den Vorzug von RAW nur nutzt, um es wie LOG zu benutzen, kann auch gleich LOG nehmen. da hat er die ganzen Probleme nicht, die RAW mit sich bringen.
Spezielle Probleme fangen ja schon an. Jasonxinzhou z.B. behauptet, dass das Debayering von BMD demjenigen von Adobe weit unterlegen sei.
Peter Chamberain von BMD meint im Gegenzug, ihr Verwendetes sei das beste der Welt.
http://forum.blackmagicdesign.com/viewt ... f=2&t=1875
Übrigens Ruessel, mir sind die Vorteile von 12-14 Bit RAW sonnenklar, aber es soll nicht der Eindruck stehen bleiben, dass alles bisher in 8 Bit Gefilmte eigentlich zum Vergessen sei.
Wozu hat es bisher denn bei den Profikameras verschiedene Pictureprofile, sowie Knee- und Blackgamma-Einstellungen gegeben?
Antwort von Frank Glencairn:
Wobei sich Chamberlain im Grunde darauf raus redet, daß Resolve das alles in Echtzeit macht.
Antwort von domain:
Was aber nichts anderes bedeutet, als dass eine Foto-RAW-Entwicklung mal grundsätzlich nicht mit Realtime-Cinema-DNG vergleichbar ist.
Das wird man sich merken müssen.
Richtig spannend wird ja auch die Archivierungsfähigkeit der verschiedenen RAW-Formate. Ob die alle später noch lesbar sein werden?
Antwort von iasi:
Was aber nichts anderes bedeutet, als dass eine Foto-RAW-Entwicklung mal grundsätzlich nicht mit Realtime-Cinema-DNG vergleichbar ist.
Warum?
Antwort von domain:
Weil es Chamberlain indirekt gesagt hat und das muss genügen :-)
Sollten einmal, wie von WoWu schon avisiert, verschiedene Debayering-Algorithmen zur Verfügung stehen, dann sehe ich die nächste große Diskussionswelle mit hunderten Beispiel-Frames von Gartenblumen auf uns zukommen.
Also der Stoff wird nicht so schnell zu Ende gehen, direkt ein Glücksfall.
Antwort von WoWu:
@ moin domain,
Ob die alle später noch lesbar sein werden?
ich glaube, wenn überhaupt in Zukunft noch irgend etwas lesbar sein wird, dann die RAW Formate, (sofern sie nicht komprimiert wurden). Ein (für mich) echtes RAW Format besteht aus ein paar Limawerten. Die sind immer irgendwie auslesbar.
Was die Frage nach Echtzeitfähigkeit betrifft, so glaube ich nach wie vor, dass RAW gar nicht für die Echtzeitbearbeitung gedacht ist. Der Anwender denkt das nur.
Die RAW Formate sind für die indirekte Verarbeitung angelegt und in der ist beliebig viel Zeit, auch die rechenintensivsten Algorithmen durchzuführen.
Wenn Resolve das also "realtime" macht, dann ist das kein Prädikat sondern spricht eher gegen Resolve.
Vielleicht dauert es noch eine Weile, bis der User sich an die sample orientierte Verarbeitung gewöhnt hat aber die NLE Hersteller werden alle umstellen. Apple hat ja schon damit angefangen.
Insofern erledigt sich die Frage nach guten oder schlechten Algorithmen und ich sehe da auch nicht die 1000 Blumenbilder (obwohl man ja nie weiss).
Und "den besten der Welt" ... das ist auch wieder so ein Marketingspruch, wenn ich sehe, wie unterschiedlich die einzelnen Algorithmen auf unterschiedliche Bildinhalte wirken.
Was für den einen Bildinhalt sehr gut wirkt, kann für den andern Bildinhalt schon wieder ungeeignet sein.
Es wird vermutlich einen Haufen guter Stenciles (Tools) geben, die die wichtigsten Aufgaben und Analysen zukünftig im De-Bayering wahrnehmen.
Antwort von cantsin:
Weil es Chamberlain indirekt gesagt hat und das muss genügen :-)
Ich glaube, das hast Du missverstanden. Er bezog sich auf das Real Time-Debayering beim Abspielen von RAW-Material in Resolve, das mit qualitativ schlechteren Algorithmen ausgeführt wird. Sobald man rendert, greifen die Algorithmen die laut seinen Aussagen Hollywood bisher höchst zufriedengestellt haben.
Antwort von domain:
Dann werden es halt keine Blumenbilder, sondern Moire- und Aliasingclips sein.
Hast du nicht neulich etwas von die Pixel rein rechnerisch dislozierenden Debayeringverfahren geschrieben? Man stelle sich vor, diese gäbe es in verschieden starken Ausprägungen, mal mehr scharf mit Aliasing, dann wieder unschärfer ohne Aliasing.
Das würde doch unheimlich viel für Diskussionen und Vergleiche hergeben :-)
Antwort von domain:
Habe mal kurz nach Debayeringverfahren gegoogelt.
Ziemlich schnell kam folgende sicher nicht vollständige Liste zusammen: VNG, PPG, Gradientenverfahren, Bilinear, WACP .... wobei erwähnt wird, dass nach Bildanalyse auch verschiedene Verfahren innerhalb eines Bildes zur Anwendung kommen können, abhängig von mehr geschlossenen Flächen oder mehr Details im Bild.
Es kann bei der RAW-Entwicklung also davon ausgegangen werden, dass es schon auf der Debayeringebene kein einheitliches Verfahren geben wird und gewisse Qualitäts-Debatten entbrennen werden.
Antwort von WoWu:
.... und die sind zum Teil erheblich.
Wie gesagt, wir setzen unterschiedliche Verfahren, je nach Bildbeschaffenheit ein.
Es macht keinen Sinn, sich mit Bildgestaltung, Optiken und sonstigen Bearbeitungen viel Mühe zu geben, wenn man an der Stelle, an der man die Bildqualität ganz wesentlich beeinflussen kann und die Nachteile des Abtastverfahrens deutlich kompensieren kann, nicht eingreift.
Aber ich glaube, dass die 8/10 Bit für die normale Anwendung noch lange erhalten bleiben, denn man darf nicht vergessen, dass jedes Tool, jder Effekt, alles, was man in der Bildverarbeitung zur Anwendung bringt, auch in 12 Bit ausgelegt sein muss, sonst "springt" das Bild an der Stelle sowieso.
Die meisten NLEs und Tools/Effekte dafür sind derzeit noch 8 Bit. Vielleicht 20% sind 10 Bit und ein ganz geringer Teil ist überhaupt 12 Bit fähig. dafür legt man aber für einen solchen Effekt mal eben 500$ auf den Tisch, wie gesagt, ein Effekt/Tool.
Das vergessen die Meisten in der 12Bit Euphorie. Solange sie ein paar harte Schnitte machen, geht das, aber wehe, wenn das Material dann, wie gewohnt, bearbeitet werden soll .... dann wird alles plötzlich wieder 8 Bit.
Viele, von denen, die jetzt 12 Bit (oder mehr) so hypen, können es gar nicht gebrauchen.
Antwort von benjolino:
hallo,
was glaubt ihr, wie das encodieren bei der mk3 passiert? ist das ein hardware encoder oder wäre es möglich die encodierung bzw. komprimierung zu ändern bzw zu verringern. ich frage nur weil ich die hoffnung habe, dass magic lantern es irgendwann schaffen ein anständiges signal aus dem hdmi ausgang zu bekommen und man nicht mehr mit diesen wahnsinnig grossen raw Daten arbeiten muss. was ich nicht verstehe ist, dass das bild im raw format viel detailreicher ist. kann das von der komprimierung kommen, dass das bild unscharf wird? klar Artefakte und banding usw. schon aber Auflösung? oder komprimiert die original 5d mk3 nur 720p oder noch weniger zeilen zu dem all-i codec. ich verstehe einfach nicht wie z.b. die c300 mit 50mbit ein so schönes bild machen kann und die mk3 mit 90mbit so nen matsch. und jetzt da wir wissen, das das bild wenn es roh aus dem sensor kommt so gut ist, ist es umso schwere zu verstehen. in vielen foren wird über canon geschimpft weil sie angeblich absichtlich ihre produkte verkrüppeln um den eigenen markt zu schützen. bei der mk3 liegt der gedanke nicht so fern, zumindest wenn man sich nicht mit encodierung auskennt. mich würde interessieren was du davon hältst bzw. wie du dir erklärst das canon 6 monate an einem sauberen hdmi signal arbeitet und dann ist es kaum besser als der interne codec. machen die das absichtlich so schlecht? sind sie unfähig? oder kann man aus dem ding nicht mehr rausholen? man müsste doch das raw signal irgendwie in leichter komprimierung an den hdmi Ausgang bringen können? ich meine das raw signal liegt doch auch am internen screen an wenn live view aktiviert ist, warum kann es dann nicht auch am hdmi ausgang anliegen?
Antwort von le.sas:
Ich will es mal auf das simpelste runterbrechen: Dslrs sind Fotoapparate.
Die C300 Linie wird sich Canon nicht kaputt machen wenn sie die Funktionen der 5d freischalten. Warum das so ist und warum eine c300 besser zum Drehen zu gebrauchen ist als eine dslr werde ich hier lieber nicht erklären, sonst geht der Kindergarten mit einigen schon wieder los.
Das "Problem" ist, dass es beim raw usw zb zu viele Unkonstante gibt. Warum sollte sich das Canon antun, ständig Mails von Benutzern zu bekommen bei denen was nicht geht, und die in der Post nicht klar kommen.
Deßhalb, und weil die Videofunktion einer dslr eher für Papi gedacht ist der im Urlaub filmen will, ist das Video so kacke. Der braucht nur den h.264 Matsch der einfach zu schneiden ist.
Dass es geht zeigt der Hack der 50d , die jetzt auch RAW kann (wtf?!)
Canon ist übrigens der einzige Hersteller der relativ loyal mit dem Thema Hacks umgeht was die Garantie angeht, anders als Nikon und Panasonik.
Antwort von iasi:
Das "Problem" ist, dass es beim raw usw zb zu viele Unkonstante gibt.
Woher hast du das denn?
Dann müste Canon auch die RAW im Fotomodus abschalten.
Das Problem ist doch schlicht und einfach, dass die Hardware mit RAW überfordert ist. Das hat doch nichts mit RAW an sich zu tun.
Antwort von benjolino:
also ich glaub ihr habt beide unrecht:) die grösste leitung für eine kamera ist das komprimieren von raw Daten. das ist das beste was red kann und desshalb braucht die red epic auch 100 watt und wird heiss wie ein Bügeleisen und laut wie ein staubsauer. bei magic lantern ist ja auch zu lesen, dass beim schreiben von raw daten auf cf karte kaum prozessorleistung benötigt wird. da ist eher das problem, dass man mit den datenmengen an die grenzen der cf Schnittstelle, bzw. der cf karte kommt. wenn nun also das komprimieren vom raw zum h.264 den prozessor beschäftigt, ist für mich die frage, ob das was dabei rauskommt das beste ist was bei der 5d möglich ist. eigentlich, von der datenmenge die produziert wird (90mbit) sollte das bild eigentlich ganz gut sein ( vergleich c300 50 mbit oder fs 100 25mbit) aber die details fehlen. wenn es aber möglich wäre das raw Signal in den hdmi ausgang zu schicken, würde ja ein externer Recorder die komprimierung übernehmen und man könnte ein wunderhübsches proess hq bekommen.
Antwort von iasi:
viele "wenn"
Die Kameras geben all dies hardwaremäßig nun mal nicht her - daraufhin wurden sie nicht konstruiert.
Heiss und laut ist die Epic vor allem wegen ihrer Lüfterkonstruktion - da gibt es ja nun sogar von Red selbst Abhilfe.
Antwort von le.sas:
Das "Problem" ist, dass es beim raw usw zb zu viele Unkonstante gibt.
Woher hast du das denn?
Dann müste Canon auch die RAW im Fotomodus abschalten.
Das Problem ist doch schlicht und einfach, dass die Hardware mit RAW überfordert ist. Das hat doch nichts mit RAW an sich zu tun.
Das ist doch offentsichtlich.
raw Video ist ja was anderes als Raw Fotos.
Guck dir doch mal an, wieviele hier im Forum ständig Fragen zu Raw Video stellen, obwohl sie sich einfach nur den Thread auf der ML Seite durchlesen müssten.
Und jetzt stell dir mal den Pappi von nebenan vor, der wäre total überfordert.
Und was will der dann mit dem raw Material? Umwandeln? Womit? Wie will er die großen Datenmengen handeln?
Mit den Fotos ist es doch was ganz anderes, und ich wiederhole mich gerne, es handelt sich um Fotoapperate, nicht um Videokameras.
Antwort von benjolino:
Das "Problem" ist, dass es beim raw usw zb zu viele Unkonstante gibt.
Woher hast du das denn?
Dann müste Canon auch die RAW im Fotomodus abschalten.
Das Problem ist doch schlicht und einfach, dass die Hardware mit RAW überfordert ist. Das hat doch nichts mit RAW an sich zu tun.
Das ist doch offentsichtlich.
raw Video ist ja was anderes als Raw Fotos.
Guck dir doch mal an, wieviele hier im Forum ständig Fragen zu Raw Video stellen, obwohl sie sich einfach nur den Thread auf der ML Seite durchlesen müssten.
Und jetzt stell dir mal den Pappi von nebenan vor, der wäre total überfordert.
Und was will der dann mit dem raw Material? Umwandeln? Womit? Wie will er die großen Datenmengen handeln?
Mit den Fotos ist es doch was ganz anderes, und ich wiederhole mich gerne, es handelt sich um Fotoapperate, nicht um Videokameras.
raw video und raw Foto ist nichts anderes. das sind halt 24 raw bilder pro Sekunde. ausserdem interessiert mich wenig was pappi von nebenan macht. natürlich hat canon keinen grund raw in der 5d freizuschalten und ja es ist ein Fotoapparat, aber das ist ja kein Hindernis sich über andere Möglichkeiten der benutzung gedanken zu machen. ausserdem weiss canon genau wofür viele die mk3 benutzen, fürs filmen. das haben sie glaube ich seit der mk2 verstanden, sonst wären sie ganz schön doof.
Antwort von le.sas:
ein Raw Foto ist 35 MB groß, ein RAW Video steht in keinem Verhältnis dazu. Kaum ein Normalo hat die Kapazitäten, dies zu bearbeiten.
Und wie geschrieben, dass bei Canon im Vergleich zu den anderen Firmen die normale Garantie nicht erlischt, auch wenn ML zusätzlich benutzt wird, zeigt doch schon dass sie darum wissen und es akzeptieren. Könnten ja auch sagen nein, das wollen wir nicht.
Antwort von benjolino:
full hd sind ca. 2 megapixel. der 5d sensor hat 23 mP. natürlich sind 23mp mehr als 2. deshalb ist ein raw Foto grösser als ein raw video bild. wenn man beim video die 23 mp auslesen würde, wärs genauso gross...
Antwort von le.sas:
Och komm schon, wir sind doch nicht im Kindergarten hier.
Was willst du mit einem einzelnen RAW Standbild?
Ein RAW DNG ist 4 MB groß, 100 MB pro Sekunde und 6 GB pro Minute.
Jetzt kannst du dir ausrechnen wieviel Speicher man braucht für ein Video.
Und wenn wir jetzt wieder beim Urlaubsvideo sind, da filmt man gerne mal 3-4 Std am Tag.
Antwort von glnf:
Jetzt kannst du dir ausrechnen wieviel Speicher man braucht für ein Videos. Und wenn wir jetzt wieder beim Urlaubsvideo sind, da filmt man gerne mal 3-4 Std am Tag.
Natürlich hast du recht. Nur, wer spricht hier von Urlaubsvideo? Selbst im Broadcastbereich wäre der Einsatz von RAW nicht nur der völlige Overkill sondern schlicht nicht zu handhaben. Aber sowohl Urlaubsfilmer wie Broadcaster ziehen auch nicht mit einer Alexa oder Red los. Bei der SLR RAW Filmerei geht es aber genau um die Anwendungen bei denen landläufig Alexas und Reds zum Einsatz kommen. Und qualitativ sind die RAW SLRs mit den Profikameras auf Augenhöhe. Klar, wenn eine 20-Köpfe Filmcrew dabei steht oder das Model 50'000 am Tag verdient riskiert keiner mit einer gehackten Kamera zu arbeiten. Es gibt aber genügend Situationen in denen eine RAW SLR ideal ist, und sei es nur, weil sie mit dem Stuntauto in die Tiefe rauscht. Oder für eine unterfinanziertes Liebhaberprojekt.
Antwort von WoWu:
Na ja, die Alexa hat aber auch keine Probleme, die Daten wegzuspeichern. Das ist bei RAW-SLR schon etwas anders, wenn man jeden Augenblick mit einer Kernschmelze rechnen muss. :-)
Antwort von le.sas:
Da sprichst du komplett die Wahrheit.
Ich hab ja auch lediglich drauf geantwortet, warum Canon das nicht freischaltet- und da hast du gerade die beste Antwort gegeben, wie ich oben übrigens auch schon- es fallen einfach zu viele Daten an, und raw richtet sich an den Profifilmer. Warum sollte das also in einem Fotoapparat, der nicht zum Filmen gedacht ist, eingebeut werden- damit häufen sich die Support Anfragen ohne Ende, und vielleicht haben sie schiss sich die c Linie kaputt zu machen.
Und alle die einigermaßen fit im Lesen sind und ambitioniert, werden es auch so mit ML schaffen.
Antwort von iasi:
Ich lese immer mal wieder, was im ML-Forum so geschrieben wird.
Einen Über- und Einblick habe ich dennoch irgendwie nicht.
Soweit habe ich das bisher verstanden (bezogen auf die 5dII):
- Bei der 5dII ist das Contoller-Limit bei 60-65MB/s
- 1880 horizontal sind ebenfalls ein Limit
- mehr als 1880x840 geht kaum
- Es gibt dan und wann merkwürdige Bildfehler
- 14 zu 12Bit steckt in einer Sackgasse.
Mir ist noch nicht einmal klar, ob es bei der 5dII einen Full-Frame-Modus wie bei der 5dIII gibt.
- Die 1000x-Kartenpreise haben enorm angezogen - Angebot und Nachfrage - Komputerbay freut"s.
- Es stellt sich die Frage, ob die schnellsten Karten in der 5dII überhaupt richtig gefordert werden.
Antwort von le.sas:
Vielleicht würde bei der MkII diese Jpeg Sache Sinn machen.
Allerdings verliert man dadurch die tollen Gradingmöglichkeiten..
Antwort von Clemens Schiesko:
Nett finde ich auch, dass man durch Camera Raw gleichzeitig einen guten Rauschunterdrücker oder eine Objektivkorrektur für z.B. Verzerrungen mitgeliefert bekommt.
...und ein gutes Retuschewerkzeug. Zu mindestens was feste Kameraeinstellungen angeht. Fand ich recht beeindruckt, was innerhalb einer Minute möglich war, wo ich im NLE sonst recht lange gesessen hätte (wenn man bedenkt, dass es bei der Aufnahme zusätzlich geregnet hat). Wer einen kurzen Einblick in Bewegtbild haben möchte, darf es sich gerne anschauen ;)
Video (MP4): http://we.tl/XT2TBxISgI
Edit: Das Hinzufügen (von z.B. Fenster) macht sogar beinah noch mehr Spaß als das Entfernen, hehe.
zum Bild http://s1.directupload.net/images/130529/ctyulfns.jpg
Antwort von iasi:
Vielleicht würde bei der MkII diese Jpeg Sache Sinn machen.
Allerdings verliert man dadurch die tollen Gradingmöglichkeiten..
Was wäre denn mit Jpeg gewonnen?
Antwort von le.sas:
Eine viel geringere Datenrate und kleinere Endfiles. Das hieße im Umkehrschluss dass man rein theoretisch auch größere Auflösungen nehmen könnte (im Falle der MK III jedenfalls)
Antwort von WoWu:
tja, aber 8 Bit .... ist das der Sinn der ganzen Sache ?
Antwort von le.sas:
Dann ist jedenfalls für alle was dabei-die einen die denken dass eine hohe Auflösung wichtig ist bekommen dann ihre Jpegs(da Farbtiefe ja eh nicht wichtig ist), und diejenigen die wissen wie wichtig Farbtiefe ist scheißen auf Auflösung und haben schönstes 12Bit Videomaterial.
Antwort von WoWu:
Oder anders herum ... es ist für niemanden etwas Richtiges dabei.
Nicht Fleisch und nicht Fisch. Nur teuer Speicherkarten, kurze Sequenzen und viel Ärger.
Nee, danke, das kann's ja nun wirklich nicht sein.
Antwort von iasi:
Oder aber man greift zu einer Kamera, die diese Kompromisse nicht erforderlich macht.
Bis ML-Raw sicher läuft gibt es z.B. auch die 4k-BM-Kamera - und die kann dann eine höhere Auflösung und RAW.
@WoWu
da muss ich dir leider Recht geben - "leider", da ich eine 5dII besitze.
Antwort von WoWu:
Aber die macht ja auch sehr schöne Fotos, das wird manchmal bei all dem Bastelkram völlig vergessen.
Und ich finde den "normalen" Video-Look der MKII übrigens auch nicht schlecht.
Antwort von DeeZiD:
Und ich finde den "normalen" Video-Look der MKII übrigens auch nicht schlecht.
Sorry, aber nachdem ich mit der RED und jetzt mit der BMCC arbeiten durfte, finde ich diesen mehr als einfach nur schlecht... :D
Ist doch schön, dass man nun mit der 5D MKIII ein Videobild erzeugen kann, welches sich wunderbar mit dem der BMCC mischen lässt (bis auf den Kontrastumfang von ca. 11,5 Blenden). :)
Antwort von WoWu:
Na ja, bezüglich der RED kann man ja auch getrost geteilter Meinung sein.
Aber Du darfst auch nicht vergessen, dass das auch unterschiedliche Ligen sind.
Antwort von le.sas:
Glücklicherweise zwingt euch niemand, damit zu drehen.
Ich erinnere nur an eine 70mm Imax Produktion- 3 Min drehen, 30 Min Material wechseln... auch das funktioniert.
Aber man muss natürlich den Einsatzzweck sehen-
wenn ich nur Konzerte filme oder den Bäcker von nebenan, wäre mir das auch zu kompliziert mit diesem Workflow.
Antwort von iasi:
Aber die macht ja auch sehr schöne Fotos, das wird manchmal bei all dem Bastelkram völlig vergessen.
auch hier stimme ich dir zu - die 5dII ist eine tolle Fotokamera - daher kam bei mir bisher auch gar kein Bedürfnis für ein Upgrade auf.
Antwort von iasi:
Ist doch schön, dass man nun mit der 5D MKIII ein Videobild erzeugen kann, welches sich wunderbar mit dem der BMCC mischen lässt (bis auf den Kontrastumfang von ca. 11,5 Blenden). :)
Wozu brauche ich dann aber eine 5dIII, wenn ich eh schon eine BMCC habe?
Antwort von glnf:
Schon klar, wer eine BMCC bereits hat muss sich nicht um die 5D3 kümmern. Wozu auch. Wer jedoch (noch) keine BMCC hat für den könnte die Canon aus verschiedenen Gründen zu einer Alternative werden.
Antwort von DeeZiD:
Schon klar, wer eine BMCC bereits hat muss sich nicht um die 5D3 kümmern. Wozu auch. Wer jedoch (noch) keine BMCC hat für den könnte die Canon aus verschiedenen Gründen zu einer Alternative werden.
Das wollte ich damit sagen. Außerdem kann ich nun mit Kameraleuten zusammen arbeiten, die eine 5D MKIII einsetzen ohne nachher mit Entsetzen feststellen zu müssen, wie schrecklich das Bild im Vergleich zur BMCC aussieht. ;)
Antwort von DeeZiD:
Na ja, bezüglich der RED kann man ja auch getrost geteilter Meinung sein.
Sorry wegen OFFTOPIC:
Weshalb? Meiner Meinung nach hat die RED EPIC folgende Probleme:
Farbwiedergabe mittelmäßig (die BMCC produziert einfach schönere Farben, alleine die Hauttöne sind fantastisch)
Probleme bei Kunstlicht (hübsches blau-gelbes Chromarauschen)
Lässt sich aber in der POST eigentlich ganz gut in den Griff bekommen.
Dafür kämpft die BMCC mit farbigen Moirés (auch im Gegensatz zur 5D MKIII)
Antwort von iasi:
Na ja, bezüglich der RED kann man ja auch getrost geteilter Meinung sein.
Sorry wegen OFFTOPIC:
Weshalb? Meiner Meinung nach hat die RED EPIC folgende Probleme:
Farbwiedergabe mittelmäßig (die BMCC produziert einfach schönere Farben, alleine die Hauttöne sind fantastisch)
Probleme bei Kunstlicht (hübsches blau-gelbes Chromarauschen)
Lässt sich aber in der POST eigentlich ganz gut in den Griff bekommen.
Dafür kämpft die BMCC mit farbigen Moirés (auch im Gegensatz zur 5D MKIII)
hmm ... dafür hat man doch RAW - eben damit man in der Postpro das Bild "entwickelt".
Probleme bei Kunstlicht sollten doch nicht verwundern - die Epic hat einen 5000 Kelvin-Sensor. Filter sind immer gut.
Antwort von WoWu:
Ja, nur um das farbige Moire, kommt man auch bei RAW nicht drum herum, weil es durch die Unterabtastung von R und B entsteht.
Und gegen das Problem kämpfen alle 1-Chip (nicht s/w) Kameras.
Antwort von iasi:
Rauschen im Walde!
Richtig extrem ist das Rauschen bei 1:1-Aufnahmen (unter Verwendung von 5x).
Das hat mich doch ziemlich überrascht.
Moirés und und und kommen noch hinzu - zumindest bei der 5dII.
Mag ja sein, dass dies alles bei der 5dIII besser ist, meine Tests mit der 5dII liefen bisher eher ernüchternd.
Antwort von iasi:
War"s das schon mit ML RAW?
So recht verwundern will mich dies nicht, denn bei einem aktuellen Post im ML-Forum ist dies zu lesen:
"Record fews seconds and stop every time you skip frames, record again and stop until the MKIII will start to record with no skipping and from that point on you can stop and record anytime with no skipping. Fantastic!"
Mir wäre dies zu umständlich und vor allem zu unsicher.
Die 12Bit-Raw-Geschichte hat sich wohl auch erledigt.
Somit bleiben also bei meiner 5dII für einige Sekunden 1880x940/25fps ... na ja - immerhin ... das Bearbeiten in Photoshop ist ja zudem sogar recht nett ...
Da kommen mir gerade zwei Fragen zur 5dII:
1. Objektiv-Stabis funktionieren auch bei RAW-Recording?
2. Lässt sich die Kamera bei RAW-Recording auch via USB steuern?
Eben wie bei "normelen" Videoaufnahmen?
Antwort von le.sas:
Naja was heißt war s das schon...
ML Raw gibt es noch nicht, das vergesst ihr immer. Es wird uns lediglich die Möglichkeit gegeben, Teil des Entwicklungsprozesses zu sein und zu testen.
Das ist ja genau so als ob du in nem Restaurant vor dem Ofen stehst in dem die Pizza noch 20 Min brauchst und du sie ständig fragst ob sie schon fertig ist.
Was die Mk II angeht kann ich nix sagen, zur MkIII: Selbst mit einer "langsamen" Karte kann man jetzt full HD Raw aufnehmen ohne Abbruch, Probleme etc. Dadurch dass es durch den Raw Memory Hack mehr Buffer gibt, läuft dieser auch nicht mehr so schnell voll.
Es gibt täglich Updates die man sich ziehen kann, jedes Mal mit einer kleinen Besserung Aber so ist das nunmal, wenn etwas in der Entwicklung steckt.
Antwort von iasi:
na - ein paar Eckdaten sind ja nun bekannt:
- 12Bit wird wohl nichts
- max.65MB/s bei der 5dII
...
http://www.magiclantern.fm/forum/index.php?topic=6215.0
Die 5dIII ist die einzige Canon, die wirklich Raw-geeignet ist - und auch dies eher am Limit, denn etwas Spielraum wäre von Vorteil (1920 sind eigentlich zu wenig.)
Bei 30fps sind ja selbst die 1920 nicht mehr sicher erreichbar.
36x24 sind aus meiner Sicht das einzige Argument, das für den Kauf einer 5dIII zu Filmzwecken spricht,
Die BMCC ist eben eine Alternative - und die befindet sich nicht mehr im Entwicklungsstadium.
Der Workflow ist noch kompliziert - die Bearbeitung in z.B. Photoshop jedoch ein echter Fortshritt gegenüber den H264-Videos.
Antwort von CameraRick:
Produzieren die Canons da eigentlich linear RAW?
Antwort von Valentino:
RAW ist immer linear, da nur die jeweiligen Helligkeitswerte ausgelesen werden. Aus diesem Grund auch die hohe Bittiefe.
Eine A/D Wandlung kann nur linear von statten gehen, so weit ich da jetzt kein Denkfehler habe.
Alles andere wie z.B. das "RAW" der GoPro Hero3 Black ist ja auch nur ein Log Bild in ein AVCHD 8bit 4:2:0 Stream geschrieben.
Deswegen gibt es ja immer wieder die Überlegung ob es den nicht auch schon ein 10bit Log tut.
Antwort von WoWu:
Nee, nee, das ist nicht so ganz so, denn jedes Fotoelement des Sensors erzeugt ja lediglich eine analoge Spannung, deren nachfolgende Quantisierung nach einer beliebigen Kurve erfolgen kann.
Streng genommen könnte sie sogar dynamisch erfolgen.
Es ist eben nur so, dass alle Videokameras zunächst mal nach einer Norm hergestellt werden, SMPTE 240M, die soetwas regelt, (insofern hast Du schon Recht) -wobei auch die Norm bereits nicht wirklich linear ist, (es wird nur immer so genannt).
Aber wer RAW herausgibt unterliegt SMPTE240 sowieso nicht und kann der Quantisierung eine bleibeige Form geben.
Antwort von Valentino:
Ok, aber ist ein digitaler Datensatz nicht immer linear?
Wenn ein Pixel eine maximale Spannung-->Umax hat, dann hat man beim digitalisieren mit 12 bit gleich Xabstufungen=(Umax/4096)-1.
Minus 1, da der erste Werte keine Stufe ist oder?
Einzig die analogen Spannungswerte werden sehr wahrscheinlich nicht linear verlaufen, die digitalisierten Werte ab schon.
Antwort von WoWu:
Es wird nur linear zugeordnet, aber das ist bereits die "Kurve", die dem Wandler mitgegeben wird.
Im Grunde genommen ergibt sich ja daraus erst, welche Dynamic ein Sensor hat, denn das FullWell und die Rauschelektronen bestimmen das ja.
Danach kommt nur noch die Überlegung, wie verteile ich das auf einen (gewollten) Prozessweg.
Denn zwei Sensoren, mit dem identischen Rauschverhältnis können völlig unterschiedliche Dynamik haben. Und U-Max/Umin, verteilt auf die Wertemenge setzt ja noch nicht voraus, dass die Kurve dazwischen linear verläuft.
Die Linearität kommt nur daher, dass die Norm das so vorschreibt.
(Was sie übrigens nicht tut, (linear ist nur eine Variante der Norm) denn schon in den späten 80er Jahren waren 10 Blenden in 8 Bit nicht unüblich und Sony hat schon in den späten 80ern die Log Kurve in den Standard eingebracht).
Logarithmisch kann man also auch unter REC709 arbeiten .... das ist nicht zwangsläufig linear.
Der Standard sagt lediglich, dass für technische Zwecke:
(Schwierigkeiten mit der Aufrechterhaltung der Signalpräzision in umfangreichen Routing- und Verteilsystemen, unvorhersehbares Verhalten von niederfrequenten Transienten, Amplituden und Gruppenlaufzeiten, Video Überschreitungen in inhärenten Coder / Decoder Filterungen usw.) ein Wertebereich freigehalten werden muss.
Was man aber im Wertebereich für eine Quantisierung auflegt, ist eigentlich ziemlich egal.
Also: das lineare Verfahren war eigentlich nie wirklich linear.
Es wurde nur so genannt.
Antwort von chmee:
Die Canon-Raw-Daten aus dem Sensor verhalten sich (im Arbeitsbereich) linear zum Lichteinfall, um es kurz zu sagen. Deswegen ist die Betrachtung "lineare Daten" völlig ok.
RAW-SLR ..wenn man jeden Augenblick mit einer Kernschmelze rechnen muss. :-)
Ist ad Absurdum gestellt worden diese Annahme..
Thema Arri Alexa - Hand aufs Herz, wieviele Produktionen benutzen denn wirklich ARRIRAW? Für einen effizienten Postpro-Ablauf inklusive völlig ausreichender Qualität wird mit 10Bit HDSI auf Aja Ki Pro's ausgespielt..
Wenn mir jetzt etwas am Arbeitsablauf 5DIII-ML_Raw fehlt, dann eigentlich das optimale Format. Jeglicher (Um-)Rechenansatz in der Kamera fällt flach, weil sie nur durch direktes Ausspielen der Sensordaten auf den DMA-Controller und somit den effizientesten Weg auf die CF/SD-Karte gefunden haben, damit der Cache nicht vollläuft und wieder zum Aufnahmestop führt. So war bis jetzt mein Gedanke und die aktuellen Probleme mit der 10- und 12-Bit Umsetzung bestätigen meine Vermutung. Nicht mal so simple Bitshift und Masking-Geschichten sind machbar - woher soll denn dann noch eine Logkurve oder ein anderes Format herauskommen..
Ich hätte wirklich nichts gegen 10bit/log 4:2:2 in einem (von mir aus) H.264-Format mit Bitraten um 150MBit, also irgendwas Richtung Level4.1/High10 - wird aber nix.
mfg chmee
Antwort von Valentino:
Thema Arri Alexa - Hand aufs Herz, wieviele Produktionen benutzen denn wirklich ARRIRAW? Für einen effizienten Postpro-Ablauf inklusive völlig ausreichender Qualität wird mit 10Bit HDSI auf Aja Ki Pro's ausgespielt.
Die Zeiten in den man an eine Alexa eine AJA hängen muss sind schon seit knapp drei Jahren vorbei ;-)
Die Kamera kann intern seit September 2010 ProRes 4444 mit 12 bit auf SxS Karte schreiben.
Seit dem letzten Firmwareupdate sogar in 2k und durch das neue Speichermodul von Codex wird es auch endlich eine Onboard-Raw-Aufzeichnung geben.
Antwort von iasi:
tja - RAW haut eben ziemlich rein - eine Arri Alexa produziert dann auch ordentliche Datenmengen.
Mein bisherigen, kleinen Tests mit meiner 5dII ergaben viele MB für die vergleichweise geringe Auflösung.
Ganz praktisch kommt man daher auch um eine Komprimierung nicht herum, wenn man RAW bei hohen Auflösungen haben möchte.
Bei der ML-Raw-Geschihte ist - zumindest bisher - der Umgang etwas aufwändig ... ein Gewinn gegenüber den bisherigen H264-Videos ist es aber allemal.
WoWo setzt die Latte eben wieder mal sehr hoch an - da gehe ich mit ihm nicht mit. In der Praxis sieht man von der hohen "Latte" in deutschem Kino und TV eh nicht viel.
Vielleicht wäre der umständliche Umgang mit dem ML-RAW-Material sogar förderlich.
Könnte meine 5dII ein wenig mehr an Auflösung, würde ich sie fürs Filmen wieder reaktivieren.
Eine 5dIII zu kaufen ....????
Antwort von WoWu:
@Iasi
Ich leg die Latte gar nicht hoch, nur mein Euphorie-level ist nicht mehr so hoch wie beim Nachwuchs :-)
Es gibt diverse Fragen, die bisher nicht hinreichend geklärt sind, das betrifft in erster Linie mal die Frage, ob die obligatorischen Vorverarbeitungen der Pixel gemacht worden sind. .... keine Antwort
Dann die Frage, woher die Artefakte kommen, die bisher auch hier im Forum so aufgetaucht sind ... (könnte damit zusammenhhaengen) .... keine Antwort
Dann die Frage, wieweit man sich eigentlich auf das hier entstandene DNG Format verlassen kann ... keine Antwort
Und noch ein paar Sachen mehr ...
In der Summe reicht das nicht viel weiter als bis zum Amateurstatus, weit entfernt von einer kommerziellen Nutzung.
Wem's reicht ... prima, wer die Kamera hat, für den ist es sicher ein Zugewinn aber kaufen, oder gar kommerziell nutzen ... weit gefehlt.
Du siehst, die Latte liegt gar nicht so hoch, zumal es reichlich gute und verlässliche Formate für den kommerziellen Einsatz gibt.
Es ist ja nicht so, als würden wir noch Daumenkino machen :-))
Also : wer braucht noch ein weiteres, propietäres Format von der unbekannten Qualität ?
Von Betriebssicherheit brauchen wir gar nicht erst reden.
Antwort von iasi:
@WoWu
Klar ist, was da als RAW herauskommt noch mit sehr vielent Fragezeichen zu versehen.
Aber man muss eben doch auch ganz prakmatisch sehen, dass z.B. in den ML-RAWs noch Zeichnung drin steckt, wo bei den normalen MOVs nichts mehr zu machen war.
Bedenkt man, dass die 5dII in der Vergangenheit schon kommerziell für Filmaufnahmen genutzt worden war, wäre das ML-RAW nochmal ein Schritt nach vorn, würde man sich den Vorteil nicht mit den Nachteilen erkaufen, die die Datenratenbeschränkungen mit sich bringen.
Die 5dIII wiegt immerhin unter einem kg und bietet FF ... zudem ist der Sensor nicht schlecht ...
Antwort von chmee:
@Valentino
Muß? ..Grad erst vor 10 Tagen so erlebt. Ne HDD mit ProRes-Daten, rausnehmen, rüberkopieren, feddich der Lack. Muß diese andere Option unbedingt benutzt werden? Nee, nicht wirklich. Und es war keine Lowbudget-Produktion, sondern eine Equipmentzusammenstellung, wie es dem Cutter am Liebsten ist.
@WoWu
Deine Fragen sind großteilig beantwortbar - Tatsache ist, Du willst einige von den Antworten nicht wahrhaben, weil Deine Skepsis und Dein Anspruch zu groß ist. Manchmal frag ich mich dann aber, wofür der große Anspruch? Because i can?
Vorverarbeitung der Pixel? Da wir von Raw-Daten sprechen, reden wir von Senseln. Das Zusammenfassen zu RGB oder YPbPr-Pixeln inklusive Gamma/Log-Kurve überlässt man somit der Software. Und Software, die mit RAW-Daten umgehen kann, kann auch dies.
Artefakte? Ich bitte um nochmalige Nennung, wenn ich etwas vergesse.
Pink-Highlights? Pink-Fringes? Kein Problem seit ML, sondern seit Jahren bei der Nachbearbeitung von Raw-Daten aus einer Canon-DSLR. google hilft. WENN man im M-Dial-Modus ist UND im Video-Liveview UND DANN den RAW-Videomode nutzt, tritt das Problem nicht auf, da dann der Whitelevel richtig gesetzt ist.
Vertical Lines? Ist nur bei der 5DIII ein Problem, es gibt schon einen Fix (in raw2dng und rawmagic), es ist der erste, der wirklich die Sensel nachjustiert, bevor sie weitergehen - im Rahmen um ~0,4%.
Verlass auf die DNG-Daten? Den Anspruch auf 10 Jahre Garantie setzt nur Du - immerhin sind die Daten so leichtverdaulich, dass es keinen Grund gibt, Angst haben zu müssen. Die Sourcecodes von Magiclantern sind für Alle einsehbar, Du kannst selbst nachschauen, was da wie passiert. Kannst Du es?
Das proprietäre Format ist etwas so unverdaut Einfaches (inkl. den wichtigsten Metadaten), dass jeder nach Gusto nachkauen kann. Aber diese Ansicht hat Dir im anderen Thread schon nicht gepasst.
Moire..Und gegen das Problem kämpfen alle 1-Chip (nicht s/w) Kameras.
Der Sigma Foveon ist ein 1-Chip-Sensor in 3 Ebenen. Keine Moirès mit Farbartefakten.
..Von Betriebssicherheit brauchen wir gar nicht erst reden.
Wie meinen? Ein Body, den ich sogar noch im Regen ohne große Angst hinhalte? Da wo andere schreckhaft die Haube suchen oder abbrechen?
Ich würde ehrlich gesagt auch noch keinen professionellen Videoeinsatz mit dem RAW-Mode machen, aber wir reden von einem Erzeugnis, dass vor ~6 Wochen entdeckt und vor ~5Wochen nutzbar gemacht wurde. Mit einem Riesenpotential - die Herren der alten Garde wissen's nicht besser und schreien nach FBAS!
Antwort von WoWu:
Ist ja alles nicht tragisch.
Ich werf' Dir ja gar nicht vor, dass Du Teile der Anforderungen gar nicht verstehst.
Wem's gefällt, der soll damit spielen.
Wer sie hat, wird es schon machen aber wer sich so ein Gerät deswegen kauft, hat den Schuss noch nicht gehört oder noch nie anderes Gerät in den letzten 5 Jahren in der Hand gehabt.
Antwort von Bergspetzl:
ich habe die sigma sd14 mal gehabt und fand das foveonkonzept eigentlich sehr gut. warum ist es nie zur "serienreife" für video gekommen? hatte es nicht erhebliche vorteile gegen bayer-chips? so wie echter film eben, vom prinzip...
Antwort von WoWu:
Ja, die Frage scheint auf der Hand zu liegen, aber die Antwort ist sehr einfach:
Weil zwar die Konstruktion genial erscheint, leider aber die Ausführung nicht, die auf einer Metalloxyd-CCD Struktur beruht. Bekanntlich werden die Signale über Schieberegister zum Ausgang transportiert, wobei nicht nur ein Teil der Ladungspakete in den Gates, durch die sie fliessen, belassen, was zum bekannten Smear Effekt führt und die Signalquualität nach relativ wenig (rd.1 Mill) Pixels schon nicht mehr so toll aussieht, sondern auch weil jeder Durchgang bei 30 MHz Taktfrequenz, also HD, rd. 33ns dauert.
Jetzt wird das zum Rechenexempel denn bei 1,3 Mill Pixels sind das schon schon 43 ms.
Bei 25p hast Du aber nur 40 ms pro Bild.
Also hast Du für die bestmögliche Bildauflösung nur so um die 1 Mill Pixels.
Selbst wenn man alle drei Flächen mit eigenen Prozessoren ausstattet, wie das in 3 Chip Kameras auch gemacht wird.
Es ist also eine Frage der Zeit, bei Videokameras. Kein problem in der Fotografie.
Aber Canon hat im Juni 2011 auch ein Patent auf derselben 3-flächenbasis in Japan eingereicht
(http://egami.blog.so-net.ne.jp/2011-07-06).
Vielleicht klemmen die ja eine andere MOS Struktur dahinter und machen das dann schneller.
Also, ganz vergessen ist die Sache noch nicht.
Antwort von Bergspetzl:
ja, da verstehe ich aber die sensordesigns nicht. ccd hat(te) smear probleme, wegen der auslesung und man konnte quasi den weg des lichtes mitverfolgen, bei spannungsüberschuss (=überbelichtung). aber warum müssen denn die kanäle auch so angeordnet werden? könnte man nicht zuerst in die tiefe gehen, bevor man das signal wegführt? quasi ersteinmal einen signaltunnel und dann irgendwo später eine auslesung. ist da nicht so, das es uns jetzt viel kosten würde, einen sensor umzudenken. in der tiefe wäre ja platz, sodass zb pro pixel mehrere register bereitstehen könnten, die abwechselnd ausgelesen werden. damit wäre das 43ms problem gelöst und auch rolling shutter. meines wissens ist auf einem ccd derweil jeweils ein pixel welches befüllt wird und ein kanal in den dann die information "gekippt" wird. so nehmen die abgeschirmeten auslesekanäle schon 50% der sensorfläche ein...
Antwort von WoWu:
Da hast Du gleich mehrere Themen angesprochen. Ich will mal versuchen, sie nacheinander zu klären.
1) Smear entsteht bei der Auslesung eines CCDs dadurch, dass das Signal zu einem Ausgang geführt wird und die Ladung quasi jedes Pixels durch die davorliegenden geführt werden muss. Vorteil: kein RS. Nachteil: in jedem Pixel, durch die die Ladungen geführt werden, bleiben Ladungsreste hängen, die dann mit der nächsten Ladung mitgeführt werden.
Da geht bei CCD kein Weg vorbei.
Nimmt man mehrere unabhängige CCD-Einheiten so hat man das Problem des natlosen aneinanderreihens, was andere Probleme aufwirft. (Hab ich schon mal im Umfeld von 4K beschrieben (Tap-Balancing)).
Du hast aber noch einen Punkt angesprochen, den ich noch gar nicht erwähnt hatte, der aber eigentlich auch noch gegen den Einsatz solcher Technik spricht.
"Hintereinander".
Denn eigentlich liegen die Sensoren gar nicht hintereinander sondern unterscheiden sich lediglich in der Bauform, aber optisch eigentlich gar nicht vom Bayersensor, haben also eigentlich gar keinen wirklichen Vorteil, wie man immer sagt.
Denk dir mal die Fläche mit Blick auf die Sensorfläche:
Da trifft ein Lichtstrahl auf das Blaue Filter. Dahinter liegt eine Siliziumschicht, die das Licht aufnimmt.
Nun ist Silizium aber nicht durchsichtig. Liegt also dahinter die grüne Schicht, wie man sich das immer vorstellt, dann liegt sie im Schatten. Sie muss also leicht versetzt hinter und neben der Blauen Siliziumschicht liegen. Ebenso die rote Schicht. Läge sie hinter der B und G Schicht, wäre sie dunkel. Sie liegt also auch leicht versetzt. Schaut man sich nun die Pixelaufteilung und die Konstruktion an, so wird man sehen, dass die Siliziumflächen nur bummelig 1/4 der Fläche pro Pixel ausmachen, 2/4 Transistorfläche und 1/4 durchläsiiges Fenster (nennen wir das mal) und dass jedes Pixel um 90 Grad gedreht ist. Betrachtet man das Ganze wird man sehen, dass die 2 Farben wieder in einem 3-Eck liegen, nur dass die beiden hinteren Farben zusätzlich noch durch die beiden Vorfilterfarben gedämpft sind. weil Blau die geringste Quanteneffizienz hat, hat man es nach vorn genommen und gleicht so den Effizienzüberschuss der andern Farben aus, auf Kosten der Gesamtempfindlichkeit, die man durch mehr Verstärkung wieder aufholen muss, also mit einem relativ schlechten Störabstand.
Man hat also die Fotofläche nur auf der Fläche eines Pixels in der Tiefe verteilt, die jeweiligen Flächen liegen also nicht hintereinander sondern auch wieder (quasi) nebeneinender, nur auf kleinerem Raum, weil normalerweise die Transistorfllaeche rd. 60-70% der Fläche einnimmt.
Was die Auslesung und den Speicher angeht, so kommt es ganz auf den Sensor an, ob man Full Frame, mit einem seriellen Register arbeitet oder im Frame transfere, mit einem halben Sensor oder aber im interlaced, in dem spaltenweise ausgelesen wird. Aber man umgeht das Basisproblem des CCD dadurch leider nicht.
Und bis auf den Umstand, dass die Eindringtiefe der unterschiedlichen Wellenlängen besser ausgenutzt wird und dadurch weniger Abberation entsteht, bringt das auch nicht viel. Und solche Fehler rechnet man heute besser weg.
Der Sensor ist einwenig aus der Zeit gefallen.
Antwort von WoWu:
@chmee
Ich will doch noch einmal kurz auf Deine Meldung eingehen, weil Du, so, wie es aussieht überhaupt nicht versteht, wovon ich reden und die Dinge, die ich als fehlend oder mangelhaft immer wieder anmerke, wahrscheinlich gar nicht kennst.
Ich will nur auf 3 Dinge kurz eingehen (von all den Punkten)
1) auf die fehlenden Metadaten -nur ein Beispiel-
2) auf euern gebauten raw2dng Konverter
3) auf die Pixelvorverarbeitung -auch nur ein Beispiel-
1)
...wie Du vielleicht weisst, klemmen vor dem Sensor diverse Filter, u.A. auch das Mosaikfilter. Das ganze Paket mach, je nach Aufwand, ein zwischen 1 und 3 mm dickes Paket aus.
Dabei sind Filter mit dichroischen Beschichtungen, die so um die 30-50 Schichten von wenigen nm haben. Innerhalb dieser Schichten wird Licht unterschiedlicher Wellenllänge gebeugt und z.Tl. reflektiert, um unterschiedliche Wirkungen zu erzielen.
Solche Schichten lassen sich nicht absolut gleichmässig auftragen, was bei Abweichungen von 5% schon zu sichtbaren Effekten führt, einer davon sind Verfärbungen und ein anderer sind Ungleichmäsigkeiten über die Fläche.
Nun sitzt auch ein Bayerfilter vor dem Sensor. Wer nun glaubt, dass die drei Farben den Grundfarben entsprechen, hat sich vermutlich noch nicht näher damit beschäftigt.
Die einzelnen Farben hängen nicht nur von der Quanteneffixienz des Sensors und dessen Überlappung ab sondern auch davon, welche Fehler die Vorfilter zusätzlich generieren. Eine Farbmastke ist also exakt auf die Kamera und speziell auf die Sensorkombination abgestimmt. Und zwar Pixel für Pixel !
Daraus entsteht ein Delta zur Grundfarbe, das dem nachfolgenden De-bayering als Fixiert gegeben wird und in die Berechnung einfliesst.
Sofern das De-Bayering ausserhalb der Kamera ansteht, wird dieser Wert per Metadaten in den sogenannten "Rendering-Hints" übergeben.
Sofern das De-Bayering diesen Wert nicht bekommt, setzt es default- Werte ein, die zwangsläufig dann zu falschen Ergebnissen führen.
Nun sagst Du, Metadaten sind alle nicht wichtig, brauchen wir nicht, wir nehmen die Werte wie sie kommen.
2)
Schauen wir doch mal, was ADOBE da macht, denn die haben ja genau so einen Konverter, wie Ihr ihn nachempfunden habt und werden sich sicher darüber freuen, dass Ihr da so einen Murcks mit DNG macht ... sorry cinemaDNG.
Sofern der Hersteller diese Werte nicht als Metadaten hergibt, schaut sich Adobe die Werte an und vergleicht aus einer Liste von hunderten von Sensoren, ob es ähnliche Konstellationen gibt, denn Adobe macht das schon 20 Jahre und hat eine profunde Kenntnis, was Farbbearbeitung auch in RAW Daten angeht und dem Erstellen von Farbmodellen.
Findet der Adobe DNG Konverter keine passenden Daten, versucht er passende Werte zu errechnen, um am Ende ein standardisiertes Farbmodell zu erzeugen.
RE-Engineering nennt man das.
Adobe sorgt also dafür, dass mit bestmöglicher Wahrscheinlichkeit die farbe stimmt.
Was macht Ihr ... nix....
3)
Bleiben wir bei dem Beispiel. Wer sich mal damit beschäftigt hat, wie die Fertigung einer solchen Bayermaske aussieht, wird schnell erkannt haben, dass die Fertigung schnell an ihre Toleranzgrenzen stösst.
Der Sensor wird also nicht völlig korrigiert. Es entsteht ein weiteres Delta, in der Sensorkorrektur ausgeglichen wird.
Darin enthalten sind auch Ungleichmäsigkeiten in der Fläche, die, korrigiert man sie nicht, zu einer art Texturbildung im späteren Bild führt, also durchaus sichtbare und sehr störende Artefakte.
Daher die Frage, ob die RAW Daten vor oder hinter der Korrektur gewonnen sind. Und dabei rede ich noch gar nicht von all den Korrekturen, die ein Sensor ohnehin braucht.
Also erzähl mir nix davon, dass man solche Korrekturen nicht braucht.
Und erzähl mir vor allem nix davon, wie man RAw mit einer ARRI aufnimmt.
Das schau Dir mal lieber selbst erst einmal an. Kümmer Dich besser, darum das zu wissen, was Du für den komischen RAW-Konverter brauchst und darum, was zu tun ist, ein einwandfreies RAW Signal ans De-Bayering durchzureichen.
Und wenn das klappt, dann reden wir über die andern Schwachstellen.
Aber solange ist das bestenfalls ein zweitklassiges Signal. -wenn überhaupt-
Antwort von iasi:
Aber solange ist das bestenfalls ein zweitklassiges Signal. -wenn überhaupt-
Es ist zumindest so gut, dass man letztlich sehr gute Ergebnisse damt zustande bekommen kann. Das "zweitklassige Signal" bietet einen sehr beachtlichen Gestaltungsspielraum.
Mit technischer Perfektion kannst du mich jagen ... ich musste mir schon viel zu viel technisch perfekten Schrott ansehen ...
Antwort von WoWu:
Und wozu hast Du dann 'ne Scarlet ?
Dann reicht ja auch das iPhone.
Antwort von dirkus:
Ich kann zur technischen Diskussion zwar nicht viel Beitragen, aber aus meiner Sicht habt ihr beide Recht.
Als zusätzliches Gadget bietet dieses "RAW" trotzdem einige Möglichkeiten mehr an kreativen Gestaltungsspielraum.
Meine 600D macht zum Beispiel nichtmal 720p kontinuierliches RAW recording. Trotdem werde ich sie bei meinem nächsten Musikvideodreh mal einsetzen. Mit 12FPS kann man immer noch nette spielereien wie Motion Blur Exzesse oder Aufnahmen von weniger bewegten Bildteilen machen und diese dann zu 24FPS konvertieren.
Die Qualität hier ist immer noch besser als das interne H.264 und die Bearbeitung mit Camera RAW macht das Grading recht einfach.
Wer nicht gerade einen kompletten Kinofilm damit drehen will, dem sind hier viele neue Möglichkeiten in die Hand gegeben worden.
Dafür bedanke ich mich bei den Machern!
Aber WoWu hat trotzdem Recht mit seinen Ausführungen. Wer jetzt mit dem Gedanken spielt nur wegen dem RAW Recording ne 5DIII zu kaufen, der sollte erstmal abwarten oder die anderen Angebote (BMCC oder C100) ausloten. Damit fahren die meisten Leute wohl besser!
Antwort von iasi:
Und wozu hast Du dann 'ne Scarlet ?
Dann reicht ja auch das iPhone.
Ja ja - immer diese extremen Zuspitzungen
Aber nun stell dir doch mal selbst ein paar Einsatzmöglichkeiten für eine 5dII o. III vor.
Und immerhin ist die Liste hier ist doch schon beeindruckend lang:
http://shotonwhat.com/camera/canon-eos- ... -ii-camera
und das war sogar mit h264/8bit/4:2:0
Die Unterschiede werden doch auch recht gerne von den Technikfixierten groß- und daher geredet ...
Wie oft habe ich zudem Leute erlebt, die ganz professionell getan und ganz wichtig von ihren Alexa- oder Red-Einsätzen gesprochen hatten, mit diesen jedoch wie mit einer Videokamera gedreht hatten ...
Beim "Great Camera Shootout 2012" hat sich ja sogar das IPhone gar nicht so schlecht geschlagen ... und vor allem war eben auch wichtig, wie die Leutchen mit ihren Kamera umzugehen wußten, um auch das herauszuholen, was drin steckt.
Antwort von WoWu:
Tja, es ist eben alle relativ .... aber dann sag doch mal, wozu Du eine Scarlet hat ? Hättest Dir die Ausgaben ja sparen können, wo Du doch selbst das iPhone in diesem Zusammenhang so lobend erwähnst.
Aber im Ernst .... natülich sind die Unterschiede in den Ansprüchen gross und natürlich werden auch gute Filme mit wenig Mitteln und schlechte Filme mit viel Mitteln erstellt.
Die beiden Argumente heben sich wohl fast auf.
Aber wenn jemand daherkommt und ein selbstgebasteltes Tooll so verkauft, als würde es den üblichen Anforderungen an RAW Signalen entsprechen und sich noch dazu hinstellen und sicher nicht, von den Herstellern umsonst eingeleitete Verarbeitungen als >nicht nötig< zu verkaufen, dann wird es doch wohl mal erlaubt sein, so eine Spinnerei grade zu rücken.
Speziell weil sie ein Tool (dazu auch noch schlecht) kopieren, das es von ADOBE bereits gibt --- und zwar in bester Qualität.
Das ist so, als wenn der Scherenschleifer seinen Chinaschrott als Solinger Stahl verkauft. (Auch in Bezug auf die Qualität der RAW Daten).
Das heisst ja noch nicht, dass man in der normalen Küche nicht auch mit den billigen Messern schneiden kann und dabei auch gute Gerichte herauskommen.
Aber der Profikoch wird für seine Arbeit sicher auf die andern Messer zurückgreifen.
Es gibt in so einem Forum eben Hausfrauen und Köche. Beide sind wichtig.
Ich hab nie was anderes gesagt.
Wo ist also Dein Problem .... schmeisst Du jetzt Deine Scarlet weg oder benutzt Du sie weiter ?und vor allem war eben auch wichtig, wie die Leutchen mit ihren Kamera umzugehen wußten, um auch das herauszuholen, was drin steckt.
Und jetzt stell Dir vor, du kannst nicht rausholen, was drin steckt, weil das Signalprozessing nicht mal das wiedergibt, was die Hersteller reingesteckt haben. .... schade eigentlich, findest Du nicht ?
Antwort von mannamanna:
@WoWu:
Und wie war das nochmal mit dem absolut unbrauchbaren/unverarbeitbarem RAW der Blackmagic? Erinnerst du Dich noch? Liest Du manchmal Deine alten Aussagen auch mal wieder und schüttelst den Kopf - oder einfach Schwamm drüber?
Antwort von WoWu:
Verlink doch mal, dann können wir darüber reden, was gemeint war oder ob Du es nur mal wieder falsch verstanden hast oder nur Deiner persönlichen Interpretation unterzogen hast.
Antwort von iasi:
@WoWu
Ich verstehe schon was du meinst - die Euphorie ging da (wieder einmal) bei einigen durch, was zu etwas übertriebenen Bewertungen und Vergleichen führte.
Aber du tendierst eben auch ein wenig in die andere Richtung.
So übel sieht das Material nicht aus, das man aus ML-Raw gewinnen kann.
Mir kommt diese ML-Raw durchaus entgegen, denn mir liegt das "Entwickeln" wähernd des Drehs nicht besonders - je flexibler sich das Material später bearbeiten lässt, umso lieber ...
Antwort von WoWu:
Jetzt überrascht Du mich aber wirklich .... ich hatte das so verstanden, dass das Format noch nicht De-bayert ist .... um die "Entwicklung" kommst Du also nicht herum.
Das Einzige, was das Format von den diversen proprietären unterscheidet ist, dass Du auf ein Entwicklungsprogramm zurückgreifen kannst, das DNG unterstützt (sorry CinemaDNG).
Dafür ist es mit einem Tool konvertiert, dass eigentlich dem, was CinemaDNG leistet, gar nicht gerecht wird und dann wahrscheinlich doch wieder proprietär ist.
Probier doch mal ein richtiges Tool zur Konvertierung, dann könnte das sogar was werden, vorausgesetzt die ML-Leute haben auch noch zufällig den richtigen Abgriffpunkt für die Daten erwischt.
Und was den Standpunkt betrifft ... eigentlich sollte es dem Forum gut tun, wenn ein paar professionelle Anwender unter den Teilnehmern sind.
Nur einigen scheint das Schwierigkeiten zu bereiten, die immer darauf abheben, Praktiker zu sein und tun grad so, als hätten die Andern noch nie eine Kamera in der Hand gehalten.
Dabei sind diese Praktiker nichts anderes als Anwender ohne technisches Verständnis.
Ob das nun soviel besser ist ... ich weiss nicht.
Antwort von chmee:
Aber wenn jemand daherkommt und ein selbstgebasteltes Tooll so verkauft, als würde es den üblichen Anforderungen an RAW Signalen entsprechen und sich noch dazu hinstellen und sicher nicht, von den Herstellern umsonst eingeleitete Verarbeitungen als >nicht nötig< zu verkaufen, dann wird es doch wohl mal erlaubt sein, so eine Spinnerei grade zu rücken.
Speziell weil sie ein Tool (dazu auch noch schlecht) kopieren, das es von ADOBE bereits gibt --- und zwar in bester Qualität.
Gehen wir Deine Anmerkungen mal durch?
(A) Die üblichen Anforderungen an RAW sind genau welche? Deine Beweisliste ist dürr und im Grunde genommen nur von Dir ernstzunehmen. Nicht mal die BMCC kann sie erfüllen. Ist ja egal.
(B) Ich habe diese Verarbeitungen nicht "umsonst"(im Sinne von unnötig) genannt, sondern habe behauptet, dass es nicht so schlimm ist, wenn sie fehlen - die Bilddaten des ML-Hacks zeigen es. Du bist mal wieder Jener, der nicht verwertbare Daten sieht.
(C) Weil sie ein Tool kopieren.. AHA! Jetzt wirds funny.. Wo ist das Tool in bester Qualität, dass ich schlecht kopiere?
Ich ermaße mir zu sagen, Du bist ein Forenhausmeister mit allerschlechtesten Manieren. Und bevor Du auf meine Manieren eingehst, versuche erstmal die Punkte (A) bis (C) zu beantworten. Vor Allem erwarte ich den Link zu dem Tool in (C), schleunigst!
Antwort von WoWu:
Müssig, es ist alles bereits mehrfach gesagt.
Und was du "erwartest" interessiert mich herzlich wenig.
Antwort von chmee:
quod erat demonstrandum. danke.
Antwort von WoWu:
Tja, die Kraft der Floskel ersetzt leider keine Fakten.
Antwort von chmee:
quod² - Du merkst es nicht, nicht wahr? Kleiner Tip, ich habe Dir im Converterthread freundlich zugerufen, dass sich DNG und CinemaDNG unterscheiden - Es will aber nicht ankommen.
(unterschwellig witzig ist, dass Du den DNG-Converter heranziehst für Dein Plädoyer, obwohl Du mir die Metadaten-Analyse mittels Fotowandlern für Bewegtbilder als nicht zulässig abgesprochen hast) Wendehals erster Güte..
Antwort von Bergspetzl:
ich würde sagen 1:1 mit leichtem vorteil für wowu. weiter gehts. ding ding ding!
Antwort von WoWu:
quod² - Du merkst es nicht, nicht wahr? Kleiner Tip, ich habe Dir im Converterthread freundlich zugerufen, dass sich DNG und CinemaDNG unterscheiden - Es will aber nicht ankommen.
(unterschwellig witzig ist, dass Du den DNG-Converter heranziehst für Dein Plädoyer, obwohl Du mir die Metadaten-Analyse mittels Fotowandlern für Bewegtbilder als nicht zulässig abgesprochen hast) Wendehals erster Güte..
Du merkst es entweder immer noch nicht oder hast noch weniger Ahnung, als ich dachte.
Es geht um die Methode, wie unbekannte RAW Formate, die DNG nicht unterstützen, interpretiert werden.
Dabei ist es "scheiss" egal, ob es ein Bild oder 100.000 sind und ob sie sich bewegen oder still stehen.
Es geht um die Interpretation von Daten.
Und es ist auch egal, welcher Spruch auf dem Etikett stehst.
Denken scheint wirklich anstrengend zu sein, aber glücklicher Weise beleibt es einigen ja erspart.
Antwort von Jan:
Harter Treffer von WoWu, kann sich chmee wieder aufrappeln ?
VG
Jan
Antwort von WoWu:
Nee, lasst mal gut sein, Mädels,
irgendwann wird es mir auch einfach zu dämlich.
Antwort von WoWu:
-doppelt-sorry
Antwort von gast5:
Mit Sicherheit nicht Herr Dr.. das lehrt uns die Erfahrung aus der Vergangenheit
Antwort von WoWu:
Ist das deutsche Syntax, die man verstehen muss ?
Antwort von gast5:
Aber Herr Dr. Sie werden verzeihen.. Das iPad ist wirklich der letzte Schrott zum schreiben....
Zitat:
Rosige Zeiten, wenn man genügend Kohle hat, sich Apple alle 2-3 Jahre zu kaufen.
Antwort von WoWu:
Tja man kann es auch auf das Gerät schieben.
Antwort von gast5:
Ganz genau Herr Dr.
Antwort von Jan:
Ich muss aber auch zwei Dinge loswerden.
Nach dem Sensor "kommt" die Ausleseelektronik, die Isoverstärkung und die A/D Wandlung, gebayert wird erst danach (JPEG) und bei RAW gar nicht in der Kamera. Vor dem Sensor sitzt ein Antialiasingfilter, Canon schärft die Bilder auch bei RAW noch nach, das soll zumindest bei alle Modellen unter der EOS 1 Klasse so sein.
Nach meinem Wissen wird erst am Computer bei einem RAW Bild gebayert eben bei der Umwandlung und die Flags für WAG, Kontrast, Schärfe und Sättigung gesetzt.
Die Frage ist aber wirklich, welches Softwaretool kann ganz sicher mit den RAW Daten umgehen und sie richtig analysieren und unwandlen ? Kann man das zweifelsfrei nachweisen ?
Weil das Original RAW Foto bei Canon auch kein DNG ist, sondern ein CR2, wandelt ML das Ausgabematerial in DNG um oder wer macht das ?
DNG gibt Leica und Pentax direkt aus, aber ganz sicher nicht Canon und Nikon.
Adobe will ein einheitliches Format = DNG, Canon und Nikon wollen aber nicht, und geben eigene RAW Varianten aus.
Nikon arbeitet auch nicht mit DNG, sondern mit NEF. Man kann per RAW Konverter zwar in DNG wandeln lassen, doch gibt es da einige Probleme.
Bei den Canon und Nikon eigenen RAW Ausgaben gibt es Zusatzdateien, die dem Konverter gewisse Dinge zur Umwandlung mitgeben. Diese Zusatzfiles gibt es beim DNG Format nicht, daher ist es so verarbeitungsfreundlich.
Das 12 Bit RAW bei der Firma Canon schwierig sind, hätte man gleich sagen können. Setzen sie doch seit einigen Jahren (seit Herbst 2007 wenn ich mich recht erinnere) eine 14 Bit Kette ein, die nur schwer aufzulösen ist.
In dem Fall ist die Firma Nikon besser, sie bieten ja dem Kunden bei jeder DSLR eine 12 oder 14 Bit RAW Datei an, kann man in der Kamera einstellen.
Dürfte auch kein Problem sein, dass per Hack auf Video umzuändern.
Warum gibt es kein ML für Nikon ?
Ich bin mir aber nicht ganz sicher, ob der Platzvorteil so gross ist.
Bei einer 16 Megapixeldatei war das Bild der 14 Bit RAW nur 2 MB grösser als das 12 Bit RAW, eben so 18 zu 16 MB. Die genauen Dateigrössen habe ich nicht im Kopf, kann aber noch einmal nachschauen. Dann rechnen wir das 16 Megapixelbild in ein Videobild ala zwei Megapixel um und rechnen den Faktor mal 25 um auch die 25 Einzelbilder zu kommen. Glaubt mir, da kommt keine riesige Ersparnis zusammen. Eher 5 MB pro Sekunde mehr oder weniger.
VG
Jan
PS: Nikon hat beispielsweise in das NEF RAW Hilfsdateien implantiert, die selbst Adobe nicht lesen kann.
Antwort von WoWu:
Jan, ich muss zugeben, ich habe die konkrete Frage nicht ganz verstanden, muss aber vorne nocheinmal kurz einhaken.
Egal, wo auch immer de-bayert wird, werden die exakten Informationen zum Farbmosaikfilter benötigt, der wiederum individuell, entlang aller Vorfilter und sowie des Effizienzverhaltens des Sensors gestaltet ist.
Man spricht zwar immer von RGB, in der Realität ist es aber kein RGB sondern +/- eines Deltas.
Firmen, die DNG unterstützen, geben dieses Deta in den DNG Container und das nachlaufende Entwicklungstool gibt das Delta an das De-bayering weiter, das daraus dann wieder standardisierte Farben (Werte) entwickelt.
Firmen, die DNG nicht unterstützen oder das De-Bayering in der Kamera machen (wie hier bei Canon), geben diese Information nicht raus. (Wenn das De-Bayering in der Kamera vorgesehen ist .. warum auch).
Hat man diese Infos im De-bayering nicht, ist das Ergebnis immer: falsche Farbwerte und zwar auf Pixelebene, das heisst es entstehen u.U. andersfarbige Teilflächen und andere Artefakte.
ADOBE hat daher ein Tool, das die (nicht korrigierten und nicht unterstützten) RAW Werte analysiert und zunächst auf Plausibilität abklopft, basierend auf hunderten von Sensorinformationen, die ADOBE mittlerweile vorliegen.
Dann berechnen sie, nach einem Farbmodell die wahrscheinlichen Änderungen und lesen diese in ihren Container ein, um das De-Bayering so korrekt wie möglich zu machen. (Für jedes einzelne Pixel)
Ergebnis ist ein Signal, das mit ziemlich hoher Wahrscheinlichkeit dem entspricht, was auch der Hersteller in seinem De-bayering erreicht hätte.
Sie Re-engineeren das Signal einfach. das ist nicht 100% aber mit grossem Abstand besser, als die Werte, so wie sie kommen, zu benutzen.
In dem ML Converter wird mit den Signalen nichts konstruktives gemacht. Sie werden einfach anders verpackt, um im DNG Container am richtigen Platz zu sitzen um gefunden zu werden.
Eine Pixelkorrektur findet nicht statt.
Adobes Idee dahinter ist, dass zunächst mal möglichst viele RAW Formate von ihren eigenen Programmen erkannt und bearbeitet werden können.
D.h. DNG ist eigentlich nur eine offen dargelegte Filestruktur - eine Art Container, aus der sich Entwicklungsprogramme dann bedienen.
Gibt es Entwicklungsprogramme von Herstellern, für ihre eigenen RAW Formate, die DNG nicht unterstützen, können sie damit nichts anfangen.
Soviel vielleicht nur nochmal kurz zum Verlauf des Signals.
Antwort von gast5:
Kommt noch dazu das alle Konverter das Material unterschiedlich interpretieren..
http://www.dpreview.com/articles/821958 ... htroom-4/2
Antwort von chmee:
Du, WoWu, bist jener, der den theoretischen Anspruch auf diese Verarbeitungskette hat. Ich habe nie widersprochen, dass die Verarbeitung von "rohesten" Sensordaten (die nie ideal sind) diese Schritte durchgehen muß. Nur landen diese Daten nicht in der CR2 und auch nicht in der DNG, die man erhält, wenn man Adobes Converter bemüht. (ich habs gerade nochmal für die Eigenkontrolle betrachtet) (Nachtrag: Die Canon RAW-Daten sind nicht unbekannt, darauf reitest Du in Deiner Abhandlung ständig rum - wir reden hier von der #1 im Digital Imaging-Bereich)
Die simple Schlussfolgerung ist (und das ist, wenn "wir/ML" einfach nur die Sensordaten aus einem Speicherbereich auslesen können, keine Überraschung), die Sensordaten sind im Body in Bezug auf Eigenvarianzen vorgekaut. Den Test, Unterschiedlichkeit zwischen CR2, den Adobe-konvertierten DNGs und "meinen" DNGs, habe ich gestern gemacht.. Vernachlässigbar, siehe * zwei Absätze tiefer.
Die DNG-Daten aus dem Adobe-Converter sind für den Videoschnitt/Grading NICHT (bzw. so ineffizient) nutzbar - vor Allem - und das muß ich jetzt das xte Mal sagen - ist der Schritt unnötig, weil es nicht zu den Sideeffects kommt, die Du heraufbeschwörst.
* Abgesehen vom leicht unterschiedlichen Schwarzwert, einer nicht getätigten globalen ELV-Correction und der noch nicht existenten Gamma-Korrektur ist alles viel besser, als Du es schreibst. Alles, das in der Gradingsoftware nachjustiert werden kann.
Konkurrenz zu den Angestammten? Nach 6 Wochen Brütezeit? Nein. Derber Schlag in die Bauchgrube? Oh Ja.
Gut genug, um manche feuchte Träume vom Drehen mit Arri und RED zu beenden? Klar, das hat aber auch schon die BMCC geschafft.
Wäre es so schlimm, wie Du es ständig erzählst, wäre es von Anfang an Diskussionsthema - dass Vimeo und Youtube mit Beispielen und auch sehenswerten Kurzfilmchen gefüllt werden, beweist die Nutzbarkeit. Gleich in der ersten Nacht nach Veröffentlichung des RAW-Hacks hat Neumann-Films damit ein Beispielfilmchen gemacht - grandiose Premiere eines kostenlosen Tools.
Was mich einmal mehr nervt, ist, dass Du Dein Wissen dafür nutzt, es besser wissen zu wollen - Du bist aber nicht fähig, konstruktiv beizutragen. Hast Du denn einmal irgendwo reingelesen und nachgeschaut, was da passiert? Den Sourcecode beschnuppert? Ich bezweifle es.
Ich bin (man mags nicht glauben) in diesem Forum seit 2005 angemeldet und habe damals den Forenteil als lebensunwichtig abgetan, weil die Schlaumeierei schon damals unerträglich war - ich bin erstaunt, dass der Anteil der Ambitionierten (nach Diskussionleserei) so niedrig sein muß. Wenn mal einer mit simpleren Fragen kommt, wird er abgestraft. Und auch ich werde mich wieder darauf beschränken, höchstens mal ne News-Meldung zu kommentieren.
Antwort von iasi:
@WoWu und chmee
ihr solltet vielleicht einfach versuchen auf der argumentativen Ebene zu bleiben und Spitzen sowie persönliche Anspielungen vermeiden ... so eine Diskussion ist ja durchaus produktiv - vor allem auch für diejenigen die diskutieren.
Noch ist die ML-Raw-Geschichte nicht in wirklich trockenen Tüchern - und die ML-Leute sind ja auch noch fleißig dran ... dennoch wird aber leider etwas verfrüht schon wieder alles ein wenig zu sehr hochgejubelt ...
Ich erinnere mich noch gut an die Euphorie mit den erhöhten Datenraten oder mit HDR ...
Aber die Sache generell herunter zu machen, ist sicherlich auch übertrieben. Denn dafür sind die Ergebnisse, die man schon jetzt erzielen kann, schlicht zu gut.
Es kann auch ruhig in den ML-Raw-Daten etwas verbogen sein, sofern man es in der Nachbearbeitung so hinbiegen kann, wie man möchte.
Was mich mehr stört, sind die Beschränkungen bei der Auflösung - eben auch bei der 5dIII.
Der FF-Modus ist generell limitiert und im Zoom-Modus muss man die Crop-Pille schlucken.
Zudem werkelt man immer am Limit und muss optimierende und eben auch einschränkende Einstellungen vornehmen.
Sehe ich mir zudem die Datenmengen an, die da angehäuft werden, weiß ich Red-Raw nur noch mehr zu schätzen.
Antwort von Jan:
Hallo,
ich habe mir noch mal kurz die Nikon DSLR geschnappt.
Bis zur D 600 komprimiert Nikon immer beim RAW Bild, entweder verlustfrei komprimiert oder einfach nur komprimiert.
Ab der D 800 gibt es auch die Wahloption nicht komprimiert und dazu auch noch TIFF Ausgabe.
Ok nehmen wir mal ein paar Datengrössen:
D 7000 - 16 Megapixel
Verlustfrei komprimiert
12 Bit RAW = 16 MB
14 Bit RAW = 19,9 MB
komprimiert
12 Bit RAW = 13,6 MB
14 Bit RAW = 16,6 MB
D 7100 - 24 Megapixel
verlustfrei komprimiert
12 Bit RAW = 24,3 MB
14 bit RAW = 30 MB
Es sind also doch ca 25 % mehr Datenflut, die dann bei 25 Bilder / Sekunde und Full HD Auflösung ca 15 MB mehr pro Sekunde sein sollten.
Daher ist das 12 Bit Wunschdenken der ML Leute wohl nicht ganz unbegründet.
@ chmee - Also wandelt das ML Team die RAW Daten in DNG"s um, und man kann nach den ersten Tests sagen, es gibt keine grösseren Komplikationen bei der Rohbildkonvertierung. Das ist ja zumindest mal eine Aussage.
VG
Jan
Antwort von dirkus:
Habe jetzt ein paar mal die 550D und die 600D im RAW Modus bei Ausflügen eingesetzt.
Formentera (Canon 550D - 960x480 at 23,976 scaliert auf 720p)
Frankfurt (Canon 600D - 1664x624 at 12fps in AE mit Pixelmotion auf 24fps gebracht)
Positiv:
Stabiler Hack, Dynamic, Farben usw kann man leicht und schön mit Camera Raw gestalten - wobei der Look ja reine Geschmackssache ist. Ich hätte jedenfalls viele weitere Möglichkeiten gehabt. Ein knackiges Bild und viele Details sind Vorteile gegenüber dem H.264.
Negativ:
Niedrige Auflösung, Kammflimmern, starkes Moire und Aliasing. Bei Aufnahmen mit 12fps treten beim Umwandeln in 24fps bei einzelnen Bildern die typischen Twixtor Artefakte auf. Zu wenig Auflösung für 16:9 Formate. Vereinzelte Bildfehler durch Magenta Frames. keine Vorauswahl der Aufnahmen in der Kamera möglich. RAW muss erst in DNG umgewandelt werden. Begrenzter Weitwinkel durch hohen Crop Faktor.
Fazit: Für Naturaufnahmen und wenn man nicht grossartig übers Internet hinaus möchte, kann man den RAW Modus der kleinen Modelle durchaus gebrauchen. Letztendlich bleibt es hier aber nur beim Spass am rumprobieren mit den RAW Möglichkeiten und einigen netten Shots die dadurch möglich werden.
Antwort von Blancblue:
Werbeclip mit 5D Mark III und ML RAW:
http://blog.planet5d.com/2013/08/tv-com ... -mark-iii/
Antwort von Heinrich123:
Wie schalte ich den bei der MArk3 von Full HD auf den Crop Modus 1:1??? Habe es im Menü nicht gefunden
Antwort von Heinrich123:
Kann mir da jemand helfen???
Wäre sehr nett
Antwort von cantsin:
Kann mir da jemand helfen???
Wäre sehr nett
Das geht, glaube ich, einfach durch die Lupentaste an der Kamera. Wenn Du die Sucheransicht vergrösserst, wird das Bild auch entsprechend aufgezeichnet.
Antwort von Heinrich123:
Vielen Dank für Deine Antwort.
Wenn ich die Lupe nehme dann verändert sich das Bild proportional.
Bei der Mark2 konnte ich immer Höhe und Breite separat einstellen.
Müßte mit der Mark 3 doch auch gehen.
Jedenfalls wird das suggeriert .
Nur ich kann es im Gegensatz zur Mark 2 in der Mark 3 nicht finden
Antwort von masterseb:
neues RAW video, 1 tag alt.
Antwort von WoWu:
Boahhh ... schau Dir mal die Kanten an .... kommt diese Überschärfung aus dem RAW Konverter ?
Antwort von masterseb:
RAW ist scharf, aber die kanten sind wohl im RAW modul nachgebessert bzw. hervorgehoben. ich finde den look auch etwas zu "crisp", hätte es jetzt nicht unbedingt gebraucht. aber die leute stehen ja auf schärfe. vor allem die, die sonst nur mkIII h264 material sehen.
du hast ja z.b. im RAW modul von afterFX volle kontrolle über alle werte. angeblich haben sie den gesamten look nur dort geschaffen. macht auch sinn. aber man wird da leicht verleitet, pseudo HDR zu zaubern.
trotzdem gefällt mir das alles besser, als material der BMCC. aus eigener erfahrung weiss ich, was RAW aus der mkIII hergibt.
Antwort von WoWu:
Gegen Schärfe ist ja nichts einzuwenden nur wenn die Kamera sie nicht bringt, bewirkt die Nachschärfung eher das Gegenteil.
So kannst Du die Bilder doch in die Tonne treten. Gerade bei solchen "empfindlichen" Aufnahmen.
Antwort von masterseb:
die schärfe der originalen RAWs ist schon sehr gut. und kanten sind, auch bei hohem kontrast, lange nicht so übel wie hier. da wurde viel herumgedreht. die schärfe bei der mkIII geht in der kompression vorallem verloren. der low-pass filter nimmt natürlich einiges weg, aber im RAW modus sind schätzungsweise 5mal so viele details da. ich habe eigentlich bisher bei allen RAW aufnahmen immer versucht, die schärfe wegzunehmen.
Antwort von WoWu:
Wie gesagt ... ich habe nichts gegen Schärfe, nur wenn ich einen weissen und einen schwarzen Strich (und das auch noch horizontal) neben jeder Linie habe, dann kann man gleich zum billigen Camcorder greifen.
Antwort von iasi:
ziemlich knallig - da wurde wohl auch reichlich Farbe zugegeben.
Die Farbverläufe müssen doch auch auf Vimeo nicht derart sein.
Antwort von Frank Glencairn:
Yuck - das ist echt heftig.
Antwort von dirkus:
Hat irgendjemand schon Erfahrung mit diesen CF Speicherkarten gemacht? Scheinen recht günstig zu sein und mit 120MB Writespeed angegeben.
Delkin CF 1050x 32GB - 128GB
http://www.bhphotovideo.com/c/product/9 ... _udma.html