...und alles andere auch unmöglich wäre, da er nur (a) ein bereits in der Kamera beschnittenes Bild mit einem (b) erst nachträglich im NLE beschnittenen Bild verglichen hat, und dazu noch in Raw (also ohne künstliche Bildverbesserungen der Kameraelektronik).
Je nach Situation auch nicht so subtil, da man durch die Nutzung der größeren (=mehr als verdoppelten) Sensorfläche auch doppelt soviel Lichtempfindlichkeit gewinnt, bzw. das Bildrauschen sich halbiert. Und da beim nicht-downgesampleten Bild Debayering- (bzw. Pixel-Interpolations-) bedingt ein Auflösungsverlust von ca. 30% stattfindet, gewinnt man durch das Oversampling im Umkehrschlusss ca. 30%.cantsin (und andere) haben recht, wenn sie sagen, falls Downsampling von 6K nach 4K stattfindet (samt Anpassung der Optik für denselben Bildausschnitt wie mit 4K Crop), gibt es einen subtilen Unterschied in Bildauflösung und Rauschen.
Wie praxisrelevant diese Unterschiede sind, hängt völlig von der Aufnahmesituation und dem Zielmedium ab. Wenn die Aufnahmesituation Tageslicht und das Zielmedium Web-Video oder TV in HD ist, sind das zu vernachlässigende bzw. praxisirrelevante Unterschiede. Aber spätestens dann, wenn man in einem Club bei schlechtem Licht ein Konzert mit 6400 ISO dreht und das Zielmedium u.a. eine Großbildprojektion ist, wird das praxisrelevant.
Nicht mal letzteres. Er hat denselben Sensorausschnitt zweimal produziert, einmal in der Kamera und einmal erst in der Post.Letztlich hat roki sich jeweils einen Bildausschnitt von 6K ohne Downsampling versus natives 4K angeschaut und keinen Unterschied erkannt (weil es theretisch keinen gibt - gleiche Kamera, gleicher Sensor, gleiche Aufnahmebedingen und -einstellungen, gleiche Optik, nur ein jeweils anderer Sensorausschnitt)
Also das gleiche, als wenn ein Foto einmal im FF-Modus geschossen wird und anschließend in Photoshop auf 66% seiner Originalgröße an allen Seiten beschnitten, oder als wenn man das Foto bereits in der FF-Kamera, aber in deren APS-C-Modus, so beschnitten aufnimmt.
Ja, weil man das normalerweise von einem FF- vs. APS C-Crop-Vergleich annehmen würde.cantsin (und andere) haben von Beginn weg angenommen, dass es hier um einen Vergleich von 6K->4K Downsampling versus 4K 1:1-Sensorcrop geht.
Und weil niemand auf die Idee kommen würde, dass es irgendeinen Unterschied macht, ob man ein Bild bereits in der Kamera oder erst nachträglich in Photoshop beschneidet.
Darum ging es roki überhaupt nicht, denn er hat ja einen reinen Raw-Workflow verwendet (dazu noch einen den 'reinsten', den es für Video gibt, mit externer ProRes Raw-Aufnahme und anschließender Umwandlung in DNG).Aber in der Praxis begnügt man sich ja nicht mit der reinen Sensorauslesung (in RAW oder auch nicht), sondern das Video wird zur Betrachtung noch irgendwie aufbereitet.
Er hat ja als Produkt gar kein natives 6K-Video mehr, weil seine erste Aufnahme bereits in der Kamera auf native 4K beschnitten ist und seine zweite Aufnahme in der Post auf (Sensorpixel-) native 4K beschnitten wird.Und spätestens dann könnten sich ja Unterschiede zeigen, z.B. weil man beide Versionen in einen 4K-Monitor / einen 4K-TV einspeist (sofern die auch 6K-Signale als Input akzeptieren), wobei dann das native 6K-Video eben doch ein internes Downsampling erfährt und das 4K-Video nicht und vielleicht ein feiner Unterschied im Bild bemerkbar wäre.
Insofern ist das völlig egal. Er hat zweimal das identische 4K-Bild, das nur auf unterschiedliche Weise (Beschnitt in der Kamera vs. nachträglicher Beschnitt) zustandegekommen ist, und dieses Bild sieht dann auch an jedem Monitor gleich aus.
Roki nimmt aber an, dass hier und in anderen Netzforen diverse Leute (inkl. MrMeeSeeks & Boris/Darth) behauptet hätten, dass diese beiden Bilder nicht identisch seien und die Wahl des kamerainternen APS-C-Crops zu Qualitätsverlusten ggü. des APS-C-Crops in der Post führen würde, und dass er jetzt den Gegenbeweis erbracht habe. Er nimmt auch an, dass die von ihm bewiesene identische Qualität der beiden Crop-Verfahren eine Besonderheit der Panasonic S5 ist (siehe den Titel dieses Threads).