Frage von Fader8:Hi,
Mich nimmt wunder wie signifikant der Unterschied ist zwischen 12-bit RAW
und 16-bit RAW, ist das so ein grosser Schritt wie von 8 zu 10 bit?
Technisch gesehen sicher ein grosser Schritt, wie aber sieht es in der
Praxis aus?
Um die Chance grad zu nutzen; was ist 16-bit linear?
Danke und Grüsse
Antwort von WoWu:
Alles was 8 Bit ist steckt in einem "Datenwort"-eine Art Container- von 1 Byte.
Eigentlich müsste es Oktett heissen, weil früher -zu Telex Zeiten- das Byte aus 5 Bit bestanden hat.
Ab dem 9, Bit wird ein weiteres Byte benötigt. Alles was also über 8 Bit ist steckt in einem 2 Byte (oder 16 Bit) Datenwort.
Man muss also schon sehr genau hinschauen, ob da wirklich 16 Bit Nutzsignal drinstecken.
Meistens sind es auch nur 12 oder maximal 14 Bit und der Hersteller gibt lieber die 2 Byte (16Bit) an.
Das sind dann Marketingbits.
Übrigens bezieht sich das meistens auf den nachfolgenden 16 Bit Wandler, der bei einem 10 oder 12 Bit Signal nicht immer von Vorteil ist denn würde man einen 12 Bit A/D Wandler einsetzen, so würden die Quantisierungsschritte um den Faktor 2^(16-12)=16 größer sein.
Die Auflösung würde somit um den Faktor 16 abnehmen.
Das bedeutet, dass am „less significant Bit- Ende“ des Datenwortes Auflösung verloren gehen würde.
Aber das LSB-Ende des Datenwortes enthält nur noch Shot-Noise.
Reduziert man also das Datenwort von 16 auf 12 Bit, würde Shot-Noise abnehmen, bei gleichzeitiger Beibehaltung der signifikanten, nicht schwankenden Daten.
Also, Deine Frage, ob mehr Bits besser sind kann man klar mit NEIN beantworten.