Frage von aight8:Ich spiele immernoch mit dem Gedanken bei meiner nächsten Hardware Generation auf 10bpc Farbe umzusatteln.
Dazu habe ich einige Fragen.
1. Macht sich die bessere Farbtiefe in einem 10bit Video bemerkbar? Den Unterschied zwischen 4:2:0 und 4:2:2 konnte ich z.B. bei einem Direkt-Vergleich von Auge nicht unterscheiden.
2. Nun ausgenommen 10-bit Video oder Foto: Wo wirken sich 10-bit sonst noch aus? Ich meine jetzt Programme wie: Spiele, Windows-Oberfläche..
..........
Nur damit ich es richtig verstehe. In Windows bekommt man in den Monitor-Eigenschaften z.B. sowas zu sehen:
Farbtiefe:
High Color (16 bit)
True Color (32 bit)
Wenn ich nun eine Quadro GraKarte verwenden würde hätte ich zusätzlich noch sowas wie "Very High Color (40 bit)" zur Auswahl.
Diese Option sollte doch aber nur dann angezeigt werden wenn sowohl GraKarte und auch Monitor 10 bits unterstützen. Sonst müsste man es sicher erst durch spezielle visuelle Tests bestätigen lassen, weil der Unterschied wird in der Praxis wohl nicht so hoch sein.
Antwort von WoWu:
Erste Frage : ja es macht sich bemerkbar, 4:2:2 sehr wenig.
Ohne 10 bit Monitor nutzt auch keine Graka.
Bei einem Monitor musst Du darauf achten, dass das Panel 10 bit fähig ist.
Z.B. der DELL 3011 ist nur in der 7 ms Ausführung echte 10 Bit fähig, nicht aber in der 5 ms oder der 12 ms Ausführung.
Bei Spielen, wirst Du ebenso einen Unterschied sehen, wenn sie 10 Bit unterstützen. Bei dem OS vermutlich nicht.
Antwort von TheBubble:
1. Macht sich die bessere Farbtiefe in einem 10bit Video bemerkbar?
Für eine hochwertige Bearbeitung ermöglicht dies mehr Spielraum. In der Praxis muss man natürlich auch sicherstellen, dass die zusätzlichen zwei aufgenommenen Bits nicht nur Rauschen sind und die komplette Verarbeitungskette mit der höheren Genauigkeit umgehen kann.
Bedenke auch, dass gängige und bezahlbare Consumer-Displays derzeit höchstens 8 Bit/Subpixel unterstützen.
2. Nun ausgenommen 10-bit Video oder Foto: Wo wirken sich 10-bit sonst noch aus? Ich meine jetzt Programme wie: Spiele, Windows-Oberfläche..
Derzeit wohl nirgends.
Antwort von aight8:
Ich habe an den doch noch bezahlbaren "
Asus PA246Q" gedacht. Bei den GraKarten ist es nicht gleich ersichtlich welches von denen 10bit ausgeben kann. Doch ich habe gelesen das können nur die Quadros von NVIDIA.
Laut Datenblatt kann die Asus PA246Q übrigend 50 Hz.
@TheBubble:
Ich werde wohl an genügend Licht nicht vorbei kommen, vorallem bei der HPX-370 nicht, das ist so.
Antwort von WoWu:
ist das ein 10Bit Monitor ?
Antwort von aight8:
Ja
http://ch.asus.com/de/Display/LCD_Monit ... ifications
Display Colors : 1073.7M (10bit)
Antwort von rudi:
Whow. 10 Bit für 400 Euro? Klingt fast zu gut um wahr zu sein.
Allerdings habe ich ähnliche Spezifikationen auch schon bei anderen Monitoren gesehen und da war dann das Panel zwar 10 Bit aber der Signal-Input dennoch auf 8 Bit begrenzt.
Da sollte man man mal bei Asus nachfragen, ob man da wirklich mit 10 Bit reingehen kann.
Übrigens gibt es auch ein paar ATI/AMD Fire Pro Grafikkarten, die 10 Bit unterstützen. Die sind (glaube ich) etwas günstiger als die Nvidia Quadros...
Antwort von WoWu:
Rudi,
das liegt aber eben daran, welches Panel verbaut worden ist.
So z.B. bei dem 27“ Monitor : „Apple Thunderbolt Display". Den Monitor gibt es mit drei unterschiedlichen Panels: (SDA2, 5 ms, 8 Bit) ; (SDDA, 12 ms, sRGB. 1,07 billionen Farben, 10 Bit) und als (SLA1, 6 ms, 1.07b (8-bit+A-FRC)).
Man hat also die Wahl zwischen echtem 10bit, 8bit+2bitFRC und reinem 8 Bit.
Beim Monitor sollte man immer das Panel betrachten und nie den Aufkleber vorne und erst recht nicht allgemeinen Katalogversprechungen :-))
Manchmal kann's aber auch daran liegen, dass eines der Geräte bei HDMI das Signaling nicht unterstützt, dann geht HDMI erst gar nicht aus dem 8 Bit Default heraus. Das liegt dann als nicht am Monitor, sondern (oder) am Abspielgeräte (Graka).
(Denn 10 Bit HDMI hat ja ein anderes Packing und Clocking)
Antwort von aight8:
Finde ich ziemlich untransparent wie es in Sache 10bit umhersich geht.
Gibt es eine Möglichkeit herauszufinden welches Panel benutzt wird und ob dieser echtes 10 bit kann? In der spez. steht übrigens Lookuptable sind 12 bits. Wenn das Input-Signal sowieso nur 8 bit sind, wären die 10 bit ja im Monitor berechnet (so wie diese 100/200 Hz Technik).
Ist natürlich nicht der Sinn der Sache, vorallem wenn schliesslich echtes 10-bit Material zur Verfügung steht.
-----------------
Zum anderen stellt sich die Frage wegen der Grafikkarte, wo nirgends wirklich ersichtlich wird ob es 30- oder 24-bit ausgibt.
Ausserdem haben die billigereren Quadro Karten die 10-bit können nur 750 MB Speicher. Nach meinem Wissen braucht die Mercury Engine 896 MB's um die CUDAs nutzen zu können.
Und zu guter letzt gibt es noch die neue "Sandy Briges"-Generation welches ein integrierten 8-bit Decoder/Encoder für H.264/AC-1/MP4-AVC enthät. Der kann aber nicht benutzt werden wenn man eine Grafikkarte verwendet, wobei dieser Upgrade sich bereits disqualifiziert.
Also nochmal. Ziel:
10-bit und leichter Performance Boost
Antwort von WoWu:
Ich stimme Dir da zu .... technische Informationen sind heute nur auf VERKAUF angelegt.
Du wirst nicht drum herum kommen, die Panel Information vom Hersteller abzufragen und dann über das Panel die Performanz.
Das liegt nicht an der 10 Bit Technologie, sondern daran, dass die Hersteller möglichst billige Ware unter möglichst vollmundigen Versprechungen verkaufen wollen.
Bei 400 EUR für 10 Bit bei der Grösse, wäre ich da allerdings auch ziemlich vorsichtig.
Wenn 10 Bit dann allerdings auch durchgängig laufen dürfte die 8 Bit Zeit für Dich ein für alle Male Vergangenheit sein.
Antwort von gast5:
Hallo Wolfgang, ich habe da über einen Kollegen eine Anfrage bezüglich der TH Displays von Aplle gestellt..
Bei uns in hör sollen es LGD H-IPS Serie LM270WQ1-SDDA mit 12ms sein in 10 bit wobei der LG normalerweise ein mattes Disp hat und die THs von Apple in clear gehalten sind. Wo hast du die Info her..
Antwort von WoWu:
SDDA in 12 ms sind auch 10 Bit. !!
SDA2 in 5 ms sind 8 Bit
und
SLA1, 6 ms sind 8 BIT+FRC= Fake10Bit
Die Infos holen wir uns immer von den Panel Herstellern, weil das die Einzige solide Quelle ist.
Ich glaube, Apple hatte den Monitor mal selbst mit 8Bit angeboten, wenn ich mich recht erinnere.
Aber, wie und wer auch immer. Solange mir der Hersteller des Panels keine echten 10Bit bestätigt, sind solche Geräte tabu für uns.
Bei dem Dell, weiter oben aufgeführt ist das ebenso. Bei dem Thema muss man wirklich genau hinsehen.
Antwort von gast5:
jaja das meinte ich ja, und es werden nur die 12ms Displays verbaut.. der einzige Unterschied zu den LG Displays ist das die Apfelcharge im CClear Design kommt und nicht mit dem matten Glas.. hmmm werd ihn nochmals um eine explizite Aussage bitten..
Antwort von WoWu:
Also, bei Apple habe ich das Ding mal irgendwann als 8Bit gesehen, ich meine mich sogar zu erinnern, dass wir deswegen das Panel recherchiert haben, aber das ist schon ziemlich lange her. -und deswegen jetzt nur mal als vage Erinnerung-.
Daher ist das durchaus denkbar, was Rudi sagt, dass Displays, die, wenn man vielleicht nur die Monitorbezeichnung kennt, nur 8 Bit können, obwohl man 10 Bit erwartet hätte, weil es andere Monitore, derselben Firma und unter derselben Bezeichnung mit 10 Bit gibt.
Es ist schon ein Graus .... aber zum Glück kauft man sich ja nicht Monitore jeden Tag ... und da kann man sich schon mal etwas Mühe geben, nicht in den Mußtopf zu greifen.
Antwort von gast5:
Kann es sein das du dich eventuell noch am cinemadisplay orientierst und sich die Thunderbolts an einem neuen Displaytyp nähren..
Antwort von WoWu:
Nee, wir hatten uns am Panel LM270WQ1 orientiert und davon gab es drei Versionen. Apple hat nur das Panel aufgeführt und dann 8Bit angeboten.
Das ist im Prinzip ja auch nicht falsch, denn es gibt ja auch eine 8 Bit Version. Mag also sein, dass sie zwischenzeitlich unter der identischen Panel Bezeichnung das 10 Bit verbauen.
Dann muss man eben nur aufpassen, dass man vom Händler keine alte Version mehr untergejubelt bekommt.
Antwort von handiro:
Ich bin genauso auf der Suche nach einem erschwinglichen Panel, welches echte 10 bit macht und frage mich wem ich trauen kann? Eizo scheint ganz vertrauenswürdig aber die teure Serie ist nix für mich ich will unter 1000€ bleiben und noch lieber um die 500. Da gibt es Eizo foris Modelle wo ich aber nicht so sicher bin. FX 24 für runde 900 oder FS 23 für die Hälfte?
Antwort von WoWu:
Dell U3011 in 7ms
Antwort von TheBubble:
Wenn das Input-Signal sowieso nur 8 bit sind, wären die 10 bit ja im Monitor berechnet (so wie diese 100/200 Hz Technik).
Ist natürlich nicht der Sinn der Sache, vorallem wenn schliesslich echtes 10-bit Material zur Verfügung steht.
Meistens geht es ja erstmal darum, 8-Bit-Material möglichst farbecht darzustellen. Dazu muss die Ausgabe passend eingestellt werden. Hat man nur ein 8-Bit-Panel, würden nach gewissen Berechnungen einzelne Farben zusammenfallen, bei 10 Bit hat man mehr Spielraum für diese Anpassungen und ursprünglich benachbarte Farben sind weiterhin unterscheidbar.
Hätte man 10-Bit-Ausgangsmaterial, bräuchte man im Grunde eine Ausgabelösung, die noch genauer die Helligkeiten auflösen kann, damit nach Korrekturen nichts zusammenfällt.
Antwort von handiro:
Dell U3011 in 7ms
war das eine Antwort auf meine Frage? *rätsel*
Ich suche gar nicht so was riesiges, 24" reichen völlig.
Antwort von WoWu:
Hmmm
Das war nur ein Tipp, weil unter 1.000 EUR.
Bei den Kleinen weiss ich nicht so richtig, aber Eizo ist ja nun richtig teuer :-((
Antwort von chris_d:
Dell U3011 in 7ms
Der Monitor sieht sehr gut aus. Preis / Leistung stimmen. Aber was sagst du zu diesem Test Text, den ich im Netz zu dem Monitor gefunden habe.
---------------------------------------------------
Das Panel wird mit 8bit pro Kanal angesteuert, während DELL im Datenblatt mit 10bit Farbtiefe wirbt. Trotzdem stehen diese Angaben nicht im Widerspruch: Natürlich implementiert auch der DELL U3011 eine FRC-Dithering-Schaltung, um Tonwertverluste nach Transformationen des Eingangssignals zu vermeiden. In Kombination mit der eingangsseitigen Unterstützung von Signalen mit 10bit pro Kanal wird daraus in der Werbung schnell ein "10bit Panel" - auch bei anderen Herstellern. Das FRC-Dithering sorgt in jedem Fall dafür, dass bei einer entsprechenden Zuspielung auch ein Zusatznutzen in der Darstellung entsteht.
---------------------------------------------------
Der ganze Test hier:
http://www.prad.de/new/monitore/test/20 ... u3011.html
Wie ist das nun mit dem FRC-Dithering?
Antwort von WoWu:
Solche "Tests" überraschen mich nicht.
Das Ergebnis zeugt nur von den "Qualitäten" der "Tester".
Vermutlich haben sie das 5ms Gerät in den Fingern gehabt und keine Ahnung, dass es vom Panel LM300WQ5 drei unterschiedliche Versionen gibt.
Für 8Bit, 8Bit+FRC und für 10Bit.
Schon das ist ein deftiger "Testmangel", als ob es egal sei, ob man 5; 7 oder 12 ms hat. Vermutlich wissen sie gar nicht, was das eigentlich bedeutet.
Und überhaupt ist selbst die Erklärung von FRC falsch, denn nur ein 8Bit Monitor wird mit 8 Bit angesteuert wenn der Monitor 8Bit+FRC macht, ist die Ansteuerung immer 10 Bit, sonst würde FRC gar nicht funktionieren.
Deswegen hatte ich oben auch extra geschrieben, dass es die 7ms Version sein muss, denn das Panel ist 10Bit fähig.
Antwort von chris_d:
Solche "Tests" überraschen mich nicht.
Das Ergebnis zeugt nur von den "Qualitäten" der "Tester".
Vermutlich haben sie das 5ms Gerät in den Fingern gehabt und keine Ahnung, dass es vom Panel LM300WQ5 drei unterschiedliche Versionen gibt.
Für 8Bit, 8Bit+FRC und für 10Bit.
Schon das ist ein deftiger "Testmangel", als ob es egal sei, ob man 5; 7 oder 12 ms hat. Vermutlich wissen sie gar nicht, was das eigentlich bedeutet.
Und überhaupt ist selbst die Erklärung von FRC falsch, denn nur ein 8Bit Monitor wird mit 8 Bit angesteuert wenn der Monitor 8Bit+FRC macht, ist die Ansteuerung immer 10 Bit, sonst würde FRC gar nicht funktionieren.
Deswegen hatte ich oben auch extra geschrieben, dass es die 7ms Version sein muss, denn das Panel ist 10Bit fähig.
Alles klar.
Was hältst Du von diesem TFT?
http://geizhals.at/505885
Antwort von WoWu:
Tja, hat das Panel: H-IPS LM270WQ2-SLA1
2560x1440 5ms G2G 1000:1 1.07b (
8-bit+A-FRC)
Kein echtes 10Bit.
Antwort von aight8:
Hat die Asus PA246Q nun auch 8 Bit mit Dithering oder wieso ist dieser so vergessen gegangen?
(Hast du nen praktischen Tipp wie man am besten den Panel ausfinig machen kann?)
Antwort von Tiefflieger:
Der wird als 10 Bit verkauft
LG Flatron W2420R, 24" LCD Wide 16:10, DVI-D, schwarz
Auflösung: WUXGA (1920 x 1200)
Kontrast: 1'000:1
Helligkeit: 250cd/m2
Reaktionszeit: 6ms (grey-to-grey)
Farbdarstellung: 1,073 Mrd (10Bit) / 135% NTSC / 100% Adobe RGB
Blickwinkel H/V: 178°/178°
Anschlüsse: HDMI, DVI-I, DVI-D (mit HDCP), USB Hub 2.0 (1/4)
Features: neigbar, drehbar, höhenverstellbar 100mm, PIVOT, Kensington Lock, Netzteil intern
Normen: TCO03, ISO 13406 Fehlerklasse II
In der Schweiz kostet er 1690 CHF
Antwort von WoWu:
Also, das Panel von dem kann ich auch nicht ausfindig machen aber es scheint ein p-IPS zu sein. Ich kenne in 24" nur H-IPS als echte 10 Bit Panels.
Aber das ist jetzt wirklich unverbindlich. Um das genaue Panel ausfindig zu machen, hilft nur noch der Hersteller. Es gibt in 24" nicht so viele 10Bit fähige.
Aber bei dem Asus PA246Q finde ich keine Angaben.
Und, was Tiefflieger sagt, der würde als 10 Bit verkauft, heisst noch lange nicht, dass auch 10Bit drin sind. Vorsicht !!
Antwort von aight8:
Dieser "LG Flatron W2420R" wäre auch in meiner Preisklasse. Wieso 1700 CHF ?
http://www.techmania.ch/details.aspx?pi ... ionID=1210
Jetzt bin ich verwirrt. :D
@WoWu:
Nun gut ich werde mir wohl keinen echten 10-bit 30" Monitor leisten können. Bei 500 CHF werde ich nicht viel falsch machen können. Ob echtes 10-bit oder nicht, nur selbs-generiert sollen die nicht sein (sondern der Input). Sonst machts ja garkein Sinn.
PS:! Tiefflieger:
Hä, dieser LG hat ja nur DVI und HDMI Eingänge. Demfall generiert der aus nem 8-bit Input eine 10-bit Ausgabe ?
PS.PS:
Achso HDMI 1.3 unterstützt plötzlich 10-bit. Muss es nur noch Grafik-Karten-Seitig passen, ob 1.3 wohl schon gängig ist.
Antwort von WoWu:
Angesagt ist 1.4
Aber auch da .. wenn der Monitor das nicht an die Schnittstelle signalisiert, und die Grafikkarte die Metadaten nicht versteht, bleibt HDMI auf 8Bit Default.
Die Zeit des Ineinandersteckens von zufällig passenden Steckern ist vorbeil
Antwort von aight8:
Im Gegensatz zu HD oder 3D wo der Unterschliedlich beträchtlich ist, kommt 10-bit nur sehr versteckt voran. Obwohl 10-bit ja - bei MPEG-4 AVC zumindest - kleinere Dateigrössen erzeigen würde! Das hat mich erstaunt. Sind wohl nur die teure 10bit-Monitor-Herstellungskosten der Haken am ganzen. Aber wer weiss wie teuer das heute wäre, wenn die Hersteller dort mehr investiert hätten.
Stimmt. USB-3 ist beidseitig wenigstens mit blauer farbe markiert. Doch bei der HDMI gehen die noch erst durch alle Protokoll-Zwischenstufen bis 4:4:4 und was weis ich. Da brauchts in Zukunft mehr Transparenz. Sogar bei SATA und PCI unterscheidet man ja klar.
Antwort von Tiefflieger:
Es gibt den Lizenzfreien Displayport, der auch 4K Auflösung unterstützt.
Aktuelle Grafikkarten und auch Monitore haben teilweise die Schnittstelle, da auch mit HDMI (passive Adapter) darüber gearbeitet werden kann.
(Ich denke eine Art universal Schnittstelle, was ja praktisch ist)
http://de.wikipedia.org/wiki/DisplayPort
Antwort von aight8:
Ich möchte der Hardware betreffend trotzdem nochmal was rückfragen:
Voraussetzung:
- 3 Monitore für Produktionsumgebung. Möglichst desselbe Bild und farbgetreue 10-bit Anzeige mit IPS Panel.
Das Arbeiten mit folgenden Programmen soll so gut wie möglich gewährleistet sein:
- Edius (10-bit, real-time sind ist es eh schon)
- Photoshop (10-bit)
- After Effects (möglichst gute performance)
- 3D-Programm zb. Blender (möglichst gute performance)
- Alternativ Schnittprogramm (Premiere , Vegas) (10-bit, begrenzt real-time)
Meine Gedankengänge:
Um mit Premiere anständig arbeiten zu können benötige ich ja eine CUDA-fähige NVIDIA Karten mit mind. 860 MB Speicher. Das günstige wäre die Quadro 2000. Die würde dann auch 10-bit unterstützen.
Die andere Möglichkeit mit 10-bit wäre eine ATI FirePro. Wobei das flüssige arbeiten mit Premie (wegen kein CUDA) wegfallen würde.
Auf GeForce GTX Karten kann ich wegen der fehlenden 10-bit Unterstützung nicht setzen. Wobei sie bei weit geringerem Preis MEHR leisten als die 10-bit fähigen Quadros. Ist natürlich bitter was man da für 10-bit opfert.
---------
Underem Strich würde ich jetzt zu einer gebrauchten Quadro 2000 tendieren.
Jedoch muss erwähnt sein dass die GraKa folgende Anschlüsse hat:
2 x Display Port Anschüsse, 1 x DVI
Ein Monitor würde dann lediglich mit 8-bit betrieben.
Aber sonst könnte die Quadro alle 3 Bildschirme - wobei eines als Referenzmonitor im Vollbildmodus verwendet wird - ohne Probleme ansteuern sowie die Hardware Beschleunigung in Premiere weiterhin unterstützen?
Antwort von HT:
Ein Monitor würde dann lediglich mit 8-bit betrieben.
Wobei ich mich Frage ob man die 2bit mehr eigentlich bemerkt.
Antwort von WoWu:
und ob.
@aight8
Zu den HW Konstellationen kann ich keine Hilfe geben, weil ich die Geräte nicht betreibe.
Aber da gibt es hier ja HW Freaks, die aufgerufen sind.