Frage von Darthharry:Ich wollte mir ein neues kleines Notebook kaufen und das auch ab und zu als Zuspieler für einen Full HD Fernseher benutzen. Das Notebook das ich mir ausgesucht habe hat auch einen HDMI Ausgang, allerdings liegt die native Auflösung bei 1280x800. Kann man über die Grafikkarte auch höhere Auflösungen ausgeben (also Full HD) oder sind die immer auf die native Auflösung (und kleiner) begrenzt ?
Antwort von tommyb:
Nein, Du kannst auch höhere Auflösungen ausgeben sofern der angeschlossene Monitor (in diesem Fall der Fernseher) dies auch unterstützt.
Antwort von PeterM:
Die Frage lässt sich nicht 100 % beantworten.
In der Regel aber ja, erst recht wenn das Notebook eine eigene Grafikarte hat.
Am Beipeil Nvidea.
AMD ( ATI) aber auch Interchipsatz haben ähnliche Einstellungen die nur anders heissen.
Es geht nicht im clone modus, da der geklonte Monitor max die Auflösung des Notebookmonitors haben kann.
Das gleiche gilt oft für den sogenannten expand Modus ab Vista nicht mehr verfügbar) , da auch hier die Auflösungen gleich sein müssen.
Aber auch im Fall von zwei unabhängigen Bildschirmen ( bei Nvidea Dualview) geht es je nach Chip nicht immer, da es sein kann das die GPU das nicht hinekommt. Meistens geht es.
Was aber fast immer geht ist die Konstellation Single Monitor und dann den HDMI Ausgang auswählen. Dann ist das Notebookdisplay dunkel und Full HD steht am HDMI Ausgang zur Verfügung..
Also sicherheitshalber austesten bevor du das Notebook kaufst.
Antwort von Darthharry:
Ok, danke für die Infos. Da ich mir das Notebook im Netz kaufe ist das mit testen schwierig, aber es hat eine eigene Grafikkarte also sollte es gehen
Antwort von WoWu:
Es kann Dir nur passieren, dass Du zwar den Desktop auf dem TV siehst, aber keinen Content (Filme) wenn das Notebook nicht HDCP fähig ist.
HDMI geht immer einher mit HDCP. Das solltest Du bedenken.
Antwort von Darthharry:
Ich will die Filme ja nicht von BlueRay abspielen sondern ganz normal als hochauflösende Videos ohne Kopierschutz. Das sollte auch ohne HDCP gehen ...
Antwort von WoWu:
HDCP ist ein Hardwareschutz und findet beim Handshake zwischen den Geräten statt. Das ist also nicht unbedingt vom Content abhängig und schon gar nicht ob Blu-ray oder nicht, denn BR ist lediglich ein Speicherverfahren.
Auf jeden fall würde ich sicher stellen, dass das miteinander funktioniert.
Hier im Forum waren schon ein paar überraschte Anwender, die ausser der Grafik nichts sehen konnten.
Testen kostet ja nichts ...
Antwort von carstenkurz:
HDMI ist keineswegs prinzipiell mit HDCP verkuppelt - bei 'HDMI an Computern/Notebooks muss man ohnehin eher von einer DVI-Schnittstelle mit optionaler HDCP Unterstützung ausgehen (wenn überhaupt). Ob das dann in Form einer HDMI oder DVI Buchse realisiert ist, ist dabei ziemlich egal. Standardmäßig wird an so einem Notebook HDCP nicht aktiv sein.
Welche Auflösungen das Notebook dann tatsächlich unterstützt, hängt von der verbauten Grafikhardware bzw. dem Treiber ab. Da aber selbst ne 3 Jahre alte einfache Intel-Chipsatz-Grafik FullHD unterstützt, würde ich mal schlicht davon ausgehen, dass zumindest 1080/60p auf jeden Fall geht, aber nicht zwangsläufig alle Timings, die über HDMI üblich sind.
Prinzipiell kann es aber IMMER beim Anschluss von Computer und Displays zu Handshake Problemen kommen, wenn HDCP im Spiel ist, das Display also nur einen HDMI Eingang hat.
Von daher sollte man zumindest für eines der Geräte immer ne Rückgabeoption haben oder einen Test durchführen.
- Carsten
Antwort von deti:
Prinzipiell kann es aber IMMER beim Anschluss von Computer und Displays zu Handshake Problemen kommen, wenn HDCP im Spiel ist, das Display also nur einen HDMI Eingang hat.
HDMI-Eingänge, die (im EDID-Block via DCC) HDCP unterstützen, erlauben immer auch den Anschluss von DVI- bzw. HDMI-Quellen, die kein HDCP unterstützen. Das ist ja der Sinn dieses Handshakes.
Ein K.O.-Kriterium ist natürlich, wenn die im EDID-Block übermittelten HDMI-/DVI-Modi keine Schnittmenge mit den Modi der Quelle bildet.
Deti