Newsmeldung von slashCAM:Essays: Wer braucht FullHD? von rudi - 13 Aug 2007 11:46:00
>Durch eine Anfrage wurden wir auf eine Problematik aufmerksam, die bisher von vielen Anwendern total ausgeblendet wurde. Wie scharf muss ein HD-Monitor eigentlich sinnvollerweise sein?
zum ganzen Artikel
Antwort von Marco:
Das ist eine Thematik, die von der EBU schon vor einigen Jahren intensiv untersucht wurde und das Resultat war, dass Otto-Normalverbraucher vom 1080er, bzw. 1920er-Format im Vergleich zum 720er-Format gar nicht profitieren kann. Unter anderem deswegen lautet die Empfehlung für das europäische HD-Sendeformat auch 720p/50 und nicht 1080i/25.
So gesehen schoss die komplette HD-Entwicklung eigentlich über das Ziel hinaus, denn auch 720p-Kameras würden für den besten Detailgenuss vollkommen ausreichen. Lediglich die Produktion kann durch einen größeren Puffer von einem 1080er oder 1920er-Format profitieren, aber konsequent auch nur dann, wenn es nicht interlaced ist.
Aber die Industrie freut sich ...
Marco
Antwort von Pianist:
Das ist ja wirklich eine bahnbrechende Erkenntnis... :-)
Wir können das Spiel noch weitertreiben: Wenn die Industrie entsprechend gute 16:9-Röhrenmonitore bauen würde, bräuche man gar kein HD. Aber alles Jammern nützt nichts: Der Markt ist so, wie er ist. Die Leute haben alle keine Ahnung, wollen möglichst viele Pixel, also muss man als Filmproduzent diese vielen Pixel liefern. Ob das nun sinnvoll ist oder nicht.
Matthias
Antwort von HeikoS:
Wem sagst du"s....
Mein 72er Siemens von 1996 hat ein besseres Bild, als die letzten Spitzenröhren (2005). Und selbst die werden doch kaum ausgereizt, wenn man bedenkt, was so alles übern Sender läuft. und dann noch bei der datenrate....
Antwort von wolfgang:
Also das ist ein netter, kleiner Artikel - dessen Formelwerk natürlich mal zum Nachdenken anregt. So gesehen finde ich das gelungen.
Trotzdem genieße ich meinen full-HD Sony 40W2000 sehr, den ich am HD-Schnittplatz neuerdings verwende, durchaus. Sitze etwa 1 m davon entfernt, und die Vorschau ist wirklich gut. Weil man auch geringere Fehler erkennt, die einem sonst verborgen bleiben.
Ich war da auch erst eher skeptisch...
Antwort von sleepy:
Hallo!
Die Rechnungen scheinen stimmig. Der durchschnittliche Fernsehzuschauer (bei normalem Wohnzimmer-Betrachtungsabstand) braucht wohl wirklich kein Full-HD.
Aber gibt es nicht immer mehr Leute, die besondere Filme mal auch gesichtsfeld-füllend anschauen möchten? Ein normaler Fernseher steht ja immer ein ganzes Stück weg vom Betrachter. Man sieht also rechts und links noch die Wohnzimmermöbel und oben noch eine tolle Blumenvase.
Der filmbegeisterte Zuschauer, der in einen Film jedoch richtig "eintauchen" möchte, muss sich daher näher an sein Gerät / Leinwand setzen, damit das Bild einen Großteil seines Gescihtsfeldes einnimmt, und er die Blumenvase eben nicht mehr sieht.
Und dann macht HD Sinn und Spass!
Ich habe hier bei mir einen 24'' "Full-HD" Bildschirm. Darauf habe ich mir mal die Windows Media HD-Demovideos angeguckt. Bei normalem / herkömmlichem Betrachtungsabstand sehen die Bilder zwar nett aus, aber sie hauen einen nicht vom Hocker.
Interessant wird es dann, wenn man sich dann mal ca. 40-50 cm vor den 24'' Bildschirm setzt (was durch fehlende Hz-Flimmern und fehlende Röntgenstrahlung ja auch möglich ist):
Da fühlt man sich wirklich im Geschehen. Und dann sieht man auch die unglaubliche Qualität, die Full-HD bietet. Demomaterial von einer JVC-Kamera mit 720p oder auch von der HVX 200 sieht da dann schon wieder unscharf aus.
Man muss halt unterscheiden zwischen TV für den Alltag einerseits und Film als Erlebnis andererseits. Mich begeistert es, "in einem Film" zu sein. Und da ist 1080p nun Minimum (4K Kameras oder Projektoren sollen ja auch ganz nett sein) :-)
PS: Wichtig ist natürlich bei so nahen Betrachtungsabständen auch, dass der Film von seinen Bildern auch für HD geeignet ist. Viele Kameramänner neigen dazu, mit HD-Kameras genauso wie mit SD-Kameras aufzunehmen. Das heisst, das Bild wackelt, ist unscharf usw. Und da wird einem dann natürlich schlicht und ergreifend schlecht, wenn man da zu nah dransitzt. Deshalb: Will jemand Filme für große Leinwänder machen, dann die Kamera lieber mal ruhig halten und Totalen wirken lassen. Die klassische Detail- oder Großaufnahme aus SD-Zeiten wirkt in HD einfach nicht.
Soviel meine 2 Cents!
Aja, und an HeikoS: Das Fernsehprogramm sollte man tatsächlich am besten meiden - egal, ob SD oder HD! Man glaubt es nicht, aber geht immer noch eine Ecke primitiver.
(Vielleicht kann der Admin meinen ersten unvollständigen Beitrag löschen?)
Antwort von Valentino:
Viele Kameramänner neigen dazu, mit HD-Kameras genauso wie mit SD-Kameras aufzunehmen. Das heisst, das Bild wackelt, ist unscharf usw. Und da wird einem dann natürlich schlicht und ergreifend schlecht, wenn man da zu nah dransitzt. Deshalb: Will jemand Filme für große Leinwänder machen, dann die Kamera lieber mal ruhig halten und Totalen wirken lassen. Die klassische Detail- oder Großaufnahme aus SD-Zeiten wirkt in HD einfach nicht.
Also ich finde, das es gerade mit Schulterkameras sehr schwierig ist ein ruhiges Bild zu bekommen, aber das ist bei einer SRII genauso und es sieht auch bei 16mm sehr garauenhaft aus, wenn der Kameramann/frau keine ruhige Hand hat. Es ist aber auch immer die Frage, für was man das Material braucht. In einem Tatort kann eine Handkamera viel unruhiger sein, weil man das Wackeln auf einem normalen TV eh nicht mitbekommt. Wenn es aber ein Kinofilm für die große Leinwand werden soll, dann kann es dem Publikum bei unruhiger Handkamera schnell schelcht werden.
 |
Antwort von Bruno Peter:
Wer braucht FullHD?
Ebenso hätte man fragen können: Wer braucht Zigaretten?
Antwort von Bruno Peter:
Trotzdem genieße ich meinen full-HD Sony 40W2000 sehr, den ich am HD-Schnittplatz neuerdings verwende, durchaus. Sitze etwa 1 m davon entfernt, und die Vorschau ist wirklich gut.
Hättest vielleicht besser einen Beamer für die Vorschau nehmen sollen...
Weil man auch geringere Fehler erkennt, die einem sonst verborgen bleiben.
Welche Fehler sind das?
Antwort von Axel:
Wer sich so nah an sein TV-Set hockt, dass er FullHD braucht, um keine Pixel mehr zu sehen, der muss, wie erwähnt, vom Stativ filmen und am besten nur Landschaftsaufnahmen/Totalen. Sehr unfilmisch. Ein großes Aquarium wäre billiger, und man kann auch die Nase an die Scheibe pressen, ohne seekrank zu werden.
Wie gesagt, als Vorschaumonitor oder als Beamer sinnvoll, als Fernseher Konsumentenverarsche.
Antwort von wolfgang:
Na du wirst wohl eher beobachten, dass viele Leute bei den preislich enorm verfallenden HD-Ready Sichtgeräten bleiben. Und Leute, die
Blu Ray Filme gucken wollen, eher zu den full-HD Sichtgeräten wechseln - weil die sehr oft auch einen geringeren Sichtabstand auch im Wohnzimmer akzeptieren werden. Ob es langfristig da überhaupt HD-Ready noch geben wird - ist eine spannende Frage.
Consumerverarsche? Hmm, wir hatten ja auch TVs mit 720x576, und nicht TVs mit SVCD-Auflösung in 480x576. Die hätte ab einem gewissen Abstand ja auch gereicht...
Antwort von Anonymous:
Also ich finde, das es gerade mit Schulterkameras sehr schwierig ist ein ruhiges Bild zu bekommen...
Also das musst du mir jetzt aber mal erklären... sorry...
Gerade mit Schulterkameras ist es leichter ein ruhiges Bild zu haben. Ohne Tele, zB bei einem Interview, kann man das Bild so ruhig halten, als wäre es *fast* von einem Stativ. Sicherlich, eine gewisse Bewegung ist immer da, aber sicherlich viel weniger als wenn man die selbe Einstellung mit einer Henkelkamera gedreht hätte! Schon alleine wegen der "Trägheit der Masse"...
Antwort von robbie:
Sorry, that was me...
Antwort von Axel:
Na du wirst wohl eher beobachten, dass viele Leute bei den preislich enorm verfallenden HD-Ready Sichtgeräten bleiben. Und Leute, die
Blu Ray Filme gucken wollen, eher zu den full-HD Sichtgeräten wechseln - weil die sehr oft auch einen geringeren Sichtabstand auch im Wohnzimmer akzeptieren werden. Ob es langfristig da überhaupt HD-Ready noch geben wird - ist eine spannende Frage.
Consumerverarsche? Hmm, wir hatten ja auch TVs mit 720x576, und nicht TVs mit SVCD-Auflösung in 480x576. Die hätte ab einem gewissen Abstand ja auch gereicht...Keine Frage. Langfristig wird sich das durchsetzen. Wir sprechen hier nicht von Jahren, sondern von wenigstens einem Jahrzehnt, allein, bis normales SD als inakzeptabel für die meisten, auch nur minimal qualitätsbewussten Konsumenten gilt. Schon HD ready setzt sich nach meiner Einschätzung eher deswegen langsam durch, weil 16:9 Röhrengeräte vom Design her nicht mehr in eine moderne Wohnlandschaft passen, und weil selbst die Tagesschau inzwischen in 16:9 ist.
Ein Full HD Tv muss relativ zum Raum viel größer sein als ein gewöhnlicher Fernseher, sonst bringt"s nix, und dieses Konzept muss erstmal in die Köpfe von Otto Normalverbrauchers.
Wenn es dann soweit ist, dass FullHD flächendeckend existiert - selbstredend mit besseren Geräten als die heute zu erwerbenden, und zu geringerem Preis - muss die Messe für neue Filme (Kino) reagiert haben, zumindest mit 4k. Wahrscheinlich wird das Kino aber das Rennen komplett verlieren. Wie die Medienlandschaft in zehn Jahren aussieht, kann wirklich noch keiner sagen. Das gehört vielleicht eher in den Thread "Wie zukunftsträchtig ..."; - aber was die Notwendigkeit betrifft, sich in der Gegenwart mit Full HD Produkten einzudecken, so bleibe ich dabei, Normalverdienern abzuraten.
Antwort von Axel:
Na du wirst wohl eher beobachten, dass viele Leute bei den preislich enorm verfallenden HD-Ready Sichtgeräten bleiben. Und Leute, die
Blu Ray Filme gucken wollen, eher zu den full-HD Sichtgeräten wechseln - weil die sehr oft auch einen geringeren Sichtabstand auch im Wohnzimmer akzeptieren werden. Ob es langfristig da überhaupt HD-Ready noch geben wird - ist eine spannende Frage.
Consumerverarsche? Hmm, wir hatten ja auch TVs mit 720x576, und nicht TVs mit SVCD-Auflösung in 480x576. Die hätte ab einem gewissen Abstand ja auch gereicht...Keine Frage. Langfristig wird sich das durchsetzen. Wir sprechen hier nicht von Jahren, sondern von wenigstens einem Jahrzehnt, allein, bis normales SD als inakzeptabel für die meisten, auch nur minimal qualitätsbewussten Konsumenten gilt. Schon HD ready setzt sich nach meiner Einschätzung eher deswegen langsam durch, weil 16:9 Röhrengeräte vom Design her nicht mehr in eine moderne Wohnlandschaft passen, und weil selbst die Tagesschau inzwischen in 16:9 ist.
Ein Full HD Tv muss relativ zum Raum viel größer sein als ein gewöhnlicher Fernseher, sonst bringt"s nix, und dieses Konzept muss erstmal in die Köpfe von Otto Normalverbrauchers.
Wenn es dann soweit ist, dass FullHD flächendeckend existiert - selbstredend mit besseren Geräten als den heute zu erwerbenden, und zu geringerem Preis - muss die Messe für neue Filme (Kino) reagiert haben, zumindest mit 4k. Wahrscheinlich wird das Kino aber das Rennen komplett verlieren. Wie die Medienlandschaft in zehn Jahren aussieht, kann wirklich noch keiner sagen. Das gehört vielleicht eher in den Thread "Wie zukunftsträchtig ..."; - aber was die Notwendigkeit betrifft, sich in der Gegenwart mit Full HD Produkten einzudecken, so bleibe ich dabei, Normalverdienern abzuraten.
Antwort von DWUA:
Wie gesagt, als Vorschaumonitor oder als Beamer sinnvoll, als Fernseher Konsumentenverarsche.
Und warum?
Weil die Werbung verspricht, "GROSSES KINO" zuhause erleben
zu können.
(Was natürlich niemals stattfinden kann...
selbst bei 5 m Diagonale auf Leinwand mittels Beamer)
;)
Antwort von Axel:
Weil die Werbung verspricht, "GROSSES KINO" zuhause erleben
zu können.
(Was natürlich niemals stattfinden kann...
selbst bei 5 m Diagonale auf Leinwand mittels Beamer)Sehr sympathisch. Hoffentlich sorgen Kinos nicht dafür, dass bald alles so aussieht, als wäre es nur ein großer Fernseher.
Noch ein Argument gegen zu große Fernseher: Das gegenwärtige TV-Programm. Mit den großen Bildern, die FullHD voraussetzt, absolut ungenießbar.
Antwort von Anonymous:
Ich frag mich eh, wieso sich dieser TFT Kram mit eckigen Pixeln durchgesetzt hat.
Beim PC kann ich's noch einigermassen verstehen, da echtzeit computergenerierte Grafik dann doch noch meilenweit vom realen Vorbild entfernt ist und grad munter durch's "uncanny valley" tobt.
Die meisten Dinge die man filmt sind nicht eckig und man braucht viel mehr eckige pixel um einen runden Eindruck zu simulieren.
Die Roehrenglotzen Pixel sind (mir zumindest) wesentlich sympathischer und erzeugen ein 'glaubhafteres' und natuerlicheres Bild mit wesentlich weniger Pixeln. Wenn man das jetzt auf "HD" Aufloesung aufblasen wuerde (nicht unbedingt die gesamte Roehren-Technik, eher die Pixelform)...
Antwort von Flaxx:
Hmm... Und was ist mir HD ready Röhren TVs?
Antwort von der Jo:
... das ist ja alles schön und gut.
Also ich brauche FullHD um beim Schnitt auch das letzte Pixel dessen was ich produziere kontrollieren zu können. Ob ein normaler Wohnzimmer-Fernseher das auch braucht muss jeder selber wissen. Da hilft nur sich mit seinen eigenen Augen selbst ein Bild zu machen.
Außerdem bin ich der Meinung, bei der Entwicklung einer neuen Technologie muss man einfach Reserven lassen. Sonst ist die morgen schon wieder überholt!
Hab vor 2 Jahren auf einem echt guten Full HD-Beamer eben dieses gesehen, hat mich glatt aus den Schlappen gehauen. Seither bin ich infiziert.
Ja, ich brauche FullHD!
Antwort von Axel:
Hab vor 2 Jahren auf einem echt guten Full HD-Beamer eben dieses gesehen, hat mich glatt aus den Schlappen gehauen. Seither bin ich infiziert.
Ja, ich brauche FullHD!28 weeks later: Etwas hat überlebt ...
Antwort von kundesbanzler:
Diese Rechnerei ist ja wirklich gut und schön, allerdings gibt es ein kleines Problem: sie stimmt einfach nicht.
Ich habe selbst einen 24-Zöller mit WUXGA (sprich FlullHD) hier rumstehen und habe gerade den Selbsttest gemacht. Nach den hier vorgestellten Zahlen, sollte ich als "Perfekt-Sehender" bei 96cm an der Auflösungsgrenze meines Auges sein. Ich habe allerdings gerade herausgefunden, dass ich bei etwa 1,30m Augenabstand ohne größere Probleme ein einzelnes schwarzes Pixel auf einer weißen Fläche wiederfinden kann. Wenn ich weiß, wo sich das Pixel befindet und den Abstand erhöhe, kann ich sogar noch über 2m gehen, bevor ich es gänzlich nicht mehr wahrnehmen kann. Da kann allerdings noch einiges an Einbildung mitspielen, geschenkt.
Auf einen doppelt so oder noch größeren HD-Fernseher hochgerechnet heißt das, ich persönlich profitiere bei so einem Gerät und einem normalem Abstand von 3m ganz eindeutig von der Auflösung. Und ich denke mal, dass es noch schärfer sehende Menschen gibt.
Und ich fände es auch legitim, Fernseher zu produzieren, die bei gängigem Abstand etwas über dem Sehvermögen des Auges liegen. So dass man den Sichtabstand leicht varrieren kann, ohne dass Erkennbarkeit des Bildes an der eigenen Auflösung scheitert.
Antwort von Pianist:
Und ich fände es auch legitim, Fernseher zu produzieren, die bei gängigem Abstand etwas über dem Sehvermögen des Auges liegen. So dass man den Sichtabstand leicht varrieren kann, ohne dass Erkennbarkeit des Bildes an der eigenen Auflösung scheitert.
Die Sache ist doch ganz simpel: Bei einem Röhrenfernseher kämen die Leute nie auf die Idee, dicht ranzugehen. Bei einem flachen HD-Monitor werden sie das aber immer machen, weil sie es von ihrem Computermonitor gewohnt sind. Also ist es gut, wenn auch nah dran möglichst viele Details erkennbar sind.
Matthias
Antwort von ThomasSV:
Hat schon jmd bemerkt, daß es auch 65zoll Plasmas gibt? *duck* ;-)
Ob man sich nach all der Rechnerei dann aber 1,6-2m Diagonale in Schwarz an die Wand hängen will...?
(bis DAS als wohnzimmer-kompatible durchgeht... ;->)
Antwort von ThomasSV:
Eigentlich finde ich die Frage auch unfähr gestellt! Der Punkt ist doch, das Pal und 1080i so krass unterschiedlich sind, daß es eigentlich unsinnig ist, nach _einem_ Fernseher für beide Formate zu suchen.
Demnach müßte die Frage eher lauten "was brauche ich für HD".
Und die Antwort ist dann eben: "guck' Dich mal bei Diagonalen um die 75 Zoll herum um...".
Und, anders herum ist es für PAL-Gucker mit Std-Wohnzimmer (zumindest von der Auflösung her) völlig unsinnig, ein Gerät jenseits 28 (bestenfalls 32) Zoll zu kaufen...
Und das paßt auffallend gut zu Omas 77cm-Röhre....
Gruss
Thomas
Antwort von wolfgang:
Nur wer stellt sich beide Varianten ins Wohnzimmer? Von daher muss ein HD-Ready oder Full-HD auch SD Signale halbwegs vernünftig unterstützen.
Antwort von PeterM:
Erst mal kann ja eine Reserve nicht so schlecht sein.
Die Frage ist immer ob man "wer braucht" auf von der Produktionseite oder von der Wiedergabeseite betrachtet.
Und da sollte man nicht vergessen, das es Leute gibt die sich das normale Programm auf nem TV ansehen und Filme auf dem beamer.
Sogesehen ist es doch nicht falsch die Aufnahmetechnik an der grössten herausfordrung zu messen, eben Beamer oder nah ma HDTV Display.
Das für die Nachrichten oder auch das allerwelts TV vom im normalen Wohnzimmer ) und da hat man ja meistens mehr als 3 Meter, reicht ist doch klar.
Antwort von DocSommer:
Grundsätzlich finde ich es nicht schlecht, den allgemeinen Hype etwas einzudämmen. Es gibt aber sicher Situationen, in denen FullHD Sinn macht (Heimkinobeamer).
Antwort von Ben2:
just FYI, Zitat:
"Zum Vergleich: Das menschliche Auge hat eine Auflösung von etwa 60″ und kann damit theoretisch zwei senkrechte kantige Objekte, die 1 Meter auseinander stehen, noch in 3–4 km Entfernung auseinanderhalten. De facto mindert die Form der Objekte oder schwacher Kontrast diesen Wert. Der engste Doppelstern (ε im Sternbild Leier), den nur sehr scharfe Augen noch getrennt wahrnehmen, hat 208″ Winkeldistanz.
Andererseits haben unsere Augen die Fähigkeit, auch viel feinere Details noch zu erkennen, wenn sie linienförmig sind und mehrere Sehzellen anregen. So kann man etwa einen Mast noch am Horizont ausmachen, wenn er unter 20–30″ erscheint."
(Quelle: http://de.wikipedia.org/wiki/Bogensekunde)
Kann man also ausrechnen, in welchem Abstand man die Pixel noch unterscheiden kann:
http://www.elmar-baumann.de/fotografie/ ... node7.html
Antwort von der bär:
ben2, guter beitrag!
man kann sich über vieles streiten, oder diskutieren...
im endeffekt ist es sache des einzelnen, gepaart mit etwas wissenschaft, technischer umsetzung und einbildung.
ich hab schon einen fullHD-apparat gesehen, dem ordnungsgemäß ein bild von blue ray eingflößt wurde und das sah aus wie hin gekotzt. ich war froh zuhause wieder vor der alten röhre zu sitzen.
viel liegt auch beim hersteller, an der qualität der lcd-panels etc.
und durch die einstellungen am gerät in bezug auf schärfe, farbe und kontrast ändert sich ja auch einiges, jedenfalls in der wahrnehmung, die wohl den größten menschlichen fehler in sich birgt. es soll ja auch leute geben, die den zug erst in der sekunde bemerken, in der er sie erwischt.
am schnittplatz ist fullHD sinnvoll, wenn man das passende material hat, aber auch nur dann, wenn es bei diesem format bleibt. noch sinnvoller bei späterer ausbelichtung in 2 oder 4k, wenn man zb farbkorrektur macht. denn da wirds ja schnell schlecht, das bild.
für ein normales wohnzimmer würde HDready reichen, aber das wird in wenigen jahren vom markt sein.
fullHD-geräte sollten jedoch 1080p UND 720p unterstützen wegen des HDTV in europa und des filmgenusses von blueray....
Antwort von der bär:
ach und:
KINO gibts eh NUR IM KINO und NIEMALS im wohnzimmer!!
Antwort von buffalo:
wenn der Autor so weiter rechnet, kommt er irgendwann zu dem Ergebnis, daß der Mensch überhaupt nicht sehen kann - man kann schließlich alles klein rechnen. Bestes Beispiel: http://www.harrywood.de/arbeit.html
oder ?
Ich glaube, bei meinem Full-HD-Beamer bei HD-Sendungen oder Bluerays tatsächlich ein schöneres Bild zu haben, als bei "normal" auflösenden Beiträgen... Vielleicht sollte ich mal meine Augen untersuchen lassen, allmählich werde ich mir selber unheimlich...
;-)
Antwort von PowerMac:
(…) oder ? (…)
Nein!
Antwort von WoWu:
Jedes, noch so hoch aufgelöste Bild ist immer irgendwann scharf ... es ist eben nur eine Frage des Betrachtungsabstands.
Bei 720p und einem 42" TV Gerät (106 cm Diagonale) ist die Auflösungsgrenze 2,40m.
Bei 1080 und 42" sind es eben nur noch 1,68m
Wer also nicht unbedingt mit der Nase an seinem TV Gerät kleben möchte und dennoch den Auflösungsvorteil von 1080 geniessen will, muss sich eben einen größeren Fernseher anschaffen.
Will er seine gewohnten 2,40m vom TV Gerät beibehalten, wird er für 1080 bereits ein etwa 75" (!!) großes Gerät brauchen.
(Oder eben eine Brille, die ihm etwas "Übersichtigkeit" beschert.)
Antwort von DWUA:
Zurück zur slashcamfrage.
Wer braucht was wann?
Wie, warum, wo?
Je nach Belieben umzustellen.
Der Trend geht offensichtlich immer mehr zur Frage Womit?
Leider!
;))
Antwort von Pianist:
Der Trend geht offensichtlich immer mehr zur Frage Womit?
Darauf fand ich vor 1,5 Jahren eine sehr gute Antwort. Inzwischen sind schon eine ganze Reihe meiner Filme auf Fachmessen und sonstigen Veranstaltungen in voller HD-Qualität gelaufen und ich muss wirklich sagen, dass sich diese Investition sehr gelohnt hat. Die Leute sind von dem Bildeindruck total begeistert. Selbst wenn man sehr dicht vor einem riesengroßen Fernseher steht, sieht man ein perfektes Bild. Und genau darum ging es mir ja.
Matthias
Antwort von Axel:
Wir sprechen hier nicht von Jahren, sondern von wenigstens einem Jahrzehnt, allein, bis normales SD als inakzeptabel für die meisten, auch nur minimal qualitätsbewussten Konsumenten gilt.
Mittlerweile ist klar, dass meine Prognose falsch ist. Noch vor Jahresfrist wollte keiner ein Messevideo in HD. Plötzlich heißt es: Wir haben da eine große Leinwand, das möchten wir schon auf HD sehen. Fast alle in meinem Bekanntenkreis haben ihre Röhren verschrottet und rümpfen bereits die Nase über HDready. Geht ziemlich rasant ...
Antwort von DWUA:
@ Pianist
Stimmt, wir erinnern uns gerne an die "ikegami"-Diskussionen.
@ Axel
Wir sind auch nicht weltfremd.
Aber einige ws dürfen schon noch stehen bleiben.
;)
Antwort von WoWu:
@ Pianist
Selbst wenn man sehr dicht vor einem riesengroßen Fernseher steht, sieht man ein perfektes Bild.
Eigentlich dürfte es nicht :"selbst wenn.." heißen, sondern "gerade weil" .. denn ab einem gewissen Abstand (siehe Berechnung von Ben2) sieht man keinen unterschied mehr ...
Antwort von wolfgang:
Wir sprechen hier nicht von Jahren, sondern von wenigstens einem Jahrzehnt, allein, bis normales SD als inakzeptabel für die meisten, auch nur minimal qualitätsbewussten Konsumenten gilt.
Mittlerweile ist klar, dass meine Prognose falsch ist. Noch vor Jahresfrist wollte keiner ein Messevideo in HD. Plötzlich heißt es: Wir haben da eine große Leinwand, das möchten wir schon auf HD sehen. Fast alle in meinem Bekanntenkreis haben ihre Röhren verschrottet und rümpfen bereits die Nase über HDready. Geht ziemlich rasant ...
Sigmoide Substitutionskurven haben im mittleren Teil einen steileren Anstieg, dort wo sie beginnen die jeweils ältere Technologie markant zu substituieren. Die Frage ist nur, ob wir wirklich schon dort sind - bie HDTV vermutlich ja, bei Blu Ray sicherlich noch nicht.
Antwort von Axel:
Sigmoide Substitutionskurven haben im mittleren Teil einen steileren Anstieg, dort wo sie beginnen die jeweils ältere Technologie markant zu substituieren.
Wow! Klingt wie ein lässiger Dialog aus Dr. House ...
Antwort von Pianist:
Die Frage ist nur, ob wir wirklich schon dort sind - bie HDTV vermutlich ja, bei Blu Ray sicherlich noch nicht.
Das sehe ich genauso. Zumal man ja für die Wiedergabe hochauflösender Filme nicht auf die blaue Scheibe angewiesen ist. Vor allem, wenn es um Einzelplätze geht.
Da wird eben ein Monitor mit einem geeigneten Wiedergabegerät hingestellt, egal ob nun Playstation, Rechner mit Windows-Mediaplayer, Rechner mit VLC-Mediaplayer und so weiter. Und dann kriegen die Leute die zum jeweiligen Monitor passende Mpeg-2-Datei. Aus meiner Sicht ist Mpeg-2 immer noch die beste Variante für solche Zwecke.
Matthias
Antwort von Martin Dienert:
Hallo,
ich habe im Wohnzimmer einen TV mit ca. 60 cm Diagonale (4:3). Die Entfernung zu meinem Fernsehsessel ist durch die Einrichtung im Wohnzimmer fest vorgegeben und für diesen TV optimal. Nehmen wir an ich komme auf die Idee mir einen FullHD-TV zu kaufen um "HD-DVDs" zu kucken. Dieser neue TV müsst ja entsprechend größer sein, vielleicht 1,3 m, damit ich überhaupt etwas davon habe. Aber die normalen Fernsehsendungen sind nun mal SD und werden auf den schönen neuen TV hochgerechnet. Im Kaufhaus kann man sich das Ergebnis ansehen.
1. Frage: Wäre es nicht sinnvoll das SD-Bild nur auf den mittleren 768x576 Pixeln des TV anzuzeigen (bzw. 1024x576 bei 16:9)?
2. Frage: StandardTV ist ja immer noch interlaced. Kann man das auf einem LCD-TV überhaupt ordentlich darstellen? Also erstes Halbbild in die ungeraden Pixel "zeichnen" und dann das zweite Halbbild in die geraden Pixel zeichnen und gleichzeitig die ungeraden Pixel wieder löschen (bzw. abblenden).
Martin
Antwort von Pianist:
1. Frage: Wäre es nicht sinnvoll das SD-Bild nur auf den mittleren 768x576 Pixeln des TV anzuzeigen (bzw. 1024x576 bei 16:9)?
Genau das halte ich auch für einen akzeptablen Weg, um PAL-Material in akzeptabler Qualität auf einem Full-HD-Gerät anzuschauen, aber genau diese Funktion bieten die Geräte nicht an. Somit müssen sich die Leute, so blöd das auch klingt, zwei Geräte nebeneinander hinstellen. Den alten Röhrenfernseher für PAL-Sendungen, und dann den Full-HD, um darauf nur die entsprechenden Sachen zu schauen.
Matthias
Antwort von TheBubble:
1. Frage: Wäre es nicht sinnvoll das SD-Bild nur auf den mittleren 768x576 Pixeln des TV anzuzeigen (bzw. 1024x576 bei 16:9)?
Die Darstellung wäre dann klein, als ob man am PC eine DVD im Fenstermodus ansieht, bei dem nur die Breite aufgrund des erforferlichen Seitenverhältnisses angepasst wurde, anstelle den Vollbildmodus einzustellen.
2. Frage: StandardTV ist ja immer noch interlaced. Kann man das auf einem LCD-TV überhaupt ordentlich darstellen?
Wenn nötig deinterlacen die Geräte vor der Darstellung.
Antwort von WoWu:
@ Martin
Dein 4:3 TV Gerät hat heute bei 60 cm Diagonale eine Bildhöhe von 36 cm und damit bei 540 Zeilen eine Zeilenhöhe von rd.0,66 mm.
Das menschliche Sehvermögen löst etwa 1 mm im Abstand von 3,5m auf.
Ist Dein TV Abstand jetzt optimiert, wirst Du einen HD Fernseher nehmen, der eine identische "Pixelhöhe" hat.
In deinem Fall wären das bei 720p rd. 98 cm (Bildhöhe 48cm) und bei 1080 wäre es eine Diagonale von 150 cm (Bildhöhe 73 cm)
2. Frage: StandardTV ist ja immer noch interlaced. Kann man das auf einem LCD-TV überhaupt ordentlich darstellen? Also erstes Halbbild in die ungeraden Pixel "zeichnen" und dann das zweite Halbbild in die geraden Pixel zeichnen und gleichzeitig die ungeraden Pixel wieder löschen (bzw. abblenden).
Nicht wirklich, denn einmal abgesehen vom De-Interlasing ist bei einem Matrixdisplay ist die örtliche Abbildung einer Bildzeile näherungsweise rechteckförmig, bei einer Kathodenstrahlröhre ist sie gaußförmig.
Beide Aperturfunktionen können in der Breite variieren, allerdings kann es nur beim CRT zur örtlichen Überschneidung zweier Zeilen kommen. Kommt es zu Überlappungen und somit zum Übersprechen zwischen zwei Zeilen, äussert sich das als Unschärfe im Bild. (was gern als weiches, analoges Bild bezeichnet wird.)
Eine Zeilenstruktur bildet sich wegen dieses Übersprechens zwischen den Zeilen nicht aus.
Bei einem LCD sind die Zeilen örtlich scharf voneinander getrennt. Der Helligkeitsverlauf zwischen zwei benachbarten Zeilen ist allerdings aufgrund der Rechteckform einer Bildzeile nicht weich sondern stufenförmig.
Auch lässt sich das Pixel nicht wirklich "blenden", ähnlich der Slew rate eines Kathodenstrahls, also die Ergebnisse werden schon deutlich anders sein.
Antwort von Martin Dienert:
Hallo,
Wenn nötig deinterlacen die Geräte vor der Darstellung.
Was dabei raus kommt sieht man ja. ;-)
Wowu das was du schreibst ist mir, mehr oder weniger fundiert, schon klar. Ich hatte das auch nur sehr vereinfacht dargestellt. Die Zeilen des gerade nicht benutzten Halbbildes müssten mit "Übersprechen" aus den beiden benachbarten Zeilen gefüllt werden. Das Bild sollte Zeilenweise, oder gar Pixelweise, aufgebaut werden. Eine Röhre nachzubilden ist sicher reichlich kompliziert. Ob ein LCD-Panel das zeitlich schafft ist sicher auch zu bezweifeln.
Und ob irgendein Ingenieur einer Fernsehfirma daran überhaupt einen Gedanken verschwenden würde ist fraglich. Für die paar Leute die das bemerken würden lohnt es sich ja auch nicht. Es wird deinterlaced und fertig. SD stirbt ja sowieso.
Ich hatte bei meiner obrigen Betrachtung noch den Overscanbereich vergessen. Mann könnte ein SD-Bild auch genau um den Faktor 2 aufblasen. Für 4:3 gilt:
768 * 2 = 1536 minus Overscanbereich, also rund 1500 Pixel beit, ergibt rechts und links einen Rand von 210 Pixel
576 * 2 = 1152 minus Overscanbereich, also 1080 Pixel (Overscan 18 Pixel)
Bei 16:9 gilt in der Breite:
1024 * 2 = 2048 also auf jeder Seite ein Overscanbereich von 32 Pixel (rund 23 Pixel auf 720 bezogen)
Und dann muss man noch beachten das bei der Wandlung von rechteckigen auf quadratische Pixel auch schon interpoliert werden muss (720 -> 768 bzw. 720 -> 1024).
Mein persönliches Fazit:
Solange es HD-TV (ob 720 oder 1080 Zeilen) noch nicht wirklich gibt wird in die Röhre geschaut. ;-)
Martin
Antwort von WoWu:
Hallo Martin.
Davon bin ich auch eigentlich ausgegangen.
Dein Ansatz ist schon nachvollziehbar aber lässt natürlich ein paar Fragen offen ... so z.B. warum etwas nachgebildet werden sollte, dass lediglich durch einen Fehler einen noch eklatanteren Fehler und Kompromiss in der Übertragungstechnik verdeckt....
Nun könnte man darüber nachdenken, was eigentlich das kleine Übel ist, die wirklich mangelhafte Performanz der Röhre oder (die eigentlich noch schlechtere) Performanz der Matrixdisplays.
Wenn die Interpolationsfrage das einzige zu lösende Problem wäre, dann ginge es ja noch. Schaut man sich aber einmal genau an, was in einem solchen (modernen) Monitor mit dem Signal gemacht wird, dann kann man nur zu dem Schluss kommen, dass das nur noch sehr begrenzt etwas mit dem zu tun hat, was eigentlich mit (oft) viel Mühe vom Kameramann erzeugt wurde.
Aber Du hast schon völlig Recht, zu sagen, wenn TV, dann lediglich in nativer Auflösung. Jede, aber auch wirklich jede Interpolation ist verlustbehaftet, auch wenn es "nur" um ein paar Pixel geht, bleibt kein "Stein auf dem Anderen" ... tragisch eben nur, wenn die Kette 3, 4 und mehr Interpolationsstufen aufweist.
Aber solange die überwiegende Mehrzahl der Konsumenten die Unterschiede nicht einmal wahrnimmt und sich Full HD selbst vormachen, besteht natürlich auch für die Industrie kein Handlungsbedarf.
Was bleibt, ist eben die TV-Monitor- Lösung über eine entsprechende Grafikkarte ... dann klappt das auch mit den Verkleinerungen "artgerecht".
Die Röhre finde ich allerdings keine wirkliche Alternative und bin eigentlich froh, dass das "Phosphorglühen" vorbei ist.
Ausserdem bekommst Du nicht einmal annähernd Auflösung hin, wie auf einem Matrix Display und bekommst als (analoges) Fernsehbild eigentlich lediglich die 3,5 MHz zu sehen und kommst damit auf (3,5 MHz x 2 x 52 µs) = 364 Punkte Auflösung.
Wohingegen Dir bei einer Matrix 7,3 MHz dargestellt werden und Dir so wenigstens die volle SD Auflösung durchgereicht wird.
Man muss also derzeit zusehen, das kleinere Übel zu wählen.