Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Unterschied, Kompatibilität HD-Komponentensignal, SD-Komponentensignal



Frage von ennui:


Hallo,

Ich verstehe das nicht ganz: HD und SD Komponentensignal sind zwei völlig verschiedene Sachen? Oder ähnlich, aber nicht kompatibel zueinander? Wenn ich an einen Pal-Monitor mit Komponentensignaleingang ein HD-Komp.-Signal gebe, was passiert dann? Und kann man da irgendwie hin- und herkonvertieren?

Space


Antwort von ennui:

Oder anders gefragt: Welches HD-Signal lässt sich wie herunterkonvertieren, um eine SD-Vorschau davon zu kriegen?

Space


Antwort von WoWu:

@ ennui

Das sind zwei verschiedene Paar Schuhe ...
HD hat eine gänzlich andere Auflösung, als SD ... Du kommst wahrscheinlich von 1920x1080 und willst nach 720x576 bezw. wenn Du ein analoges Tv Gerät hast, nach 768x576.
Bei HD haben wir Pixelraten von 148 MHz (1080p) und bei SD lediglich 13,5 MHz
Das musst Du entweder in der Kamera "down konvertieren" oder auf Deiner Graka, oder einer sonstigen Hardware, um "on fly" eine SD Vorschau zu bekommen.
Danach kannst Du dann, je nachdem, was Deine Quelle hergibt, von RGB nach Y"CbCr oder, wenn es analog sein sollte, nach YUV oder, wenn nötig, nach FBAS übertragen, je nachdem, was Deine Monitor erwartet.

Space


Antwort von ennui:

Danke für die Erklärung. "Komponentensignal" taucht nun mal sowohl bei SD als auch bei HD auf, Stecker sehen (wohl?) gleichfarbig aus, und ich finde das alles etwas verwirrend. Also gibt es quasi "Komponenten-HD" und "Komponenten-SD", man sagt aber einfach Komponenten-Signal zu beidem.

Ich frage mich das alles daher, weil ich, nun doch, zukünftig beim HD-Schnitt in Edius gerne einfach nur eine runterskalierte HD-auf-SD-Vorschau auf einem schlichten Pal-Röhrenmonitor hätte. So wie bei DV-Schnitt.

Nun gibt es da Schnittkarten (für PC), die HDMI ausgeben, oder solche mit Komponenten-Breakout-Box (HD Storm/Spark, etc.). Bei der Komponentenvariante könnte man ja meinen, man kann da einfach den Pal-Monitor ranhängen, der würde das selber runterskalieren: dem ist also nicht so. Wie würde man das denn dann sonst machen: Gibt es Konverter, und wenn ja, was nehmen die an HD? Das Komponenten-HD oder HDMI oder gar das HD-SDI?

Ich las hier auch irgendwo von Black Magic (?)-Karten, etc., wo sowas wohl geht, die aber andere Probleme haben, und wohl eher für Premiere sind (?). Ich würde aber gerne mit Edius arbeiten. Bisher habe ich nur den Monitor, Pal, mit Komponenten (SD?)-Eingang und ganz guter Auflösung (Röhre). FBAS und Y/C gibts natürlich auch.

Edius-Vorschau - Pal-Röhrenmonitor. Irgendeine elegante Lösung?

Space


Antwort von ennui:

So, Ergebnis meiner Recherche: Die HD-Storm plus gibt wohl via Erweiterungsbay selbst SD als Composite, S-Video und Komponentensignal für Pal-Monitore aus.

Gibts dann einen Unterschied zwischen Component und S-Video in der Qualität? Sollte doch sichtbar sein.

Und HDMI-zu-Component/YUV-Converter, also zu HD-Component (?), wie man sie für ältere HD-Hardware benötigen würde, die kein HDCP/HDMI hat, etwa HD-Röhren oder alte Profibeamer, gabs wohl durchaus mal, sind jetzt aber verboten, weil sie den HDCP-Kopierschutz entfernen könnten. Damit bleibt nur noch der teure Weg über HD-SDI, sofern überhaupt unterstützt, oder aber die Nutzung eines HDMI-zu-VGA-Wandlers, sofern VGA irgendwie passt, die gibts auch noch.

Damit ist meine Recherche beendet, und der Eindruck bleibt, dass HD-Schnitt entweder nur mit viel Geld im Profisegment gut möglich ist, oder aber via HDMI auf LCDs in diversen Varianten, etwa HD Spark -> LCD-TV. LCD-Monitore, die wirklich was taugen und mit Röhre absolut vergleichbar sind, sind wohl unbezahlbar, und das, was erschwinglicher ist, überzeugt noch nicht so.

Ich bleib wohl erst mal bei runterskalierter Pal-Vorschau und DVD als Endprodukt, da viel verbreiteter. Und jetzt viel Geld für (oft unausgereifte, schlechte) HDMI-Hardware wie Blueray-Brenner oder -Player an eine Industrie zu zahlen, die mich dann mit HDCP gängelt, und mir etwa HDMI -> YUV verbieten will, kommt für mich nicht in Frage.

Danke nochmal für alle Tips.

Space


Antwort von WoWu:

@ ennui
Deine Besonderheit besteht darin, dass Du beim Schnitt (so, wie ich das verstanden habe) gleichzeitig das HD-Signal herunterskaliert nach SD auf einem Röhrenfernseher anschauen willst.
Das ist die Besonderheit, die die Sache so teuer macht, nicht aber HD Schnitt, denn schon für relativ kleines Geld gibt es Monitore, die HD darstellen können und auch qualitativ hochwertige Schnittstellen haben.
Statt eines solchen Hardware-Skalierers, an dem dann auch noch die Schnittstellen passen müssen (und bei SDI wird es nochmal teuerer), würde ich mir einen günstigen Monitor hinstellen und auf die 4:3 Darstellung beim Schnitt nochmal nachdenken.
Skalier das Ganze doch nachher im NLE runter und schau es dann auf dem Röhrenfernseher an ... das ist zumindest die kostengünstigere Lösung.

Space


Antwort von ennui:

@Wowu

Ja, genauer gesagt, ni8cht auf einem TV, sondern auf einen NTSC/Pal-Röhren-Videomonitor mit 750 Zeilen (dem günstigen von JVC). Der hat als Eingänge: FBAS, S-Video (etwas besser), und (SD)-Komponenten. Und ich bin/war am Überlegen, wie ich da eine HD-Vorschau runterskaliert auf SD raufkriege. Um so weiterzuarbeiten, wie ich es bei SD gewohnt bin, aber natürlich in der bestmöglichen Qualität hinsichtlich Schärfe, Farbigkeit, usw. Auf einer Röhre. Im Moment schneide ich so nur SD, mit Y/C-Ausgang in den Monitor. HD-Equipment habe ich noch garnix, plane quasi nur schon mal, was ich da brauchen werde, was wie zusammenpasst. Für mich ist das Arbeiten mit Komponenten oder HDMI also bisher nur graue Theorie, ich versuche die Technik zu verstehen. Interessant wäre HD für mich wegen höherer Auflösung für Projektionen, höherem (?) Kontrastumfang, Film-Nähe. Aber das alles bitte auf dem Niveau von ausgereiftem MiniDV. Im Moment gehts auch ohne.

Den ursprünglichen Plan (HD-Röhrenmonitor, der über analoges HD-Komponentensignal angesteuert wird, das von Schnittkarte oder Konverter kommt), habe ich schon aufgegeben: Sehr kostspielig, auf der angedachten Monitorgröße ist der Unterschied gutes SD/ HD wohl nicht so dramatisch; der HD-Monitor ist Auslaufmodell, und gewünschte Eingangsoptionen sind kaum noch verfügbar, HDMI-YUV-Wandler als Verbindung HDMI-Schnittkarte - HD-Komponenteneingang gabs zwar mal, aber sind jetzt wohl verboten, HD-SDI kostet wiederum nochmal Unsummen und ist etwas übertrieben für mich.

Ich stelle mir vor, dass meine jetzige Planung (15''-Pal-Monitor, schneller PC, Edius+HD Storm plus Bay mit (SD)-Komponente, die auch SD-Vorschau erlaubt), qualitativ subjektiv nicht viel schlechter wäre. Die HD-Auflösung kommt natürlich nicht ganz so zur Geltung, bei Farbkorrekturen sieht man feinere Strukturen nicht. Aber auf dem PC-Monitor kann ich die Schärfe ja seperat beurteilen, und so High-End sind meine Ansprüche auch wieder nicht. Vor allem will ich erstmal SD weiterarbeiten können, und das geht so optimal.

Bleibt nur noch die Frage, wie ich auf dem neuen Rechner denn dann MiniDV capturen kann, ob sich die HD-Storm mit einer Firewirekarte verträgt, ob diese unter Edius nutzbar ist. Denn das will ich weiterhin, wie gesagt.

Kameraentscheidung für HD ist auch noch nicht getroffen, hab den Eindruck, dass man da weiterhin besser noch abwartet. Irgendwas zwischen GH-1 (AVCHD nervt, 1 CMOS statt 3 CCD, Farben wirkten auf mich etwas schwach, sonst interessant) oder AG-HPX171E (3CCD statt CMOS, DVCPRO P2HD, aber nur 1/3 Zoll CCDs wie bei der DVX100, schöne Farben, aber bischen unscharf? teuer, "aufgemotzte DVX100") und Red Scarlet (Nägel mit Köpfen, günstig, 2/3-Chip, aber nur einer und CMOS?, Zukunftsmusik, erst im Herbst, exotischer Codec, 2K, 3K-Auflösungen bisher nur unter Mac schneidbar?) oder einer der guten Consumercams (welche sind das? AVCHD...). Mit Abwarten steht man da wohl eher auf der sicheren Seite, HD läuft einem ja nicht davon (außer bei Röhrenmonitoren, leider), und im Zweifelsfall fallen die Preise, bzw. neue Sachen kommen.

Ich hab so ein bischen das Gefühl, und es verstärkt sich, je länger ich recherchiere; dass MiniDV so eine Art Betriebsunfall war. Gedacht als Consumerformat war es ein Quantensprung von Hi8 oder VHS, und ist so wenig komprimiert, dass man super und professionell damit arbeiten kann. Da wird es aber schwierig, dem Broadcast/Profi-Segment zu vermitteln, warum sie denn so viel Geld mehr ausgeben sollen. Man behielt sich dann die größeren Chipgrößen oder besseres Color-Subsampling für das Semi/Profisegment vor, aber was die tatsächliche Qualität etc. anging, war es nicht soo ein Unterschied. Die letzten MiniDV-Cams gingen ja auch demonstrativ wieder Richtung "Consumer"/Automatik/Sinnlos-Features.

Bei HD hat man quasi nun die Verhältnisse wieder geradegerückt: AVCHD für Consumer, schneiden wollen die ja eh nicht, nur ihre Bilder am HD-LCD-TV betrachten. Für die Profis gibts DVCpro-HD oder ähnliche Formate, mit fast den gleichen Hardwareanforderungen wie an AVCHD-Schnitt, aber aus anderen Gründen (Bandbreite vs Komprimierung).

Vom Konzept, bereits in der Kamera in mpeg4 zu komprimieren, bin ich auch überhauptnicht überzeugt, für mich ist das ein Präsentations- und kein Aufnahme-Format. Dazu der formate-Wirrwarr, wenn man kein AVCHD will. MiniDV war irgendwie smarter und besser damals. So mein Fazit meiner Reise durch die HD-Technik.

Space


Antwort von ennui:

Aber nur nochmal zum Verständnis für mich:

Es gibt SD digital (MiniDV, DVCpro, SDI, mpeg2,...) und SD analog (FBAS, S-Video, Komponente, also YUV SD?)

Es gibt HD digital (HD-SDI, HDMI, RGB?, Y"CbCr?, (X)VGA?) und HD analog (Komponente, also auch YUV, aber als HD?)?

Stimmt das so? Fragezeichen dort, wo ich etwas unsicher bin, ob ich es richtig verstanden habe.

Hat jemand sonst vielleicht einen Link zu einem Überblick und Vergleich der diversen HD/SD-Formate? Oder Beispiele, wer wie/wo z.B. YUV bei SD für was verwendet und wieviel Unterschied das real macht?

Danke...

Space


Antwort von WoWu:

Hallo ennui
... ich sehe, Du machst Dir wirklich Gedanken über das Thema, aber ein paar Dinge laufen noch durcheinander.
Es gibt SD digital (MiniDV, DVCpro, SDI, mpeg2,...) und SD analog (FBAS, S-Video, Komponente, also YUV SD?) Da war jetzt aus "jedem Dorf ein Köter" drin, MiniDV ist ein Bandformat, DVCPro ein Codec, SDI eine Hardwareschnittstelle, YUV ist ein farbformat, in diesem Fall für ein analoges Format. In der digitalen Welt liegt dies als YCbCr vor und mpeg2 kann ein Codec, aber auch ein Bitstream sein.

Aber darauf ist SD nicht beschränkt, beliebige andere Kombinationen sind ebenso möglich. Es gibt HD digital (HD-SDI, HDMI, RGB?, Y"CbCr?, (X)VGA?) und HD analog (Komponente, also auch YUV, aber als HD?)? Selbiges trifft für das HD Konvolut zu ... übrigens ist HDMI nicht auch HD beschränkt, sondern überträgt auch SD Signale. HDMI ist, wie SDI (HDSDI) lediglich eine Hardwareschnittstelle.

Mein Tipp, schau mal in mein Buch, da sind all diese Zusammenhänge ... und noch wiel mehr, erklärt. Bestimmt interessant für mich ... ich empfehle den Download ...

Was Deine Kameraüberlegungen betrifft, so tendiere ich zu 3-Chip Lösungen und verstehe wirklich nicht, warum man den CMS so verteufelt. Die Vorteile des CMOS überwiegen ganz erheblich und das bisschen RS wird von vielen Firmen schon heute per höherer Ausleserate kompensiert. Das mag aber auch daran liegen, dass wir für den Content, den wir erstellen, keine Reßschwenks machen, sondern HD angepasste Kamerabewegungen. Übrigens sehen Reßschwenks auch mit CCDs bescheiden aus, weil andere Effekte mindestens ebenso schwer wiegen.
Damit wäre RS also nicht perse ein Nachteil, sodern Du hast die Wirkungsweise selbst in der Hand.
Und was AVC(Hd) betrifft .... immerhin war MPEG2 auch kein Akquisitionsformat und jeder arbeitet damit. AVC/H.264 ist nun einmal das weiterentwickelte Format und das Märchen der überdimensionalen Rechner, das auch nur die verbreitet haben, die es nicht besser wussten, löst sich auch zusehens in heiße Luft auf.
Mit dem Warten ist das also so eine Sache, denn zukünftig wird es eher mehr, als weniger AVC Formate in den Kameras geben.

Space



Space


Antwort von ennui:

Es läuft sicher einiges noch durcheinander. Ich wollte nur mal die diversen Formate, Codecs und Standards aufzählen, in denen einem Video heute so unterkommt, und vor allem das Komponentensignal SD/HD da irgendwie einordnen. Da ich dieses gerade am interessantesten finde, weil qualitativ ja nah an SDI/HDMI, aber dabei analog, günstig, verbreitet. Jedenfalls habe ich ja nun einen Weg gefunden, damit evtl. meine Vorschau zukünftig zu betrachten.

Zu CMOS: Da spielen sicher auch Vorurteile eine Rolle, früher waren das ja die billigen schlechten Alternativen zu CCDs in Handys und Billigcams. Inzwischen scheinen sie ja schon einiges zu leisten, und haben wohl auch Vorteile, sind rauschärmer und wohl günstiger in der Produktion, usw.

Aber dass einem die Kamera nun irgendwelche Vorgaben macht, wie oder was man filmen soll (gibt es von Panasonic nicht eine aktuelle, die gerne mal warnt "sie haben zu schnell geschwenkt"?), also technisch (noch mehr als bisher) Einfluss auf die Film/Videogestaltung nimmt, ist für mich inakzeptabel. Das Ding ist ein Werkzeug, mit dem ich umsetzen will, was mir einfällt, nicht andersrum. Wenig Licht - Bild schlecht ist klar, aber dass nun Dinge nicht mehr gehen sollen (Reißschwenks), die bisher gingen, ist ja nun wirklich ein Rückschritt. Das passt aber ganz gut zu Consumercams, die nun Gesichter erkennen, Hautunreinheiten beseitigen, nur lächelnde Personen aufnehmen, oder zu den ganzen Modi wie: "Sport, Kerzenschein, Sonnenuntergang, Hochzeit, Süßes-Baby-Makro", etc. Sorry, ich will aber andere Sachen filmen. Und wenn es aus irgendeinem Grund passieren sollte, dass ich mal einen schnell bewegten Bildhintergrund haben will, aus dem rasenden Zug filme, oder Bäume im Wind oder einen Bach filmen will, oder sonst was, was dann den Codec oder Sensor zum Wahnsinn treibt, weil dessen Entwickler nicht annahmen, dass irgendjemand so etwas verrücktes filmen wollen würde; dann ist das für mich erst mal unbrauchbare Technik und kein Fortschritt. Was kommt dann als nächstes, Kameras, die abschalten, wenn die Gesichtserkennung keine Personen oder Sonnenuntergänge im Bild erkennt? Oder kommt dann eine Meldung: "Warnung: kein Motiv im Bild gefunden"?

Und dass für Video Codecs/Kompressionsverfahren wie MiniDV oder Motion-jpeg oder andere zurückhaltendere Intra-Frame-Verfahren besser geeignet sind als diese ganzen GOP-mpeg-Geschichten, dass man sich da beim Schnitt dann lauter Probleme einhandelt, ist auch mir als relativem Laien klar. Live erlebt habe ich es auch schon. Deswegen handhaben die professionelleren Codecs es ja auch so. Den Leuten AVCHD hinzustellen und zu sagen, "super, da könnt ihr jetzt HD filmen und gucken, aber leider ist das dermaßen komprimiert, dass ihr da jetzt allerneueste Quadcore+-Rechner braucht, wenn ihr das jetzt doch mal schneiden wollt", freut zwar den PC-Handel, aber nicht mich. Einziger Vorteil ist da die verminderte Datenrate. Mp3 zb. klingt ja auch super, aber niemand würde 128b/s-Mp3 als Tonmaterial von seinem Tonmann akzeptieren. Selbst die Consumercams haben da 48khz-PCM - bisher jedenfalls. Und Speicher und hohe Datenraten werden immer günstiger. Sieht man ja auch alles an der Red Kamera: sowas geht durchaus. Die großen Hersteller sollten da lieber mal ähnlich innovativ sein, statt immer dieselben Modelle leicht geupgraded neu herauszubringen, und das machen, was technisch möglich ist, statt sich von den Marketingabteilungen anzuhören, was die Kunden angeblich machen oder wollen oder nicht brauchen. Oder "HD-Ready". Was bin ich froh über meinen alten Panasonic-TV. Da haben sich dann alle zur WM diese neuen "HD"-TVs geholt, und ich schwieg dann immer höflich - aber das (skalierte Pal-)Bild sah so grottig aus, dunkel, flau, matschig. Jetzt gibts bessere, und alle ärgern sich.

früher hatte man wirklich das Gefühl, dass es einfach Fortschritt in der Technik gibt, und Dinge wurden besser. Seit einiger Zeit wird es nur billiger, aber stagniert qualitativ, oder es geht sogar wieder rückwärts. Windows Vista, AVCHD, HD-Ready, DVB-T mit den miesen Datenraten... 1/8-CCDs... Megapixel-Giganten mit flauen Bildern... Regional-Codes, HDCP, Content-Management.. was ist da los?

Das Bild meiner GS500-Kamera gefällt mir zb. weiterhin besser als alles an HD in der Preislage, was ich mir so angeschaut habe, von der technischen Auflösung mal abgesehen.

Aber das Buch hab ich mir mal bestellt, zur Weiterbildung.

Gruß..

Space


Antwort von WoWu:

@ ennui
In weiten Teilen stimme ich Dir völlig zu, aber es ist nicht alles ganz so schlecht in der neuen Technik ... es gibt auch Fortschritt, nur darf man eben nicht in alle Fußangeln treten, die die Industrie für die Konsumenten auslegt und man darf nicht auf jeden lausigen Werbespruch hereinfallen und nicht jeden gold glänzenden Aufkleber für ein Qualitätsmerkmal halten.
Die Industrie lebt von getäuschten Consumenten und ein großer teil der Fachpresse verbreitet auch nur noch gefärbte, von Marketing- und PR-Leuten vorgefilterte Informationen. Daher ist es ja so wichtig, sich ein eigenes, unabhängiges Bild zu machen und über den eigenen Tellerrand blicken und Augenmaß zu wahren: Anstrengend, aber möglich.
Aber ich sehe, Du bist da auf einem guten Weg.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


Flimmern 60 Hz - Unterschied DSLR / Camcorder?
Mattebox unterschied
RØDE VideoMic NTG: Neue Firmware bringt volle iOS-Kompatibilität und neue Funktionen
AJA veröffentlicht BRIDGE LIVE v1.12 mit neuer NDI- und HLS-Kompatibilität
Windows 11 Kompatibilität (Resolve)




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash