Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Infoseite // 1080i50 und 1080p25 - Unterschied?



Frage von deepbluetube:


Hallo, ich muss mal eine konzeptionelle Frage stellen - ich sage gleich am Anfang Entschuldigung, weil die wahrscheinlich nicht neu ist, aber ich kapier's einfach nicht ;-)

25p heißt 25 Vollbilder. Nun lese ich öfter, dass diverse Camcorder das zwar eigentlich filmen (so z.B. die Canon HV10), aber es als 50i, also 50 Halbbilder auf dem Band speichern - und so kommt's dann auch als footage auf dem Computer an.

Weiter lese ich, das wäre auch nötig, weil es 1080p25 eigentlich "gar nicht gibt" (klar, könne man technisch erzeugen, aber wäre gar nicht "offiziell spezifiziert). Hmmm.

DESHALB sei 50i und 25p eigentlich GENAU DAS GLEICHE.

Ich habe aber eher den Verdacht, dass z.B. die HV10 tatsächlich 50 Bilder pro Sekunde filmt und diese dann als Halbbilder auf das Band schreibt. Wenn das so ist, dann ist das nicht GENAU DAS GLEICHE. Denn dann ist zwischen zwei Halbbildern ja auch ein zeitlicher Versatz von 1/50 sec.

Das macht dann schon einen Unterschied. Denn im ersten Fall kann ich daraus ohne jeden Verlust deinterlacen auf 25p, im zweiten Fall muss ich darüber nochmal nachdenken und lasse es vielleicht 50i?

Und überhaupt nicht klar ist mir, warum immer mal wieder jemand schreibt, 50i wäre platzsparender als 25p. Warum soll 50 mal 1/2 platzsparender als 25 mal 1 sein?

Dank für Erklärung im Voraus, könnte hoffentlich auch ein paar andere interessieren.

Best g.

Space


Antwort von PowerMac:

Falsch. Es gibt 1080/25p genauso wie 1080/50i. Tatsächlich speichern einige Bandformate 1080/25p technisch in Halbbilder, als Transport-Stream.
Andere Speicherarten können sehr wohl direkt in 25p speichern. Etwa P2, XDCAM…

Space


Antwort von PowerMac:

(…) Und überhaupt nicht klar ist mir, warum immer mal wieder jemand schreibt, 50i wäre platzsparender als 25p. Warum soll 50 mal 1/2 platzsparender als 25 mal 1 sein? (…) Sagt niemand.

Space


Antwort von deepbluetube:

Falsch. Es gibt 1080/25p genauso wie 1080/50i. Tatsächlich speichern einige Bandformate 1080/25p technisch in Halbbilder, als Transport-Stream.
Andere Speicherarten können sehr wohl direkt in 25p speichern. Etwa P2, XDCAM… ok - das klärt schon mal was. Und wie sehe ich (oder mein Freund Adobe ;-) einem m2t an, ob darin ein 25p "als 50i" verpackt drin ist oder ein "wirkliches 50i, das wirklich zeitlich versetzt 50 halbe Bilder sind"? Denn das würde ich doch im weiteren workflow unterschiedlich behandeln?

Space


Antwort von Jan:

25 P und 50i können schon mal gar nicht das Gleiche sein.

Nimm dir dazu mal eine Canon HV 20 & 30 und filme mit 25 P und 50 i - den Unterschied dürfte wirklich jeder sehen. In der Regel erhälst du bei 25 P ein wenig mehr "Licht" - das Signal muss also nicht so stark verstärkt werden. Vollbilder (wenn sie als Vollbilder erzeugt worden) besitzen auch eine bessere Stabilität und weniger Unruhe, der Flimmereffekt der Halbbilder - ist dort auch nicht zu erkennen.

Die Frage dürfte eh bei den Modellen sein, wie liest die Kamera die Bilder aus, der eine macht es gern progressiv (zb einige Sonys) der andere interlaced (zb einige Canons). Über den Workflow ist wenig bekannt, die eine Firma bleibt am Anfang der Kette beim Sensor gleich progressiv und arbeite damit um am Schluss interlaced rauszugeben, andere bleiben gleich bei den Hallbildern.

Einige Firmen werkeln eh viel zusammen, ich hab zuletzt mal eine Canon Platine auseinandergenommen, und was für Speicherbausteine finde ich da (ich kann im Moment leider keine Bilder hochladen) von NEC und Sony !

Man braucht aber defintiv mehr als 25 P um Bewegung besser darzustellen, oder halt eine höherklassige Kamera - die damit besser umgehen kann als die Consumermodelle.

25 P besonders bei den angesprochenen Canon Modellen ist aber bei bewegten Motiven nur bedingt zu empfehlen, halt eine schlechte Bewegungsdarstellung. Aber als Feature schon nett um einen anderen Look zu erhalten.

Wie die SW Programme das Material interpretieren muss man schauen - da lass ich den Schnitterfahrenen hier den Vorzug.



VG
Jan

Space


Antwort von Anonymous:

Ich verstehe immer mehr... danke an alle. Nun würde ich wirklich vor allem gern noch wissen, wie ich rauskriege, was in dem m2t footage wirklich drin ist, dass meine HV10 hinterlässt. Ein als 50i codiertes 25p oder ein "echtes 50i" mit versetzten Halbbildern? Weiss es jemand, oder hat jemand einen Tipp, wie man es rauskriegt?

Space


Antwort von Jan:

Hatte die HV 10 überhaupt eine 25 P & F Funktion, die man im Menü genau wie bei der HV 20 & HV 30 umstellen kann ?


Soweit ich mich noch erinnern kann (ich hab die HV 10 bestimmt schon 1 Jahr nicht mehr gesehen) - nein.


Canon spricht in ihren Unterlagen der HV 10 immer nur von Halbbildverarbeitung 1080i, niemals ist die Rede von P & F.

Bei der HV 20 & 30 wird von der Verschmelzung von 2 Halbbildern geredet. Ich geb mal zu, ich habe beim 25 P Modus gar nicht darauf geachtet, was die Schnittprogramme dort anzeigen.


VG
Jan

Space


Antwort von Jan:

Ja, hab es auch gelesen :

Thread: Test: Canon HV30 – Verpasste Evolution

Bin mir aber nicht ganz sicher ob das wirklich zu 100 % stimmt.

Da ich im 25 P Modus mit einer HV 20 & 30 auch mit einer 1/ 50 sek filmen kann, es ist nicht automatisch die 1/25 sek vorgeschrieben.

Ausserdem wären es dann nicht 2 gleichzeitig erstellte & zusammengefügte Halbbilder wie bei den HV 20 & 30.

Ich glaube das können nicht viele mit Sicherheit sagen - was dort Sache ist, möglicherweise WoWu.

VG
Jan

Space


Antwort von WoWu:

Ich weiss nicht, ob ich die Frage wirklich richtig verstanden habe aber der P Modus setzt auf jeden Fall schon einmal einen solchen Bildsensor voraus, bei dem die gesamte Auflösung auch (in einem Stück) abgerufen werden kann.
Das ist für einige bei 720 noch leistbar aber bei 1440 wird die Luft schon dünnern und bei 1920 wird das eine andere Liga. Möglich wären eben dann auch Pixel-shifts, die in der Summe eben auch ein progressives Bild zulassen.
Soviel ich aber von der Canon weiss, setzt sie in Ermangelung echter Progressivbilder zwei interlaced Bilder zusammen.
Dafür, sozusagen als kleines Trostpflaster, setzt sie die Bilder aus mehr als nur 50% der erforderlichen Zeilen zusammen, sodass das Bild eine erheblich feinere Anmutung bekommt.
Danach ist eigentlich alles nur noch "Schall und Rauch", was immer mit dem Signal dann gemacht wird und wie die Header im TS gesetzt werden ist frei gestaltbar. In der HV 20 habe sie das glaube ich noch F genannt und ich weiss nicht, ob sich das zur HV30 geändert hat.
Beispielsweise macht die neue JVC daraus ja auch 1080p, wenn ich mich da richtig dran erinnere. Und letztlich an dieser Signalisierung orientiert sich das NLE ....
Das Signaling sagt aber nichts, und wieder nichts darüber aus, wie die Bilder "zusammengemurxt" wurden. Das bezieht sich jetzt nicht auf Canon, weil die es noch relativ vernünftig und in guter Qualität hinbekommen und die höhere Fieldauflösung ist gegenüber andern Herstellern, die lediglich die "echte" Halbbildauflösung abliefern ja durchaus auch ein Vorteil.
Nun kann man sich streiten, ob die Kamera den besseren De-Interlacer hat oder das NLE.
Bei den meisten NLEs würde ich die Canon-Performance vorziehen, zumal sie auch auf gute Hardware zurückgreifen kann.
Falls ich die Frage nicht wirklich verstanden (beantwortet) habe, hilft nur nachfrage.
Noch ein Tip zum "rauskriegen" Interlacing läst sich nicht verstecken, und bei einer Bildanalyse wird man die Effekte finden.
Ich habe in einem andern Thread schon einmal den Papst des De-interlacing zitiert (Yves Faroudja), der es auf den Punkt gebracht hat: Es funktioniert nicht.

Space



Space


Antwort von PowerMac:

Es geht hier doch nur um Fernsehnormen und nicht mehr. Es gibt 1080/25p. Frage beantwortet:)

Space


Antwort von WoWu:

Dann hast Du die Lektüre des Threads aber auf die Headline beschränkt ....

Space


Antwort von Anonymous:

Hallo Wowu,

Ich habe bei dem älteren Canon HV10 Test hier gefunden:
"Eine nähere Analyse zeigte, dass der HV10 tatsächlich bei 25 FPS nur Vollbilder aufnimmt. Die Interlaced-Streifen sind beim Schnitt nicht mehr vorhanden. Doch man darf sich nicht zu früh freuen: Offensichtlich kostet der 25FPS-Modus auch etwas Bildschärfe."

Zusammen mit dem was Du weiter oben erklärst, würde ich das wie folgt zusammen setzen:

1. Der HV10 Chip scheint 25 Vollbilder in 1440*1080 zu schaffen. Steht die Kamera auf "TV 25 FPS" dann erzeugt sie auch einfach 1440*1080p25. Wahrscheinlich schreibt sie das aber trotzdem als 50i auf das Band und es kommt als ein 50i m2t als nach dem capturen auf dem Computer an. So frisst es dann das NLE. Da ist mir dann nicht klar, ob ein NLE irgenwie erkennt, dass es dann eigentlich gleich wieder verlustfrei 25p daraus machen kann (da hätte doch dann auch Faroudja nicht gegen) oder ob es lieber mal die 50 Halbbilder in Ruhe lässt.

2. Wenn der Camcorder NICHT auf 25FPS steht, dann überfordert das die Hardware, wie Du oben erklärst. Sie wird dann die Vollbilder nicht mehr schnell genug vom Chip bekommen. Also erzeugt sie dann tatsächlich 1440*1080i50, wobei die Halbbilder wie von Dir erklärt sogar etwas besser als "halb" sind, aber sie sind wirklich zeitlich um 1/50 versetzt sie sind wirklich interlaced. Dann zum NLE weiter wie bei (1). Dann sollte das NLE auch tunlichst 50i in Ruhe lassen und nicht unaufgefordert irgendwas deinterlacen. Aber auch da frage ich mich, ob ein NLE das irgendwie selbst erkennt und irgendwie darauf reagiert.

3. Nochmal zu dem slashcam-Test: "Eine nähere Analyse zeigte, dass der HV10 tatsächlich bei 25 FPS nur Vollbilder aufnimmt. Die Interlaced-Streifen sind beim Schnitt nicht mehr vorhanden." - ok, da hat also wirklich jemand mal genau zwei Bilder verglichen. Ich lese das so, dass der Camcorder trotzdem 50i hinterlassen hat, nur eben, dass zwei Bilder hintereinder exakt ineinander passen und deshalb wirklich ein echtes Vollbild ergeben. Correct me, if I'm wrong. Wenn's so ist, warum um Gottes willen, machen die dann aber überhaupt 50i für das Band und für den m2t daraus und lassen es nicht einfach 25p???

Grüße und Dank für feedback g.

Space


Antwort von Anonymous:

Das Nichtvorhandensein von Kammeffekten durch Deinterlacing ist noch lange kein Beweis für eine waschecht progressive Aufnahme. Es stimmt schon was Yves Faroudja nach dem Verkauf seiner Firma sagte: perfektes Deinterlacing gibt es nicht.
Wie soll auch das zweite Halbbild mit 1/50 sec. Zeitversatz aufgenommen und wo sich div. Objekte im Bild gleichzeitig in verschiedene Richtungen bewegen können danach korrekt auf den Zeitpunkt der Aufnahme des ersten Halbbildes zurückgeführt werden können? Es geht geht eben nur annähernd, aber nicht perfekt

Space


Antwort von Axel:

... warum um Gottes willen, machen die dann aber überhaupt 50i für das Band und für den m2t daraus und lassen es nicht einfach 25p??? Die 25F waren lassen sich überhaupt erst seit ca. 12 Monaten von den Schnittprogrammen korrekt interpretieren. Canon bot auf der Support Homepage kostenlose Preset-Downloads an, nachdem das Prosumer Flaggschiff XL H1 in vielen Tests wegen seines pseudo progressiven Modus belächelt worden war (ohne das richtige NLE hoppelt das Bild wie ein Osterhase). Ein Camcorder muss auch für Kompatibilität sorgen, und so hat man sich eben für HDV entschieden, und das ist immer "i".

Panasonic mit der HVX und Sony mit der EX1 haben gleich auf alternative Formate gesetzt, aber das sind Kameras über 5000 €. Man kann darauf bauen, dass die Käufer sich informieren und auf einen aufwändigeren Workflow gefasst sind, bzw. auf eine teurere Software.

Würden sich die ganzen kleinen Festplatten- und DVD-Cams die Mühe machen, vor der Markteinführung Updates für alle gängigen NLEs zu erarbeiten, anstatt eine unbrauchbare eigene Software in die Schachtel zu legen,- sie wären eine echte Alternative.

Also lieber mit einem kleinen Trick (, der eigentlich nicht neu ist, alle Spielfilm-DVDs haben quasi 25F, und bei DV, das per definitionem auch "i" ist, gibt es den Trick auch schon) Vollbilder in einen handelsüblichen Stream einschmuggeln, als dieses Codec Babylon.

Space


Antwort von Axel:

Das Nichtvorhandensein von Kammeffekten durch Deinterlacing ist noch lange kein Beweis für eine waschecht progressive Aufnahme. Es stimmt schon was Yves Faroudja nach dem Verkauf seiner Firma sagte: perfektes Deinterlacing gibt es nicht.
Wie soll auch das zweite Halbbild mit 1/50 sec. Zeitversatz aufgenommen und wo sich div. Objekte im Bild gleichzeitig in verschiedene Richtungen bewegen können danach korrekt auf den Zeitpunkt der Aufnahme des ersten Halbbildes zurückgeführt werden können? Es geht geht eben nur annähernd, aber nicht perfekt Es WIRD gar nicht deinterlaced! Canon beschreibt das Prinzip im Handbuch (A1): Nimmt progressiv auf (A/B/C) und gibt Signale aus, die in 50 B/s umgewandelt werden (a/a/b/b/c/c). Die Videoausgabe vom HDV-Eigang erfolgt mit 25 B/s interlaced.
Also 50 Felder, um dem 50i Standard gerecht zu werden, aber die Halbbilder ergänzen sich zu einem Vollbild. Dem NLE muss nun mitgeteilt werden, dass die Bilder keine Halbbildreihenfolge haben. Dieser Flag existiert für DV in allen Programmen, für HDV aber eben nicht.

Space


Antwort von Anonymous:

Ja wenn dem so ist, dann gibt es ja ohnehin nichts zu meckern, die Ausgabe über zwei Halbbilder aus ein und demselben Vollbild ist ja nicht das Problem.
WoWu bezweifelte ja nur, ob es wirklich so läuft und das insbesonders bei den 1920-er Chips, welche in einer anderen Liga laufen. Falls das "Vollbild" also entgegen den Prospektangaben intern doch aus zwei zeitversetzten Halbbildern "zusammengemurxt" wird, sieht die Sache natürlich schon wieder ganz anders aus.

Space


Antwort von DeeZiD:

Laut Canon ist der 25pf Modus im Gegensatz zum 25f Modus der A1 echtes Progressiv, was zugegebenermaßen aber auch recht leicht zu erkennen ist...

Der Deinterlacer der A1 (welchen die HV20/HV30 durch die progressive Abtastung nicht benötigt) arbeitet nur mittelmäßig. Am PC sind die Resultate z.B. mit Avisynth (z.B SecureBob oder McBob) deutlich besser.



Also an alle A1-, G1-, H1-Besitzer, filmt Interlaced und deinterlacet am PC mit Avisynth!

Gruß Dennis

Space


Antwort von Anonymous:

Echt progressive Aufnahmen, welche dann aber über zwei Halbbilder ausgelesen wurden gab es übrigens schon bei der FX1. Man musste nur die Belichtungszeit auf 1/25 oder länger stellen. War sofort daran erkenntlich, dass ein nachträgliches Deinterlacing der zwei Halbbilder mit diesen Belichtungszeiten keinen Effekt mehr brachte. Das Bild war mit oder ohne Deinterlacing indentisch.

Space



Space


Antwort von deepbluetube:

... Es WIRD gar nicht deinterlaced! Canon beschreibt das Prinzip im Handbuch (A1): Nimmt progressiv auf (A/B/C) und gibt Signale aus, die in 50 B/s umgewandelt werden (a/a/b/b/c/c). Die Videoausgabe vom HDV-Eigang erfolgt mit 25 B/s interlaced.
Also 50 Felder, um dem 50i Standard gerecht zu werden, aber die Halbbilder ergänzen sich zu einem Vollbild. Dem NLE muss nun mitgeteilt werden, dass die Bilder keine Halbbildreihenfolge haben. Dieser Flag existiert für DV in allen Programmen, für HDV aber eben nicht. Es gibt zwei Möglichkeiten, Vollbilder zu übertragen: als ganzes (progressive) oder als zwei aufeinander folgende Halbbilder mit demselben Zeitindex (progressive with segmented frames, psF). ... Auch das HDTV-Format 1080i wird häufig in diesem Modus verwendet, wohingegen 720p und das neue 1080fullHD (1080p) in der Regel mit echten Vollbildern gesendet werden.
Von „http://de.wikipedia.org/wiki/Vollbildverfahren

Wenn also der Camcorder 25p intern schafft, und wenn er das dann aus Kompatibilitätsgründen auf 50i ausgibt, dann doch mit demselben Zeitindex für die zwei fields eines frames.

Genau das kann doch der NLE lesen - auch bei HD, oder gerade da. Ich würde auch sagen, so passierts, denn mein Premiere meint, nach dem Import eines gecapturten m2t mit50i, es hätte 25 fps frames in jedem Clip. Stimmt ja auch, wenn die Zeitcodes der 50 fields nur 25 frames ergeben.

Wenn der Camcorder nun beim Aufnehmen auch noch auf 25 Bilder/Sec stand, dann muss das ja zwangsläufig echtes 25p ohne jeden Versatz zwischen zwei fields eines frames ergeben.

Läßt man die 25 Bilder/sec - Einstellung weg, dann würde ich annehmen, dass die zwei fields eines frames tatsächlich zeitlich versetzt sind - selbst wenn die Kamera trotzdem hartnäckig für die zwei fields den gleichen Zeitindex schreibt. Das wäre dann ungefähr so, als wenn man 25p filmen würde, aber einen 1/50 shutter hätte. Wäre nicht schlecht, wenn's so wäre.

Kann aber auch alles ganz anders sein, als ich mir das in meinem Layenkopf so denke...

Space


Antwort von Anonymous:

Sehe ich genau so, wobei meines Wissens CCDs im Gegensatz zu CMOS zunächst mal gar nicht zeilenweise also interlaced ausgelesen werden können. Vermutlich also 50 mal/s progressiv in einen Zwischenspeicher auslesen, von dem dann beim i-Verfahren aus der 50 fps Gesamtmatrix abwechselnd mal die geraden und nach 1/50 sek. die ungeraden Zeilen weiterverwertet werden.
Also kurz: bei CCD kann ich mir die Notwendigkeit ein internen Zusammenwurschtelns aus Halbbildern zu einem Vollbild gar nicht so recht vorstellen. Aber was weiß man schon Genaues?

Space


Antwort von Anonymous:

Sehe ich genau so, wobei meines Wissens CCDs im Gegensatz zu CMOS zunächst mal gar nicht zeilenweise also interlaced ausgelesen werden können. Vermutlich also 50 mal/s progressiv in einen Zwischenspeicher auslesen, von dem dann beim i-Verfahren aus der 50 fps Gesamtmatrix abwechselnd mal die geraden und nach 1/50 sek. die ungeraden Zeilen weiterverwertet werden.
Also kurz: bei CCD kann ich mir die Notwendigkeit ein internen Zusammenwurschtelns aus Halbbildern zu einem Vollbild gar nicht so recht vorstellen. Aber was weiß man schon Genaues? Soweit ich weiß, ist es genau andersrum. :D
Die CCDs der A1/G1/H1-Reihe sind Interlaced, werden auch so ausgelesen.
Der 25f-Modus ist nichts anderes als ein durch einen (doch recht mäßigen *arghhh*) Deinterlacer "zusammengewurschtelten Progressive-Mode.

Da sind mir die 100%ig progressiven CMOS-Sensoren der HV20 oder der EX1 lieber.


Gruß Dennis

Space


Antwort von Axel:

Kann aber auch alles ganz anders sein, als ich mir das in meinem Layenkopf so denke... Mir geht es auch so. Ich weiss, dass die A1 Vollbilder liefert, da ich äußerst misstrauisch bin, was Halbbildeffekte bei deinterlaceten Bildern betrifft. Bei der A1 sind keine vorhanden, auch nicht bei sehr schnellen Bewegungen und bei Bewegungsunschärfe. Dann kommt es eher zu den für HDV typischen Schmiereffekten, die in "i" ebenso störend sind. Ich lese jedoch auch, dass es zu 11% Auflösungsverlust im "f" Modus kommt, was schon irgendwie mit dem CCD Chip zu tun haben muss und mit dem, was DeeZiD sagt: Laut Canon ist der 25pf Modus im Gegensatz zum 25f Modus der A1 echtes Progressiv, was zugegebenermaßen aber auch recht leicht zu erkennen ist...

Der Deinterlacer der A1 (welchen die HV20/HV30 durch die progressive Abtastung nicht benötigt) arbeitet nur mittelmäßig. Am PC sind die Resultate z.B. mit Avisynth (z.B SecureBob oder McBob) deutlich besser. Das glaube ich erst, wenn ich es sehe. Bis dahin (für mich auf einem Mac etwas aufwändig einzurichten, da ich erst Windows installieren müsste) gilt, dass mir bekannte und zugängliche Deinterlacer, auch der z.B. im Viera TH-50PV7 verbaute (zugegeben, kein FullHD) bei "i" schlechtere Bilder produzieren als bei "f". Das gilt immer nur für viel Bewegung.

Space


Antwort von Anonymous:

Ich weiss, dass die A1 Vollbilder liefert, da ich äußerst misstrauisch bin, was Halbbildeffekte bei deinterlaceten Bildern betrifft. Bei der A1 sind keine vorhanden, auch nicht bei sehr schnellen Bewegungen und bei Bewegungsunschärfe. Das erscheint mir auch logischer zu sein. Denn CCD Halbbildsensoren (für die A1) kann ich mir schon mal überhaupt nicht vorstellen. Da müssten dann ja 6 davon vorhanden sein, jeweils 3 für gerade und 3 für ungerade Zeilen ;-))

Space


Antwort von DeeZiD:

Zumindest werden die CCDs der A1/G1/H1, wie bei vielen anderen Kameras auch, Interlaced ausgelesen.

Hier mal eine Erklärung des 25f Modus:
http://www.videomaker.com/blog/2006/11/ ... -and-xh-g1


Gruß Dennis

Space


Antwort von Axel:

Ich weiss, dass die A1 Vollbilder liefert, da ich äußerst misstrauisch bin, was Halbbildeffekte bei deinterlaceten Bildern betrifft. Bei der A1 sind keine vorhanden, auch nicht bei sehr schnellen Bewegungen und bei Bewegungsunschärfe. Das erscheint mir auch logischer zu sein. Denn CCD Halbbildsensoren (für die A1) kann ich mir schon mal überhaupt nicht vorstellen. Da müssten dann ja 6 davon vorhanden sein, jeweils 3 für gerade und 3 für ungerade Zeilen ;-)) Zumindest werden die CCDs der A1/G1/H1, wie bei vielen anderen Kameras auch, Interlaced ausgelesen.

Hier mal eine Erklärung des 25f Modus:
http://www.videomaker.com/blog/2006/11/ ... -and-xh-g1 Ja, dass CCD zeilenweise ausgelesen werden, ist mir so geläufig, und "Gast" hat mich da wohl missverstanden. Wenn du eine Möglichkeit siehst, einige Sekunden mit Avisynth deinterlacetes Material bei rapidshare o.ä. als m2t hochzuladen (Autoverkehr z.B., irgendwas mit schneller Bewegung), wäre das nett.

Space


Antwort von Anonymous:

Recherchen im Internet haben ergeben, dass es für Videokameras tatsächlich auch CCD-Sensoren gibt, die von Haus aus interlaced auslesen können. Nachteil: sie sind so hoch spezialisiert, dass sie nur dieses können und nicht auch progressiv wie bei CMOS.
Daher: kaum vorstellbar, dass die A1 so "progressiv" auslesen kann wie ein speziell progressiv und wiederum nur so arbeiten könnender CCD

Space


Antwort von deepbluetube:

Sehe ich genau so, wobei meines Wissens CCDs im Gegensatz zu CMOS zunächst mal gar nicht zeilenweise also interlaced ausgelesen werden können. Vermutlich also 50 mal/s progressiv in einen Zwischenspeicher auslesen, von dem dann beim i-Verfahren aus der 50 fps Gesamtmatrix abwechselnd mal die geraden und nach 1/50 sek. die ungeraden Zeilen weiterverwertet werden. Glaub' ich nicht. Siehe weiter oben, siehe WoWu. 50 Vollbilder schafft kein CCD-Chip und auch kein CMOS (im Consumer-Bereich). Entweder kommen 50 Halbbilder vom Chip und die dann auch so auf's Band oder es sind 25 Vollbilder und die interlaced die Kamera dann je auf 2 fields. Oder, bestenfalls, schafft ein (Canon, laut WoWu) Chip etwas mehr als die Hälfte für jedes der 50 fields zu lesen und daraus mischt die Kamera dann irgendwas für jeweils zwei fields in einem frame. Was von den drei Varianten passiert, scheint von Kamera zu Kamera verschieden und recht geheimnisvoll, wenn man mal so den ganzen thread liest, den ich hier angezettelt hab'.

So würde ich hier mal alles zusammen fassen (was ich gelernt habe...).

Space



Space


Antwort von Anonymous:

Es dürfte im Consumerbereich diesbezüglich tatsächlich ein internes Bandbreitenproblem geben. Und WoWu hat recht, ein wirklich progressives Auslesen, egal von welchem Sensor ist derzeit nicht üblich

Space


Antwort von DeeZiD:

Es dürfte im Consumerbereich diesbezüglich tatsächlich ein internes Bandbreitenproblem geben. Und WoWu hat recht, ein wirklich progressives Auslesen, egal von welchem Sensor ist derzeit nicht üblich Und ob es das ist.

Die EX1, die HV20, die HVX200 oder diverse neue andere werden progressiv ausgelesen.

Bei der EX1, der HVX200 und der HV20 hat man dann netterweise auch noch die Möglichkeit ohne Interlacing-Irrpfade progressiv zu speichern.


Gruß Dennis

Space


Antwort von PowerMac:

So besonders ist das Auslesen von Vollbildern nun nicht gerade. Meine alte DVX macht das seit fünf Jahren (meine ist erst vier Jahre alt). Etwa die EX1 arbeitet intern mit 1080/50p. Die ganzen Sony-Studio- und Systemkameras arbeiten intern mit 1080/60p.

Space


Antwort von TheBubble:

Zuerst kommt die Aufnahme:

Viele Kamera CCDs sind Interlace-CCDs. Aus ihnen kann man entweder ein oberes oder ein unteres Halbbild auslesen. Intern werden hierbei die Ladungen zweier aneinander angrenzender Zeilen aufsummiert. Je nachdem, ob man zwei Zeilen nach oben oder unten hin zusammenfasst, erhält man ein oberes oder ein unteres Halbbild (eine Zeile bleibt hierbei immer ohne Verwendung, ob sie oben oder unten liegt hängt davon ab, für welches Halbbild man sich entscheidet). Da dieses Summieren wie ein vertikaler Tiefpassfilter wirkt, unterdrückt man auch gleich unerwünschtes Interlace-Flimmern an horizontalen Kontrastkanten.

Da nun einige Kameras über drei interlace CCDs verfügen, ergibt sich die Möglichkeit, trotz Verwendung von Interlace-CCDs, ein besseres Vollbild zu erzeugen, als einfach nur ein Halbbild auszulesen und jede zweite Zeile zu interpolieren. Hier liest man z.B. vom roten und blauen CCD das obere Halbbild und vom grünen CCD das untere Halbbild ein. Pro Farbkanal muss jetzt zwar immer noch jede zweite Zeile interpoliert werden, aber anderseits hat nun jede Zeile auch echte Messwerte (von mindestens einem Farbkanal), was zu einer höheren Helligkeits-Auflösung führen kann (wenn die Farben des Motivs geeignet sind).

Es mögen auch ähnliche oder andere Verfahren angewendet werden, um mit interlace CCDs noch bessere Vollbilder zu erhalten. Es kam mir eben nur auf ein Prinzip an, wie so etwas angegangen werden kann.

Neben den interlace CCDs gibt es auch progressive CCDs oder progressive CMOS-Bildwandler. Hier werden immer Vollbilder ausgelesen und die Halbbilder, falls gewünscht, nachträglich erzeugt. Eine Tiefpassfilterung sollte beim Erstellen von Halbbildern auch stattfinden, um Interlace-Flimmern zu vermeiden.

Das war die Aufnahme, nun kommt die Speicherung:

Wie auch immer man zu Vollbildern gekommen ist, man will sie natürlich als solche speichern.

Praktisch angewendet werden zwei Varianten: Entweder als echten Vollbildfilm mit Vollbild-Codec (die im Grunde offensichtliche Variante), oder als Vollbilder mit einem Interlace-Codec/Dateiformat (aus Kompatibilitätsgründen, wenn z.B. keine Vollbild-Variante in die Spezifikation eines Aufzeichnungsformats mit aufgenommen wurde).

Letzteres funktioniert deshalb, weil zwei zeitversetzte Halbbilder für einen Interlace-Codec vorher zu einem Vollbild mit den bekannten Kammartefakten verwoben werden. Vereinfacht ausgedrückt kann der Interlace-Codec mit derartigen Artefakten nur besonders gut umgehen. Deshalb macht es auch nichts aus, ihm echte Vollbilder als Eingabe zu liefern.

Diese Methode, Vollbilder als Interlace-Datei zu speichern, wird aus Kompatibilitätsgründen angewandt. Gegeben falls muss man seiner Schnittsoftware per Hand mitteilen, dass es sich um Vollbild-Aufnahmen handelt. Die Vollbilder bleiben, trotz Speicherung als Interlace-Datei, erhalten.

Space


Antwort von Anonymous:

Also es gibt natürlich alles. Aber reden wir nicht eher von Consumercamcordern um € 1000.- welche mit Vollformatsensoren angeblich 25p schaffen, oder doch nicht so ganz, das ist ja die Frage. Wobei 25fps ja noch dazu nicht gerade besonders diskussionswürdig sind.

Space


Antwort von Axel:

Also es gibt natürlich alles. Aber reden wir nicht eher von Consumercamcordern um € 1000.- welche mit Vollformatsensoren angeblich 25p schaffen, oder doch nicht so ganz, das ist ja die Frage. Wobei 25fps ja noch dazu nicht gerade besonders diskussionswürdig sind. Was ist das für ein Gewäsch? Was ist nicht diskussionswürdig? Ist das oben keine Diskussion? Ich frage mich, ob irgendjemand von euch schulterzuckenden Kritikern jemals 25fps von einer HV20/30 gesehen hat. Dann würde euch das Monokel runterfallen.

Space


Antwort von Anonymous:

Bitte keine Monokel verlieren und keine weiteren Diskussionen über 25p. Ist das nicht neulich im Filmlookthread ausgiebigst diskutiert worden?

Space


Antwort von PowerMac:

Cool. Ich habe heute das Wort "Monokel" zum ersten Mal gehört. Dank an diesen Thread.

Space


Antwort von WoWu:

Puh, der Tread hat ja ein paar schnelle Kurven hinter sich. Weil ich aber ein paar mal wohl anders als gemeint verstanden worden bin, vielleicht noch ein paar Richtigstellungen:
Ich bin durchaus nicht der Meinung, p liesse sich nicht übertragen.... ich bin nur der Meinung 1080p ergibt im HDV Umfeld ziemliche Probleme mit der Bandbreite. 720p ist ja nun seit den ersten tagen von HD überhaupt kein Thema und auch genügend Chips können das native erledigen.
Aber eben bei 1080p wird die Luft eben ziemlich dünn.

Nach wie vor ist für mich der Chip noch der Schlüssen zur Erkenntnis, wie wohl übertragen wird. Bei Ein-chip Lösungen darf man nie den Auflösungsverlust durch die Farbmaske aussen vor lassen. Und so ergeben sich meist schon realistische Anhaltspunkte die auf die Übertragung schliessen lassen.
In Bezug auf Canon F Format hat die Hochschule für Fernsehen und Film München -Abteilung II Technik Tests angestellt und kommt auch zu dem Schluss, dass rd. 2x 800 Zeilen statt der sonst üblichen 540 Zeilen für ein Bild herangezogen werden.
ich habe längst aufgehört, mich auf die Angaben von (wie auch aufgeführt) Test"s im Internet zu verlassen. Bunte Bilder und viel Schall und Rauch.
Also, ohne den Thread noch mal aufleben zu lassen, die Ausgangsfrage ging eigentlich um p oder i und das Übertragen.
Dazu kann man eigentlich nur sagen, dass MPEG (und darum geht es bei HDV) eigentlich nur den Bitstream definiert und es keine Möglichkeit gibt, einem Decoder irgend eine Besonderheit mitzuteilen.
Daher werden die Signale auch eigentlich nicht als irgendwie mysteriös übertragen, entweder ist es HDV 1 oder 2 und dafür sind die Pakete, die übertragen werden genau definiert ... das hat auch nur noch wenig mit i oder p zu tun. Ist es eben nichts, was HDV1 oder 2, ist es eben ein anderes Format, dass nur vom Decoder gelesen werden kann, wenn der Decoderhersteller dieses Format unterstützt. Unterstützt er aber nur den Standard, so ist keine Garantie dafür da, dass solche Formate auch lesbar sind.
Daher mein Ansatz, solche Formate wie 1080p erst genau unter die Lupe zu nehmen, bevor man etwas glaubt ... Einen neuen Trick hat sich JVC einfallen lassen, als sie anfang 2008 die Modelle HD5 und HD6 herausgebracht haben.
Da wird in den Beschreibungen dick gedruckt darauf hingewiesen, dass die Kamera 1080p ausgeben kann und nur ganz versteckt in den Texten ist dann zu lesen, dass dies lediglich eine de-interlacede Version einer 1080i Aufzeichnung ist.
bei den 720 hingegen würde ich bei dem heutigen Stand der Technik nun wirklich jedes p glauben. (ausser 24, weil es dafür eigentlich auch keine Spezifikation gibt). Aber das ist nun wieder ein anderes Thema.

Space



Space


Antwort von DeeZiD:

Bei den neuen JVCs soll es sogar noch skuriler sein! :D

Die CCDs sollen progressiv ausgelesen werden.
Aber es wird reinterlaced und als 50i ausgegeben.
Wer progressiv haben will muss HDMI benutzen. Dafür wird das Bild wieder deinterlaced!


Verkehrte Welt, oder?

Space


Antwort von WoWu:

Aber, wie gesagt, glaub nur, was verlässlich recherchiert ist. Die meisten Tests sind das Papier nicht wert, auf dem sie stehen. Leider werden die Firmen immer intransparenter mit den Infos und die Marketingstrategen immer lauter. Aber die Tester in den bunten Zeitschriften und den Internetforen wissen auch nicht mehr, als die Marketingstrategen ihnen einreden. daher muss immer Plausibilität dabei sein. Oder eben gute Leute, die die teile in die Hand nehmen und selbst bei anerkannt guten Leuten geschehen noch Fehler (siehe A.J.W. und das nicht erkannte Auflagemaß der EX1). Nur das ist bereits ein anderes Niveau als diese Zeilenfüller-Tests.
Aber bei 1080p bleibt es wirklich noch eine ganze Weile spannend, was den Firmen da wohl noch so einfällt ... immer erst nachrechnen....
Schade eigentlich, dass es so gekommen ist.

Space


Antwort von deepbluetube:

Ich bekomme jetzt langsam Lust, mir das eine oder andere M2T mal genauer anzusehen. Ich würde jetzt wirklich gern mal wissen, was in "meinem" m2t GENAU drin ist. frames, fields, timecode pro field, Zeilen, ... Am liebsten würde ich's mir wirklich field für field ansehen. Hat einer eine Idee für ein Tool?

Space


Antwort von WoWu:

Ja klar, MPEG2 Sezifikationen und Implementierungsanweisung. Gibt es bei MPEG. 1.433 Seiten. Jedes Bit ist da definiert:
Das ist das Schöne bei Standards.
Viel Spaß

Space


Antwort von TheBubble:

Am liebsten würde ich's mir wirklich field für field ansehen. Hat einer eine Idee für ein Tool? Ein Transport-Stream selbst ist eher uninteressant, interessanter sind die darin verpackten Streams (Audio, Bild, usw.)

Zwei Fields werden immer zu einem Frame zusammengefasst und auch zusammen komprimiert. Daher ist das Frame die kleinste zeitliche "Bildeinheit".

Die Syntax des Bitstreams ist veröffentlicht, daher steht solch einem Tool prinzipiell nichts im Wege. Der Aufwand ist jedoch nicht zu unterschätzen, insbesondere wenn man sich erst noch in die Spezifikation(en) einarbeiten muss.

Space


Antwort von TheBubble:

Ich bin durchaus nicht der Meinung, p liesse sich nicht übertragen.... ich bin nur der Meinung 1080p ergibt im HDV Umfeld ziemliche Probleme mit der Bandbreite. 720p ist ja nun seit den ersten tagen von HD überhaupt kein Thema und auch genügend Chips können das native erledigen.
Aber eben bei 1080p wird die Luft eben ziemlich dünn. Es geht um 1080p bei 25/30fps? Das können auch "Consumer" Kameras mit progressivem Bildwandler.

Space


Antwort von WoWu:

So ? welche ?
Und bitte nicht wieder "FullHD" .... Das kennen wir ja nun mittlerweile.

Space


Antwort von TheBubble:

So ? welche ? Meinetwegen:

Eine HV20 hat einen progressiven CMOS Bildwandler. Die Kamera hat einen progressiven 25fps-Modus. Lediglich für die HDV-Kompression wird ein progressiver Frame wie ein Frame aus zwei Halbbildern behandelt.

Space


Antwort von WoWu:

Und woher sollen die 1920x1080 native kommen ? Bei der Auflösung, egal ob in zwei Hälften oder nicht liegt man schon ohne Ton und Metadaten deutlich über 25 Mbit/s .... HDV hört aber spätestens bei 25 MBit/s auf .... was hat die DV20 als Datenrate ? ...
Ausserdem darf man sich von den 2,8 oder 2,9 MPix nicht ins Boxhorn jegen lassen... für die Bayer-Maske gehen dabei schon mal rd. 40% runter .. was bleibt, 1,7 MPix .... reicht also hinten und Vorn nicht.
..... Nicht auf die Marketingsprüche reinfallen ....

Space



Space


Antwort von TheBubble:

Und woher sollen die 1920x1080 native kommen ? Vom verbauten CMOS natürlich. Laut Spezifikation werden 2,070,000 Pixel im 16:9 Betrieb verwendet. 1920 mal 1080 = 2073600.
Bei der Auflösung, egal ob in zwei Hälften oder nicht liegt man schon ohne Ton und Metadaten deutlich über 25 Mbit/s .... HDV hört aber spätestens bei 25 MBit/s auf .... was hat die DV20 als Datenrate ? ... Was hat Auflösung mit der Datenrate eines Transport- bzw. Aufzeichnungsdatenstromes zu tun? -> Erstmal nichts.

Und falls die interne "Datenrate" der noch unkomprimierten Bilddaten gemeint ist: Die liegt selbstverständlich deutlich über der Datenrate der erzeugten MPEG-2 Datei.

Space


Antwort von TheBubble:

Ausserdem darf man sich von den 2,8 oder 2,9 MPix nicht ins Boxhorn jegen lassen... für die Bayer-Maske gehen dabei schon mal rd. 40% runter .. was bleibt, 1,7 MPix .... reicht also hinten und Vorn nicht. Nun geht es auf einmal über die Vor- und Nachteile von 1-Chip gegenüber 3-Chip Kameras? Ich dachte es geht hier um angeblich nicht handhabbare Datenmengen progressiver 25fps Aufnahmen?

Space


Antwort von WoWu:

Also nun lass uns doch nicht wieder bei Null anfangen:
Lesen hilft:
Farbmaske von der Chipauflösung abziehen.
Das hat nichts mit Vor- oder Nachteilen von 1-Chip oder 3-Chip zu tun.
Die Mühle hat eben nur ein Chip und wenn Du die Aufteilung der Farbmaske abziehst, kommst Du nicht mal mehr auf die erforderliche Auflösung ... schliesslich macht die Kamera ja nicht ur Schwarz-weiss.
Was hat Auflösung mit der Datenrate eines Transport- bzw. Aufzeichnungsdatenstromes zu tun? -> Erstmal nichts. Mann Du bist gut .... natürlich hat die Datenrate was mit dem TS zu tun:

1920x1080 in 8 Bit + 1/2 Chroma in 8 Bit + Ton + Metadaten ..... das will doch schliesslich alles transportiert sein.
Selbst wenn die kamera intern mit 4:4:4 arbeiten würde, nutzt es Dir absolut nichts, wenn Du aus der FW nur müde 25 Mbit rausbekommst.
Aber bitte, das ist hier auch schon 1929x1081-mal behandelt worden ... bitte nachlesen ...

Space


Antwort von TheBubble:

Farbmaske von der Chipauflösung abziehen. Es geht in dieser Diskussion NICHT um erfassbare Details, sondern um zu verarbeitende Pixel! Für die weitere Bildverarbeitung - und darum ging es bisher - ist es völlig egal, ob die 1920x1080 RGB-Pixel mit Hilfe von drei Sensoren, einem Sensor oder einem Testbildgenerator erzeugt werden.
1920x1080 in 8 Bit + 1/2 Chroma in 8 Bit + Ton + Metadaten ..... das will doch schliesslich alles transportiert sein.

Selbst wenn die kamera intern mit 4:4:4 arbeiten würde, nutzt es Dir absolut nichts, wenn Du aus der FW nur müde 25 Mbit rausbekommst. Wenn man die (verlustbehafteten) Kompressionsstufen vergisst, kommt man natürlich zu seltsamen Ergebnissen.

Space


Antwort von WoWu:

Der Kompessionsfaktor von MPEG ist ja nun kein Geheimnis mehr oder meinsst Du, dass sie den für 1920x1080 hochgesetzt haben oder plötzlich mit 37er GoPs arbeiten ?

Space


Antwort von TheBubble:

Der Kompessionsfaktor von MPEG ist ja nun kein Geheimnis mehr oder meinsst Du, dass sie den für 1920x1080 hochgesetzt haben oder plötzlich mit 37er GoPs arbeiten ? Tut mir leid, es werden Zusammenhänge gesucht, wo keine sind. Daher nur noch ein paar knappe Anmerkungen:

Erstens: Der Kompressionsfaktor von MPEG ist nicht fix. Zweitens: Wenn man ihn anpasst, tut man dies nur selten über die Group of Pictures. Drittens: Das verwendete Aufzeichnungsformat HDV 1080 hat eine ganz klar definierte Auflösung und Transportstromdatenrate, dem hat sich der MPEG-Encoder zu unterwerfen. Und Viertens: Das hat alles nichts mehr mit progressiv oder interlaced zu tun.

Space


Antwort von Anonymous:

Erstens: Der Kompressionsfaktor von MPEG ist nicht fix. Nein, aber im HDV Standard mit 18:1 festgelegt.


Zweitens: Wenn man ihn anpasst, tut man dies nur selten über die Group of Pictures. Deswegen hat HDV 1 auch eine GoP von 6 und HDV 2 eine von 16..... weil man solche sachen, wie Du sagst nicht über die GoP regelt.
Vorschlag: Reich"einen Verbesserungsvorschlag bei MPEG ein, wenn Du es besser machen kannst.

Drittens: Das verwendete Aufzeichnungsformat HDV 1080 hat eine ganz klar definierte Auflösung und Transportstromdatenrate, dem hat sich der MPEG-Encoder zu unterwerfen. Sag ich doch ... nur dass der MPEG Standard, anders als der im heimischen Computer sitzende Encoder keine Möglichkeiten vorsieht, Abweichungen vom Standard mitzuteilen.
Du hast es hier mit einem fest vorgeschriebenen Standard zu tun und nicht mit einer Bastelecke für Programmierer.

Und Viertens: Das hat alles nichts mehr mit progressiv oder interlaced zu tun Das hab ich auch nicht gesagt, es geht lediglich um die Datenrate bei 1920x1080 bei den gegebenen Parametern für HDV.
Ich weiss nicht, warum Du also immer auf i oder p abhebst. Dein sensor gibt das wie beschrieben schon gar nicht mehr her.
Und jetzt fang nicht wieder mit 1-chip oder 3-chip an .... Die Mühle hat nun mal nur einen Chip, macht aber damit Farbe .. also muss man die Auflösung auch damit berechnen ...
Im Bedarf: Grundlagen Bildsensor nachlesen.

Space


Antwort von WoWu:

./.

Space


Antwort von TheBubble:

Nein, aber im HDV Standard mit 18:1 festgelegt. Ich bin recht zuversichtlich, dass dort nirgens 18:1 steht, sondern ein Anteil an der Gesamtdatenrate festgelegt wird. Die MPEG-Kompression darf bestimmt auch höher sein, dann werden eben Füllbits hinzugefügt...
Deswegen hat HDV 1 auch eine GoP von 6 und HDV 2 eine von 16..... weil man solche sachen, wie Du sagst nicht über die GoP regelt. Richtig, tut der Encoder in der Regel auch nicht. Warum nun manchmal kürzere GoPs verwendet werden, und wann längere, und wieso und warum was wann sinnvoll ist, könnte ich jetzt zwar motivieren, aber da Du ja sowieso irgendwo Einspruch erheben wirst, werde ich es lieber lassen.
Vorschlag: Reich"einen Verbesserungsvorschlag bei MPEG ein, wenn Du es besser machen kannst. Ahja.
Sag ich doch ... nur dass der MPEG Standard, anders als der im heimischen Computer sitzende Encoder keine Möglichkeiten vorsieht, Abweichungen vom Standard mitzuteilen. Der "Standard" für den Heim-PC soll erlauben Abweichungen vom Standard mitzuteilen? Das wäre ja ein toller Standard, sozusagen ein selbstbeschreibender...
Du hast es hier mit einem fest vorgeschriebenen Standard zu tun und nicht mit einer Bastelecke für Programmierer. Der Encoder ist nie vorgeschrieben. Auch bei keinem MPEG-Format. Nur der Aufbau des Bitstroms. Was das der Vergleich mit einer Bastelecke soll, ist mir ein Rätsel.
Das hab ich auch nicht gesagt, es geht lediglich um die Datenrate bei 1920x1080 bei den gegebenen Parametern für HDV. Ich geb's beinahe auf. 1920 -> Downsampling -> 1440, das muss wegen HDV bei dieser Kamera zuerst geschehen. Dann MPEG...
Das hat aber erstmal nichts mit dem Bildsensor zu tun...

Nein, ich geb's auf.
Ich weiss nicht, warum Du also immer auf i oder p abhebst. Dein sensor gibt das wie beschrieben schon gar nicht mehr her. Ich glaube, nichts von dem, was ich sagen wollte, ist angekommen. Aber lassen wir es.

Immerhin haben wir uns jetzt bald im Kreis gedreht und über Dinge gesprochen, von denen erst gar keine Rede war.

Space



Space


Antwort von WoWu:

Nein, gar kein Einspruch .... ich verstehe nur nicht, warum Du HDV neu erfinden willst und noch nicht von Leonardo Chiariglione ins Expertenteam berufen worden bist.

Natürlich gibt es andere Mittel als die GoP um Bandbreiten zu verändern. Wie Du aber siehst, ist dies durchaus ein probates Mittel.

Die MPEG-Kompression darf bestimmt auch höher sein, dann werden eben Füllbits hinzugefügt... Welchen Sinn würde das machen , ausser zur Bildverschlechterung beizutragen.

Der "Standard" für den Heim-PC soll erlauben Abweichungen vom Standard mitzuteilen? Das war nicht auf den Standard bezogen aber Du kannst natürlich jede beliebige Abweichung vom Standard programmieren, solange Du Dir auch den entsprechenden Decoder dafür bastels ...
Nur ein, dem Standard entsprechender Decoder kapiert das dann nicht mehr.

Der Encoder ist nie vorgeschrieben. Auch bei keinem MPEG-Format. Nur der Aufbau des Bitstroms. Der Decoder ergibt sich zwangsläufig aus der Definition des Bitstreams. Lediglich die Implementierung ist nicht bis ins letzte Detail vorgeschrieben. Allerdings werden "gute" Implementierungen immer mit der Referenzimplementierung des abgeglichen.

Downsampling Plötzlich ist also nicht mehr von 1920 die Rede ???

Das hat aber erstmal nichts mit dem Bildsensor zu tun... Nachlesen .... 3x erklärt !! Grundlagen Bildsensor ... !!

Nein, ich geb's auf Gute Entscheidung

über Dinge gesprochen, von denen erst gar keine Rede war. .. schön, dass wir mal drüber gesprochen haben.
Gute Nacht.

Space


Antwort von PowerMac:

Jetzt müsste auch in Südamerika Nacht sein.

Space


Antwort von TheBubble:

Bevor Du mir Unwissen unterstellst, solltest Du Selbstkritik üben:

Allein den Begriff "Bandbreite" verwendest Du sowas von schwammig. Den Abstand zweier Frequenzen kannst Du in dem Zusammenhang ja eher nicht meinen, ich vermute daher Du meinst Übertragungsrate oder Datenmenge/s.

GoPs haben damit nicht viel zu tun. Eine größere GoP kann lediglich die Kompressionseffiziens verbessern und zu einer höheren Bildqualität führen, da mehr Redundanzen ausgenutzt werden können. Große GoPs haben aber auch Nachteile. Aber all dies hast Du nicht geschrieben.

Die eigentliche adaptive Datenratensteuerung geschieht in der Regel über die Quantisierung.
Nein, gar kein Einspruch .... ich verstehe nur nicht, warum Du HDV neu erfinden willst und noch nicht von Leonardo Chiariglione ins Expertenteam berufen worden bist. Kannst mich ja gerne vorschlagen.
Die MPEG-Kompression darf bestimmt auch höher sein, dann werden eben Füllbits hinzugefügt... Welchen Sinn würde das machen , ausser zur Bildverschlechterung beizutragen. Der Sinn wäre, die vorgeschriebene Datenrate einzuhalten, um dem Standard zu entsprechen.
Das war nicht auf den Standard bezogen aber Du kannst natürlich jede beliebige Abweichung vom Standard programmieren, solange Du Dir auch den entsprechenden Decoder dafür bastels ...
Nur ein, dem Standard entsprechender Decoder kapiert das dann nicht mehr. Wenigstens ein Punkt, bei dem wir Übereinstimmung erreicht haben.
Der Decoder ergibt sich zwangsläufig aus der Definition des Bitstreams. Nicht unbedingt komplett, in eher unkritischen Bereichen, wo sich Fehler nicht akkumulieren können (mehrfache Kompression/Dekompression einmal aussser Acht gelassen), kann man auch Freiräume lassen.
Gute Nacht. Auch gute Nacht.

Space


Antwort von Anonymous:

Hallo, ihr dreht eich da im Kreis und macht die Geschichte an HDV fest was unter Umständen die Sicht auf andere Möglichkeiten leicht verzerrt.

Da ja die HD Cams von JVC besonders die neuen HD5 und 6 Modelle immer zitiert werden.
Die JVC Cams besonders die neuen Unterliegen nicht mehr den HDV Specs und haben einen einzigen Modus um HDV Konforme Files zu schrieben die via Firewire zur Weiterverarbeitung abgelegt werden. Alle anderen Filetypen besonders die neue LOW Variante die auch auf SD Medium aufgezeichnet werden kann unterliegt nicht den HDV Specs.

Und es ist ein großer fehler zu meinen das sich die Mpeg Codecs an dem HDV Standard orientieren müssen. Vielmehr ist der HDV Spezifizierte Ableger ein Part der Mpeg Specs sprich ein Preset dessen. Selbiges gilt für die AVCHD Krücke die sich nach allen Seiten offen am h264 part x orientiert.

Das können und wollen der Hersteller liegt nicht an deren Möglichkeiten sondern eher an deren Willen und warum soll ich Wollen wenn ich Cams mit dieser Leistung um ein vielfaches des Preises der Consumercams an den Mann bringen muss.

Space


Antwort von WoWu:

Absolut richtig ... nur Eingangs ging es einmal hier einmal darum, 1080p in HDV zu übertragen und das Thema war dann in die Komponenten A die HV 20 hat keinen Chip der 1080p zulässt und B selbst wenn es ginge, passt es nicht in HDV.
Ich gebe Dir völlig Recht, dass HDV eine ziemlich überflüssige Limitierung darstellt und dass es sicher weitere, andere vernünftige Verfahren gäbe, Qualität an den Kunden zu bringen.
Nur die Hersteller wollen natürlich auch Planungssicherheit und die damit verbundene Marktakzeptanz und nicht nur bei den Kunden, sondern auch bei den Firmen, die das Format unterstützen.
Kunden, wie die Broadcaster wollen damit erreichen, nicht länger von nur einem Lieferanten abhängig zu sein, was ich gut verstehe.
Ich denke, dies sind die Gründe, weshalb Standards geschaffen werden.
Dass aber die Hersteller auch daran interessiert sind, den Schritt zu einer guten Qualität durch entsprechend viele "Innovationsschritte" zu unterteilen hat letztlich etwas mit Gewinnmaximierung zu tun. Das mag ja auch seine Berechtigung haben. Mein einziger Vorwurf besteht darin, dass sie den Kunden einfach nur Dinge auf der Verpackung vorgaukeln, die nicht enthalten sind.
Das Problem bei den "weiterreichenden" Formaten ist eben die Frage, wer unterstützt die Formate ..?
Siehe auch die aktuelle Diskussion der EX1 .... ohne die Sony-eigene Software läuft da wenig ... und die ist kritikwürdig genug. Nun stell dir so etwas einmal im breiten Consumerkreis vor.
Daher denke ich auch, dass die H.264 Variante (nicht AVCHD) von MPEG deutlich besser (weil erheblich weiter) spezifiziert ist als MPEG2 und die Verbesserungsschritte innerhalb des Standards schneller möglich sind.
(Wenn denn dann endlich auch einmal 1080p50 definiert werden würde).
Von proprietären Lösungen halte ich nicht besonders viel, weil sie sich morgen schon wieder ändern können und alte Versionen häufig nicht mehr gepflegt werden. Dem gegenüber stehen eben solche Lösungen wie MPEG2, an dessen Verbesserung über 15 Jahre gearbeitet wurde, mit dem Resultat, dass es dato kaum mehr etwas zu verbessern gibt und eine maximale Qualität bei voller Kompatibilität erreicht worden ist.

Space


Antwort von Anonymous:

Siehe auch die aktuelle Diskussion der EX1 .... ohne die Sony-eigene Software läuft da wenig ... und die ist kritikwürdig genug. Nun stell dir so etwas einmal im breiten Consumerkreis vor. Nun aber das haben wir doch schon wenn ich die AVCHD Files von Sony mit denen der Panas vergleiche. Vegas selbst hat in den Anfängen der Avchdunterstützung nur die SonyFiles bedient da sie sich von denen der Panas sehr wohl unterschieden.

Und es ist wie es ist MPEG2 hatte und noch seine Zeit vor sich und h264AVC ist im Kommen aber durch die momentane Leistung der Systeme max. als Archiv u. Distributionsformat seine Berechtigung.

Und es ist nun Klar wie Kloosbrühe, die Cams können auch 1080p nur dürfen sie nicht in dieser Preisklasse, den ich als Hersteller werde mir meinen Profilinienast nicht absägen. ProfilinienAst super Wort wie meine*gg

Space


Antwort von Axel:

Und es ist nun Klar wie Kloosbrühe, die Cams können auch 1080p nur dürfen sie nicht in dieser Preisklasse, den ich als Hersteller werde mir meinen Profilinienast nicht absägen. ProfilinienAst super Wort wie meine*gg Jesses, deine Sätze gehören aber auch deinterlaced!

Space


Antwort von Jan:

@ TheBubble - die Semiprofessionelle HDV Sony HDR FX 7 benutzt zb einen Cleavid CMOS Sensor mit 1080x960 (steht in internen Sony Unterlagen), man könnte ja vorher auch denken das sie einen 1440 oder 1920er CMOS hat. Ich habe keine genauen Kenntnisse was Canon bei der HV 20 & 30 wirklich für einen Sensor einsetzt - es muss aber kein 1920er sein.

Es wäre schon ungewöhnlich warum die 3x teurere Sony einen deutlich schlechteren CMOS als die HV 20 & 30 hat. Ich glaube die Firmen flunkern mit uns ein wenig....

VG
Jan

Space


Antwort von WoWu:

@ Jan

"flunkern" war nun wirklich sehr freundlich ausgedrückt ... und zeugt von viel Nachsicht. Ich wäre in der Wahl meiner Begriffe, wie Du weist, nicht so nachsichtig.

@ Gast Nun aber das haben wir doch schon wenn ich die AVCHD Files von Sony mit denen der Panas vergleiche. Vegas selbst hat in den Anfängen der Avchdunterstützung nur die SonyFiles bedient da sie sich von denen der Panas sehr wohl unterschieden. Gerade das ist ja der Kern dessen, was zuvor beschrieben wurde.
AVCHD ist nicht der Standard !!!!!! Darin machen die Firmen so ziemlich was sie wollen und benutzen nur Teile aus dem Standard.
Und das ist gerade der kern des Mangels !!!
MPEG4/H.264-AVC ist der Standard.
Aber solange es noch Redakteure, sei es bei Zeitschriften oder im Internet gibt, die in ihren Texten den Unterschied nicht kennen und Camcorder, die zwar H.264 unterstützen, nicht aber die proprietären AVCHD Formate, quasi als nicht standardkonform bezeichnen, wird es wohl noch eine Weile dauern, bis wir wirklich über einheitliche und verlässliche Qualitäten verfügen.

aber durch die momentane Leistung der Systeme max. als Archiv u. Distributionsformat seine Berechtigung. Lass Dir doch so einen Quatsch nicht einreden. Das ist Pfeiffen im Wald und ein gefährliches Gemisch aus Unkenntnis und Hoffnung, dass alles so bleibt, wie es einmal war.
Und es ist wie es ist MPEG2 hatte und noch seine Zeit vor sich Also, wenn ich das richtig verstanden habe meinst Du, MPEG2 sei erst richtig im Kommen ?
Na, ich weiss nicht ob soviel Optimismus dann auch seine Erfüllung finden wird. Schau Dir mal die Palette der aktuellen Modelle an .... ausser einem neuen Gehäuse für die HV30 hat es ein neues Modell in HDV im Consumerbereich von Sony gegeben.
Vielleicht noch hier und da ein anderes Modell, das sich jetzt hier nicht so vergenenwärtigt aber die überwiegenden Neuerscheinungen kamen im MPEG4-Bereich.
Die Zeit hat es bereits gezeigt, wohin der Trend geht ...

Space



Space


Antwort von Anonymous:

Aber Herr WoWu das bestreitet doch kein Mensch. Es ist doch keine Frage das es einen Umschwung geben in Richtung h264AVC aber es unterliegt alles einer gewissen Zeitspanne und für den Otto Normalverbraucher ist es eben so wie schon beschrieben. Die Cams sind da nur die Schnittmöglichkeiten eben noch nicht wie sie in Preis/Zeit/LeistungsVergleich sein sollten. Selbiges hatten wir schon bei der Umstellung vom SD zum HD Format auf HDV Specs basierend. Das die Hersteller die Cams in Richtung AVCHD Cardbasierend produzieren liegt doch Hauptsächlich am Unwissen der Konsumenten und der Möglichkeit die Kosten niedrig zu halten. Stöbert man die Foren durch sind die Beiträge voll von Usern dieser neuen Cam Generation die mit den AVCHD Cams noch immer das Problem haben das sie nicht wissen was sie mit dem Rohmaterial machen sollen und sie plötzlich von den Kosten überollt werden bei der Anschaffung der Zusatzhardware und Software.
Anfang 2007 waren die Leute mit einem E6600 Dualcore Uptodate. Heute stellt sich heraus das du dich mit einem Quadcore abmühen musst das du in der Timeline die FullHd AVCHD Files in RT bearbeiten kannst und das selbst bei nur einer Spur.

Sei es darum Du hast recht es wird kommen und die Leute werden kaufen wie ich auch nur bis dahin hat meine neue HDV Cam schon den Geist aufgegeben.

Und es stimmt auch im Consumerbereich werden von Sony vermutlich keine neuen Mpeg2 basierenden Cams mehr entwickelt aber in der Pro Liga schon und Sony und Canon sind Gott sei Dank nicht die einzigen Hersteller.

Space


Antwort von wolfgang:

Stöbert man die Foren durch sind die Beiträge voll von Usern dieser neuen Cam Generation die mit den AVCHD Cams noch immer das Problem haben das sie nicht wissen was sie mit dem Rohmaterial machen sollen und sie plötzlich von den Kosten überollt werden bei der Anschaffung der Zusatzhardware und Software. Gut, die hätten sich aber auch vor dem Kauf informieren können - seit geraumer Zeit predigen wir die Probleme mit der Bearbeitbarkeit im Fall von AVCHD.

Anfang 2007 waren die Leute mit einem E6600 Dualcore Uptodate. Heute stellt sich heraus das du dich mit einem Quadcore abmühen musst das du in der Timeline die FullHd AVCHD Files in RT bearbeiten kannst und das selbst bei nur einer Spur. Ja, das ist ein enormes Problem - das 1920er AVCHD ist halt nochmals schwerer bearbeitbar als das 1440er AVCHD, und die Leute wollen halt auch immer gerne nativ schneiden. Und die Intermediate codecs sind ihnen halt auch immer ein Greuel - hauptsache, es ist kein Band mehr, hauptsache, man ist modern unterwegs. Das Gejammere kommt dann nach dem Kauf.

Und es stimmt auch im Consumerbereich werden von Sony vermutlich keine neuen Mpeg2 basierenden Cams mehr entwickelt aber in der Pro Liga schon und Sony und Canon sind Gott sei Dank nicht die einzigen Hersteller. HDV wird sich schon noch eine Zeit halten, bevor die letzten HDV-Camcorder vom Markt verschwinden werden sich halt viele noch eindecken, vermutlich mit Geräten wie einer HV30.

Space


Antwort von TheBubble:

Ich habe keine genauen Kenntnisse was Canon bei der HV 20 & 30 wirklich für einen Sensor einsetzt - es muss aber kein 1920er sein. Die HV20 hat einen CMOS der 3 Megapixel-Klasse mit Farbmaske. Welche Farbmaskenanordnung zum Einsatz kommt, weiss ich leider nicht. Bei 1920x1080 Aufnahmen werden davon ungefähr 2 Megapixel verwendet (die übrigen Pixel befinden sich ober- und unterhalb der Aufnahme und können im Fotomodus eingesetzt werden).

Space


Antwort von kowi:

... das 1920er AVCHD ist halt nochmals schwerer bearbeitbar als das 1440er AVCHD, und die Leute wollen halt auch immer gerne nativ schneiden. Und die Intermediate codecs sind ihnen halt auch immer ein Greuel - hauptsache, es ist kein Band mehr, hauptsache, man ist modern unterwegs. Das Gejammere kommt dann nach dem Kauf.

HDV wird sich schon noch eine Zeit halten, bevor die letzten HDV-Camcorder vom Markt verschwinden werden sich halt viele noch eindecken, vermutlich mit Geräten wie einer HV30. Genau so werde ich es aus den weiter oben geschilderten Gründen auch machen! Es lebe HVD und die HV30!!

Space


Antwort von Anonymous:

Profis arbeiten eh mit HDV und nicht mit dem poppeligen kastrierten AVCHD-Kameras...

Space


Antwort von Anonymous:

Profis arbeiten mit allem... ( aber nicht mit HDV)

Space


Antwort von Axel:

Profis arbeiten mit allem... ( aber nicht mit HDV) Troll Gefasel, das bereits seit geraumer Zeit Off Topic ist. Eröffne doch einen neuen Thread für Pixelzähler und die Profis, die über Consumerformate gern ablästern. Und registrier dich bitte, damit man dich mal zu fassen kriegt, "Gast".

Space


Antwort von Bernd E.:

Profis arbeiten...mit HDV...mit allem...aber nicht mit HDV... Profis arbeiten mit dem Format, das für den jeweiligen Auftrag am besten geeignet ist oder einfach dem Kundenwunsch entspricht – sei es nun DV, HDV, XDCAM HD oder was es noch so alles gibt. Nur hat diese Debatte wirklich nichts mehr mit dem Thema des Threads zu tun.

Gruß Bernd E.

Space


Antwort von Jan:

Canon spricht ja von 1920x1080, wenn man sich den Sensor & Auflösung der HV 30 anschaut ist das auch nicht ganz unwarscheinlich. Man sollte aber immer etwas vorsichtig sein - die Werbesprüche entsprechen nicht immer der Wahrheit.

Besonders bei den 3 Chip HDV kann man eher leicht durchschauen, das dort keiner einen 1440x1080 Sensor haben kann. Canon verwendet ja auch bei der XH A1 ( oder H 1) einen horizontalen Pixelshift um die korrekten Zahlen zu erhalten.

VG
Jan

Space



Space


Antwort von Axel:

Canon spricht ja von 1920x1080, wenn man sich den Sensor & Auflösung der HV 30 anschaut ist das auch nicht ganz unwarscheinlich. Man sollte aber immer etwas vorsichtig sein - die Werbesprüche entsprechen nicht immer der Wahrheit.

Besonders bei den 3 Chip HDV kann man eher leicht durchschauen, das dort keiner einen 1440x1080 Sensor haben kann. Canon verwendet ja auch bei der XH A1 ( oder H 1) einen horizontalen Pixelshift um die korrekten Zahlen zu erhalten. So oder so, man vergleicht diese Cams mit anderen, vergleicht die Bilder, und kann zufrieden sein. Weder für 1000 noch für 3000 Euro gibt es eine Proficam, aber für Rumraten und das Wehklagen über das beschissene HDV bestimmt auch nicht.

Solche Kommentare kommen ungebeten in Threads, die mit diesem Thema überhaupt nichts zu tun haben (du bist jetzt nicht gemeint, Jan). Anstatt loszugehen und Filme zu machen, wird drauflos schwadroniert, als wäre man ein diplomierter Medientechniker, dabei sind die sogenannten Fakten mit soviel Spekulation vermengt, dass sich keiner für die Sülze interessiert.

Space


Antwort von WoWu:

@ Axel
In Bezug auf die auf die Sprechblasen, die immer und überall aus den Sümpfen kommen gebe ich Dir völlig Recht, allerdings finde ich es schon interessant zu wissen, was Hersteller mir versprechen, aber dann nicht verkaufen. Immer wieder kann man auch hier im Forum lesen, dass keine wirklichen Unterschiede zwischen 1440 und 1920 zu sehen sind. Ein solcher Trend kann aber auch nicht wirklich Dein Ziel sein, denn wer mit der vollen 1920er Auflösung arbeitet sieht schon einen deutlichen Unterschied und viele Konsumenten, und das wird Jan sicher bestätigen, kaufen "FullHD" weil sie glauben, dass es derzeit nichts Besseres gibt. Daher muss eine Kritik schon erlaubt sei. Schliesslich hast Du ja wahrscheinlich auch von DV nach HDV der Qualität wegen gewechselt und bist jetzt auch vollumfänglich über HDV informiert, also hast Du auch nicht nur den Einschalter der Kamera bedient und bunte Bilder gemacht, sondern dich auch im Rahmen deines Interesses mit der Theorie beschäftigt. Das solltest Du jedem, entlang seiner Intressenlage auch zubilligen und ihm nicht sagen, er solle Bilder machen und mehr habe ihn nicht zu interessieren. Soviel Toleranz sollte schon sein. Wozu sonst wäre eine solche Plattform geeignet ?

Space


Antwort von Axel:

@Wolfgang
Das Résumé aus dem ganzen Hin und Her, ist, dass die Angaben über die tatsächlich verwendeten Bauteile und Techniken offenbar bei keinem Con- oder Prosumer Camcorder verlässlich sind. Wenn irgend jemand hierzu fundierte Informationen hat, kann er die ja an geeigneter Stelle zur Aufklärung der Allgemeinheit posten.
Nein, ich weiß NICHT "vollumfänglich" über HDV Bescheid, sondern stelle weiterhin Fragen. Ich hoffe, du fühlst dich von mir nicht persönlich angegriffen. Du hast mir in mindestens zwei Fällen für mich wertvolle Informationen geliefert, es steht außer Frage, dass du Ahnung hast.

Die Diskussion auf den letzten beiden Seiten wird allerdings keinem helfen, irgend etwas besser zu verstehen oder besser zu machen, weil sie viel zu allgemein und viel zu oberflächlich ist. Die anderen Leser über die Schummeleien der Hersteller aufklären, gut. Also nur eine möglichst hohe Auflösung garantiert ein gutes Bild? Dann haben wir alle auf Sand gebaut, denn kein Modell in dem Preisspektrum kann ehrlich sein, die Chips wären viel zu teuer. Die Forderung nach hoher Auflösung ist in Wirklichkeit die größere Irreführung, denn es sie besagt nichts über die Qualität des Bildes. Die ganze Rechenschieberei zielt lediglich auf diesen Aspekt, und alle blöken mit. Die Hersteller wollen dieser Forderung gerecht werden und lügen. Da beißt sich die Katz in den Schwanz.

Die vom Bild her beste Kamera, die erschwinglich ist, die HVX, hat keine nennenswert hohe Auflösung (siehe Camcorder-Vergleich).

Space


Antwort von WoWu:

@ Axel ...
Im Kern deiner Aussage liegen wir gar nicht so weit auseinander und ich bin nicht einmal der Meinung, dass 1920 die bessere Lösung ist. ich habe sehr viele und auch wahrscheinlich gute Gründe, nur in 720p zu arbeiten. Um eine solche Entscheidung zu treffen, muss man aber schon sehr genau überlegen und die Vor-und Nachteile schor kennen. Dabei führt das zwangsläufig durch den theoretischen Dschungel, den nicht jeder Amateur unbedingt kennen muss. Aber die Resultate sind sicher nicht ganz uninteressant.
Bei solchen Diskussionen fühlen sich leider auch immer die Grabenkämpfer aufgerufen mit zuschiessen. Ich bin zwar auch nicht unparteiisch und mache kein Hehl daraus, dass ich H.264 favorisiere, bemühe mich wenn möglich, das aber auch argumentativ zu unterfüttern. Nur der Sinn des Forums kann es wirklich auch nicht sein, jeden falschen Fakt unwiderrufen sich beliebig verbreiten zu lassen. Es gibt eine Menge Interessenten, die Informationen suchen und die man ihnen nicht vorenthalten sollte. Wenn die Infos korrekturbedürftig sein sollten, wird sich schon jemand finden, der korrigierend einspringt. Und letztlich hat doch auch noch jeder die Wahlmöglichkeit einen Thread zu lesen (oder eben nicht). Es gibt so manche Threads, da bin ich auch einfach ausgestiegen, weil der Ton mehr und mehr von den Blasen getrübt wurde. Aber fast jeder Thread hat auch einen interessanten Teil. manchmal mehr, manchmal eben weniger.
Daher würde ich Deine Korrektur nicht so allgemein verstehen wollen, gebe Dir aber mit den Sprechblasen Recht, die einzig dazu dienen aufzumischen .. Die Frage in diesem Zusammenhang wäre nur interessant zu klären, warum das Forum in seiner Form der anonymen Zulassung dem Vorschub leistet. Aber mehr "Klicks" bedeutet natürlich auch mehr Geschäft. Da schliesst sich der Kreis wieder.
Aber Axel, das soll auch wirklich keine Kritik sein, nur was wäre ein Forum ohne die Vielfalt an Diskussionen ?

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen //


Flimmern 60 Hz - Unterschied DSLR / Camcorder?
Mattebox unterschied




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash