Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Ratgeber: Der optimale PC für den Videoschnitt- Teil 2: Die Grafikkarte



Newsmeldung von slashCAM:


Ratgeber: Ratgeber: Der optimale PC für den Videoschnitt - Teil 2: Die Grafikkarte - GPU Beschleunigung per CUDA und OpenCL von slashCAM - 15 Jul 2013 15:16:00
>Im zweiten Teil unserer Artikelserie über den optimalen PC für die Videobearbeitung konzentrieren wir uns ganz auf die immer wichtiger gewordene Grafikkarte: Worauf achten bei der Auswahl? Welche Leistungsdaten zählen für den Videoschnitt?
zum ganzen Artikel

Space


Antwort von Spreeni:

Hallo Slashcam,

seid ihr sicher, dass Magic Bullet Colorista OpenCL unterstützt? Wir hatten hier im Forum gerade eine Diskussion darüber, in den Colorista Optionen ist von OpenGL Beschleunigung die Rede.

Space


Antwort von tom:

Hallo Slashcam,

seid ihr sicher, dass Magic Bullet Colorista OpenCL unterstützt? Wir hatten hier im Forum gerade eine Diskussion darüber, in den Colorista Optionen ist von OpenGL Beschleunigung die Rede. Danke, ich hatte das mit dem Magic Bullet Denoiser verwechselt, der OpenCL unterstützt...

Thomas
slashCAM

Space


Antwort von Alf_300:

Colorista II unterstützt GPU/OpenCL

Space


Antwort von tom:

Colorista II unterstützt GPU/OpenCL Hast Du dazu ne Quelle? Ich find nur was zu OpenGL Unterstützung (und hab da sProgramm selbst nicht hier)...
http://www.definitionmagazine.com/journ ... ta-ii.html

Thomas
slashCAM

Space


Antwort von steve72:

Hallo,
ich kenne mich nicht so gut aus mit Grafikkarten, darum interessiert mich eure Meinung.

Welche Karte ist die bessere wenn es mir um Color Grading - "Genauigkeit"- Farbtreue und Performance geht?
Und welche ist die beste in Preis/Leistung?

Quadro K4000 (neu)
GTX 780
GTX 770
GTX 760

Im Internet wird oft die GTX760 empfohlen (Wieso nicht die 770 oder 780, diese scheint doch laut den benchmarks besser zu sein?!)

Vielen Dank für eure Hilfe!

EDIT:
Habe eben diesen Thread hier gefunden der eigentlich die Frage beantwortet! viewtopic.php?t=109740

Da mein Flaschenhals vorallem am Colorgrading in After Effects (Colorista & co) liegt, ist wohl eine QUADRO besser geeignet als eine GForce. Aber macht das wirklich den großen unterschied ob ich eine colirste sequenz mit einer Quadro rendere oder mit einer Gforce GTX760 ???

EDIT2: Ich sehe gerade die GTX 690 ist von den Daten her ja echt doppelt so stark wie die QUADRO K4000... und das beim gleichen Preis...

HHELPPPP

Liebe Grüße,
Steve

Space


Antwort von Alf_300:

Hi @TOM - @All

Hast recht Colorista II unterstützt GPU/OpenGL

Space


Antwort von Hirschflo:

Hallo,
ich kenne mich nicht so gut aus mit Grafikkarten, darum interessiert mich eure Meinung.

Welche Karte ist die bessere wenn es mir um Color Grading - "Genauigkeit"- Farbtreue und Performance geht?
Und welche ist die beste in Preis/Leistung?

Quadro K4000 (neu)
GTX 780
GTX 770
GTX 760

Im Internet wird oft die GTX760 empfohlen (Wieso nicht die 770 oder 780, diese scheint doch laut den benchmarks besser zu sein?!)

Vielen Dank für eure Hilfe!

EDIT:
Habe eben diesen Thread hier gefunden der eigentlich die Frage beantwortet! viewtopic.php?t=109740

Da mein Flaschenhals vorallem am Colorgrading in After Effects (Colorista & co) liegt, ist wohl eine QUADRO besser geeignet als eine GForce. Aber macht das wirklich den großen unterschied ob ich eine colirste sequenz mit einer Quadro rendere oder mit einer Gforce GTX760 ???

EDIT2: Ich sehe gerade die GTX 690 ist von den Daten her ja echt doppelt so stark wie die QUADRO K4000... und das beim gleichen Preis...

HHELPPPP

Liebe Grüße,
Steve Beim Grading in After Effects machen die unterschiedlichen Karten meiner Erfahrung nach kaum Unterschiede - da After Effects sowieso nicht auf Realtime ausgelegt ist - wirklich schnell geht da auch mit teuren Karten nix. Auf die Qualität des Gradings hat die Karte übrigens keinen Einfluss.

In Resolve dagegen ist die Grafikkarte mehr als die halbe Miete. Der Hauptvorteil der Quadros ist übrigens keine bessere Performance als bei den Geforce-Karten, sondern eine geringerer Stromverbrauch und oft auch eine kleinere Bauform. Eine Geforce 660Ti hat in Resolve die doppelte Leistung einer Quadro 4000 bei weniger als der Hälfte des Preises ...

Space


Antwort von blueplanet:

Ratgeber: Der optimale PC für den Videoschnitt - Teil 2: Die Grafikkart

...ein guter Artikel, mit ein paar wirklich interessanten Einblicken zum Thema: Werden etwa von Version zu Version die Standards innerhalb eines Standards von Adobe "manipuliert" – das wäre blöd, denn dann habe ich wohl bald ein ganzes Sammelsurium von Mediaplayern im Regal stehen! Denn, die wundersame Wandlung: Verwende ich einen H264-File mit haargenau den gleichen Einstellparametern, jedoch nicht in Premiere CS6 sondern in CC konvertiert, wendet sich buchstäblich das Blatt: Der Panasonic DMP-BDT500, über USB "gefüttert", versagt nach wenigen Sekunden seinen Dienst und D-Links Boxee spielt den File nun ohne murren ab…???

Oder gibt es für diesen Sachverhalt eine rein Hardware-technische Erklärung? Im Zusammenhang mit dem Umstieg von CS6 auf CC fand gleichzeitig ein Hardwarewechsel statt: Aus einem I7 920K-Prozessor wurde ein I7 3770K. Somit stellt sich die Frage: Haben Mainbords bzw. Chipsätze oder Prozessoren Einfluss auf die Kompatibilität /Qualität des H264-Codec? Stellt sich nun eine weitere Frage: Kann man mit einer dezidiert Grafikkarte die vermeintlich schlechtere Qualität der GPU der CPU umgehen? Bzw.: Gibt es ggf. eine Möglichkeit explizit die Grafikkarte (sicherlich mit weitaus geringerer Geschwindigkeits-Leistung) dazu zu bewegen, die Konvertierung in den H264-Codec vorzunehmen?

beste Grüße
Jens

Space



Space


Antwort von dienstag_01:

Stellt sich nun eine weitere Frage: Kann man mit einer dezidiert Grafikkarte die vermeintlich schlechtere Qualität der GPU der CPU umgehen? Bzw.: Gibt es ggf. eine Möglichkeit explizit die Grafikkarte (sicherlich mit weitaus geringerer Geschwindigkeits-Leistung) dazu zu bewegen, die Konvertierung in den H264-Codec vorzunehmen? ???
Versteht jemand die Frage(n)?

Space


Antwort von blueplanet:

Ich ;): Bezieht sich auf dise Textpassage des besagten Artikel von Tom/Slashcam:

"...die beschleunigte Komprimierung von H.264/MPEG-2 Video per Quick Sync: Allerdings gibt es warnende Stimmen (etwa im zugehörigen Wikipedia-Eintrag), dass die Optimierung auf Geschwindigkeit zu Lasten der Bildqualität geht (im Vergleich zur Komprimierung per CPU). Nach Einschätzung von Anandtech ist die Bildqualität aber ausreichend gut - und Intel will in der neuesten Generation auch noch die Qualität verbessert haben (sowie die Encoding Optionen) - man sollte trotzdem nicht die allerhöchste Qualität vom Output erwarten...

Space


Antwort von blueplanet:

...oder mit anderen Worten bzw. wie ich es verstanden habe, wird bei bestimmten Prozessoren die in der CPU integrierte GPU für die Berechnung verwendet und nicht / weniger die GPU einer verbauten Grafikkarte!?

Oder haben lesen/interpretieren falsch? ;)

Space


Antwort von dienstag_01:

Quick Sync ist ein Feature des Onboard-Grafikchips. Das muss man nicht verwenden (macht sowieso nicht jede Software). Dann kannst du den Onboardchip aber gleich ganz weglassen/abschalten (falls du nicht mit deinem Notebook bei der Textverarbeitung Akkuleistung sparen willst).

Space


Antwort von blueplanet:

...verwendet Premiere CC Quick Sync?
...wenn ja, abschalten im BIOS (!) und rendert dann nur die GPU der Grafikkarte? (langsamer) bzw. gibt die Daten im Anschluss an die CPU weiter, wo sie schnell "verpackt" werden?

Konkret: Betrifft der evtl. Qualitätsverlust durch die Verwendung von Intel-Chips Premiere CC-Anwender?

Danke und beste Grüße
Jens

Space


Antwort von dienstag_01:

Steht doch in dem verlinkten Artikel: Adobe PPro braucht ein spezielles Plug-In.

Space


Antwort von blueplanet:

...dann sollte man das tunlichst wohl nicht installieren ;)

Space


Antwort von dienstag_01:

... wenn dir tunlichst Qualität so wichtig ist.

Space


Antwort von Coco21:

Welche Grafikkarte konkret kann man denn nun nehmen, wenn man normalen AVCHD-Schnitt ohne allen möglichen Schnickschnack machen will. Ich möchte auch nicht mit Kanonen auf Spatzen schießen, also nichts sehr teures und überdimensioniertes Equipment, was ich dann nicht ausnutze.
Ich weiss, es gibt viele hochspezialisierte Leute, die in anderen Sphären schweben und die nur high end empfehlen. Aber mich würde einfach interessieren, welche GPU der Otto-Normal-Verbraucher nehmen kann, der einfach nur seine AVCHD-Videos schneiden will.

Space



Space


Antwort von dienstag_01:

Ich selber verwende eine Nvidia GTS450, funktioniert wunderbar (CS6). Drunter würde ich nicht gehen, sonst gibts Engpässe (Speicheranbindung wenigsten 128bit, 1GB DDR5 Speicher). Erhältlich so um die 100 Euro.

Space


Antwort von Alf_300:

AVCHD ohne Schnickschnack ?

von Nvidia GTX 285 1.28 GB aufwärts

Space


Antwort von dienstag_01:

AVCHD ohne Schnickschnack ? Was issn bei dir Schnickschnack ;)

Erwähnen solte man unbedingt, dass es letztlich von der verwendeten Software abhängt, was sie unterstützt.

Space


Antwort von mannamanna:

Welche Grafikkarte konkret kann man denn nun nehmen, wenn man normalen AVCHD-Schnitt ohne allen möglichen Schnickschnack machen will. Ich möchte auch nicht mit Kanonen auf Spatzen schießen, also nichts sehr teures und überdimensioniertes Equipment, was ich dann nicht ausnutze.
Ich weiss, es gibt viele hochspezialisierte Leute, die in anderen Sphären schweben und die nur high end empfehlen. Aber mich würde einfach interessieren, welche GPU der Otto-Normal-Verbraucher nehmen kann, der einfach nur seine AVCHD-Videos schneiden will. Welches Programm nutzt Du denn zum Schnitt? Und nicht ganz unwichtig, welchen Prozessor (Die GraKa macht ja nicht die ganze Arbeit)?

mannna

Space


Antwort von Coco21:

CPU soll eine Intel I7-4770K werden und als Programm nehme ich z.Zt. Magix Video pro x3

Mit Schnickschnack meine ich, dass ich keine aufwendigen Effekte wie 3D o.ä. brauche.

Space


Antwort von morgenlicht:

https://www.slashcam.de/artikel/Ratgebe ... html#Der_G
Breite Höhe Pixel Speicherplatz pro Frame HD 720p 1280 720 921600 57 MB HD 1080p 1920 1080 2073600 127 MB UlraHD 3840 2160 8294400 506 MB 4K DCI 4096 2160 8847360 540 MB 5K (RED) 5120 2700 13824000 844 MB 6K (RED) 6144 3160 19415040 1185 MB
Wie kommt es zu dieser seltsamen Tabelle? Es steht zwar im Text, daß sich die Werte des Speicherplatzes pro Frame aus Breite x Höhe / 16.384 zusammensetzt, aber sind die Werte in MB nicht ein wenig viel zu hoch????

Oder ist ein Frame nicht gleich ein Bild?

Normalerweise rechnet sich es doch folgendermaßen:
Höhe x Breite x Farbtiefe x Kanal
zB.
1920 x 1080 x 8 x 3 = 49.766.400 Bit = 6.220.800 Byte (pro Bild)

Space


Antwort von dienstag_01:

Normalerweise rechnet sich es doch folgendermaßen:
Höhe x Breite x Farbtiefe x Kanal
zB.
1920 x 1080 x 8 x 3 = 49.766.400 Bit = 6.220.800 Byte (pro Bild) Wo du recht hast, hast du recht.

Space


Antwort von Reiner M:

Wie kommt es zu dieser seltsamen Tabelle?

Oder ist ein Frame nicht gleich ein Bild? Du musst unterscheiden zwischen der Anzahl Bytes, die ein Bild/Frame ausmachen (da ist Deine Berechnung richtig für z. B. RGB 8bpc, schon nicht mehr für RGBA, auch nicht für andere Bit-Tiefen), und dem Platz, der in der Grafikkarte reserviert werden muss (das zeigt die Tabelle), um alle Operationen mit dem Bild der entsprechenden Größe auszuführen.

Die Angabe bezieht sich auf Premiere Pro.

Weshalb Grafikkarten mit 1GB VRAM für Premiere Pro nur dann eine gute Wahl sind, wenn man kleine Bild/Frame-Formate verarbeitet.

Werden häufig große Formate, z. B. Fotos aus gängigen digitalen Fotokameras zu verarbeiten sein, sollte es mehr VRAM sein. 1GB genügt da nicht. Die Verarbeitung funktioniert dann zwar auch, aber nicht mit GPU-Unterstützung. Sie fällt dann automatisch auf die CPU zurück auch bei angewählter GPU-Unterstützung.

Beste Grüße,
Reiner

Space


Antwort von morgenlicht:

Wie kommt es zu dieser seltsamen Tabelle?

Oder ist ein Frame nicht gleich ein Bild? Du musst unterscheiden zwischen der Anzahl Bytes, die ein Bild/Frame ausmachen (da ist Deine Berechnung richtig für z. B. RGB 8bpc, schon nicht mehr für RGBA, auch nicht für andere Bit-Tiefen), und dem Platz, der in der Grafikkarte reserviert werden muss (das zeigt die Tabelle), um alle Operationen mit dem Bild der entsprechenden Größe auszuführen.

Die Angabe bezieht sich auf Premiere Pro.

Weshalb Grafikkarten mit 1GB VRAM für Premiere Pro nur dann eine gute Wahl sind, wenn man kleine Bild/Frame-Formate verarbeitet.

Werden häufig große Formate, z. B. Fotos aus gängigen digitalen Fotokameras zu verarbeiten sein, sollte es mehr VRAM sein. 1GB genügt da nicht. Die Verarbeitung funktioniert dann zwar auch, aber nicht mit GPU-Unterstützung. Sie fällt dann automatisch auf die CPU zurück auch bei angewählter GPU-Unterstützung.

Beste Grüße,
Reiner Auch wenn sich dies nur auf Adobe Premiere Pro bezieht, will ich es verstehen, wie sich das zusammensetzt.

Nehmen wir die weiteren 8 Bit von A, macht dann also:
1920 x 1080 x 8 x 4 = 66.355.200 = 8.294.400 Byte,
ok, nehmen wir 16 Bit pro Kanal und RGBA an:
1920 x 1080 x 16 x 4 = 132.710.400 = 16.588.800 Byte
das wäre dann immer noch ein Achtel von dem angegebenen Wert.

Space



Space


Antwort von Reiner M:


Auch wenn sich dies nur auf Adobe Premiere Pro bezieht, will ich es verstehen, wie sich das zusammensetzt. Das lässt sich leider so nicht berechnen. Im VRAM werden für einen Frame mehrere Bereiche angelegt, die die Berechnung ermöglichen. Es müssen z. B. die Zustände getrennt gespeichert werden, die den Frame im Original zeigen, die Zwischenergebnisse aufnehmen und die das fertige Ergebnis enthalten.

Zusätzlich finden der Grafikkarte alle Berechnungen 32bit-Float RGBA statt. (In einer Quadro sogar 64bit, um die Rechengenauigkeit zu steigern). Ein Pixel wird also in 16 Bytes abgebildet, nicht in 3 Bytes.

CUDA ist Parallelprocessing. Jeder Prozessor benötigt eigene Arbeitsbereiche.

Der Gesamtbedarf für die nötigen Strukturen hängt direkt gemäß der im Artikel genannten Formel von der Framesize (Pixelmaße) des Bildes oder Frames ab.

Andere Hersteller müssen das übrigens ähnlich machen, weil es technisch nötig ist. Jedoch können sich die Strukturen durchaus unterscheiden und ich kenne deren Formel nicht. Adobe hat sie veröffentlicht, um zu erklären, welche VRAM-Größen für welche Verabeitungswünsche sinnvoll und empfehlenswert sind.

Beste Grüße,
Reiner

Space


Antwort von klusterdegenerierung:

Meine Devise,
Finger weg von Quadro wenn es um Videobearbeitung geht.
Meine 2000er zb. war in dem Bereich auch lamer als jede Comsumer geforce für ein 1/5 des Preises.
Quadro ist eher für 3DMax etc. gedacht.
Ich würde eher darauf achten das man eine geforce mit min. 256bit und Chipsatz aus oberer Liga bekommt!

Space


Antwort von holger_p:

CPU soll eine Intel I7-4770K werden und als Programm nehme ich z.Zt. Magix Video pro x3

Mit Schnickschnack meine ich, dass ich keine aufwendigen Effekte wie 3D o.ä. brauche. Ati 7790. Sehr gute 2D Performance. Betrieb mit 3 Bildschirmen ist möglich. Nimm eine Version mit Doppellüfter, die sind sehr leise.


Gruß Holger

Space


Antwort von Reiner M:

Meine 2000er zb. war in dem Bereich auch lamer als jede Comsumer geforce für ein 1/5 des Preises. Richtig, sobald die 64-bit-Prozesse in der Karte greifen, kostet das natürlich Rechenzeit im direkten Vergleich gegenüber 32bit.

Die Ergebnisse werden genauer. Insbesondere Skalierungen oder mehrstufige Effekte über mehre Spuren profitieren davon, meine ich.

Allerdings relativiert sich dies etwas, weil abschließend wieder eine 8bit-Umsetzung daraus resultiert. Erschwerend kommt hinzu, dass viele Anwender gar nicht präzise arbeiten, sondern eher nach Bauchgefühl, nach persönlichem Geschmack an Parametern drehen und selbst 32bit-Vorteile kaum schätzen.

Für diese User ist Geschwindigkeit sicher eher ein Aspekt und dann eine Geforce eine gute Wahl. Dennoch gibts auch die anderen... - Insbesondere, wenn der Rechner nicht nur für harte Cuts in einem NLE ausgelegt ist, sondern auch Compositing in hoher Qualität liefern muss, aus diversen Footage, mit unterschiedlichen Programmen gearbeitet wird oder z. B. 10bit-Monitore angesagt sind. - Verallgemeinern lässt sich das wohl nicht.

Beste Grüße,
Reiner

Space


Antwort von dienstag_01:

Richtig, sobald die 64-bit-Prozesse in der Karte greifen, kostet das natürlich Rechenzeit im direkten Vergleich gegenüber 32bit.

Die Ergebnisse werden genauer. Insbesondere Skalierungen oder mehrstufige Effekte über mehre Spuren profitieren davon, meine ich. Ich bin mir ziemlich sicher, dass das ein Trugschluß ist. Wenn man bei Grafikkarten von Rendern in höherer Genauigkeit spricht, meint das Rendern für die Darstellung, nicht für den Export. Wenn also mit 30bit gerendert wird, heisst das, dass 10bit Farbtiefe an das Display ausgegeben werden. Cuda hat damit nicht zu tun. Da finden Rechenoperationen statt, die alleine von der Applikation dorthin *ausgelagert* werden (und nicht zur CPU).

Space


Antwort von mannamanna:

CPU soll eine Intel I7-4770K werden und als Programm nehme ich z.Zt. Magix Video pro x3

Mit Schnickschnack meine ich, dass ich keine aufwendigen Effekte wie 3D o.ä. brauche.
Magix Video Pro X:
Empfohlene Systemvoraussetzungen für HD-/3D-Bearbeitung
Prozessor: Intel® Core™ 2 Quad-Core-Prozessor mit 2,83 GHz (Intel® Core™ i7 empfohlen), AMD® Quad-Core-Processor mit 2,8 GHz
Arbeitsspeicher: 4 GB RAM
Grafikkarte: dedizierte Grafikkarte mit mindestens 512 MB VRAM

Space


Antwort von Reiner M:

Wenn man bei Grafikkarten von Rendern in höherer Genauigkeit spricht, meint das Rendern für die Darstellung, nicht für den Export. Nein. Rendern meint Rendern.
Ob das Ergebnis (egal ob von CPU oder GPU gerendert) in die Vorschau fließt und dort auf den Vorschaumonitor, oder während des Exports in eine Datei, ist egal. Die GPU rendert, wenn angewählt, auch beim Export. Mit den qualitativ gleichen Ergebnissen.

Beste Grüße,
Reiner

Space


Antwort von Alf_300:

@Reinrer_M
Jetzt muß Du nur noch erklären warum es Playback Engine heißt

Space


Antwort von dienstag_01:

Ich will jetzt nicht wieder in ewige Wortglauberei abdriften.
Wichtig zu wissen ist, dass Cuda eine Technik ist, die es dem Programmierer erlaubt, Daten auf der GPU zu berechnen/zu rendern. Diese Daten müssen nicht zwingend etwas mit Grafik zu tun haben. Deshalb profitieren sie auch nicht durch irgendeine höhere Rechengenauigkeit. Die betrifft bspw. Anti-Aliasing bei Computergrafik über OpenGL. Bei Cuda legt der Programmierer die Genauigkeit/Verarbeitungstiefe fest.
Deshalb gibt es in PPro auch 32bit-Effekte, ohne den Zusatz, bei Verwendung einer Quadro sind es 64bit.
Oder steht das irgendwo ;)

Space



Space


Antwort von Reiner M:

Deshalb profitieren sie auch nicht durch irgendeine höhere Rechengenauigkeit. Aha.
Also für mich sind Float 32bit Ergebnisse immer noch genauer als Integer 8bit ... - und 64bit-Float-Berechnungen ergeben genauere Werte als 32bit-Float. Ist so.
Ob es sich dabei um Grafikdaten (wie Vektoren) oder Farbwerte (Pixel) oder sonstwas handelt, ist den Prozessoren egal. Sie wissen nicht, was sie tun. Sie tuns einfach.

Beste Grüße,
Reiner

Space


Antwort von dienstag_01:

- und 64bit-Float-Berechnungen ergeben genauere Werte als 32bit-Float. Ist so. Wo bietet PPro das an?

Space


Antwort von steve72:

Hallo,
ich kenne mich nicht so gut aus mit Grafikkarten, darum interessiert mich eure Meinung.

Welche Karte ist die bessere wenn es mir um Color Grading - "Genauigkeit"- Farbtreue und Performance geht?
Und welche ist die beste in Preis/Leistung?

Quadro K4000 (neu)
GTX 780
GTX 770
GTX 760

Im Internet wird oft die GTX760 empfohlen (Wieso nicht die 770 oder 780, diese scheint doch laut den benchmarks besser zu sein?!)

Vielen Dank für eure Hilfe!

EDIT:
Habe eben diesen Thread hier gefunden der eigentlich die Frage beantwortet! viewtopic.php?t=109740

Da mein Flaschenhals vorallem am Colorgrading in After Effects (Colorista & co) liegt, ist wohl eine QUADRO besser geeignet als eine GForce. Aber macht das wirklich den großen unterschied ob ich eine colirste sequenz mit einer Quadro rendere oder mit einer Gforce GTX760 ???

EDIT2: Ich sehe gerade die GTX 690 ist von den Daten her ja echt doppelt so stark wie die QUADRO K4000... und das beim gleichen Preis...

HHELPPPP

Liebe Grüße,
Steve Beim Grading in After Effects machen die unterschiedlichen Karten meiner Erfahrung nach kaum Unterschiede - da After Effects sowieso nicht auf Realtime ausgelegt ist - wirklich schnell geht da auch mit teuren Karten nix. Auf die Qualität des Gradings hat die Karte übrigens keinen Einfluss.

In Resolve dagegen ist die Grafikkarte mehr als die halbe Miete. Der Hauptvorteil der Quadros ist übrigens keine bessere Performance als bei den Geforce-Karten, sondern eine geringerer Stromverbrauch und oft auch eine kleinere Bauform. Eine Geforce 660Ti hat in Resolve die doppelte Leistung einer Quadro 4000 bei weniger als der Hälfte des Preises ... Vielen Dank für die Aufklärung.

Die Geforce 660Ti wird nicht als "Supportete" Grafikarte bei Adobe aufgelistet. Die GTX 680 dagegen schon... Sicher das die 660TI Funktioniert? Ich weiß das es einen Trick gibt der es freischaltet. Aber den möchte ich nicht nutzen da ich das bei meiner jetzigen karte auch shconmal gemacht habe und mir Adobe Premiere dann andauernd abgeschmiert ist und nicht mehr stabil war.


Ist die Geforce GTX 680 eine "gute" Karte wenn ich Filme schneiden möchte in Adobe Premiere CS6, bearbeiten in Adobe After Effects + Plugins(Colorgrading -> Colorista II, Neat Video, etc) sowie Davinvi Resolve

EDIT: Achja ich möchte ein 10Bit Monitor anschließen. Kann die Karte das oder?

?

Vielen Dank für die Hilfe!

Space


Antwort von dienstag_01:

Ist die Geforce GTX 680 eine "gute" Karte wenn ich Filme schneiden möchte in Adobe Premiere CS6, bearbeiten in Adobe After Effects + Plugins(Colorgrading -> Colorista II, Neat Video, etc) sowie Davinvi Resolve

EDIT: Achja ich möchte ein 10Bit Monitor anschließen. Kann die Karte das oder?

? Premiere mit den meisten seiner Effekte profitiert von Cuda.
Colorista profitiert von OpenGL.
NeatVideo von der Zahl der Kerne der CPU (glaub ich).
DaVinci empfiehlt zwei Grafikkarten (eine davon eine BlackMagic fürs Monitoring).
10bit geht nicht (glaub ich).

Such dir was aus ;)

Space


Antwort von Reiner M:

- und 64bit-Float-Berechnungen ergeben genauere Werte als 32bit-Float. Ist so. Wo bietet PPro das an? Nirgends. Ist auch nicht nötig.
Grafikkarten sind volltsändige Computer. Mit eigenem Betriebssystem (Treiber), eigenen Prozessoren, eigenem RAM.
Vorne was rein, hinten was raus. Dazwischen rechnen sie nach den Fähigkeiten ihres Systems. Die Quadros übersetzen Float mit 64bit, die Geforces mit 32bit.
Beste Grüße,
Reiner

Space


Antwort von Reiner M:

@Reinrer_M
Jetzt muß Du nur noch erklären warum es Playback Engine heißt Namen ...
Sie hätten jeden anderen wählen können, Alf. Egal wie das das Ding heißt.

Da das aber schon öfter zu Verwirrungen geführt hat, gibts von Adobe dazu Erläuterungen. Such mal nach Mercury Playback Engine bei Adobe.

Wenn GPU-Unterstützung eingeschaltet ist, finden alle Berechnungen, die CUDA-fähig sind und in der Karte abgearbeitet werden können (Platzbedarf!), in der Karte statt. "Maximale Renderqualität" ist automatisch eingeschaltet.

Vorschau und Export unterscheiden sich nur darin, dass einmal die gerenderten und encodierten Ergebnisse in den View-Port laufen, das andere Mal in eine Datei. In beiden Fällen passiert grundsätzlich das Gleiche. Nur die Codecs fürs Encodieren unterscheiden sich, nicht die Rendervorgänge (Bildberechnung und -erzeugung als Grundlage fürs Encodieren).

Beste Grüße,
Reiner

Space


Antwort von Hirschflo:

Hallo,
ich kenne mich nicht so gut aus mit Grafikkarten, darum interessiert mich eure Meinung.

Welche Karte ist die bessere wenn es mir um Color Grading - "Genauigkeit"- Farbtreue und Performance geht?
Und welche ist die beste in Preis/Leistung?

Quadro K4000 (neu)
GTX 780
GTX 770
GTX 760

Im Internet wird oft die GTX760 empfohlen (Wieso nicht die 770 oder 780, diese scheint doch laut den benchmarks besser zu sein?!)

Vielen Dank für eure Hilfe!

EDIT:
Habe eben diesen Thread hier gefunden der eigentlich die Frage beantwortet! viewtopic.php?t=109740

Da mein Flaschenhals vorallem am Colorgrading in After Effects (Colorista & co) liegt, ist wohl eine QUADRO besser geeignet als eine GForce. Aber macht das wirklich den großen unterschied ob ich eine colirste sequenz mit einer Quadro rendere oder mit einer Gforce GTX760 ???

EDIT2: Ich sehe gerade die GTX 690 ist von den Daten her ja echt doppelt so stark wie die QUADRO K4000... und das beim gleichen Preis...

HHELPPPP

Liebe Grüße,
Steve Beim Grading in After Effects machen die unterschiedlichen Karten meiner Erfahrung nach kaum Unterschiede - da After Effects sowieso nicht auf Realtime ausgelegt ist - wirklich schnell geht da auch mit teuren Karten nix. Auf die Qualität des Gradings hat die Karte übrigens keinen Einfluss.

In Resolve dagegen ist die Grafikkarte mehr als die halbe Miete. Der Hauptvorteil der Quadros ist übrigens keine bessere Performance als bei den Geforce-Karten, sondern eine geringerer Stromverbrauch und oft auch eine kleinere Bauform. Eine Geforce 660Ti hat in Resolve die doppelte Leistung einer Quadro 4000 bei weniger als der Hälfte des Preises ... Vielen Dank für die Aufklärung.

Die Geforce 660Ti wird nicht als "Supportete" Grafikarte bei Adobe aufgelistet. Die GTX 680 dagegen schon... Sicher das die 660TI Funktioniert? Ich weiß das es einen Trick gibt der es freischaltet. Aber den möchte ich nicht nutzen da ich das bei meiner jetzigen karte auch shconmal gemacht habe und mir Adobe Premiere dann andauernd abgeschmiert ist und nicht mehr stabil war.


Ist die Geforce GTX 680 eine "gute" Karte wenn ich Filme schneiden möchte in Adobe Premiere CS6, bearbeiten in Adobe After Effects + Plugins(Colorgrading -> Colorista II, Neat Video, etc) sowie Davinvi Resolve

EDIT: Achja ich möchte ein 10Bit Monitor anschließen. Kann die Karte das oder?

?

Vielen Dank für die Hilfe! Wie gut die 680 für Premiere ist kann ich mangels Erfahrung nicht beurteilen, da ich weder mit dieser Karte noch mit Premiere arbeite. Bei Colorista merke ich persönlich bei den verschiedenen Karten keinen Unterschied - hier ist auch wahrscheinlich der Datentransfer von und zur Karte das Nadelöhr und nicht deren Processing. Neat Video profitiert aber wieder sehr von der Geschwindigkeit der Grafikkarte.

DaVinci ist wieder eine ganz eigenes Kapitel. Empfohlen werden dafür eigentlich mindestens 2 Grafikkarten: Eine simple fürs GUI und dann noch eine odere mehrere potente CUDA-fähige Grafikkarten (an denen allerdings keine Monitore hängen). Bei relativ starken garten wie der 570, 660 oder 680 kann man allerdings auch die sowohl fürs CUDA-Processing als auch für die GUI-Darstellung verwenden, ohne all zu viel an Echtzeitleistung zu verlieren.

Ob eine Grafikkarte 10-Bit ausgibt, ist eigentlich für professionelle Videoarbeiten nicht wesentlich, da man das Bild nicht über den Monitor beurteilen sollte, der an der Graka hängt, sondern über den Videomonitor der über SDI am Videoboard (Blackmagic, Aja oder ähnliches) hängt und 10 Bit darstellt. Arbeitet man hauptsächlich an Videos fürs Web stellt sich auch wieder die Frage, wofür 10 Bit? Dann sieht man selbst 8Bit-Banding nicht, dass allerdings jeder andere sehen wird ...

Als Ausgangsmaterial für die Bearbeitung sind aber 10 Bit und mehr auf jeden Fall toll, da es in der Bearbeitung einfach viel mehr aushält.

LG

Flo

Space


Antwort von Coco21:

vielen Dank für Eure Tipps.

Ich hatte für den Videoschnitt-PC ursprünglich die Nvidia GT640 im Auge, da Nvidia auf ihrer Internetseite die GPUs nach HD-Foto/Video einerseits und Gaming andereits einteilt. Für HD-Foto-Video stehen dort die GT...-Grafikkarten und für Games die GTX...GPUs.
Sogesehen schien mir die GT640 angemessen. Alternativ dazu hatte ich die Radeon HD7770 in Erwägung gezogen, die zwar teurer ist, aber von den Parametern wohl auch etwas besser zu sein scheint. Leider weiß ich nicht inwieweit sich die Unterschiede beim Videoschnitt in der Praxis tatsächlich bemerkbar machen.
Benutzt vielleicht einer von Euch einer der Grafikkarten?

Space


Antwort von dienstag_01:

Eine GT640 hat nur eine Speicheranbindung von 64bit. Ich weiss nicht, ob das empfehlenswert ist.

Space



Space


Antwort von Hirschflo:

vielen Dank für Eure Tipps.

Ich hatte für den Videoschnitt-PC ursprünglich die Nvidia GT640 im Auge, da Nvidia auf ihrer Internetseite die GPUs nach HD-Foto/Video einerseits und Gaming andereits einteilt. Für HD-Foto-Video stehen dort die GT...-Grafikkarten und für Games die GTX...GPUs.
Sogesehen schien mir die GT640 angemessen. Alternativ dazu hatte ich die Radeon HD7770 in Erwägung gezogen, die zwar teurer ist, aber von den Parametern wohl auch etwas besser zu sein scheint. Leider weiß ich nicht inwieweit sich die Unterschiede beim Videoschnitt in der Praxis tatsächlich bemerkbar machen.
Benutzt vielleicht einer von Euch einer der Grafikkarten?
Die Unterteilung die NVIDIA auf der Website macht ist Marketingblabla - für Fotobearbeitung reicht z.b. so ziemlich jeder Mist als Grafikkarte. Die GTs sind in nichts besser als die GTXen - auch nicht im Videobereich - genau das Gegenteil ist der Fall. Die GTXen sind in jedem Fall besser, wenn Processing auf der Grafikkarte stattfindet - egal ob für Games, GPU-Renderer wie Octane, DaVinci Resolve oder Premiere.

Wenn Du Adobe Premiere verwendest, greif zu einer GTX mit möglichst vielen CUDA-Cores. Es gibt allerdings auch Schnittsoftware, die gar nichts auf der GPU erledigt ... da tut es theoretisch auch eine Steinzeitgrafikarte.

Space


Antwort von holger_p:

Es gibt allerdings auch Schnittsoftware, die gar nichts auf der GPU erledigt ... da tut es theoretisch auch eine Steinzeitgrafikarte. Falsch. Auch da sollte man eine Grafikkarte mit breiter Anbindung und hohem 2D Durchsatz wählen.


Gruß Holger

Space


Antwort von holger_p:

Sogesehen schien mir die GT640 angemessen. Alternativ dazu hatte ich die Radeon HD7770 in Erwägung gezogen, die zwar teurer ist, aber von den Parametern wohl auch etwas besser zu sein scheint. Leider weiß ich nicht inwieweit sich die Unterschiede beim Videoschnitt in der Praxis tatsächlich bemerkbar machen.
Benutzt vielleicht einer von Euch einer der Grafikkarten? Ich habe eine 7770 OC im Rechner. Die läuft unter Edius Pro und Pinnacle Studio 14 tadellos. Und ich schneide unter Edius 1080p50 - das Pinnacle Studio ist nur für die älteren SD-Projekte und für den Import von SVHS-Altmaterial via Pinnacle Dazzle noch auf dem Rechner.

Der Speicherdurchsatz der 7770 ist schon ganz ordentlich und natürlich ist Mehrschirmbetrieb mit der Karte kein Thema. Bildbearbeitung sowieso nicht, das geht mit allen Grafikkarten flott.

Wenn Du auch ein wenig spielen willst, dann nimm die neue 7790. Die ist etwas flotter und reicht leistungsmäßig laut c"t für die meisten aktuellen Spiele schon aus.


Gruß Holger

Space


Antwort von Coco21:

danke für die Info.
Stimmt, Fotobearbeitung ist ohnehin kein Problem. Das geht sogar mit meinem alten PC problemlos. Mir geht es nur um den AVCHD-Videoschnitt, da den mein alter Rechner im Gegensatz zu SD-Material nicht schafft.
Spiele mache ich gar nicht.

Das Problem ist, dass die meisten Tests immer auf Gamer ausgerichtet sind und Videobearbeitung fast nie eine Rolle spielt. Aus Sicht der Tester zwar verständlich, da die Zielgruppe der Gamer um ein Vielfaches höher ist als die der Videobearbeiter, aber trotzdem wäre es schön, wenn dieser Bereich auch mal mehr berücksichtig werden würde.

Space


Antwort von holger_p:

Mir geht es nur um den AVCHD-Videoschnitt, da den mein alter Rechner im Gegensatz zu SD-Material nicht schafft. Das war bei mir ähnlich. Nach einer längeren Pause (vorher miniDV) hatte ich mir einen Full HD Camcorder gekauft und mußte feststellen, dass mein bisher genutzter PC das nicht mal abspielen konnte. Mein Wohnzimmer-PC konnte es aufgrund modernerer Onboard-Radeon immerhin abspielen - schneiden konnte das der Rechner auch nicht. Also wurde nach den Empfehlungen von Avid (als Pinnacle Studio Nutzer hatte ich Avid Studio für den HD-Schnitt in die engere Wahl gefaßt) und den Empfehlungen der c"t ein neuer Rechner zusammengeschraubt. Das zog sich etwas hin, weil ich zwischendurch in die Reha kam und plötzlich war die von der c"t empfohlene Grafikkarte nicht mehr lieferbar und dann habe ich Leistungsindexe durchgeforstet und kam am Ende zur 7770, die ich als OC Modell mit zwei Lüftern und 2 DVI-Buchsen genommen habe. Von nvidia bin ganz runter - damit habe ich beim Rechner davor nur Theater gehabt.

Zum Schneiden nehme ich nun aber Edius Pro und der 2. Monitor ist im Moment an der internen Grafik des I7, damit ich Quicksync zum Rendern nutzen kann. Läuft alles reibungslos und schnell. Ich spiele aber mit dem Gedanken, einen 3. Monitor/TV anzuschließen, also 2 Monitore an der 7770 und einen an der Board-Grafik, damit Quicksync funktioniert. Ausprobiert habe ich das schon und auch das geht wunderbar.

Gruß Holger

Space


Antwort von Hirschflo:

Es gibt allerdings auch Schnittsoftware, die gar nichts auf der GPU erledigt ... da tut es theoretisch auch eine Steinzeitgrafikarte. Falsch. Auch da sollte man eine Grafikkarte mit breiter Anbindung und hohem 2D Durchsatz wählen.


Gruß Holger Natürlich sollte man das tun. Aber meine Meldung ist trotzdem nicht falsch: In Final Cut 7 z.B. rechnen nur zusätzliche Plug-Ins von Drittherstellern auf der GPU. Da macht es für den Schnitt mit den Bordmitteln null Unterschied, ob man eine ATI 5770, Quadro 4000 oder eine alte und schwache ATI 2600 HD im Rechner hat - diese Karte empfinde zumindest ich als Steinzeit des PCI-Express Busses.

Sobald man mit Colorista II, MB Looks oder Neat Video einsetzt sieht es natürlich anders aus ... da macht eine leistungsfähige GPU schon Sinn.

Space


Antwort von dienstag_01:

Mir geht es nur um den AVCHD-Videoschnitt, da den mein alter Rechner im Gegensatz zu SD-Material nicht schafft. Für die Vorschau im Schnittsystem ist die CPU wichtiger als die Grafikkarte. Die kommt, je nach Software mehr oder weniger, erst zum Berechnen von Effekten und dem Export zum Einsatz.
Ich selbst habe einen i5 2500 und damit lässt sich AVCHD gut schneiden (mal so als Anhaltspunkt).

Space


Antwort von holger_p:

Aber meine Meldung ist trotzdem nicht falsch:

Da macht es für den Schnitt mit den Bordmitteln null Unterschied, ob man eine ATI 5770, Quadro 4000 oder eine alte und schwache ATI 2600 HD im Rechner hat - diese Karte empfinde zumindest ich als Steinzeit des PCI-Express Busses.
Wenn der Speicherdurchsatz der Karte nicht stimmt, dann wird es mit flüssiger Vorschau im Dual-Monitor Betrieb nichts. Ein gewisse 2D Leistung ist erforderlich, damit man 1080p50 halbwegs unfallfrei (ohne fiese Ruckler) auf einen Full-HD Monitor bekommt. Und das schafft die Steinzeit-Karte spätestens im Dual-Monitor Betrieb nicht, auch wenn die CPU sämtliche Dekodierung übernimmt.


Gruß Holger

Space


Antwort von Coco21:

ich filme jetzt schon seit über drei Jahren in HD. Da wird es nun Zeit mal auf einen neuen PC umzusteigen, was ich mir auch schon seit langem vorgenommen hatte, aber immerwieder aufgeschoben habe. Inzwischen hat sich da natürlich viel Material angesammelt. Abgesehen davon hätte ich auch noch mehr als genug SD-Material zu schneiden. Aber da ich viel filme, kann ich ohnehin nicht alles bearbeiten.

Was CPU etc. angeht bin ich mir ja schon im klaren darüber, was es werden soll. Für mich steht nur noch die Entscheidung an, welche Grafikkarte es werden soll. Wie gesagt, das System soll gut laufen und den Videoschnitt problemlos beherrschen. Mehr erwarte ich gar nicht. Da ich nicht spiele und alle Anwendungen - außer Video - kein Problem darstellen dürften, geht es letztlich nur um den Videoschnitt. Alles andere kann ich mit meinem alten PC enbenso machen. Ich will natürlich auch nicht mehr Geld ausgeben als nötig.

Space



Space


Antwort von Hirschflo:

Aber meine Meldung ist trotzdem nicht falsch:

Da macht es für den Schnitt mit den Bordmitteln null Unterschied, ob man eine ATI 5770, Quadro 4000 oder eine alte und schwache ATI 2600 HD im Rechner hat - diese Karte empfinde zumindest ich als Steinzeit des PCI-Express Busses.
Wenn der Speicherdurchsatz der Karte nicht stimmt, dann wird es mit flüssiger Vorschau im Dual-Monitor Betrieb nichts. Ein gewisse 2D Leistung ist erforderlich, damit man 1080p50 halbwegs unfallfrei (ohne fiese Ruckler) auf einen Full-HD Monitor bekommt. Und das schafft die Steinzeit-Karte spätestens im Dual-Monitor Betrieb nicht, auch wenn die CPU sämtliche Dekodierung übernimmt.


Gruß Holger Du hast natürlich recht, dass so etwas passieren kann - aber mir ist in all meinen Jahren in der Videopostpro noch nie eine Grafikkarte untergekommen die das nicht auch im Mehrschirmbetrieb schafft - und ich war schon zu Zeiten dabei, als Matrox PCI-Dual-Head-Karten wie ein technisches Wunder gewirkt haben. Aber von PCI und AGP und auch Standard Definition reden wir heute ja sowieso nicht mehr ...

Gerade Apple ist nicht gerade bekannt dafür, dass sie aktuelle und schnelle Grafikkarten verbauen - aber Probleme in dieser Hinsicht sind mir auch auf Apple-Rechnern noch nie unterkommen. Ich kann mir durchaus vorstellen, dass es fiese Billigstkarten gibt, die da Probleme machen, hab so etwas allerdings noch nie in freier Wildbahn gesehen ... auch nicht bei Steinzeitkarten wie der ATI 2600.

Space


Antwort von B.DeKid:

Ich will natürlich auch nicht mehr Geld ausgeben als nötig. 1x ASUS GTX 680 mit 4 GB ** Aber mit ner 660 gehts natürlich auch ;-) **


*** GraKas werden erst wirklich interressant bei Partikel Animationen , ansonsten eher Überbewertet - Thema durch ***

Space


Antwort von dienstag_01:

Wenn der Speicherdurchsatz der Karte nicht stimmt, dann wird es mit flüssiger Vorschau im Dual-Monitor Betrieb nichts. Ein gewisse 2D Leistung ist erforderlich, damit man 1080p50 halbwegs unfallfrei (ohne fiese Ruckler) auf einen Full-HD Monitor bekommt. Und das schafft die Steinzeit-Karte spätestens im Dual-Monitor Betrieb nicht, auch wenn die CPU sämtliche Dekodierung übernimmt. Wenn die Grafikkarte keine zusätzlichen Aufgaben übernehmen soll, hat das alles mit Speicherdurchsatz etc. nichts zu tun. Die muss das Bild darstellen - und wenn sie zwei Bildschirme bedienen kann, stell sie es natürlich auch dar. Egal ob 1i oder 50p.
Da ich nicht spiele und alle Anwendungen - außer Video - kein Problem darstellen dürften, geht es letztlich nur um den Videoschnitt. Alles andere kann ich mit meinem alten PC enbenso machen. Ich will natürlich auch nicht mehr Geld ausgeben als nötig. Wie gesagt, ich würde dir eine 128bit Karte dafür empfehlen. 64bit reichen vielleicht auch, aber irgendwie geht das in die Richtung, gleich eine Onboard-Grafik zu verwenden. Und da hört man hier immer mal wieder von Problemen. Aber, gehen könnte es.

Space


Antwort von Coco21:

GTX680 ist definitiv viel zu teuer und für meine Zwecke sicher auch überdimensioniert.

Space


Antwort von dienstag_01:

@Coco21
http://www.amazon.de/dp/B004EEH7WW/ref= ... B004EEH7WW
Gibts woanders viellicht billiger.
Die Karte hat aber manchmal DDR3 Speicher. Würde ich vermeiden.

Space


Antwort von Coco21:

das stimmt

Space


Antwort von holger_p:

Wenn die Grafikkarte keine zusätzlichen Aufgaben übernehmen soll, hat das alles mit Speicherdurchsatz etc. nichts zu tun. Die muss das Bild darstellen - und wenn sie zwei Bildschirme bedienen kann, stell sie es natürlich auch dar. Egal ob 1i oder 50p. Mit Speicherdurchsatz ist die Fähigkeit gemeint, eine gewisse Anzahl Bilder pro Sekunde in die Karte zu bekommen. Du empfiehlst CoCo21 ja nicht ohne Grund eine 128 Bit Karte anstelle einer 64Bit Karte. Genau das ist mit Durchsatz gemeint. Für 50p müssen auch 50 Bilder pro Sekunde irgendwie in den Speicher der Grafikkarte. Ein Bild Full-HD hat 1920*1080=2073600 Bildpunkte. Bei einer Farbtiefe von 24 Bit sind das rund 6MByte pro Bild. Bei 50 Bildern pro Sekunde fallen immerhin schon 300 MByte an. Der Bildschirm wird aber mit 60 HZ angesteuert, idealerweise berechnet der Player also noch Zwischenbilder und schiebt dann 60 Bilder zur Karte. Dann sind wir bei 360 MByte. Da kommt die Steinzeitkarte nicht mehr mit. Ist doch gar nicht schwer zu verstehen oder?

Übrigens: Läßt man die Karte dekodieren, sinkt die benötigte Speicherbandbreite extrem. Dann wandert der komprimierte Datenstrom (ca 28MBit/s bei AVCHD) in die Karte und die GPU bereitet diese Daten selber auf. Da würde selbst ein 16 Bit Bus wieder reichen...

Fazit: Je dümmer die Karte verwendet wird, desto höheren Speicherdurchsatz muss sie bieten, damit die CPU die Datenmenge in den Videospeicher schaufeln kann. An der Stelle sind manche Onboard Grafikchips keine schlechte Wahl, wenn die CPU nämlich direkt in den Grafikspeicher mit dem normalen Tempo ansprechen kann.


Gruß Holger

Space


Antwort von dienstag_01:

Holger, träum nicht.
Beispielsweise hat Nvidia die Geforce 7er Serie 2005 herausgebracht. Wenn das keine Steinzeit ist. Die Speicherbandbreite war so um die 20GB/s. Und du lommst hier mit 360 MB/s. ;)

Space


Antwort von Reiner M:

Der Bildschirm wird aber mit 60 HZ angesteuert, idealerweise berechnet der Player also noch Zwischenbilder und schiebt dann 60 Bilder zur Karte. Dann sind wir bei 360 MByte. Da kommt die Steinzeitkarte nicht mehr mit. Ist doch gar nicht schwer zu verstehen oder? Idealerweise macht das der Player nicht. Der spielt genau das ab, was die Video-Settings vorgeben. Das ist sein Job. Er schiebt also bei 50p genau 50 Bilder an die Grafikkarte, die holt sich aus dem RAM einzeln die 50 Bilder pro Sekunde ab, gibt aber an den Monitor genau das aus, was man im Treiber-Panel eingestellt hat, z. B. 60 Hz, also 60 Bilder.

Im Grafikkartentreiber kann man sehr genau ablesen, welche Werte für Bildgrößen/Farbtiefen/Monitore einstellbar sind. Die funktionieren dann auch. Andere können gar nicht gewählt werden. Ganz einfach.

Und wenn die Steinzeitkarte zwei Monitore hochauflösend zulässt (was zumindest seit der späten Steinzeit die Regel ist), ist das einfach so und hat mit FullHD und 50p und Video nix zu tun.

Beste Grüße,
Reiner

Space



Space


Antwort von holger_p:


Idealerweise macht das der Player nicht. Der spielt genau das ab, was die Video-Settings vorgeben. Das ist sein Job. Er schiebt also bei 50p genau 50 Bilder an die Grafikkarte, die holt sich aus dem RAM einzeln die 50 Bilder pro Sekunde ab, gibt aber an den Monitor genau das aus, was man im Treiber-Panel eingestellt hat, z. B. 60 Hz, also 60 Bilder. Das werden viele Player so machen, aber von "idealerweise" ist das weit entfernt, denn genau das sorgt für ruckelnde Ergebnisse. Idealerweise fragt der Player ab, mit welcher Rate der Monitor bedient wird und erzeugt dann passend die Bilder. Noch idealer wäre es natürlich, wenn die Grafikkarte intelligent ist und selbst dekodiert.
Und wenn die Steinzeitkarte zwei Monitore hochauflösend zulässt (was zumindest seit der späten Steinzeit die Regel ist), ist das einfach so und hat mit FullHD und 50p und Video nix zu tun. Viele ältere Grafikkarten können problemlos zwei Monitore mit Full-HD Auflösung ansprechen. Der Videochip bekommt die Ausgabe auf die DVI-Buchsen gerade noch so hin, auch wenn das Speicherinterface der Karte viel zu langsam ist, um Full-HD Auflösung mit 50 Bildern pro Sekunde anzunehmen. Das eine hat mit dem anderen absolut nichts zu tun.

Gruß Holger

Space


Antwort von Reiner M:

Idealerweise fragt der Player ab, mit welcher Rate der Monitor bedient wird und erzeugt dann passend die Bilder. Was Du schreibst, hieße ja, dass es völlig egal ist, mit welcher Framerate ich ein Video produziere. Ist das so?
Der Player müsse demnach in jedem Fall berechnetes, flüssiges 60p draus machen, wenn die Grafikkarte auf 60Hz eingestellt ist, und 50p, wenn sie mit 50Hz betrieben wird. Zusätzlich müsste sich der Player mit dem Taktgeber der Karte 100%tig synchronisieren, damit ein Frame auch genau dann komplett bereit steht, wenn die Karte das Bild zum Monitor schickt, unabhängig davon, wie lang der Player für Lesen der Quelle, Dekodieren und Bereitstellen braucht. Hmmm.
Wie machen das Fotoprogramme, oder der Browser mit Flash und Gifs, ode der Desktop? All das wird auch mit 60Hz angezeigt.

Ich werde meine Videos nach wie vor sehr bewußt mit einer wohl gewählten, bestimmten Framerate produzieren und mich nicht darauf verlassen ... ;)
Viele ältere Grafikkarten können problemlos zwei Monitore mit Full-HD Auflösung ansprechen. Der Videochip bekommt die Ausgabe auf die DVI-Buchsen gerade noch so hin, auch wenn das Speicherinterface der Karte viel zu langsam ist, um Full-HD Auflösung mit 50 Bildern pro Sekunde anzunehmen. Was Probleme bereiten könnte, wäre die Anbindung über die PCI-Schnittselle, doch bereits eine PCI-e 1.0 x1 schafft mehr, als für ein FullHD-Video 50p nötig wäre. Da sehe ich kein Problem.

Das Speicherinterface zwischen VRAM und Chip ist sicher schnell genug. Denn darüber kann ja der Bildspeicherinhalt mit einer Bildwiederholfrequenz von 60Hz ausgeben werden. Ist also kein Problem.

Was aber tasächliche Probleme bereitet, sind die nötigen Dekodierzeiten. Da lassen bei 50p-Videos die Software-Player auf schwachen oder zu stark belasteten CPUs sogar Frames aus, um eine Echtzeitwiedergabe zu erreichen. Wie wollen die das noch auf 60Hz aufpeppen?
Erster klarer Engpass ist also in jedem Fall die CPU.

Der Sinn starker Grafikkarten steckt nicht in der Bildwiedergabe für Monitore, sondern in ihrer zweiten Funktion, der Bildaufbereitung, die davon getrennt und zusätzlich läuft. Das nutzen z. B. NLEs so.
Hier kommt, was die Übertragunsgleistung angeht, natürlich zusätzlicher und zudem bidirektionaler Bedarf auf für Datenaustausch zwischen Software, RAM des PCs und VRAM der Karte. Während also ein Bild (gerne auf mehreren Monitoren) ausgegeben wird, werden andere Bilddaten in die Karte transportiert, dort berechnet und zurück ins PC-RAM geschrieben. U. U. ohne sie anzuzeigen.

Genau da zeigt sich dann der Unterschied zwischen verschieden breiten Datenabindungen, unterschiedlich schnellen und großen VRAMS sowie unterschiedlichen Prozessoren. Nicht bei der Monitorausgabe. Die ist relativ trivial.

Beste Grüße,
Reiner

Space


Antwort von holger_p:


Was Du schreibst, hieße ja, dass es völlig egal ist, mit welcher Framerate ich ein Video produziere. Ist das so? Ein guter Player kann das. Allerdings muss dann die Rechenleistung für Softwaredekodierung ausreichen.

Was glaubst Du, warum es neben den zahlreichen und zweifelsohne guten kostenlosen Playern auch Player gibt, die bis knapp 100 Euro teuer sind?
Zusätzlich müsste sich der Player mit dem Taktgeber der Karte 100%tig synchronisieren, damit ein Frame auch genau dann komplett bereit steht, wenn die Karte das Bild zum Monitor schickt, unabhängig davon, wie lang der Player für Lesen der Quelle, Dekodieren und Bereitstellen braucht. Der Player schiebt die Daten zur Karte, die übernimmt die exakte Übernahme zum Framewechsel. Sonst würde es generell zu ständigen Flackereffekten kommen.
Ich werde meine Videos nach wie vor sehr bewußt mit einer wohl gewählten, bestimmten Framerate produzieren und mich nicht darauf verlassen ... ;) Das eine schließt das andere ja nicht aus. Mehr Frames heißt ja auch weniger interpolieren.
Was aber tasächliche Probleme bereitet, sind die nötigen Dekodierzeiten. Da lassen bei 50p-Videos die Software-Player auf schwachen oder zu stark belasteten CPUs sogar Frames aus, um eine Echtzeitwiedergabe zu erreichen. Wie wollen die das noch auf 60Hz aufpeppen?
Erster klarer Engpass ist also in jedem Fall die CPU. Es geht in diesem Thread um die Grafikkarte, nicht um die CPU.
Der Sinn starker Grafikkarten steckt nicht in der Bildwiedergabe für Monitore, sondern in ihrer zweiten Funktion, der Bildaufbereitung, die davon getrennt und zusätzlich läuft. Das nutzen z. B. NLEs so. Falsch. Das nutzen nur einige NLEs so. Boshaft könnte ich sagen, dass es die Programme nutzen, deren Programmierer zu doof sind, das in effizienten CPU-Routinen zu erledigen.
Die meisten NLEs nutzen die Kodierfähigkeiten der Grafikkarte nur beim Rendern und für die Wiedergabe und zwar sowohl bei Vollbild als auch bei Wiedergabe in kleinem Fenster.

Und wenn die Grafikkarte die Wiedergabedekodierung übernimmt, dann reicht eine CPU mit der Rechenleistung eines besseren Taschenrechners. Ich habe ein billiges 7" Tablet der 100 Euro Klasse (2012 gekauft) von Hyundai China mit einer schwachen ARM9 CPU. Da steckt aber ein Mali400 Grafikkern mit drin und das Ding spielt ruckelfrei AVCHD 1080p50 direkt aus der Kamera ab, auch via HDMI auf der Glotze. Das schafft ein moderner Doppelkern-Prozessor ohne Hilfe der Grafikkarte (die besagte Steinzeitkarte, die nichts dekodieren kann) nicht.


Gruß Holger

Space


Antwort von dienstag_01:

Hallo Holger,
ums einfach zu machen, nenn doch einfach mal einen Player der interpoliert. Ich kenne keinen (aber kenne natürlich auch nicht alle).
Die meisten NLEs nutzen die Kodierfähigkeiten der Grafikkarte nur beim Rendern und für die Wiedergabe und zwar sowohl bei Vollbild als auch bei Wiedergabe in kleinem Fenster. Das ist falsch. Das Encoding wird in den NLEs komplett von den CPUs übernommen. Erst bei Rendering und Effekten greift die GPU. Genau daher kommt ja auch die Aussage, dass eine *Steinzeitgrafikkarte* das auch kann.
Was du von deinem Tabet beschreibst, ist die ganz andere Arbeitsweise von Software Playern, das hat aber mit dem NLE nicht zu tun.

Edit: Hattest du eigentlich noch nie Probleme mit Tearing?

Space


Antwort von holger_p:

Hallo Holger,
ums einfach zu machen, nenn doch einfach mal einen Player der interpoliert. Ich kenne keinen (aber kenne natürlich auch nicht alle). PowerDVD von Cyberlink soll das können.
Das ist falsch. Das Encoding wird in den NLEs komplett von den CPUs übernommen. Um es mit Deinen Worten zu sagen: Das ist falsch.
Erst bei Rendering und Effekten greift die GPU. Kennst Du den Unterschied zwischen Encoding und Rendern?
Wikipedia beschreibt Quick Snyc jedenfalls so: "Intel Quick Sync Video is Intel's hardware video encoding and decoding technology, which is integrated into some Intel CPUs"
Edius nutzt Quick Sync. Dein Premiere nutzt genau dafür CUDA (noch).

Mit anderen Worten: Die GPU macht das Encoding. Und das Encoding ist beim Videoschnitt der Hauptbestandteil des Rendern, wobei dazu meist ein wenig mehr als nur das Encoding gehört. Das "mehr" muss dann die CPU machen. Das wäre dann z.B. den Ton zu bearbeite, und alles am Ende in den Container packen.

Also noch mal zum Mitschreiben: Das Encoding kann durch die GPU durchgeführt werden. Es muss natürlich nicht.


Gruß Holger

Space


Antwort von dienstag_01:

Damit wir uns erstmal über den Begriff einig sind (wird wirklich oft für beide *Richtungen* verwendet): Encoding meint hier das Decodieren des komprimierten Datenstroms für die Anzeige. Und das macht in Premiere (und auch in Avid) natürlich die CPU.

Space


Antwort von holger_p:

Damit wir uns erstmal über den Begriff einig sind (wird wirklich oft für beide *Richtungen* verwendet): Encoding meint hier das Decodieren des komprimierten Datenstroms für die Anzeige. Und das macht in Premiere (und auch in Avid) natürlich die CPU. Auch da muss ich Dich enttäuschen: Das Dekodieren des Videosignals kann von der GPU übernommen werden. Die CPU muss lediglich den Container öffen und das eigentliche Videosignal daraus an die GPU leiten zusammen mit der Information, wo un wie groß es auf dem Bildschirm erscheinen soll.

Das Wort Enkodieren gibt es in der klassischen Nachrichtentechnik nicht. Enkodieren steht für Kodieren und das ist eben das Gegenteil von Dekodieren. In der Videotechnik wird im Wesentlichen kodiert/dekodiert, um die Datenmenge zu reduzieren und um Übertragungsfehler zu minimieren.

Warum das englische Wort "Encoding" dann sowohl für Kodieren als auch Dekodieren stehen soll, ist mir rätselhaft. Wiki auch.


Gruß Holger

Space


Antwort von Reiner M:


Was Du schreibst, hieße ja, dass es völlig egal ist, mit welcher Framerate ich ein Video produziere. Ist das so? Ein guter Player kann das. Allerdings muss dann die Rechenleistung für Softwaredekodierung ausreichen.

Was glaubst Du, warum es neben den zahlreichen und zweifelsohne guten kostenlosen Playern auch Player gibt, die bis knapp 100 Euro teuer sind? Wäre es Deiner Meinung nach dann nicht sinnvoll, Videos nur noch mit 5fps herzustellen? Oder 10fps? Dank Software für 100 Euro: Wozu noch eine 50p-Cam und ewiges Rendern in riesige Files und Fragen über Fragen, wie man den von 24p oder 29,97p nach 25p oder 30p kommt ... - alles sinnlos ... rausgeworfenes Geld, vertrödelte Zeit. ;)
Der Sinn starker Grafikkarten steckt nicht in der Bildwiedergabe für Monitore, sondern in ihrer zweiten Funktion, der Bildaufbereitung, die davon getrennt und zusätzlich läuft. Das nutzen z. B. NLEs so. Falsch. Das nutzen nur einige NLEs so. Boshaft könnte ich sagen, dass es die Programme nutzen, deren Programmierer zu doof sind, das in effizienten CPU-Routinen zu erledigen. Lassen wir es Holger. Derartige Aussagen sind komplett daneben.

Grafikkarten entlasten für derartige Berechnungen die CPU. Genau das ist der Sinn. 1080p50: 1/50 Sekunde Zeit für alles. Je mehr in dieser Zeit geschafft wird, desto flüssiger läuft die Vorschau, desto mehr komplexe Verfahren (Effekte, Spuren) kann ich nutzen. Da geht es nicht um die Anzeige, sondern um Berechnungen zwischen zwei Anzeigen.

NLEs, die das nutzen, profitieren direkt und unmittelbar davon und reichen diesen Profit an den Anwender weiter. Starke Grafikkarten haben dann einen großen Nutzen.

Beweise mir, wie doof DIE PROGRAMMIER sind, und dass DU mit 4 oder 8 Kernen mittels Multithreading in der CPU eine komplexe Fließkommaberechnung mit mehreren Millionen Daten schneller hinbekommst, als sie mit mehreren 100 Kernen in der GPU mit Parallelprocessing, mit Prozessorkernen die dafür speziell ausgelegt sind. Schafft Du das?

Du widersprichst Dir selbst: Einerseits sind Programmierer, die die Ressource Grakfikkarten-Parallelprocessing nutzen, zu doof zum Programmieren, andererseits sind für Dich Systeme gut, die mit genau damit die Dekodierlast von der CPU nehmen.

Ach ja: Die Grafikkarte arbeitet bei der Monitorausgabe in Hertz, nicht in Frameraten. Sie wartet nicht darauf, ob die Software mit einem Frame fertig geworden ist. Liegt zum Ausgabezeitpunkt kein neuer Inhalt im Bildspeicher, wird der alte Inhalt nochmal angezeigt. Fertig.

Beste Grüße,
Reiner

Space


Antwort von dienstag_01:

Damit wir uns erstmal über den Begriff einig sind (wird wirklich oft für beide *Richtungen* verwendet): Encoding meint hier das Decodieren des komprimierten Datenstroms für die Anzeige. Und das macht in Premiere (und auch in Avid) natürlich die CPU. Auch da muss ich Dich enttäuschen: Das Dekodieren des Videosignals kann von der GPU übernommen werden. Die CPU muss lediglich den Container öffen und das eigentliche Videosignal daraus an die GPU leiten zusammen mit der Information, wo un wie groß es auf dem Bildschirm erscheinen soll. Du bist einfach vollkommen ahnungslos.
Oder ein Spassvogel.
Mach mal ;)

Space



Space


Antwort von Reiner M:

Auch da muss ich Dich enttäuschen: Das Dekodieren des Videosignals kann von der GPU übernommen werden. Die CPU muss lediglich den Container öffen und das eigentliche Videosignal daraus an die GPU leiten zusammen mit der Information, wo un wie groß es auf dem Bildschirm erscheinen soll. Die Betonung liegt auf kann.
Dafür muss das Dekodierprogramm in der GPU vorhanden sein.
Ist es aber i.d.R. nicht, inbesondere dann nicht, wenn wir von AVCHD sprechen.

Es liegt auch kein "Videosignal" vor. Sondern ganz normale Bytes in einer Datei. Das ist digital, nicht analog. Diese Bytes sind kodierte Daten, aus denen ein Bild erzeugt werden kann, sie repräsentieren aber nicht direkt ein Bild. Es sind keine Bitmaps. Sie müssen mindestens zweimal konvertiert werden. Das geht ohne Programm nicht.

Beste Grüße,
Reiner

Space


Antwort von TheBubble:

Was glaubst Du, warum es neben den zahlreichen und zweifelsohne guten kostenlosen Playern auch Player gibt, die bis knapp 100 Euro teuer sind? 1. Weil für einige Codecs und Funktionen zumindest in einigen Regionen Abgaben fällig sind.
2. Weil es Leute gibt, die bereit sind, für Abspielprogramme ca. 100 EUR auszugeben.
Der Sinn starker Grafikkarten steckt nicht in der Bildwiedergabe für Monitore, sondern in ihrer zweiten Funktion, der Bildaufbereitung, die davon getrennt und zusätzlich läuft. Das nutzen z. B. NLEs so. Eigentlich liegt der primäre "Sinn starker Grafikkarten" im Nutzen für aufwendige 3D-Computerspiele. :-)

Space


Antwort von Reiner M:

[
Eigentlich liegt der primäre "Sinn starker Grafikkarten" im Nutzen für aufwendige 3D-Computerspiele. :-) Da hast Du völlig Recht! Aber warum brach liegen lassen, was sich wie auf dem Präsentierteller geradezu anbiedert? Wer Video macht, braucht einen PC, braucht einen Grafikkarte ...
Die NLE- und Codec-Hersteller sehen und nutzen es. Mehr und mehr.

Dass es funktioniert, und dass es einen riesigen (!) Unterschied macht, ob ich den selben Effekt per GPU/CUDA oder per CPU berechne, beweisen die Programme ja ganz simpel: GPU-Unterstützung an/aus. ;)

Aus jenem Grunde würde ich diesen Hinweis - starke Grafikkarten nur für Spiele - als überholt ansehen. Zumindest was einige NLEs und Codecs angeht. Wir wollen auf der Höhe der Zeit bleiben.

Beste Grüße,
Reiner

Space


Antwort von B.DeKid:

Ihr verdient nicht wirklich euer Brot mit Grafik Anwendungen , oder ?!? :-)

Space


Antwort von holger_p:


Die Betonung liegt auf kann.
Dafür muss das Dekodierprogramm in der GPU vorhanden sein.
Ist es aber i.d.R. nicht, inbesondere dann nicht, wenn wir von AVCHD sprechen. AVCHD ist ein Containerformat, darin wird der H.264/MPEG-4 AVC-Codec verwendet und das können moderne Grafikkarten bei passenden Treibern sehr wohl "hard" dekodieren. WIe schon erwähnt, selbst die Mali400 GPU aus chnesicher Tablet-Produktion kann das!

Ob das die Software nutzt, ist eine andere Frage. Bei den gängigen Abspielprogrammen auf dem PC sieht es so aus, dass der VLC dies standardmäßig nicht nutzt (Hardwarebeschleunigung ist aber aktivierbar), der Mediaplayer Classic Home Cinema sehr wohl. Die nötigen Routinen dazu sind unter Windows direkt über DirektX ansprechbar - man muss als Programmierer keine Unterscheidnung zwischen CUDA, Quick Sync oder OpenGL machen.


Gruß Holger

Space


Antwort von holger_p:


Wäre es Deiner Meinung nach dann nicht sinnvoll, Videos nur noch mit 5fps herzustellen? Oder 10fps? Dank Software für 100 Euro: Wozu noch eine 50p-Cam und ewiges Rendern in riesige Files und Fragen über Fragen, wie man den von 24p oder 29,97p nach 25p oder 30p kommt ... - alles sinnlos ... rausgeworfenes Geld, vertrödelte Zeit. ;) Wenn die Bewegung gleichmäßig genug wäre, ginge das in der Tat. Das Berechnen von Zwischenbildern ist allerdings alles andere als trivial, wenn man es gut macht. Das Bild muss dazu in verschiedene Ebenen zerlegt werden, die Zwischenbilder berechnet werden und am Ende kommt wieder alles zusammen. Nicht ganz ohne Grund kostet ein "amtlicher" Normwandler, wie er beim Broadcast zur Wandlung von 50 auf 60 Hz oder umgekehrt zum Einsatz kommt, einen sechsstelligen Eurobetrag pro Gerät. Der Aufwand, den die Entwickler dieser Geräte treiben müssen, ist enorm. Die Algorithmen der Player sind natürlich viel simpler getrickt.

Daher ist es durchaus sinnvoll, wenn möglich, gleich in der gewünschten Framerate zu produzieren.



Gruß Holger

Space


Antwort von Reiner M:

AVCHD ist ein Containerformat, darin wird der H.264/MPEG-4 AVC-Codec verwendet und das können moderne Grafikkarten bei passenden Treibern sehr wohl "hard" dekodieren. WIe schon erwähnt, selbst die Mali400 GPU aus chnesicher Tablet-Produktion kann das! Vielleicht machst Du Dich noch mal über AVCHD schlau.

Zum Thema "hard": Ich kenne keine einizige CPU oder Standard-GPU, die hier für Videobearbeitung in Frage käme, in der in Siilizium geätzt ein spezielles Rechenwerk zur Dekodierung von AVCHD enthalten ist, ähnlich dem überall vorhanden Fließkommarechenwerk. Das hat nicht viel zu sagen, aber das wäre "hard".

Natürlich kann man den Dekodierer einer CPU oder GPU als "Treiber" oder "Firmware" beistellen - das ist dann aber "soft", weil es Software ist. Nichts anderes habe ich geschrieben. Ein Programm (nenne es von mir aus Treiber) ist nötig! Du bestätigst es ja. Das wird aber gemeinhin gar nicht gemacht.

Ich kann aber solche Software kaufen. Sie verhält sich dann nicht anders als wäre sie gleich im Treiber. Sie wird z. B. mit NLEs oder PlugIns in Form von CUDA-fähigen Effekten oder von Codecherstellern in Form von CUDA-fägigen Codecs geliefert.

Aber das alles führt zu weit weg. Fakt ist:

- Grafikkarten haben keine Probleme, Bilder auf Monitoren anzuzeigen. Auch mit FullHD 50p haben sie keine Probleme. Wenn da die Ausgabe ruckelt, ist das in erster Linie ein Problem der CPU bzw. der System-Last (was effektiv aufs selbe rauskommt).

- Die Unterschiede der Karten machen sich bemerkbar, sobald Anwendungen deren Fähigkeiten zur Berechnung von Daten nutzen. Das machen neben beispielsweise CAD-Anwendungen und Games inzwischen auch etliche NLEs, Compositing- und 3D-Software für Videobearbeitung. Sogar Codecs.

- Der Anwender im Videoschnitt sollte sich nicht von puren Leistungsdaten einer Karte beeindrucken lassen. Das System muss stimmig sein! Wenn er auf Leistung aus ist, steht ganz vorn die CPU. Die Grafikkarte sollte nur dazu passen. Da reichts eigentlich, wenn sie in den zugehörigen PCIe-Slot des Mainboards passt. Genügt für die erste Überlegung.

- Er muss dann vielmehr herausfinden, was er machen will und ob seine Programme die Karte außer für die Anzeige auch für Berechnungen nutzen. Wenn ja, in welchem Umfang. Hier unterschieden sich die Programme erheblich!

- Nutzt eine Anwendung die Karte für Berechnungen, wird das allerdings mit ziemlicher Sicherheit für die Anwendung und damit für den Anwender in den ausgewiesenen Anwendungsfällen sehr vorteilhaft sein (Beispiele wären: CUDA-Effekte in Premiere Pro, Ray-tracing in After Effects, Bildbrechnungen in Photoshop).

- In allen anderen Fällen nützt ihm eine große Karte auch für diese Anwendungen nichts. Vor allen Dingen beschleunigt sie weder das Gesamtsystem per se, noch Software-Player, wenn sie davon keinen Gebrauch machen.

Beste Grüße,
Reiner

Space


Antwort von dienstag_01:

@Reiner_M
Möglicherweise lese ich es aus deinem Beitrag nur nicht richtig heraus: man mus klar zwischen Software Playern und NLEs unterscheiden. Software Player nutzen für bestimmte Formate (mp4) ganz klar Hardwarebeschleunigung. Und das heisst GPU. Allerdings nutzen das die Player verschieden, bei VLC war die schon immer eher rudimentär. Aber auch Flash nutz die.
NLEs nutzen für die - ich nenne es immer *einfache* Vorschau - also pur das Video, ohne Effekte - diese Funktionen nicht. Ob das nun alle NLEs betrifft, keine Ahnung, kann aber jeder selbst einfach feststellen.

Space


Antwort von Reiner M:

@Dienstag,
"Hardwarebeschleunigung" meint, dass im Rahmen der Gesamtaufgabe bestimmte Rechenaufgaben an die Grafikkarte übergeben werden, für die sie prädestiniert ist. Aber bitte genau entsprechend dem Framework, das die Grafikkarte bietet (OpenCL/OpenGL/CUDA).
Das sind z. B. Skalierungen für den Video-Port (wie groß ist das Fenster im Unterschied zu den Originalmaßen des Videos? Eine aufwendige Berechnung, will man gute Ergebnisse erzielen, die auch noch für jeden Frame einzeln durchgeführt werden muss), u. a.

Das heißt nicht, dass diese Programme z. B. einen AVCHD-Codec mitbringen, der die komplette Dekodierung in der Grafikkarte vornimmt.
Wäre ein solcher Codec im System verfügbar, könnte ihn Premiere Pro auch nutzen. Man müsste ihn nicht extra kaufen. Würdest Du als Anwender ganz schnell merken ...

Das heißt noch weniger, dass die Grafikkarte das könnte.

Die Programme, auch die Player, greifen auf installierte Codecs zu oder bringen selbst welche mit.
Der Windows Media Player z. B. kann mp4/H.264 gar nicht abspielen - erst dann wenn der Codec nachinstalliert ist (kann man nur auf Systemen feststellen, die neu installiert sind, und auf denen z. B. Quicktime noch nicht drauf ist).

Wäre diese Fähigkeit in den Grafikkarten verborgen, würde sich das ganze Gesumse erübrigen. (Dann stünde es übrigens auch ganz sicher dick auf der Grafikkarte drauf, denn AVCHD ist eine geschützte Marke und ein lizenzpflichtiger Codec).

Übrigens sehe ich den den Unterschied zwischen NLEs und Playern in dieser Frage nicht. Auch die Vorschau-Monitore in Premiere Pro z. B. müssen berechnet werden (Skalierungen, Positionen), was hardwarebeschleunigt gemacht wird. In den Playern gibt es Schalter, in den NLEs auch. Der Unterschied ist nur der, dass Player einen anderen Funktionsumfang als NLEs besitzen.

Beste Grüße,
Reiner

Space



Space


Antwort von dienstag_01:

Das heißt nicht, dass diese Programme z. B. einen AVCHD-Codec mitbringen, der die komplette Dekodierung in der Grafikkarte vornimmt. Ich habe auch nicht gesagt, dass die Grafikkarte den Codec mitbringt ;)
Trotzdem entlastet sie die CPU fast komplett bei der Darstellung eines mp4-Streams. In Playern. Sonst würde auch die ruckelfreie Darstellung auf einem Tablet wie es Holger hat gar nicht funktionieren.

Space


Antwort von DV_Chris:

Also Edius benutzt den in QuickSync fähigen Core-i CPUs integrierten Encoder, um H.264 in etwa 1/3 Echtzeit zu erzeugen.

http://en.wikipedia.org/wiki/Intel_Quick_Sync_Video

Space


Antwort von dienstag_01:

Also Edius benutzt den in QuickSync fähigen Core-i CPUs integrierten Encoder, um H.264 in etwa 1/3 Echtzeit zu erzeugen. Hier gehts ja in erster Linie um die Vorschau im NLE (bzw. Player).
Greift da auch QuickSync? Eher nicht, oder.

Space


Antwort von DV_Chris:

Derzeit wird QuickSync in Edius nur für das beschleunigte H.264 Rendering verwendet.

Space


Antwort von Reiner M:

Trotzdem entlastet sie die CPU fast komplett bei der Darstellung eines mp4-Streams. Woher weißt Du das? Wie stellst Du das fest?

Kein Player, der sich nur auf eine Grafikkarte stützen kann, über die wir hier reden, wird einen H.264-Stream dekodieren können.

Er braucht den Codec, das Programm. Und welche Instanz im PC arbeitet Programme ab? ;)
Ob dann ggf. Skalierungen oder RGB-Konvertierungen o. ä. als Teilaufgaben "hardwareunterstützt" bedient werden können (also an den Computer "Grafikkarte" ausgelagert werden), ändert daran nichts.

Sicher gibt es spezielle Lösungen. Die arbeiten auch in den Cams selbst. Auch deren Hardware schafft es locker, fullHD 50p auf einem 50 Zoll TV abzuspielen. Ganz ohne große Grafikkarte, wie wir sie hier besprechen.

Hier geht es um PCs und um die Grafikkarten dazu. Und weder die CPUs dieser PCs noch die geläufigen Karten bieten fürs Dekodieren der AVCHD-Streams direkten, nativen Support. Es sei denn, ich habe was übersehen. Zeige mir eine.

Beste Grüße,
Reiner

Space


Antwort von dienstag_01:

Hier geht es um PCs und um die Grafikkarten dazu. Und weder die CPUs dieser PCs noch die geläufigen Karten bieten fürs Dekodieren der AVCHD-Streams direkten, nativen Support. Es sei denn, ich habe was übersehen. Zeige mir eine. Im VLC bspw. heisst die Funktion: Nutze GPU-beschleunigte Dekodierung.
Die wird sich vielleicht auf deinem 100 Core System nicht so auswirken ;), aber bei schwachen CPUs bewirkt die Wunder.

Space


Antwort von holger_p:

@Reiner_M
Möglicherweise lese ich es aus deinem Beitrag nur nicht richtig heraus: man mus klar zwischen Software Playern und NLEs unterscheiden. Software Player nutzen für bestimmte Formate (mp4) ganz klar Hardwarebeschleunigung. Und das heisst GPU. Allerdings nutzen das die Player verschieden, bei VLC war die schon immer eher rudimentär. Aber auch Flash nutz die. Ich glaube Rainer will es falsch verstehen. Über die Gründe mag ich hier nicht spekulieren.

Alle aktuellen GPUs bieten Hardwarebeschleunigung für die gängigen Codecs an und dazu zählt auch die MP4 Variante, die beim AVCHD Container für den Videoteil verwendet wird. Natürluch muss der Treiber bzw. bei Windows das DirectX das dem Chips noch etwas "vorkauen".
Inwieweit die Player das nutzen, ist halt unterschiedlich. Der von Dir erwähnte VLC nutzt in vielen Fällen die Hardwarebeschleunigung (Hardwaredekodierung wäre der passendere Begriff) im Default-Zustand nicht, andere schon. Ähnlich sieht es bei den NLEs aus - einige nutzen es, andere nicht.

Die Notwendigkeit, "Hardwarebeschleunigung" im großen Stil bei den Playern zu nutzen, kam mit der Bluray. Als die eingeführt wurde, war kaum ein Rechner in der Lage, mit der Softwaredekodierung (also CPU) die Bluray abzuspielen. Die CPUs der meisten Rechner war damals noch zu schwach. Aber es gab schon Grafikkarten, mit deren Hilfe das funktionierte. Da blieb den Playerprogrammierern keine andere Wahl. Heute hätte man die Wahl, aber noch immer sind haufenweisse Rechner (meist Netbooks und Billignotebooks) schwachbrüstigen CPUs der Atomklasse im Umlauf. Trotz Atomausstieg... ;-)


Gruß Holger

Space


Antwort von mannamanna:

Adobe dazu: " In a Premiere Pro based system, the CPUs are decoding the video and your GPU is handling many or all of the effects."

http://blogs.adobe.com/genesisproject/2 ... taxes.html

Space


Antwort von dienstag_01:

Adobe dazu: " In a Premiere Pro based system, the CPUs are decoding the video and your GPU is handling many or all of the effects."

http://blogs.adobe.com/genesisproject/2 ... taxes.html Das hatte ich schon weiter oben geschrieben ;)
Ich kenne aber auch kein NLE, was das anders macht. Wie auch, bei der Hardwarebeschleunigung der Grafikkarte geht es rein um Geschwindigkeit - also die Frage, spielt das Video ruckelfrei ab oder nicht - im NLE geht es immer um Genauigkeit, im Zweifel wird mit dem Video weitergearbeitet. Deshalb zeigen dir einige NLEs ja auch an, ob eine Echtzeitwiedergabe zu erwarten ist oder nicht.

Space


Antwort von mannamanna:

Adobe dazu: " In a Premiere Pro based system, the CPUs are decoding the video and your GPU is handling many or all of the effects."

http://blogs.adobe.com/genesisproject/2 ... taxes.html Das hatte ich schon weiter oben geschrieben ;)
Ich kenne aber auch kein NLE, was das anders macht. Wie auch, bei der Hardwarebeschleunigung der Grafikkarte geht es rein um Geschwindigkeit - also die Frage, spielt das Video ruckelfrei ab oder nicht - im NLE geht es immer um Genauigkeit, im Zweifel wird mit dem Video weitergearbeitet. Deshalb zeigen dir einige NLEs ja auch an, ob eine Echtzeitwiedergabe zu erwarten ist oder nicht. Na dann ists ja fein - manchmal kann eine Orginalquellenzitat nicht schaden, damit wir uns hier nicht in reinen Vermutungen verlieren ;)

Verstehe nicht ganz, was du meinst mit Geschwindigkeit per GPU und Genauigkeit per CPU...? CPU = genau + langsam vs. GPU = schnell und ungenau?

Zur Echtzeitwiedergabe: Premiere passt sich da ja per Auflösung an die Power des Systems an

mannama

Space


Antwort von dienstag_01:

Na dann ists ja fein - manchmal kann eine Orginalquellenzitat nicht schaden, damit wir uns hier nicht in reinen Vermutungen verlieren ;) Ist schon richtig so.
Verstehe nicht ganz, was du meinst mit Geschwindigkeit per GPU und Genauigkeit per CPU...? CPU = genau + langsam vs. GPU = schnell und ungenau? Vom Prinzip her ja. Ich rede hier aber nicht von Cuda, sonder von der seit Geforce 7 oder 8 verbauten Hardwarebeschleunigung. Eben die, auf die die Player zurückgreifen. Aber auch das Decoding von Videos für den Export mithilfe der GPU ist von der Qualität her nicht unheikel. Nicht umsonstz wird da QuickSync nicht die besten Noten ausgestellt und bspw. bei Sorenson Squeeze kann man das Feature an- bzw. abwählen.
Zur Echtzeitwiedergabe: Premiere passt sich da ja per Auflösung an die Power des Systems an Wäre mir neu. Hier ist also ein Link willkommen ;)

Space


Antwort von mannamanna:

Verstehe nicht ganz, was du meinst mit Geschwindigkeit per GPU und Genauigkeit per CPU...? CPU = genau + langsam vs. GPU = schnell und ungenau? Vom Prinzip her ja. Ich rede hier aber nicht von Cuda, sonder von der seit Geforce 7 oder 8 verbauten Hardwarebeschleunigung. Eben die, auf die die Player zurückgreifen. Aber auch das Decoding von Videos für den Export mithilfe der GPU ist von der Qualität her nicht unheikel. Nicht umsonstz wird da QuickSync nicht die besten Noten ausgestellt und bspw. bei Sorenson Squeeze kann man das Feature an- bzw. abwählen.

Ich würde da QuickSync nicht GPUs allgemein zurechnen - es ist ja nur eine spezielle Erweiterung von Intels Grafikkernen

AVCHD-Decoding per GPU ab Geforce 7 - ja, glaub ich auch- aber vermutlich per spezieller Hardware-Decodereinheit (hast Du mal ne Quelle zu? ) - ich glaub aber nicht, dass die auch encodieren können...? Das Problem ist eher die Encodingqualität als Decodingqualität oder gibts da auch Unterschiede?
Zur Echtzeitwiedergabe: Premiere passt sich da ja per Auflösung an die Power des Systems an Wäre mir neu. Hier ist also ein Link willkommen ;)

Der obige ;)
http://blogs.adobe.com/genesisproject/2 ... taxes.html

"If you happen to build up a timeline that surpasses the available CPU and GPU of your system, Premiere Pro gives you user definable playback capabilities. I find this to be huge. For example, I can’t play back RED (native .R3D) files at full resolution on my HP desktop let alone my MacBookPro, but I can play them back at a ¼ resolution on my MBP and ½ on my HP. That translates to HD and 2K resolutions respectively. In short, during the edit process, you are always editing in real-time based on your needs at a given moment."

Space


Antwort von dienstag_01:

AVCHD-Decoding per GPU ab Geforce 7 - ja, glaub ich auch- aber vermutlich per spezieller Hardware-Decodereinheit (hast Du mal ne Quelle zu? ) - ich glaub aber nicht, dass die auch encodieren können...? Das Problem ist eher die Encodingqualität als Decodingqualität oder gibts da auch Unterschiede? Nee, encodieren können die nicht.

Ob es eine komplette Decodiereinheit ist, weiss ich nicht.

Quellen sieht es trübe aus, Hardwarebeschleunigung ist ein Stichwort, hardware accelaration für die englische Wikipedia, aber alles nicht so umfassend.

Ich kenne es noch aus der Zeit, als ich meinen ersten Player für mp4 Videos mit Flash in meine Website eingebunden hatte, im Browser sind die Performance-Probleme ja noch größer als mit einem Standalone-Softwareplayer gewesen. Vielleicht findet man was unter hardware acceleration plus flash.

Die Decoding-Qualität kann natürlich auch leiden. So lässt VLC bspw. im Zweifel einfach mal einen Block/Frame weg. Das sollte im NLE niemals passieren ;)

Das mit der Qualität der Echtzeitvorschau verstehe ich so, dass Premiere dir bestimmte Auflösungen (FULL) bei schwachen Systemen gar nicht erst anbietet. Oben klang das so, als dass es von sich aus die Qualität reduziert, ohne Hinweis. Aber das macht es nicht.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


Neue Grafikkarten Generation von AMD - RX 7900 XT(X) mit zwei Video Engines
Video- und Grafikkarte in Kombination
Video- oder Grafikkarte?
Grafikkarte Video und 3D
Grafikkarten - Videoschnittkarten??
Video-In der Grafikkarte ohne Capture-Treiber unter Win XP
Grafikkarte mit Video In
Grafikkarte + S-Video-Ausgang
Kein Videosignal mit Grafikkarte
Grafikkarte mit Video-In zusammen mit TV-Karte
Suche beste Grafikkarte für Video & Spiele
Analogcapture mit Video-In von ATI Grafikkarte nicht möglich?
Neuer LG Monitor richtet sich selbstständig per KI auf die optimale Sehposition aus
Nvidia RTX 5060 Ti: 16GB DDR7-Grafikkarte für 4K/8K Videoschnitt
NVIDIA RTX 5000 ADA - Grafikkarte mit 32 GB Ram in den Startlöchern
Nvidia mit brachialem Grafikkarten-Update - Neue Ampere GPU für den Videoschnitt
Laptop-Auswahl für den Videoschnitt - worauf sollte man achten?
Canon EOS C300 Mark III in der Praxis - die neue S35 Referenz für Doku? Dual Pixel AF, RAW vs MXF ...Fazit. Teil 2
Elgato Stream Deck Pedal - Live-Streaming und Videoschnitt mit den Füßen
Apple Mac Book Pro- Reicht das Teil den Schnitt
Die bunte Welt der DCTLs in Resolve - Teil 1: Zwischen LUT und Plugin
Die bunte Welt der DCTLs in Resolve - Teil 2: DCTL-Scripting
Nvidia Geforce RTX 5090 - Die beste Grafikkarte für Blackmagic DaVinci Resolve
Die besten Videoschnitt-Rechner für 4K/8K und KI-Bearbeitung - Sommer 2024
Intel Arc 770 Grafikkarte in der Videobearbeitung unter Davinci Resolve
Konsistente Farben für Filmprojekte - ACES in Theorie und Praxis Teil 1: Die Basics




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash