Frage von cantsin:Intel bringt jetzt zum ersten Mal ausgewachsene, steckbare Grafikkarten auf den Markt, nicht nur On-Board-GPUs. Der Einsatzzweck sollen kleinere Workstations sein. Maximaler RAM ist 6GB, was für Videoanwendungen leider knapp ist. Bin kein GPU-Spezialist und kann mit den technischen Angaben (4,8 Teraflops/Takt bei 1,7GHz, maximal 192GByte/s Durchsatz) nicht soviel anfangen, aber wenn ich mich nicht täusche, sind das eher Low-End-Specs für Gaming und Video-Postproduktion:
https://www.heise.de/news/Intel-Arc-Pro ... 15465.html
Trotzdem würde mich interessieren, ob die üblichen Verdächtigen - Resolve, Premiere & Co. - mit der Karte (deren Treiber auch OpenCL unterstützt) funktionieren, und auch wie die Treiberversorgung unter Linux aussieht. Bisher war Intel-GPUs die einzigen, die vom Hersteller mustergültig mit Open Source-Linuxtreibern versorgt wurden und - im Gegensatz zu Nvidia mit seinen proprietären Treibern - absolut keine Probleme machen.
Zumindest wäre es mal Zeit, dass das Nvidia/AMD-Duopol aufgebrochen wird...
Antwort von Frank Glencairn:
Ich denke nicht, daß die aktuell für unseren Bereich relevant sind.
Zumal die Treibersituation wohl noch ziemlich problematisch ist.
Vor allem aber weil die Preise für GPUs gerade deutlich im Sinkflug sind.
Antwort von Jost:
Mal abwarten. Quick Sync auf der CPU war schon erstaunlich. Jetzt hat Intel Platz. Adobe ist offenbar auch Entwicklungspartner.
Wenn es irgendwo einen Vorsprung geben sollte, ist aber fraglich, ob den AMD und Nvidia nicht werden wett machen. Deren neue GPU-Generationen sollen demnächst vorgestellt werden. Dann werden die "Karten" ohnehin neu gemischt.
Antwort von MK:
Leistungstechnisch sind die angekündigten Karten eher Low-End. PCIe 4.0 ist auch nur mit 8x elektrisch angebunden. Dazu noch der mit 6 Gigabyte vergleichsweise kleine Speicher der wohl auch kein ECC unterstützt.
Auswahlkriterien sind hier eher Stromverbrauch, eventuell der Preis je nachdem wo der am Ende liegt und die Qualität des Hardwareencodings falls das unerwarteter Weise besser oder schneller sein sollte als bei AMD und NVIDIA.
Antwort von slashCAM:
Intel hatte im März diesen Jahres seine ersten Grafikchips vorgestellt, jetzt hat auf der Computergrafikmesse Siggraph seine ersten richtigen professionellen Grafikkarte...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neue Intel Arc Pro Desktop GPUs für Workstations - bahnt sich Konkurrenz für Nvidia und AMD an?
Antwort von cantsin:
@slashcam: vielleicht mit diesem Thread hier zusammenfügen -
viewtopic.php?f=6&t=156350&p=1147248
Ansonsten wäre die Frage, ob so eine Karte auch in einem System sinnvoll sein könnte, das bereits mit einer Nvidia- oder AMD-Grafikkarte ausgerüstet ist, nur um den AV1-Hardware-Encoder der Arc Pro zu nutzen?
Antwort von j.t.jefferson:
Würde mich ja weglachen wenn Intel die günstigere Lösung wäre um schnell h265 zu schneiden als wenn man ne 3080 oder ähnliches in den Rechner baut.
Dann Bau/Kauf ich fürs Büro direkt so einen Rechner für die Fotoknipsen Jobs.
Antwort von DaCarlo:
Seit dem ungefähr 8.update am 7.Februar, steigen die Kartenpreise der A700 16GB Limited Edition.
Es gibt aber noch keine neuen Tests.Wenn man sich die Funktionsmerkmale anschaut,
dürfte die Arc A700 16GB beim kodieren und encodieren gut sein. Für Foto und Videobearbeitung, Spiele interessieren mich nicht.
Antwort von MK:
Gibt genug Alternativen für die 380 Kracher welche für die A770 momentan aufgerufen werden die mehr als doppelt so schnell sind. Der einzige Anreiz ist wenn man unbedingt AV1-Encoding auf der GPU braucht oder 16 Gigabyte Speicher hinter denen nur ein laues Lüftchen an Rechenleistung steckt.
Antwort von markusG:
Ich sehe da eher den Einsatz unter Linux, wegen der Treiber-Geschichte. Und auch das ist imho nischig.
Antwort von Frank Glencairn:
Zumal die Geschwindigkeit beim raus Rendern auch eher zweitrangig ist, sondern eher die Frage der Qualität, Datengröße und Auflösung und Bittiefe gestellt werden muß.
Wenn man mit 8 Bit 4:2:0 H264 zufrieden ist, meinetwegen - aber jeder der höhere Ansprüche an sein Material hat, läßt von Hardware Encoding sowieso die Finger.
image_2023-02-14_225920865.png
Klar kann ich über meine Nvida direkt aus Resolve relativ schnell ne Timeline raus hauen, aber die Qualität des Clips liegt deutlich unter Handbrake und der Resolve eigenen CPU gestützten Ausgabe, und die Nvidia Clips sind dabei auch noch deutlich größer.
Antwort von Jörg:
wenn man die Werbeflut und Preisangaben dann mal hinter sich gelassen hat...;
schon im Vergleich mit einer 3060 sehe ich bis auf das Hyperlink encoding keinerlei Grund diese Karte zu nutzen.
Zu potenteren Karten schon mal gar nicht.
Wessen Hauptaufgabe darin besteht, content zu exportieren, der wird sich das Teil anschauen,
wenn es sich um Material handelt, das die Karte handhaben kann.
Antwort von Frank Glencairn:
Wobei wir bisher nicht mal Angaben haben, was das Teil überhaupt an Formaten drauf hat.
Antwort von MK:
markusG hat geschrieben:
Ich sehe da eher den Einsatz unter Linux, wegen der Treiber-Geschichte. Und auch das ist imho nischig.
Unter Windows sind die Treiber von dem Ding ja eher noch work in progress.
Antwort von cantsin:
MK hat geschrieben:
markusG hat geschrieben:
Ich sehe da eher den Einsatz unter Linux, wegen der Treiber-Geschichte. Und auch das ist imho nischig.
Unter Windows sind die Treiber von dem Ding ja eher noch work in progress.
Und auch unter Linux gibt's erst ab Kernel 6.2 stabile Out-of-the-Box-Unterstützung. Problem dabei: 6.2 ist noch gar nicht veröffentlicht, sondern steckt noch in der Entwicklungsphase.
Wenn es dann soweit ist, hat eine Intel-GPU allerdings den Vorteil, dass die Treiberunterstützung hundertprozentig in den Standard-Linux-Open Source-Kernel-/Betriebssystemcode integriert ist und von Intel selbst gepflegt wird, während man sich bei Nvidia mit externen, proprietären Treibern rumschlagen muss (die u.a. den Umstieg von X11 aufs modernere Wayland-Displaysystem schwierig machen).
Antwort von MK:
100% Treiberunterstützung relativiert sich aber auch wenn man dafür nur diese lahme Ente kriegt.
Antwort von andieymi:
"Frank Glencairn" hat geschrieben:
Zumal die Geschwindigkeit beim raus Rendern auch eher zweitrangig ist, sondern eher die Frage der Qualität, Datengröße und Auflösung und Bittiefe gestellt werden muß.
Wenn man mit 8 Bit 4:2:0 H264 zufrieden ist, meinetwegen - aber jeder der höhere Ansprüche an sein Material hat, läßt von Hardware Encoding sowieso die Finger.
image_2023-02-14_225920865.png
Klar kann ich über meine Nvida direkt aus Resolve relativ schnell ne Timeline raus hauen, aber die Qualität des Clips liegt deutlich unter Handbrake und der Resolve eigenen CPU gestützten Ausgabe, und die Nvidia Clips sind dabei auch noch deutlich größer.
Glaubst Du daran ändern zukünftige Hardwaregenerationen essentiell etwas, oder ist das hauptsächlich ein immanentes Problem von Software vs. Hardware?
Gerade auch mit AV1 und den neuen Intel GPUs wäre in Zukunft sicher die eine oder andere Hardwaremöglichkeit interessant.
Aber ich gebe dir vollkommen Recht, dass es im Moment, außer für Sachen die sich "versenden" (niedrigste Bitraten, Live-Streams, etc.) absolut keine Option darstellt. Wäre schön, wenn das mal anders ginge.
Antwort von MK:
Das ging vor 20+ Jahren mal mit Sonic Solutions und den MPEG-2 Hardwareencodern für Scenarist.
Warum spätere Formate als Hardwareencoder da qualitativ nicht mehr dran kamen - keine Ahnung.
Ich habe mir vor einer Weile mal diverse Alternativen zu Grafikkarten angesehen, eher für H265 für das schnelle rausrechnen von Previews da die Grafikkartenencoder da ziemlich das Grain glattbügeln.
Aber neben dem deutlich höheren Preis basieren die Hardwareencoder heute oft auf dem Quicksync Encodingteil von Intel-CPUs... da kann ich mir gleich ne CPU holen und nen Haufen Geld sparen. Qualität ist da auch nicht besser.
Antwort von DaCarlo:
E54B53C5-2A2A-407D-9237-4823FE6632FB.jpegj.t.jefferson hat geschrieben:
Würde mich ja weglachen wenn Intel die günstigere Lösung wäre um schnell h265 zu schneiden als wenn man ne 3080 oder ähnliches in den Rechner baut.
Dann Bau/Kauf ich fürs Büro direkt so einen Rechner für die Fotoknipsen Jobs.
Ich habe mir wieder einen Rechner mit 13700K Intel I7 UHD 770 Grafik integriert, sowie eine ARC A770 16GB Karte zusammengestellt mit 64 GB DDR4,
2 Samsung 980 Pro M2 und 2 SSD.
Netzteil,3 Lüfter, Gehäuse,Dark Rock Prozessor Kühler alles von be Quiet.
Erste Tests zeigen sehr gute Rechenleistung auch durch das gute Intel Zusammenspiel durch die zwei neuesten Treiber.
Quick Sync funktioniert mit Premiere, Edius X sowie Resolve.
Durch den guten Airflow (ohne störende Kabel) schafft das der Dark Rock die Wärmeabgabe locker.
Ich bin kein Spieler die Anhänge dienen nur als Beispiel.
Ich wollte dir nur Bescheid geben das der Rechner, für deine Foto Jobs, vermutlich übermotorisiert ist.
Antwort von soulbrother:
DaCarlo hat geschrieben:
Würde mich ja weglachen wenn Intel die günstigere Lösung wäre um schnell h265 zu schneiden als wenn man ne 3080 oder ähnliches in den Rechner baut. .....
j.t.jefferson hat geschrieben:
Ich habe mir wieder einen Rechner mit 13700K Intel I7 UHD 770 Grafik integriert, sowie eine ARC A770 16GB Karte zusammengestellt mit 64 GB DDR4,
2 Samsung 980 Pro M2 und 2 SSD.
Netzteil,3 Lüfter, Gehäuse,Dark Rock Prozessor Kühler alles von be Quiet.
Erste Tests zeigen sehr gute Rechenleistung auch durch das gute Intel Zusammenspiel durch die zwei neuesten Treiber.
Quick Sync funktioniert mit Premiere, Edius X sowie Resolve......
.....
Evtl. nicht ganz unwichtig: welches Mainboard hast du drin?
Darf ich auch nach dem Gehäuse fragen, da ich grad (wieder mal...) plane, brauch ich alle Infos aus erster Hand ;-)
Antwort von DaCarlo:
soulbrother hat geschrieben:
DaCarlo hat geschrieben:
Würde mich ja weglachen wenn Intel die günstigere Lösung wäre um schnell h265 zu schneiden als wenn man ne 3080 oder ähnliches in den Rechner baut. .....
j.t.jefferson hat geschrieben:
Ich habe mir wieder einen Rechner mit 13700K Intel I7 UHD 770 Grafik integriert, sowie eine ARC A770 16GB Karte zusammengestellt mit 64 GB DDR4,
2 Samsung 980 Pro M2 und 2 SSD.
Netzteil,3 Lüfter, Gehäuse,Dark Rock Prozessor Kühler alles von be Quiet.
Erste Tests zeigen sehr gute Rechenleistung auch durch das gute Intel Zusammenspiel durch die zwei neuesten Treiber.
Quick Sync funktioniert mit Premiere, Edius X sowie Resolve......
.....
Evtl. nicht ganz unwichtig: welches Mainboard hast du drin?
Darf ich auch nach dem Gehäuse fragen, da ich grad (wieder mal...) plane, brauch ich alle Infos aus erster Hand ;-)
MSi Thomshawk Lga 1700 B-6er bis Z-7er Serie DDR4 oder DDR5.
BeQuiet pure Base 500erSerie.
Antwort von Frank Glencairn:
DaCarlo hat geschrieben:
Ich bin kein Spieler die Anhänge dienen nur als Beispiel.
Spiele Benchmarks haben allerdings null Aussage was unseren Bereich betrifft - vor allem weil die Arc ja speziell auf Spiele ausgelegt ist.
In Resolve z.B. kacken die Arcs in allen Disziplinen schon gegen ne alte RTX 3060 ab - von neueren Nvidia Karten ganz zu schweigen.
Und was Photoshop betrifft, der hat so viele Flaschenhälse, daß da ne schnellere Karte auch nicht viel hilft.
Antwort von DaCarlo:
"Frank Glencairn" hat geschrieben:
DaCarlo hat geschrieben:
Ich bin kein Spieler die Anhänge dienen nur als Beispiel.
Spiele Benchmarks haben allerdings null Aussage was unseren Bereich betrifft - vor allem weil die Arc ja speziell auf Spiele ausgelegt ist.
In Resolve z.B. kacken die Arcs in allen Disziplinen schon gegen ne alte RTX 3060 ab - von neueren Nvidia Karten ganz zu schweigen.
Und was Photoshop betrifft, der hat so viele Flaschenhälse, daß da ne schnellere Karte auch nicht viel hilft.
Hallo Frank, ich habe beide Rechner zum Vergleich hier.
Für meine Kollegen und mir reichen diese Rechner.
Beim bearbeiten mit FX30 Dateien sehen wir keine Vorteile der 3060 12GB gegenüber ARC 770 16GB mit 4 K Schnitt.
Antwort von Frank Glencairn:
Lass das bloß iasi nicht hören ;-)
Mal im Ernst, natürlich seht ihr keine Unterschied weil selbst viel schwächere Karten ebenfalls kein Problem haben das zu wuppen.
Das ist ja das Problem mit solchen Benchmarks (auch die von Puget) - wenn man sie nicht wirklich interpretieren kann, und verstehen was die Zahlen bedeuten sind sie nutzlos.
Antwort von DaCarlo:
"Frank Glencairn" hat geschrieben:
Lass das bloß iasi nicht hören ;-)
Mal im Ernst, natürlich seht ihr keine Unterschied weil selbst viel schwächere Karten ebenfalls kein Problem haben das zu wuppen.
Das ist ja das Problem mit solchen Benchmarks (auch die von Puget) - wenn man sie nicht wirklich interpretieren kann, und verstehen was die Zahlen bedeuten sind sie nutzlos.
Das die Intel ARC770 16 GB nur eine Spielekarte sein soll, wie du vorher sagtest, kann ich nicht beurteilen
da die Karte von uns anders eingesetzt wird.
Ich kann allerdings nur von Intel sprechen, da aber das gute zusammenarbeiten, von Prozessor 13600K, 13700K, 13900K mit integrierter UHD 770 Grafik und der ARC 770 16GB, hervorheben. Bei Schnittanwendungen installiere ich auch immer 64GB DDR Ram.
Zur beschleunigten Rechnerleistung tragen natürlich auch die Sauschnellen M2 SSD bei.
Mein "Altrechner" I9900K fühlt sich der heutigen Technik gegenüber schon etwas "lahm" an.
Wie und ob das mit AMD genauso läuft, ist mir unklar, da ich nur über meine Intel Rechner berichte.
Antwort von Frank Glencairn:
Im Prinzip sind fast alle Karten (außer den professionellen Linien) in erster Linie auf Spiele (und womöglich auch Spiele Benchmarks) ausgelegt, weil das der größte Teil des Marktes ist, da wir das Geld verdient - unser einer ist als Markt im Vergleich dazu für die Hersteller quasi völlig unbedeutend.
Da du ja nicht mit sehr geringen Datenraten zu tun hast, glaub ich allerdings kaum das die SSDs da irgendwie helfen, die langweilen sich die meiste Zeit bei dem Material.
Das bringt mich zu dem Punkt den ich oben schon mal erwähnt hatte.
Klar sind die im Benchmark schneller aber wenn deine Daten nur z.B. 20MB in der Sekunde hat, schneidest du mit ner Platte die 500 MB in der Sekunde kann auch nicht schneller.
Ähnlich ist das bei den GPUs - selbst uralte GTX schaffen raw/braw locker in Echtzeit, da macht dann ne Karte die 5 x so schnell debayern kann auch kleinen Unterschied.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Lass das bloß iasi nicht hören ;-)
Mal im Ernst, natürlich seht ihr keine Unterschied weil selbst viel schwächere Karten ebenfalls kein Problem haben das zu wuppen.
Das ist ja das Problem mit solchen Benchmarks (auch die von Puget) - wenn man sie nicht wirklich interpretieren kann, und verstehen was die Zahlen bedeuten sind sie nutzlos.
Du meinst, dass es ziemlich egal ist, ob bei H264-Material nun 80 oder 110fps erreicht werden, dass es schon eng werden könnte, wenn bei RedRaw auf der 4k-Timeline weniger als 50 statt doch wenigsten 63fps drin sind?
Oder dass bei temporaler NR beide Spitzenkarten von zwei Herstellern 16fps erreichen?
Antwort von MK:
Das größte Manko des Puget Benchmarks ist wohl, dass nicht klar wird welche Positionen rein von der CPU, welche von der GPU und welche von beidem beeinflusst werden.
Nahezu gleiche Werte bei der selben CPU aber unterschiedlichen GPUs, die bei anderen Positionen stark auseinander liegen, lassen annehmen dass dort die GPU garnicht oder nur teilweise involviert ist.
Antwort von iasi:
MK hat geschrieben:
Das größte Manko des Puget Benchmarks ist wohl, dass nicht klar wird welche Positionen rein von der CPU, welche von der GPU und welche von beidem beeinflusst werden.
Nahezu gleiche Werte bei der selben CPU aber unterschiedlichen GPUs, die bei anderen Positionen stark auseinander liegen, lassen annehmen dass dort die GPU garnicht oder nur teilweise involviert ist.
Bei RedRaw auf der 8k-Timeline ist auch zu erkennen, dass die Größe des Grafikkartenspeichers eine Rolle spielen könnte.
Es wird zwar kaum jemand hier mit einer 8k/50fps-Timeline arbeiten, aber wenn die eine Karte 46fps und die andere 62fps schafft, wäre dies auffällig.
Selbst wenn die GPU nur teilweise involviert ist, kann sie einen bedeutenden Unterschied ausmachen.
Ob 4k-Braw nun mit 93fps oder 180fps läuft, spielt nur beim Export eine Rolle.
Den Unterschied zwischen 6 und 16fps bei Temporal NR bemerkt man jedoch in jeder Arbeitsphase.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Bei RedRaw auf der 8k-Timeline ist auch zu erkennen, dass die Größe des Grafikkartenspeichers eine Rolle spielen könnte.
Es wird zwar kaum jemand hier mit einer 8k/50fps-Timeline arbeiten, aber wenn die eine Karte 46fps und die andere 62fps schafft, wäre dies auffällig.
Selbst wenn die GPU nur teilweise involviert ist, kann sie einen bedeutenden Unterschied ausmachen.
Ob 4k-Braw nun mit 93fps oder 180fps läuft, spielt nur beim Export eine Rolle.
Den Unterschied zwischen 6 und 16fps bei Temporal NR bemerkt man jedoch in jeder Arbeitsphase.
Und diese FPS Werte hast du wo her?
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Bei RedRaw auf der 8k-Timeline ist auch zu erkennen, dass die Größe des Grafikkartenspeichers eine Rolle spielen könnte.
Es wird zwar kaum jemand hier mit einer 8k/50fps-Timeline arbeiten, aber wenn die eine Karte 46fps und die andere 62fps schafft, wäre dies auffällig.
Selbst wenn die GPU nur teilweise involviert ist, kann sie einen bedeutenden Unterschied ausmachen.
Ob 4k-Braw nun mit 93fps oder 180fps läuft, spielt nur beim Export eine Rolle.
Den Unterschied zwischen 6 und 16fps bei Temporal NR bemerkt man jedoch in jeder Arbeitsphase.
Und diese FPS Werte hast du wo her?
Aus einer Puget-Test-Tabelle. Davon reden wir hier doch ständig.
Nebenbei: Die 16fps schaffen die Nvidia 4090 und die AMD 7900XTX.
Detailierte Zahlen gibt es zum Pudget-Test mit mehreren Grafikkarten zwar nicht, aber mit zwei 4090ern oder zwei 7900ern wären wohl 24fps bei Temporal NR drin.
Antwort von Frank Glencairn:
Hast du mir da nen Link?
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Hast du mir da nen Link?
https://www.pugetsystems.com/labs/artic ... rformance/
Hier gibt"s eine Tabelle.
Bei anderen Tests findet man Tabellen, in denen auch die Werte älterer Karten vorhanden sind.
Antwort von MK:
Alle zum selben Zeitpunkt auf dem selben Rechner mit der selben Treiber- (je Chiphersteller) und Resolve Version gemacht oder historisch gewachsen was den Vergleich sinnlos macht?
Antwort von Frank Glencairn:
Also der einzige Punkt, wo AMD nicht gegen Nvidia abkackt ist wenn man 3 temporal Noise Reduction Nodes auf einmal nutzt.
Ich bin ziemlich sicher daß niemand so blöd ist, sowas jemals zu machen.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Also der einzige Punkt, wo AMD nicht gegen Nvidia abkackt ist wenn man 3 temporal Noise Reduction Nodes auf einmal nutzt.
Ich bin ziemlich sicher daß niemand so blöd ist, sowas jemals zu machen.
Gut.
Und dann stellt sich eben doch die Frage:
Wo lohnen sich die erheblichen Mehrkosten einer 4090.
Man will ja nicht einen Geländewagen als Stadtfahrzeug nutzen.
Wo es wirklich eng wird, ist z.B. temporal NR. 50fps schaffen die 4090 und 7900XTX.
Bei einem HFR-Projekt ist es angenehm, wenn nach mit NR noch ruckelfrei abgespielt werden kann.
Ob nun H264 mit 120 oder 80fps abgespielt werden könnten, macht bei einer 50fps-Timeline keinen Unterschied. Zumal, wenn man eh nur mit Raw arbeitet.
Mehrere NR-Nodes nutzt man, wenn Mitten und Lichter nicht glattgebügelt werden sollen, während man das Rauschen in den Schatten reduziert. Hier kann man abgestuft vorgehen.
Antwort von dienstag_01:
Wie misst Puget, wie kommen die zu Nachkommastellen?
Sind das alles Renderergebnisse?
Antwort von MK:
dienstag_01 hat geschrieben:
Wie misst Puget, wie kommen die zu Nachkommastellen?
Sind das alles Renderergebnisse?
Man weiß bei den GPU-Effekten nichtmal bei welcher Auflösung... was interessiert mich 8K wenn ich nur 4K und HD mache.
Vieles ist da nicht zu Ende gedacht. Normal müssten bei Vergleichen auch immer mit den zu diesem Zeitpunkt neuesten Treibern und Softwareversionen alle Karten nachgetestet werden, sonst kann man die Werte in der Pfeife rauchen.
Antwort von MK:
Während Villariba schon rendert wird in Villabajo noch lamentiert.
Antwort von cantsin:
Sehe ich das richtig, dass sich die Diskussion hier mittlerweile zu Nvidia vs. AMD verschoben hat?
Gibt's denn schon irgendwelche Praxiserfahrungen mit den Intel Arcs in Resolve?
Aus meiner Linuxer-Sicht ist bei denen attraktiv, dass da der Treibersupport seit den letzten Linux-Kernel-Versionen out-of-the-box und offiziell von Intel entwickelt im Betriebssystem sitzt und man sich nicht mehr mit Nvidias proprietären (und u.a. wegen eingeschränkter Wayland-Kompatibilität problematischen) Treibern rumschlagen muss....
Antwort von MK:
Naja, eigentlich geht es um die intransparenten Benchmarks von Puget.
z.B. weiß auch kein Mensch welche Profile für das Hardwareencoding angesprochen werden. Sowohl bei Nvidia als auch AMD gehen die in verschiedenen Abstufungen von Fast bis Slow.
Wurden die in den letzten Treibern geänderten Profile bei Nvidia berücksichtigt? Wenn ich selber mit dem hochwertigsten Profil Nvidia vs. AMD Transcoding vergleiche, sind beide ähnlich schnell, aber die Qualität ist bei AMD noch schlechter im Vergleich zum Ausgangsmaterial als bei Nvidia (noch schlechtere Erhaltung von Grain und feinsten Details).
Ist etwas also besser wenn es gleich schnell oder schneller mit schlechterer Qualität arbeitet, oder müsste man an Hand des Verhältnisses von Qualität und Geschwindigkeit bemessen?
Antwort von Frank Glencairn:
cantsin hat geschrieben:
Gibt's denn schon irgendwelche Praxiserfahrungen mit den Intel Arcs in Resolve?
Ja - weit unter dem Niveau von älteren Nvidia Karten.
image_2023-03-04_052708633.png
image_2023-03-04_052635249.png
image_2023-03-04_052610640.png
image_2023-03-04_052542170.png
Antwort von markusG:
"Frank Glencairn" hat geschrieben:
Ja - weit unter dem Niveau von älteren Nvidia Karten.
Weißt du welche Treiber Version benutzt wurde? Afaik hat sich da ja zwischendurch was getan
Antwort von iasi:
dienstag_01 hat geschrieben:
Wie misst Puget, wie kommen die zu Nachkommastellen?
Sind das alles Renderergebnisse?
Es sind Vergleichswerte.
Es werden/wurden dann z.B. solche Gradings genutzt:
https://www.youtube.com/watch?v=ZN5484XDGw8
Antwort von iasi:
markusG hat geschrieben:
"Frank Glencairn" hat geschrieben:
Ja - weit unter dem Niveau von älteren Nvidia Karten.
Weißt du welche Treiber Version benutzt wurde? Afaik hat sich da ja zwischendurch was getan
Das ist dann immer die Frage.
Wahrscheinlich aufgrund der Treiber sind bei Raw die neuen 40er-Nvidias langsamer als die 30er, so Puget.
Antwort von iasi:
MK hat geschrieben:
dienstag_01 hat geschrieben:
Wie misst Puget, wie kommen die zu Nachkommastellen?
Sind das alles Renderergebnisse?
Man weiß bei den GPU-Effekten nichtmal bei welcher Auflösung... was interessiert mich 8K wenn ich nur 4K und HD mache.
Vieles ist da nicht zu Ende gedacht. Normal müssten bei Vergleichen auch immer mit den zu diesem Zeitpunkt neuesten Treibern und Softwareversionen alle Karten nachgetestet werden, sonst kann man die Werte in der Pfeife rauchen.
https://www.pugetsystems.com/wp-content ... esults.png
Hier ist auch das Testsystem aufgelistet:
https://www.pugetsystems.com/labs/artic ... -creation/
Antwort von Frank Glencairn:
markusG hat geschrieben:
Weißt du welche Treiber Version benutzt wurde? Afaik hat sich da ja zwischendurch was getan
Ich nehme mal an die aktuellsten die es zum Zeitpunkt des Tests (2. Februar) gab - alles andere würde ja auch keinen Sinn machen.
Ich finde es auch interessant, daß die RTX 4090 für 1600,- immer noch schneller ist als die RTX 6000 ADA für 6800,-
Antwort von MK:
"Frank Glencairn" hat geschrieben:
Ich nehme mal an die aktuellsten die es zum Zeitpunkt des Tests (2. Februar) gab - alles andere würde ja auch keinen Sinn machen.
Das sind genau die Infos die fehlen... IMHO sind die Benchmarks deswegen mit Vorsicht zu genießen.
Antwort von Frank Glencairn:
Da der Laden davon lebt möglichst schnelle und stabile Rechner zu verkaufen, gehe ich davon aus daß die schnellsten und stabilsten aktuellen Treiber eine Selbstverständlichkeit sind.
Wenn nicht - wie z.B bei einem instabilen Treiber (war glaub ich mal bei einer der ersten RTX der Fall) - schreiben sie es dazu.
Die Puget Tests sind jedenfalls das Beste was wir haben - wer's noch besser haben will muß selbst testen.
Antwort von freezer:
"Frank Glencairn" hat geschrieben:
markusG hat geschrieben:
Weißt du welche Treiber Version benutzt wurde? Afaik hat sich da ja zwischendurch was getan
Ich nehme mal an die aktuellsten die es zum Zeitpunkt des Tests (2. Februar) gab - alles andere würde ja auch keinen Sinn machen.
Ich finde es auch interessant, daß die RTX 4090 für 1600,- immer noch schneller ist als die RTX 6000 ADA für 6800,-
Die RTX 6000 (ADA) und RTX A6000 sind in ihrer Energieaufnahme enger begrenzt als die Gamer-Karten. Die 3090er ist auch schneller als meine RTX A6000.
RTX A6000
Chiptakt ... 1455MHz, Boost: 1860MHz
Speicher ... 48GB GDDR6, ECC-Modus, 2000MHz, 16Gbps (16000MHz effektiv), 384bit, 768GB/?s
TDP / TGP ... 300W
Shader-Einheiten / TMUs / ROPs / RTX ... 10752 / ?336 / ?112 / 84
Rechenleistung ... 40 TFLOPS (FP32), 1.25 TFLOPS (FP64)
PugetBench Resolve GPU Effects Score ... 163
Blender 3.4 GPU ... 5848
RTX A6000 ADA
Chiptakt ... 1915MHz, Boost: 2505MHz
Speicher ... 48GB GDDR6, ECC-Modus, 2500MHz, 20Gbps (20000MHz effektiv), 384bit, 960GB/?s
TDP / TGP ... 300W
Shader-Einheiten / TMUs / ROPs / RTX ... 18176 / ?568 / ?192 / 142
Rechenleistung ... 91.06 TFLOPS (FP32), 1.42 TFLOPS (FP64)
PugetBench Resolve GPU Effects Score ... 245
Blender 3.4 GPU ... 12728
RTX 3090
Chiptakt ... 1395MHz, Boost: 1695MHz
Speicher ... 24GB GDDR6X, 1219MHz, 19.5Gbps (19504MHz effektiv), 384bit, 936GB/?s
TDP / TGP ... 350W
Shader-Einheiten / TMUs / ROPs / RTX ... 10496 / ?328 /? 112 / 82
Rechenleistung ... 35.58 TFLOPS (FP32), 556 GFLOPS (FP64)
PugetBench Resolve GPU Effects Score ... 181
Blender 3.4 GPU ... 6235
RTX 3090 Ti
Chiptakt ... 1560MHz, Boost: 1860MHz
Speicher ... 24GB GDDR6X, 1313MHz, 21Gbps (21008MHz effektiv), 384bit, 1008GB/?s
TDP / TGP ... 450W
Shader-Einheiten / TMUs / ROPs / RTX ... 10752 / ?336 / ?112 / 84
Rechenleistung ... 40 TFLOPS (FP32), 625 GFLOPS (FP64)
PugetBench Resolve GPU Effects Score ... 191
Blender 3.4 GPU ... 6496
RTX 4090
Chiptakt ... 2235MHz, Boost: 2520MHz
Speicher ... 24GB GDDR6X, 1313MHz, 21Gbps (21008MHz effektiv), 384bit, 1008GB/?s
TDP / TGP ... 450W / 600W (max. TGP)
Shader-Einheiten / TMUs / ROPs / RTX ... 16384 / ?512 / ?176 / 128
Rechenleistung ... 82.58 TFLOPS (FP32), 1.29 TFLOPS (FP64)
PugetBench Resolve GPU Effects Score ... 258
Blender 3.4 GPU ... 12779
Antwort von Frank Glencairn:
freezer hat geschrieben:
Die RTX 6000 (ADA) und RTX A6000 sind in ihrer Energieaufnahme enger begrenzt als die Gamer-Karten.
Wow! Das ist der einzige Unterschied?
Zahlt man wirklich nur dafür mehr als den vierfachen Preis (und bekommt dann auch noch ne langsamere Karte)?
Das holt man ja selbst bei den aktuellen Stromkosten nie mehr rein.
Da muß es doch noch irgendwelche anderen Features geben, die diesen Preis rechtfertigen.
Antwort von DKPost:
"Frank Glencairn" hat geschrieben:
freezer hat geschrieben:
Die RTX 6000 (ADA) und RTX A6000 sind in ihrer Energieaufnahme enger begrenzt als die Gamer-Karten.
Wow! Das ist der einzige Unterschied?
Zahlt man wirklich nur dafür mehr als den vierfachen Preis (und bekommt dann auch noch ne langsamere Karte)?
Das holt man ja selbst bei den aktuellen Stromkosten nie mehr rein.
Da muß es doch noch irgendwelche anderen Features geben, die diesen Preis rechtfertigen.
48GB RAM.
Antwort von Frank Glencairn:
Was hab ich davon, wenn die Karte mit 48 Gig langsamer ist als eine mit 24 Gig?
Und ja es wird irgendwelche Fringe Cases geben, wo jemand super aufwändige Sachen mit Fusion macht - aber im Normalfall würde ich die schnellere Karte zu einem Viertel des Preises bevorzugen.
Antwort von freezer:
"Frank Glencairn" hat geschrieben:
freezer hat geschrieben:
Die RTX 6000 (ADA) und RTX A6000 sind in ihrer Energieaufnahme enger begrenzt als die Gamer-Karten.
Wow! Das ist der einzige Unterschied?
Zahlt man wirklich nur dafür mehr als den vierfachen Preis (und bekommt dann auch noch ne langsamere Karte)?
Das holt man ja selbst bei den aktuellen Stromkosten nie mehr rein.
Da muß es doch noch irgendwelche anderen Features geben, die diesen Preis rechtfertigen.
Unterstützung für NVIDIA RTX Virtual Workstation, NVIDIA Virtual Compute Server, bei der RTX A6000 auch noch NVlink um zwei Karten zu einem größeren 96GB Speicherpool zusammenzuschließen. Für DeepLearning und KI wo 24 GB nicht reichen, sind die 48 GB die einzige Möglichkeit.
Wenn Du höhere FP64 Leistung benötigst, ebenso.
Antwort von MK:
"Frank Glencairn" hat geschrieben:
Da muß es doch noch irgendwelche anderen Features geben, die diesen Preis rechtfertigen.
ECC Speicher, mehr Speicher als die Consumerkarten, kein Limit bei NVENC Sessions (da gibt es allerdings auch "Spezialtreiber" für die Consumerkarten).
Antwort von DKPost:
"Frank Glencairn" hat geschrieben:
Was hab ich davon, wenn die Karte mit 48 Gig langsamer ist als eine mit 24 Gig?
Und ja es wird irgendwelche Fringe Cases geben, wo jemand super aufwändige Sachen mit Fusion macht - aber im Normalfall würde ich die schnellere Karte zu einem Viertel des Preises bevorzugen.
Ich wollte nur einen weiteren Unterschied zu den Consumer-Karten nennen. Das war doch die Frage.
Antwort von Frank Glencairn:
In a nut shell: Für Spezialanwendungen, aber nix was für unseren Bereich relevant wäre.
Antwort von DaCarlo:
DaCarlo hat geschrieben:
"Frank Glencairn" hat geschrieben:
Lass das bloß iasi nicht hören ;-)
Mal im Ernst, natürlich seht ihr keine Unterschied weil selbst viel schwächere Karten ebenfalls kein Problem haben das zu wuppen.
Das ist ja das Problem mit solchen Benchmarks (auch die von Puget) - wenn man sie nicht wirklich interpretieren kann, und verstehen was die Zahlen bedeuten sind sie nutzlos.
Das die Intel ARC770 16 GB nur eine Spielekarte sein soll, wie du vorher sagtest, kann ich nicht beurteilen
da die Karte von uns anders eingesetzt wird.
Ich kann allerdings nur von Intel sprechen, da aber das gute zusammenarbeiten, von Prozessor 13600K, 13700K, 13900K mit integrierter UHD 770 Grafik und der ARC 770 16GB, hervorheben. Bei Schnittanwendungen installiere ich auch immer 64GB DDR Ram.
Zur beschleunigten Rechnerleistung tragen natürlich auch die Sauschnellen M2 SSD bei.
Mein "Altrechner" I9900K fühlt sich der heutigen Technik gegenüber schon etwas "lahm" an.
Wie und ob das mit AMD genauso läuft, ist mir unklar, da ich nur über meine Intel Rechner berichte.
Es gibt neue updates und Empfehlungen wie man seinen Intel Rechner, (siehe oben Ausstattung)
bestmöglich einstellen und updaten bzw. beachten soll.
Mein Rechner läuft prima mit Resolve und Edius X, wobei die K Prozessoren mit Quick Sync, auf 2 x 27 Zoll
Bildschirmen, eine gute Zusatz Leistung erbringen.
Antwort von DaCarlo:
Nice Tool‘s ??
IMG_1685.jpeg
Antwort von DKPost:
DaCarlo hat geschrieben:
DaCarlo hat geschrieben:
Das die Intel ARC770 16 GB nur eine Spielekarte sein soll, wie du vorher sagtest, kann ich nicht beurteilen
da die Karte von uns anders eingesetzt wird.
Ich kann allerdings nur von Intel sprechen, da aber das gute zusammenarbeiten, von Prozessor 13600K, 13700K, 13900K mit integrierter UHD 770 Grafik und der ARC 770 16GB, hervorheben. Bei Schnittanwendungen installiere ich auch immer 64GB DDR Ram.
Zur beschleunigten Rechnerleistung tragen natürlich auch die Sauschnellen M2 SSD bei.
Mein "Altrechner" I9900K fühlt sich der heutigen Technik gegenüber schon etwas "lahm" an.
Wie und ob das mit AMD genauso läuft, ist mir unklar, da ich nur über meine Intel Rechner berichte.
Es gibt neue updates und Empfehlungen wie man seinen Intel Rechner, (siehe oben Ausstattung)
bestmöglich einstellen und updaten bzw. beachten soll.
Mein Rechner läuft prima mit Resolve und Edius X, wobei die K Prozessoren mit Quick Sync, auf 2 x 27 Zoll
Bildschirmen, eine gute Zusatz Leistung erbringen.
Also 3% schneller als eine RTX3060 ist jetzt nicht gerade beeindruckend.
Antwort von dienstag_01:
DKPost hat geschrieben:
DaCarlo hat geschrieben:
Es gibt neue updates und Empfehlungen wie man seinen Intel Rechner, (siehe oben Ausstattung)
bestmöglich einstellen und updaten bzw. beachten soll.
Mein Rechner läuft prima mit Resolve und Edius X, wobei die K Prozessoren mit Quick Sync, auf 2 x 27 Zoll
Bildschirmen, eine gute Zusatz Leistung erbringen.
Also 3% schneller als eine RTX3060 ist jetzt nicht gerade beeindruckend.
Zumal es ums Encoding von h264 geht, das ist so ziemlich das unbedeutenste Feature.
Antwort von MK:
Das fest verdrahtete Hardware-Encoding kann man sowieso nur schwer miteinander vergleichen da die zur Verfügung stehenden Parameter unter den Herstellern variieren was Einfluss auf die Encodingdauer und Qualität hat.
Oder verwendet Resolve ein eigenes Encoding per GPU Compute? Glaube nicht?
Antwort von Frank Glencairn:
Encoding auf GPUs ist eigentlich nur für live Sachen brauchbar, ansonsten erzeugt es eher schlechtere Qualität und zu hohe Datenraten im Vergleich zu Handbrake und Co.
Deshalb rechne ich eigentlich immer erst mal eine unkomprimierte Version aus Resolve, und arbeite dann von da aus weiter.
Antwort von DaCarlo:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Also 3% schneller als eine RTX3060 ist jetzt nicht gerade beeindruckend.
Zumal es ums Encoding von h264 geht, das ist so ziemlich das unbedeutenste Feature.
Nicht nur h264
Antwort von dienstag_01:
DaCarlo hat geschrieben:
dienstag_01 hat geschrieben:
Zumal es ums Encoding von h264 geht, das ist so ziemlich das unbedeutenste Feature.
Nicht nur h264
Die von dir verlinkte Grafik vergleicht das Encoding nach h264.
Antwort von MK:
dienstag_01 hat geschrieben:
Die von dir verlinkte Grafik vergleicht das Encoding nach h264.
Davon mal abgesehen ist die 3060 das untere Ende und eine ganze Ecke billiger als die A770, der Typ auf der Grafik schaut auch schon nicht sehr glücklich aus :D
Antwort von DaCarlo:
MK hat geschrieben:
dienstag_01 hat geschrieben:
Die von dir verlinkte Grafik vergleicht das Encoding nach h264.
Davon mal abgesehen ist die 3060 das untere Ende und eine ganze Ecke billiger als die A770, der Typ auf der Grafik schaut auch schon nicht sehr glücklich aus :D
Da ich mit XAVC HS 4K arbeite, und für 4 K Flatscreen ausgebe, reicht mir diese Karte vollkommen.
Ich habe diese Karte mit 16GB günstig bekommen,
siehe mal unten realer Preisvergleich.
IMG_1832.jpeg
Antwort von dienstag_01:
MK hat geschrieben:
dienstag_01 hat geschrieben:
Die von dir verlinkte Grafik vergleicht das Encoding nach h264.
Davon mal abgesehen ist die 3060 das untere Ende und eine ganze Ecke billiger als die A770, der Typ auf der Grafik schaut auch schon nicht sehr glücklich aus :D
Frech, ich arbeite mit einer 3050 ;)
Antwort von MK:
DaCarlo hat geschrieben:
realer Preisvergleich.
Wenn man mutwillig das aktuell überteuertste Angebot für die 3060 raussucht und für die A770 das eine verfügbare Exemplar auf Amazon.de das von Amazon USA geliefert wird... real kostet die A770 hier mit 16GB aktuell 379 EUR.
Vor 2 Tagen gab es eine 3060 mit 8 Gigabyte bei Notbooksbilliger für 274 EUR im Angebot... die billigste mit 12 GB kostet aktuell 334 und die Zotac vom Bild 339 EUR.
Antwort von andieymi:
MK hat geschrieben:
DaCarlo hat geschrieben:
realer Preisvergleich.
Wenn man mutwillig das aktuell überteuertste Angebot für die 3060 raussucht und für die A770 das eine verfügbare Exemplar auf Amazon.de das von Amazon USA geliefert wird... real kostet die A770 hier mit 16GB aktuell 379 EUR.
Vor 2 Tagen gab es eine 3060 mit 8 Gigabyte bei Notbooksbilliger für 274 EUR im Angebot... die billigste mit 12 GB kostet aktuell 334 und die Zotac vom Bild 339 EUR.
Das ist letztendlich das wirkliche Problem der Intel Arcs: Dass die Preise eigentlich nur in den USA purzeln und sie in der EU irgendwie doch noch auf dem Level von nvidia liegen. Wären die 230$ (für die es die A750 mal bei Newegg gab, ich glaub im Moment auch wieder teurer) 1:1 in Euro ausgerufen worden, wäre das echt viel Leistung für das Geld, gerade wenn man eigentlich recht viele GPU-Encodingfunktionen nutzen möchte.
Aber für alles andere ist in der EU die 3060er halt einfach besser und oft billiger.
Antwort von Frank Glencairn:
Ich versteh sowieso nicht warum jemand ne teure und langsamere A770 ner billigeren und schnelleren 3600 vorziehen sollte.
image_2023-04-06_115643098.png
Antwort von markusG:
Das kannst du mal iasi fragen ;) Irgendwas mit Geld in den Rachen werfen und so :D
Antwort von Frank Glencairn:
Markenhass als Kaufentscheidungsfindung hab ich jetzt mal außen vor gelassen.
Antwort von andieymi:
"Frank Glencairn" hat geschrieben:
Ich versteh sowieso nicht warum jemand ne teure und langsamere A770 ner billigeren und schnelleren 3600 vorziehen sollte.
image_2023-04-06_115643098.png
Zur 770 vmtl nicht, zu dem Ami-Preisen ist die 750 die schnellere Karte auf den Euro (oder dort halt Dollar). Ich weiß nicht ob da Preis/Leistung eine Rolle spielt, aber eigentlich ist es immer noch die treffsicherste Metrik für Grafikkartenvergleiche.
Antwort von MK:
Diese Vergleichskalkulationen im einstelligen Prozentbereich gepaart mit gebetsmühlenartiger Schönrederei von Intels Erstlingswerk sind schon ein Stück weit belustigend.
Antwort von dienstag_01:
Ist das denn wirklich so schlimm, dass jemand eine Grafikkarte von Intel kauft und damit zufrieden ist.
Puh.
Antwort von MK:
dienstag_01 hat geschrieben:
Ist das denn wirklich so schlimm, dass jemand eine Grafikkarte von Intel kauft und damit zufrieden ist.
Puh.
Nein, schlimm ist die Missionierung auf Basis falscher Fakten.
Antwort von dienstag_01:
MK hat geschrieben:
dienstag_01 hat geschrieben:
Ist das denn wirklich so schlimm, dass jemand eine Grafikkarte von Intel kauft und damit zufrieden ist.
Puh.
Nein, schlimm ist die Missionierung auf Basis falscher Fakten.
Ah, ja, nagut, Missionierung ist in diesem Forum wirklich ein nogo ;)
Antwort von andieymi:
MK hat geschrieben:
dienstag_01 hat geschrieben:
Ist das denn wirklich so schlimm, dass jemand eine Grafikkarte von Intel kauft und damit zufrieden ist.
Puh.
Nein, schlimm ist die Missionierung auf Basis falscher Fakten.
Die da wären?
Antwort von MK:
andieymi hat geschrieben:
Die da wären?
Lies den Thread, ich mache hier keine betreute Forenbegleitung.
Antwort von DaCarlo:
cantsin hat geschrieben:
Sehe ich das richtig, dass sich die Diskussion hier mittlerweile zu Nvidia vs. AMD verschoben hat?
Gibt's denn schon irgendwelche Praxiserfahrungen mit den Intel Arcs in Resolve?
Aus meiner Linuxer-Sicht ist bei denen attraktiv, dass da der Treibersupport seit den letzten Linux-Kernel-Versionen out-of-the-box und offiziell von Intel entwickelt im Betriebssystem sitzt und man sich nicht mehr mit Nvidias proprietären (und u.a. wegen eingeschränkter Wayland-Kompatibilität problematischen) Treibern rumschlagen muss....
Für neueste Linux Treiber, guck mal auf der Intel Arc Seite nach.
Linux.png
Antwort von iasi:
markusG hat geschrieben:
Das kannst du mal iasi fragen ;) Irgendwas mit Geld in den Rachen werfen und so :D
Preis-Leistung ist für Leute wie markusG egal.
Geld hat man als Profi eh im Überfluss.
Wer hingegen auch auf die Leistung achtet, die man pro Euro bekommt, schaut sich so etwas an und dann was gerade für Grafikkarten angesagt ist:
zum Bild
Eine RX 6950 XT bekommt man aktuell z.B. für 650€. ;)
Man bekommt also 2 dieser AMD-Karten für den Preis einer RTX 4080.
Antwort von DaCarlo:
Bildschirmfoto 2023-04-07 um 03.45.12.pngBildschirmfoto 2023-04-07 um 03.40.57.pngDKPost hat geschrieben:
DaCarlo hat geschrieben:
Es gibt neue updates und Empfehlungen wie man seinen Intel Rechner, (siehe oben Ausstattung)
bestmöglich einstellen und updaten bzw. beachten soll.
Mein Rechner läuft prima mit Resolve und Edius X, wobei die K Prozessoren mit Quick Sync, auf 2 x 27 Zoll
Bildschirmen, eine gute Zusatz Leistung erbringen.
Also 3% schneller als eine RTX3060 ist jetzt nicht gerade beeindruckend.
Du hast die 47% von Hyper Encode übersehen!
Bildschirmfoto 2023-04-07 um 03.40.57.png
Bildschirmfoto 2023-04-07 um 03.40.57.png
Antwort von DaCarlo:
dienstag_01 hat geschrieben:
Ist das denn wirklich so schlimm, dass jemand eine Grafikkarte von Intel kauft und damit zufrieden ist.
Puh.
Danke
Nein ist nicht schlimm, Ich baue gute Hardware für meine Einsätze selbst zusammen.
Für meine Arbeiten mit XAVC HS 4K 422 10 bit, (ist ein HEVC Material) reicht meine ARC 770 16GB allemal.
Hier nochmal Tests was die Karte nicht kann! ;-)
Sind auch Puget System Test.
Bildschirmfoto 2023-04-07 um 03.43.15.pngBildschirmfoto 2023-04-07 um 03.37.22.png
Bildschirmfoto 2023-04-07 um 03.33.04.png
Antwort von DaCarlo:
DKPost hat geschrieben:
DaCarlo hat geschrieben:
Es gibt neue updates und Empfehlungen wie man seinen Intel Rechner, (siehe oben Ausstattung)
bestmöglich einstellen und updaten bzw. beachten soll.
Mein Rechner läuft prima mit Resolve und Edius X, wobei die K Prozessoren mit Quick Sync, auf 2 x 27 Zoll
Bildschirmen, eine gute Zusatz Leistung erbringen.
Also 3% schneller als eine RTX3060 ist jetzt nicht gerade beeindruckend.
Du hast die 147% von Hyper Encoding übersehen.
Bildschirmfoto 2023-04-07 um 03.45.12.png
Das passiert bei Hyper Encoding!
Bildschirmfoto 2023-04-07 um 03.48.22.png
Dazu benötigst du aber Intel K Prozessoren mit Integrierter Grafik.
Antwort von MK:
DaCarlo hat geschrieben:
Du hast die 147% von Hyper Encoding übersehen.
Übersehen hat hier keiner was, Screenshots machen will halt gelernt sein:
Bildschirmfoto 2023-04-04 um 23.42.54.png
Antwort von MK:
iasi hat geschrieben:
Eine RX 6950 XT bekommt man aktuell z.B. für 650€. ;)
Leider ist die bei GPU Compute über 50% langsamer als die 4080 und wenn man darauf hauptsächlich angewiesen ist bringt das nichts... und bei den aktuellen Strompreisen zwei Karten in den Rechner stecken? Da hat man abgesehen von der Zeitersparnis die Mehrkosten für die 4080 schnell wieder raus...
Und die 4070 Ti gibt es ja auch noch, immerhin auch fast 30% schneller bei GPU Compute als die 6950 XT, dafür 14% langsamer bei DirectX 11... da skaliert der Preis aber auch deutlich linearer mit der Leistung als bei der 4080.
Ich würde mir aber momentan falls nicht gerade was kaputt geht auch keine neue Karte kaufen da die Preise zu dynamisch sind, gleiches gilt für SSDs bei denen mittlerweile im 2 TB Bereich der freie Fall eingeleitet ist und die 4 TB Modelle hoffentlich bald folgen.
Antwort von markusG:
iasi hat geschrieben:
Preis-Leistung ist für Leute wie markusG egal.
Geld hat man als Profi eh im Überfluss.
Nö, es gibt halt Leute die kein Cherry Picking betreiben und Preis/Leistung eher ganzheitlich betrachten. Das mit der Markenkritik kann trotzdem von dir ;)
Davinci benchmark.jpeg
premiere GPU benchmark.jpeg
blender benchmark.jpeg
Nochmal blender:
blender Nvidia.png
blender Intel.png
Als Profi bezahlt man für mehr Leistung eben auch mal etwas mehr - denn am Ende macht man damit mehr Geld. Wobei die A770 auch nicht unbedingt ein Schnäppchen ist, im Vergleich zur Rtx3060 o. 3060ti...
Nach wenigen Gigs hat sich die Neuanschaffung hoffentlich amotisiert, sonst macht man was falsch.
Antwort von DaCarlo:
MK hat geschrieben:
DaCarlo hat geschrieben:
Du hast die 147% von Hyper Encoding übersehen.
Übersehen hat hier keiner was, Screenshots machen will halt gelernt sein:
Bildschirmfoto 2023-04-04 um 23.42.54.png
Ist ja gut wenn du den unteren fetten Balken nicht übersehen hast. ??
Antwort von MK:
Die Realsatire hier im Forum hat ein neues Level erreicht...
Antwort von iasi:
MK hat geschrieben:
iasi hat geschrieben:
Eine RX 6950 XT bekommt man aktuell z.B. für 650€. ;)
Leider ist die bei GPU Compute über 50% langsamer als die 4080 und wenn man darauf hauptsächlich angewiesen ist bringt das nichts... und bei den aktuellen Strompreisen zwei Karten in den Rechner stecken? Da hat man abgesehen von der Zeitersparnis die Mehrkosten für die 4080 schnell wieder raus...
Und die 4070 Ti gibt es ja auch noch, immerhin auch fast 30% schneller bei GPU Compute als die 6950 XT, dafür 14% langsamer bei DirectX 11... da skaliert der Preis aber auch deutlich linearer mit der Leistung als bei der 4080.
Ich würde mir aber momentan falls nicht gerade was kaputt geht auch keine neue Karte kaufen da die Preise zu dynamisch sind, gleiches gilt für SSDs bei denen mittlerweile im 2 TB Bereich der freie Fall eingeleitet ist und die 4 TB Modelle hoffentlich bald folgen.
Stimmt doch gar nicht, was du da erzählst.
Schau dir die verlinkten Ergebnisse für Raw in Resolve an.
Selbst die RTX 4090 ist hier schon langsamer als die 6900 XT.
Bei AMD gehen die Preise runter.
Nvidia denkt hingegen, mit der Mär von 50% könne man die Preise hoch halten.
Das geht nun also so weit, dass man für weniger Geld zwei 6950XT in den Rechner statt einer 4090 stecken könnte.
Für den Preis einer 4080 bekommt man die Power von zwei 6950XT. Dann ist auch die GPU-Power auf AMD-Seite höher.
Antwort von iasi:
MK hat geschrieben:
Die Realsatire hier im Forum hat ein neues Level erreicht...
Du meinst das Märchen erzählen über Mittelklassekarten, die die High End-Konkurrenz weit hinter sich lassen. :)
Im Gespann mit einer Intel K-CPU ist die Arc Pro in manchen Bereichen auch in Augenhöhe mit den viel teureren Nvidias.
Antwort von MK:
iasi hat geschrieben:
Stimmt doch gar nicht, was du da erzählst.
Was GPU Compute ist weißt Du anscheinend nicht, schade.
Vorschlag: Ich kaufe eine 6950 XT und wenn die bei GPU Compute langsamer ist krieg ich von Dir die 649 EUR :-)
Antwort von MK:
iasi hat geschrieben:
Du meinst das Märchen erzählen über Mittelklassekarten, die die High End-Konkurrenz weit hinter sich lassen. :)
Nein, Leute die Screenshots posten wo wesentliche Elemente abgeschnitten sind, und dann behaupten dass man den Teil der fehlt wohl übersehen hätte. LOL
Antwort von Frank Glencairn:
iasi hat geschrieben:
Stimmt doch gar nicht, was du da erzählst.
Schau dir die verlinkten Ergebnisse für Raw in Resolve an.
Das ist nur ne Metrik, aber in der Realität irrelevant, weil selbst ne uralte GTX980 raw schon schnell genug für alles abspielen konnte.
iasi hat geschrieben:
Das geht nun also so weit, dass man für weniger Geld zwei 6950XT in den Rechner statt einer 4090 stecken könnte.
Für den Preis einer 4080 bekommt man die Power von zwei 6950XT. Dann ist auch die GPU-Power auf AMD-Seite höher.
Dummerweise skaliert das halt nicht so einfach bei Video Anwendungen.
Antwort von iasi:
MK hat geschrieben:
iasi hat geschrieben:
Du meinst das Märchen erzählen über Mittelklassekarten, die die High End-Konkurrenz weit hinter sich lassen. :)
Nein, Leute die Screenshots posten wo wesentliche Elemente abgeschnitten sind, und dann behaupten dass man den Teil der fehlt wohl übersehen hätte. LOL
Was meinst du wohl, wie eine RTX 4090 in einem Rechner mit einer alten i3-CPU abschneiden würde?
Die Arc Pro entfaltet im Zusammenspiel mit einem Intel-K-Prozessor nochmal mehr Leistung.
Man muss also durchaus Systeme differenziert betrachten.
Bei in Resolve schneiden die 4000er mit Raw auf der Timeline z.B. nicht gut ab.
Intel Arc bietet hingegen hardwarebeschleunigte Kodierung für AV1.
Hier zu behaupten die teuren 4000er seien generell immer die Schnellsten, stimmt nun einmal nicht.
Was sie aber sind: Hochpreisig.
Antwort von cantsin:
Die heute üblichen/verfügbaren Benchmarks sind halt auch nicht so praxisnah, zumindest nicht für Videoanwendungen.
h264/h265 GPU-Encoding-Benchmarks sind zwar nice to have, aber eigentlich müsste da auch die Bildqualität des Outputs gemessen werden. I.d.R. sind diese GPU-basierten Encodings ja nur für schnellen Turnaround zu gebrauchen und erreichen nur die Bildqualität, die ein langsameres CPU-basiertes Encoding (z.B. mit ffmpeg/Handbrake) auch mit 50% der Dateigröße hinkriegt.
Und Formate wie Braw fordern fast nichts von der GPU.
Aussagekräftig wäre:
- Abspielperformance/FPS von technisch wirklich anspruchsvollem Videomaterial wie 6K/8K Open Gate 10bit 4:2:2 h265 in den Timelines von Resolve, Premiere & Co.
- Abspielperformance/FPS von anspruchsvollen Plugins wie Neat Video Pro und/oder Dehancer (mit Settings, die die GPU fordern).
- Zunehmend auch: Renderperformance von KI-Bildgeneratoren wie Stable Diffusion, wo dann tatsächlich GPU Compute die entscheidende Rolle spielt, bzw. 50% weniger GPU Compute-Performance auch ungefähr doppelt so lange Renderzeiten zur Folge hat...
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Stimmt doch gar nicht, was du da erzählst.
Schau dir die verlinkten Ergebnisse für Raw in Resolve an.
Das ist nur ne Metrik, aber in der Realität irrelevant, weil selbst ne uralte GTX980 raw schon schnell genug für alles abspielen konnte.
iasi hat geschrieben:
Das geht nun also so weit, dass man für weniger Geld zwei 6950XT in den Rechner statt einer 4090 stecken könnte.
Für den Preis einer 4080 bekommt man die Power von zwei 6950XT. Dann ist auch die GPU-Power auf AMD-Seite höher.
Dummerweise skaliert das halt nicht so einfach bei Video Anwendungen.
Resolve skaliert nicht schlecht.
Schon das Zusammenspiel von Intel k-CPU und Intel Arc Pro bringt merklich etwas.
Mit zwei Karten kommt man auf mehr als 150% der Leistung einer Karte.
Was du hier jetzt nicht anfangen musst, ist Testergebnisse, die dir nicht ins Konzept passen, als irrelevant darzustellen.
Eine GTX980 kommt sehr wohl schnell ans Limit, wenn Raw auf der Timeline ist.
Was nicht auffällt, ist bei H264 ein Unterschied zwischen 100fps und 120fps.
48fps bei Raw bedeutet bei 50p hingegen schon rucklige Darstellung.
Antwort von MK:
iasi hat geschrieben:
Was meinst du wohl, wie eine RTX 4090 in einem Rechner mit einer alten i3-CPU abschneiden würde?
Die Arc Pro entfaltet im Zusammenspiel mit einem Intel-K-Prozessor nochmal mehr Leistung.
Man muss also durchaus Systeme differenziert betrachten.
Bei in Resolve schneiden die 4000er mit Raw auf der Timeline z.B. nicht gut ab.
Intel Arc bietet hingegen hardwarebeschleunigte Kodierung für AV1.
Hier zu behaupten die teuren 4000er seien generell immer die Schnellsten, stimmt nun einmal nicht.
Was sie aber sind: Hochpreisig.
Was hat das mit dem abgeschnittenen Screenshot-Fail weiter oben zu tun? Richtig, nichts :-)
Antwort von Frank Glencairn:
iasi hat geschrieben:
Was du hier jetzt nicht anfangen musst, ist Testergebnisse, die dir nicht ins Konzept passen, als irrelevant darzustellen.
Eine GTX980 kommt sehr wohl schnell ans Limit, wenn Raw auf der Timeline ist.
Was nicht auffällt, ist bei H264 ein Unterschied zwischen 100fps und 120fps.
48fps bei Raw bedeutet bei 50p hingegen schon rucklige Darstellung.
Nö, eine 980 spielt raw im Schlaf ab. Und ja, wir reden hier von den
realworld relevanten FPS wie 24/25, nicht von irgendwelchen Phantasiewerten.
Kein Mensch hat ne 120 fps Timeline.
Und selbst bei Youtube Kindergarten Timelines mit 50fps merkst du keinen Unterschied zwischen einer Intel und ner RTX 4090.
Was hast du dann davon, daß die Intel theoretisch noch ein bisschen mehr könnte - alles völlig irrelevante Werte.
Antwort von iasi:
cantsin hat geschrieben:
Die heute üblichen/verfügbaren Benchmarks sind halt auch nicht so praxisnah, zumindest nicht für Videoanwendungen.
h264/h265 GPU-Encoding-Benchmarks sind zwar nice to have, aber eigentlich müsste da auch die Bildqualität des Outputs gemessen werden. I.d.R. sind diese GPU-basierten Encodings ja nur für schnellen Turnaround zu gebrauchen und erreichen nur die Bildqualität, die ein langsameres CPU-basiertes Encoding (z.B. mit ffmpeg/Handbrake) auch mit 50% der Dateigröße hinkriegt.
Und Formate wie Braw fordern fast nichts von der GPU.
Aussagekräftig wäre:
- Abspielperformance/FPS von technisch wirklich anspruchsvollem Videomaterial wie 6K/8K Open Gate 10bit 4:2:2 h265 in den Timelines von Resolve, Premiere & Co.
- Abspielperformance/FPS von anspruchsvollen Plugins wie Neat Video Pro und/oder Dehancer (mit Settings, die die GPU fordern).
- Zunehmend auch: Renderperformance von KI-Bildgeneratoren wie Stable Diffusion, wo dann tatsächlich GPU Compute die entscheidende Rolle spielt, bzw. 50% weniger GPU Compute-Performance auch ungefähr doppelt so lange Renderzeiten zur Folge hat...
Du hast auch bei RedRaw einen Unterschied beim Export zwischen CPU und GPU.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Was du hier jetzt nicht anfangen musst, ist Testergebnisse, die dir nicht ins Konzept passen, als irrelevant darzustellen.
Eine GTX980 kommt sehr wohl schnell ans Limit, wenn Raw auf der Timeline ist.
Was nicht auffällt, ist bei H264 ein Unterschied zwischen 100fps und 120fps.
48fps bei Raw bedeutet bei 50p hingegen schon rucklige Darstellung.
Nö, eine 980 spielt raw im Schlaf ab. Und ja, wir reden hier von den
realworld relevanten FPS wie 24/25, nicht von irgendwelchen Phantasiewerten.
Kein Mensch hat ne 120 fps Timeline.
Und selbst bei Youtube Kindergarten Timelines mit 50fps merkst du keinen Unterschied zwischen einer Intel und ner RTX 4090.
Was hast du dann davon, daß die Intel theoretisch noch ein bisschen mehr könnte - alles völlig irrelevante Werte.
Äh - nö.
Die Zeiten mit 2.8k/24p sind vorbei.
Hallo! Wir sind mittlerweile bei Kamera unter 5k$ die 8k/50p in Raw aufnehmen.
Deine 980 spielt da schon allein deshalb nicht mehr mit, weil es ihr an Speicher fehlt.
50fps-Timeline sollte heute hardwareseitig möglich sein.
Antwort von Frank Glencairn:
25/24 fps sind nicht vorbei sondern der Industriestandard hier.
50 fps sind weder ein Broadcast, noch ein Kino Standard, 50 fps sind gar nix, und damit völlig irrelevant für professionelle Arbeit.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
25/24 fps sind nicht vorbei sondern der Industriestandard hier.
50 fps sind weder ein Broadcast, noch ein Kino Standard, 50 fps sind gar nix, und damit völlig irrelevant für professionelle Arbeit.
50fps sind Sendestandard.
24fps waren ökonomischen Überlegungen geschuldet, die sich zu einem Quasistandard festgefressen haben.
Kein Gamer akzeptiert heute noch 24fps.
Im Internet sind die 24fps nicht relevant.
Auch die Kinoprojektoren beherrschen mittlerweile mehr als 24fps.
Avatar 2 war doch recht erfolgreich - oder nicht?
Man könnte auch mit 48fps und 360°Shutter aufnehmen und an der Bewegungsunschärfe würde sich nichts ändern - nur die Bewegungen wären flüssiger und nicht rucklig. Wer erhebt denn bitte eine technische und qualitative Schwäche zu einem Standard? :)
Antwort von Frank Glencairn:
iasi hat geschrieben:
50fps sind Sendestandard.
Ja, für 720 (IRT HDF03a 1.1 und IRT HDF03b 1.1) - das haben wir doch hoffentlich längst hinter uns gelassen, oder wie viel drehst du noch ion 720?
iasi hat geschrieben:
24fps waren ökonomischen Überlegungen geschuldet,
Ein weiteres Märchen, daß auch durch ständige Wiederholung nicht wahrer wird.
iasi hat geschrieben:
Kein Gamer akzeptiert heute noch 24fps.
Spielkinder sind für die Video/Film Produktion völlig irrelevant.
Statt ständig solches Zeug aus dem Hut zu ziehen könntest du doch einfach folgendes in deine Signatur schreiben:
"ich glaube fest daran daß höhere Zahlen immer besser sind und außerdem Lawrence von Arabien".
Antwort von Darth Schneider:
@iasi
Kino ist doch meistens immer noch 24FpS.
Netflix und Co. und heute, Content für TV…?
Keine Ahnung, aber ich denke auch eher 24/25/30 FpS als 50/60 FpS..
(Jetzt mal abgesehen vom Sport wegen der SloMos..)
Ich finde jedenfalls wenn die Bewegungen dann flüssiger sind sieht das immer mehr nach Video aus…
Mir gefällt darum 25 FpS immer noch besser als 50FpS..
Man schreibt auch nicht so viele Bilder/Daten weg..;)
Und wurde Avatar 2 nicht mit einer höheren Framerate gedreht vor allem aus technischen Gründen wegen dem 3D ?
Der einzige Grund warum ich nicht immer mit 24FpS filme ist höchstens noch weil ich mir nicht ganz sicher bin ob das alle TVs, Smartphone und Monitore auch richtig abspielen können.
Darum bleibe ich meistens bei 25FpS..
Games sind wieder ein ganz anderes Thema, das soll ja auch auf möglichst vielen Rechnern und Screens überall möglichst flüssig laufen.
Womöglich sind dabei höhere Frameraten ein Vorteil.
Gruss Boris
Antwort von Darth Schneider:
@iasi
Super YouTube Video und ganz viel Gründe die für 24FpS sprechen.
Gruss Boris
Antwort von iasi:
"Darth Schneider" hat geschrieben:
@iasi
Super YouTube Video und ganz viel Gründe die für 24FpS sprechen.
Gruss Boris
Das ist an manchen Stellen einfach nur dummes Geschwafel.
Man kann also Schwenks auch in 24fps machen. Na so etwas auch. Dafür gab es schon vor Jahrzehnten Tabellen zur Schwenkgeschwindigkeit abhängig von Brennweite und Framerate.
Es würde nicht aussehen wie ein Movie. Blödsinn. Hat Avatar 2 denn nicht ausgesehen wie ein Movie?
Oder Action: Was soll dieses Gerede über 120fps würde zu Gruppen mit 5 Frames bei 24fps. Und darauf folgt dann die plumpe Behauptung Action würde nicht plötzlich nicht mehr wie ein Movie aussehen.
Dann dieses: Die Darsteller sehen zu realistisch aus. Hatten wir das nicht schon bei 2k und dann bei 4k und dann ...
So wie er da argumentiert dürfte schon eine 65mm-Produktion nicht mehr filmisch ausgesehen haben, da man ja plötzlich jedes Barthaar erkennen konnte.
Zudem hat es sehr lange gedauert, bis Hollywood auf Digital umgestellt hatte. Dann dauerte es lange bis man die Produktionsworkflows auf 4k hatte.
Alle Welt sieht mittlerweile Filme auf 50/60Hz Bildschirmen - da nutzt auch diese "Filmmakers"-Krücke nichts.
24fps gehört zur Wahrnehmungserinnerung alter Leute, die noch ins Kino gingen, als 24fps mit Umlaufblenden auf 48fps hochgemurkst wurden.
Die gleiche Bewegungsunschärfe von 24fps bekommt man übrigens auch bei 48fps wenn man auf 360° stellt. Was dann noch bei 48fps fehlt, ist dieses Ruckeln.
Sieht man sich von den genannten Filmen die Einzelbilder an, erkennt man sehr schnell, dass es nicht an der Framerate liegt, dass sie aussehen, wie sie aussehen.
Emancipation wurde teilweise in HFR gedreht. Nun, da dies bekannt ist, sieht es wohl nach TV-Show aus. :)
https://youtu.be/jfPiz5YLD1k?t=1846
Antwort von Darth Schneider:
@iasi
Also so wie ich das sehe bringst du immer dieselben 2 oder 3 Beispiele weil es ja gar nicht viel mehr gibt.
Und wenn 24FpS nur für alte Leute sinnvoll ist, ja warum werden dann die meisten Kinofilme immer noch mit 24p gedreht ?
Ist ja nicht so das heute alle Kino Filmemacher uralt sind..Und es ist auch nicht so das da irgendwelche technischen Einschränkungen gäbe Heute.
Und ich glaube auch nicht das Hollywood diesbezüglich schläft. Ganz im Gegenteil, die probieren ganz bestimmt alles was neu und interessant ist auch aus, forschen und testen doch mit neuem Equipment ohne Ende..
Die technischen Möglichkeiten sind jedenfalls längst da um alles mit 48/50/60 oder gar mit 120 FpS zu drehen. Und dennoch bleiben die meisten Filmemacher dennoch bei 24FpS.
Warum ?
Das hat doch ganz bestimmt zig logische und nachvollziehbare Gründe und wird nicht einfach so aus Gewohnheit immer noch so gehandhabt. (Genug gute Gründe bringt der John da oben ja allemal)
Das hat ja auch nicht zuletzt mit unseren Augen zu tun, die sehen nun mal 24FPS als natürlicher an als HFR…Das wird auch in 100 Jahren noch genau so sein…;)
Und natürlich gibt es immer wieder Ausnahmen wie The Hobbit, Avatar 1 und 2, Emancipation, und auch andere.
Die aus künstlerischen/oder auch technischen Gründen (bei Hobbit und Avatar wahrscheinlich wegen dem 3D) in HFR gedreht wurden/werden, aber das sind doch einfach nur ganz wenige Ausnahmen.
Ich denke das wird sich auch in Zukunft nicht ändern.
Gruss Boris
Antwort von markusG:
"Darth Schneider" hat geschrieben:
Und wenn 24FpS nur für alte Leute sinnvoll ist, ja warum werden dann die meisten Kinofilme immer noch mit 24p gedreht ?
Kino ist es für alte Leute - junge Leute schauen TikTok :P *scnr* ne Spaß beiseite:
"Darth Schneider" hat geschrieben:
Das hat ja auch nicht zuletzt mit unseren Augen zu tun, die sehen nun mal 24FPS als natürlicher an als HFR…Das wird auch in 100 Jahren noch genau so sein…;)
Das ist für mich die sinnvollste Erläuterung (ich glaube die habe ich als erstes in einem Buch von Walter Murch gelesen: Filme (im Sinne von fiktiv, Spielfilme) sind Geschichten die erzählt werden, die am ehesten an Träume erinnern sollen. Es soll also bewusst nicht unseren "wachen" Sehgewohnheiten entsprechen, sondern auch davon abgrenzen. Und ein Werkzeug - neben zig anderen wie Schnitt oder Color Grading - ist eben die Framerate.
Und genau aus diesem Grunde sieht ein Film in HFR dann nicht aus wie eine Geschichte, die einem Traum, oder einer Visualisierung einer Geschichte am Lagerfeuer entspricht, sondern einem "behind the scenes", wo das Bühnenbild nach -> Bühnenbild ausschaut usw., und ein Avatar dann eben wie ein (Action-)Videospiel. Es zerstört die Illusion einer erzählten fiktiven Geschichte. Bei Dokumentation mag es besser funktionieren, da geht es ja weniger um Illusion, sondern um Authentizität (imho).
Ich weiß nicht ob du das so meintest, Boris, finde es aber plausibel und nachvollziehbar.
Antwort von Darth Schneider:
@Markus
Ich meine das auch so, ich hatte Avatar 2 im Kino ja in 3D gesehen und gestern hab ich mir ein Teil des Films ohne 3D auf unserem (sicher eher sehr gutem LG Fernseher) angeschaut.
Und das sieht so ganz klar mehr nach einem Video Game aus als nach einem Kinofilm.
Was mir im Kino wegen 3D nicht aufgefallen ist.
Erinnert mich an den Look vom Hobbit, einfach noch bunter und schärfer..;)
Und zumal gerade mit den eher sehr scharfen Dslms ist es, finde ich, doch darum nicht sinnvoll mit 50/60 FpS zu drehen, weil so das Ganze einfach noch viel mehr digital und nach Video ausschaut…
Das menschliche Auge braucht nicht so viel FpS….
Gut bei TikTok sieht das womöglich wieder anders aus, ich schaue das Zeugs aber eh nicht…
Gruss Boris
Antwort von markusG:
"Darth Schneider" hat geschrieben:
Gut bei TikTok sieht das womöglich wieder anders aus, ich schaue das Zeugs aber eh nicht…
Gruss Boris
Ist jetzt auch nicht unbedingt mein Metier, aber auch damit wird Kohle gemacht (generell mit SoMe). Daher stimme ich nicht mit Franks Meinung überein, dass HFR im Profi–Umfeld irrelevant sei. Und im Werbeumfeld dürfte wesentlich mehr umgesetzt werden als mit Kinofilmen, ist also imho auch kein "Argument" der Differenzierung.
Antwort von Darth Schneider:
Der Frank wird es wissen.
Ich kann mir höchstens vorstellen das bei Schmuddel Filmen HFR genutzt wird, natürlich beim Sport und bei manchen Hobby Filmern die glauben/finden 24/25FpS ruckeln….
Gut, Ausnahmen gibt es immer, manche Profis drehen auch mit 50P um die Möglichkeit zu haben sich nachträglich noch für SloMo zu entscheiden.
Gruss Boris
Antwort von iasi:
"Darth Schneider" hat geschrieben:
@iasi
Also so wie ich das sehe bringst du immer dieselben 2 oder 3 Beispiele weil es ja gar nicht viel mehr gibt.
Und wenn 24FpS nur für alte Leute sinnvoll ist, ja warum werden dann die meisten Kinofilme immer noch mit 24p gedreht ?
Ist ja nicht so das heute alle Kino Filmemacher uralt sind..Und es ist auch nicht so das da irgendwelche technischen Einschränkungen gäbe Heute.
Und ich glaube auch nicht das Hollywood diesbezüglich schläft. Ganz im Gegenteil, die probieren ganz bestimmt alles was neu und interessant ist auch aus, forschen und testen doch mit neuem Equipment ohne Ende..
Die technischen Möglichkeiten sind jedenfalls längst da um alles mit 48/50/60 oder gar mit 120 FpS zu drehen. Und dennoch bleiben die meisten Filmemacher dennoch bei 24FpS.
Warum ?
Das hat doch ganz bestimmt zig logische und nachvollziehbare Gründe und wird nicht einfach so aus Gewohnheit immer noch so gehandhabt. (Genug gute Gründe bringt der John da oben ja allemal)
Das hat ja auch nicht zuletzt mit unseren Augen zu tun, die sehen nun mal 24FPS als natürlicher an als HFR…Das wird auch in 100 Jahren noch genau so sein…;)
Und natürlich gibt es immer wieder Ausnahmen wie The Hobbit, Avatar 1 und 2, Emancipation, und auch andere.
Die aus künstlerischen/oder auch technischen Gründen (bei Hobbit und Avatar wahrscheinlich wegen dem 3D) in HFR gedreht wurden/werden, aber das sind doch einfach nur ganz wenige Ausnahmen.
Ich denke das wird sich auch in Zukunft nicht ändern.
Gruss Boris
Dass HFR bei Emancipation genutzt wurde, wird nicht an die große Glocke gehängt, da die "cinematisch"-Jünger sonst sofort wieder "erkennen", dass es nicht nach "Movie" aussieht. :)
Und dann beginnt das große Geschrei.
Es ist doch auch erstaunlich, dass Filme und Serien "cinematisch" aussehen, deren Hintergrund aus dem Computer stammt oder die künstlich in 3D umgrechnet werden.
Was dann zudem auch nicht bedacht wird:
Die kürzere Belichtungszeit, die sich aus dem Erhöhen der Framerate und Verbleib bei 180fps ergibt.
Da werden dann immer diese faulen Vergleiche präsentiert, bei denen schlicht die Belichtungszeit angepasst wird.
24fps + 180° = 1/48s
48fps + 180° = 1/96s
Das wird dann verglichen und darüber geklagt, dass die Bewegungen nicht mehr "cinematisch" aussehen.
Aber diese Einstellung wird dann gar nicht erst versucht:
48fps + 360° = 1/48s
Antwort von Darth Schneider:
Ja gut ich werde das mal versuchen..
Aber das wird auch nix daran ändern das 48 FpS einfach mehr Bilder pro Sekunde sind…
Oder ?
Da ändert der 360 Shutter doch auch nix daran….
Und es ist natürlich in meinem Fall schade das die S5 keine 4K 50FpS mit 10Bit 4:2:2 kann… ;(
Werde das mit der Pocket ausprobieren.
Gruss Boris
Antwort von Frank Glencairn:
"Darth Schneider" hat geschrieben:
..manche Profis drehen auch mit 50P um die Möglichkeit zu haben sich nachträglich noch für SloMo zu entscheiden.
Profis entscheiden vorher was sie wollen/brauchen, und wählen deshalb bereits beim Dreh die entsprechenden Parameter.
Vorher keinen Plan zu haben, nicht zu wissen was man will, irgendwelche Entscheidungen im Nachhinein wieder umwerfen, ins Blaue zu arbeiten, etc. sind keine professionelles Vorgehen.
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Ja gut ich werde das mal versuchen..
Aber das wird auch nix daran ändern das 48 FpS einfach mehr Bilder pro Sekunde sind…
Oder ?
Da ändert der 360 Shutter doch auch nix daran….
Du hast nicht mehr das Ruckeln, aber du hast dieselbe Bewegungsunschärfe.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
"Darth Schneider" hat geschrieben:
..manche Profis drehen auch mit 50P um die Möglichkeit zu haben sich nachträglich noch für SloMo zu entscheiden.
Profis entscheiden vorher was sie wollen/brauchen, und wählen deshalb bereits beim Dreh die entsprechenden Parameter.
Vorher keinen Plan zu haben, nicht zu wissen was man will, irgendwelche Entscheidungen im Nachhinein wieder umwerfen, ins Blaue zu arbeiten, etc. sind keine professionelles Vorgehen.
Nachträglich etwas zu entscheiden, ist wirklich nicht das Gelbe vom Ei.
Antwort von Darth Schneider:
@Frank
Das mit den 50FpS und der Möglichkeit nachträglich von SloMo habe ich erwähnt weil es hier auf SlashCAM jemand geschrieben hatte, weiss nicht mehr wer.
Aber auch jemand der vom filmen lebt, also auch ein Profi, der aber alleine unterwegs ist, viel an Messen und so filmen muss..
Nicht alle Profis machen Kino und Fernsehen, und manche haben scheinbar Kunden, die nachträglich spontan auch mal ne SloMo wollen.
Nicht alle Kunden haben vorher einen 100%ig genauen Plan…;)
Gruss Boris
Antwort von Frank Glencairn:
"Darth Schneider" hat geschrieben:
Nicht alle Kunden haben vorher einen 100%ig genauen Plan…;)
Ich weiß ja nicht wie ihr das so handhabt, aber Teil meines Jobs ist es genau diesen 100%igen Plan
vor dem Dreh mit dem Kunden auszuarbeiten.
Das führt dann dazu, daß es hinterher keine Fragen und Diskussionen mehr gibt, weil der Klient plötzlich irgendwas will, was vorher nicht abgesprochen war.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
"Darth Schneider" hat geschrieben:
Nicht alle Kunden haben vorher einen 100%ig genauen Plan…;)
Ich weiß ja nicht wie ihr das so handhabt, aber Teil meines Jobs ist es genau diesen 100%igen Plan vor dem Dreh mit dem Kunden auszuarbeiten.
Das führt dann dazu, daß es hinterher keine Fragen und Diskussionen mehr gibt, weil der Klient plötzlich irgendwas will, was vorher nicht abgesprochen war.
Wobei mir da (mal wieder) Roger Deakins in den Sinn kommt, der nach dem Dreh davon überrascht wurde, dass Skyfall nun plötzlich auch in 4k-IMAX-Kinos laufen sollte. Er befürchtete Schlimmes durch das notwendige Upscaling.
Antwort von Darth Schneider:
Oder die Braut die nach der Hochzeit mich angerufen hatte um zu fragen ob sie das Video nicht auch für die Hälfte des Geldes haben könne, weil die Hochzeit doch ganz überraschend viel teurer als gedacht geworden ist…
(Die Gäste hatten wahrscheinlich viel zu viel gesauft)
Natürlich hatte ich Idiot auch noch ja gesagt…
Oder ein Choreograf der dann neben dem Schnitt vom ganzen Tanzabend dann doch noch ganz kurzfristig und dringend als Promo eine Kurzversion davon ( von jedem einzelnen Stück) benötigte, natürlich zum selben Preis, weil der hatte schliesslich auch kein Geld mehr.
Also schob ich gratis eine Nachtschicht.
Ich könnte noch mehr Beispiele bringen…;)
Gruss Boris
Antwort von markusG:
"Frank Glencairn" hat geschrieben:
Vorher keinen Plan zu haben, nicht zu wissen was man will, irgendwelche Entscheidungen im Nachhinein wieder umwerfen, ins Blaue zu arbeiten, etc. sind keine professionelles Vorgehen.
Amen, und: du wirst dich wundern*, wie verbreitet es in "professionellen" Kreisen ist. Beratungsresistenz inklusive.
Nicht nur in "unseren" Kreisen.
*rethorisch gesprochen. Du wirst ja deine Erfahrungen gemacht haben^^