Frage von pillepalle:Ich bräuchte mal eure Einschätzung von Intel CPUs im Vergleich zu AMD CPUs für Schnittrechner. Ich wollte mir demnächst doch mal einen Desktop Rechner holen, um die Post etwas zu beschleunigen. So sehr ich die Dell Workstations mag, komme ich bei einem mittelprächtigem Rechner im Vergleich zu einem aus der Online-Bastelbude mit vergleichbarer Leistung zu einer Preisdiffernenz von über 800,-€, weshalb ich jetzt doch eher zu einem vom günstigen Anbieter tendiere. Die Erfahrung zeigt mir auch irgendwie, dass man die Kiste in der Regel selten nachträglich aufrüstet. Der Rechner soll ca. 3 Jahre halbwegs zuverlässig laufen.
Die Sache die ich nicht wirklich selber beurteilen kann, ist die Rolle der Quicksync Unterstützung im Videoschnitt. Scheinbar gibt es Formate und Programme (wie Premiere) die davon profitieren und bei denen ein Intel Prozessor daher mehr Sinn macht. Eigentlich arbeite ich aber hauptsächlich mit Resolve und ProRes Formaten und wenn ich mal Premiere benutzte, dann nur wegen ProRes RAW. Spielt Quicksync dann trotzdem für mich eine Rolle?
Praktisch ist es nämlich so, dass ich bei einem von der Leistung vergleichbaren AMD Prozessor nochmal ca. 350,-€ gegenüber einem i9 Pedanten von Intel sparen würde. Also schon nicht uninteressant. Bei der Grafikkarte würde ich lieber zu einer Quadro greifen (RTX4000), die zwar auch deutlich teurer ist als die entsprechende Gamerversion, aber mir zusätzliches herumhampeln mit Studio Treibern für die 10bit Unterstützung meines Monitors erspart. Ich denke mal, das dürfte es keinen Unterschiede für die Prozessorwahl machen.
Über ein paar praktische Erfahrungen und Infos würde ich mich freuen.
VG
Antwort von Frank Glencairn:
Weder bei beim decodieren von Prores noch bei braw spielt Quicksync irgend eine Rolle.
Investiere lieber in eine ordentliche GPU - die Quadro ist da keine gute Wahl, mit ner aktuellen 3080er bist du deutlich besser bedient.
Das "herumhampeln" mit den Studiotreibern ist nicht zusätzlich, sondern du installierst sie nur anstelle der Standard Treiber, aber Treiber installieren mußt du trotzdem immer.
Antwort von Bruno Peter:
pillepalle hat geschrieben:
Spielt Quicksync dann trotzdem für mich eine Rolle?
Du musst selbst eine Antwort darauf finden ob Dich der "billige Jakob" zufrieden stellt.
Antwort von Frank Glencairn:
Der "billige Jacob" hat auch keine andere Hardware, die anderen hauen nur jede Menge Profit oben drauf, ohne daß du (außer dem Markenaufkleber am Gehäuse) irgend eine Gegenleisting dafür bekommst.
Antwort von pillepalle:
@ Frank
Danke :) Ja, ich wollte mir eher so eine Art Übergangsrechner holen, einfach nur um etwas schneller arbeiten zu können. Kein Superteil. Mit einem Ryzen7 3800X oder einem i9 10900X häte ich auf dem Papier die dreifache Prozessorleistung zu meinem Latop. Genauso mit der Quadro RTX 4000 die ca. 3 fache Graka-Leistung zu einem moderaten Preis. Ich fand Preis/Leistung bei der RTX4000 unter den Quadro Karten noch am besten. Klar könnte ich nochmal ein paar Hundert Euro mehr sparen, wenn ich mir z.B. stattdessen eine Geforce 2070super hole. aber ich möchte mich eigentlich nicht so sehr mit dem Rechner beschäftigen und an den Treibern herum werkeln. Das Ding soll einfach nur laufen :)
@ Bruno Peter
Stimmt schon. Ich weiß mit einem Dell hätte ich eine zuverlässige Konfiguration und guten Support, aber momentan möchte ich eigentlich nicht so viel für den Rechner ausgeben. Wenn ich mir ein bestimmtes Budget setzte, bekomme ich bei Dell einfach mal 50% weniger Leistung für's gleiche Geld. Klar kann man das nicht immer so einfach rechnen, aber im dem Fall, wäre es mir das Risiko wert.
VG
Antwort von cantsin:
pillepalle hat geschrieben:
Ich fand Preis/Leistung bei der RTX4000 unter den Quadro Karten noch am besten. Klar könnte ich nochmal ein paar Hundert Euro mehr sparen, wenn ich mir z.B. stattdessen eine Geforce 2070super hole. aber ich möchte mich eigentlich nicht so sehr mit dem Rechner beschäftigen und an der Firmware herum werkeln. Das Ding soll einfach nur laufen :)
Die Quadro-Karten sind vor allem für CAD-Anwendungen gedacht und bringen für Video/Resolve wenig. Lieber zu einer RTX2070/2080 greifen und dann mit dem Studiotreiber nutzen. (Verstehe nicht ganz, was Du mit "an der Firmware herum werkeln" meinst.)
Antwort von srone:
bei der rtx 2070 gibts nichts zu werkeln einfach aktuellen studiotreiber installieren und gut ist...;-)
lg
srone
Antwort von Frank Glencairn:
pillepalle hat geschrieben:
Stimmt schon. Ich weiß mit einem Dell hätte ich eine zuverlässige Konfiguration und guten Support
Solange nicht irgendeine Hardware Komponente im Eimer ist, oder du selbst irgendwas kaputtkonfigurierst, kann dir der Support sowieso nicht helfen.
Antwort von pillepalle:
Ok, also mit einem Ryzen7 und einer Geforce Karte wäre es natürlich am günstigsten... vermutlich probiere ich das einfach mal. Danke nochmal :)
VG
Antwort von Frank Glencairn:
Das hier ist die aktuelle Empfehlung von Puget für Resolve (günstigste Variante)
Ryzen 3900XT
Crucial DDR 4 2666 (2 x 16 GB) Ram
2070 Super RTX 8 GB
Noctua NH-U12S (AMD AM4)
850W (80 PLUS Platinum) Netzteil
ASUS ROG Strix X570-E (AMD X570 ATX DDR4)
Gehäuse und Platten nach Geschmack und Budget
Damit kannst du nix falsch machen - Alternate und die anderen verdächtigen Zulieferer bauen dir das auch für kleines Geld mit laufendem Windows (und Studiotreiber) zusammen, wenn du da keinen Nerv dafür hast.
Antwort von Onkel Danny:
"Frank Glencairn" hat geschrieben:
Das hier ist die aktuelle Empfehlung von Puget für Resolve (günstigste Variante)
Ryzen 3900XT
Crucial DDR 4 2666 (2 x 16 GB) Ram
2070 Super RTX 8 GB
Noctua NH-U12S (AMD AM4)
850W (80 PLUS Platinum) Netzteil
ASUS ROG Strix X570-E (AMD X570 ATX DDR4)
Gehäuse und Platten nach Geschmack und Budget
Damit kannst du nix falsch machen - Alternate und die anderen verdächtigen Zulieferer bauen dir das auch für kleines Geld mit laufendem Windows (und Studiotreiber) zusammen, wenn du da keinen Nerv dafür hast.
Hier muss ich leider an 2 Stellen widersprechen.
Der Ryzen läuft default mit 3200er RAM, alles darunter kastriert ihn nur unnötig.
Empfehlen würde ich 3600er RAM mit guten Timings.
Das Netzteil ist überdimensioniert, ein 650w reicht hier völlig.
Dann aber auf gute Zertifizierung achten, spart Strom.
greetz
Antwort von Bruno Peter:
"Frank Glencairn" hat geschrieben:
Damit kannst du nix falsch machen - Alternate und die anderen verdächtigen Zulieferer bauen dir das auch für kleines Geld mit laufendem Windows (und Studiotreiber) zusammen, wenn du da keinen Nerv dafür hast.
Wieviel muss man dafür bei Alternate zahlen?
Antwort von Frank Glencairn:
https://pro-gamer-gear.de/pc-bei-altern ... mmenbauen/
Antwort von Frank Glencairn:
"Onkel Danny" hat geschrieben:
Das Netzteil ist überdimensioniert, ein 650w reicht hier völlig.
Der Satz hat bei ner Menge Leute schon graue Haare verursacht.
Antwort von cantsin:
Kann Alternate nur empfehlen. Die haben mir meinen (damals ebenfalls Resolve-optimierten) Rechner sehr sauber montiert, mich extra angerufen, weil sie meine Konfiguration mit einer rechenstarken Nvidia-GPU + reiner Display-Grafikkarte merkwürdig fanden (was sie für normale Systeme auch wäre) und haben ein gute Versandlogistik sowie guten Service.
Nicht der billigste Anbieter am Markt, aber anzuraten, wenn man Stress minimieren will.
Antwort von pillepalle:
Beim Netzteil bin ich aber auch eher für überdimensioniert als unterdimensioniert... vielleicht ist ein 750W Netzteil ein guter Kompromiss. Mit zuviel verbraucht man halt mehr Strom, aber kann eigentlich nix falsch machen. Bei Dell haben die Workstations mit etwas besserem Prozessor und Graka sogar alle 950W. Weil man da eben noch viel zusätzlich reinpacken kann (mehrere Grafikarten, 6 Festplatten usw.).
VG
Antwort von Bruno Peter:
cantsin hat geschrieben:
Kann Alternate nur empfehlen. Die haben mir meinen (damals ebenfalls Resolve-optimierten) Rechner sehr sauber montiert, mich extra angerufen, weil sie meine Konfiguration mit einer rechenstarken Nvidia-GPU + reiner Display-Grafikkarte merkwürdig fanden (was sie für normale Systeme auch wäre) und haben ein gute Versandlogistik sowie guten Service.
Nicht der billigste Anbieter am Markt, aber anzuraten, wenn man Stress minimieren will.
Ich habe gute Erfahrungen mit Agando gesammelt, die haben mir einen laufenden Rechner mit Intel i9-9900K CPU
für erweiterten Ausbau mit eigenen Bauteilen durch mich selbst geliefert.
Antwort von beiti:
pillepalle hat geschrieben:
Die Sache die ich nicht wirklich selber beurteilen kann, ist die Rolle der Quicksync Unterstützung im Videoschnitt. Scheinbar gibt es Formate und Programme (wie Premiere) die davon profitieren und bei denen ein Intel Prozessor daher mehr Sinn macht.
Meines Wissens das einzige Schnittprogramm, das spürbar von QuickSync profitiert, ist Edius.
Antwort von cantsin:
pillepalle hat geschrieben:
Beim Netzteil bin ich aber auch eher für überdimensioniert als unterdimensioniert... vielleicht ist ein 750W Netzteil ein guter Kompromiss. Mit zuviel verbraucht man halt mehr Strom, aber kann eigentlich nix falsch machen.
Auch das nicht - bei Normallast zieht der Rechner nur einen Bruchteil der maximalen Netzteilleistung, und das Netzteil liefert diese Wattzahl auch nicht konstant bzw. pauschal. Es geht darum, genügend Leistung zu haben, wenn der Rechner (bzw. CPU und Grafikkarte) auf Volltouren läuft. Ein 850W-Netzteil verursacht aber AFAIK an sich nicht mehr Stromverbrauch. Letzterer hängt vom Wirkungsgrad des Netzteils ab, nicht von seiner Maximalleistung.
Antwort von dosaris:
cantsin hat geschrieben:
Ein 850W-Netzteil verursacht aber AFAIK an sich nicht mehr Stromverbrauch. Letzterer hängt vom Wirkungsgrad des Netzteils ab, nicht von seiner Maximalleistung.
schwer vorhersagbar,
aber iA hat ein Gerät für höhere Leistung auch eine größere Leerlauf-Aufnahme.
d.h dass selbst bei gleichem Wirkungsgrad - der fast immer auf die maxLeistung bezogen ist -
das größere Gerät bei gleicher niedrigerer Leistg-Abgabe eine höhre Leistunsgaufnahme haben wird.
Wie zB ein 200PS-Motor bei 30PS-Abgabe mehr Sprit konsumiert als ein 100PS-Motor (nominal).
iA halte ich bei Rechnern die Entscheidung gegen ein sog Markengerät für sinnvoll,
weil Markengeräte oft proprietäre Gimicks drin haben, die den Einsatz/Ersatz
mit Standard-Komponenten verhindern.
Durch konsequente Umsetzung des Standard-Komponenten-Prinzips hab ich in meinem
Haupt-desktopRechner noch Baugruppen drin, die schon fast 10 Jahre alt sind.
MoBo+CPU ist aber bereits das dritte (hintereinander)
Es wird halt nur das ersetzt, was nötig ist.
Insgesamt erscheint ir die Wahl einer NVida-GPU (mit ggf Quicksync) für tragfähiger
als eine AMD-GPU mit Open-GL. Letzteres wäre technisch sinnvoll, wird aber
von div AnwendgsProgrammen nur schlecht unterstützt
Antwort von Frank Glencairn:
dosaris hat geschrieben:
schwer vorhersagbar,
aber iA hat ein Gerät für höhere Leistung auch eine größere Leerlauf-Aufnahme.
d.h dass selbst bei gleichem Wirkungsgrad - der fast immer auf die maxLeistung bezogen ist -
das größere Gerät bei gleicher niedrigerer Leistg-Abgabe eine höhre Leistunsgaufnahme haben wird.
Wie zB ein 200PS-Motor bei 30PS-Abgabe mehr Sprit konsumiert als ein 100PS-Motor (nominal).
Von wie viel ct pro Stunde reden wir hier eigentlich?
dosaris hat geschrieben:
Insgesamt erscheint ir die Wahl einer NVida-GPU (mit ggf Quicksync) für tragfähiger
als eine AMD-GPU mit Open-GL. Letzteres wäre technisch sinnvoll, wird aber
von div AnwendgsProgrammen nur schlecht unterstützt
oh mei
GPUs haben kein Quicksync, auschließlich Intel CPUs - völlig andere Baustelle,
und ne AMD GPU stand nicht mal im Ansatz zur Diskussion.
Antwort von dosaris:
"Frank Glencairn" hat geschrieben:
oh mei
GPUs haben kein Quicksync, auschließlich Intel CPUs - völlig andere Baustelle,
und ne AMD GPU stand nicht mal im Ansatz zur Diskussion.
na, wieder mal 'ne Windmühle gefunden, gegen die man ankämpfen kann?
Quicksync ist iA (prinzipiell aber nicht zwingend) an die GPU gebunden.
Und die gibt's separat oder in div CPU-Chips integriert.
Für AMD mW aber überhaupt nicht verfügbar (außer evtl bei neuesten Baureihen??)
DAS ist die Baustelle
Antwort von rush:
Ich würde mir - Stand heute - jederzeit wieder ein Ryzen-System für Multimediaanwendungen zulegen. Zuvor war ich über Jahre hinweg ausschließlich mit Intel unterwegs - primär wegen Edius & Quicksync und der generell schnelleren Prozessoren damals. Edius staubt heute bei mir ein... und wird nur noch auf dem Laptop ab und an mal angeworfen.
Ich finde die CSL "Aufrüst-Lösungen" ganz fair von den Preisen her und sehr individuell konfigurierbar... da kann man häufig recht solide und faire Systeme zusammenbasteln (lassen) und ergänzt diese dann nur noch um eine GraKa etc. nach Belieben - so gibt es häufig recht günstige Einstiegssysteme mit Gehäuse, Netzteil sowie brauchbaren Standardkomponenten und kann dann an fast allen Stellen noch Änderungen nach Belieben vornehmen und so teils wirklich zu günstigen und individuellen Lösungen kommen - insbesondere wenn schon was an Hardware vorhanden ist oder man spezielle Wünsche hat. Setzt aber natürlich etwas "Ahnung" von der Materie voraus - komplette Neueinsteiger sollten eher zu einem fertig geschürten Komplettpaket greifen.
Der Zusammenbau war bei mir absolut Top Seitens CSL und die Lieferung ebenso.
Aber: Wer die Kiste möglichst zeitnah haben sollte muss wohl Geduld mitbringen wenn es individuell werden soll... bei mir dauerte die Auslieferung im letzten Herbst leider deutlich länger - was aber wohl auch der allgemein schlechten Verfügbabrkeit des seinerzeit brandneuen 3900x geschuldet war. Das Ding war fast nirgends in Stückzahlen lieferbar und die angegebenen 3-5 Tagen erschienen mir daher schon bei der Bestellung unrealistisch. Am Ende waren es gute 14 Tage. Leider mit eher mäßiger Kommunikation Seitens CSL... Aber halb so wild - nur wenn das "Sofort Haben-wollen GEN" juckt kann es ja manchmal nicht schnell genug gehen ;)
Nur mal ein CSL Link als beispielhafte Ausgangsbasis wenn man viel rumklicken und vergleichen mag:
https://www.csl-computer.com/aufruest-p ... md-ryzen-9
Antwort von Frank Glencairn:
dosaris hat geschrieben:
Quicksync ist iA (prinzipiell aber nicht zwingend) an die GPU gebunden.
LOL- immer noch einen drauflegen.
Antwort von Jost:
pillepalle hat geschrieben:
Scheinbar gibt es Formate und Programme (wie Premiere) die davon profitieren und bei denen ein Intel Prozessor daher mehr Sinn macht. Eigentlich arbeite ich aber hauptsächlich mit Resolve und ProRes Formaten und wenn ich mal Premiere benutzte, dann nur wegen ProRes RAW. Spielt Quicksync dann trotzdem für mich eine Rolle?
Nein, Quicksync spielt bei ProRes Raw keine Rolle. Das Decoding in Premiere läuft über Nvidia:
https://helpx.adobe.com/de/x-productkb/ ... tions.html
Hier die Formate, die von Quicksync unterstützt werden. Was genau, ist von der Prozessor-Generation abhängig (und natürlich vom Programm).
https://en.wikipedia.org/wiki/Intel_Qui ... eo#Windows
Wenn Du keins dieser Formate verwendest, macht es auch keinen Sinn, in Quicksync zu investieren.
Bei der Grafikkarte würde ich lieber zu einer Quadro greifen (RTX4000), die zwar auch deutlich teurer ist als die entsprechende Gamerversion, aber mir zusätzliches herumhampeln mit Studio Treibern für die 10bit Unterstützung meines Monitors erspart. Ich denke mal, das dürfte es keinen Unterschiede für die Prozessorwahl machen.
VG
10 Bit ist eigentlich ein alter Hut bei Nvidia.
https://www.golem.de/news/nvidia-10-bit ... 42933.html
Was die Treiber-Problematik angeht: Das ist kein Problem mehr. Es muss ja ohnehin regelmäßig aktualisiert werden. Nvidia bietet auch bei Gaming-Karten standardmäßig an, statt den Gaming- den Studio-Treiber runter zu laden.
Die Quadro (TU104-Board) hat - von 165 Watt max Stromverbrauch abgesehen - eigentlich keinen Vorteil mehr.
NVIDIA CUDA® Cores 2304
NVIDIA Tensor Cores 288
NVIDIA RT Cores 36
3080:
Cuda Cores: 8704
Tensor Cores: 272 (doppelte Geschwindigkeit)
RT Cores: 68
Antwort von Jost:
dosaris hat geschrieben:
Quicksync ist iA (prinzipiell aber nicht zwingend) an die GPU gebunden.
Und die gibt's separat oder in div CPU-Chips integriert.
Für AMD mW aber überhaupt nicht verfügbar (außer evtl bei neuesten Baureihen??)
Hier irrst Du. Quicksync ist im Grunde eine Schnittstelle. Sie verbindet das Programm mit der Grafik-Einheit in einer Intel-CPU. Ohne Intel-Grafikeinheit - kein Quicksync.
AMD und Nvidia haben keine Intel-Grafikeinheit und darum auch kein Quicksync. Selbst wenn das Programm Quicksync kann, bei AMD und Nvidia fehlt der Adressat.
Quicksync gibt es zurzeit auch nur in Intel-CPUs. Separate Grafikkarten baut Intel bekanntlich nicht - will das aber ändern.
Antwort von pillepalle:
@ Jost
Danke für die Info. Also softwareseitig sind praktisch z.B. Adobe Programme, oder Handbrake, davon betroffen bei H.264, MPEG-2 und VC-1 Formaten. Wobei mir H.264 schon öfter mal zwischen die Finger kam. Aber ich denke mit der Einschränkung kann man gut leben.
VG
Antwort von cantsin:
pillepalle hat geschrieben:
Also softwareseitig sind praktisch z.B. Adobe Programme, oder Handbrake, davon betroffen bei H.264, MPEG-2 und VC-1 Formaten.
Handbrake nicht, da es (bzw. ffmpeg) ausschließlich über Standard-CPU encodiert.
Antwort von motiongroup:
Nö
Antwort von prime:
cantsin hat geschrieben:
Handbrake nicht, da es (bzw. ffmpeg) ausschließlich über Standard-CPU encodiert.
ffmpeg unterstützt Quicksync und ist z.B. bei der H264 Codierung dann nochmal um einiges schneller (aber nicht umbedingt besser) als x264.
Antwort von MrMeeseeks:
"Frank Glencairn" hat geschrieben:
"Onkel Danny" hat geschrieben:
Das Netzteil ist überdimensioniert, ein 650w reicht hier völlig.
Der Satz hat bei ner Menge Leute schon graue Haare verursacht.
Dann erklär doch einfach mal warum dein vorgestelltes System, welches etwa 350watt bei voller Auslastung zieht, ein 850watt Netzteil braucht? Achja ganz vergessen die 75 Festplatten im System.
Antwort von cantsin:
prime hat geschrieben:
cantsin hat geschrieben:
Handbrake nicht, da es (bzw. ffmpeg) ausschließlich über Standard-CPU encodiert.
ffmpeg unterstützt Quicksync und ist z.B. bei der H264 Codierung dann nochmal um einiges schneller (aber nicht umbedingt besser) als x264.
Ja, aber das ist dann die gleiche Geschichte wie mit Nvidias hardwarebeschleunigten h264-/h265-Codecs. D.h. nur diese hardwareinternen, aber qualitativ eher mäßigen Codecs werden beschleunigt, die Standardcodecs aber nicht. Und AFAIK stellt Handbrake hier nur die Nvidia-Beschleunigung zur Verfügung.
Ich glaube, dass das für Außenstehende ziemlich verwirrend ist/klingt. Womit Intel sein Marketingziel erreicht hat - dass viele Leute denken, dass Quicksync eine Beschleunigungswunderwaffe für Videoanwendungen ist..
Antwort von rush:
MrMeeseeks hat geschrieben:
Dann erklär doch einfach mal warum dein vorgestelltes System, welches etwa 350watt bei voller Auslastung zieht, ein 850watt Netzteil braucht? Achja ganz vergessen die 75 Festplatten im System.
Ich klinke mich mal bezüglich des oben genannten Systems ein - dieses kann unter Last deutlich höhere Spitzen als 350W aus der Leitung ziehen - allein die CPU verbrennt im Volllastbereich teils bis zu 150W auch wenn die TDP geringer angegeben ist - die Graka ist auch bis 215W spezifiziert was nach simpler Addition bereits theoretische 365W ausmacht - nur für diese beiden Komponenten, also ohne Mainboard, RAM, SSD/HDDs und zusätzliche kleine Verbraucher wie Lüfter und Co. Klar - das sind eher die Maximalwerte - aber man darf auch nicht vergessen das die Effizienz entsprechender Netzteile auch nicht immer das Gelbe vom Ei ist selbst wenn die Hersteller das so darstellen. Mit min 650W macht man da sicher nichts falsch - aber wirklich drunter würde ich heute auch nicht gehen... allein schon um perspektivisch auch noch Luft zu haben für mögliche Dual-GraKa Betrieb oder sonstige leistungsstarke PCIExpress Erweiterungskarten.
Antwort von motiongroup:
cantsin hat geschrieben:
prime hat geschrieben:
ffmpeg unterstützt Quicksync und ist z.B. bei der H264 Codierung dann nochmal um einiges schneller (aber nicht umbedingt besser) als x264.
Ja, aber das ist dann die gleiche Geschichte wie mit Nvidias hardwarebeschleunigten h264-/h265-Codecs. D.h. nur diese hardwareinternen, aber qualitativ eher mäßigen Codecs werden beschleunigt, die Standardcodecs aber nicht. Und AFAIK stellt Handbrake hier nur die Nvidia-Beschleunigung zur Verfügung.
nö
https://handbrake.fr/docs/de/1.3.0/tech ... ments.html
Antwort von prime:
cantsin hat geschrieben:
Ja, aber das ist dann die gleiche Geschichte wie mit Nvidias hardwarebeschleunigten h264-/h265-Codecs. D.h. nur diese hardwareinternen, aber qualitativ eher mäßigen Codecs werden beschleunigt, die Standardcodecs aber nicht. Und AFAIK stellt Handbrake hier nur die Nvidia-Beschleunigung zur Verfügung.
Natürlich wird nicht jeder Codec und auch nicht jede Variante/Profil durch Hardware beschleunigt. Die Qualität ist schon lange nicht mehr so schlecht und sehr brauchbar.
cantsin hat geschrieben:
Womit Intel sein Marketingziel erreicht hat - dass viele Leute denken, dass Quicksync eine Beschleunigungswunderwaffe für Videoanwendungen ist..
Finde ich nicht, es gibt viele Nischen für Quicksync/NVENC. Wenn man viele H264 Dateien klein-rechnen (skalieren) muß, dann ist Quicksync absurd schnell. Aber auch für viele Echtzeitanwendungen (Livestream aus OBS z.B.) ist Quicksync quasi umsonst was auch die CPU Belastung angeht. Ist es mein default-go-to-encoder? Nein aber hab schon viele Sachen damit gemacht und definitv eine gute zusätzliche Waffe im Arsenal ;-)
Vielleicht finde ich mal meine ganzen Vergleiche oder ffmpeg Befehle dann poste ich mal einen Vergleich.
Antwort von Jost:
pillepalle hat geschrieben:
Wobei mir H.264 schon öfter mal zwischen die Finger kam. Aber ich denke mit der Einschränkung kann man gut leben.
Das ist nur eine Einschränkung, wenn Du mit Premiere arbeitest und keine Intel-CPU hast. Arbeitest Du stattdessen mit Davinci, ist es kein Nachteil. Das Decoding von H.264 wird dann entweder von der AMD- oder Nvidia-Grafikkarte übernommen.
Davinci und Premiere unterschieden sich durch die Möglichkeiten der Hardware-Decodierung. Premiere kann im Prinzip nur Intel. Davinci kann Intel, AMD und Nvidia.
Ich bin mit dem ProRes-Raw-Workflow nicht so vertraut. Davinci bietet in den Projekt-Settings aber die Möglichkeit an, in DNxHR 12 Bit 4:4:4 zu wandeln. Es blieben alle ProRes-Raw-Informationen erhalten.
Ja, ist etwas umständlich. Aber sollte das halbwegs befriedigend klappen, die Zeit des Transcodierens (Optimized Media) hängt von der CPU ab, wärst Du nicht nur Intel, sondern auch Premiere los.
Die Datenrate von DNxHR 444 ist nicht so groß, dass man mehr als eine SSD benötigt:
https://avid.secure.force.com/pkb/artic ... popup=true
Antwort von prime:
Jost hat geschrieben:
Ich bin mit dem ProRes-Raw-Workflow nicht so vertraut. Davinci bietet in den Projekt-Settings aber die Möglichkeit an, in DNxHR 12 Bit 4:4:4 zu wandeln. Es blieben alle ProRes-Raw-Informationen erhalten.
1) Dazu müsste Resolve ProRes RAW lesen können, kann es aber nicht.
2) DNxHD/R ist nicht RAW, da könnte man ja gleich direkt in DNxHD/R oder ProRes aufzeichnen und sich das ganze Gefummel mit RAW sparen, aber das muß jeder selbst wissen ;)
Antwort von pillepalle:
@ Prime
Klar, ProRes RAW wandele ich momentan auch nur über Assimilate Scratch in ProRes444. Ist natürlich ein Umweg, aber wenn's einfacher gehen soll hindert mich ja niemand daran direkt in ProRes oder DNxHR aufzunehmen. Geht ja beides mit dem Ninja.
VG
Antwort von Jost:
prime hat geschrieben:
1) Dazu müsste Resolve ProRes RAW lesen können, kann es aber nicht.
Decodieren kann Davinci nicht, klar. Aber geht das Wandeln?
2) DNxHD/R ist nicht RAW, da könnte man ja gleich direkt in DNxHD/R oder ProRes aufzeichnen und sich das ganze Gefummel mit RAW sparen, aber das muß jeder selbst wissen ;)
ProRes Raw ist auch nur Apple-Marketing-Begriff. "Roh" ist ProRes Raw ganz gewiss nicht. Es wird mächtig komprimiert. Anderenfalls könnte man ProRes Raw mit Leichtigkeit per CPU decodieren. ProRes Raw ist halt hoch komprimiertes, sperriges Zeug.
zum Bild
https://www.apple.com/final-cut-pro/doc ... es_RAW.pdf
Antwort von pillepalle:
@ Jost
Das 'RAW' bezieht sich auch auf das undebayerte Bild. Unkomprimierte RAW Formate brauchen unnötig viel Speicherplatz und damit Recourcen. Gerade die komprimierten Formate (idealerweise verlustfrei komprimiert) sind diesbezüglich ein echter Fortschritt. Auch im Still Bereich haben die schon lange Einzug gehalten.
VG
Antwort von prime:
Jost hat geschrieben:
Decodieren kann Davinci nicht, klar. Aber geht das Wandeln?
Err? Um es zu wandeln, müsste Resolve es verstehen (decodieren). Das geht zur Zeit nicht.
Jost hat geschrieben:
ProRes Raw ist auch nur Apple-Marketing-Begriff. "Roh" ist ProRes Raw ganz gewiss nicht. Es wird mächtig komprimiert.
Es ist mehr RAW (Bayerdaten) als ein fertiges YUV/RGB Videobild. Na klar ist es (verlustbehaftet) komprimiert, weil unkomprimiert wäre höchst uninteressant.
Jost hat geschrieben:
Anderenfalls könnte man ProRes Raw mit Leichtigkeit per CPU decodieren. ProRes Raw ist halt hoch komprimiertes, sperriges Zeug.
Ob es letztlich per CPU, GPU oder FPGA Beschleunigungskarte decodiert wird spielt doch überhaupt keine Rolle.
Antwort von Frank Glencairn:
Jost hat geschrieben:
Decodieren kann Davinci nicht, klar. Aber geht das Wandeln?
Natürlich nicht, dazu müßte man es ja erst mal decodieren.
Antwort von Jost:
Die Frage lautete ja: Wie wichtig ist Quicksync?
Wenn ohnehin das ProRes Raw vorab in ProRes 444 gewandelt wird, ist das Quicksync-Programm Premiere nicht nötig. Davinci, das nicht auf Quicksync angewiesen ist, nimmt klaglos ProRes 444.
Scratch scheint über keine Hardware-Beschleunigung für das Wandeln zu verfügen. Offenbar geht das nur über CPU.
Sollte Scratch gut mit steigender Zahl der CPU-Kerne skalieren, wäre aus Kostengründen AMD grundsätzlich erste Wahl.
Ist das nicht der Fall (bei sechs oder acht Kernen ist Schluss), muss man mal schauen, ob die neuen AMD-5000er CPUs angeraten sind? Es heißt, die seien schneller als die Intel-CPUs. Günstiger sind sie ohnehin.
Nur damit es keine Missverständnisse gibt: Wir sprechen von Premiere Pro und nicht Premiere Elements - und über Davinci Studio?
Antwort von prime:
Jost hat geschrieben:
Die Frage lautete ja: Wie wichtig ist Quicksync?
Das hat Frank ja schon beantwort:
"Frank Glencairn" hat geschrieben:
Weder bei beim decodieren von Prores noch bei braw spielt Quicksync irgend eine Rolle.
Und das gilt für alle Programme (Resolve, Premiere, FCPX, Edius...). Die von Quicksync unterstützten Formate sind ja bereits verlinkt worden.
Antwort von Jost:
prime hat geschrieben:
Jost hat geschrieben:
Die Frage lautete ja: Wie wichtig ist Quicksync?
Das hat Frank ja schon beantwort:
"Frank Glencairn" hat geschrieben:
Weder bei beim decodieren von Prores noch bei braw spielt Quicksync irgend eine Rolle.
Und das gilt für alle Programme (Resolve, Premiere, FCPX, Edius...). Die von Quicksync unterstützten Formate sind ja bereits verlinkt worden.
Weiß ich, habe den Link ja selbst gepostet. ProRes Raw sorgt aber für viel größere Probleme als die Frage: Intel oder AMD?
Ob jetzt Atomos oder Zenmuse X7 - es liegt ja nirgends etwas dabei, um ProRes Raw bearbeiten zu können. Was unter Windows heißt: Man landet automatisch bei Abo-Programmen wie Premiere oder Scratch.
Das war mir so nicht klar. Was wahrscheinlich daran liegt, dass ich auf Davinci fixiert bin.
Antwort von pillepalle:
Nächste Woche werde ich mir den Rechner bestellen und hatte in der Zwischenzeit nochmal ein paar Konfigurationen verglichen. Da findet man durchaus manchmal günstige Angebote/Kombinationen. Was mir bisher noch gar nicht aufgefallen war, das sich der Stromverbrauch der CPUs im Verhältnis nur wenig voneinander unterscheidet, wogegen der Stromverbrauch der Grafikkarten extrem variiert. So ist erstaunlicherweise die Quadro RTX4000 (mit 160W) die effizienteste von den Karten die für mich in Frage kamen, wenn man mal die Leistung Pro Watt ausrechnet. Wogegen eine RTX 3080X mit 320W doppelt soviel Strom verbraucht bei nur knapp 60% mehr Leistung. Neige daher trotzdem eher zu einer Geforce 2070 Super die mit 215 Watt sowohl leistungs- als auf effizienzmäßig zwischen den beiden liegt.
Die Konfigurationen die ich miteinander verglichen habe unterschieden sich zwischen der teuersten und der günstigsten nur um ca. 200,-€ voneinander und die Leistung liegt knapp 3x bis zu 4,4x höher, als bei meinem Laptop. Ich könnte also mit allen gut Leben. Nach Leistung geordnet waren das:
Ryzen 7 3800X (8Core) mit Quadro RTX4000 (8GB VRAM)
i9 10900K (10Core)mit Geforce 2070 Super (8GB VRAM)
Ryzen 9 (12Core) mit Geforce 2070 Super (8GB VRAM)
Ryzen 9 (12Core) mit RTX3080X (10GB VRAM)
Ich werde wohl einen Ryzen 9 mit Geforce 2070 Super nehmen. Also das was auch Frank ursprünglich empfohlen hat. Das ist lustigerweise auch die günstigste Konfiguration der vier. Für Videoanwendungen ist die Grafikkarte zwar mindestens genau so wichtig wie die CPU, aber irgendwie sind mir die 320W der RTX3080X doch ein wenig viel... da brauche ich dann wirklich mindestens ein 850W Netzteil.
VG
Antwort von cantsin:
pillepalle hat geschrieben:
Für Videoanwendungen ist die Grafikkarte zwar mindestens genau so wichtig wie die CPU, aber irgendwie sind mir die 320W der RTX3080X doch ein wenig viel... da brauche ich dann wirklich mindestens ein 850W Netzteil.
Wobei Du allerdings berücksichtigen muss, dass die Karte diese 320W nicht im Normal-Dauerbetrieb zieht, sondern nur dann, wenn sie (z.B. durch Rendering) voll ausgelastet wird.
Ich würde ja auch bei der kleineren Grafikkarte gleich das größere Netzteil ordern, damit Du in Zukunft einmal die Grafikkarte schmerzfrei und ohne Komplett-Umbau Deines Rechners aufrüsten kannst.
Antwort von pillepalle:
Ja, das ist wohl war. Aber bei meinem Laptop bin ich gewohnt das die Kiste immer auf Hochtouren und im Turbo-Modus läuft. Kann sein dass es beim Desktop nicht mehr so ist, aber da ich in Resolve meist den Smart-Cache aktiviert habe, hat der Rechner auch fast immer was zu tun, denn sobald man eine Kleinigkeit ändert, rendert der den Clip wieder neu. Bin mal gespannt, aber bei der Zeit die ich mit dem Laptop verbasele, rechnet sich das bestimmt schnell.
VG
Antwort von rdcl:
pillepalle hat geschrieben:
Nächste Woche werde ich mir den Rechner bestellen und hatte in der Zwischenzeit nochmal ein paar Konfigurationen verglichen. Da findet man durchaus manchmal günstige Angebote/Kombinationen. Was mir bisher noch gar nicht aufgefallen war, das sich der Stromverbrauch der CPUs im Verhältnis nur wenig voneinander unterscheidet, wogegen der Stromverbrauch der Grafikkarten extrem variiert. So ist erstaunlicherweise die Quadro RTX4000 (mit 160W) die effizienteste von den Karten die für mich in Frage kamen, wenn man mal die Leistung Pro Watt ausrechnet. Wogegen eine RTX 3080X mit 320W doppelt soviel Strom verbraucht bei nur knapp 60% mehr Leistung. Neige daher trotzdem eher zu einer Geforce 2070 Super die mit 215 Watt sowohl leistungs- als auf effizienzmäßig zwischen den beiden liegt.
Die Konfigurationen die ich miteinander verglichen habe unterschieden sich zwischen der teuersten und der günstigsten nur um ca. 200,-€ voneinander und die Leistung liegt knapp 3x bis zu 4,4x höher, als bei meinem Laptop. Ich könnte also mit allen gut Leben. Nach Leistung geordnet waren das:
Ryzen 7 3800X (8Core) mit Quadro RTX4000 (8GB VRAM)
i9 10900K (10Core)mit Geforce 2070 Super (8GB VRAM)
Ryzen 9 (12Core) mit Geforce 2070 Super (8GB VRAM)
Ryzen 9 (12Core) mit RTX3080X (10GB VRAM)
Ich werde wohl einen Ryzen 9 mit Geforce 2070 Super nehmen. Also das was auch Frank ursprünglich empfohlen hat. Das ist lustigerweise auch die günstigste Konfiguration der vier. Für Videoanwendungen ist die Grafikkarte zwar mindestens genau so wichtig wie die CPU, aber irgendwie sind mir die 320W der RTX3080X doch ein wenig viel... da brauche ich dann wirklich mindestens ein 850W Netzteil.
VG
Jetzt noch eine RTX2070 zu kaufen halte ich für einen Fehler. Du bekommst so viel mehr Leistung mit der 3000er Serie für das gleiche oder sogar weniger Geld.
Der Stromverbrauch ist ja, wie hier im Thread auch schon angesprochen wurde, nicht immer voll auf Anschlag. Die Karte verbraucht ja nicht permanent den angegebenen Spitzenwert, sondern nur unter Volllast.
Und warum vergleichst du den Stromverbrauch einer 3080 mit dem einer 2070? Sogar die 3070 bringt die Leistung einer 2080ti, und das bei 220W. Die 2070 zieht da in allen Belangen den kürzeren.
 |
Antwort von srone:
btw ich habe den smart cache auf einer internen nvme, kann ich nur empfehlen, zb die crucial p1 1tb für ca 100.
lg
srone
Antwort von pillepalle:
@ rdcl
Ja, wobei nach den meisten Benchmarks hat die RTX 3080X gerade mal 32% mehr Leistung als die 2070 Super. Den Unterschied merkt man bestimmt, aber sie ist gemessen am Verbrauch eben nicht besonders effizient. Ich werd nochmal drüber schlafen :)
@ srone
Danke, guter Tip.
VG
Antwort von rdcl:
pillepalle hat geschrieben:
@ rdcl
Ja, wobei nach den meisten Benchmarks hat die RTX 3080X gerade mal 32% mehr Leistung als die 2070 Super. Den Unterschied merkt man bestimmt, aber sie ist gemessen am Verbrauch eben nicht besonders effizient. Ich werd nochmal drüber schlafen :)
@ srone
Danke, guter Tip.
VG
Also hier sind die Unterschiede schon deutlich, und da wurde mit einer 2070 SUPER verglichen, nicht die normale Version: https://www.pugetsystems.com/labs/artic ... ndup-1879/
Aber wie gesagt, am 01. September soll die 3070 kommen mit 220W für offiziell 499$. Das wäre wahrscheinlich genau die richtige Karte für dich.
EDIT: Hatte vorher 200W geschrieben, richtig sind aber 220W.
Antwort von pillepalle:
Ja, je nach Test sind die Unterschiede schon deutlicher (teilweise mehr als doppelte Leistung). Bei Resolve hat die 3080X einen Score von 137.8 und die 2070Super einen von 76. Also auch fast das doppelte für 200,-€ mehr. Vielleicht doch nicht so uninteressant wie gedacht :)
VG
Antwort von pillepalle:
Danke nochmal an alle für die Tips. Habe die neue Kiste seit ein paar Tagen im Einsatz und die pflügt sich durch's Material wie Butter, da wo der Schleppi sich vorher mit herum gequält hatte. Da macht das Arbeiten wieder richtig Spaß. Bin Franks Tip gefolgt. Nur beim Gehäuse habe ich mit etwas verschätzt... da hätte es auch eine Nummer kleiner getan. Da kann jetzt noch eine Hamsterfamilie zur Untermiete einziehen :) Bin auch positiv überrascht wie leise der Rechner selbst unter Last ist. Hört man wirklich kaum.
Um die Studio Version des Treibers zu intallieren, musste ich allerdings erst die Geforce Experience App installieren. Scheinbar aufgrund irgendwelcher DCH-Einstellungen (oder sowas ähnliches), konnte ich den Treiber nicht ohne die App installieren. Mit der letzten Resolve Version ist mir Resolve anfangs auch ein paar Mal abgestürzt. Hatte darauf hin die Vorgänger-Version installiert und damit läuft er jetzt stabil.
VG
Antwort von chico-ist:
Moin,
ich würde mich hier ganz gerne zuschalten da ich eine ähnliche Frage habe und ich es deswegen für besser halte, keinen neuen Thread dafür aufzumachen. Momentan stehe ich auch vor der Situation mir einen neuen Rechner zusammenzuschrauben, aktuell setze ich noch auf einen Xeon E3-1231 (Haswell-Refresh).
Da ich größtenteils mit "h264 8-bit" bzw. "h265 10-bit"-Footage arbeite und größtenteils auf Adobe setze, liegt da auch mein Fokus was den Support von Hardware-Beschleunigung betrifft. Bevor ich mich weiter mit dem Thema beschäftigt habe, war ich der Überzeugung, dass man keinerlei Vorteil durch eine integrierte Grafik-Einheit bei der CPU hat, wenn man stattdessen eine halbwegs brauchbare CUDA- bzw. OpenCL-fähige Grafikkarte nutzt.
Nachdem ich aber erfahren habe, dass QuickSync den Rendervorgang teilweise deutlich beschleunigt, bin ich von meinem Plan, auf AMD Ryzen umzusteigen wieder abgekommen. Ganz entschieden habe ich mich aber noch nicht, einfach weil ich bisher keine konkreten Benchmarks oder Zahlen finden konnte, wie stark sich QuickSync tatsächlich auswirkt. Bei den meisten Benchmarks zwischen AMD und Intel wird QuickSync gar nicht zugeschaltet, um wirklich nur die CPU-Leistungen vergleichen zu können, praxisnah ist für mich aber was anderes. Zumal QuickSync ja auch mit der dedizierten GPU zusammenarbeitet, es gibt also nicht entweder/oder.
Seit Mitte des Jahresunterstützt Premiere nun scheinbar auch den hardware-beschleunigten Export über h264/h265 bei nVidia/AMD, vorher nur nVidia. Was bedeutet das nun für meine Entscheidung, ist die CPU-eigene Grafikeinheit nun doch wieder obsolet, wenn man eine halbwegs potente Grafikkarte hat? Man findet dazu keinerlei Daten, weswegen ich hier gerne von jemanden hören würde, der selber bereits Erfahrungen damit gemacht hat.
https://www.hardwareluxx.de/index.php/n ... -zeit.html
Was meint ihr dazu? Komme ich in meinem Usecase mit einem Ryzen 3600/3700 oder einem Intel 10400/10600 weiter? Das einzige was ich vorerst nicht upgraden werde, ist meine Grafikkarte. Da verwende ich noch eine GTX 1060 Ti, bis die neuen RTX3xxxx günstiger werden.
Wichtig, um meine Frage genauer einzuordnen: Ich lege primär Wert auf die Performance beim Timeline-Playback, also Decode(?). Ob ich beim Export nun 10 oder 15 min. warten muss, ist mir nicht mal halb so wichtig!
Antwort von dienstag_01:
Ich lege primär Wert auf die Performance beim Timeline-Playback, also Decode(?).
Ja, Decoding.
Der verlinkte Artikel bezieht sich auf Encoding.
Soweit ich das überschaue, wird Decoding in Premiere nur von Quicksync unterstützt: https://helpx.adobe.com/de/premiere-pro ... ts.ug.html
Antwort von srone:
jetzt wo es mir vorkam als ob es mittwoch wäre, schön das du auch noch mitspielst dienstag...;-)
lg
srone
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Soweit ich das überschaue, wird Decoding in Premiere nur von Quicksync unterstützt..
Seit Okt. wird auch offenbar das Decoding beschleunigt:
https://www.pugetsystems.com/labs/artic ... 4HEVCmedia
Der Artikel zeigt allerdings keine genauen Benchmarks sondern nur, dass eine RTX3080 nun keinen Nachteil mehr ggü. QuickSync bei diesen Codecs hat. Wie groß die Unterschiede sind, wird allerdings nicht weiter behandelt.
Was ich mich frage, ist folgendes: Was wäre in meinem Fall nun die bessere Wahl? Ich stehe vor der Entscheidung, auf ein Intel-System mit 10400/10600 oder AMD Ryzen 3600/3700 umzusteigen. Die Frage ist nun, ob die GTX 1060 (Pascal) mit dem neuen Update bereits schneller decoded als Intels QuickSync und ich somit besser zu AMD (aufgrund höherer Rohleistung) greifen sollte, oder ich nach wie vor mit einer Intel-CPU besser bedient wäre (sofern ich in naher Zukunft nicht auch die Grafikkarte ersetze). Ergänzend besteht dann auch immer noch die Frage, ob QuickSync nicht weiterhin parallel zum neuen GPU-Decoding arbeiten würde, also unabhängig einen zusätzlichen Performance-Zuwachs bedeuten würde.
Gut, dass Update ist noch nicht sonderlich alt. Aber normalerweise gibt es in der Regel innerhalb kürzester Zeit entsprechende Benchmarks oder Vergleiche auf Youtube oder dergleichen. Zum Frühjahrs-Update, dass GPU-Encoding brachte, gibt es genug Videos.
Antwort von dienstag_01:
Beim Decoding dürfte sich das nichts nehmen. Warum du aber wieder von Benchmarks für Encoding schreibst, irritiert mich etwas.
Antwort von chico-ist:
Wo schreibe ich über Benchmarks für Encoding?..
Naja, Decoding ist ja nicht gleich Decoding, oder? Es gibt ja sicherlich trotzdem noch Performance-Unterschiede zwischen nVidia und Intel QuickSync beim Timeline-Decoding, abhängig davon wie viele (hardware-beschleunigte) Effekte man nutzt, wie viele Streams, welche Auflösung etc. Nur konkrete Zahlen/Benchmarks dazu suche ich vergebens.
Antwort von dienstag_01:
chico-ist hat geschrieben:
Wo schreibe ich über Benchmarks für Encoding?..
Naja, Decoding ist ja nicht gleich Decoding, oder? Es gibt ja sicherlich trotzdem noch Performance-Unterschiede zwischen nVidia und Intel QuickSync beim Timeline-Decoding, abhängig davon wie viele (hardware-beschleunigte) Effekte man nutzt, wie viele Streams, welche Auflösung etc. Nur konkrete Zahlen/Benchmarks dazu suche ich vergebens.
Ich denke, da liegt ein Missverständnis vor, das Decoding ist das reine Entpacken des hochkodierten Videostreams zum Playback. Mit Effekten hat das erstmal nichts zu tun. Die werden entweder über CUDA/OpenCL (GPU) oder von der CPU berechnet (bei Premiere).
Die Hardwaredecoder auf den GPUs sind ursprünglich entwickelt worden, um Computern/Laptops/Smartphones mit schwachen CPUs das Abspielen von h.264 Videostreams (zuerst noch in HD) zu ermöglichen. Ein reines Consumer Feature, daher hat sich auch nie ein NLE Entwickler dafür interessiert. Jetzt, wo Schnittanwendungen auf Smartphones landen, sieht die Welt anders aus.
Und effizient sind die kleinen Chips, vor allem im Verhältnis zur CPU. Nochmal, das hat mit Effekten und CUDA/OpenCL rein gar nichts zu tun.
Decoding Benchmarks?! Ich kenne keine. Würde vielleicht bei Multicam Edit Sinn machen.
Antwort von chico-ist:
Ich weiß schon, dass das zwei verschiedene Paar Schuhe sind. Vielleicht drücke ich mich hier und da etwas unklar aus. Aber die hardware-beschleunigten Effekte in Premiere (u.A. z.B. Lumetri) werden ja auch über die GPU beschleunigt, also sowohl bei Intel als auch bei nVidia und AMD. Demnach ist es für das Endresultat, also den Workflow beim Edit, schon relevant was für Performance-Unterschiede hier existieren. Beim reinen Decoden des Videostreams, als auch beim zusätzlichen Beschleunigen der Effekte bzw. Berechnung derer. Und dazu gibt es schon teilweise Benchmarks, bspw. zum Warp Stabilizer. Und auch beim Decoding lassen sich hier zahlenbasierte Vergleiche anstellen, bspw. wie viele dropped frames etc.
Antwort von dienstag_01:
chico-ist hat geschrieben:
Ich weiß schon, dass das zwei verschiedene Paar Schuhe sind. Vielleicht drücke ich mich hier und da etwas unklar aus. Aber die hardware-beschleunigten Effekte in Premiere (u.A. z.B. Lumetri) werden ja auch über die GPU beschleunigt, also sowohl bei Intel als auch bei nVidia und AMD. Demnach ist es für das Endresultat, also den Workflow beim Edit, schon relevant was für Performance-Unterschiede hier existieren. Beim reinen Decoden des Videostreams, als auch beim zusätzlichen Beschleunigen der Effekte bzw. Berechnung derer. Und dazu gibt es schon teilweise Benchmarks, bspw. zum Warp Stabilizer. Und auch beim Decoding lassen sich hier zahlenbasierte Vergleiche anstellen, bspw. wie viele dropped frames etc.
Zwei unterschiedliche Paar Schuhe heißt in dem Fall, dass es unterschiedliche Hardware ist. Das eine ist ein sehr effizienter De-/Encoder und das andere sind komplette Rechenkerne, auf denen Software zur Effektberechnung laufen kann (CUDA Cores).
(Lumetri und Stabilizer sind auch Effekte).
Antwort von Jost:
chico-ist hat geschrieben:
Ich weiß schon, dass das zwei verschiedene Paar Schuhe sind. Vielleicht drücke ich mich hier und da etwas unklar aus. Aber die hardware-beschleunigten Effekte in Premiere (u.A. z.B. Lumetri) werden ja auch über die GPU beschleunigt, also sowohl bei Intel als auch bei nVidia und AMD. Demnach ist es für das Endresultat, also den Workflow beim Edit, schon relevant was für Performance-Unterschiede hier existieren. Beim reinen Decoden des Videostreams, als auch beim zusätzlichen Beschleunigen der Effekte bzw. Berechnung derer. Und dazu gibt es schon teilweise Benchmarks, bspw. zum Warp Stabilizer. Und auch beim Decoding lassen sich hier zahlenbasierte Vergleiche anstellen, bspw. wie viele dropped frames etc.
Kannst Du selbst ausprobieren. Im Windows-Gerätemanager die AMD/Nvidia-GPU deaktivieren. Und dann schauen, ob das Programm überhaupt startet. Davinci startet nicht. Wandele den Clip dann in ein Format wie DNxHR. Für DNxHR gibt es kein Hardware-Decoding, weil es nicht nötig ist.
Dann einen Effekt auflegen und schauen, wie die Intel IGPU damit umgeht.
Es geht aus, wie dienstag-01 beschrieb: Von der Berechnung der Effekte her, ist es völlig unmöglich, eine moderne dezidierte Grafikkarte durch eine IGPU gleichwertig zu ersetzen.
Hier gibt es eine Übersicht:
https://www.notebookcheck.com/Mobile-Gr ... 735.0.html
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Zwei unterschiedliche Paar Schuhe heißt in dem Fall, dass es unterschiedliche Hardware ist. Das eine ist ein sehr effizienter De-/Encoder und das andere sind komplette Rechenkerne, auf denen Software zur Effektberechnung laufen kann (CUDA Cores).
(Lumetri und Stabilizer sind auch Effekte).
Genau das habe ich ja eigentlich auch so geschrieben oder? :)
Jost hat geschrieben:
Kannst Du selbst ausprobieren. Wandele den Clip in ein Format wie DNxHR. Das läuft ohne Hardware-Decoding.
Dann einen Effekt auflegen. Dann im Geräte-Manager einmal die Intel-Grafikkarte deaktivieren und dann zum Vergleich die Nvidia/AMD-Grafikkarte deaktivieren.
Mein Intel Xeon kommt ohne iGPU, deswegen kann ich hier selber kein Vergleich anstellen.
Jost hat geschrieben:
Es geht aus, wie dienstag-01 beschrieb: Von der Berechnung der Effekte her, ist es völlig unmöglich, eine dezidierte Grafikkarte durch eine IGPU zu ersetzen.
Hier gibt es eine Übersicht:
https://www.notebookcheck.com/Mobile-Gr ... 735.0.html
Und warum ist dann eine UHD630 teils schneller bei eben diesen Effekten als diverse dedizierte GPUs? Adobe hat hier in der Vergangenheit Intels iGPUs massiv bevorzugt was die Effizienz betrifft, auch wenn hardware-beschleunigte Effekte wie eben bspw. Lumetri auf dem Papier auf allen GPUs laufen. Man kann das gar nicht so verallgemeinern wie man zunächst vielleicht glauben mag. Synthetische Benchmarks wie in der von dir verlinkten Übersicht haben hier auch leider kaum Aussagekraft. Mal abgesehen davon, dass diese die Ratings nur anhand der Specs und dem 3DMark-Scoring vornimmt, ein Benchmark, der grundsätzlich die Leistung in Games beurteilt. Da wäre Cinebench geeigneter und selbst der lässt am Ende nur wenig Rückschlüsse auf die Leistung in NDEs zu.
Antwort von Jost:
chico-ist hat geschrieben:
Da wäre Cinebench geeigneter und selbst der lässt am Ende nur wenig Rückschlüsse auf die Leistung in NDEs zu.
Cinebench lässt überhaupt keine Rückschlüsse zu, weil es die CPU-Leistung misst. Ist aber völlig wurscht:
https://helpx.adobe.com/premiere-pro/sy ... /2019.html
Siehst Du dort irgendeine Empfehlung, Premiere ohne dezidierte GPU zu betreiben?
Antwort von dienstag_01:
Das einzige was ich vorerst nicht upgraden werde, ist meine Grafikkarte. Da verwende ich noch eine GTX 1060 Ti,
Es gibt doch eine dedizierte GPU.
Und mit der könnte man doch Hardware Decoding ausprobieren. Oder nicht?
Antwort von chico-ist:
Jost hat geschrieben:
chico-ist hat geschrieben:
Da wäre Cinebench geeigneter und selbst der lässt am Ende nur wenig Rückschlüsse auf die Leistung in NDEs zu.
Cinebench lässt überhaupt keine Rückschlüsse zu, weil es die CPU-Leistung misst. Ist aber völlig wurscht:
https://helpx.adobe.com/premiere-pro/sy ... /2019.html
Siehst Du dort irgendeine Empfehlung, Premiere ohne dezidierte GPU zu betreiben?
Da war ich wohl nicht konkret genug, tut mir Leid. Er misst keine GPU-Leistung, aber ist grundsätzlich vom Workload den Anforderungen eines NLEs ähnlicher als eben bspw. 3Dmark wollte ich sagen.
Wir driften auch zu sehr von meiner eigentlichen Fragestellung ab. Es geht mir um die Performance-Unterschiede zwischen folgenden Setups:
Intel CPU mit iGPU und eingeschaltetem QuickSync und aktivierter Hardware-Beschleunigung + nVidia Grafikkarte mit aktivierter Hardware-Beschleunigung
Intel CPU mit iGPU und ausgeschaltetem QuickSync + nVidia Grafikkarte mit aktivierter Hardware-Beschleunigung
AMD CPU ohne iGPU/QuickSync + nVidia Grafikkarte mit aktivierter Hardware-Beschleunigung
1. Bewirkt bei einer nVidia Grafikkarte mit aktivierter Hardware-Beschleunigung ein zusätzlich aktiviertes QuickSync einen Unterschied und wenn ja, wie groß?
2. Trifft 1. nicht zu, heißt das, dass ein AMD-Setup mit der gleichen nVidia-Grafikkarte auch gleich schnell bei GPU-beschleunigten Effekten ist? (unterschiedliche CPU-Leistung mal außen vor)
Mit anderen Worten: Ist Intel QuickSync, sofern man eine dedizierte GPU hat, nach dem Premiere Update nun tatsächlich obsolet und man kann seine CPU rein nach der Rohleistung wählen, da alle entsprechenden Codecs nun auch auf nVidia/AMD decodiert werden können? Oder muss man QuickSync hiernach noch irgendeine Beachtung schenken?
dienstag_01 hat geschrieben:
Das einzige was ich vorerst nicht upgraden werde, ist meine Grafikkarte. Da verwende ich noch eine GTX 1060 Ti,
Es gibt doch eine dedizierte GPU.
Und mit der könnte man doch Hardware Decoding ausprobieren. Oder nicht?
Ja, aber nicht im Vergleich zu Intels QuickSync. Angenommen die iGPU ist sowohl beim Decoding der Videostreams, als auch bei den paar wenigen, GPU-beschleunigten Effekten schneller oder gleichauf mit teuren dedizierten GPUs.. warum sollte ich dann 500€ in eine neue RTX stecken, wenn ich genauso gut auch nur die Hälfte in eine Intel CPU mit iGPU investieren könnte? Wohlgemerkt für die spezifischen Anwedungszwecke wie eben h264/h265-Dekodierung. Das eine dedizierte GPU im allgemeinen jeder iGPU in Sachen Rohleistung deutlich überlegen ist, steht ja außer Frage.
Antwort von dienstag_01:
Kurze Antwort:
Die Hardwarebeschleunigung für Decoding wird sich sehr wahrscheinlich nicht parallel auf beiden GPUs nutzen lassen, warum auch.
Eine 500 Euro Grafikkarte für Premiere benutzen zu wollen, wenn man sich nicht wirklich in den Bereich irgendwelcher KI-Unterstützung beamen will oder sonstwieviele K Raw bearbeiten will, ist sowieso bescheuert.
Also, am meisten Sinn macht es, Premiere mit der vorhandenen GPU zu testen. Mit Decoding.
Antwort von Jost:
chico-ist hat geschrieben:
Mit anderen Worten: Ist Intel QuickSync, sofern man eine dedizierte GPU hat, nach dem Premiere Update nun tatsächlich obsolet und man kann seine CPU rein nach der Rohleistung wählen, da alle entsprechenden Codecs nun auch auf nVidia/AMD decodiert werden können? Oder muss man QuickSync hiernach noch irgendeine Beachtung schenken?
https://helpx.adobe.com/de/premiere-pro ... erformance
Verbesserte Leistung
Version Oktober 2020 (Version 14.5)
Die neue Hardware-Dekodierung für die Nutzung von AMD- und NVIDIA-GPUs unter Windows sorgt für eine schnellere Wiedergabe und eine reaktionsschnellere Schnittfensterleistung für die in Premiere Pro und After Effects weit verbreiteten Formate H.264 und HEVC.
Angenommen die iGPU ist sowohl beim Decoding der Videostreams, als auch bei den paar wenigen, GPU-beschleunigten Effekten schneller oder gleichauf mit teuren dedizierten GPUs.. warum sollte ich dann 500€ in eine neue RTX stecken, wenn ich genauso gut auch nur die Hälfte in eine Intel CPU mit iGPU investieren könnte?
Du kannst die dezidierte Grafikkarte nicht wegsparen. In diesem Fall bewegst Du Dich außerhalb der Adobe-Mindestanforderungen. Selbst wenn Premiere starten sollte, die Intel IGPU hat kein eigenes VRAM. Du arbeitest also mit permanenten Speichermangel.
Poste doch bitte mal den Link zum Test, wonach Quicksync Effekte schneller beschleunigt als eine dezidierte Grafikkarte.
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Kurze Antwort:
Die Hardwarebeschleunigung für Decoding wird sich sehr wahrscheinlich nicht parallel auf beiden GPUs nutzen lassen, warum auch.
Kannst du näher begründen, warum? Beim Export und bei den Effekten arbeiten iGPU und GPU nämlich zusammen. Siehe Videos weiter unten.
dienstag_01 hat geschrieben:
Eine 500 Euro Grafikkarte für Premiere benutzen zu wollen, wenn man sich nicht wirklich in den Bereich irgendwelcher KI-Unterstützung beamen will oder sonstwieviele K Raw bearbeiten will, ist sowieso bescheuert.
Die Aussage kann ich auch wieder nicht nachvollziehen. Zumindest bei nVidia ist es eben nunmal so, dass man genügend VRAM auch nur bei den leistungsstärkeren Chips bekommt. Wer also min. 8GB VRAM will, muss auch bei nVidia min. ~400€ auf den Tisch legen. Zwar braucht man nicht die Rohleistung des Chips selbst, genügend VRAM ist allerdings durchaus sehr wichtig.
Jost hat geschrieben:
https://helpx.adobe.com/de/premiere-pro ... erformance
Verbesserte Leistung
Version Oktober 2020 (Version 14.5)
Die neue Hardware-Dekodierung für die Nutzung von AMD- und NVIDIA-GPUs unter Windows sorgt für eine schnellere Wiedergabe und eine reaktionsschnellere Schnittfensterleistung für die in Premiere Pro und After Effects weit verbreiteten Formate H.264 und HEVC.
Um das Update dreht es sich von Anfang an, ich weiß nicht, wofür du jetzt den Changelog postest, der keinerlei Mehrinformation bietet.
Jost hat geschrieben:
Du kannst die dezidierte Grafikkarte nicht wegsparen. In diesem Fall bewegst Du Dich außerhalb der Adobe-Mindestanforderungen. Selbst wenn Premiere starten sollte, die Intel IGPU hat kein eigenes VRAM. Du arbeitest also mit permanenten Speichermangel.
Darum geht es doch gar nicht. Ich habe doch schon mehrfach erwähnt, dass eine GTX1060 Ti (6GB VRAM) im System sitzt. Warum sollte ich die denn einfach grundlos rauschmeißen?
Jost hat geschrieben:
Poste doch bitte mal den Link zum Test, wonach Quicksync Effekte schneller beschleunigt als eine dezidierte Grafikkarte.
Hier siehst Du, dass der Warp-Stabilizer auf einem Intel-System - trotz identischer GTX2080 bei beiden Systemen (!) - dem AMD-System deutlich voraus ist (Stand Juli 2020). Das liegt zum einem daran, dass die Hardware-Beschleunigung (trotzdessen dass es ein Hardware-beschleunigter "Effekt" ist, im Grunde kaum genutzt wird, aber eben auch daran, dass Intel hier mit QuickSync immer noch schneller zu Werke geht als eine GTX2080.
https://youtu.be/sp9glW_YCvs?t=305
Bevor du jetzt sagst: "Nein, das liegt an Adobes Präferenz für Intel CPUs, QuickSync (iGPU) hat damit nichts zutun." Dem kann ich widersprechen, weil das Bild bei ausgeschaltetem QuickSync ganz anders aussieht.
Anderes Beispiel beim Export, aber das selbe Resultat: AMD ist - trotzdessen, dass als GPU eine RTX2080 zum Einsatz kommt, beim hardware-beschleunigten Export deutlich, deutlich langsamer als Intel - und das trotz der eigentlich höheren Rohleistung der AMD-CPU.
https://youtu.be/sp9glW_YCvs?t=280
Antwort von Jost:
Das ist ein Test, 8- vs 10- vs 12-Kerner. Hier geht es um die Annahme: Je mehr Kerne, desto schneller müsste es eigentlich gehen. Das ist nicht der Fall. Es wird freilich der falsche Rückschluss gezogen: Intel ist schneller als AMD.
Es wäre besser gewesen, einen AMD 8-Kerner ins Rennen zu schicken, um die Mutmaßung zu zerstreuen: Bei mehr als 10 Kernen tritt Premiere in diesem Test automatisch auf die Bremse. Unabhängig davon, ob Intel oder AMD verbaut ist.
Wer kann mit Gewissheit der Behauptung widersprechen: Der neue 8-kernige AMD Ryzen 7 5800X läuft in diesem Test einem 10900K davon. Und: Mit dem Oktober-Update zieht auch der AMD-12-Kerner weit vorbei.
Hier sieht es zum Beispiel danach aus:
https://www.pugetsystems.com/recommende ... mendations
Den Changeloge habe ich Dir geschickt, weil Adobe seinen Kunden eine Tempo-Erhöhung gegenüber Quicksync verspricht.
Antwort von chico-ist:
Jost hat geschrieben:
Das ist ein Test, 8- vs 10- vs 12-Kerner. Hier geht es um die Annahme: Je mehr Kerne, desto schneller müsste es eigentlich gehen. Das ist nicht der Fall. Es wird freilich der falsche Rückschluss gezogen: Intel ist schneller als AMD.
Es wäre besser gewesen, einen AMD 8-Kerner ins Rennen zu schicken, um die Mutmaßung zu zerstreuen: Bei mehr als 10 Kernen tritt Premiere in diesem Test automatisch auf die Bremse. Unabhängig davon, ob Intel oder AMD verbaut ist.
Bin gerade etwas in Eile und kann mich deshalb nicht weiter damit auseinandersetzen, aber willst du damit sagen dass Premiere bei mehr als 8 Kernen automatisch langsamer arbeitet, selbst wenn der Takt identisch ist? Fällt mir schwer zu glauben. Selbst wenn dem so wäre, dürfte der 10-Kern Intel ja nicht schneller als der 8-Kern sein, da der Base Clock Speed ja wesentlich höher beim 8-Kerner liegt.
Ich kann mir also kaum vorstellen, dass ein 8-Kern AMD statt dem verwendeten 12-Kern (wohlbemerkt gleiche Architektur, bitte nicht Zen 2 und Zen 3 vergleichen) hier den deutlichen Abstand zu Intel hätte aufholen können.
Jost hat geschrieben:
Wer kann mit Gewissheit der Behauptung widersprechen: Der neue 8-kernige AMD Ryzen 7 5800X läuft in diesem Test einem 10900K davon. Und: Mit dem Oktober-Update zieht auch der AMD-12-Kerner weit vorbei.
Hier sieht es zum Beispiel danach aus:
https://www.pugetsystems.com/recommende ... mendations
Der Overallscore sagt doch sehr wenig aus, da man nicht weiß welche Bereiche und Codecs hier zum Vergleich herangezogen worden sind. Das Zen 3 allgemein schneller als die aktuellen Intel-Modelle ist, weiß man ja. Aber ob das auch bei Warp-Stabilizer/Lumetri und generell Decoding von stark komprimierten Codecs wie h265/h264 so ist, wird hier gar nicht weiter behandelt. Da vertraue ich eher auf den nachvollziehbaren Test aus dem Video. Mal sehen, ob da nochmal ein erneuter Vergleich mit den neuen AMD-CPUs kommt. So oder so, gibts Zen 3 bisher nur im Bereich ab 400€, oder?
Jost hat geschrieben:
Den Changeloge habe ich Dir geschickt, weil Adobe seinen Kunden eine Tempo-Erhöhung gegenüber Quicksync verspricht.
Quicksync wird darin doch nicht einmal erwähnt. Es wird nur gesagt, dass Decodierung jetzt auch auf AMD/nVidia-GPUs beschleunigt wird. Ob AMD/nVidia schneller als Intel QuickSync wird gar nicht besprochen, so eine Aussage wäre aufgrund der tausenden verschiedenen Konfigurationsmöglichkeiten auch gar nicht pauschal tragbar.
Antwort von prime:
chico-ist hat geschrieben:
Hier siehst Du, dass der Warp-Stabilizer auf einem Intel-System - trotz identischer GTX2080 bei beiden Systemen (!) - dem AMD-System deutlich voraus ist (Stand Juli 2020). Das liegt zum einem daran, dass die Hardware-Beschleunigung (trotzdessen dass es ein Hardware-beschleunigter "Effekt" ist, im Grunde kaum genutzt wird, aber eben auch daran, dass Intel hier mit QuickSync immer noch schneller zu Werke geht als eine GTX2080.
(...)
Bevor du jetzt sagst: "Nein, das liegt an Adobes Präferenz für Intel CPUs, QuickSync (iGPU) hat damit nichts zutun." Dem kann ich widersprechen, weil das Bild bei ausgeschaltetem QuickSync ganz anders aussieht.
Anderes Beispiel beim Export, aber das selbe Resultat: AMD ist - trotzdessen, dass als GPU eine RTX2080 zum Einsatz kommt, beim hardware-beschleunigten Export deutlich, deutlich langsamer als Intel - und das trotz der eigentlich höheren Rohleistung der AMD-CPU.
(...)
Hier siehst Du, dass der Warp-Stabilizer auf einem Intel-System - trotz identischer GTX2080 bei beiden Systemen (!) - dem AMD-System deutlich voraus ist (Stand Juli 2020). Das liegt zum einem daran, dass die Hardware-Beschleunigung (trotzdessen dass es ein Hardware-beschleunigter "Effekt" ist, im Grunde kaum genutzt wird, aber eben auch daran, dass Intel hier mit QuickSync immer noch schneller zu Werke geht als eine GTX2080.
Kann es sein das es am Material liegt? Sämtliches Material was in den verlinkten Video verwendet wird, scheint H264 oder H265 (in MP4) zu sein. Also profitiert jeder Schritt (Filter/Export) von der 'schnelleren' Verfügbarkeit des dekodierten Videostreams (via GPU). Der entsprechende Hinweis wurde ja auch schon gegeben, mit einen nicht-beschleunigten Codec wie DNxHD (oder ProRes) würde die iGPU keinerlei Einfluss haben auf Decoding und entsprechend auf Warp-Stabilizer, Export etc.
 |
Antwort von chico-ist:
prime hat geschrieben:
Kann es sein das es am Material liegt? Sämtliches Material was in den verlinkten Video verwendet wird, scheint H264 oder H265 (in MP4) zu sein. Also profitiert jeder Schritt (Filter/Export) von der 'schnelleren' Verfügbarkeit des dekodierten Videostreams (via GPU). Der entsprechende Hinweis wurde ja auch schon gegeben, mit einen nicht-beschleunigten Codec wie DNxHD (oder ProRes) würde die iGPU keinerlei Einfluss haben auf Decoding und entsprechend auf Warp-Stabilizer, Export etc.
Genau nur darum geht es ja hier die ganze Zeit. Steht ja auch im Titel: Quicksync und damit hardware-beschleunigtes Decoding von h264/h265. Ich arbeite sehr viel mit h264/h265 10-bit (bspw. Mavic-Footage, A7SIII) und da bin ich sicher nicht allein. Klar kann man mit Proxies arbeiten oder vorher umcodieren, das ist aber nicht Thema der Diskussion. Wir drehen uns gefühlt im Kreis :_D
Antwort von dienstag_01:
Beim Export und bei den Effekten arbeiten iGPU und GPU nämlich zusammen.
Was genau arbeitet da zusammen?
="chico-ist"Wer also min. 8GB VRAM will,
Wer will das? Bringt das was? Bei h264/5?
Ist die Sinnfrage.
Antwort von Jost:
chico-ist hat geschrieben:
aber willst du damit sagen dass Premiere bei mehr als 8 Kernen automatisch langsamer arbeitet, selbst wenn der Takt identisch ist? Fällt mir schwer zu glauben. Selbst wenn dem so wäre, dürfte der 10-Kern Intel ja nicht schneller als der 8-Kern sein, da der Base Clock Speed ja wesentlich höher beim 8-Kerner liegt.
Nein, aber welchen Schluss würdest Du denn daraus ziehen, wenn der 8er AMD zwar erwartungsgemäß langsamer als der 8er- und 10er-Intel sein sollte, aber schneller ist als der 12er AMD?
Und: Ist der Intel 8-Kerner schneller als der Intel 14-Kerner?
Das ist ein unsauberer Test. Das ist das Problem. Es riecht schwer nach Premiere-Bug. Wobei man nicht weiß, ob das mittlerweile abgestellt ist. Der Test fand ja vor dem großen Oktober-Update statt.
Jost hat geschrieben:
Den Changeloge habe ich Dir geschickt, weil Adobe seinen Kunden eine Tempo-Erhöhung gegenüber Quicksync verspricht.
Quicksync wird darin doch nicht einmal erwähnt. Es wird nur gesagt, dass Decodierung jetzt auch auf AMD/nVidia-GPUs beschleunigt wird. Ob AMD/nVidia schneller als Intel QuickSync wird gar nicht besprochen, so eine Aussage wäre aufgrund der tausenden verschiedenen Konfigurationsmöglichkeiten auch gar nicht pauschal tragbar.
Verbesserte Leistung
Version Oktober 2020 (Version 14.5)
Die neue Hardware-Dekodierung für die Nutzung von AMD- und NVIDIA-GPUs unter Windows sorgt für eine schnellere Wiedergabe und eine reaktionsschnellere Schnittfensterleistung für die in Premiere Pro und After Effects weit verbreiteten Formate H.264 und HEVC.
Die alte Hardware-Decodierung war Quicksync. Anschließend folgt der Komparativ.
Antwort von prime:
chico-ist hat geschrieben:
Genau nur darum geht es ja hier die ganze Zeit. Steht ja auch im Titel: Quicksync und damit hardware-beschleunigtes Decoding von h264/h265. Ich arbeite sehr viel mit h264/h265 10-bit (bspw. Mavic-Footage, A7SIII) und da bin ich sicher nicht allein. Klar kann man mit Proxies arbeiten oder vorher umcodieren, das ist aber nicht Thema der Diskussion. Wir drehen uns gefühlt im Kreis :_D
Ich sage das nur, weil der Typ im Video von einen "Intel Bias" spricht, ständig die iGPU erwähnt und auch den Warp-Stabilizer in die Runde wirft, aber das eigentliche Problem bzw den Grund für den Geschwindigkeitsunterschied nicht genau nennt. Er schließt aus diesen Tests auch fälschlicherweise die Schlussfolgerung das Intel generell fürs Rendern / Export schneller ist.
Mit Proxies hat das gar nichts zu tun, gibt auch viel natives DNxHD / ProRes Material. Mit solchen Material würde er keinen Unterschied sehen.
Wichtig, um meine Frage genauer einzuordnen: Ich lege primär Wert auf die Performance beim Timeline-Playback, also Decode(?). Ob ich beim Export nun 10 oder 15 min. warten muss, ist mir nicht mal halb so wichtig!
Du hast eine Intel CPU ohne iGPU aber eine Nvidia GPU, mit dem neusten Update sollte das dann ähnlich gut sein wie Quicksync Decoding.
https://www.pugetsystems.com/labs/artic ... ster-1908/
Antwort von Jost:
prime hat geschrieben:
Er schließt aus diesen Tests auch fälschlicherweise die Schlussfolgerung das Intel generell fürs Rendern / Export schneller ist.
Der Test korrespondiert auch nicht mit den Pudget-Tests. Dort wird auch das Verhalten von Heavy-Duty-CPU-Effekten untersucht. Danach skaliert Premiere sauber hoch. Zumindest in der Version 14.0.
https://www.pugetsystems.com/pic_disp.php?id=58322
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Was genau arbeitet da zusammen?
iGPU und ded. GPU werden beide zusammen belastet, dass die iGPU also bei aktiver ded. GPU schläft stimmt nicht.
dienstag_01 hat geschrieben:
Wer will das? Bringt das was? Bei h264/5?
Ist die Sinnfrage.
Bei 4K oder 8K h265 4:2:2, sicher.
Jost hat geschrieben:
Nein, aber welchen Schluss würdest Du denn daraus ziehen, wenn der 8er AMD zwar erwartungsgemäß langsamer als der 8er- und 10er-Intel sein sollte, aber schneller ist als der 12er AMD?
Und: Ist der Intel 8-Kerner schneller als der Intel 14-Kerner?
Das ist ein unsauberer Test. Das ist das Problem. Es riecht schwer nach Premiere-Bug. Wobei man nicht weiß, ob das mittlerweile abgestellt ist. Der Test fand ja vor dem großen Oktober-Update statt.
Unsauber oder nicht, die praxisrelevanten Unterschiede existieren ja trotzdem, woher das nun rührt mal außen vor. Premiere Bug? Wer weiß. Aber wenn es einer ist, existiert dieser bereits seit Jahren und wenn sich Adobe bisher nicht die Mühe gemacht hat, diesen zu beheben, halte ich es für wahrscheinlicher, dass sie es auch mit dem letzten Update nicht tun.
Jost hat geschrieben:
Verbesserte Leistung
Version Oktober 2020 (Version 14.5)
Die neue Hardware-Dekodierung für die Nutzung von AMD- und NVIDIA-GPUs unter Windows sorgt für eine schnellere Wiedergabe und eine reaktionsschnellere Schnittfensterleistung für die in Premiere Pro und After Effects weit verbreiteten Formate H.264 und HEVC.
Die alte Hardware-Decodierung war Quicksync. Anschließend folgt der Komparativ.
Nein, Du implizierst dass die alte Hardware-Dekodierung hier stellvertretend für QuickSync-Integration steht und diese ablöst, was ja eindeutig nicht der Fall ist. Mit der "neuen Hardware-Beschleunigung" ist das hardware-beschleunigte Decoding auf AMD/NVidia-GPUs gemeint, das vorher schlichtweg einfach nicht existent gewesen ist.
prime hat geschrieben:
Ich sage das nur, weil der Typ im Video von einen "Intel Bias" spricht, ständig die iGPU erwähnt und auch den Warp-Stabilizer in die Runde wirft, aber das eigentliche Problem bzw den Grund für den Geschwindigkeitsunterschied nicht genau nennt. Er schließt aus diesen Tests auch fälschlicherweise die Schlussfolgerung das Intel generell fürs Rendern / Export schneller ist.
Mit Proxies hat das gar nichts zu tun, gibt auch viel natives DNxHD / ProRes Material. Mit solchen Material würde er keinen Unterschied sehen.
Nochmal - ob Intel nun generell schneller beim Rendering/Export ist oder nicht, das ist nicht das Thema! Es geht rein um h264/h265 Footage und in Kombination genutzte GPU-beschleunigte Effekte. Und ich sprach von Proxies (womit ich Probleme mit der hardware-beschleunigten Dekoderiung von h264/h265 natürlich umgehen könnte) weil ich verdeutlichen wollte, dass es mir nicht um Material wie ProRes oder Cineform geht sondern eben um direktes Decoding komprimierter Standards wie h264/h265.
Jost hat geschrieben:
Der Test korrespondiert auch nicht mit den Pudget-Tests. Dort wird auch das Verhalten von Heavy-Duty-CPU-Effekten untersucht. Danach skaliert Premiere sauber hoch. Zumindest in der Version 14.0.
https://www.pugetsystems.com/pic_disp.php?id=58322
Wie du schon schreibst, bei Heavy-Duty-CPU-Effekten. Hier gehts um die iGPU der CPU, nicht um die CPU selbst. Schauen wir uns mal ganz oben den 4K h264 Benchmark an, insbesondere den Live-Playback Score. Zum Vergleich ziehen wir mal den AMD 3800X (ca. 300€) gegen den Intel 9700K (ca. 260€) heran. Beide in Kombination mit einer ded. GTX2080.
Live-Playback:
Intel > 79.8 - 27% schneller
AMD > 62.8
Multicam Live-Playback:
Intel > 11.55 389% schneller
AMD > 2.36
Lumetri Color Export h264:
Intel > 78.26 62% schneller
AMD > 48.23
Ähnliches Bild beim 8K h265 Benchmark. Also spinne ich oder ist Intel hier mittels iGPU bei h264/h265 (Thema dieses Threads!) und gleicher ded. GPU nach wie vor deutlich schneller als AMD, oder etwa nicht? Übersehe ich etwa was? Der 4K Heavy GPU Benchmark ist leider nicht relevant weil Puget hierzu mWn die iGPU abschaltet, was ich überhaupt nicht nachvollziehen kann.
Antwort von dienstag_01:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
Was genau arbeitet da zusammen?
iGPU und ded. GPU werden beide zusammen belastet, dass die iGPU also bei aktiver ded. GPU schläft stimmt nicht.
dienstag_01 hat geschrieben:
Wer will das? Bringt das was? Bei h264/5?
Ist die Sinnfrage.
Bei 4K oder 8K h265 4:2:2, sicher.
Jost hat geschrieben:
Nein, aber welchen Schluss würdest Du denn daraus ziehen, wenn der 8er AMD zwar erwartungsgemäß langsamer als der 8er- und 10er-Intel sein sollte, aber schneller ist als der 12er AMD?
Und: Ist der Intel 8-Kerner schneller als der Intel 14-Kerner?
Das ist ein unsauberer Test. Das ist das Problem. Es riecht schwer nach Premiere-Bug. Wobei man nicht weiß, ob das mittlerweile abgestellt ist. Der Test fand ja vor dem großen Oktober-Update statt.
Unsauber oder nicht, die praxisrelevanten Unterschiede existieren ja trotzdem, woher das nun rührt mal außen vor. Premiere Bug? Wer weiß. Aber wenn es einer ist, existiert dieser bereits seit Jahren und wenn sich Adobe bisher nicht die Mühe gemacht hat, diesen zu beheben, halte ich es für wahrscheinlicher, dass sie es auch mit dem letzten Update nicht tun.
Jost hat geschrieben:
Verbesserte Leistung
Version Oktober 2020 (Version 14.5)
Die neue Hardware-Dekodierung für die Nutzung von AMD- und NVIDIA-GPUs unter Windows sorgt für eine schnellere Wiedergabe und eine reaktionsschnellere Schnittfensterleistung für die in Premiere Pro und After Effects weit verbreiteten Formate H.264 und HEVC.
Die alte Hardware-Decodierung war Quicksync. Anschließend folgt der Komparativ.
Nein, Du implizierst dass die alte Hardware-Dekodierung hier stellvertretend für QuickSync-Integration steht und diese ablöst, was ja eindeutig nicht der Fall ist. Mit der "neuen Hardware-Beschleunigung" ist das hardware-beschleunigte Decoding auf AMD/NVidia-GPUs gemeint, das vorher schlichtweg einfach nicht existent gewesen ist.
prime hat geschrieben:
Ich sage das nur, weil der Typ im Video von einen "Intel Bias" spricht, ständig die iGPU erwähnt und auch den Warp-Stabilizer in die Runde wirft, aber das eigentliche Problem bzw den Grund für den Geschwindigkeitsunterschied nicht genau nennt. Er schließt aus diesen Tests auch fälschlicherweise die Schlussfolgerung das Intel generell fürs Rendern / Export schneller ist.
Mit Proxies hat das gar nichts zu tun, gibt auch viel natives DNxHD / ProRes Material. Mit solchen Material würde er keinen Unterschied sehen.
Nochmal - ob Intel nun generell schneller beim Rendering/Export ist oder nicht, das ist nicht das Thema! Es geht rein um h264/h265 Footage und in Kombination genutzte GPU-beschleunigte Effekte. Und ich sprach von Proxies (womit ich Probleme mit der hardware-beschleunigten Dekoderiung von h264/h265 natürlich umgehen könnte) weil ich verdeutlichen wollte, dass es mir nicht um Material wie ProRes oder Cineform geht sondern eben um direktes Decoding komprimierter Standards wie h264/h265.
Jost hat geschrieben:
Der Test korrespondiert auch nicht mit den Pudget-Tests. Dort wird auch das Verhalten von Heavy-Duty-CPU-Effekten untersucht. Danach skaliert Premiere sauber hoch. Zumindest in der Version 14.0.
https://www.pugetsystems.com/pic_disp.php?id=58322
Wie du schon schreibst, bei Heavy-Duty-CPU-Effekten. Hier gehts um die iGPU der CPU, nicht um die CPU selbst. Schauen wir uns mal ganz oben den 4K h264 Benchmark an, insbesondere den Live-Playback Score. Zum Vergleich ziehen wir mal den AMD 3800X (ca. 300€) gegen den Intel 9700K (ca. 260€) heran. Beide in Kombination mit einer ded. GTX2080.
Live-Playback:
Intel > 79.8 - 27% schneller
AMD > 62.8
Multicam Live-Playback:
Intel > 11.55 389% schneller
AMD > 2.36
Lumetri Color Export h264:
Intel > 78.26 62% schneller
AMD > 48.23
Ähnliches Bild beim 8K h265 Benchmark. Also spinne ich oder ist Intel hier mittels iGPU bei h264/h265 (Thema dieses Threads!) und gleicher ded. GPU nach wie vor deutlich schneller als AMD, oder etwa nicht? Übersehe ich etwa was? Der 4K Heavy GPU Benchmark ist leider nicht relevant weil Puget hierzu mWn die iGPU abschaltet, was ich überhaupt nicht nachvollziehen kann.
Man müsste natürlich Systeme vergleichen, die alle die Hardwareunterstützung für das Decoding nutzen. Das ist hier nicht der Fall und damit sagt der Test nur, dass Hardwaredecoding Sinn macht. Aber das weißt du sicherlich.
 |
 |
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Man müsste natürlich Systeme vergleichen, die alle die Hardwareunterstützung für das Decoding nutzen. Das ist hier nicht der Fall und damit sagt der Test nur, dass Hardwaredecoding Sinn macht. Aber das weißt du sicherlich.
Das ist ja die Krux! AMD hat kein Quicksync (logischerweise) und auch keinen eigenen Kern für Video En-/Decoding bzw. ohnehin keine iGPU in seinen Desktop/Server-Modellen (oder? bin nicht sicher), von dem Premiere Gebrauch machen könnte - mal abgesehen davon, dass sie die Technik ja erstmal implementieren müssten, was sicher nicht von heute auf morgen geschieht.
Die alles entscheidende Frage ist, wie Pugets Benchmark unter Premiere 14.5 ausschaut: Kann AMD nun zu Intel bei h264/h265-Decoding/Encoding nachziehen, weil die ded. GPU nun Intels QuickSync-Vorteil irrelevant werden lässt? Wenn ja, sehr schön, dann kann man auch bei viel h264/h265-Footage in Zukunft auf AMD setzen, weil sie bei nativen Codecs schneller als Intel sind und bei h264/h265 kein Nachteil mehr besteht - Sofern eine ded. GPU vorhanden ist, versteht sich, aber das sollte ja eh Standard sein.
Aber ob das tatsächlich so ist, dazu nimmt bislang kein einziger Test/Benchmark Stellung.
Antwort von dienstag_01:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
Man müsste natürlich Systeme vergleichen, die alle die Hardwareunterstützung für das Decoding nutzen. Das ist hier nicht der Fall und damit sagt der Test nur, dass Hardwaredecoding Sinn macht. Aber das weißt du sicherlich.
Das ist ja die Krux! AMD hat kein Quicksync (logischerweise) und auch keinen eigenen Kern für Video En-/Decoding bzw. ohnehin keine iGPU in seinen Desktop/Server-Modellen, von dem Premiere Gebrauch machen könnte - mal abgesehen davon, dass sie die Technik ja erstmal implementieren müssten, was sicher nicht von heute auf morgen geschieht.
Die alles entscheidende Frage ist, wie Pugets Benchmark unter Premiere 14.5 ausschaut: Kann AMD nun zu Intel bei h264/h265-Decoding/Encoding nachziehen, weil die ded. GPU nun Intels QuickSync-Vorteil irrelevant werden lässt? Wenn ja, sehr schön, dann kann man auch bei viel h264/h265-Footage in Zukunft auf AMD setzen, weil sie bei nativen Codecs schneller als Intel sind und bei h264/h265 kein Nachteil mehr besteht - Sofern eine ded. GPU vorhanden ist, versteht sich, aber das sollte ja eh Standard sein.
Aber ob das tatsächlich so ist, dazu nimmt bislang kein einziger Test/Benchmark Stellung.
Da waren wir schon mal weiter:
https://www.pugetsystems.com/labs/artic ... #TestSetup
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Da waren wir schon mal weiter:
https://www.pugetsystems.com/labs/artic ... #TestSetup
Stimmt, mein Fehler, das hatte ich gerade außer Aucht gelassen.
Interestingly enough, which type of hardware decoding (GPU or Quick Sync) is better depending on whether we were using H.264 or HEVC media. GPU decoding is a bit better with HEVC media, and Quick Sync is better with H.264.
OK, damit kann ich arbeiten. Dazu habe ich einige Fragen:
1. Im Test kommen keine 4:2:2 oder 10-bit Codecs zum Einsatz, sondern nur 4:2:0 und 8-bit. Richtig?
2. In meinem spezifischen Fall, beschleunigt meine GTX1060 generell kein h265-Footage. D.h., dass ich, sollte ich auf kein neueres Modell umsteigen, bei h265 weiterhin einen Vorteil mit Intel-CPUs hätte. Richtig?
3. Da der ganze Test bloß mit der RTX3080 getestet wurde, wie präzise lassen sich daraus Rückschlüsse auf kleinere GPUs wie bspw. einer GTX1660 Super ziehen? Ist diese bspw. dann immer noch schneller als Intels iGPU oder wendet sich das Blatt hier wieder?
Ich würde einfach gerne eine ausführliche Zahlenübersicht haben, wie sie auch für Premiere Pro 14.0 existiert :)
Und eine allgemeine Frage:
Heißt H265 4:4:4 Support auch automatisch 4:2:2 Support? Könnte man denken, aber verlässliche Infos konnte ich dazu bisher nicht sammeln. Wird auch in nVidias Decode/Encode-Übersicht gar nicht explizit erwähnt, nur h265 4:2:0 und h265 4:4:4.
Antwort von dienstag_01:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
Da waren wir schon mal weiter:
https://www.pugetsystems.com/labs/artic ... #TestSetup
Stimmt, mein Fehler, das hatte ich gerade außer Aucht gelassen.
Interestingly enough, which type of hardware decoding (GPU or Quick Sync) is better depending on whether we were using H.264 or HEVC media. GPU decoding is a bit better with HEVC media, and Quick Sync is better with H.264.
OK, damit kann ich arbeiten. Dazu habe ich einige Fragen:
1. Im Test kommen keine 4:2:2 oder 10-bit Codecs zum Einsatz, sondern nur 4:2:0 und 8-bit. Richtig?
2. In meinem spezifischen Fall, beschleunigt meine GTX1060 generell kein h265-Footage. D.h., dass ich, sollte ich auf kein neueres Modell umsteigen, bei h265 weiterhin einen Vorteil mit Intel-CPUs hätte. Richtig?
3. Da der ganze Test bloß mit der RTX3080 getestet wurde, wie präzise lassen sich daraus Rückschlüsse auf kleinere GPUs wie bspw. einer GTX1660 Super ziehen? Ist diese bspw. dann immer noch schneller als Intels iGPU oder wendet sich das Blatt hier wieder?
Ich würde einfach gerne eine ausführliche Zahlenübersicht haben, wie sie auch für Premiere Pro 14.0 existiert :)
Und eine allgemeine Frage:
Heißt H265 4:4:4 Support auch automatisch 4:2:2 Support? Könnte man denken, aber verlässliche Infos konnte ich dazu bisher nicht sammeln. Wird auch in nVidias Decode/Encode-Übersicht gar nicht explizit erwähnt, nur h265 4:2:0 und h265 4:4:4.
Ich kann jetzt auch nicht alle Formate auswendig, aber wieso sollte deine Grafikkarte kein h265 unterstützen?
Edit: ich behaupte mal, dass es für die Performance das Decoding keine Rolle spielt, welche Grafikkarte man verwendet.
 |
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Ich kann jetzt auch nicht alle Formate auswendig, aber wieso sollte deine Grafikkarte kein h265 unterstützen?
https://developer.nvidia.com/video-enco ... matrix-new
h265 Decoding wird auf der GTX1060 nicht unterstützt.
dienstag_01 hat geschrieben:
Edit: ich behaupte mal, dass es für die Performance das Decoding keine Rolle spielt, welche Grafikkarte man verwendet.
Das ist die Frage.. würde ich auch vermuten, weil die verwendeten Decoder wahrscheinlich auf allen Karten der selber Architektur die gleichen sind. Ich hätte nur gerne Gewissheit ;)
Antwort von dienstag_01:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
Ich kann jetzt auch nicht alle Formate auswendig, aber wieso sollte deine Grafikkarte kein h265 unterstützen?
https://developer.nvidia.com/video-enco ... matrix-new
h265 Decoding wird auf der GTX1060 nicht unterstützt.
dienstag_01 hat geschrieben:
Edit: ich behaupte mal, dass es für die Performance das Decoding keine Rolle spielt, welche Grafikkarte man verwendet.
Das ist die Frage.. würde ich auch vermuten, weil die verwendeten Decoder wahrscheinlich auf allen Karten der selber Architektur die gleichen sind. Ich hätte nur gerne Gewissheit ;)
Wegen des Decodings: einfach in der Matrix mal etwas nach rechts scrollen ;)
Und wegen der Gewissheit: warten bis zum nächsten Benchmark ;)
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Wegen des Decodings: einfach in der Matrix mal etwas nach rechts scrollen ;)
Hätte präziser sein sollen, meinte h265 4:4:4 Decoding, nicht 4:2:0.
Antwort von dienstag_01:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
Wegen des Decodings: einfach in der Matrix mal etwas nach rechts scrollen ;)
Hätte präziser sein sollen, meinte h265 4:4:4 Decoding, nicht 4:2:0.
Hat das denn irgendeine praktische Bewandtnis?
Antwort von chico-ist:
dienstag_01 hat geschrieben:
chico-ist hat geschrieben:
Hätte präziser sein sollen, meinte h265 4:4:4 Decoding, nicht 4:2:0.
Hat das denn irgendeine praktische Bewandtnis?
Falls damit auch automatisch 4:2:2 beschleunigt wird - definitiv! Canon R5/R6, Sony A7SIII, FX6 und weitere. Der einzige Chip der solches Footage beschleunigt ist Apples neuer M1 - soweit ich weiß jedenfalls. Der spult solches Material flüssig ab und rendert schneller als Workstations die ein vielfaches kosten - Hardware-Support sei Dank.
https://youtu.be/DJGEDUHHdZ8?t=598
Antwort von dienstag_01:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
Hat das denn irgendeine praktische Bewandtnis?
Falls damit auch automatisch 4:2:2 beschleunigt wird - definitiv! Canon R5/R6, Sony A7SIII, FX6 und weitere. Der einzige Chip der solches Footage beschleunigt ist Apples neuer M1 - soweit ich weiß jedenfalls. Der spult solches Material flüssig ab und rendert schneller als Workstations die ein vielfaches kosten - Hardware-Support sei Dank.
https://www.youtube.com/watch?v=DJGEDUHHdZ8
4:2:2 ist nicht dabei.
Antwort von chico-ist:
dienstag_01 hat geschrieben:
4:2:2 ist nicht dabei.
Konnte ich auch gerade finden: https://developer.nvidia.com/nvidia-video-codec-sdk
** 4:2:2 is not natively supported on HW
Damit ist Apples M1 tatsächlich der einzige Chip der das kann. Eigentlich ein ziemliches Armutszeugnis für Intel, AMD und nVidia.
Edit: In dem Diagramm bei nVidia wird unter Decode aber nur "4:2:0", bei Encode 4:2:0 und 4:4:4 gelistet. In der Matrix..
https://developer.nvidia.com/video-enco ... matrix-new
..wird unter Decode aber auch von 4:4:4 gesprochen. Ist für mich ein Indiz das eins von beiden nicht stimmen kann.
Antwort von dienstag_01:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
4:2:2 ist nicht dabei.
Konnte ich auch gerade finden: https://developer.nvidia.com/nvidia-video-codec-sdk
** 4:2:2 is not natively supported on HW
Damit ist Apples M1 tatsächlich der einzige Chip der das kann. Eigentlich ein ziemliches Armutszeugnis für Intel, AMD und nVidia.
Na ja, eigentlich braucht das kein Mensch, nur Canon hat sich da wahrscheinlich gedacht: ups, denken bestimmt einige, dass da ganz tolle Qualität drin steckt ;)
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Na ja, eigentlich braucht das kein Mensch, nur Canon hat sich da wahrscheinlich gedacht: ups, denken bestimmt einige, dass da ganz tolle Qualität drin steckt ;)
Wieso nur Canon? Alle aktuellen und angekündigten Kameras nehmen in h265 mit 4:2:2 Subsampling auf. Canon, Nikon, Sony, Panasonic..
Antwort von dienstag_01:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
Na ja, eigentlich braucht das kein Mensch, nur Canon hat sich da wahrscheinlich gedacht: ups, denken bestimmt einige, dass da ganz tolle Qualität drin steckt ;)
Wieso nur Canon? Alle aktuellen und angekündigten Kameras nehmen in h265 mit 4:2:2 Subsampling auf. Canon, Nikon, Sony, Panasonic..
Dann kann man ja sogar hoffen, dass auf Grafikseite darauf reagiert wird.
Antwort von chico-ist:
dienstag_01 hat geschrieben:
Dann kann man ja sogar hoffen, dass auf Grafikseite darauf reagiert wird.
Davon gehe ich aus - ist nur blöd, wenn man sich dann jetzt 'ne 500€ RTX3xxxx kauft, um dann in einem Jahr wieder aufrüsten zu müssen. Ein CPU-Upgrade, also wenn Intel z.B. entsprechenden 4:2:2 Support mit der nächsten Gen. liefert, kommt einen da wesentlich günstiger - es sei denn, man hat auf AMD gesetzt. Ist also wieder eine Unsicherheit, die gegen AMD spricht, da man hier in Zukunft kein QuickSync-Pendant mehr erwarten kann. Vielleicht kaufe ich doch erstmal günstig bei Intel und schau, was nächstes Jahr kommt.
Antwort von dienstag_01:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
Dann kann man ja sogar hoffen, dass auf Grafikseite darauf reagiert wird.
Davon gehe ich aus - ist nur blöd, wenn man sich dann jetzt 'ne 500€ RTX3xxxx kauft, um dann in einem Jahr wieder aufrüsten zu müssen. Ein CPU-Upgrade, also wenn Intel z.B. entsprechenden 4:2:2 Support mit der nächsten Gen. liefert, kommt einen da wesentlich günstiger - es sei denn, man hat auf AMD gesetzt. Ist also wieder eine Unsicherheit, die gegen AMD spricht, da man hier in Zukunft kein QuickSync-Pendant mehr erwarten kann. Vielleicht kaufe ich doch erstmal günstig bei Intel und schau, was nächstes Jahr kommt.
Das klingt alles rätselhaft für mich, du hast doch eine 1060. Die würde ich doch erstmal ausprobieren.
Antwort von mash_gh4:
chico-ist hat geschrieben:
dienstag_01 hat geschrieben:
Na ja, eigentlich braucht das kein Mensch, nur Canon hat sich da wahrscheinlich gedacht: ups, denken bestimmt einige, dass da ganz tolle Qualität drin steckt ;)
Wieso nur Canon? Alle aktuellen und angekündigten Kameras nehmen in h265 mit 4:2:2 Subsampling auf. Canon, Nikon, Sony, Panasonic..
all diese kameras können aber ganz bestimmt auch 4:2:0, das technisch gesehen weit mehr sinn macht. 4:2:2 war eigentlich nur im zusammenhang mit interlaced video wirklich sinnvoll oder notwendig, aer auch dieses verschwindet ja in den neueren video standards zusehends.
es gibt jedenfalls kaum hardwarebeschleuniger, die auch 4:2:2 akzeptieren. das wird sich auch bestimmt nicht mehr ändern bzw. nur weiter zuspitzen.
Antwort von chico-ist:
mash_gh4 hat geschrieben:
all diese kameras können aber ganz bestimmt auch 4:2:0, das einfach technisch gesehen weit mehr sinn macht.
Mhh, in Zusammenhang mit 10-bit soweit ich weiß nur die A7SIII. Wenn man 10-bit will, muss man in aller Regel auch 4:2:2 nutzen.
mash_gh4 hat geschrieben:
4:2:2 war eigentlich nur im zusammenhang mit interlaced video wirklich sinnvoll oder notwendig, das ja in den neueren video standards auch zusehends verschwindet.
es gibt jedenfalls kaum hardwarebeschleuniger, die auch 4:2:2 akzeptieren -- das wird sich auch bestimmr nicht mehr ändern bzw. nur weiter aussterben.
Aber warum wird dann überall in Verbindung mit 10bit auf 4:2:2 umgesattelt? Einfacher für den Bildprozessor ist es ja sicherlich nicht, also was soll das ganze? Wenn es branchenweit so umgesetzt wird, müssen sich die Hersteller ja irgendeinen Vorteil davon versprechen.
Antwort von mash_gh4:
chico-ist hat geschrieben:
Wenn man 10-bit will, muss man in aller Regel auch 4:2:2 nutzen.
nein -- warum sollte das so sein?
überleg dir einfach, was 4:2:2 bzw. 4:2:0 technisch tatsächlich bedeutet, dann wird es sofort klar, warum ersteres eigentlich ein ziemlich schräge angelegeheit ist -- genauso wie pixel, die nicht quadratisch sind, was ja auch einmal große mode im profi-segment war. ;)
Antwort von chico-ist:
mash_gh4 hat geschrieben:
nein -- warum sollte das so sein?
Das sage nicht ich, sondern das geben die Kameras so vor. Wie gesagt, bis auf die A7SIII zwingen alle aktuellen Kameras (die ich getestet habe) einen zu 4:2:2 wenn man 10-bit h265 aufnehmen will. 4:2:0 gibts nur in Verbindung mit 8 -bit h264.
Antwort von chico-ist:
mash_gh4 hat geschrieben:
nein -- warum sollte das so sein?
Das sage nicht ich, sondern das geben die Kameras so vor. Wie gesagt, bis auf die A7SIII zwingen alle aktuellen Kameras (die ich getestet habe) einen zu 4:2:2 wenn man 10-bit h265 aufnehmen will. 4:2:0 gibts nur in Verbindung mit 8-bit h264.
Antwort von mash_gh4:
chico-ist hat geschrieben:
Das sage nicht ich, sondern das geben die Kameras so vor. Wie gesagt, bis auf die A7SIII zwingen alle aktuellen Kameras (die ich getestet habe) einen zu 4:2:2 wenn man 10-bit h265 aufnehmen will.
nun -- ich hab die kamera nicht, aber gleich die erste seite bei einer google suche zeigt, dass sie es offenbar durchaus kann:
https://www.4kshooters.net/2020/08/18/a ... ata-rates/
Antwort von chico-ist:
mash_gh4 hat geschrieben:
nun -- ich hab die kamera nicht, aber gleich die erste seite bei einer google suche zeigt, dass sie es offenbar durchaus kann:
https://www.4kshooters.net/2020/08/18/a ... ata-rates/
Genau das sagte ich ja - die A7SIII ist die einzige Kamera, die es kann. Damit steht sie aber ziemlich allein. Abgesehen davon ist die Bitrate auch wesentlich geringer bei 10-bit 4:2:0 im Vergleich zu 10-bit 4:2:2 (etwa 1/3).
chico-ist hat geschrieben:
Wie gesagt, bis auf die A7SIII...
Antwort von mash_gh4:
chico-ist hat geschrieben:
Genau das sagte ich ja - die A7SIII ist die einzige Kamera, die es kann. Damit steht sie aber ziemlich allein.
sorry -- da war ich beim lesen zu schnell...
aber z.b. die GH5 verwendet im hochwertigen open gate (=5K) aufzeichnungsmodus, wo sie den h.265 codec nutzt, auch 4:2:0
zum Bild
chico-ist hat geschrieben:
Abgesehen davon ist die Bitrate auch wesentlich geringer bei 10-bit 4:2:0 im Vergleich zu 10-bit 4:2:2 (etwa 1/3).
ja, natürlich fallen bei 4:2:0 weniger daten an! -- aber das sagt noch lange nichts darüber aus, ob deshalb auch die bildqualität sichtbar darunter leidet. die leute nutzen ja oft auch ALL-I aufzeichnung, die ein vielfaches der aufzeichnungsbandbreite verschlingt, aber in wahrheit nur bei sehr viel bewegung im bild tatächlich besser als long-GOP abschneidet. in sehr vielen fällen ist diese wahl aber vielmehr kontraproduktiv.
Antwort von TheBubble:
mash_gh4 hat geschrieben:
die leute nutzen ja oft auch ALL-I aufzeichnung, die ein vielfaches der aufzeichnungsbandbreite verschlingt, aber in wahrheit nur bei sehr viel bewegung im bild tatächlich besser als long-GOP abschneidet. in sehr vielen fällen ist diese wahl aber vielmehr kontraproduktiv.
Irgendwann wurde eben verbreitet, dass eine hohe Datenrate besser ist. Das ist schön einfach zu verstehen und klingt auch logisch. Falsch ist es nicht, nur ist die Realität eben viel komplizierter, wenn man verschiedene Codecs vergleicht.
Antwort von dienstag_01:
die leute nutzen ja oft auch ALL-I aufzeichnung, die ein vielfaches der aufzeichnungsbandbreite verschlingt, aber in wahrheit nur bei sehr viel bewegung im bild tatächlich besser als long-GOP abschneidet. in sehr vielen fällen ist diese wahl aber vielmehr kontraproduktiv.
Kontraproduktiv bedeutet ja, dass etwas unnütz und dem Erreichen des Ziels sogar schädlich ist, was ist denn an einem All-I-Codec kontraproduktiv?
Antwort von TheBubble:
dienstag_01 hat geschrieben:
Kontraproduktiv bedeutet ja, dass etwas unnütz und dem Erreichen des Ziels sogar schädlich ist, was ist denn an einem All-I-Codec kontraproduktiv?
Wenn man die Vorteile von ALL-I nicht nutzt, könnte man durch temporale Kompression eine bessere Qualität erreichen, bei gleichzeitig geringerer Datenmenge. In dem Fall ein doppelter Vorteil ohne Nachteil.
Antwort von dienstag_01:
TheBubble hat geschrieben:
dienstag_01 hat geschrieben:
Kontraproduktiv bedeutet ja, dass etwas unnütz und dem Erreichen des Ziels sogar schädlich ist, was ist denn an einem All-I-Codec kontraproduktiv?
Wenn man die Vorteile von ALL-I nicht nutzt, könnte man durch temporale Kompression eine bessere Qualität erreichen, bei gleichzeitig geringerer Datenmenge. In dem Fall ein doppelter Vorteil ohne Nachteil.
Mit dem Adjektiv kontraproduktiv würde ich Nachteile verbinden, daher meine Nachfrage.
Antwort von TheBubble:
dienstag_01 hat geschrieben:
TheBubble hat geschrieben:
Wenn man die Vorteile von ALL-I nicht nutzt, könnte man durch temporale Kompression eine bessere Qualität erreichen, bei gleichzeitig geringerer Datenmenge. In dem Fall ein doppelter Vorteil ohne Nachteil.
Mit dem Adjektiv kontraproduktiv würde ich Nachteile verbinden, daher meine Nachfrage.
Ich habe ihn so verstanden, dass ALL-I in vielen Standardsituationen gegenüber GOP nachteilig ist. Was im Prinzip auch stimmt.
Antwort von dienstag_01:
TheBubble hat geschrieben:
dienstag_01 hat geschrieben:
Mit dem Adjektiv kontraproduktiv würde ich Nachteile verbinden, daher meine Nachfrage.
Ich habe ihn so verstanden, dass ALL-I in vielen Standardsituationen gegenüber GOP nachteilig ist. Was im Prinzip auch stimmt.
Dann nenn doch mal die Nachteile.
Antwort von TheBubble:
dienstag_01 hat geschrieben:
Dann nenn doch mal die Nachteile.
Speicherplatzverbrauch, ggf. sogar niedrigere Qualität, siehe oben. Das reicht doch an Nachteilen.
Antwort von DKPost:
Ich grabe den Thread mal aus, da ich so langsam wieder aufrüsten muss.
Eigentlich wollte ich ein neues System mit dem i9 14900K bauen. Aber da ja gerade das nächste Intel-Desaster läuft und die CPU selbst ohne die neue Baseline-Problematik absurde Effizienz hat, überlege ich, ob es nicht doch mal AMD wird.
Was ist denn bei der Quicksync Thematik der letzte Stand? Hat AMD da irgendein Pendant dazu, oder gibt es da gar keine CPU-Beschleunigung für h264/h265?
Mein Problem momentan ist tatsächlich h264/h265. Da kommt mein 7820X langsam nicht mehr hinterher bei 4K, trotz RTX3080.
Ich hatte auch überlegt auf Arrow Lake zu warten, aber irgendwie bezweifle ich, dass Intel da das next big thing aus dem Hit zaubern wird.
Antwort von Jost:
Bild_2024-05-01_074427839.png
Kommt also immer darauf an, was genau Du als H.264/5 verwendest
Antwort von DKPost:
Jost hat geschrieben:
Bild_2024-05-01_074427839.png
Kommt also immer darauf an, was genau Du als H.264/5 verwendest
Im Idealfall natürlich gar keines :D Wird aber dennoch immer öfter mal angeliefert.
Aber das Chart zeigt ja keine AMD CPUs, sondern nur GPUs, oder?
Antwort von Frank Glencairn:
AMD hat da nix zu zeigen, Quicksync auf CPU is Intel only.
Antwort von DKPost:
"Frank Glencairn" hat geschrieben:
AMD hat da nix zu zeigen, Quicksync auf CPU is Intel only.
Ich dachte AMD hätte da VCE (Video Encoding Engine) in den neueren CPUs, die ja auch iGPUs haben. Laut Puget liegen die gerade bei h264/h265 immernoch hinter Intel, aber der Abstand ist nicht mehr riesig. Ich finde z.B. für den 7950X kein Chart welche Codecs genau supported werden.
Antwort von Jost:
DKPost hat geschrieben:
"Frank Glencairn" hat geschrieben:
AMD hat da nix zu zeigen, Quicksync auf CPU is Intel only.
Ich dachte AMD hätte da VCE (Video Encoding Engine) in den neueren CPUs, die ja auch iGPUs haben. Laut Puget liegen die gerade bei h264/h265 immernoch hinter Intel, aber der Abstand ist nicht mehr riesig. Ich finde z.B. für den 7950X kein Chart welche Codecs genau supported werden.
Das ist nicht richtig definiert. Von der 780M, das ist die Grafikeinheit im 8700G, heißt es, sie könne 8 und 10 Bit. Was nicht neu ist. Ob das auch mit 4:2:2 klappt, weiß man nicht. Wohl eher nicht, sonst hätte das AMD an die große Glocke gehängt.
Sicher weiß man das nur von Intel iGPUs, Intel-Grafikkarten und Apple-iGPUs.
Die Intel-iCPU-Heizplatten kann man bei 4:2:2-Material bislang nur per AMD ersetzen, wenn man konvertiert.
Antwort von DKPost:
Sehr komisch, dass man da so wenig dazu findet. Hätte Intel mit den 13er und 14er i9s nicht mal wieder instabile CPUs auf den Markt geworfen würde ich nur wegen Quicksync gerne bei Intel bleiben. Aber bis die Baseline Sache nicht geklärt ist ist das keine Option für mich. Höchstens der 14700K käme in Frage wenn geklärt ist, ob der auch die selben Probleme hat oder nicht. Intel will sich ja scheinbar "im Mai" dazu äußern.
Falls jemand zufällig einen 7950X oder 7900X hat wäre es super, wenn der oder die mal über die h264/h265 Performance berichten könnte.
Antwort von Jost:
Teste mal mit MediaInfo, ob Du überhaupt 4:2:2-Material hast? Klassisch 4:2:0 können alle iGPUs und Grafikkarten schon seit langer Zeit.
Wenn Probleme bei 4:2:0, haben Ruckler etc ihre Ursache nicht im fehlenden h.265-Support.
Vielleicht auch Einstellungssache? Wird die RTX3080 beim de- und encodieren unter 4:2:0 angesprochen?
Antwort von DKPost:
Jost hat geschrieben:
Teste mal mit MediaInfo, ob Du überhaupt 4:2:2-Material hast? Klassisch 4:2:0 können alle iGPUs und Grafikkarten schon seit langer Zeit.
Wenn Probleme bei 4:2:0, haben Ruckler etc ihre Ursache nicht im fehlenden h.265-Support.
Ja, ist 4:2:2. Sieht man in Resolve ja direkt.
Antwort von Jost:
DKPost hat geschrieben:
Jost hat geschrieben:
Teste mal mit MediaInfo, ob Du überhaupt 4:2:2-Material hast? Klassisch 4:2:0 können alle iGPUs und Grafikkarten schon seit langer Zeit.
Wenn Probleme bei 4:2:0, haben Ruckler etc ihre Ursache nicht im fehlenden h.265-Support.
Ja, ist 4:2:2. Sieht man in Resolve ja direkt.
Dann musst Du Dich nicht wundern. Intel, Mac oder konvertieren. Keine Hardware-Beschleunigung mit NVidia oder AMD.
Antwort von DKPost:
Jost hat geschrieben:
DKPost hat geschrieben:
Ja, ist 4:2:2. Sieht man in Resolve ja direkt.
Dann musst Du Dich nicht wundern. Intel, Mac oder konvertieren. Keine Hardware-Beschleunigung mit NVidia oder AMD.
Ich wundere mich nicht, ich will aufrüsten :D
Aber gerade sind alle Optionen richtig bescheiden.
Intel: Instabile CPUs und als Reaktion gesenkte Power Limits. Arrow Lake soll Ende 24 kommen.
AMD: Keine Hardwarebeschleunigung für die Codecs die am meisten Ärger machen. Zen5 soll auch noch dieses Jahr kommen.
Apple: Kein Update für den Mac Studio in Sicht.
Antwort von Frank Glencairn:
Warum arbeitest du überhaupt mit dem Zeug?
Einfach in was vernünftiges (Cineform/Prores/DNX etc. )Konvertieren und fertig.
Antwort von DKPost:
"Frank Glencairn" hat geschrieben:
Warum arbeitest du überhaupt mit dem Zeug?
Einfach in was vernünftiges (Cineform/Prores/DNX etc. )Konvertieren und fertig.
Ja, wäre natürlich eine Option.
Aber wenn es geht würde ich schon gerne beim Workflow ohne Proxies/konvertieren bleiben.
Auch wenn eigentlich alles außer h265 noch mega gut läuft merke ich bei manchen Sachen einfach, dass die CPU von 2017 ist.
Ich habe nicht den riesen Druck und kann schon noch etwas warten. Ich bezweifle nur, dass Intel mit Arrow Lake großartig besser wird. Eher kommen wahrscheinlich wieder Kinderkrankheiten der neuen Architektur dazu.
Bei AMD wird auch Zen5 nicht mit Quicksync gleichziehen. Da wäre aber wenigstens der aktuelle Sockel nicht end of life wie bei Intel.
Und der Mac Studio ist wahrscheinlich gar keine echte Option, weil ich alles was momentan intern läuft irgendwie extern lösen müsste, und da wäre ich wahrscheinlich locker bei 10.000€ für das Ding. Dafür kann ich mir eine High End Intel-Workstation und noch eine von AMD zusätzlich hinstellen.
Da reitzt mich eigentlich nur die mega gute Softwareintegration für die M-Chips in Sachen "Schwuppzidität".
Antwort von dienstag_01:
Intel sagt zur Überraschung aller: Spezifikationen einhalten, dann läuft alles stabil.
Bei mir stürzt nichts ab (13xxx)
Antwort von markusG:
DKPost hat geschrieben:
Ich wundere mich nicht, ich will aufrüsten :D
unqualifizierter Vorschlag von der Seitenlinie: funktioniert es da nicht, eine dedizierte Intel-GPU zusätzlich einzubauen? Das restliche System ist ja eigentlich noch gut.
Antwort von dienstag_01:
markusG hat geschrieben:
DKPost hat geschrieben:
Ich wundere mich nicht, ich will aufrüsten :D
unqualifizierter Vorschlag von der Seitenlinie: funktioniert es da nicht, eine dedizierte Intel-GPU zusätzlich einzubauen? Das restliche System ist ja eigentlich noch gut.
Was ist daran unqualifiziert, muss halt ein Steckplatz und Strom vorhanden sein.
Antwort von DKPost:
dienstag_01 hat geschrieben:
Intel sagt zur Überraschung aller: Spezifikationen einhalten, dann läuft alles stabil.
Bei mir stürzt nichts ab (13xxx)
Joa, es gibt halt nur keine von Intel. Offiziell ist unlimited unterstützt. Und PL4 bleibt ein Mysterium.
Aber du kannst deinen Vorschlag ja mal Asus und Gigabyte unterbreiten.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Intel sagt zur Überraschung aller: Spezifikationen einhalten, dann läuft alles stabil.
Bei mir stürzt nichts ab (13xxx)
Joa, es gibt halt nur keine von Intel. Offiziell ist unlimited unterstützt. Und PL4 bleibt ein Mysterium.
Aber du kannst deinen Vorschlag ja mal Asus und Gigabyte unterbreiten.
Hm, hab MSI ;)
Antwort von MK:
markusG hat geschrieben:
unqualifizierter Vorschlag von der Seitenlinie: funktioniert es da nicht, eine dedizierte Intel-GPU zusätzlich einzubauen? Das restliche System ist ja eigentlich noch gut.
Ein öfters gebrachter Vorschlag, bei slashCAM herrscht allerdings kollektiv Forendemenz, The Circle of Life, und täglich grüßt das Murmeltier...
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Joa, es gibt halt nur keine von Intel. Offiziell ist unlimited unterstützt. Und PL4 bleibt ein Mysterium.
Aber du kannst deinen Vorschlag ja mal Asus und Gigabyte unterbreiten.
Hm, hab MSI ;)
Und wahrscheinlich auch keinen i9?
Antwort von DKPost:
MK hat geschrieben:
markusG hat geschrieben:
unqualifizierter Vorschlag von der Seitenlinie: funktioniert es da nicht, eine dedizierte Intel-GPU zusätzlich einzubauen? Das restliche System ist ja eigentlich noch gut.
Ein öfters gebrachter Vorschlag, bei slashCAM herrscht allerdings kollektiv Forendemenz, The Circle of Life, und täglich grüßt das Murmeltier...
Da dran habe ich tatsächlich garnicht gedacht, dass z.B. eine Arc parallel zur RTX laufen könnte.
Kapiert Resolve oder Premiere dann automatisch welche Karte wann genutzt werden soll?
Aber leider sind auch keine PCI Plätze mehr frei.
Antwort von dienstag_01:
i5-13600k
Antwort von DKPost:
dienstag_01 hat geschrieben:
i5-13600k
Ja gut, da dürfte die Gefahr von zu viel Volt auf den Cores gegen null gehen. Es geht ja nur um die High End CPUs.
Antwort von MK:
Zumindest in Resolve kann man Processing auf CUDA einstellen und Decoding entweder nur auf Intel oder auf Intel und Nvidia.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
i5-13600k
Ja gut, da dürfte die Gefahr von zu viel Volt auf den Cores gegen null gehen. Es geht ja nur um die High End CPUs.
"Zuviel Volt auf den Cores" kann man bei jeder CPU haben, das ist nicht auf den High-End-Bereich beschränkt.
Aber ich gebe dir recht, dort wird vielleicht am meisten damit experimentiert.
Antwort von DKPost:
MK hat geschrieben:
Zumindest in Resolve kann man Processing auf CUDA einstellen und Decoding entweder nur auf Intel oder auf Intel und Nvidia.
Ok. Tatsächlich eine interessante Option. Das Audiointerface könnte bei mir evtl. rausfliegen. Aber ich nehme mal an die Arc Karten brauchen einen 16x Platz, oder reicht da auch 4x?
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Ja gut, da dürfte die Gefahr von zu viel Volt auf den Cores gegen null gehen. Es geht ja nur um die High End CPUs.
"Zuviel Volt auf den Cores" kann man bei jeder CPU haben, das ist nicht auf den High-End-Bereich beschränkt.
Aber ich gebe dir recht, dort wird vielleicht am meisten damit experimentiert.
Aber dein i5 hat ein PL2 von 181W, der i9 hat (oder hatte, oder sollte, oder wie auch immer Intel sich äußern wird) 253W.
Gigabyte hat PL2 per BIOS Update auf 181W gesenkt und die CPUs haben von heute auf morgen zwischen 9% und 15% Leistung verloren, je nach Anwendung. Das ist der verzweifelte Versuch die irgendwie stabil zu bekommen.
Bei einer Auslastung von 1-4 P-Cores lagen an einem 14900 1.7V an. Da ist es nur eine Frage der Zeit bis die Dinger durch sind.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
"Zuviel Volt auf den Cores" kann man bei jeder CPU haben, das ist nicht auf den High-End-Bereich beschränkt.
Aber ich gebe dir recht, dort wird vielleicht am meisten damit experimentiert.
Aber dein i5 hat ein PL2 von 181W, der i9 hat (oder hatte, oder sollte, oder wie auch immer Intel sich äußern wird) 253W.
Gigabyte hat PL2 per BIOS Update auf 181W gesenkt und die CPUs haben von heute auf morgen zwischen 9% und 15% Leistung verloren, je nach Anwendung. Das ist der verzweifelte Versuch die irgendwie stabil zu bekommen.
Bei einer Auslastung von 1-4 P-Cores lagen an einem 14900 1.7V an. Da ist es nur eine Frage der Zeit bis die Dinger durch sind.
Ich hatte mir den 13er gerade wegen der geringen Leistungsaufnahme gekauft, aber Übertakter scheinen da ja schmerzbefreit zu sein.
Jetzt bezahlen sie vermutlich den Preis dafür.
Wusste vor Jahren jeder, dass das auf eigene Gefahr ist.
Antwort von MK:
7950X3D - 120 Watt ;-P
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Aber dein i5 hat ein PL2 von 181W, der i9 hat (oder hatte, oder sollte, oder wie auch immer Intel sich äußern wird) 253W.
Gigabyte hat PL2 per BIOS Update auf 181W gesenkt und die CPUs haben von heute auf morgen zwischen 9% und 15% Leistung verloren, je nach Anwendung. Das ist der verzweifelte Versuch die irgendwie stabil zu bekommen.
Bei einer Auslastung von 1-4 P-Cores lagen an einem 14900 1.7V an. Da ist es nur eine Frage der Zeit bis die Dinger durch sind.
Ich hatte mir den 13er gerade wegen der geringen Leistungsaufnahme gekauft, aber Übertakter scheinen da ja schmerzbefreit zu sein.
Jetzt bezahlen sie vermutlich den Preis dafür.
Wusste vor Jahren jeder, dass das auf eigene Gefahr ist.
Die sind nicht übertaktet, die Mainboards wurden so ausgeliefert und natürlich mit Intel abgesprochen.
Das waren offizielle Werte von Intel.
Intel hat die i9er ab Werk einfach komplett auf Kante genäht und teilweise eben auch drüber hinaus.
Antwort von DKPost:
MK hat geschrieben:
7950X3D - 120 Watt ;-P
Jap. Deswegen hat Intel ja die PLs so hoch gesetzt bzw. offen gelassen, damit ihre Marketingszahlen irgendwie gegen AMD abstimmen und den absurden Energieverbrauch rechtfertigen können.
Intel wird auch nicht erst jetzt dafür kritisiert sondern schon länger.
Hätte der 7950X Quicksync wäre die Diskussion unnötig.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Ich hatte mir den 13er gerade wegen der geringen Leistungsaufnahme gekauft, aber Übertakter scheinen da ja schmerzbefreit zu sein.
Jetzt bezahlen sie vermutlich den Preis dafür.
Wusste vor Jahren jeder, dass das auf eigene Gefahr ist.
Die sind nicht übertaktet, die Mainboards wurden so ausgeliefert und natürlich mit Intel abgesprochen.
Das waren offizielle Werte von Intel.
Intel hat die i9er ab Werk einfach komplett auf Kante genäht und teilweise eben auch drüber hinaus.
Auch wenn Mainboards so ausgeliefert wurden, heisst das nicht, dass es mit Intel "abgesprochen" war.
Aber man merkt ja auch an deiner Reaktion, dass alle den selben Gedanken nachjagen: schneller, schneller, schneller.
;)
(Übrigens glaube ich mich zu erinnern, dass Intel für die 14er eine zweite TDP-Stufe spezifiziert hatte, etwas niedriger, weil klar war, dass die Leistungsaufnahme in den Grenzbereich - Kühlung? - führt.)
Schau, ob eine Arc bei dir passt.
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Die sind nicht übertaktet, die Mainboards wurden so ausgeliefert und natürlich mit Intel abgesprochen.
Das waren offizielle Werte von Intel.
Intel hat die i9er ab Werk einfach komplett auf Kante genäht und teilweise eben auch drüber hinaus.
Auch wenn Mainboards so ausgeliefert wurden, heisst das nicht, dass es mit Intel "abgesprochen" war.
Aber man merkt ja auch an deiner Reaktion, dass alle den selben Gedanken nachjagen: schneller, schneller, schneller.
;)
(Übrigens glaube ich mich zu erinnern, dass Intel für die 14er eine zweite TDP-Stufe spezifiziert hatte, etwas niedriger, weil klar war, dass die Leistungsaufnahme in den Grenzbereich - Kühlung? - führt.)
Schau, ob eine Arc bei dir passt.
Glaubst du die Boardhersteller ziehen sich die Zahlen aus dem Hut und kommen am Ende alle auf die gleichen? Natürlich muss das von Intel kommuniziert werden, es ist ja deren CPU. Diese Intransparenz von Intel wird ja schon lange kritisiert.
Antwort von klusterdegenerierung:
DKPost hat geschrieben:
Hätte Intel mit den 13er und 14er i9s nicht mal wieder instabile CPUs auf den Markt geworfen würde ich nur wegen Quicksync gerne bei Intel bleiben.
Haha, ja dann doch besser zum noch instabileren AMD ohne Quicksync wechseln, da ist man ja besser aufgehoben.
Man man man ist das hier eine farce!
Wenn das hier so weiter geht, geht es Slashcam bald genauso wie dem 3L Lupo!
Antwort von DKPost:
klusterdegenerierung hat geschrieben:
DKPost hat geschrieben:
Hätte Intel mit den 13er und 14er i9s nicht mal wieder instabile CPUs auf den Markt geworfen würde ich nur wegen Quicksync gerne bei Intel bleiben.
Haha, ja dann doch besser zum noch instabileren AMD ohne Quicksync wechseln, da ist man ja besser aufgehoben.
Man man man ist das hier eine farce!
Wenn das hier so weiter geht, geht es Slashcam bald genauso wie dem 3L Lupo!
Wo sind die 9er Ryzen den instabil?
Vielleicht googelst du mal um was es überhaupt geht.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Auch wenn Mainboards so ausgeliefert wurden, heisst das nicht, dass es mit Intel "abgesprochen" war.
Aber man merkt ja auch an deiner Reaktion, dass alle den selben Gedanken nachjagen: schneller, schneller, schneller.
;)
(Übrigens glaube ich mich zu erinnern, dass Intel für die 14er eine zweite TDP-Stufe spezifiziert hatte, etwas niedriger, weil klar war, dass die Leistungsaufnahme in den Grenzbereich - Kühlung? - führt.)
Schau, ob eine Arc bei dir passt.
Glaubst du die Boardhersteller ziehen sich die Zahlen aus dem Hut und kommen am Ende alle auf die gleichen? Natürlich muss das von Intel kommuniziert werden, es ist ja deren CPU. Diese Intransparenz von Intel wird ja schon lange kritisiert.
Zeig mal.
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Glaubst du die Boardhersteller ziehen sich die Zahlen aus dem Hut und kommen am Ende alle auf die gleichen? Natürlich muss das von Intel kommuniziert werden, es ist ja deren CPU. Diese Intransparenz von Intel wird ja schon lange kritisiert.
Zeig mal.
"For years now, we have highlighted Intel's loosely defined power specifications and the problems they pose for Intel customers. We've published several articles and videos (on TechSpot and HUB) discussing this issue, yet little has changed."
"Case in point, just five months ago, we examined new Intel Z790 motherboards from Asus, Asrock, MSI, and Gigabyte, when we wrote this: "as usual, the Intel platform is a bit of a mess when it comes to power configurations, and this is something we've been advocating Intel to fix for years now." And on the video version, part of the title read "Stock Power Limits Are Still A Mess!""
"One might blame the motherboard manufacturers for this mess, but it's ultimately Intel's responsibility to clearly define a power specification and not merely suggest a series of recommended settings. To be clear, this isn't a new issue; it has been ongoing for nearly a decade now, and Intel has done little to address it."
"Moreover, we know for a fact that Intel doesn't consider boards running without power limits to be out of specification. They have explicitly told us and other tech media outlets in the past that this is within specification behavior."
https://www.techspot.com/review/2836-in ... line-spec/
Bei Igors Lab kann man sich das ganze in Überlänge auf Youtube anschauen.
Wer sich mehr für die Technik interessiert kann es bei Igor auch nachlesen. Auch da wurde das früher schon kritisiert:
https://www.igorslab.de/bruchlandungbmi ... -vorgaben/
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Zeig mal.
"For years now, we have highlighted Intel's loosely defined power specifications and the problems they pose for Intel customers. We've published several articles and videos (on TechSpot and HUB) discussing this issue, yet little has changed."
"Case in point, just five months ago, we examined new Intel Z790 motherboards from Asus, Asrock, MSI, and Gigabyte, when we wrote this: "as usual, the Intel platform is a bit of a mess when it comes to power configurations, and this is something we've been advocating Intel to fix for years now." And on the video version, part of the title read "Stock Power Limits Are Still A Mess!""
"One might blame the motherboard manufacturers for this mess, but it's ultimately Intel's responsibility to clearly define a power specification and not merely suggest a series of recommended settings. To be clear, this isn't a new issue; it has been ongoing for nearly a decade now, and Intel has done little to address it."
"Moreover, we know for a fact that Intel doesn't consider boards running without power limits to be out of specification. They have explicitly told us and other tech media outlets in the past that this is within specification behavior."
https://www.techspot.com/review/2836-in ... line-spec/
Bei Igors Lab kann man sich das ganze in Überlänge auf Youtube anschauen.
Wer sich mehr für die Technik interessiert kann es bei Igor nachlesen. Auch da wurde das früher schon kritisiert:
https://www.igorslab.de/bruchlandungbmi ... -vorgaben/
Du hast weiter oben geschrieben: "Glaubst du die Boardhersteller ziehen sich die Zahlen aus dem Hut und kommen am Ende alle auf die gleichen?"
Im Artikel kann man lesen, dass der eine Hersteller die 253W einhält, der andere bis 280 taktet, der dritte bis fast 350. Das sind für dich die gleichen Werte?
Natürlich ziehen die sich die Zahlen aus dem Hut, weil einer besser als der andere sein will.
(Das es für das obere Ende keine Spezifikationen gibt, war mir schon klar, wird ja im Bios gewarnt. Allerdings gibt es Spezifikationen für den - ich nenne ihn mal den - Normalbetrieb.)
 |
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
"For years now, we have highlighted Intel's loosely defined power specifications and the problems they pose for Intel customers. We've published several articles and videos (on TechSpot and HUB) discussing this issue, yet little has changed."
"Case in point, just five months ago, we examined new Intel Z790 motherboards from Asus, Asrock, MSI, and Gigabyte, when we wrote this: "as usual, the Intel platform is a bit of a mess when it comes to power configurations, and this is something we've been advocating Intel to fix for years now." And on the video version, part of the title read "Stock Power Limits Are Still A Mess!""
"One might blame the motherboard manufacturers for this mess, but it's ultimately Intel's responsibility to clearly define a power specification and not merely suggest a series of recommended settings. To be clear, this isn't a new issue; it has been ongoing for nearly a decade now, and Intel has done little to address it."
"Moreover, we know for a fact that Intel doesn't consider boards running without power limits to be out of specification. They have explicitly told us and other tech media outlets in the past that this is within specification behavior."
https://www.techspot.com/review/2836-in ... line-spec/
Bei Igors Lab kann man sich das ganze in Überlänge auf Youtube anschauen.
Wer sich mehr für die Technik interessiert kann es bei Igor nachlesen. Auch da wurde das früher schon kritisiert:
https://www.igorslab.de/bruchlandungbmi ... -vorgaben/
Du hast weiter oben geschrieben: "Glaubst du die Boardhersteller ziehen sich die Zahlen aus dem Hut und kommen am Ende alle auf die gleichen?"
Im Artikel kann man lesen, dass der eine Hersteller die 253W einhält, der andere bis 280 taktet, der dritte bis fast 350. Das sind für dich die gleichen Werte?
Natürlich ziehen die sich die Zahlen aus dem Hut, weil einer besser als der andere sein will.
(Das es für das obere Ende keine Spezifikationen gibt, war mir schon klar, wird ja im Bios gewarnt. Allerdings gibt es Spezifikationen für den - ich nenne ihn mal den - Normalbetrieb.)
Gigabyte ging auf 280 und Asus auf 253. Der andere Wert, 320-350 ist kein Power Limit sondern Power Draw.
So gut wie alle Hersteller sind auf 253 gegangen. Das sind ja gerade die von Intel recommended PLs, und das sind auch genau die Werte die jetzt per Update gesenkt werden mussten weil die i9er permanent abstürzen und sogar kaputt gehen
 |
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Du hast weiter oben geschrieben: "Glaubst du die Boardhersteller ziehen sich die Zahlen aus dem Hut und kommen am Ende alle auf die gleichen?"
Im Artikel kann man lesen, dass der eine Hersteller die 253W einhält, der andere bis 280 taktet, der dritte bis fast 350. Das sind für dich die gleichen Werte?
Natürlich ziehen die sich die Zahlen aus dem Hut, weil einer besser als der andere sein will.
(Das es für das obere Ende keine Spezifikationen gibt, war mir schon klar, wird ja im Bios gewarnt. Allerdings gibt es Spezifikationen für den - ich nenne ihn mal den - Normalbetrieb.)
Gigabyte ging auf 280 und Asus auf 253. Der andere Wert, 320-350 ist kein Power Limit sondern Power Draw.
So gut wie alle Hersteller sind auf 253 gegangen. Das sind ja gerade die von Intel recommended PLs, und das sind auch genau die Werte die jetzt per Update gesenkt werden mussten weil die i9er permanent abstürzen und sogar kaputt gehen
Siehste mal, gibt also doch einen Wert.
(Damit dürfte dir aber auch klar sein, dass mit den bemängelten Spezifikationen ganz andere Werte gemeint sind.)
Ich denke, da muss man sich erstmal den Rauch verziehen lassen, dann weiß man mehr. Momentan zeigt jeder auf den anderen.
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Gigabyte ging auf 280 und Asus auf 253. Der andere Wert, 320-350 ist kein Power Limit sondern Power Draw.
So gut wie alle Hersteller sind auf 253 gegangen. Das sind ja gerade die von Intel recommended PLs, und das sind auch genau die Werte die jetzt per Update gesenkt werden mussten weil die i9er permanent abstürzen und sogar kaputt gehen
Siehste mal, gibt also doch einen Wert.
(Damit dürfte dir aber auch klar sein, dass mit den bemängelten Spezifikationen ganz andere Werte gemeint sind.)
Ich denke, da muss man sich erstmal den Rauch verziehen lassen, dann weiß man mehr. Momentan zeigt jeder auf den anderen.
Das Problem ist aber, dass Intel mit den höheren Werten gebencht und geworben hat (Weltrekord 6GHz etc.) obwohl sie da schon ziemlich sicher wussten, dass die CPUs das unter Last überhaupt nicht durchhalten.
Und nein, da waren keine anderen Werte gemeint. Da wurde kritisiert, dass Intel keine fixen Power Limits kommuniziert sondern recommendations. Und PL4 ist z.B. überhaupt nicht kommuniziert und lässt sich für User auch nicht auslesen.
Und wenn man das weiß, dann darf man eben nicht behaupten, dass unlimited innerhalb der Specs liegt. Wobei das ja auch schon egal wenn die CPUs schon bei den recommended Werten des Herstellers crashen.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Siehste mal, gibt also doch einen Wert.
(Damit dürfte dir aber auch klar sein, dass mit den bemängelten Spezifikationen ganz andere Werte gemeint sind.)
Ich denke, da muss man sich erstmal den Rauch verziehen lassen, dann weiß man mehr. Momentan zeigt jeder auf den anderen.
Das Problem ist aber, dass Intel mit den höheren Werten gebencht und geworben hat (Weltrekord 6GHz etc.) obwohl sie da schon ziemlich sicher wussten, dass die CPUs das unter Last überhaupt nicht durchhalten.
Und nein, da waren keine anderen Werte gemeint. Da wurde kritisiert, dass Intel keine fixen Power Limits kommuniziert sondern recommendations. Und PL4 ist z.B. überhaupt nicht kommuniziert und lässt sich für User auch nicht auslesen.
Und wenn man das weiß, dann darf man eben nicht behaupten, dass unlimited innerhalb der Specs liegt. Wobei das ja auch schon egal wenn die CPUs schon bei den recommended Werten des Herstellers crashen.
Ich denke, dass sie jetzt (plötzlich) bei den empfohlenen Werten crashen hat damit zu tun, dass sie längere Zeit oberhalb dieser Werte betrieben wurden und dadurch Schaden genommen haben. Nicht gut.
Ansonsten, wenn es wirklich eine eindeutige Hersteller-Schuld geben sollte, dann werden wir davon erfahren. Aus den USA. Mit den vielen Anwälten.
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Das Problem ist aber, dass Intel mit den höheren Werten gebencht und geworben hat (Weltrekord 6GHz etc.) obwohl sie da schon ziemlich sicher wussten, dass die CPUs das unter Last überhaupt nicht durchhalten.
Und nein, da waren keine anderen Werte gemeint. Da wurde kritisiert, dass Intel keine fixen Power Limits kommuniziert sondern recommendations. Und PL4 ist z.B. überhaupt nicht kommuniziert und lässt sich für User auch nicht auslesen.
Und wenn man das weiß, dann darf man eben nicht behaupten, dass unlimited innerhalb der Specs liegt. Wobei das ja auch schon egal wenn die CPUs schon bei den recommended Werten des Herstellers crashen.
Ich denke, dass sie jetzt (plötzlich) bei den empfohlenen Werten crashen hat damit zu tun, dass sie längere Zeit oberhalb dieser Werte betrieben wurden und dadurch Schaden genommen haben. Nicht gut.
Ansonsten, wenn es wirklich eine eindeutige Hersteller-Schuld geben sollte, dann werden wir davon erfahren. Aus den USA. Mit den vielen Anwälten.
Die crashen nicht plötzlich. Das ganze wird schon seit über einem Jahr berichtet. Aber anfangs dachte man halt das wären Einzelfälle. Mittlerweile sind es aber so viele und wurde untersucht, dass man erkannt hat, dass es ein grundlegendes Problem ist.
Aber ja, ich denke, dazu ist alles gesagt bis ein Statement von Intel kommt.
Vielleicht bin ich als 7820X Besitzer auch vorbelastet. Wer erinnert sich nicht an die witzigen Geschichten von über 100° heißen CPUs, weil Intel bei Skylake X, den damaligen High End CPUs, billigste Wärmeleitpaste reingeschmiert hatte um ein paar Cent zu sparen. Da hieß es dann auch das wäre alles fein und innerhalb der Spezifikationen.
Kurzer Nachtrag noch: Hier erklärt Puget Systems, warum sie schon seit der 12ten Intel Generation entgegen Intels eigenen Empfehlungen (PL1 = PL2 = 253W) ihre Workstations mit PL1=125W ausliefern. Kostet natürlich Performance, Intels Empfehlungen garantieren aber keinen stabilen Betrieb:
https://www.pugetsystems.com/labs/artic ... rocessors/
Antwort von markusG:
DKPost hat geschrieben:
Die crashen nicht plötzlich. Das ganze wird schon seit über einem Jahr berichtet.
Gilt das für alle Mainboards gleichermaßen? Es gibt ja zB von Asus die eher fürs Arbeiten statt Zocken ausgelegte ProArt Linie, vllt hat die konservative Grundsettings die stabil laufen?
Klingt hier eher nach einem sehr individuellem Problem ("unlocked mainboards"):
https://videocardz.com/newz/intel-issue ... ity-issues
Ansonsten wäre ja selbst ein 12900k immer noch eine sehr potente Ausweichmöglichkeit mit Quicksync, wenn du auf Nummer sicher gehen willst...
Antwort von DKPost:
markusG hat geschrieben:
DKPost hat geschrieben:
Die crashen nicht plötzlich. Das ganze wird schon seit über einem Jahr berichtet.
Gilt das für alle Mainboards gleichermaßen? Es gibt ja zB von Asus die eher fürs Arbeiten statt Zocken ausgelegte ProArt Linie, vllt hat die konservative Grundsettings die stabil laufen?
Gute Frage. Ich denke aber nicht, dass die per default niedrigere PLs haben. Aber wann da wirklich Fehler auftreten kann natürlich auch mit der Qualität der MB Komponenten und nicht zuletzt auch der Kühlung zu tun haben.
Ich habe oben gerade noch einen Artikel von Puget verlinkt, die auch gegen die Empfehlung von Intel ausliefern weil die einfach zu hoch sind.
Antwort von dienstag_01:
Was Pudget schreibt, klingt wie das komplette Gegenteil von dem, was bisher behauptet wurde, dass sie ganz klar selber die Spezifikation verlassen, nämlich verringern.
(Und verlieren damit realistisch 2% Leistung)
Aber egal, wird man sehen.
Antwort von DKPost:
dienstag_01 hat geschrieben:
Was Pudget schreibt, klingt wie das komplette Gegenteil von dem, was bisher behauptet wurde, dass sie ganz klar selber die Spezifikation verlassen, nämlich verringern.
(Und verlieren damit realistisch 2% Leistung)
Aber egal, wird man sehen.
Ja, weil die Specs von Intel zu hoch sind um stabil zu laufen. Davon reden wir doch die ganze Zeit.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Was Pudget schreibt, klingt wie das komplette Gegenteil von dem, was bisher behauptet wurde, dass sie ganz klar selber die Spezifikation verlassen, nämlich verringern.
(Und verlieren damit realistisch 2% Leistung)
Aber egal, wird man sehen.
Ja, weil die Specs von Intel zu hoch sind um stabil zu laufen. Davon reden wir doch die ganze Zeit.
Wenn man bei einem Board 280W misst, wohl nicht.
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Ja, weil die Specs von Intel zu hoch sind um stabil zu laufen. Davon reden wir doch die ganze Zeit.
Wenn man bei einem Board 280W misst, wohl nicht.
Was heißt an einem Bord messen?
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Wenn man bei einem Board 280W misst, wohl nicht.
Was heißt an einem Bord messen?
Stand doch in dem von dir verlinkten Techspot-Artikel. Aber nicht gemessen, sondern eingestellt.
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Was heißt an einem Bord messen?
Stand doch in dem von dir verlinkten Techspot-Artikel. Aber nicht gemessen, sondern eingestellt.
Wo steht da was von 280W?
Edit: Achso, Techspot. Dachte du meintest Puget.
Die 280 machen ja ebenfalls Probleme und liegen ja sogar über den Intel Empfehlungen.
Verstehe gerade nicht was du da meinst. Das läuft ja gerade nicht stabil.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Stand doch in dem von dir verlinkten Techspot-Artikel. Aber nicht gemessen, sondern eingestellt.
Wo steht da was von 280W?
Edit: Achso, Techspot. Dachte du meintest Puget.
Die 280 machen ja ebenfalls Probleme und liegen ja sogar über den Intel Empfehlungen.
Das meine ich ja, wenn über die Specs gegangen wird, kann es ja nicht an den Specs liegen.
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Wo steht da was von 280W?
Edit: Achso, Techspot. Dachte du meintest Puget.
Die 280 machen ja ebenfalls Probleme und liegen ja sogar über den Intel Empfehlungen.
Das meine ich ja, wenn über die Specs gegangen wird, kann es ja nicht an den Specs liegen.
Aber auch innerhalb der Specs ist es ja instabil. Da ist es ja logisch, dass es erst nicht klappt wenn man drüber geht.
Puget sagt es doch ganz klar: Sie setzen das Power Limit um über 50% (!) von den empfohlenen 253W runter, damit ihre Kunden keine BSODs sondern stabile Systeme haben.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Das meine ich ja, wenn über die Specs gegangen wird, kann es ja nicht an den Specs liegen.
Aber auch innerhalb der Specs ist es ja instabil. Da ist es ja logisch, dass es erst nicht klappt wenn man drüber geht.
Puget sagt es doch ganz klar: Sie setzen das Power Limit um über 50% von den empfohlenen 253W runter, damit ihre Kunden keine BSODs sondern stabile Systeme haben.
Ja, aber die Frage, die sich stellt und die sich hier nicht klären lässt ist, ob das der einzige Weg oder eher die Holzhammer-Methode ist.
Antwort von DKPost:
dienstag_01 hat geschrieben:
DKPost hat geschrieben:
Aber auch innerhalb der Specs ist es ja instabil. Da ist es ja logisch, dass es erst nicht klappt wenn man drüber geht.
Puget sagt es doch ganz klar: Sie setzen das Power Limit um über 50% von den empfohlenen 253W runter, damit ihre Kunden keine BSODs sondern stabile Systeme haben.
Ja, aber die Frage, die sich stellt und die sich hier nicht klären lässt, ist das der einzige Weg oder eher die Holzhammer-Methode.
Darum geht es doch garnicht. Es geht darum, dass Intel Specs rausgibt von denen sie wissen, dass sie nicht stabil laufen. Und mit diesen Specs aber Werbung gemacht haben was die Leistung angeht.
Antwort von dienstag_01:
DKPost hat geschrieben:
dienstag_01 hat geschrieben:
Ja, aber die Frage, die sich stellt und die sich hier nicht klären lässt, ist das der einzige Weg oder eher die Holzhammer-Methode.
Darum geht es doch garnicht. Es geht darum, dass Intel Specs rausgibt von denen sie wissen, dass sie nicht stabil laufen.
Sagst du.
Antwort von klusterdegenerierung:
DKPost hat geschrieben:
klusterdegenerierung hat geschrieben:
Haha, ja dann doch besser zum noch instabileren AMD ohne Quicksync wechseln, da ist man ja besser aufgehoben.
Man man man ist das hier eine farce!
Wenn das hier so weiter geht, geht es Slashcam bald genauso wie dem 3L Lupo!
Wo sind die 9er Ryzen den instabil?
Vielleicht googelst du mal um was es überhaupt geht.
Haha, wer hat denn nicht gegoogled und wußte nicht ob AMD überhaubt ein Quicksync pandant anbietet!
Zum piepen!
Antwort von DKPost:
klusterdegenerierung hat geschrieben:
DKPost hat geschrieben:
Wo sind die 9er Ryzen den instabil?
Vielleicht googelst du mal um was es überhaupt geht.
Haha, wer hat denn nicht gegoogled und wußte nicht ob AMD überhaubt ein Quicksync pandant anbietet!
Zum piepen!
Was hat das denn mit deiner Behauptung zu tun, dass die AMD CPUs "noch instabiler" wären als die um die es hier geht?
Antwort von Jost:
Warum sollte eine Intel-CPU unter Resolve permanent unter Volllast laufen? Quicksync läuft außerdem nicht über die CPU, sonst wäre es keine Hardware-Beschleunigung.
Aber es stimmt schon: Eine CPU, die 250W+ zieht, ist einfach nicht mehr zeitgemäß.
Antwort von dienstag_01:
Jost hat geschrieben:
Warum sollte eine Intel-CPU unter Resolve permanent unter Volllast laufen? Quicksync läuft außerdem nicht über die CPU, sonst wäre es keine Hardware-Beschleunigung.
Aber es stimmt schon: Eine CPU, die 250W+ zieht, ist einfach nicht mehr zeitgemäß.
Wenn sie das überhaupt jemals war ;)
Antwort von DKPost:
Jost hat geschrieben:
Warum sollte eine Intel-CPU unter Resolve permanent unter Volllast laufen? Quicksync läuft außerdem nicht über die CPU, sonst wäre es keine Hardware-Beschleunigung.
Aber es stimmt schon: Eine CPU, die 250W+ zieht, ist einfach nicht mehr zeitgemäß.
Warum sollte sie denn nicht? 8K Raw mit Denoise zieht auch in Resolve gut Power. Und es geht ja nicht nur um Resolve. Solche CPUs kauft man in der Regel ja, wenn man regelmäßig wirkliche hohe Workloads hat die einfach viel CPU-Power und damit Zeit kosten.
24h und mehr rendern in AE, 2000 Raw-Fotos in Lightroom oder Photoshop batchen, oder eben auch realtime Playback von rechenintensiven Codecs etc.
Das summiert sich auf die Dauer, und je länger dann so hohe Temperaturen und Spannungen anliegen, desto schneller macht sich das im Chip bemerkbar.
Antwort von dienstag_01:
Mir gefällt ja die etwas konservativere Herangehensweise von Pudget, Performance und Stabilität in Balance zu bringen.
(Ich bin ja noch konservativer, aber wenn ich mir die RAW-Benchmarks ansehe, dann gibt es nur wenige Werte, bei denen mein i5-136700k gegen den i9 wirklich zurückliegt. Und das sind Bereiche, in denen im Zweifel die GPU übernimmt - z.B. Red8k zu h265.)
Allerdings heisst das nicht, dass auf der anderen Seite CPU- und/oder Mainboardhersteller einen instabilen Performance-Mode zur Standardeinstellung machen können dürfen.
Antwort von klusterdegenerierung:
Wenn ich bei Resolve meine HD530 vom Skylake aktiviere, stockt mein h265 footage direkt!
Schalte ich nur Cuda via GTX 1080 ein, läufts wie geschnitten Brot!
Hat sich ja richtig gelohnt mit dem Quckisynki.
Antwort von MK:
1. Das Decoding wird nicht per CUDA beschleunigt sondern per NVDEC
2. 10 Bit 4:2:2 gibt es bei Nvidia nicht hardwarebeschleunigt
3. Bei der 9 Jahre alten HD530 iGPU natürlich auch nicht...
Antwort von klusterdegenerierung:
Dann müssen es wohl die 4 Buchstaben sein die mein rendern beschleunigen, dann kann ich ja auch einen Zettel auf das Motherboard kleben.
Antwort von rush:
klusterdegenerierung hat geschrieben:
Wenn ich bei Resolve meine HD530 vom Skylake aktiviere, stockt mein h265 footage direkt!
Hat sich ja richtig gelohnt mit dem Quckisynki.
Offenbar die falsche CPU für dieses Vorhaben wenn du 10bit 422 HEVC Material hast.
"It'll do hardware decode on 8-bit HEVC, but hybrid hardware decode on 10-bit (meaning it'll use the CPU in conjunction with, so performance will be based on the bitrate of the media).
If you want hw decode on 10-bit then 7xxx (kaby lake) or apollo/gemini lake."
https://en.m.wikipedia.org/wiki/Intel_Quick_Sync_Video
Und dort den "Hardware decoding and encoding" Reiter aufklappen...
Antwort von Jost:
Wenn die Vorbehalte gegenüber Intel bei 4:2:2 zu groß sind, Mac rausfällt und Konvertieren zu zeitraubend ist, bleibt externes Recording in einem Zwischen-Codec. BM und Atomos machen das per ProRes und DNx möglich.
Antwort von klusterdegenerierung:
verstehe das gehampel nicht, was ist so schwierig an einer Cuda Lösung mit der Resolve alle gut gewuppt bekommt und gebraucht erschwinglich ist?
Man kann sich das Leben auch extra schwer machen.
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
verstehe das gehampel nicht, was ist so schwierig an einer Cuda Lösung mit der Resolve alle gut gewuppt bekommt und gebraucht erschwinglich ist?
Man kann sich das Leben auch extra schwer machen.
Das ist einfach bekloppt, das muss man mal so deutlich sagen. Das geht seit Jahren so ;)
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
klusterdegenerierung hat geschrieben:
verstehe das gehampel nicht, was ist so schwierig an einer Cuda Lösung mit der Resolve alle gut gewuppt bekommt und gebraucht erschwinglich ist?
Man kann sich das Leben auch extra schwer machen.
Du bist einfach bekloppt, das muss man mal so deutlich sagen. Das geht seit Jahren so ;)
Bitte? Ganz dünnes Eis!
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Du bist einfach bekloppt, das muss man mal so deutlich sagen. Das geht seit Jahren so ;)
Bitte? Ganz dünnes Eis!
Nach gefühlt 1000 Erklärungsversuchen ist dann auch mal gut.
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
klusterdegenerierung hat geschrieben:
Bitte? Ganz dünnes Eis!
Nach gefühlt 1000 Erklärungsversuchen ist dann auch mal gut.
Ich habe keine Ahnung wo von DU redest, ich habe mich auf meine Anwendung bezogen und bei mir läuft h265 10Bit 422 mit Cuda flüssig, mit intel & Qucki nicht.
Ja klar, weil ist nicht die mindestanforderung an Intel, aber auch das ist egal, wenn eine GTX 1080, auch wenn sie auch kein h265 unterstützt, dennoch ohne caching selbst mit nodes flüssig läuft.
So und nun mach mit den Infos was DU willst!
Ps. apropo keine Ahnung, wenn man gewisse settings in den 3D Einstellungen von Nvidia nicht vornimmt, wird die Gpu in Resolve auch nicht verwendet, aber Du weißt sowas ja sicherlich alles selber!
Antwort von klusterdegenerierung:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Nach gefühlt 1000 Erklärungsversuchen ist dann auch mal gut.
Ich habe keine Ahnung wo von DU redest, ich habe mich auf meine Anwendung bezogen und bei mir läuft h265 10Bit 422 mit Cuda flüssig, mit intel & Qucki nicht.
Ja klar, weil ist nicht die mindestanforderung an Intel, aber auch das ist egal, wenn eine GTX 1080, auch wenn sie auch kein h265 unterstützt, dennoch ohne caching selbst mit nodes flüssig läuft.
So und nun mach mit den Infos was DU willst!
Ps. apropo keine Ahnung, wenn man gewisse settings in den 3D Einstellungen von Nvidia nicht vornimmt, wird die Gpu in Resolve auch nicht verwendet, aber Du weißt sowas ja sicherlich alles selber!
Antwort von dienstag_01:
Wie gesagt, wir müssen das hier nicht alles nochmal durchspielen, es gab genug Versuche.
Wenn du also sagst, ich soll mit den Infos machen, was ich will, dann ja, ich weiß, was ich damit mache ;)
Antwort von MK:
klusterdegenerierung hat geschrieben:
was ist so schwierig an einer Cuda Lösung mit der Resolve alle gut gewuppt bekommt und gebraucht erschwinglich ist
Weil Decoding und Encoding nicht über CUDA läuft.
Antwort von MK:
klusterdegenerierung hat geschrieben:
bei mir läuft h265 10Bit 422 mit Cuda flüssig
Seit Jahren haben hier alle mit H.265 10 Bit 4:2:2 Performanceprobleme wenn keine Intel CPU/GPU, welche die einzigen sind die das in Hardware unterstützen (und das auch erst ab der 10. Generation) im Rechner steckt, und auf einem Methusalem Rechner mit 8 - 9 Jahre alten Komponenten läuft das plötzlich flüssig, und dann auch noch mit CUDA welches mit dem Decoding garnichts zu tun hat?
Bemerkenswert.