Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // INTEL i9-9900k vs AMD Ryzen 9 3900x



Frage von rush:


Mahlzeit!

Aktuell rennt mein Win10 Unterbau noch auf einem ~6 Jahre alten ASRock Board mit übertakteter 4770er Haswell CPU von Intel. Damit bin ich auch weiterhin relativ zufrieden - insbesondere da ich ab und an noch mit Edius Sachen zusammenhacke und den QuickSync Vorteil auch entsprechend als solchen sehe.

Durch die Pocket 4K ist man wiederum beinahe "gezwungen" sich auch mehr nach Resolve zu orientieren und für einige Sachen komm ich damit auch soweit hin, auch wenn es bisher nicht meine favorisierte Videobearbeitungs-App ist. Kann sich ja ggfs noch ändern, wer weiß.

Jedenfalls steht perspektivisch dann doch eines Tages mal der Umstieg auf ein neueres System ins Haus - sowohl bei der Intel als auch AMD Lösung müssten neue Motherboards + RAM mit hinein - ggfs. auch ein Netzteil. Als GraKa käme meine GTX1070 zum Einsatz.

Primäre Anwenungsbereiche sind:
Neben der Videobearbeitung bin ich häufiger im Standbildbereich mit Photoshop/Lightroom unterwegs als auch im Audio-Bereich mit Reaper (DAW) und entsprechenden PlugIns.
Spiele sind eher unwichtig für mich. Vieles läuft sogar noch ganz passabel auf der jetzigen CPU durch die GTX1070.

Tendenziell finde ich den Ryzen 9 3900x anhand diverser Tests durchaus sehr spannend - auch wenn der Unterschied zum i9-9900k in vielen synthetischen Benchmarks gar nicht allzu groß ausfällt bzw. mal Intel, mal AMD die Nase vorn hat.

Mich würde daher mal - Stand heute - interessieren zu welchem Modell Ihr aktuell greifen würdet wenn ihr heute etwas bestellen müsstet - und warum. Ich beschränke die Auswahl in der Tat mal künstlich auf diese beiden Varianten da ich den Bereich auf etwa 500€ für die CPU maxen würde - im Forum könnt ihr aber natürlich auch weitere Alternativen diskutieren - etwa ob Ihr gar noch auf den 3950x warten würdet etc pp.

Space


Antwort von HerrWeissensteiner:

Ich stehe vor der gleichen Entscheidung (4970k+GTX1080). Ich arbeite primär in Premiere und After Effects.

Nach vielen Tests, glaube ich dass der 9900k für meine jetzige Arbeitssituation ein wenig mehr Leistung bringen würde. Ich habe mich trotzdem für den 3900x entschieden, da ich davon ausgehen, dass die Multicore-Nutzung von Anwendungen besser und besser werden. Zusammen mit PCI 4 setzte ich darauf, dass ich langfristig mehr Power (und Freude) mit dem 3900x haben werde.

Dazu kommt natürich noch, dass je mehr Erfolg AMD mit Ryzen 3 hat umso mehr muss sich Intel ins Zeig legen oder billiger werden.

Space


Antwort von speven stielberg:

Laut c't 17/19 spricht für den AMD das neue PCI Express 4.0. mit "deutlich schnelleren Schnittstellen für Grafikkarten, SSD und USB-Geräte". Für Video ist das sicher interessant.
Ärgerlich fand ich, dass drei der vier getesteten Boards wieder - wie früher - Chipsatz-Lüfter haben. Ich lege Wert auf möglichst lautlose Rechner. Chipsatz-Lüfter sind für mich ein NoGo!
Vielleicht kriegst Du ja irgendwo noch die c't. Samstag kommt die neue.

Space


Antwort von motiongroup:

https://www.pugetsystems.com/all_articles.php

lies dich mal ein und erkenne die vermeintliche notwendigkeit einer neuanschaffung

Space


Antwort von rush:

Worauf willst Du konkret hinaus @ motiongroup?

Beim überfliegen der Artikel komm ich praktisch fast zum selben Ergebnis wie es dort auch am Photoshop Beispiel angeführt wird:

"However, the performance advantage over Intel is really only a handful of percent"

Gleiches gilt demnach etwa für Premiere.

Bei Resolve scheint der Unterschied dann doch etwas höher auszufallen zugunsten des AMD's.

Interessanter ist also eher wie die Softwarehersteller die CPU's ansprechen und handlen - und ob Tools wie QuickSync (Premiere, Edius) genutzt werden - denn damit steht und fällt es ja teilweise sehr deutlich ob Intel mithält/vorn liegt oder der Ryzen besser perfomed.

Wirklich erhellt bin ich beim - zugegebenermaßen - nicht vollends intensiven lesen der Beiträge jedenfalls nicht so ganz. Auch fehlt mir leider der Vergleich zu wirklich älteren Systemen wie meinem Haswell um ein Gefühl zu bekommen wie stark der Sprung tatsächlich ist. Und die Intel Plattform ist nach Pudget ja nach den Jahren quasi fehlerfrei weil länger im Markt mit allen Fixes etc... x570 ist dagegen noch neu - und die Lüftergeschichte im Board selbst find ich auch etwas schwierig zu beurteilen.

Natürlich kann man auf anderen Seiten auch entsprechende CPU Single/Multicore Ergebnisse vergleichen - aber das sind dann eben fiktive Zahlen zum 4770er... Der Sprung wäre sicherlich enorm - aber auch jene Systeme mal als Beispiel mit heranzuziehen wäre natürlich deutlich spannender (für mich).

Space


Antwort von motiongroup:

Worauf willst Du konkret hinaus @ motiongroup? auf die vermeintliche notwendigkeit einer Neuanschaffung..

Space


Antwort von srone:

mal so kurz meine erfahrungen, von amd bin ich weg, weil so über die jahrzehnte, immer mal was nicht wirklich kompatibel war (gerade bei nle"s und sonstiger grafik-software), also konserativ intel/nvidia, meine aktuelle kombi 9700k/rtx2070 auf gigabyte designare z370 board, 32 gbyte corsair 3200er ram, eine 1tb crucial nvme mit 2000 MB read.

ja board ist teuer (270,-) aber traumhaft ausgestattet (ua thunderbolt3) und lässt raum für mehr, dafür gebe ich gerne geld aus, genauso wie für ein seasonic 750w gold netzteil, das ist die basis eines jeden rechners.

sowohl bei cpu als auch gpu, bin ich seit jahren fürs zweitbeste modell, da preisleistungsmässig einfach viel besser, und erstmals ein leichter shift richtung mehr grafikpower, da ich fast nur noch resolve benutze.

@rush ich wäre auf den vergleich 9700k/rtx2070 vs 9900k/gtx1070 gespannt...:-)

lg

srone

Space


Antwort von rush:

Spannend - bisher steht es im Voting der beiden 5:5

Space


Antwort von speven stielberg:

rush hat geschrieben:
Wirklich erhellt bin ich beim - zugegebenermaßen - nicht vollends intensiven lesen der Beiträge jedenfalls nicht so ganz. Auch fehlt mir leider der Vergleich zu wirklich älteren Systemen wie meinem Haswell um ein Gefühl zu bekommen wie stark der Sprung tatsächlich ist. Und die Intel Plattform ist nach Pudget ja nach den Jahren quasi fehlerfrei weil länger im Markt mit allen Fixes etc... x570 ist dagegen noch neu - und die Lüftergeschichte im Board selbst find ich auch etwas schwierig zu beurteilen.
Und wieso meinst Du, dass Laien, bzw. Intel- oder AMD-Fanboys Dich erhellen könnten? :-)
Ich bekomm von den heise-Leuten kein Geld. Trotzdem empfehle ich die gerne, weil die - meiner Meinung nach - wirklich kompetent und objektiv/unabhängig sind. Internetschreibern glaub ich nur noch unter Vorbehalt. Zum Beipiel schau ich, bevor ich eine Internetseite lese, erst mal, ob da auffällig viele Amazon-Links drin sind. Wenn ja, ist die Seite für mich gleich gestorben.

Space



Space


Antwort von rush:

"speven stielberg" hat geschrieben:
Zum Beipiel schau ich, bevor ich eine Internetseite lese, erst mal, ob da auffällig viele Amazon-Links drin sind. Wenn ja, ist die Seite für mich gleich gestorben.
Natürlich kann sowas durchaus Geschmäckle haben - auf der anderen Seite habe ich nichts dagegen wenn Leute über diese Links ein paar cent dazuverdienen wollen. Muss man ja bekanntlich nicht anklicken und wenn sowohl entsprechende Links zu Intel als auch AMD vorhanden sind - why not? Irgendwie muss sich geschriebenes Wort ja refinanzieren, wenn schon beinahe keiner mehr Geld für Print ausgibt. Mal gucken ob ich die c't noch irgendwo bekomme.

Mich interessieren vor allen auch praktische Erfahrungen - ob da nun ein Laie oder entsprechender "Fanboy" seinen Senf zu abgibt kann durchaus spannend sein - am Ende zieht man dann sowieso die Essenz heraus und wägt entsprechend ab. Und bisher blieb unsachliches bzw. Fanboy-Gebrabbel hier im Thread eher aus denke ich.
Aber vielleicht gibt es ja den ein oder anderen Umsteiger oder jemanden der - privat oder beruflich - bereits mit dem ein oder anderen in Berührung kam und Eindrücke mitteilen kann. Der 3900x ist ja bisher eher homöopathisch vertreten - aber insbesondere für einige videoaffine Anwendungen wie Resolve offenbar kein schlechter Partner nach dem Pudget-Link vonmotiongroup.

Die Frage die ich mir bspw. auch stelle: ist ein Z370 / Z390 Board auch für kommende Intel CPU's gerüstet? Gleiches gilt für AMD... ist ein x470 ausreichend oder sollte man wenn, dann direkt auf ein x570er gehen?

Natürlich ist meine jetzige CPU halt schon auch ein paar Tage alt und man kann sicherlich nicht erwarten das man nach 6 Jahren einfach ein neues Gehirn einsteckt und der Hobel weiterrollt- auch wenn es natürlich attrakiv klingt. Praktisch geht's halt leider nicht.

Insbesondere PS und LR machen mir in letzter Zeit doch mehr zu schaffen... die 42MP RAW Dateien sind schon kein Pappenstil und in PS habe ich schnell mal 10 Effektebenen nebst Filtern... und das ist häufig nicht das Ende der Fahnenstange. Und da merke ich den 4770er halt schon ordentlich ackern und sehe hier und da gefühlt zu lang den Ladebalken beim Anwenden von z.b. den NIK-Filtern.

Space


Antwort von speven stielberg:

Nochn Nachtrag von einem langjährigen Rechner-Bastler: man erhofft sich eigentlich IMMER viel zu große "Performance-Sprünge" und ist - wenn man dann den neuen Rechner mit dem alten vergleicht - meist enttäuscht. Der einzig wirklich gewaltige Sprung war die Erfindung der SSD. Die brachte wirklich sehr deutlich spürbare Geschwindigkeitssteigerungen.

Space


Antwort von rush:

Yo da bin ich bei Dir... SSD war damals der Turbo schlechthin wenn man das System vorher von HDD's bootete.

Wobei ich meine Systeme i.d.R. wirklich über mehrere Jahre fahre und der Sprung dann schon spürbarer ist als bei Leuten die alle 2 Jahre switchen.
Zumindest der Vergleich von i7-4770K vs i7-9900k dürfte irgendwo zwischen 50-100% syntehtische Mehrleistung bringen - sofern alle Cores entsprechend unterstützt und bedient werden...

Der Ryzen 3900x kommt im synthetischen "CPU Mark" gar auf mehr als 30.000 Punkte - gegenüber dem i7-4770K wäre das schon ein deutlicher und letzten Endes vermutlich auch fühlbarer Schub - je nach Anwendung im MultiCore Bereich.
cpu vergleich.jpg Quelle:
https://www.cpubenchmark.net/compare/In ... 3334vs3493

Space


Antwort von speven stielberg:

rush hat geschrieben:
Die Frage die ich mir bspw. auch stelle: ist ein Z370 / Z390 Board auch für kommende Intel CPU's gerüstet?
Aus zwanzigjähriger Erfahrung (oder sind es schon 30?) kann ich Dir schreiben, dass ICH noch NIE eine neue CPU in ein altes Bord gestöpselt habe. Eben wegen des meist enttäuschenden Geschwindigkeitsvorteils. Wenn neu, dann ALLES neu. Board, Speicher und CPU.

Space


Antwort von speven stielberg:

rush hat geschrieben:
Zumindest der Vergleich von i7-4770K vs i7-9900k dürfte irgendwo zwischen 50-100% syntehtische Mehrleistung bringen - sofern alle Cores entsprechend unterstützt und bedient werden...
Hm, ich hab, um mich gegen Ausfälle abzusichern, neben meinem jetzt seit vielen Jahren wunderbar funktionierendem i7-4.../16 GB einen i7-8.../32 GB zusammengeschraubt und find den Unterschied - also auch wenn z.B. Handbrake mal ne ganze Zeit werkelt - jetzt nicht sonderlich beeindruckend ... Und dass der i7-9... jetzt nochmal soooo wahnsinnig schneller ist, als der i7-8... würde mich jetzt auch sehr wundern.

Ach ja, und weil das so ist, arbeite ich weiter auf meinem wunderbaren i7-4 ... (mit Win7!) und der "neue" i7-8... steht rum und langweilt sich. :-)

Ein letztes Edit (weil ich ja, wie im Nachbar-Fred geschrieben, im Gegensatz zu anderen hier acht Stunden pro Tag arbeite (n muss) :-) ): ich denke, die Prozessoren bekommen heute zu viel Aufmerksamkeit. Ob i7-4 oder i7-9 ist nicht so wichtig. Gerade im Grafik/Video-Bereich bringt viel RAM und eine potente GraKa wahrscheinlich mehr.

Space


Antwort von mash_gh4:

"speven stielberg" hat geschrieben:
Aus zwanzigjähriger Erfahrung (oder sind es schon 30?) kann ich Dir schreiben, dass ICH noch NIE eine neue CPU in ein altes Bord gestöpselt habe. Eben wegen des meist enttäuschenden Geschwindigkeitsvorteils. Wenn neu, dann ALLES neu. Board, Speicher und CPU.
geht mir genau gleich! -- und auch der erfahrungszeitraum, auf den sich das bezieht, ist ähnlich oder vielleicht sogar ein bisserl größer. ;)

allerdings hab ich immer weit weniger mit desktop-systemen als mit servern zu tun gehabt. trotzdem hab ich auch diese oft im vorfeld über wochen und monate hinweg im testbetrieb als arbeitsplatzrechner und für entwicklungsaufgaben genutzt, um sie derart bewusst zu strapazieren und ganz praktisch zu prüfen, bevor sie dann, wenn alles gut gegangen ist, in den produktionsbetrieb übernommen wurden.

es ist aber ganz erstaunlich, wie hoch die quote an hardware war, bei der sich in dieser phase gröbere probleme gezeigt haben, die sich trotz aller anstrengungen nicht sauber beseitigen ließen, und daher dann letztlich auch nicht für verantwortungsvollere aufgaben herangezogen werden konnten.

diese beobachtung beunruhigt mich noch immer, da ich ja mittlerweile auch nicht mehr ganz so großzügig und selbstverständlich mit entsprechenen ressourcen jonglieren kann und laufend neues sehe, wie dass in größeren institutionen üblich ist. wenn man im kleinen privaten rahmen agiert, läuft das oft auf ein glücksspiel hinaus, dessen ausgang man kaum in der hand hat.

Space


Antwort von rush:

"speven stielberg" hat geschrieben:
rush hat geschrieben:
Zumindest der Vergleich von i7-4770K vs i7-9900k dürfte irgendwo zwischen 50-100% syntehtische Mehrleistung bringen - sofern alle Cores entsprechend unterstützt und bedient werden...
Ein letztes Edit (weil ich ja, wie im Nachbar-Fred geschrieben, im Gegensatz zu anderen hier acht Stunden pro Tag arbeite (n muss) :-) ): ich denke, die Prozessoren bekommen heute zu viel Aufmerksamkeit. Ob i7-4 oder i7-9 ist nicht so wichtig. Gerade im Grafik/Video-Bereich bringt viel RAM und eine potente GraKa wahrscheinlich mehr.
Nun - in der Videowelt hängt es eben stark von der genutzten Software ab. Das ist ja das Dilemma.

Edius ( das ich seit gefühlten Dekaden nutze ) profitierte bisher fast nie von einer dedizierten und teuren Grafikkarte - Intels interne quicksync-Technologie brachte aber beim rendern einen enormen Punch.

Resolve wiederum giert förmlich nach GraKa Power - ob quicksync hier in neueren Versionen überhaupt Vorteile bringt weiß ich daher gar nicht.

Vielleicht bleibt der i7 ja auch noch ein Weilchen.. Aber so als Winter-Projekt könnte ich mir einen Wechsel durchaus vorstellen..

Space


Antwort von mash_gh4:

rush hat geschrieben:
Nun - in der Videowelt hängt es eben stark von der genutzten Software ab. Das ist ja das Dilemma.
...
Resolve wiederum giert förmlich nach GraKa Power - ob quicksync hier in neueren Versionen überhaupt Vorteile bringt weiß ich daher gar nicht.
in wahrheit ändert sich das aber auch ständig, kann also schon mit der nächsten version des programms plötzlich ganz anders aussehen...

und oft sind es auch einfach völlig unhaltbare vorurteile bzw. höchst fragwürdige empfehlungen, die in der betreffenden szene herumgeistern -- bspw. dass jeder bis vor kurzem unbedingt gleich mehrere GPUs parallel nutzen wollte, um zu den richtigen resolve-profis zu gehören --. die sich dann in der regel wenigstens irgendwann als ziemlicher blödsinn bzw. reichlich ineffizient erweisen.

Space


Antwort von Jost:

mash_gh4 hat geschrieben:
rush hat geschrieben:
Nun - in der Videowelt hängt es eben stark von der genutzten Software ab. Das ist ja das Dilemma.
...
Resolve wiederum giert förmlich nach GraKa Power - ob quicksync hier in neueren Versionen überhaupt Vorteile bringt weiß ich daher gar nicht.
in wahrheit ändert sich das aber auch ständig, kann also schon mit der nächsten version des programms plötzlich ganz anders aussehen...
PCGH testet standardmäßig das Wandeln per Handbrake (1.10) in HEVC 4K. Höchststrafe für die CPU. Klassisches Software-Encoding.

i7-7700K: 418 Sekunden
i7-8700K: 293 Sekunden
i9-9900K: 215 Sekunden
3700 X: 212 Sekunden
3900 X: 149 Sekunden
i9-9980XE: 133 Sekunden

Sinnvoll? Um den Kreis zu schließen: Seit es NVENC gibt und man dort mittlerweile auch ffmpeg für X.265 einbinden kann, spielt die Hardware-Beschleunigung per GPU eine immer größere Rolle - und die CPU verliert an Relevanz.

Space



Space


Antwort von freezer:

"speven stielberg" hat geschrieben:
rush hat geschrieben:
Die Frage die ich mir bspw. auch stelle: ist ein Z370 / Z390 Board auch für kommende Intel CPU's gerüstet?
Aus zwanzigjähriger Erfahrung (oder sind es schon 30?) kann ich Dir schreiben, dass ICH noch NIE eine neue CPU in ein altes Bord gestöpselt habe. Eben wegen des meist enttäuschenden Geschwindigkeitsvorteils. Wenn neu, dann ALLES neu. Board, Speicher und CPU.
Ich habe schon ein paar Mal die CPU gewechselt - um 2001 herum einmal vom Duron mit 650 MHz auf einen Athlon mit 1200 MHz und 2006 von einem Intel Core2Duo auf einen Core2Quad.
Aber ansonsten hast Du ganz recht. Oft ist ein neues Board notwendig und dann folgt daraus auch ein kompletter Tausch auf eine neuere Speichergeneration. Und wenn das System nur alt genug war, dann lässt sich nicht mal das Gehäuse sowie Netzteil recyceln.

Space


Antwort von freezer:

Jost hat geschrieben:
Sinnvoll? Um den Kreis zu schließen: Seit es NVENC gibt und man dort mittlerweile auch ffmpeg für X.265 einbinden kann, spielt die Hardware-Beschleunigung per GPU eine immer größere Rolle - und die CPU verliert an Relevanz.
Vielleicht bin ich nicht am neuesten Stand, aber ist nicht ein Problem des GPU Encodings per NVENC, dass die erreichbare Bildqualität schlechter ist, als per CPU Encoding?

Space


Antwort von dosaris:

freezer hat geschrieben:
ist nicht ein Problem des GPU Encodings per NVENC, dass die erreichbare Bildqualität schlechter ist, als per CPU Encoding?
ja, kann sein, muss aber nicht so sein.
Das kann nach dem nächsten Rel.-Update wieder völlig anders sein.

Encoding auf GPU od CPU sind völlig unterschiedliche Encoder, die haben nix miteinander zu tun.

Space


Antwort von freezer:

dosaris hat geschrieben:
freezer hat geschrieben:
ist nicht ein Problem des GPU Encodings per NVENC, dass die erreichbare Bildqualität schlechter ist, als per CPU Encoding?
ja, kann sein, muss aber nicht so sein.
Das kann nach dem nächsten Rel.-Update wieder völlig anders sein.

Encoding auf GPU od CPU sind völlig unterschiedliche Encoder, die haben nix miteinander zu tun.
Wie es aussieht, war die GPU-Encoding-Qualität vor den nVidia Turing Modellen schlechter - das ändert sich nun mit Hilfe der Tensor Cores:
https://devblogs.nvidia.com/turing-h264 ... d-quality/

Space


Antwort von mash_gh4:

freezer hat geschrieben:
Wie es aussieht, war die GPU-Encoding-Qualität vor den nVidia Turing Modellen schlechter - das ändert sich nun mit Hilfe der Tensor Cores:
https://devblogs.nvidia.com/turing-h264 ... d-quality/
die qualität war auch schon bei den letzten generationen ausgesprochen gut. nvidia orientiert sich hier stark am freien x264 project, das im ja im laufe der jahre ganz unglaubliche fähigkeiten bzw. entsprechendes knowhow gesammelt hat. aber auch die intel hardware-de-/encoder sind mittlerweile qualitativ mehr als akzeptabel. es sind also eher irgendwelche nervigen einengungen durch die betreffenden programmierschnittstellen, die das ganze in anspruchsvollerer videoverarbeitungssoftware nicht immer ganz so einfach nutzbar machen wie in irgendwelchen einfachen playern od. transcodern, wo ja in der regel nur ein datenstrom vorwärts laufend prozessiert werden muss. beim schneiden od. komplizierten videoeffekten dagegen, kann das tlw. deutlich komplizierter werden bzw. andere zugriffsmöglichkeiten benötigen.

die tensor cores haben mit diesen geschichten allerdings nicht viel zu tun. deren bedeutung beschränkt sich eher darauf, dass man berechnungen mit geringerer genauigkeit (16 u. 8bit und tlw. sogar noch weniger) damit viel effizienter abwickeln kann. die damit verbundenen schlankeren buffer bzw. größere geschwindigkeit im austausch mit dem restlichen system, kann man natürlich auch in der bild- und videoverarbeitung wunderbar nutzen, wenn man den code dahingehend optimiert. fast unverzichtbar wird derartiges aber erst bei den ganzen momentan immer beliebteren machine learning ansätzen -- die aber mit bildverarbeitungspiplines im grunde sehr viel gemeinsam haben --, die davon umheimlich profitieren. in diesem umfeld gibt's momentan neben CUDA bzw. den dnn-beschleunigungs-libraries von nvida praktisch keine vernünftige alternative. weder für OpenCL, metal, vulkan od. intel ist derzeit gleichwertige od. zumindest akzeptable unterstützung in den dafür gebräuchlichen frameworks in sicht. das ist mit ein ganz zentraler grund, warum man gegenwärtig um nvidea karten fast nicht herum kommt, auch wenn man diese firma deshalb noch lange nicht lieben und für vorbildlich erachten muss.

Space


Antwort von DeeZiD:

Da ich von GPU-Encoding aufgrund der schlechteren Effizienz und Qualität die Finger lasse, kommt für mich nur der deutlich schnellere AMD 3900x eher in Frage. X264 und X265 liefern einfach deutlich bessere Qualität bei deutlich kleineren Dateigroeßen.

Auch redcode läuft damit schneller und für alles andere in Resolve kümmert sich dann die (NVIDIA) GPU. ;)

Space


Antwort von rush:

Für mein Nutzungsverhalten scheint der 3900x nach dem was man so hört und liest momentan durchaus eine interessante Option / Alternative zu sein... Mit Ausnahme der quicksync unterstützten Anwendungen zeigt der 3900x schon interessante und teils respektable Ergebnisse.

https://www.pcworld.com/article/3405567 ... x.amp.html

Bei Edius hänge ich ja noch in Version 8... Aber die aktuelle 9.4 und kommende scheinen auch immer potenter mit CPUs ohne quicksync zu arbeiten - sodass dieses Argument vielleicht nicht mehr ganz so im Vordergrund steht bei mir wie noch vor einiger Zeit.
Durch braw bin ich ja zudem momentan noch mehr oder weniger auf Resolve angewiesen um die RAW Vorteile auch nutzen zu können.

Space


Antwort von mash_gh4:

DeeZiD hat geschrieben:
X264 und X265 liefern einfach deutlich bessere Qualität bei deutlich kleineren Dateigroeßen.
freezer hat ohnehin auch schon weiter oben infos verlinkt, die das gegenteil belegen.
das nvidia dabei sogar geringfügig besser abschiedet, dürfte wohl am ehesten mit der optimierung mathematischer operationen zu tun haben...

https://devblogs.nvidia.com/turing-h264 ... d-quality/
http://on-demand.gputechconf.com/gtc/20 ... g-gpus.pdf (21ff)

aber, wie gesagt, auch für die betreffenden intel lösungen kann man ganz ähnliches finden.
sie haben sich eben beide mittlerweile von x264/5 genug abgeschaut -- aber dazu ist ja freie software durchaus auch da! ;)

Space


Antwort von dosaris:

mash_gh4 hat geschrieben:
DeeZiD hat geschrieben:
X264 und X265 liefern einfach deutlich bessere Qualität bei deutlich kleineren Dateigroeßen.
freezer hat ohnehin auch schon weiter oben infos verlinkt, die das gegenteil belegen.
das lese ich aus den Vergleichen im referenzierten Text nicht heraus.

Es macht keinen Sinn, die Resultate der " high-quality"-Einstellungen eines Encoders
mit denen eines anderen Encoders zu vergleichen.
high-quality ist kein fassbares Kriterium, darunter versteht jeder das, was ihm gerade gefällt.

Für sinnvolle Aussagen müsste man schon gewichtete Bild-Differenz-Messungen machen, die man mit
der Datenrate korreliert.
Sowas sehe ich dort nicht.

Darüber hinaus können die Resultate natürlich dennoch zutreffend sein. Dann aber eher zufällig.

Space



Space


Antwort von mash_gh4:

dosaris hat geschrieben:
Es macht keinen Sinn, die Resultate der " high-quality"-Einstellungen eines Encoders
mit denen eines anderen Encoders zu vergleichen.
high-quality ist kein fassbares Kriterium, darunter versteht jeder das, was ihm gerade gefällt.
die entsprechenden ffmpeg aufrufe sind dort ohnehin ganz klar offen gelegt. sie benutzen die dafür vorsehenen profil-optionen und sind ausgesprochen einfach reproduzierbar. auch wurden für den test die üblichen frei zugänglichen test-clips verwendet. viel mehr kann man fast nicht einfordern, um einen derartigen vergleich zu objektivieren. evtl. könnte moch ein paar weitere qualitätsmetriken hinzuziehen, die sich stärker an humanen wahrnehmung orientieren, aber einen riesigen unterschied würde ich auch dort nicht erwarten...

die entsprechenden qualitätsprobleme bzw. gravierenden -unterschiede gehören in diesem umfeld mittlerweile wirklich der vergangenheit an.

Space


Antwort von killertomate:

Nachdem mein Rechner nun auch schon 7 Jahre auf dem Buckel hat und mit i7 3770 und GTX1060 6GB trotz 32 GB Speicher (aber nur 1333 MHz) so langsam in die Knie geht, wurde auch bei mir ein neues Teil nötig.
Geworden ist es ein AMD Ryzen 3900x mit 64GB DDR4 Speicher (3000 MHz), M2 SSD, großer HDD und 11GB 2080Ti. Relativ teuer - aber wenn der auch wieder 7 Jahre hält, ist's ok. :)

Space


Antwort von rush:

Und... Wie ist der Neue so? ;-)

Das die Kiste so teuer geworden ist dürfte ja primär an der GraKa liegen? Mir persönlich wäre die "too much" - ist aber sicher vom Nutzungsprofil abhängig.

Space


Antwort von killertomate:

rush hat geschrieben:
Und... Wie ist der Neue so? ;-)
Das die Kiste so teuer geworden ist dürfte ja primär an der GraKa liegen? Mir persönlich wäre die "too much" - ist aber sicher vom Nutzungsprofil abhängig.
Kann ich Dir noch nicht sagen: Der ist noch unterwegs und wird nächste Woche ankommen.
Ich habe halt gedacht: Wenn, dann richtig.
Bin gespannt, wie sich 2080Ti beim Rendern von 12 Multicam-Spuren schlägt. Macht sicherlich (hoffentlich ;) ) Spaß.

Space


Antwort von rush:

Ahhh okay - ganz so viele Spuren habe ich sehr selten... Vielleicht bei 'nem Musikvideo Mal 8-10 - aber in HD bin ich da bisher auch in Edius klargekommen und konnte quasi problemlos on the fly Multicam-Projekte schneiden.

In Resolve habe ich bisher nur kleinere Testprojekte editiert um zu schauen was geht... Multicam habe ich da noch nicht getestet und bin durch Edius auch ein wenig quick sync verwöhnt - einer der Gründe die mich zu diesem Thread bewogen haben.

Beim 3900x bin ich kurz davor schwach zu werden - allerdings bringt der keinerlei igpu mit...bei Intel waren zwar die Chips "teurer" dafür benötigte man für Edius bspw. lange keine dedizierte GraKa. Kosten/Nutzenmäßig war das also kein Thema.

Wenn man aber auf neuen Formate wie braw geht verändern sich die Verhältnisse. 1-2 Spuren kann ich noch per PIP mit primitiven Nodes wiedergeben - sobald es anspruchsvoller wird kommt man aber an die Grenzen. Dann stellt sich die Frage: was bringt's mehr ? CPU oder GPU? Resolve kenn ich dahingehend einfach schlecht... Meine Projekte sind eher wenig effektbehaftet - ein wenig color Grading hier und etwas Schärfe dort... Aber ansonsten keinerlei vfx oder cgi Spielereien.

Kurz: Berichte gern von deinen Erfahrungen - würde mich interessieren...

Space


Antwort von Onkel Danny:

Also als alter Intelianer,
würde ich Heute trotzdem zu AMD tendieren.

Weil: günstiger Preis, weniger Stromverbrauch, mehr Multicore Leistung, weniger Sicherheitslücken.
Das gepaart mit einer Nvidia Graka.
Und die 2080ti kann auch ich nur empfehlen aber: teuer, Stromverbrauch hoch, dafür
stimmt die Leistung. So eine muss natürlich nicht gleich sein ;)

Welcher AMD aber nun. Die neue Plattform auf X570 Basis hat alle Neuheiten intus. Dafür aber auch einen Aktiv gekühlten Chipsatz. Also entweder auf den B550 Chipsatz warten und hoffen das dieser passiv gekühlt wird.

Oder zu einem älteren X470 greifen, dafür aber kein PCIe 4 haben. Welches mit verlaub, etwas überbewertet wird, solange man keine Mehrzahl an M.2 SSD's verbaut. Denn die Graka's brauchen es nicht. Nachteil hier, der X470 wird nicht mehr aufwärtskompatibel zu den nächstjährigen CPU's sein.

Mein Tipp auf den B550 und den kommenden Threadripper warten und dann entscheiden.
Soll beides noch dieses Jahr erscheinen.

Bezogen auf Multicore und Videoverarbeitung, ganz klar den AMD vorziehen.

Für OC Fans sei hier noch angemerkt, das die neuen AMDs, nicht mehr so großes OC Potential haben, wie ältere Generation sie noch hatten.

Und ja, in Zukunft wird das Encoding per GPU immer wichtiger werden. Mal ein Beispiel: Handbrake einmal H.265
per CPU und einmal per GPU gerendert. CPU 5FPS und GPU 50FPS.

Der Performancevorteil der GPU ist ungeschlagen.

Die Qualität wird noch bei der CPU etwas besser sein, aber auch nicht mehr ewig. Und je nach Endanwendung
spielt es Heute schon keine große Rolle mehr.

Man hat also die Qual der Wahl.

greetz

Space


Antwort von rush:

@Onkel... Beim i9-9900k ist ja eine iGPU quasi mit auf der Platine... Kann die Software entsprechend damit umgehen ist die Geschwindigkeit teils gar nicht so gravierend anders - und auch qualitativ wird es ja scheinbar immer besser/ähnlicher wenn neueste Implementierungungen genutzt werden... Wenn.

Für mich war das damals tatsächlich der Grund auf einen i7 mit integriertem quick sync zu gehen weil Edius bereits in der 6er Version darauf aufsetzte und enorm von profitierte - eine teure dedizierte Grafikkarte konnte man sich faktisch und auch praktisch tatsächlich sparen innerhalb Edius...

Mit den aktuelleren Versionen werden dedizierte GPUs sicherlich auch besser unterstützt und rennen - aber damals war die igpu in der Tat ein Kaufanreiz in der Konstellation Edius/Intel.

Da ich aber tendenziell auch in Richtung Resolve schiele (aufgrund braw meiner P4K) ändert sich das Verhältnis etwas und entsprechend ginge meine Tendenz auch zum 3900x.
Bin Mal gespannt wie der 3950x so perfomen wird und was Intel nach den Mobillösungen nachschieben wird. Noch drückt der Schuh nicht ganz so akut aber in Richtung Winter befasse ich mich sicherlich nochmal etwas intensiver damit.

Space


Antwort von rush:

Mittlerweile ist - aufgrund eines in meinen Augen recht attraktiven "Aufrüst-Deals" - die Entscheidung zugunsten des Ryzen 9 3900x doch noch vor dem Winter gefallen.
Dieser wird auf einem "älteren" B450m Board von ASRock nebst DDR4-3200 16GB Dual-Channel RAM seinen Platz finden.
Meine 500GB System SSD und die Daten HDD's sowie die GTX1070 werden entsprechend mit "umziehen".

Damit sind die gut 6 Jahre mit dem treuen i7-4770K nun bald gezählt - der Intel i7 war in all den Jahren ein absolut solides und problemloses Arbeitstier - mal schauen wie sich der AMD in der Hinsicht so schlagen wird.

Danke für Euer Feedback, Gedankenanstöße und Meinungen.

Vielleicht berichte ich mal bei Zeiten von den ersten Eindrücken wenn das System angekommen und verbaut ist. Insbesondere unter Photoshop & Lightroom vespreche ich mir endlich merklich mehr Dampf unter'm Kessel - natürlich auch unter Resolve... wobei braw auch so noch eben "brauchbar" auf meiner betagten Kiste lief - vielleicht nicht im Mehrkamera-Setup aber auf einer bis max 2 Spuren schon.

Edius werde ich vermutlich vorerst nicht mehr upgraden - das ging auch in die Überlegung der Kaufentscheidung mit ein. Das Workgroup-Update auf die 9er bzw. 10er liegt mit knapp 450€ einfach über meinem Budget - natürlich könnte man auch auf die "reguläre" Pro Version zurückgehen, aber da ich mit jetzt primär mit braw unterwegs bin versuche ich mich mehr mit Resolve zu beschäftigen.

Space


Antwort von rush:

Erstes "Feedback": Bähmmmm - das Teil (der Ryzen 3900x) ist endlich da, verbaut und schnurrt bisher tadellos und mehr als zufriedenstellend.

Da die Lieferzeiten des 3900x ja bisher weiterhin eher so "lala" sind hat es doch etwas länger gedauert als gedacht - aber der Händler hat es dann doch noch gepackt mir meine "Aufrüst-Kiste" zusammenszustellen & auszuliefern.

Nachdem ich einige Kabel etwas umgelegt habe (etwas eigenartig vorverkabelt gewesen im Gehäuse), meine SSD, HHD's und Graka aus dem alten System verbaut hatte durfte die Maschine das Licht der Welt erblicken. Zu meinem Erstaunen konnte ich meine Windows-Partition direkt weiterverwenden ohne etwas neu installieren zu müssen. Sicherlich ist eine vollständig "cleane" Installation noch etwas cleverer - aber ich wollt es erstmal so testen.
Das ABBA Agesa Update für das ASRock Board steht noch aus... ist bisher nicht erschienen aber soll wohl noch kommen.

Im Produktivbereich ist wie zu erwarten bereits ein massiver Schub eingetreten... Resolve schnurrt nun mit jeglichen Material - inkl. 10bit h.265 - wie ein Kätzchen und insbesondere auch im Bereich der Musikproduktion bin ich überrascht und kann plötzlich sehr viel geringere Latenzen in meiner DAW problemlos fahren als dies an meinem i7-4770k noch der Fall gewesen ist (bei identischem Audio-Interface/gleichen Treibern versteht sich).

Auch Photoshop&Lightroom bereiten wieder Freude im Alltag wenn man mal mehrere Batches "entwickeln" muss.

Der günstige Cooler Master H412R hält die Temperaturen überraschenderweise völlig solide im Rahmen - da wurde meine (zugegeben übertatktete) 4770er Maschine sehr, sehr viel wärmer beim Prime95 Stresstest und Vollauslastung.
Diverse Benchmarks erreichen in etwa dieselbe Leistung wie man sie im Netz nachlesen kann.

Kurzes Fazit: Für ~800€ für die Aufrüst-Komponenten (siehe Thread darüber) bin ich aktuell mehr als zufrieden mit dem Upgrade nach 6 Jahren.

Space



Space


Antwort von Tscheckoff:

Ah. Noch einer der gerade auf den 3900er umsteigt ^^.

Bin auch gerade am Wechseln (aktuell noch auf ein gutes X470er + 2700x aber dann später dann mal auf den günstigeren 3900 non-x wenn er denn mal lieferbar sein wird). Aktuell hätte ich sogar den 9900k + Z390 gehabt - Aber bin jetzt schon beim Umsteigen (damit ich für den 9900er auch noch etwas mehr bekomme - Der wird ja auch bald mal ins Bodenlose fallen. Ist ja aktuell sogar schon unter 400 gefallen - Und leider muss ich ihn erst verkaufen *möp* ...). Bez. 9900k vs. 3900 / 3900x: Das große Problem beim 9900k ist einfach die enorme Hitze die er produziert. Bzw. dass viele Boards damit auch nicht so gut klar kommen (musste meinen immer etwas niedriger takten um die Wandler nicht so hoch zu belasten - Die Spulen begannen nämlich sonst leicht zu vibrieren / surren - Trotz Z390er Board). Hatte sogar ein zweites Z390er Board (vor dem aktuellen) - Das war noch um VIELES schlechter bez. dem Surren / Fiepen bei höheren Belastungen. Schon recht nervig wenn das passiert.

Bzw. auch noch relevant: Mit Luft gekühlt (NH-U12S + 2x 120er Lüfter) ist der 9900k voll und ganz am Limit des machbaren bez. der Temperaturen. Wirklich EXTRA LEISE kühlen lässt er sich unter anderem auch nur schwer bis gar nicht - Da hat das Verlöten der Die / des Spreaders auch nicht viel gebracht. Klar - Da ist der (übergangsmäßige) 2700x den ich jetzt habe auch nicht um die Welt besser. Ist aber auch nicht viel langsamer (da ich den 9900er auch niedriger takten musste). Und immerhin sollten die neuen ZEN 2 da schon ne Ecke besser laufen (mal sehen was machbar ist, wenn ich mal auf den 3900er wechsle). Kann den 2700x übrigens als Übergangs-CPU wärmstens empfehlen - Habe ihn um 170€ inkl. Versand bekommen (gibt immer wieder Angebote hier und da) - Da kann bzw. darf man nicht meckern ^^.

Welches Board hast du eigentlich? X470er Taichi oder das 580er?
(Habe das Asus VII X470er günstig bei Amazon geschossen um nur 210€ inkl. Versand.) LG

Space


Antwort von rush:

Du hast den i9-9900k und willst umsteigen? Mhhh okay... Ob der Unterschied da so massiv ausfallen wird? Abgesehen von den thermischen Problemen/Schwierigkeiten von denen du sprichst scheint der 9900k doch ebenfalls eine Top Maschine zu sein.
Ich bin vom betagten 4770k umgestiegen... Das ist schon eine andere "Welt" (auch wenn ich den Begriff ungern verwende).

Ich habe mich vom Trend der "zwingend neuen" Boards nicht anstecken lassen sondern bin auf ein altes ASRock mit B450er Chipsatz gegangen (B450m Pro4-F um ~70€).

Bisher blieb der 3900x auch unter Last mit dem günstigen CoolerMaster Lüfter um 70° warm - was ich als sehr respektabel einstufen würde. Werde das aber nochmal mit einem längeren Prime Zyklus verifizieren weil es mir fast zu gut erscheint.

Mein 4770k lief unter Volllast auf über 90° heiß - bei deutlich massiveren Lüfter.

Im Idle liegt der 3900x dagegen so um 40°.

Irgendein Sensor scheint jedoch zu hohe Werte auszuspucken: ein als "Auxialiry" bezeichneter Sensor liegt konstant um 90° - auch schon kurz nach dem Einschalten... Erhöht sich dann aber auch unter Volllast kaum... Daher gehe ich von einer Falschauslese oder dergleichen aus.

Space


Antwort von Tscheckoff:

Ja. Macht auf den ersten Blick nicht viel Sinn ich weiß. ^^

Aber ich musste / muss den 9900k auf 4,2GHZ all core takten um ihn kühl als auch HALBWEGS leise zu halten mit dem NH-U12S. Ab 4,4GHZ fang das aktuelle Board an zu nerven (Spuren begannen eben zu surren etc.) und bei 4,4GHZ waren mir die Temperaturen einfach zu hoch (trotz doppelter Lüfter-Bestückung am NH-U12S - Habe den zweiten Lüfter extra wegen dem 9900k nach-gekauft / montiert). Seit dem Zusammenbau bzw. den Tests nach dem Zusammenbau lief er also nur auf 4,2GHZ. Bin dieses Wochenende eigentlich gerade am umsteigen bzw. Daten sichern - Nur so nebenbei erwähnt ^^. Und hier kommt der Punkt FÜR den 3900er (der ja reinkommen soll später): Beim aktuellen Takt den ich mit dem 9900k fahren muss ist er nicht mehr wirklich besser als der 3900er auf dem selben Takt. Einige fragen sich jetzt wahrscheinlich wieso ich ihn nicht einfach auf Standard-Settings gelassen habe und fertig. Beide Boards die ich hatte (Z390er Mittelklasse-Boards von Asus als auch Gigabyte) hatten Spulen-Probleme / Belastungs-Probleme bei normalem 0815 all core boost bzw. bei den normalen Turbo Settings. Komplett leise (bez. der Spulen) bekam ich das Setup eben erst unter bzw. bei 4,4GHZ all core. Und das bei einem gedämmten Gehäuse. Traurig aber wahr - Das war der Grund Nr.1.

Zweitens möchte ich eben noch schnell den 9900er los werden bevor er wertlos wird. Da kam mir ein guten 2700x Angebot (und Asus VII X470er Angebot) gerade recht. Game Bundle gibt es auch noch (muss ich aber erst nachsehen ob man das abstoßen bzw. veräußern kann). Asus gibt übrigens auch gerade Cashback auf ein paar AMD Boards btw. (gar nicht mal so wenig falls sich wer dafür interessiert - Für das X470er VII sind es sogar 85€ glaube ich - Aber habe es leider in Italien bei Amazon bestellt. D.h.: Kein Cashback möglich. Naja. Trotzdem ein sehr guter Preis / habs zu nem ähnlichen Preis bekommen im Endeffekt.)

Als dritten Punkt kann - und muss - man dann nochmals (extra) die Temperaturen erwähnen beim 9900k. Die sind DERART schlecht verteilt über die ganzen Kerne (da die Verlötung eher "schlecht als recht" ist von Intel). D.h.: Wegen ein paar Kernen hat man dann Temperatur-Probleme bzw. Throttling auf jenen Kernen bzw. auf der ganze CPU eigentlich (und das möchte man ja auch nicht wenn man ehrlich ist). So als Zusatz-Info: Bei mir sind es ganze drei Kerne die komplett ausarten von den Temperaturen her (beim 9900k). Sogar 8 oder 9° Unterschied teils wenn ich mich jetzt recht erinnere. Oder waren es sogar 10° - Weiß es jetzt nicht mehr ehrlich gesagt. Es war bzw. ist einfach sehr viel. Manche 9900er sind da besser - Manche schlechter. Aber die Masse hat genau solche Probleme (leider).

Alles in allem ist der 9900k einfach keine derart gute CPU - Kann ich besten Gewissens behaupten nach mehr als einem Jahr Benützung ^^.
Akzeptabel und schnell laufen tut er ja. Aber wirklich perfekt bzw. problemlos lief er bei mir nie. Und das auf zwei unterschiedlichen Boards (Gigabyte als auch Asus).
Bzw. ein drittes Z390 Board wollte ich jetzt auch nicht bestellen ehrlich gesagt. Da war ich froh nach dem 2ten Board endlich ein einwandfrei laufendes System zu haben.

Ach ja - Bez. dem CoolerMaster und 3900x um die 70° unter Last -> Das ist erfreulich zu hören ^^. Wie ist denn die Temperatur-Verteilung über die Kerne hinweg?
(Die Temperaturen sollten ja auch schon allein dadurch besser sein, dass beim AMD 3900er zwei Chiplets mit je 6 Kernen verwendet werden.
Auch einer der Gründe wieso ich darauf umsteigen will neben der höheren Kernzahl im Vergleich zum 9900k - Die Kern-Verteilung unter dem Spreader ist viel besser.)
Board habe ich auch extra ein älteres X470 genommen (das hat noch keinen Lüfter wie das X570er und die sind auch günstiger - Wer "braucht" schon PCIe 4.0 ^^.)

Btw. - Hier die komplette Google-Doc-Liste der aktuellen Boards, die gut mit X470 bzw. B450 (als auch X570) laufen:
(Mit Schwerpunkt auf die Belastbarkeit der Stromversorgung - Was für den 12-Kerner und besonders den kommenden 16-Kerner relevant ist.)

https://docs.google.com/spreadsheets/d/ ... =611478281

LG

Space


Antwort von rush:

Tscheckoff hat geschrieben:

Ach ja - Bez. dem CoolerMaster und 3900x um die 70° unter Last -> Das ist erfreulich zu hören ^^. Wie ist denn die Temperatur-Verteilung über die Kerne hinweg?
Welches Tool kann denn die Temperatur-Verteilung über die Kerne hinweg anzeigen/darstellen?
HWMonitor etwa zeigt mir nur die Spannung bzw. Stromverbrauch in Watt pro Kern an...

HWInfo zeigt die beiden Dies an glaube ich (meintest Du das?): Da schwanken beide TDies jeweils um ein paar Grad (max 5-6° Differenz unter prime95).

Habe prime eben auch nochmal 20 Minuten rödeln lassen... jetzt ist das Gesamtpaket bei 74° im Peak angekommen - allerdings hat er sich dann recht schnell wieder bei 65° eingependelt (siehe screenshot).
3900x_prime95.jpg
Übrigens zu deiner Liste... dort ist beim ASRock B450m Pro4 folgendes angegeben: 3 Phasen...
AS Rock selbst schreibt auf der eigenen Seite: "9 Power Phase design". Kann damit nicht ganz soviel anfangen - aber wie ist das zu verstehen? Wahrscheinlich eher ein Marketing-Trick oder sowas?
Beim "B450M Steel Legend" dagegen steht auf der AsRock Seite "6 Phases" (in der verlinkten Liste ist es wiederum mit 4 Phasen gelistet). Irgendwo ist da also der Wurm drin denke ich.

PS: Viel Spaß/Erfolg beim aktuellen Zwischenumstieg auf den kleineren 2700xer Ryzen!

Space


Antwort von Tscheckoff:

"Core Temp" zeigt z.B. alle Kerne an.
Gibt aber auch noch andere Tools.

Ja. Das werden die beiden Chiplets bzw. die beiden Dies sein die in HWInfo angezeigt werden (die CCD1 und CCD2 Tdie Werte). Prime mit Small FFTs oder besser noch "LinX" über längere Zeit laufen lassen. Wenn"s mit LinX stabil läuft - Läuft er garantiert stabil ^^. (Gibt da auch noch andere Tools - Aber LinX verwende ich jetzt schon ewig zum Stabilitäts-Testen und hat bisher immer bestens geklappt.) Aber aufpassen - Mit den höheren Belastungen kommst du natürlich auch von den Temperaturen her viel höher. Also die Temps etwas im Blick halten. Man sieht normal auch einen deutlichen Temperatur-Unterschied zwischen LinX und Prime95 (bzw. die Temps steigen viel schneller an). Ach ja - Aufpassen: Die Spannungs-Wandler werden mit LinX natürlich auch viel höher belastet - Wenn du ein schlecht gelüftetes Gehäuse verwendest, vielleicht nicht unbedingt nen Dauer-Test mit LinX machen (über Tage) ^^.

Ach ja - Wirklich stabil nennen kann man das ganze erst nach ein oder zwei Stunden (mindestens). Mache ich zumindest immer so mit LinX. Dann hat man mit "normalen" Belastungen garantiert keine Probleme mehr (auch nicht mit nem Rendering das nen 1/2 Tag oder Tag lang dauert z.B.). Das ganze Testen läuft übrigens auf dein eigenes Risiko. Wenn dir was abraucht kann ich nix dafür *g*. Alle die hier mitlesen verwenden also jegliche Hinweise und Tools auf eigenes Risiko (um das auch mal klarzustellen). Naja. Ich hoffe mal, dein Gehäuse ist halbwegs gut gelüftet - Dann sollte das Board schon mitspielen. Zumindest wenn die CPU auf Standard-Settings läuft ...

Bez. der Phasen: In der Liste sind die "realen" Phasen angegeben. Die meisten Hersteller verwenden dann zwei Mosfets bzw. Spulen parallel um die höheren Ströme tragen zu können. Bzw. sie listen (leider) gerne die kompletten VRM-Pfade (und nicht die "realen" Phasen die geliefert werden). In deinem Boards scheint es z.B. ein 6+3 Phasen-Design zu sein. Also 3 mal für den Controller-Teil der CPU (und / oder interne GPU + RAM Controller etc.) und 6 für die CPU Dies direkt. Wobei die 6 für die CPU wohl ein 2 mal 3 Phasen-Design verwenden werden (schätze ich mal). D.h.: Zwei "echte" Phasen-Regelungen vom Controller werden dann auf zwei Wege parallel aufgeteilt (mit je einem Mosfet / VRM bzw. einer Spule etc. etc. im Pfad) - Um eben die sehr hohen Ströme stemmen zu können. Daher kommen vermutlich die 3 "echten" Phasen dann auf der Liste. Machen viele Hersteller so. Fazit dabei ist wohl: Du hast 2 "echte" für die CPU dies und 1 "echte" für den Rest dann (der auch in der CPU verbaut ist). Mit je 3 VRMs + Spulen etc. pro Phase.

Solange du die CPU nicht auf das maximum takest bzw. boosten / automatisch takten lässt, sollte das Board keine Probleme machen.
Aber ne gute Lüftung des Ghäuses ist da natürlich pflicht. Ist ja doch ein 12-Kerner (kein 6er oder 8er) ^^. LG

/Edit:/ Hmm. Habe was übersehen - Es sind ja in der Liste 2 Fets je Phase angegeben in der Liste.
Dann sollten es doch 3 reale Phasen mit je 2 paralellen (und nicht 3) high / low FETs sein rein für die CPU Dies / die Chiplets (nagel mich jetzt nicht drauf fest was im Endeffekt stimmt *g*).
Wären dann also 6 phasen für die Werbung. Wo dann die anderen 3 dann herkommen - Gute Frage. Kann sein, dass in der Liste wirklich nur die CPU Phasen stehen (die eben für die Dies direkt verantwortlich sind).
Und dann nochmals zwei für den Rest der CPU (GPU + Controller) und eine Phase für den Speicher z.B. in der Werbung mitgezählt werden. Wer weiß das schon - Hauptsache ne "coole" Zahl steht wo auf der Verpackung *gg*.

Thx btw. fürs Glück wünschen - Der 2700er ist heute erst gekommen.
Morgen wird vermutlich alles umgebaut wenn der Rest gesichert ist.

Space


Antwort von HerrWeissensteiner:

Was denkt ihr über RAM für den 3900x.

Ich will gerne 64Gb Corsair Venegance CMK64GX4M4C3000C15 verbauen. Scheint preismässig hier in Dänemark das beste Angebot zu sein.
Ich habe in meiner Recherche nichts gefunden, dass dagegen spricht - aber auch nicht dafür...

Ich habe meinen 3900x Anfang August bestellt und warte immer noch :-(.


LG Daniel

Space


Antwort von Tscheckoff:

HerrWeissensteiner hat geschrieben:
Was denkt ihr über RAM für den 3900x.

Ich will gerne 64Gb Corsair Venegance CMK64GX4M4C3000C15 verbauen. Scheint preismässig hier in Dänemark das beste Angebot zu sein.
Ich habe in meiner Recherche nichts gefunden, dass dagegen spricht - aber auch nicht dafür...

Ich habe meinen 3900x Anfang August bestellt und warte immer noch :-(.


LG Daniel
Wenn du ihn gleich haben willst bzw. nicht mehr warten möchtest - Mindfactory hat ihn gerade lagernd (für 529€):
(Ist zwar ein deutscher Händler - Aber die liefern sicherlich für ein paar Euros mehr auch nach Dänemark ^^.)
https://www.mindfactory.de/product_info ... 13647.html
Den anderen kannst du ja abbestellen bzw. stornieren.

Bez. Speicher: Bis 3600 Mhz macht am meisten Sinn. Desto schneller desto besser. Kann man auch selbst takten wenn man möchte (günstigere / langsamere Module).
Dauert aber ewig bis man alles ausgetestet hat. Von daher lieber gleich was (von Haus aus) schneller laufendes besorgen (wenn möglich 3600er Speicher). Die Corsair sind ganz ok.
Aber vielleicht besser gleich was mit den erwähnten 3600 Mhz nehmen. Die hier wären z.B. noch "relativ leistbar" für ein 32GB (2x16GB) Kit und wären auch lieferbar (sind sehr stark im Preis gefallen in letzter Zeit):
https://www.mindfactory.de/product_info ... 99807.html

Natürlich macht solch Speicher aber nur Sinn, wenn es sich preislich auch ausgeht (und man nicht wo anders zu viel sparen muss dadurch).
Wenn der Preis relevant ist, dann zum günstigsten verfügbaren "Schneller-Als-3000Mhz-Speicher" greifen (mit den niedrigsten Timins die möglich sind).

LG

/Edit:/ Huch. Ok. Mindfactory verlangt geschmalzene 28€ für den Versand nach Dänemark.
Keine Ahnung ob das noch sinnvoll ist. Kommt darauf an, ob es eine sofort verfügbare CPU wert ist ...

Space


Antwort von Jost:

HerrWeissensteiner hat geschrieben:
Was denkt ihr über RAM für den 3900x.

Ich will gerne 64Gb Corsair Venegance CMK64GX4M4C3000C15 verbauen. Scheint preismässig hier in Dänemark das beste Angebot zu sein.
Ich habe in meiner Recherche nichts gefunden, dass dagegen spricht - aber auch nicht dafür...
LG Daniel
Messbar wird der Unterschied erst beim Software-Encoding. Zum Beispiel, wenn Du per Handbrake in H.265 ausrenderst.
Dann spielt die Unterstützung der CPU durch schnelles Ram eine entscheidende Rolle.
Tuningpapst Der8auer hat einen Test mit Premiere gefahren:
https://www.youtube.com/watch?v=KXtkzFOKAqE

Siehe 19:50

Unter 3200 sollte man eigentlich nicht bleiben. Es sei denn, man nutzt zum Encodieren eine Nvidia-Karte.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


AMD Zen 3 Ryzen 5000 CPUs - jetzt durch die Bank schneller als Intel
Neuer High-End Notebook bei ALDI mit AMD Ryzen 9 5900HX, 64 GB RAM und GeForce RTX 3080
AMD Ryzen Threadripper Pro 5995WX: Neue Workstation CPU mit 64 Kernen geleakt
AMD Ryzen 7000 und Mendocino - neue Prozessoren für Herbst angekündigt
Fundament(al) erneuert - 4K-Testrechner mit AMD Ryzen 5 5600X
AMD Ryzen Threadripper (Pro) 7000 - Workstation auch wieder als HEDT-Mittelklasse
Erste Benchmarks zur AMD Ryzen 8000G APU - Apple Leistung zum Sparpreis?
Neue ASUS ProArt P16 und PX13 Notebooks mit OLED und AMD Ryzen AI 9
AMD Ryzen 9 9900 und 9950 X3D - 12 und 16 Zen5-Kerne mit V-Cache
CES 2022 - CPU- und GPU-Ausblick von Intel, AMD und Nvidia
Erste Intel Arc GPUs - endlich Konkurrenz für AMD und NVIDIA?
Apple M1 (Pro/Max/Ultra) vs Intel/Amd/Nvidia...wirklich schneller?
AMD RX6/7 Intel Arc und Nvidia RTX 4 - Kommt jetzt die GPU-Schwemme?
Apples M2 Ultra im Benchmark-Vergleich mit AMD, Intel und Nvidia
Intel Lunar Lake - Endlich wieder Anschluss an AMD und Apple?
GPU-Überraschungen von Intel und AMD zur CES 2025?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash