Frage von Corniger:Liebe Slashcamer,
nachdem ich von den Großkotzen in den Adobe-Foren die Schnauze gestrichen voll habe und keine Frage vernünftig beantwortet wird, frage ich mal Euch.
Meine Specs:
Asus Sabertooth 990FX 2.0
Phenom II 1100T (6x3,3 GhZ, kein SSE)
16GB DDR3
SSD für System
SSD für Software
SSD Samsung 840Evo basic als Scratchdisk für Cache und Previews
2 Datendisks für Video
Mir ist klar, dass das kein tolles setup für NLE ist. Ich weiß auch, dass Intel schneller ist. Ich weiß auch, dass eine GTX 980 da keinen Sinn macht, weil sie "zu schnell" ist.
Ich hab jetzt aber eine GTX 980 geschenkt bekommen. So. Ich Idiot ich! Und habe jetzt 2 GTX 285 drin (ja, ich weiss, dass die nur abwechselnd zum Berechnen genutzt werden. Die 2. hatte ich geschenkt bekommen, ich Äffchen)
Nun wüsste ich gerne, welche CPU ich nehmen soll, um das sinnvollSTE Upgrade hinzukriegen.
CPU:
SSE 4.2 haben FX 9590 - bis 5Ghz @8 cores, FX 9370 @8x 4,4GHz ODER tut es auch ein FX 8370 @ 8x4 GHz (dafür nur 125W TDP)
RAM: ja, 32GB werden rein müssen.
Disks: SSD-RAID? Irgendein RAID? Darüber sind sich die Übermenschen im PPCC-Forum ja offenbar selber nicht einig.
Was ich mache: shorts, Musikclips u.dgl auf 1080, vielleicht check ich heuer eine Panasonic GH4 und skaliere das 4K auf 1080. Bis dato habe ich das auch so geschafft, eben mühselig mit Preview rendern, und mit der GTX 980 kann ich mit jetzt doch wohl ein klein wenig mehr Leistung erwarten. Auch wenns es "nur" maximal ans Niveau eine 970 ran kommt mit meinem Äffchen-Setup.
Ich hab nicht viel cash, würde aber durchaus etwas investieren, solange es Sinn macht. Fragt sich halt - 125W/220W TDP - Sinn/Unsinn? RAID ja/nein? Mit SSD/HDDs? Nur - i7 mit MoBo UND Ram kann ich mir doch nicht leisten. Also bitte keine Tipps, dass ich doch auf Intel wechseln soll. Das mach ich dann, wenn ich das Geld habe, was momentan nicht der Fall sit.
Danke mal im Voraus ;)
Antwort von TaoTao:
Überleg einfach mal den Prozessor samt Mainboard auszutauschen.
Mit einem i7-4790k hast du den passenden Prozessor zur Karte. Ram musst du ja nicht weggeben.
Wenn du aber fanatisch bei AMD bleiben willst dann nimm den FX 9590. Den gab es übrigens letztens relativ günstig bei Mindfactory im Mindstar.
Übrigens hatte ich bis letztens noch einen i5 mit einer 750ti. Da konnte in Adobe CC 4k Videos schneiden wie Butter. Da macht wohl viel die Grafikkarte, vielleicht also ein wechsel garnicht nötig.
Antwort von dienstag_01:
Da konnte in Adobe CC 4k Videos schneiden wie Butter. Da macht wohl viel die Grafikkarte,
Ja, nämlich genau NICHTS.
Inzwischen könnte man das Prinzip verstanden haben: Videoschnitt - CPU, Effektberechnung (auch nicht alle) - GPU.
Antwort von StanleyK2:
Ich kann auch nur wiederholen, dass man erst mal sein bestehendes System analysieren sollte, bevor man an Upgrades denkt, die dann vielleicht nur wenig oder garnichts bringen.
Speicher: wenn da 16G drin sind, war das schon mal voll belegt? Werden die CPU-Kerne über voll ausgelastet? (=> mal mit dem Task_manager von Windows beobachten. Und ggf. auch mit z.B. GPU-Z mal prüfen, wann und wie überhaupt die Grafikkarte gefordert wird.
Nur eine CPU alleine aufrüsten, bringt ohnehin wenig, wenn Mainboard, Speicher, Platte und OS unverändert bleiben, jedenfalls deutlich weniger, als der MHz-Zuwachs verspricht. Persöhnlich würd ich den X6 lassen, denn das sind wenigsten 6 richtige Kerne, während die aktuellen AMD 8-Kerner ja keine vollwertigen 8 Kerne haben und nicht jede Software damit optimal klar kommt.
Antwort von TaoTao:
Da konnte in Adobe CC 4k Videos schneiden wie Butter. Da macht wohl viel die Grafikkarte,
Ja, nämlich genau NICHTS.
Inzwischen könnte man das Prinzip verstanden haben: Videoschnitt - CPU, Effektberechnung (auch nicht alle) - GPU.
Nicht schlecht sich in 2 Sätzen zu widersprechen. Was macht die Grafikkarte denn nun.."Nichts" oder Effektberechnung.
Wenn ich also meine Grafikkarte rausnehme, die IGP benutze, müsste ich deiner Meinung nach also bei gleicher Arbeitsweise exakt in der gleichen Zeit fertig sein? Ist das so?
Kann mir das jemand mit Ahnung beantworten, nicht so mein Gebiet.
Antwort von TomStg:
Hier ist beschrieben, was dienstag_01 meint:
http://www.studio1productions.com/Artic ... ereCS5.htm
siehe Number 1, letzte Zeilen. Aber auch der ganze Rest ist sehr informativ bzgl Adobe Software in Zusammenspiel mit der verwendeten hardware.
Antwort von dienstag_01:
Was macht die Grafikkarte denn nun.."Nichts" oder Effektberechnung.
Wenn du keine Unterscheidung zwischen Videoschnitt und Effektberechnung vornimmst, deine Sache, deine Hardware macht es aber ;)
Antwort von iasi:
Die einfachste Art und günstige Art ist wirklich zunächst die CPU zu tauschen, sofern das Mainboard sie unterstützt.
Der 8-Kern wird voll genutzt und bringt merkbaren Leistungszuwachs.
Zusätzlicher Speicher ist ebenfalls hilfreich.
Die neue Grafikkarte hilft Strom sparen und trägt ebenfalls zur Leistungssteigerung bei.
Wenn du mit einer Intel CPU anfängst, kannst du besser gleich ein komplett neues System aufbauen, denn dann müssen Mainboard und Speicher ausgetauscht werden - und wahrscheinlich das OS neu aufgesetzt werden.
Steht eine Grafikkarte allein für die Videoberechnungen zur Verfügung und muss nicht auch das Monitorbild liefern, ist das ebenfalls von Vorteil.
Ein SSD-Raid halte ich für überflüssig - da müsste dein System schon erheblich mehr Gesamtleistung bieten.
Also:
Neue CPU rein = kein Problem mit dem OS
Mehr Speicher = kein Problem mit dem OS
die neue Grafikkarte = klein Problem mit dem OS
aber eben mehr Leistung bei vergleichsweise geringen Kosten.
Antwort von StanleyK2:
Die einfachste Art und günstige Art ist wirklich zunächst die CPU zu tauschen, sofern das Mainboard sie unterstützt.
Der 8-Kern wird voll genutzt und bringt merkbaren Leistungszuwachs.
Das kann man so nicht sagen. Alle Datentransferaktionen können bei gleichem Mainboard/Speicher/Platte wohl kaum schneller werden. Und das ist die halbe Miete. Die AMD FX... unterstützen schnelleren Spüeicher als die Phenom II, den muss man dann aber auch erst mal haben.
Und dass der 8-Kerner (gerade die aktuelle AMD-Reihe ist da sehr diskussionfähig) immer voll genutzt wird, ist ein Mythos.
Und Speicherausbau lohnt wirklich nur dann, wenn es bisher nicht gereicht hat und es zu Auslagerungen auf die Platte kam. Das muss erst mal festgestellt werden. Sonst witzlos.
@TO welche Speicher mit welche Specs sind den eingebaut?
Antwort von iasi:
Die einfachste Art und günstige Art ist wirklich zunächst die CPU zu tauschen, sofern das Mainboard sie unterstützt.
Der 8-Kern wird voll genutzt und bringt merkbaren Leistungszuwachs.
Das kann man so nicht sagen. Alle Datentransferaktionen können bei gleichem Mainboard/Speicher/Platte wohl kaum schneller werden. Und das ist die halbe Miete. Die AMD FX... unterstützen schnelleren Spüeicher als die Phenom II, den muss man dann aber auch erst mal haben.
Und dass der 8-Kerner (gerade die aktuelle AMD-Reihe ist da sehr diskussionfähig) immer voll genutzt wird, ist ein Mythos.
Und Speicherausbau lohnt wirklich nur dann, wenn es bisher nicht gereicht hat und es zu Auslagerungen auf die Platte kam. Das muss erst mal festgestellt werden. Sonst witzlos.
@TO welche Speicher mit welche Specs sind den eingebaut?
kein Mythos sondern praktische Erfahrung
und das Asus Sabertooth 990FX 2.0 unterstützt allemal die 8-Kerner
Warum sollte man nicht in einen Prozessor und Arbeitsspeicher relativ wenig Geld und Zeit investieren, nur weil es nicht gleich eine Leistungsexplosion sondern "nur" merkliche Leistungssteigerung und geschmeidigeres Arbieten bietet.
Man muss nicht immer gleich ein komplett neues System aufbauen, bei dem allein die CPU doppelt oder dreimal so viel kostet, wie die Aufrüstung.
Antwort von StanleyK2:
Die Ausnutzung der Prozessorkerne hängt nicht gerade wenig von der verwendeten Software ab. Und da hab ich auch konkrekte Erfahrungen mit diversen Prozessoren.
Was ist denn eine "merkliche" Leistungssteigerung?? Messbar sicher ja, aber gefühlt??? Effektiv 10 % oder 20%? dafür würd ich keinen Cent ausgeben.
Antwort von Corniger:
Liebe Leute, super - damit kann ich schon wesentlich mehr anfangen!
Hinke jetzt ein paar Jahre in der Entwicklung hinterher und wurde jetzt mit der GPU überrascht - also seid bitte gnädig :-) Und von der Technik im Bezug auf NLE hab ich ergo auch wenig Tau.
würde ich jetzt auf den i7-4790K wechseln (welcher ja nicht SO viel teurer wäre als der schellste AMD), bräuchte ich auch ein neues MoBo - die wirken alle ziemlich mager gegen mein Sabertooth. Wenn ich da nicht mindestens 300€ ablege, hab ich nichtmal alle meine HDs angeschlossen (3SSD + 4HDD). Außerdem steht da bei den ganzen teureren MoBos, dass für PCIe 3.0 eine Ivy Bridge CPU benötigt wird!
D.h. CPU: http://geizhals.at/intel-core-i7-4820k- ... at&hloc=de
MoBo: http://geizhals.at/gigabyte-ga-x79-ud3- ... at&hloc=de
Ram: so was wie http://geizhals.at/g-skill-ripjawsz-dim ... at&hloc=de
2. GraKa - da reicht sicher was um 40€, passiv, oder?
DANKE!
Antwort von iasi:
Erweiterungsslots: 4x PCIe 3.0 x16 (1x x16, 3x x8)
hmmm ... da hast du dann schon einen Flaschenhals
so sehr viel schneller ist der genannte Intel gegenüber einem AMD-8-Kerner dann auch nicht ...
Wenn schon ein neues System, dann ein 6 oder 8-Kerner von Intel
Antwort von mash_gh4:
würde ich jetzt auf den i7-4790K wechseln (welcher ja nicht SO viel teurer wäre als der schellste AMD), bräuchte ich auch ein neues MoBo - die wirken alle ziemlich mager gegen mein Sabertooth. Wenn ich da nicht mindestens 300€ ablege, hab ich nichtmal alle meine HDs angeschlossen (3SSD + 4HDD). Außerdem steht da bei den ganzen teureren MoBos, dass für PCIe 3.0 eine Ivy Bridge CPU benötigt wird!
ich arbeite hier mit einer sehr ähnlichen zusammenstellung.
wenn du den 4790K voll ausreizen willst, solltest evtl. auch an eine vernünftige kühlung (Noctua NH-D15 od.ä.) denken
als mainboard verwende ich ein "asrock extrem4", das verhältnismäßig günstig ist und trotzdem mit allen betriebssystemen klaglos funktioniert.
https://geizhals.at/asrock-z97-extreme4 ... 06894.html
Antwort von iasi:
3x PCIe 3.0 x16 (x16, x8, x4) ... die selbe Bremse
Antwort von mash_gh4:
3x PCIe 3.0 x16 (x16, x8, x4) ... die selbe Bremse
gibt von den boards ohnehin immer verschiedene varianten mit mehr od. weniger steckplätzen... (exreme6, extreme9...)
vermutlich funktionieren die ohnehin ganz ähnlich problemlos.
ich kann es nur nicht aus eigener praxis bestätigen.
ich bin halt nicht so der große freund überproportionierter grafikkarten oder gar zu üppigen plattenaustattung. letzteres würde ich übrigens eher mit irgendwelchen 19"-rack-servern und entsprechenden hot-swap-backplanes abdecken.
gegenwärtig würde ich bei video-workstations für den hausgebrauch mehr darauf achten, dass sie bereits steckplätze für schnelle SSD module besitzen. das erscheint mir mittlerweile fast wichtiger als anschlussvoraussetzungen für klassische RAID ausmaße. in der praxis bedeutet das aber fast zwingend, dass PCIe steckplätze und sata-anschlüsse wegfallen bzw. dafür genutzt werden. hier muss man halt die vor-/nachteile für sich persönlich abwägen.
Antwort von iasi:
3x PCIe 3.0 x16 (x16, x8, x4) ... die selbe Bremse
gibt von den boards ohnehin immer verschiedene varianten mit mehr od. weniger steckplätzen... (exreme6, extreme9...)
vermutlich funktionieren die ohnehin ganz ähnlich problemlos.
ich kann es nur nicht aus eigener praxis bestätigen.
Klar gibt es verschiedene Chipsätze - diejenigen, die dann mehrere Grafikkarten voll anbinden, kosten dann eben mehr.
Ein Flaschenhals ist schnell eingebaut, aber eben nur schwer zu identifizieren ...
In der Praxis rennt auch ein AMD-8-Kern mit 1080p-Material geschmeidig.
Der Intel-4-Kern lohnt den Aufbau eines neuen Systems nicht, wenn man nur einen 8-Kerner in ein bestehendes AMD-System einpflanzen muss.
Wenn schon neues System, dann ein Intel-6-Kerner mit 2 Grafikkarten und 32GB RAM.
Antwort von dienstag_01:
Wenn schon neues System, dann ein Intel-6-Kerner mit 2 Grafikkarten und 32GB RAM.
2 Grafikkarten werden von welchem Schnittsystem unterstützt (und genutzt)?
Antwort von iasi:
Wenn schon neues System, dann ein Intel-6-Kerner mit 2 Grafikkarten und 32GB RAM.
2 Grafikkarten werden von welchem Schnittsystem unterstützt (und genutzt)?
Wenn eine Grafikkarte für die Ausgabe an die Monitore und die andere allein für die Videoberechnungen genutzt wird, ist das schon mal ein Vorteil.
Ein Programm wie Resolve nutzt zudem auch mehrere GPUs, also Grafikkarten.
Antwort von dienstag_01:
Wenn eine Grafikkarte für die Ausgabe an die Monitore und die andere allein für die Videoberechnungen genutzt wird, ist das schon mal ein Vorteil.
Das ist jetzt ein Witz, oder.
Kannst du das mal irgendwie untermauern. Oder ist das wiedermal nur Resolve-Blindheit ;)
Antwort von iasi:
Wenn eine Grafikkarte für die Ausgabe an die Monitore und die andere allein für die Videoberechnungen genutzt wird, ist das schon mal ein Vorteil.
Das ist jetzt ein Witz, oder.
Kannst du das mal irgendwie untermauern. Oder ist das wiedermal nur Resolve-Blindheit ;)
ne - ich bin kein Maurer ... aber ernsthaft: Premiere nutzt bei mir die GPU, die ausschließlich für die Videoberechnungen zuständig ist - die Bildschirme bekommen ihre Signale von der 2.Karte - eben Arbeitsteilung ...
Antwort von dienstag_01:
aber ernsthaft: Premiere nutzt bei mir die GPU, die ausschließlich für die Videoberechnungen zuständig ist - die Bildschirme bekommen ihre Signale von der 2.Karte - eben Arbeitsteilung ...
Arbeitsteilung die was bringt?
Die Cuda-Berechnungen auf der GPU haben doch Nullkommanichts mit der reinen Bildschirmausgabe zu tun.
Auch wenn dein Setup so ist, weil es dir für Resolve sinnvoll ist, für ein NLE ist das aber vollkommen sinnlos.
Und der Fragesteller gibt an, dass er nicht zuviel Geld hat ;)
Antwort von iasi:
aber ernsthaft: Premiere nutzt bei mir die GPU, die ausschließlich für die Videoberechnungen zuständig ist - die Bildschirme bekommen ihre Signale von der 2.Karte - eben Arbeitsteilung ...
Arbeitsteilung die was bringt?
Die Cuda-Berechnungen auf der GPU haben doch Nullkommanichts mit der reinen Bildschirmausgabe zu tun.
Auch wenn dein Setup so ist, weil es dir für Resolve sinnvoll ist, für ein NLE ist das aber vollkommen sinnlos.
Und der Fragesteller gibt an, dass er nicht zuviel Geld hat ;)
schon klar - sicher ist es sinnvoll jemandem zu raten, in ein neues System mit 1 Karteoption zu investieren, wenn damit zu rechnen ist, dass die GPU Nutzung ausgeweitet wird.
Und natürlich bringt es etwas, wenn die CUDA-Karte von der Bildschirmdarstellung befreit wird.
Auf der einen Seite gibt man viel Geld für ein komplett neues System aus, das dann 1/4 mehr CPU-Leistung hat, auf der anderen Seite wird dann aber gespart und die CUDA-Karte für die Bildschirmdarstellung eingespannt - und das alles dann für 4x so viel Geld.
Sag mir bitte welche Fenster es ist, unter das ich stehen muss, um das Geld einzufangen, das du rauswirfst.
Antwort von dienstag_01:
wenn damit zu rechnen ist, dass die GPU Nutzung ausgeweitet wird.
Ja, ja, Iasi versucht sich wieder als Prophet ;)
Und natürlich bringt es etwas, wenn die CUDA-Karte von der Bildschirmdarstellung befreit wird.
Zeig her. Muss doch IRGENDWO beschrieben sein ;)
Auf der einen Seite gibt man viel Geld für ein komplett neues System aus, das dann 1/4 mehr CPU-Leistung hat, auf der anderen Seite wird dann aber gespart und die CUDA-Karte für die Bildschirmdarstellung eingespannt - und das alles dann für 4x so viel Geld.
Da die CPU für das Dekodieren des Videostreams gebraucht wird, ist diese WESENTLICH für eine ruckelfreie Wiedergabe der Vorschau. Und für 4K Material kann 1/4 Leistungszuwachs der CPU genau der entscheidende Punkt für Echtzeitwiedergabe sein. KANN. Muss nicht. Aber sicher ist, wenn deine CPU die Dekodierung nicht schafft, kannst du hunderte Grafikkarten in dein System bauen, die ändern nichts.
Aber sind natürlich total preiswert ;)
Antwort von iasi:
Meinst du denn, Resolve entstammt einer magischen Schmiede, die etwas kann, das all die anderen neimals zustande bringen werden?
4k?
Die GPUs können durchaus noch mehr, als nur Effekte berechnen.
Und wenn du die CPU für so wichtig erachtest, warum empfiehlst du dann einen 4-Kerner?
Ein neues System und dann bei der CPU sparen?
Der 140€ 8-Kerner von AMD ist kaum langsamer, als der Intel 4-Kerner, erfordert nicht mal Änderungen am OS, wird einfach auf Mainboard gesteckt - übrigens ein sehr gutes Mainboard, das einem eher Mittelklasseboard weichen soll.
Ne - also entweder neue CPU und mehr Speicher ins bestehende System oder gleich einen Intel-6-Kerner auf ein ordentliches Board im neuen System.
Antwort von dienstag_01:
Meinst du denn, Resolve entstammt einer magischen Schmiede, die etwas kann, das all die anderen neimals zustande bringen werden?
Wenn Resolve die GPU für das Dekodieren des Streams verwenden SOLLTE (ich weiss es nicht), dann arbeitet es eben anders als NLEs, aber nicht gleich magisch.
Die GPUs können durchaus noch mehr, als nur Effekte berechnen.
Was?
Und wenn du die CPU für so wichtig erachtest, warum empfiehlst du dann einen 4-Kerner?
Ich habe überhaupt nichts empfohlen.
Du brauchst hier auch gar nicht weiter zu polemisieren. Es würde reichen, wenn du einen einzigen Beleg für deine Aussage bringen würdest ;)
Antwort von iasi:
x264 HD Benchmark 5.0.1
Intel Core i7-4790K, 4C/8T, 4,0 GHz
18,40
AMD FX-9590, 4M/8T, 4,7 GHz
17,78
Intel Core i7-4790, 4C/8T, 3,6 GHz
16,69
Wegen 3% Mehrleistung würde ich nicht ein neues System kaufen und neu installieren.
Antwort von mash_gh4:
es kann schon sinn machen, nicht nur eine GPU zu haben. ich z.b. reich die GPU an virtuelle maschinen durch, in denen ich dann windows bzw. resolve verwende. mir recht allerdings intel grafik für den rest vollkommen aus.
resolve und dessen großzügigkeit in der ressourcen-verschwendung steht zum glück relativ isoliert da. ich schätze dieses programm zwar auch sehr, aber ich muss doch immer wieder ein wenig den kopf darüber schütteln, wenn leute ganze maschinen nur mehr um dieses einzige programm herum bauen. vieles kann man mit anderen mitteln deutlich effizienter lösen.
und nur, um auf die frage der sinnhaftigkeiter mehrer GPUs einzugehen: es gibt einen ffmpeg-hack, wo die dekomprimierung von video-files über die nvidia-bescheunigung erfolgt. in der praxis ist das allerdings langsamer als auf der CPU, wenn die daten weiterverarbeitet werden. erst, wenn die anzeige auch auf der selben karte erfolgt, wie bei div. optimierten playern, kann es wieder vorteilhaft sein.
Antwort von dienstag_01:
Wegen 3% Mehrleistung würde ich nicht ein neues System kaufen und neu installieren.
Ich übrigens auch nicht.
Aber dein Vorschlag mit einer zweiten GPU bringt ja nun mal gleich NULL Prozent Mehrleistung.
Da wird es schwierig, sich zu entscheiden ;)
Antwort von Angry_C:
Ich habe mir folgende Konfiguration als Ersatz für meinen in die Tage gekommenen i7 2600k herausgesucht. Vielleicht wäre das auch was für den AMD geplagten Threadersteller? ;-)
I7 5820k auf Gigabyte GA-X99-UD4 mit 16GB Ram CMK16GX4M4A2666C16
Antwort von dienstag_01:
Wenn du nichts mit deinem 2600 anzufangen weisst....
Antwort von TaoTao:
dann schenk ihn dienstag_01...der gute wirkt als marschiert er frustriert durchs Leben und brauch mal ein Geschenk <3
Antwort von dienstag_01:
dann schenk ihn dienstag_01...der gute wirkt als marschiert er frustriert durchs Leben und brauch mal ein Geschenk <3
Kannst du nicht verwinden, dass ich dir mal bissel auf die Sprünge geholfen habe ;)
Aber ok, wenn du dafür sooooo für mich einsetzt, bitte.
Antwort von TaoTao:
Lerne immer gerne neue Dinge, vor allem in Gebieten wo ich mich eher weniger Auskenne. Aber seien wir mal ehrlich, das ist keine Raketenforschung. Ich schau mir ein niedliches Video2Brain video an und kann 90% aller wichtigen Dinge. Also leg mal etwas Bescheidenheit an den Tag du Wichtiguer :D..
Die Leute hier nehmen die Dinge hier viel zu wichtig, nimmt meist peinliche Züge an, vor allem wenn man sich untereinander kritisiert. Ernsthaft, hat man sonst nichts zu melden oder warum muss man immer alles persönlich nehmen :D
Antwort von dienstag_01:
Die Leute hier nehmen die Dinge hier viel zu wichtig, nimmt meist peinliche Züge an, vor allem wenn man sich untereinander kritisiert. Ernsthaft, hat man sonst nichts zu melden oder warum muss man immer alles persönlich nehmen :D
Dann war das bestimmt ein Versehen von dir:
dann schenk ihn dienstag_01...der gute wirkt als marschiert er frustriert durchs Leben und brauch mal ein Geschenk <3
Antwort von Corniger:
OK, kenn mich jetzt auch nimmer wirklich besser aus :D Ist wie auf Google - eine Schlacht, bei der man immer die falsche Seite einnimmt!
Bin aber draufgekommen: der 1100T packt nur DDR 1333. Das hab ich auch. Also ein "8"-Kerner mit 32GB DDR3 1866 Wäre doch schon passender - vorübergehend! AUCH WENN es natürlich nicht toll wäre.
Einwände? :-)
Wie schon erwähnt - WENN ich schon umsteigen muss, dann ordentlich, nicht mit so einem Mager-Board. Unter 1800€ werde ich da wohl kaum wegkommen - die sauteuren CPUs, die wegen der dauernd wechselnden Sockets teuren Boards und der passende RAM...
Was sagt ihr? Tu mir ECHT schwer! Finds toll, dass ihr mir helft :-)
Antwort von dienstag_01:
der 1100T packt nur DDR 1333. Das hab ich auch. Also ein "8"-Kerner mit 32GB DDR3 1866 Wäre doch schon passender
Der Unterschied ist sicher meßbar, merken wird man davon aber nichts ;)
Warum baust du die Grafikkarte nicht einfach in deinen jetzigen Rechner ein?
Antwort von iasi:
OK, kenn mich jetzt auch nimmer wirklich besser aus :D Ist wie auf Google - eine Schlacht, bei der man immer die falsche Seite einnimmt!
Bin aber draufgekommen: der 1100T packt nur DDR 1333. Das hab ich auch. Also ein "8"-Kerner mit 32GB DDR3 1866 Wäre doch schon passender - vorübergehend! AUCH WENN es natürlich nicht toll wäre.
Einwände? :-)
Wie schon erwähnt - WENN ich schon umsteigen muss, dann ordentlich, nicht mit so einem Mager-Board. Unter 1800€ werde ich da wohl kaum wegkommen - die sauteuren CPUs, die wegen der dauernd wechselnden Sockets teuren Boards und der passende RAM...
Was sagt ihr? Tu mir ECHT schwer! Finds toll, dass ihr mir helft :-)
Du solltest dir überlegen, wie viel du investieren willst.
Wenn noch Steckplätze frei sind, dann ergänze die vorhandenen 16GB mit weiteren 16GB.
DDR 1333 zu DDR3 1866 ist kein so große Unterschied, dass es sich lohnen würde, die vorhandenen Riegel auszutauschen.
Ein 8-Kerner drauf und die GTX980 reingesteckt.
Die GTX280 allein für Bildschirmdarstellung wäre etwas überdimensioniert.
Jedenfalls bist du da schon unter 300€ dabei und hast dann ein System, das für 1080p gut reicht.
Ein neues System, das den Umstieg wirklich lohnt, kostet. Da wäre dann auch DDR4 zu empfehlen. Die Intel-6-Kern-CPUs sind für 2011-3 gar nicht mal so teuer - aber das Drum Herum haut rein.
Antwort von Corniger:
Der Unterschied ist sicher meßbar, merken wird man davon aber nichts ;)
Warum baust du die Grafikkarte nicht einfach in deinen jetzigen Rechner ein?
Weil ich mir nach Kontakt mit den Adobe-Typen vorkomme wie ein Sodomist ohne Gummi :P
Aber ich steck sie jetzt eh gleich rein ^^
Antwort von Corniger:
Du solltest dir überlegen, wie viel du investieren willst.
Wenn noch Steckplätze frei sind, dann ergänze die vorhandenen 16GB mit weiteren 16GB.
DDR 1333 zu DDR3 1866 ist kein so große Unterschied, dass es sich lohnen würde, die vorhandenen Riegel auszutauschen.
Ein 8-Kerner drauf und die GTX980 reingesteckt.
Die GTX280 allein für Bildschirmdarstellung wäre etwas überdimensioniert.
Jedenfalls bist du da schon unter 300€ dabei und hast dann ein System, das für 1080p gut reicht.
Ein neues System, das den Umstieg wirklich lohnt, kostet. Da wäre dann auch DDR4 zu empfehlen. Die Intel-6-Kern-CPUs sind für 2011-3 gar nicht mal so teuer - aber das Drum Herum haut rein.
Mein Slots sind voll - also würde ich mal 32GB 1866 nachlegen.
Das und den 8-Kerner kann ich mir jetzt gerade noch leisten! Und eine 40€-NVidia passiv ;) Für die GTX 285 brauchts ja schon alleine ein 600W PSU. Die 2 sind sowieso idiotisch.
Das mit den 2 GPUs kenne ich vom 3d-Rendern. Eine für die Bildschirme, eine zum Rendern. Bei Premiere gibt es aber weder die Auswahlmöglichkeiten von Octane Render, noch Cycles. Eigentlich erstaunlich unterentwickelt. Wundert mich aber nicht. Bei CS4 waren ja auch alle Programme, bis auf Photoshop, noch 32bit... ein Witz. Aber egal.
Zum Spaß hab ich mal ein paar screenies vom aktuellen system angehängt. Die Auslastung ist eigentlich ein Witz. Bei Cycles CPU render sind alle Cores auf 100%! Stellt da wer eine "Krankheit" fest?
Antwort von dienstag_01:
Was für eine Aktion wurde denn ausgeführt, während die Screenshots gemacht wurden?
Antwort von Corniger:
Ah ja, INTELLIGENZ hallo!!!
Export
edit: 34min für 5:30 video.
Antwort von dienstag_01:
Eigentlich wäre es sinnvoll, genau dann zu schauen, wenn es Engpässe gibt.
Aber egal. Was du deutlich sehen kannst, auch wenn du deinen Speicher auf utopische Größen und unendliche Geschwindigkeiten aufrüsten solltest, das wird nichts bringen ;)
Antwort von iasi:
Man muss Premiere schon auch sagen, wieviel RAM es nutzen darf. Wahrscheinlich musst du die Einstellungen erhöhen.
Wenn die CPU nicht mit allen Kernen am Anschlag ist, hast du einen Flaschenhals.
Speicher bringt etwas - aber bevor du 32GB DDR3 kaufst, solltest du mal schauen, woran es liegt, dass deine Kerne nicht voll ausgelastet sind.
Die Nutzung der Grafikkarte legst du in den Nvidia-Einstellungen fest. Da kannst du festlegen, welche Karte wofür genutzt werden soll.
Antwort von Corniger:
Man muss Premiere schon auch sagen, wieviel RAM es nutzen darf. Wahrscheinlich musst du die Einstellungen erhöhen.
Also wie bei Photoshop. Seltsam, dass mir das noch nie aufgefallen ist. Dabei habe ich alle Menüs durchkämmt. Wohl zu fixiert auf Mercury :-P
Wenn die CPU nicht mit allen Kernen am Anschlag ist, hast du einen Flaschenhals.
Das befürchte ich schon lange, ich habe bis dato aber keinen Weg gefunden, den zu eruieren :-(
Speicher bringt etwas - aber bevor du 32GB DDR3 kaufst, solltest du mal schauen, woran es liegt, dass deine Kerne nicht voll ausgelastet sind.
Die Nutzung der Grafikkarte legst du in den Nvidia-Einstellungen fest. Da kannst du festlegen, welche Karte wofür genutzt werden soll.
Super Tipp! Danke :-)
Antwort von merlinmage:
Haste keinn Kollegen mitm Intel System wo du dein Projekt mal gegenrendern könntest?
Antwort von Corniger:
Leider Nein, aber ich werd mal auf Facebook fragen. Gute Idee! Trotzdem muss ich dem Flaschenhals mal auf die Spur kommen.
RAM war auf 1066 konfiguriert (automatisch), das wirds aber wohl auch eher nicht sein. Die Datenträger sehen ebenfalls eher unterfordert aus, ich hab also, ehrlich gesagt, keine Ahnung, wie ich da draufkommen soll - aber das schaffe ich schon noch.
Wenn ich mich erinnere, dass ich auf CS4 it dem gleichen System für sowas doch einige Stunden rendern musste, bin ich ohnehin überglücklich. Jetzt steckt die 980 drin, morgen wird gestestet :-)
Ich habe ja auf Adobe Tweakerpages gelesen, dass AMD gar kein SSE hat (dabei hat das sogar mein 1100T schon). Dann lese ich woanders wieder, dass mein Phenom II eigentlich besser sein soll als die neuen FX. Zum Durchdrehen :D Den könnte ich auch sicher locker auf 4Ghz übertakten, der RAM ist ja angeblich auch auf Übertaktung ausgerichtet, davon hab ich bislang aber immer die Finger gelassen...
Antwort von merlinmage:
Also wenne ne Intel Cpu brauchst, ich hab nochn 4770k mitm mATC Brett und 16 GB Ram hier :P
Antwort von Corniger:
Ist das auch so ein Board, wo man 2 Platten und 1 Brenner anstecken kann? :D PCIe 3.0 geht dann aber erst wieder nur mit Ivy Bridge :(
Antwort von merlinmage:
Der 4770k ist ja ne Haswell CPU und das dazugehörige Z87 Brett hat insgesamt 8 Anschlüsse für Platten Laufwerke. ;)
PCIE 3.0 ist natürlich auch dabei.
Antwort von mash_gh4:
Der 4770k ist ja ne Haswell CPU und das dazugehörige Z87 Brett hat insgesamt 8 Anschlüsse für Platten Laufwerke. ;)
dem 4770K fehlt halt, wie bei den meisten früheren übertaktungs-prozessoren ('K'-serie), die VT-d unterstützung. bei den neuen ist das zum glück nicht mehr der fall. das ist allerdings ohnehin nur nötig, wenn grafikkarten an virtuelle maschinen durchreichen will etc.
Antwort von merlinmage:
Das stimmt, wers braucht sollte natürlich auf sowas achten ;)
Antwort von Corniger:
Hm, auf Geizhals steht bei den ganzen 1150 boards, dass PCIe 3.0 nur mit Ivy Bridge geht...?
Was willst du denn für die Teile? :D
Antwort von merlinmage:
Wenne nur das Brett und die CPU haben willst, 280 Takken. :)
Und kein Plan wo du das auf GH her hast, aber PCIE 3.0 ist dabei ;)
Antwort von mash_gh4:
Wenne nur das Brett und den Ram haben willst, 280 Takken. :)
da bekommt er aber bei umsichtiger wahl vermutlich auch ein z97 board + RAM ums selbe geld ganz neu. ;)
Antwort von merlinmage:
Eieieie, meinte natürlich CPU und das Brett.
Antwort von iasi:
Leider Nein, aber ich werd mal auf Facebook fragen. Gute Idee! Trotzdem muss ich dem Flaschenhals mal auf die Spur kommen.
RAM war auf 1066 konfiguriert (automatisch), das wirds aber wohl auch eher nicht sein. Die Datenträger sehen ebenfalls eher unterfordert aus, ich hab also, ehrlich gesagt, keine Ahnung, wie ich da draufkommen soll - aber das schaffe ich schon noch.
Wenn ich mich erinnere, dass ich auf CS4 it dem gleichen System für sowas doch einige Stunden rendern musste, bin ich ohnehin überglücklich. Jetzt steckt die 980 drin, morgen wird gestestet :-)
Ich habe ja auf Adobe Tweakerpages gelesen, dass AMD gar kein SSE hat (dabei hat das sogar mein 1100T schon). Dann lese ich woanders wieder, dass mein Phenom II eigentlich besser sein soll als die neuen FX. Zum Durchdrehen :D Den könnte ich auch sicher locker auf 4Ghz übertakten, der RAM ist ja angeblich auch auf Übertaktung ausgerichtet, davon hab ich bislang aber immer die Finger gelassen...
Der 8-kern ist durchaus nochmal etwas schneller - nur nutzt das alles nichts, wenn das system sie nicht voll nutzt.
Ich würde mal in premiere die speicherzuteilung/nutzung erhöhen - und mal testen wie die auslastung z.b. beim vorschaurendern aussieht.
Wenn's richtig läuft, dann ist die cpu-auslastung ständig bei 100% - so ist das zumindest bei mir - was natürlich auch bedeutet, dass ein schnellerer prozessor etwas bringen würde
Antwort von Corniger:
So - habe jetzt alles soweit eingerichtet.
Das habe ich gemacht:
- ne 150GB Velociaptor rein (meine alte Systemplatte) als Videodatenträger
- GT 610 für Bilschirmdarstellung
- GTX 980 in der NVidia Systemsteuerung für Premiere als CUDA Device eingestellt
- AMD Turbo Mode aktiviert
- Speicher auf 1333 getaktet
- Videofiles auf die Raptor verschoben
- Cache & Previews auf die SSD verschoben (hatte sich offenbar umgestellt??)
- GTX 980 in das Textfile eingetragen (mittels cuda.bat von so einer Website im 1992-Stil)
Ohnehin OK war:
- RAM Zuteilung (habe bloß 3 v. 16 GB für das System gelassen), Premiere hatte also immer um die 12 GB.
Test:
- CPU war an manchen Stellen auf bis 99%, öfter aber um die 50-56%
- Datenträgerauslastung kaum erwähnenswert.
- RAM-Auslastung insgesamt um die 7GB
Testergebnis:
- ich habe für das selbe Projekt mit exakt denselben Einstellungen
statt 34 Minuten NUR 41 Minuten für den Output gebraucht! Vorher zappte der Balken zügig bis zur Mitte, steckte da ne Weile und ging dann irgendwann zügig bis zum Ende. Jetzt fing es gleich lahm an - mag aber daran liegen, dass ich das crop-Overlay deativiert hatte und er jetzt quasi mehr Daten rendern musste.
- die Video-Previews sind genau so besch.... wie vorher. Ruckeln an bestimmten Stellen trotz Vorrendern (da auch nahezu volle CPU-Auslastung beim Playback!), rot gekennzeichnete Stellen genau so abgehackt wie vorher, gelbe ruckelnd (so 3-5fps), aber auch nicht immer, grüne normal.
- Vorschaurendern: selbe wie oben. Teils nahezu volle Auslastung, meistens aber nicht.
Fazit:
- auf PPro trotz GTX 980 keinerlei Verbesserung!
- Octane Render läuft mit GTX 980 7x so schnell wie mit GTX 285. Falsch eingebaut/konfiguriert kann sie alsa nicht sein. Zieht ab wie Schmidt's Katze. Die GT 610 läuft mit etwa 25% Leistung der GTX 285...
Was läuft da falsch? Falsch konfigurieren kann man a ja eigentlich nichts. Im Gegensatz zu div. 3D-Renderern kann man ja anscheinend nicht mal die Karte auswählen, die benutzt wird.
Liegt es an der 2. GPU, die für PPro eigentlich deaktiviert ist? Die EVGA Tuning utilities erkennen auch nur die sekundäre Karte, weil da die Bildschirme dranhägen, vielleicht ist Premiere zu doof? Oder bin ich es? Hab ich was übersehen?
Antwort von dienstag_01:
So langsam beschleicht mich ein komisches Gefühl: Hast du überhaupt die Mercury Playback Engine auf Hardware-Unterstützung gesetzt?
Ansonsten mal konkret: Welche Premiere Version? Was für Quellmaterial, welche Effekte?
Antwort von marwie:
Ich würde den Monitor mal an die GTX 980 anschliessen und schauen, ob dann die Leistung besser ist, ich befürchte, PP verwendet jeweils die GPU für Cuda, an welcher der primäre Monitor angeschlossen ist.
Verwendest du noch Davinci Resolve oder warum hast du eine Karte nur für Bildschirmdarstellung? Premiere Pro profitiert davon jedenfalls nicht, im Gegenteil.
Antwort von Corniger:
So langsam beschleicht mich ein komisches Gefühl: Hast du überhaupt die Mercury Playback Engine auf Hardware-Unterstützung gesetzt?
Ansonsten mal konkret: Welche Premiere Version? Was für Quellmaterial, welche Effekte?
CC2014, h264 MOV (Canon 7d), Effekte - ein bisschen Colour correction, plus 2 CineStyles (Nacht und Bleichauslassung). Di ruckelnden Teile sind aber sogar die primitiveren, außerdem sollte die Wiedergabe, wenn schon previews gerendert sind, flüssig gehen?
MPE - habe ich, ja! GTX 980 wurd auch nicht als "not supported" ausgewiesen.
Somit tendiere ich mal eher dahin, dass marwies (und meine) Theorie zutrifft, nämlich, dass PPro zu doof ist, die richtige Karte zu erkennen. Ich brauche die 2. GPU für Octane Render/Cycles (3D), da 2 Bildschirme sich doch etwas auf die Karte schlagen. Ich wede also mal die Monitore umstecken :-( Vielleicht kann ich am MoBo auch noch die primäre Karte einstellen, ins BIOS komme ich so nämlich auch nicht.
Oder gibt es einen Trick, Premiere die passende GPU unterzujubeln?
Antwort von iasi:
Ich würde den Monitor mal an die GTX 980 anschliessen und schauen, ob dann die Leistung besser ist, ich befürchte, PP verwendet jeweils die GPU für Cuda, an welcher der primäre Monitor angeschlossen ist.
in der Nvidia-Ssytemsteuerung muss man für die Programme die Grafikkarte unter 3D-Einstellungen - 3D-Einstellungen verwalten - CUDA-GPUs auswählen - dann nimmt Premiere auch nur diese Karte - eventuell diese Einstellung auch unter Programmeinstellungen für Premier vornehmen
Antwort von dienstag_01:
Meiner Meinung nach erkennt Premiere schon die richtige GPU, mit der GT 610 sollte nämlich MPE gar nicht funktionieren.
Ich würde wegen der Performance folgenden Test vorschlagen:
Einmal Preview in Premiere mit einem Videofile aus der Cam ohne alle Effekte, einmal einen Cuda-fähigen Effekt (z.B. Color Correction) dazu. Keine gerenderten Previews, einfach in die Timeline und abspielen (Sequenzeinstellungen sollten natürlich stimmen, also der Balken gelb sein). Beide Male die CPU-Auslastung vergleichen.
Antwort von Corniger:
Das habe ich ja getan:
Hab jetzt mal die Bildschirme umgesteckt. Preview berechnet. An zähen Stellen geht nichts weiter, 50% CPU. Fast 20 Minuten. Ruckelt.
Werd mal die 2. GPU rausnehmen!
Antwort von Corniger:
Demnach sollte auch die GT 610 gehen: http://www.studio1productions.com/Artic ... eCS5-2.htm
aber ich mach mal Deinen Test!
Antwort von dienstag_01:
Sorry, ja, da hab ich nicht richtig nachgeschaut.
Antwort von Corniger:
Ich würde wegen der Performance folgenden Test vorschlagen:
Einmal Preview in Premiere mit einem Videofile aus der Cam ohne alle Effekte, einmal einen Cuda-fähigen Effekt (z.B. Color Correction) dazu. Keine gerenderten Previews, einfach in die Timeline und abspielen (Sequenzeinstellungen sollten natürlich stimmen, also der Balken gelb sein). Beide Male die CPU-Auslastung vergleichen.
Macht auf der CPU maximal 5% Unterschied! Wenn überhaupt - schwankt etwa zw. 21 und 31%, ob mit oder ohne CUDA Effekt.
Hab dann noch alle verfügbaren beschleunigten Farbkorrekturfilter draufgelegt und gleichzeitig laufen lassen, war dann im selben Bereich. Kein Ruckeln, nur ein unglaublich hässliches Bild ^^
Edit: waren 10 CUDA Filter gleichzeitig.
Antwort von dienstag_01:
Macht auf der CPU maximal 5% Unterschied! Wenn überhaupt - schwankt etwa zw. 21 und 31%, ob mit oder ohne CUDA Effekt.
Das sieht doch gut aus.
Weiter oben hattest du aber geschrieben:
Ruckeln an bestimmten Stellen trotz Vorrendern (da auch nahezu volle CPU-Auslastung beim Playback!),
Wieso so ein Unterschied? Hattest du vielleicht fremde Effekte (die Cuda nicht unterstützen) drauf?
nur ein unglaublich hässliches Bild ^^
Was heisst das? Hast du die Auflösung der Preview auf voll?
Antwort von Corniger:
Macht auf der CPU maximal 5% Unterschied! Wenn überhaupt - schwankt etwa zw. 21 und 31%, ob mit oder ohne CUDA Effekt.
Das sieht doch gut aus.
Weiter oben hattest du aber geschrieben:
Ruckeln an bestimmten Stellen trotz Vorrendern (da auch nahezu volle CPU-Auslastung beim Playback!),
Das ist in dem Projekt, an dem ich gerade arbeite...
Wieso so ein Unterschied? Hattest du vielleicht fremde Effekte (die Cuda nicht unterstützen) drauf?
Ein Lumetri und LUT Buddy (obwohl ich das nicht benutze) - aber Ruckeln trotz Vorschauberechnung? Alle Korrekturebenen ausgeblendet? Grain ausgeblendet? Nur gelb & Grün?
nur ein unglaublich hässliches Bild ^^
Was heisst das? Hast du die Auflösung der Preview auf voll?
1/2, aber wenn alle Farbkorrekturen IRGENDWIE extrem eingeschaltet sind, bleibt nicht viel vom bild übrig :D
Antwort von dienstag_01:
Für mich klingt das nach der Verwendung von Effekten, die kein Cuda unterstützen/unterstütz werden.
Antwort von Corniger:
Für mich klingt das nach der Verwendung von Effekten, die kein Cuda unterstützen/unterstütz werden.
Vielleicht verstehe ich da was falsch:
Wenn ich Previews rendere,
- werden die Effekte mitgerendert oder nicht?
- werden gelbe Bereiche nicht gerendert, weil Premiere glaubt, es wäre nicht erforderlch?
- werden grüne Bereiche nicht gerendert, weil Premiere weiß, dass es nicht erforderlich ist?
Wenn die effekte mitberechnet werden - wieso stottert es dann?
Wenn es stottert: warum wird es nicht mitberechnet? :D
Sorry, ich bin UNGLAUBLICH mühsam, aber mein technisches Verständnis reicht da anscheinend einfach nicht mehr. Habe übrigens auch von Leuten gelesen, denen die Vorschau mit Xeon, 24GB RAM und GTX 580 stottert, dass das angeblich ein Bug ist, der Adobe bekannt ist
Und, dass man bei Premiere 5(!) die Daten nicht in andere Orte verschieben durfte und so seltsames Zeug.
Ich kapiers halt nicht, weil nichts an meinem System ausgelastet scheint (die CPUs sin ja bei den Stotterteilen auch nicht auf 100%, aber nahe dran)...
Antwort von dienstag_01:
PPro rendert alle Effekte - müsste man auch SEHEN ;)
In welchen Codec renderst du denn die Vorschau?
Und, zweite Frage, warum renderst du die überhaupt (wenn sie nicht rot dargestellt wird)?
EDIT:
Gerenderte Abschnitte sind übrigens Grün, daran sieht man also auch, ob gelbe Bereiche gerendert wurden.
Antwort von Corniger:
PPro rendert alle Effekte - müsste man auch SEHEN ;)
Das tu ich ja, aber es ruckelt trotzdem :D
In welchen Codec renderst du denn die Vorschau?
Keine Ahnung - ich drücke Enter....
Und, zweite Frage, warum renderst du die überhaupt (wenn sie nicht rot dargestellt wird)?
Kann man sich das aussuchen? Es werden eh nur die roten gerendert, und die gelben ruckeln dann... Laut irgedso einem CUDAWerbevideo sollten ja auch die roten einfach so abgespielt werden können...
EDIT:
Gerenderte Abschnitte sind übrigens Grün, daran sieht man also auch, ob gelbe Bereiche gerendert wurden.
Werden sie - leider - nicht.
Bin offenbar viel zu ahnunslos :-|
Antwort von dienstag_01:
Also, das gerenderte Abschnitte in der Timeline ruckeln, ungerenderte Abschnitte aber nicht, kann ich mir nicht erklären. Wichtig wäre, in den Sequenz Settings den Vorschaucodec zu prüfen.
Es gibt keinen Zwang, die Vorschau zu rendern. Klar ist aber, dass rote Bereiche wahrscheinlich nicht in Echtzeit laufen.
Antwort von Corniger:
OK; hab "alles" durchsucht, finde das setting nicht. Google macht mich ad hoc auch nicht schlauer :P Wo stelle ich den Codec fürs Preview ein??
Antwort von dienstag_01:
Sequenz Settings.
Standardmäßig ist dort ein MPEG I Frame Codec eingetragen.
Antwort von Corniger:
OK, ist das das, wo ich die Arbeitslaufwerke und die MPE einstelle? Vielleicht hab ich in meiner Qual da noch was übersehen. Leider erst nachts wieder :(
Antwort von dienstag_01:
Nein, Sequenz Einstellungen findet man unter Sequenz ;)
Antwort von Corniger:
Hnnnnng!
Wenn sich das als simpler Fehler eines unwissenden/unfähigen Users entpuppt, dann gebe ich mich zur öffentlichen Online-Kreuzigung frei!!!
Antwort von dienstag_01:
Das wird hier sicher von einigen gern wahrgenommen ;)
Aber mach dir mal nicht zu vile Hoffnung, was den Preview Codec betrifft. Meine Frage rührt eher daher, da bei dir gerenderte Videos schlechter abgespielt werden, als ungerenderte, dass womöglich da was verstellt wurde. Gebastelt hast du ja an deinem System ne Menge.
Vielleicht verstehst du auch was vollkommen anderes als ich unter dem Begriff Ruckeln ;)
Antwort von Corniger:
Also verstellt habe ich da nix, das einzige, was ich naturgemäß gemacht habe, war, die Speicherorte und MPE etc einzuschalten.
Ich werde mal präzisieren - GELBE Bereiche werden nicht gerendert und produzieren beim Abspielen mächtige CPU Spikes. Aber auch nur manche und an bestimmten Stellen, und das auch nicht IMMER. Aber wenn, dann sind es immer die gleichen.
Unter Ruckeln verstehe ich so 2-5 fps. Wie mit Decimator - also keine annähernd flüssige Wiedergabe. Aber bevor ich mich um Kopf und Kragen schreibe vom Büro aus, schau ich lieber nochmal nach am Abend... Ist leider äußerst mühselig momentan :P
Danke für's Dranbleiben!
Antwort von Bergspetzl:
Setze in out (mit i und o) in der timeline über die ganze sequenz. Dann klicke in der leiste oden auf sequenz und dort auf gesamte auswahl rendern bzw alle effekte rendern. Dann wird alles grün im gegensatz zu rendern mit enter
Antwort von Corniger:
@Dienstag_01: siehe attachment. Kann ich agr nicht ändern....
@Bergspetzl: DANKE :D Das hatte ich bei CS4 immer gemacht, kompett vergessen!
ABER: jetzt gerade ließen sich grüne&gelbe Bereiche GANZ NORMAL abspielen, sogar die roten gingen annähernd (!) flüssig. Ich werd aus dem System nicht schlau XD