Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Infoseite // Nvidia Geforce RTX 5090 - Die beste Grafikkarte für Blackmagic DaVinci Resolve



Newsmeldung von slashCAM:






Die RTX 5090 ist das neue Consumer Grafikkarten-Flaggschiff von Nvidia. Da müssen wir natürlich unbedingt mal schauen, wie sich die neue Karte unter Blackmagic DaVinci Resolve schlägt.



Hier geht es zum slashCAM Artikel:
Test: Nvidia Geforce RTX 5090 - Die beste Grafikkarte für Blackmagic DaVinci Resolve


Space


Antwort von freezer:

Auch Pugetsystems hat getestet:
https://www.pugetsystems.com/labs/artic ... on-review/

Space


Antwort von Rick SSon:

10-30% sind kaum ein value.

Wo ich 15fps habe gurke ich danach mit 17-20 fps rum, wo ich 100 fps habe kriege uch 110-130 was subjektiv kaum Unterschiede macht.

Die 40er Generation hatte gegenüber der 30er doppelt soviel performancezuwachs wie die 50er gegenüber der 40.

Aber heutzutage schehrt sich sowieso niemand mehr um die Realität.

Space


Antwort von freezer:

Hier mal der BRAW Speedtest auf meinem System:

Ryzen 9 5900X (12 Core)
128 GB RAM DDR4 3600
Nvidia RTX A6000 (aus der 3090er Generation) 48 GB RAM
BlackmagicRAWSpeedTest.png

Space


Antwort von pillepalle:

Hab den spaßeshalber auch gerade mit meiner RTX 4070 super gemacht. Aber dabei ist mir aufgefallen, daß sich unter CUDA die FPS bei unterschiedlichen Kompressionsstufen gar nicht unterscheiden? Also egal ob ich 12:1, oder 3:1 habe, ist er immer gleich schnell. Ist bei Robert ja auch so. Woran liegt das, bzw wo ist dann der Flaschenhals?


zum Bild


VG

Space


Antwort von Frank Glencairn:

pillepalle hat geschrieben:
Woran liegt das, bzw wo ist dann der Flaschenhals?
War schon immer so bei BRAW, die Kompressionsstufe spielt da keine Rolle.

Einen Flaschenhals gibt es halt immer, egal wie dein System aufgebaut ist, du kannst ihn nur irgendwo anders hin verschieben, aber du wirst ihn nie los.

Allerdings ist man auch irgendwann an einem Punkt, wo der Flaschenhals egal ist, weil sowieso schon alles in Echtzeit läuft :D

Space


Antwort von pillepalle:

Beim Slashcam-Test mit der neuen 5090 macht es einen Unterschied. Deshalb hatte ich erwartet, daß er dann auch bei mir aufträte. Aber es stimmt schon - wenn's schnell genug ist, ist's schnell genug :)

VG

Space


Antwort von Frank Glencairn:

Da bremst halt was anderes.
Dafür haben die 130 FPS (8K Cuda) und du nur 68 - da kommen andere Bremsen noch nicht zum Tragen.

Wobei man solche Benchmarks auch immer mit ner Priese Salz nehmen muß.
In alle Resolve Benchmarks schneiden z.B. die Ryzen 3D Versionen immer schlechter ab, als die minimal höher getakteten nicht-3D Versionen des selben Chips. Deshalb heißt es immer, das lohnt sich nicht für "Creators" sondern nur für Gamer.

Im echten Leben macht der 3D Cache allerdings beim tatsächlichen Arbeiten mir Resolve (was die Schwuppzidität betrifft), aber einen deutlichen Unterschied - das misst natürlich kein Benchmark.

Space


Antwort von TheBubble:

pillepalle hat geschrieben:
Hab den spaßeshalber auch gerade mit meiner RTX 4070 super gemacht. Aber dabei ist mir aufgefallen, daß sich unter CUDA die FPS bei unterschiedlichen Kompressionsstufen gar nicht unterscheiden? Also egal ob ich 12:1, oder 3:1 habe, ist er immer gleich schnell. Ist bei Robert ja auch so. Woran liegt das, bzw wo ist dann der Flaschenhals?
Das sich die Werte bei den unterschiedlichen Kompressionsstufen kaum unterscheiden, ist normal.

Was mir aber auffällt: Meine zwei Generationen ältere Karte schafft im gleichen Speed Test mehr fps, was aber an der Speicherbandbreite und Geschwindigkeit liegen könnte. Was für eine CPU hast Du?

Space



Space


Antwort von pillepalle:

@ TheBubble

Mein Rechner ist über 4 Jahre alt. Die CPU ist eine AMD Ryzen 9 3900X 12-Core 3.80 GHz und ich habe 64GB RAM installiert.

VG

Space


Antwort von MrMeeseeks:

"Rick SSon" hat geschrieben:
10-30% sind kaum ein value.

Wo ich 15fps habe gurke ich danach mit 17-20 fps rum, wo ich 100 fps habe kriege uch 110-130 was subjektiv kaum Unterschiede macht.

Die 40er Generation hatte gegenüber der 30er doppelt soviel performancezuwachs wie die 50er gegenüber der 40.

Aber heutzutage schehrt sich sowieso niemand mehr um die Realität.
Aber aufgepasst, wenn man vorher mit 20fps rumgegurkt ist, kann man nun mit flüssigen 24fps arbeiten. Das ganze nur für 2000€ :D

Natürlich steckte hinter solchen Produkten schon immer eine kommerzielle Absicht aber noch nie hat man sich so unpersönlich gemolken gefühlt.

Space


Antwort von TheBubble:

pillepalle hat geschrieben:
@ TheBubble

Mein Rechner ist über 4 Jahre alt. Die CPU ist eine AMD Ryzen 9 3900X 12-Core 3.80 GHz und ich habe 64GB RAM installiert.
An Deiner CPU liegt das also auch nicht. Die Menge an RAM ist für solche Tests an sich egal.

Dann bleibt ja fast nur die geringere Speicherbandbreite Deiner Grafikkarte als Erklärung. Oder mit Deinem System stimmt von der Konfiguration her etwas nicht.

Ist zwar bei mir auch nur ein Plus von ca. 10%-20%, ich hätte aber nicht vermutet, dass das so durch die Speichertransferrate begrenzt sein kann.

Space


Antwort von pillepalle:

@ TheBubble

Aber schlecht sind die Werte an sich ja nicht. Wir reden bei mir ja über eine 600,-€ Grafikkarte. Die 5090 kostet über 2000,- €

VG

Space


Antwort von TheBubble:

pillepalle hat geschrieben:
Aber schlecht sind die Werte an sich ja nicht.
Solange die Leistung für Dich nicht reicht, ist alles gut.

Ich habe mal nachgesehen, Deine Karte hat zwar eine geringere Busbreite, aber trotzdem mehr Speicherbandbreite als meine ältere Karte. Wenn ich in der Tabelle nicht verrutscht bin, müsste Deine in praktisch allen Belangen besser sein.

Ich würde daher wirklich mal schauen, ob Dein System korrekt konfiguriert ist. Mit etwas Glück wäre das ein nettes kostenfreies Upgrade.

Space


Antwort von Rick SSon:

"Frank Glencairn" hat geschrieben:
Da bremst halt was anderes.
Dafür haben die 130 FPS (8K Cuda) und du nur 68 - da kommen andere Bremsen noch nicht zum Tragen.

Wobei man solche Benchmarks auch immer mit ner Priese Salz nehmen muß.
In alle Resolve Benchmarks schneiden z.B. die Ryzen 3D Versionen immer schlechter ab, als die minimal höher getakteten nicht-3D Versionen des selben Chips. Deshalb heißt es immer, das lohnt sich nicht für "Creators" sondern nur für Gamer.

Im echten Leben macht der 3D Cache allerdings beim tatsächlichen Arbeiten mir Resolve (was die Schwuppzidität betrifft), aber einen deutlichen Unterschied - das misst natürlich kein Benchmark.
Schwuppzidität. Gutes Wort! :D

Space


Antwort von Da_Michl:

Find ich auch.

Finde allerdings Schwuppizität noch etwas besser.

Space


Antwort von Frank Glencairn:

https://youtu.be/5TJk_P2A0Iw?t=388

Space


Antwort von medienonkel:

Ich habe soeben bei Herrn Meyer nochmal nachgefragt.
Es heißt und hieß schon immer Schwuppdizität, seit 1998. (Artikel war wohl: Vollgestopfter Muskelprotz
Power Mac G3/300)



Zum Nachlesen:
https://www.it.niedersachsen.de/startse ... 80256.html

Space



Space


Antwort von Da_Michl:

Macht ja auch Sinn.
Ist mir aber zu lang und komplex. 😅

Space


Antwort von Frank Glencairn:

"Rick SSon" hat geschrieben:
10-30% sind kaum ein value.

Wo ich 15fps habe gurke ich danach mit 17-20 fps rum, wo ich 100 fps habe kriege uch 110-130 was subjektiv kaum Unterschiede macht.

Die 40er Generation hatte gegenüber der 30er doppelt soviel performancezuwachs wie die 50er gegenüber der 40.
Der hauptsächliche Unterschied bei der 5090 ist die DLSS AI Upscaling Engine die jetzt 6 Jahre lang trainiert wurde. Bringt uns leider nix - der GPU Markt ist halt hauptsächlich ein Gamer Markt, und wir sind da nur ne winzige Nische im einstelligen Prozentbereich, die kaum ne Rolle spielt.

Space


Antwort von medienonkel:

Trainiert Blackmagic eigentlich selbst seine AI Modelle oder steckt da was Zugekauftes bzw. Open Source dahinter?


Wäre sicher interessant zu erfahren, wie der prozentuale Anteil des Preises der 5090 ist, mit dem man Nvidia die Hardware und das Training des DLSS Modells finanziert.
Die meiste neue Performance steckt ja quasi im Treiber.
Hier würde ich tatsächlich einmal ein Abo Modell bzw. den Kauf einer Lizenz befürworten.
Die GPU gibt's zum realistisch kalkulierten Hardwarepreis und der Gamer, der unbedingt in 4K mit 200fps zocken möchte, zahlt seinen 20er im Monat ( inkl. Spiele-Abo o.Ä.) und hat dafür immer das neueste DLSS Modell und die Funktion im Treiber aktiviert am Start.

Space


Antwort von TheBubble:

medienonkel hat geschrieben:
Die GPU gibt's zum realistisch kalkulierten Hardwarepreis und der Gamer, der unbedingt in 4K mit 200fps zocken möchte, zahlt seinen 20er im Monat ( inkl. Spiele-Abo o.Ä.) und hat dafür immer das neueste DLSS Modell und die Funktion im Treiber aktiviert am Start.
Ich glaube kaum, dass ein Abo Modell bei PC Gamern funktionieren kann. Das gelingt maximal bei der Konsolen-Kundschaft, die sind schon stärker an Abos gewöhnt (z.B. für Multiplayer).

Space


Antwort von medienonkel:

TheBubble hat geschrieben:
medienonkel hat geschrieben:
Die GPU gibt's zum realistisch kalkulierten Hardwarepreis und der Gamer, der unbedingt in 4K mit 200fps zocken möchte, zahlt seinen 20er im Monat ( inkl. Spiele-Abo o.Ä.) und hat dafür immer das neueste DLSS Modell und die Funktion im Treiber aktiviert am Start.
Ich glaube kaum, dass ein Abo Modell bei PC Gamern funktionieren kann. Das gelingt maximal bei der Konsolen-Kundschaft, die sind schon stärker an Abos gewöhnt (z.B. für Multiplayer).
Okay... Auf dem PC gibt's auch season pass usw. Ich hatte jahrelang das EA Abo für deren Spiele. XBox Abo hat's ja auch aufm PC.

Stell dir vor, du bekommst die 5090 für 1200 Euro und kaufst die erweiterten Funktionen über die Anwendung, die darauf zugreifen und die Modelle mitliefern.
BM würde dafür evtl. gar nichts extra verlangen.
Du hast eine 5090 zum Arbeiten und wenn du zweimal im Jahr spielst und DLSS nutzen möchtest, zahlst du dafür über das Spiel oder einen entsprechenden Monatspass.

So zahlst du den vollen Preis einer Gamingkarte und nutzt das Killerfeature gar nicht.

Bin übrigens bis heute mit der 3090 kaum an Leistungsgrenzen in Resolve gestoßen. Bei mir hört es aber auch bei 4K auf.

Die 10bit 4:2:2 Unterstützung müsste mir mal jemand demonstrieren. Jetzt decoded das halt der Prozessor in Software, der sich beim Schnitt eh langweilt.

Quicksync unterstützt meines Wissens nach auch nicht immer 10bit 4:2:2, da kommt es auch auf h264 oder h265 an. Encoded wird auch nur 4:2:0.
Oder ist das prozessorspezifisch? Hab hier einen kleinen i5, der ist durchaus wählerisch.

Space


Antwort von TheBubble:

medienonkel hat geschrieben:
Okay... Auf dem PC gibt's auch season pass usw. Ich hatte jahrelang das EA Abo für deren Spiele. XBox Abo hat's ja auch aufm PC.
Konsolenspieler wurden schon vor langer Zeit erfolgreich an Abo-Modelle gewöhnt, die die Nutzung von Multiplayer-Funktionen beinhalten, was ein Upselling einfacher macht. Beim PC wäre das IMO derzeit undenkbar. Warum sollte ich auch ein Abo abschließen? Und wenn ich mal gar keine Lust auf Gaming habe, dann habe ich auch keine bezahlte Abo-Zeit vergeudet.
medienonkel hat geschrieben:
Stell dir vor, du bekommst die 5090 für 1200 Euro und kaufst die erweiterten Funktionen über die Anwendung, die darauf zugreifen und die Modelle mitliefern.
Die Idee zusätzliche Hardwarefeatures per Kauf/Abo freizuschalten ("Dürfen es ein paar Cores und 2 GHz mehr sein?") ist nicht wirklich neu. Einzig im Business-Bereich gab/gibt es so etwas. Die Akzeptanz von Privatkunden ist verhalten, i.d.R. ist das sogar auch nur ein Anreiz für Bastler, die blockierten Features selbst freizuschalten. Ähnliches sieht man öfter bei Auto-Navis: Nachdem der beim Kauf mitgegebene Probe-Zeitraum zu Ende ist, wird nicht verlängert.
medienonkel hat geschrieben:
Du hast eine 5090 zum Arbeiten und wenn du zweimal im Jahr spielst und DLSS nutzen möchtest, zahlst du dafür über das Spiel oder einen entsprechenden Monatspass.

So zahlst du den vollen Preis einer Gamingkarte und nutzt das Killerfeature gar nicht.
Warum sollte gerade jemand der mit einer Grafikkarte Geld verdient ein günstigeres Angebot bekommen? Das macht doch keinen Sinn, denn grade dort ist doch Geld zu holen.

Space


Antwort von markusw:

Mal eine Frage in die Runde: Ich möchte mein Resolve Studio ggf. etwas beschleunigen. Da bietet sich halt der Einbau einer geeigneten Grafikkarte an. Aktuell nutze ich noch die integrierte Grafikeinheit meines Dell Optiplex 7010SFF plus. Also Onboard-Grafik. Und ich habe nur beschränkt Platz (keine Standard-Bauhöhe, nur die schmale).
Und gravierendste Einschränkung: Ich möchte nur wenig Geld ausgeben, da ich Resolve nur für mein Hobby verwende und auch sonst NICHT spiele. Also just for fun.
Gibt es da überhaupt was passendes?

Space


Antwort von cantsin:

markusw hat geschrieben:
Mal eine Frage in die Runde: Ich möchte mein Resolve Studio ggf. etwas beschleunigen. Da bietet sich halt der Einbau einer geeigneten Grafikkarte an. Aktuell nutze ich noch die integrierte Grafikeinheit meines Dell Optiplex 7010SFF plus. Also Onboard-Grafik. Und ich habe nur beschränkt Platz (keine Standard-Bauhöhe, nur die schmale).
Und gravierendste Einschränkung: Ich möchte nur wenig Geld ausgeben, da ich Resolve nur für mein Hobby verwende und auch sonst NICHT spiele. Also just for fun.
Gibt es da überhaupt was passendes?
Weil Dein Computer ein kompaktes Spezialmodell ist: nein. Eine PCIe-GPU lässt sich nicht einbauen, und das Netzteil ist auch zu schwach für eine PCIe-Grafikkarte. Du müsstest da schon auf einen klassischen ATX-Tower-PC, am besten mit einem 750W-Netzteil, umsteigen.

Space


Antwort von medienonkel:

TheBubble hat geschrieben:
medienonkel hat geschrieben:
Okay... Auf dem PC gibt's auch season pass usw. Ich hatte jahrelang das EA Abo für deren Spiele. XBox Abo hat's ja auch aufm PC.
Konsolenspieler wurden schon vor langer Zeit erfolgreich an Abo-Modelle gewöhnt, die die Nutzung von Multiplayer-Funktionen beinhalten, was ein Upselling einfacher macht. Beim PC wäre das IMO derzeit undenkbar. Warum sollte ich auch ein Abo abschließen? Und wenn ich mal gar keine Lust auf Gaming habe, dann habe ich auch keine bezahlte Abo-Zeit vergeudet.
medienonkel hat geschrieben:
Stell dir vor, du bekommst die 5090 für 1200 Euro und kaufst die erweiterten Funktionen über die Anwendung, die darauf zugreifen und die Modelle mitliefern.
Die Idee zusätzliche Hardwarefeatures per Kauf/Abo freizuschalten ("Dürfen es ein paar Cores und 2 GHz mehr sein?") ist nicht wirklich neu. Einzig im Business-Bereich gab/gibt es so etwas. Die Akzeptanz von Privatkunden ist verhalten, i.d.R. ist das sogar auch nur ein Anreiz für Bastler, die blockierten Features selbst freizuschalten. Ähnliches sieht man öfter bei Auto-Navis: Nachdem der beim Kauf mitgegebene Probe-Zeitraum zu Ende ist, wird nicht verlängert.
medienonkel hat geschrieben:
Du hast eine 5090 zum Arbeiten und wenn du zweimal im Jahr spielst und DLSS nutzen möchtest, zahlst du dafür über das Spiel oder einen entsprechenden Monatspass.

So zahlst du den vollen Preis einer Gamingkarte und nutzt das Killerfeature gar nicht.
Warum sollte gerade jemand der mit einer Grafikkarte Geld verdient ein günstigeres Angebot bekommen? Das macht doch keinen Sinn, denn grade dort ist doch Geld zu holen.
Genau das ist das Problem, es wird ständig und auf sämtlichen Wegen Geld geholt. Nicht, weil es einen entsprechenden Gegenwert hat, sondern weil man es kann.

Wieso sollte man für 25% Mehrleistung alle zwei Jahre immer mehr Geld ausgeben?

Naja, der große "Mehrwert" einer 50XX ergibt sich halt hauptsächlich dadurch, dass DLSS4 ausschließlich darauf läuft. Und mit DLSS4 verdienen vermutlich recht wenige Leute Geld. Die Leistung der Karte ist für das Geld einfach zu schwach. Wenn, ist der Speicher interessant.

Dein Argument, dass Konsolenspieler an Abos gewöhnt sind, weil die online Mehrspielerspiele spielen, lässt eher schmunzeln, da ja allgemein bekannt ist, dass z.B. E-Sports Wettbewerbe ausschließlich auf Konsolen ausgetragen werden. Fortnite spielt auch kaum jemand am PC...

Space



Space


Antwort von Frank Glencairn:

markusw hat geschrieben:
Mal eine Frage in die Runde: Ich möchte mein Resolve Studio ggf. etwas beschleunigen. Da bietet sich halt der Einbau einer geeigneten Grafikkarte an. Aktuell nutze ich noch die integrierte Grafikeinheit meines Dell Optiplex 7010SFF plus. Also Onboard-Grafik. Und ich habe nur beschränkt Platz (keine Standard-Bauhöhe, nur die schmale).
Und gravierendste Einschränkung: Ich möchte nur wenig Geld ausgeben, da ich Resolve nur für mein Hobby verwende und auch sonst NICHT spiele. Also just for fun.
Gibt es da überhaupt was passendes?
Geht schon - aber halt mit gewissen Einschränkungen.
1. Compatibility of Graphics Cards with the Dell Optiplex 7010
Before adding a graphics card to the Dell Optiplex 7010, it is essential to ensure compatibility between the computer and the chosen graphics card. One crucial factor to consider is the size of the graphics card and the available space in the desktop case. The Dell Optiplex 7010 has a small form factor (SFF) that may limit the size of the graphics card that can be installed. Therefore, it is crucial to choose a low-profile graphics card that fits within the case dimensions.

Another critical compatibility factor is the power supply of the Dell Optiplex 7010. The computer's existing power supply may not provide enough wattage or the necessary power connectors to support a dedicated graphics card. To determine the power requirements, check the specifications of the chosen graphics card and compare them to the power supply's capabilities. If the power supply is inadequate, it may be necessary to upgrade it before installing the graphics card.

Lastly, consider the interface compatibility between the graphics card and the Dell Optiplex 7010's motherboard. The Dell Optiplex 7010 typically has a PCIe x16 slot available for expansion cards, including graphics cards. Ensure that the graphics card you choose is compatible with this slot and the version of PCIe supported by the motherboard. Compatibility with the operating system should also be checked to ensure driver availability.

Choosing the Right Graphics Card
When selecting a graphics card for the Dell Optiplex 7010, consider your specific needs and budget. If you are mainly interested in improving graphics performance for tasks like video editing or graphic design, a mid-range graphics card may suffice. However, if you intend to use the computer for gaming or other demanding applications, it may be worth investing in a high-end graphics card.

Some popular graphics card options for the Dell Optiplex 7010 include the NVIDIA GeForce GTX series and the AMD Radeon RX series. These cards offer a good balance between performance and affordability. Additionally, ensure that the graphics card you choose has the necessary ports for your display setup, such as HDMI, DisplayPort, or DVI.

It is also worth noting that some graphics cards may require additional power connectors, such as 6-pin or 8-pin connectors, to function correctly. Ensure that the Dell Optiplex 7010's power supply has the required connectors or plan to upgrade the power supply accordingly.


Before adding a graphics card, it is essential to consider the limitations of the Dell Optiplex 7010:

The small form factor (SFF) of the Dell Optiplex 7010 limits the size of graphics cards that can be installed. While low-profile graphics cards can fit, high-end cards with large heatsinks or multiple fans may not be compatible.

Furthermore, the power supply of the Dell Optiplex 7010 may need to be upgraded to accommodate a powerful graphics card. Ensure that the power supply can provide enough wattage and has the necessary power connectors for the chosen graphics card.

Additionally, adding a graphics card may increase the overall power consumption and heat generated by the computer. Consider the ventilation and cooling capabilities of your Dell Optiplex 7010 to prevent overheating.


Space


Antwort von Da_Michl:

@Frank: Chat GPT?

@markus
Ich denke (auch), dass es möglich sein sollte - allerdings evtl mit erheblichen Bastelei verbunden - z.B. ein zusätzliches / externes Netzteil für die Grafikkarte usw.

Ach ja: Hat dieser Optiplex denn einen Thunderbolt Port?

Space


Antwort von Frank Glencairn:

Da_Michl hat geschrieben:
@Frank: Chat GPT?
Nee, das hier: https://ms.codes/blogs/computer-hardwar ... phics-card

Space


Antwort von markusw:

Okay, ich danke euch für die Antworten.
Da der PC noch ziemlich neu ist, werde ich frühestens beim nächsten vorher das berücksichtigen und bis dahin halt so arbeiten (müssen).

Space


Antwort von Da_Michl:

ist deine Sache und werde nix einreden - aber (preisgünstige) Optionen gäbe es - Hab selber bei Chatgpt nachgefragt, weil es mich interessiert:

Specify answer for Dell Optiplex 7010 SFF plus!

ChatGPT said:
For the Dell OptiPlex 7010 SFF (Small Form Factor), you need low-profile, low-power GPUs due to space and power constraints. Here are the best options:

Compatible GPUs for OptiPlex 7010 SFF:
NVIDIA GeForce GT 1030 (30W, GDDR5 version recommended).
AMD Radeon RX 6400 (low-profile variant, 53W).
NVIDIA Quadro P400 (30W, designed for compact systems).
Important Notes:
The SFF model's PSU is 240W, so avoid GPUs requiring external power connectors.
Ensure the GPU physically fits in the low-profile bracket.
These GPUs can handle basic gaming, video editing, and productivity tasks efficiently.
If upgrading, always check clearance and PSU compatibility!


Wieviel Leistungszuwachs Dir so eine Karte bringt, weiß ich nicht. wie auch immer, alles gute mit deinem system.

Space


Antwort von markusw:

Da_Michl hat geschrieben:
ist deine Sache und werde nix einreden - aber (preisgünstige) Optionen gäbe es - Hab selber bei Chatgpt nachgefragt, weil es mich interessiert:

Compatible GPUs for OptiPlex 7010 SFF:
NVIDIA GeForce GT 1030 (30W, GDDR5 version recommended).
AMD Radeon RX 6400 (low-profile variant, 53W).
NVIDIA Quadro P400 (30W, designed for compact systems).


Wieviel Leistungszuwachs Dir so eine Karte bringt, weiß ich nicht. wie auch immer, alles gute mit deinem system.
Ganz vielen Dank für die sehr konkrete Aussage (seitens ChatGPT) die du für mich gefunden hast.
Du sagst ja, du kannst keine Ausage zum möglichen Leistungszuwachs geben. Kann ein anderer vielleicht was dazu sagen? Konkret Radeon RX6400 oder Geforce GT1030?

Space


Antwort von dienstag_01:

Das lohnt nicht.

Space


Antwort von markusw:

dienstag_01 hat geschrieben:
Das lohnt nicht.
Danke!

Space


Antwort von dienstag_01:

Ich staune ja eher, dass Resolve überhaupt auf eine Intel iGPU wie der UHD Graphics 770 läuft

Space



Space


Antwort von Frank Glencairn:

https://youtu.be/0jkP63WyDyU?t=598

Space


Antwort von Rick SSon:

cantsin hat geschrieben:
markusw hat geschrieben:
Mal eine Frage in die Runde: Ich möchte mein Resolve Studio ggf. etwas beschleunigen. Da bietet sich halt der Einbau einer geeigneten Grafikkarte an. Aktuell nutze ich noch die integrierte Grafikeinheit meines Dell Optiplex 7010SFF plus. Also Onboard-Grafik. Und ich habe nur beschränkt Platz (keine Standard-Bauhöhe, nur die schmale).
Und gravierendste Einschränkung: Ich möchte nur wenig Geld ausgeben, da ich Resolve nur für mein Hobby verwende und auch sonst NICHT spiele. Also just for fun.
Gibt es da überhaupt was passendes?
Weil Dein Computer ein kompaktes Spezialmodell ist: nein. Eine PCIe-GPU lässt sich nicht einbauen, und das Netzteil ist auch zu schwach für eine PCIe-Grafikkarte. Du müsstest da schon auf einen klassischen ATX-Tower-PC, am besten mit einem 750W-Netzteil, umsteigen.
Ein Macbook Air. Damit kannst du dich dann außerdem bedeutungsschwanger stundenlang für den Preis eines Latte irgendwas in ein Cafe deiner Wahl setzen.

SO sieht nämlich Mehrwert aus, Mr. NVIDIA! 😜

Space


Antwort von Frank Glencairn:

Auf der Developer/SDK Seite sind jetzt die kompletten Specs zu sehen.

1. H264 interlaced, 10-bit and 4:2:2 encoding support on Blackwell GPUs
2. HEVC 4:2:2 encoding support on Blackwell GPUs
3. MV-HEVC: Support MultiView coding in HEVC
4. AV1 LTR: Support Long-Term Reference frame in AV1
5. Support AV1 and HEVC Temporal Layer encoding
6. Support AV1 and HEVC MaxCLL, Mastering Display, and ITU-T T.35 SEI/Metadata
Decode Features:
1. 2x H264 throughput and maximum supported resolution 8192x8192 on Blackwell GPUs.
2. H264 High10/High422 Profile support (exclude MBAFF) on Blackwell GPUs
3. HEVC Main 4:2:2 10/12 profile support (exclude YUV400) on Blackwell GPUs
4. Dynamic decode surfaces allocation


https://developer.nvidia.com/video-codec-sdk

Space


Antwort von Bluboy:

Die Markteinführung der neuen Nvidia RTX 50-Serie sorgt für großen Unmut - selbst bei Nvidia-Mitarbeitern. Extreme Lieferengpässe führen zu langen Wartezeiten und Frustration. Sogar der interne Mitarbeiter-Shop kann keine Grafikkarten liefern.

https://winfuture.de/news,148632.html

Space


Antwort von Frank Glencairn:

https://youtu.be/mCwznDS3lBE?t=204

Space


Antwort von Bluboy:

Üble Panne: Nividia liefert GeForce RTX 5080 als RTX 5090 beschriftet
Mit dem Verkaufsstart der neuen Blackwell-Karten hat sich Nvidia nicht gerade mit Ruhm bekleckert. Jetzt tauchen auch noch Bilder einer GPU auf, bei der es sich der Aufschrift zufolge um eine RTX 5090 handelt. Unter der Haube steckt aber 'nur' eine RTX 5080.

https://winfuture.de/news,148665.html

Space


Antwort von Bluboy:

Preise explodieren: Hersteller Asus verlangt für RTX 5090 bis zu 4.900 €
Aus dem großen Interesse der Kunden und der stark eingeschränkten Verfügbarkeit von Nvidias Blackwell-GPUs wollen jetzt auch Hersteller wie Asus und MSI Profit schlagen und erhöhen ihre Preise kräftig. Teilweise wird Scalper-Niveau erreicht.

https://winfuture.de/news,148710.html

Space


Antwort von DKPost:

Bluboy hat geschrieben:
Preise explodieren: Hersteller Asus verlangt für RTX 5090 bis zu 4.900 €
Aus dem großen Interesse der Kunden und der stark eingeschränkten Verfügbarkeit von Nvidias Blackwell-GPUs wollen jetzt auch Hersteller wie Asus und MSI Profit schlagen und erhöhen ihre Preise kräftig. Teilweise wird Scalper-Niveau erreicht.

https://winfuture.de/news,148710.html
Gibt es da irgendeinen Beleg dazu? WinFuture liefert in den Artikeln zumindest keinen sondern behauptet das nur. Auch der Link zu Heise liefert keinen Beleg.

WinFuture ist einfach die Bildzeitung der Tech News.

Space


Antwort von Bluboy:

DKPost hat geschrieben:
Bluboy hat geschrieben:
Preise explodieren: Hersteller Asus verlangt für RTX 5090 bis zu 4.900 €
Aus dem großen Interesse der Kunden und der stark eingeschränkten Verfügbarkeit von Nvidias Blackwell-GPUs wollen jetzt auch Hersteller wie Asus und MSI Profit schlagen und erhöhen ihre Preise kräftig. Teilweise wird Scalper-Niveau erreicht.

https://winfuture.de/news,148710.html
Gibt es da irgendeinen Beleg dazu? WinFuture liefert in den Artikeln zumindest keinen sondern behauptet das nur. Auch der Link zu Heise liefert keinen Beleg.

WinFuture ist einfach die Bildzeitung der Tech News.
https://www.kaufland.de/product/5254503 ... gIJAfD_BwE

Space



Space


Antwort von DKPost:

Bluboy hat geschrieben:
DKPost hat geschrieben:

Gibt es da irgendeinen Beleg dazu? WinFuture liefert in den Artikeln zumindest keinen sondern behauptet das nur. Auch der Link zu Heise liefert keinen Beleg.

WinFuture ist einfach die Bildzeitung der Tech News.
https://www.kaufland.de/product/5254503 ... gIJAfD_BwE
Das ist ein Drittanbieter und nicht Asus.

Space


Antwort von Frank Glencairn:

Kaufland Marktplatz - das ist wie Ebay.

Die üblichen Scalper halt.

Space


Antwort von Alex:

Ganz anders sieht die Situation bei Asus aus. Das Unternehmen listete seine Flaggschiffkarte ROG Astral Geforce RTX 5090 kurzzeitig für 4.900 Euro auf, was eine erhebliche Erhöhung gegenüber der ursprünglichen Preisempfehlung von 2.949 Euro darstellt. Diese Angebote wurden inzwischen aus dem deutschen Webshop entfernt, wie Heise.de berichtet. https://www.golem.de/news/rtx-5000-mang ... 93170.html

Space


Antwort von DKPost:

Alex hat geschrieben:
Ganz anders sieht die Situation bei Asus aus. Das Unternehmen listete seine Flaggschiffkarte ROG Astral Geforce RTX 5090 kurzzeitig für 4.900 Euro auf, was eine erhebliche Erhöhung gegenüber der ursprünglichen Preisempfehlung von 2.949 Euro darstellt. Diese Angebote wurden inzwischen aus dem deutschen Webshop entfernt, wie Heise.de berichtet. https://www.golem.de/news/rtx-5000-mang ... 93170.html
Das ist genau der gleiche (kopierte) Artikel wie oben. Und die alle beziehen sich auf einen Artikel von Heise als Quelle, der aber keinerlei Belege liefert. Im Heise-Artikel gibt es sogar einen Link an entsprechender Stelle, der führt aber nur zu einem anderen Artikel und liefert auch keine Belege.
Man würde ja erwarten, dass ein halbwegs ordentlicher Journalist mal einen Screenshot machen würde um solche Behauptungen zu belegen...

Space


Antwort von medienonkel:

Die reine Rasterleistung einer 5090 liegt keine 10% über der einer 4090. In Blender sieht es wohl auch nicht besser aus.
https://www.notebookcheck.com/GeForce-R ... 559.0.html

Es fehlt immer noch die Killer-Tensor-Core Anwendung.


Für das 4:2:2 Decoding gibt ja hoffentlich niemand 4000 Euro aus. Außer, man muss unbedingt Multicam Schnitt mit 16 Kameras betreiben

Space


Antwort von medienonkel:

Hier gibt's den gewünschten Bildbeweis zu den Asus Preisen.


Space


Antwort von Frank Glencairn:

medienonkel hat geschrieben:
Die reine Rasterleistung einer 5090 liegt keine 10% über der einer 4090. In Blender sieht es wohl auch nicht besser aus.

Es fehlt immer noch die Killer-Tensor-Core Anwendung.


Für das 4:2:2 Decoding gibt ja hoffentlich niemand 4000 Euro aus.
Offensichtlich verkaufen sich die Dinger trotz der Scalper Preise wie geschnitten Brot - ich frage mich allen ernstes, was das für Leute sind.
Ich meine, irgendwelche Gamer Kids werden nicht mal schnell 4000,- Öcken raushauen.

Space


Antwort von medienonkel:

"Frank Glencairn" hat geschrieben:
medienonkel hat geschrieben:
Die reine Rasterleistung einer 5090 liegt keine 10% über der einer 4090. In Blender sieht es wohl auch nicht besser aus.

Es fehlt immer noch die Killer-Tensor-Core Anwendung.


Für das 4:2:2 Decoding gibt ja hoffentlich niemand 4000 Euro aus.
Offensichtlich verkaufen sich die Dinger trotz der Scalper Preise wie geschnitten Brot - ich frage mich allen ernstes, was das für Leute sind.
Ich meine, irgendwelche Gamer Kids werden nicht mal schnell 4000,- Öcken raushauen.
Gamer Kids nicht. Aber gibt ja genügend Enthusiasten, die immer das Neueste brauchen, um es in Foren zu posten und es sich easy leisten können.

So ein gewisser Milliardär hat ja auch Erfolge in spielen gekauft, um sein Ego aufzupolieren.

Space


Antwort von TheBubble:

Es fühlt sich so an, als ob zunächst nur die paar Exemplare der Nullserie in den Handel gelangten.

Space



Space


Antwort von cantsin:

Nvidia braucht den GPU-Markt nicht mehr wirklich und braucht sich daher um Kundenfreundlichkeit nicht zu scheren. Die sind heute ein Hersteller für KI-Beschleuniger in Forschungslaboren und Rechenzentren, und dadurch zur Firma mit dem weltweit höchsten Börsenwert aufgestiegen. Problem ist halt nur, dass sie ein de-facto-Monopol bei den High End-GPUs haben.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen //


Davinci 19 Beta Grafikkarte
Grafikkarte mit 8 GB für Davinci Resolve
Auf einen Blick - Die besten Grafikkarten für DaVinci Resolve
DaVinci Resolve 10 und ATI/AMD-Grafikkarte - ernüchternd
Grafikkarte Davinci Resolve
AMD RX480 in Resolve 12.5 so schnell wie Nvidia Titan X
Nvidia RTX 2080 Ti - Geschaffen für DaVinci Resolve?
H265-HW-Encoder in Davinci Resolve - nur mit Nvidia?
Nvidia GTX980 im DaVinci Resolve-Benchmark
Nvidia Geforce RTX 5090 - Die beste Grafikkarte für Blackmagic DaVinci Resolve
Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super
Davinci Resolve 10 (Vollversion) AMD & Nvidia Grafikkarte
Blackmagic DaVinci Resolve Update 16.2.7 bringt Unterstützung für neue Nvidia RTX 3080, RTX 3090 und RTX 3070 GPUs
Nvidia teasert GeForce RTX 3060 mit 12 GB Ram für 320 Euro
Neue Nvidia GPUs für Notebooks ab 800 Euro: GeForce RTX 3050/3050 Ti
Nvidia: GeForce RTX 3090 SUPER mit bis zu 450 Watt für 2022 erwartet
GeForce RTX 40 Series GPUs & DaVinci Resolve
Nvidia GeForce RTX 4060 Test - Einfluss auf und durch Influencer?
Nvidia RTX 5060 Ti: 16GB DDR7-Grafikkarte für 4K/8K Videoschnitt
Neue Nvidia RTX 6000 Profi-Grafikkarte: 48 GB VRAM und 18.176 CUDA Cores
NVIDIA RTX 5000 ADA - Grafikkarte mit 32 GB Ram in den Startlöchern
Nvidia bringt neue Profi-Grafikkarten für Workstations: RTX A5000 und RTX A4000
Neuer High-End Notebook bei ALDI mit AMD Ryzen 9 5900HX, 64 GB RAM und GeForce RTX 3080
LG UltraGear Gaming Laptop 17G90Q: 32 GB RAM, GeForce RTX 3080 und Thunderbolt 4
Neue Nvidia RTX 4090: Doppelt so schnell wie RTX 3090 Ti - aber 1.949 Euro teuer
Neue Nvidia Oberklasse GPUs im Januar - RTX 4070 / Ti und RTX 4080 Super




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash