Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Nvidia GeForce RTX 4060 Test - Einfluss auf und durch Influencer?



Newsmeldung von slashCAM:



Grundsätzlich gibt es immer ein NDA-Spannungsverhältnis zwischen Herstellern und der Presse: Der Hersteller stellt unabhängigen Medien Informationen und Testgeräte bereit...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Nvidia GeForce RTX 4060 Test - Einfluss auf und durch Influencer?


Space


Antwort von Frank Glencairn:

Und bei Leuten, die zwei Tage vor dem Fall des NDAs im Netz nach Informationen suchen, ergibt sich wahrscheinlich ein weitaus besserer Eindruck als beim Blick auf ein Gesamtfeld aller Tests-Szenarios Und dann?

Ich bin ziemlich sicher das der tatsächlich Impact dieser Strategie völlig überschätzt wird.

Und wenn ich mir die Specs so anschaue - wär ja ein Wunder wenn die nicht deutlich schneller wäre.


image_2023-06-28_122510545.png

Space


Antwort von rudi:

"Frank Glencairn" hat geschrieben:
Und dann?
Ich bin ziemlich sicher das der tatsächlich Impact dieser Strategie völlig überschätzt wird.
Und wenn ich mir die Specs so anschaue - wär ja ein Wunder wenn die nicht deutlich schneller wäre.
Ähm, die Nvidia-Tabelle lässt ein paar Details aus:

RTX 3060 (12 GB, 192 Bit, 360.0 GB/s)
vs.
RTX 4060 (8 GB, 128 Bit, 272.0 GB/s).

Grade bei der Videobearbeitung dürfte die RTX 3060 schneller sein, da Speicheranbindung oft der limitierende Faktor ist.

Da wir das NDA auch nicht unterschrieben haben, werden wir es leider nicht testen.

Space


Antwort von teichomad:

"RTX 3060 (12 GB, 192 Bit, 360.0 GB/s)
vs.
RTX 4060 (8 GB, 128 Bit, 272.0 GB/s)."

wtf, was geht eigentlich bei nvidia ab.

Space


Antwort von wolfgang:

Also wenn die Kritik die ist, dass nvidia hier Vorab-Tester derart einschränken will, dass diese für nvidia günstige Ergebnisse zeigen - das kann ich mir schon vorstellen. Noch dazu, als die RTX 40xx nicht unbedingt immer der große Vorteile zeigen dürfte (die geringere Speicheranbindung ist wohl schon etwas, was die nicht berichtet haben wollen).

Ich glaube schon, dass diese Einflussnahme auf frühe Tests fragwürdig ist. Denn sucht ein potentielle Käufer, dürfte er wohl eher auf diese "nvidida-freundlichen" tests stoßen.

Es geht halt um Absatzzahlen - und damit Umsätze in einem sehr umkämpften Markt.

Space


Antwort von dienstag_01:

rudi hat geschrieben:
"Frank Glencairn" hat geschrieben:
Und dann?
Ich bin ziemlich sicher das der tatsächlich Impact dieser Strategie völlig überschätzt wird.
Und wenn ich mir die Specs so anschaue - wär ja ein Wunder wenn die nicht deutlich schneller wäre.
Ähm, die Nvidia-Tabelle lässt ein paar Details aus:

RTX 3060 (12 GB, 192 Bit, 360.0 GB/s)
vs.
RTX 4060 (8 GB, 128 Bit, 272.0 GB/s).

Grade bei der Videobearbeitung dürfte die RTX 3060 schneller sein, da Speicheranbindung oft der limitierende Faktor ist.

Da wir das NDA auch nicht unterschrieben haben, werden wir es leider nicht testen.
Wenn ihr Speicheranbindung schreibt, dann meint ihr ja nicht Speichergröße, sondern Transferraten.
Und da würde ich mal nach Adam Ries behaupten, dass bei der 4060 der Speicher schneller "angebunden" ist.
Für 12GB Speichergröße brauche ich 1 Drittel mehr Bandbreite, um den Speicher gleich schnell wie einen 8GB zu füllen. Bei gleicher Transferrate.
Hatten wir doch schon mal bei der, was war das, 970 oder 1070, die hatte bei 6GB auch 192bit. (Wenn ich mich recht erinnere).
Und 360 zu 272 ist weniger als ein Drittel, also 3060 langsamer angebunden.

Space


Antwort von rudi:

dienstag_01 hat geschrieben:

Für 12GB Speichergröße brauche ich 1 Drittel mehr Bandbreite, um den Speicher gleich schnell wie einen 8GB zu füllen. Bei gleicher Transferrate.
Dann hast du aber auch ein Drittel mehr in der gleichen Zeit übertragen.
Nvidia argumentiert übrigens, dass der Cache vom 3 MB auf 24 MB gewachsen ist, und der kann die Bandbreite auf 453 GB/s effektiv erhöhen. Aber leider sind grade bei der Videobearbeitung die Daten selten sinnvoll zu cachen, weil sie so groß sind.

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:
(die geringere Speicheranbindung ist wohl schon etwas, was die nicht berichtet haben wollen).
Steht doch groß und fett auf der Nvidia Webseite - die machen da jetzt wirklich kein Geheimnis draus.
Das wär zum ersten mal, daß ein Hersteller die Bandbreite verheimlicht.

Wie kommst du auf sowas?

image_2023-06-28_133039580.png

Space


Antwort von dienstag_01:

rudi hat geschrieben:
dienstag_01 hat geschrieben:

Für 12GB Speichergröße brauche ich 1 Drittel mehr Bandbreite, um den Speicher gleich schnell wie einen 8GB zu füllen. Bei gleicher Transferrate.
Dann hast du aber auch ein Drittel mehr in der gleichen Zeit übertragen.
Nvidia argumentiert übrigens, dass der Cache vom 3 MB auf 24 MB gewachsen ist, und der kann die Bandbreite auf 453 GB/s effektiv erhöhen. Aber leider sind grade bei der Videobearbeitung die Daten selten sinnvoll zu cachen, weil sie so groß sind.
Diese Transferraten sind sowieso theoretischer Natur.
Und wenn es irgendwo hakt, dann doch nicht bei der Transferrate zur Grafikkarte.

Space



Space


Antwort von wolfgang:

Wie kommst du zu einer Tabelle, die das nicht zeigt? Wieso postest du so etwas?
image_2023-06-28_122510545.png

Space


Antwort von medienonkel:

Zum Glück gibt's die 3060ti mittlerweile weit unter 400 Euro. Da hat's dann auch wieder 256bit.

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:
Wie kommst du zu einer Tabelle, die das nicht zeigt? Wieso postest du so etwas?
Steht hier - nur halt in GB statt bit - ist doch offensichtlich.

image_2023-06-28_133751249.png Das hat Rudi ja auch schon oben gepostet.
RTX 3060 (12 GB, 192 Bit, 360.0 GB/s)
vs.
RTX 4060 (8 GB, 128 Bit, 272.0 GB/s).


Space


Antwort von Frank Glencairn:

medienonkel hat geschrieben:
Zum Glück gibt's die 3060ti mittlerweile weit unter 400 Euro. Da hat's dann auch wieder 256bit.
Ich würde vorschlagen wir warten erst mal die Puget Real World Tests ab.
Nach meiner groben Einschätzung wird die 4060 ca.10-15% schneller sein als die 3060.
In AI Modulen wahrscheinlich sogar deutlich schneller sind ja mehr als doppelt so viele Kerne, und auch noch die neueste Generation.

Space


Antwort von pillepalle:

Wenn ich bei meiner 2060 Super nachschaue steht da unter anderem

CUDA-Kerne: 2176
Grafik-Boost-Taktfrequenz: 1650MHz
Speicher-Datenrate: 14.00 Gbps
Speicherschnittstelle: 256-Bit
Speicherbandbreite: 448.06 GB/s

Ist ja sogar besser als bei einer normalen 4060. Aber eine gute Speicherbandbreite kann natürlich nur gewährleisten, dass die Karte dadurch nicht zusätzlich ausgebremst wird. Die Leistung an sich ist natürlich niedriger.

VG

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
wolfgang hat geschrieben:
(die geringere Speicheranbindung ist wohl schon etwas, was die nicht berichtet haben wollen).
Steht doch groß und fett auf der Nvidia Webseite - die machen da jetzt wirklich kein Geheimnis draus.
Das wär zum ersten mal, daß ein Hersteller die Bandbreite verheimlicht.

Wie kommst du auf sowas?


image_2023-06-28_133039580.png
Und was willst jetzt von mir? Hatte Rudi erwähnt! rudi hat geschrieben:

Ähm, die Nvidia-Tabelle lässt ein paar Details aus:

RTX 3060 (12 GB, 192 Bit, 360.0 GB/s)
vs.
RTX 4060 (8 GB, 128 Bit, 272.0 GB/s).

Grade bei der Videobearbeitung dürfte die RTX 3060 schneller sein, da Speicheranbindung oft der limitierende Faktor ist.


Space


Antwort von Frank Glencairn:

Du hast doch behauptet Nvidia würde das angeblich nicht erwähnt haben wollen.

Und daß Rudi in der Liste weder die - ebenfalls groß und fett dastehende - Speicherbandbreite gesehen
hat noch das V-Ram, hat dir offensichtlich auch nicht zu denken gegeben?

Space


Antwort von medienonkel:

"Frank Glencairn" hat geschrieben:
medienonkel hat geschrieben:
Zum Glück gibt's die 3060ti mittlerweile weit unter 400 Euro. Da hat's dann auch wieder 256bit.
Ich würde vorschlagen wir warten erst mal die Puget Real World Tests ab.
Nach meiner groben Einschätzung wird die 4060 ca.10-15% schneller sein als die 3060.
In AI Modulen wahrscheinlich sogar deutlich schneller sind ja mehr als doppelt so viele Kerne, und auch noch die neueste Generation.
Ich meine ja die 3060ti, die von Puget als guter Einstieg ins Workstationsegment geführt wurde/wird.
Die Speicherbandbreite ist ja eigentlich nur bei Echtzeit-Schnitt ein echter limitierender Faktor und wird meinem Eindruck nach auf slashcam zu oft wie eine Monstranz vor der GPU Diskussion hergetragen.

Die Tensor Cores für AI Anwendungen sind natürlich mittlerweile wohl bald wichtiger als Speicherbandbreite oder reine Flops. Zumal man wohl auch bald lokale Optimierungen der Modelle (siehe MS Olive) sehen wird, die dann noch effizienter auf der jeweiligen Maschine laufen.

Man darf auch nie vergessen, dass das hier alles Gaming Karten sind. Hier sollte der vergrößerte Cache durchaus den gewünschten Effekt haben. NVIDIA zählt hier auch sehr stark auf DLSS, was die Framerate in Spielen mittlerweile einfach mal verdoppelt. Dafür sind die Tensor Cores hauptsächlich gedacht.
Man geht auch langsam dazu über Raytracing und GI durch AI ergänzen zu lassen.
https://www.youtube.com/watch?v=KFsfv-BL0N0&t=183s

Vielleicht sieht man in Zukunft auch tatsächlich eher eine Stagnation der rohen Geometrie- und Texturleistung bei GPUs, die dann nur noch eine Art genormte Bildvorgabe rendert, die dann von höchst optimierten Netzen zur eigentlichen Spielegrafik komplettiert werden. Fände ich sehr interessant, so könnte sich auch hier immer mehr die Bildqualität Richtung Software verschieben.
Ansätze z.B. GTA Fotorealistisch darzustellen gibt es ja schon länger.
https://www.youtube.com/watch?v=P1IcaBn3ej0

Space


Antwort von Frank Glencairn:

medienonkel hat geschrieben:


Die Speicherbandbreite ist ja eigentlich nur bei Echtzeit-Schnitt ein echter limitierender Faktor und wird meinem Eindruck nach auf slashcam zu oft wie eine Monstranz vor der GPU Diskussion hergetragen.

Ja, vor allem wenn man bedenkt, daß selbst auf unserer ältesten Workstation mit ner quasi antiken 4 GB GTX980 flüssiger Echtzeitschnitt ohne irgendwelchen Cachereien möglich ist.

Space



Space


Antwort von MK:

Selbst mit PCIe 5.0 x16 kann man nur ca. 63 Gigabyte pro Sekunde übertragen... von daher wird die interne Speicherbandbreite der Grafikkarte für Videobearbeitung am Ende... egal... sein...

Space


Antwort von jjpoelli:

Also ihr sagt, ich soll bei unseren GTX 1080 bleiben die alles ermöglichen nur bei Fusion-Effekten nur noch 5-8 fps schaffen?
(ist ernst gemeint weil ich schon gedacht hab ich sollte vielleicht upgraden....)

Space


Antwort von medienonkel:

jjpoelli hat geschrieben:
Also ihr sagt, ich soll bei unseren GTX 1080 bleiben die alles ermöglichen nur bei Fusion-Effekten nur noch 5-8 fps schaffen?
(ist ernst gemeint weil ich schon gedacht hab ich sollte vielleicht upgraden....)
Die Frage kannst nur du dir selbst beantworten.... ob Fusion mit einer neuen GPU wirklich schneller läuft hängt auch stark von den von dir verwendeten Effekten/Filtern ab.
Wenn du viel mit Fusion-Effekten machst könnte es sich also lohnen.
Aber nicht unterschätzen, dass auch die CPU das Upgrade leistungstechnisch unterstützen können muss.

Space


Antwort von medienonkel:

Gerade aufgeschlagen:
https://www.youtube.com/watch?v=O0srjKOOR4g

Space


Antwort von macaw:

Was für eine dämliche Strategie soll das denn sein? Diejenigen, die eine GPU so derart völlig überstürzt kaufen, dürften eh nur Gamer mit zuviel Geld und zuwenig Geduld sein. Die meisten dürften nach den Überraschungen der letzten Jahre eh abwarten, bis die Treiber einigermaßen sauber oder technische Probleme wie die mit den billigen Kondensatoren der 30er Serie oder den geschmolzenen Kabeln der 40er Serie korrigiert/geklärt sind. Ganz zu schweigen davon, daß viele das Sacken der Preise und in Ruhe durchgeführte Tests mit vielen verschiedenen Spielen, Programmen, Konfigurationen und Settings abwarten.

Space


Antwort von Frank Glencairn:

Eben - irgendwelche First Person Shooter FPS interessieren mich sowieso nicht die Bohne und beim einzigen Test der nicht nur für Spielkinder interessant ist (Blender) war sie auf dem zweiten Platz unter der TI.

Ned schlecht für ne 299,- Stromsparkarte.

Is ja noch nicht so lange her, da hat man für weniger Leistung 1200,- gezahlt.

Wie ich schon sagte, lass die mal ihre Treiberprobleme sortieren, und dann sehen wir uns die Puget Tests an, mit Ergebnissen die auch tatsächlich für unsereins relevant sind.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Blackmagic DaVinci Resolve Update 16.2.7 bringt Unterstützung für neue Nvidia RTX 3080, RTX 3090 und RTX 3070 GPUs
Nvidia teasert GeForce RTX 3060 mit 12 GB Ram für 320 Euro
Neue Nvidia GPUs für Notebooks ab 800 Euro: GeForce RTX 3050/3050 Ti
Nvidia: GeForce RTX 3090 SUPER mit bis zu 450 Watt für 2022 erwartet
Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super
Nvidia Geforce RTX 5090 - Die beste Grafikkarte für Blackmagic DaVinci Resolve
Neuer High-End Notebook bei ALDI mit AMD Ryzen 9 5900HX, 64 GB RAM und GeForce RTX 3080
LG UltraGear Gaming Laptop 17G90Q: 32 GB RAM, GeForce RTX 3080 und Thunderbolt 4
GeForce RTX 40 Series GPUs & DaVinci Resolve
Nvidia bringt neue Profi-Grafikkarten für Workstations: RTX A5000 und RTX A4000
Neue Nvidia RTX 4090: Doppelt so schnell wie RTX 3090 Ti - aber 1.949 Euro teuer
Neue Nvidia Oberklasse GPUs im Januar - RTX 4070 / Ti und RTX 4080 Super
Neue Nvidia NVIDIA RTX 2000 Ada für $625
Grafikkartenpreise fallen immer weiter - jetzt zuschlagen oder auf neue Nvidia RTX 4000 GPUs warten?
Nvidia Magic3D - beliebige 3D-Objekte durch Textbeschreibung erzeugen
Schönere Zeitrafferaufnahmen durch neue NVIDIA-KI
Neue RTX 3070 Ti 16GB und RTX 3080 12GB Gerüchte
RTX 3080 Ti vs RTX 4070 for video editing




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash