CPU vs DLSS

MasterWinne

Commander
Registriert
Mai 2004
Beiträge
2.483
Hallo zusammen und schöne Pfingsten.

Also ich kämpfe mich schon den seit heut Morgen kreuz und quer durch Tests und Videos. Aber irgendwie finde ich nichts was Auskunft darüber gibt, wie sich CPU und GPU im Zusammenhang mit Nvidia´s DLSS verhalten.

Hintergund: Ryzen 3600 und 3080 unter FHD wird der 3600 schon zum Flaschenhals = Check.
Da ich aber in 4k (4096x2160) oder auch gerne 3840x1600 (21:9 auf 48Zoll Oled) Zocke, ist der der 3600er = schnell, laut diversen Videos sogar teils schneller und sparsamer als der 5800x (Stocks).

Nun gut, also kein Grund Geld in einen der 5000ér zu stecken, wenn das ABER nicht wäre. Denn alle Test´s beziehen sich auf Games bei DLSS OFF. Wie siehts das dann mit DLSS ON aus? Ich meine, ein Game in 4k + DLSS ON bei einer 3080 was entschieden mehr FPS bringt auf GPU Seite. Wie siehts da zwischen 3000ér und 5000ér aus? Dazu finde ich einfach nix.
 
MasterWinne schrieb:
schnell, laut diversen Videos sogar teils schneller [...] als der 5800x (Stocks).
Was Blödsinn ist. Die richtige Antwort wäre: Bei hohen Auflösungen ist irgendwann das GPU-Limit so hoch, dass zwischen halbwegs aktuellen CPUs kaum noch Unterschiede existieren, weil sie alle schnell genug sind. Die Unterschiede kommen in diesem Fall von der Grafikkarte oder anderen Parametern.

DLSS wird rein auf der GPU berechnet, die Grundlage dazu ist aber ein Bild mit einer niedrigeren Auflösung.
Die Auflösung des Referenzbild ist also entscheidend. Plus etwas DLSS Overhead.
Wenn du also wissen willst wie CPUx mit DLSS in Auflösung y grob zurecht kommt, schau dir die Auflösung des Referenzbildes bei DLSS an und vergleiche die CPU unter dieser mit DLSS off.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: prian
MasterWinne schrieb:
Wie siehts das dann mit DLSS ON aus? Ich meine, ein Game in 4k + DLSS ON bei einer 3080 was entschieden mehr FPS bringt auf GPU Seite.
Das hängt u.a. von den DLSS Settings (welche Grundauflösung genutzt wird) und deinen Qualitätseinstellungen ab. Darauf nehmen die meisten Tests ja auch keine Rücksicht, sondern zeigen nur die Performance bei voll aufgedrehten Settings.

Grundsätzlich ist es so, dass DLSS zwar nicht die CUDA Cores beansprucht, aber dafür die Tensor Cores. Das führt dann dazu, dass das Power Budget der Grafikkarte nicht mehr voll für die CUDA Cores zur Verfügung steht, sondern zum Teil für die Tensor Cores genutzt wird. Die Tensor Cores haben natürlich auch nicht unendlich viel Rechenleistung und bremsen dementsprechend auch noch mal ein bisschen die endgültige Framerate.
D.h. dass die Grafikkarte prinzipiell weniger FPS schaffen wird, wenn man z.B. 1080p nativ mit 1080p -> 4K DLSS Upscaling vergleicht. Also wird bei Verwendung von DLSS die CPU dann auch weniger ausgelastet.

Aber wie gesagt: Hängt auch stark davon ab, ob du 1080p oder 1440p (oder was auch immer) nimmst, um das Upscaling auf 4K durchzuführen. Hängt dann natürlich auch vom Spiel ab, welche Grundauflösungen überhaupt unterstützt werden.

Wenn du die Hardware eh schon da hast, könntest du es natürlich auch einfach ausprobieren und messen. Geht ja relativ schnell für einen groben Eindruck.
 
Ergibt dann aber welche Aussage? Wäre zb. ein 5600x dann "Lohnenswerter" oder immer noch nahezu gleich zum 3600ér bei 4K + DLSS. Das ist die eigentliche Frage um die es geht. Klar hängt die GPU im Limit, wenn diese aber mit weniger Auflösung Rendert, sollte sich doch ein 5000ér bemerkbar machen. Oder nicht, dazu finde ich leider genau null Test´s. Testen kann ichs eben gerade nicht, weil kein 5000ér da. Insgesamt lohnt sich bei 4k oder 3840x1600 ohne DLSS ein UP vom 3600ér nicht. Daher ja meine Gedanken ob sich das bei DLSS dann anders verhält, weil ja die Mainauflösung bei DLSS viel niedriger ist, wo man laut Test´s die 5000ér wieder deutlich merkt. Komisch insgesamt das sowas keiner Testet.

Die Sache ist halt die, das ich so oder so ein weiters 4k System benötige, wo ich den 3600ér vererben könnte.
Aber bei 3600 für 120€ (Bucht) oder 5600x für 290 stellt sich die Frage, einfach noch einen 3600er holen oder lohnt sich der 5600ér doch, wenn man DLSS nutzt.
 
Zuletzt bearbeitet:
MasterWinne schrieb:
Ergibt dann aber welche Aussage?
Dass es dazu keine definitive Aussage gibt. Es kommt auf die Einstellungen an.

Wenn es dir um hohe Auflösung geht ist man aber besser damit beraten, das Geld in die GPU statt in die CPU zu stecken.
Nicht dass das, was man gegenwärtig bei der CPU einspart bei den aktuellen Grafikkartenpreisen irgendwas ausrichten könnte...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: madmax2010
DLSS Wird auf den Tensor Kernen der GPU berechnet. Der general Purpose / CUDA Teil hat in dem Fall recht wenig zu tun.
Die CPU hingegen interessiert das auch eher wenig.
MasterWinne schrieb:
Wäre zb. ein 5600x dann "Lohnenswerter" oder immer noch nahezu gleich zum 3600ér bei 4K + DLSS. Das ist die eigentliche Frage um die es geht.
Kommt aufs jeweilige spiel an.. meistens reicht der 3600, bei manchen cpu lastigen spielen ist der 5600 flinker
 
MasterWinne schrieb:
Ergibt dann aber welche Aussage? Wäre zb. ein 5600x dann "Lohnenswerter" oder immer noch nahezu gleich zum 3600ér bei 4K + DLSS.
In 4K selbst mit DLSS ist da der Unterschied sehr gering, das ist im niedrigen FPS messbar, aber mit Sicherheit nicht menschlich spürbar.

3600 zu 5600X ist schon ein Unterschied, jo, aber der schrumpft je mehr das GPU Limit kommt, da ändert DLSS nicht so viel dran wie man meinen mag!
 
  • Gefällt mir
Reaktionen: madmax2010
Exakt das wird so wie du es vorgekaut habe willst aber keiner machen.
Schau dir Tests an zu den Games die du zocken willst und zwar 2 verschiedene Tests.
- Test A: max Details FullHD CPU Test
plus
- Test B: z.B. (10900K oder 5900X verwendet) 1440p (DLSS Quality Profil) bzw. 1080p (DLSS 4K performance Profil) max Details GraKa Test ähnlich deiner Karte an

Falls in Test A von einem Ryzen 3600 zufriedenstellend genug FPS kommen, gut
Falls dann im Test B im verfügbaren DLSS Profil von der GraKa auch genug FPS kommen, gut

Ist in Test A der 3600 langsamer als die GraKa in Test B, schlecht.
Kontrolle ob ein 5600X in Test A zufriedenstellend wäre.
FERTIG
 
  • Gefällt mir
Reaktionen: Artropan
Flare schrieb:
Falls in Test A von einem Ryzen 3600 zufriedenstellend genug FPS kommen, gut
Wenn es nur um die CPU geht, ist das doch der entscheidende Faktor. Schafft die CPU bei maximalen Details in den gewünschten Spielen die gewünschten FPS? Wenn ja, dann schafft sie das in jeder Auflösung und egal ob mit oder ohne DLSS, weil das die CPU nicht interessiert.
 
In die GPU´s muss ich nix mehr stecken, die hab ich schon rumliegen (3080ér).
Was ich bisher erkannt habe, das beim 5600x zwischen DLSS OFF / Balanced die CPU Last schon um 15 bis 20 % zulegt. Also muss sich die Nativ geringer DLSS Auflösung ja auswirken. Nur ist eben nicht wirklich ersichtlich, was am ende der CPU FPS Anteil, und welcher der DLSS GPU Anteil ist :( ... schwierig
 
Ist ja normal, wenn man das GPU-Limit durch eine niedrigere Auflösung nach oben verschiebt... dann hat die CPU auch mehr zu tun.

Ist denn die Grafikkarte mit dem 3600er ausgelastet, d.h. 99% GPU-Load?
Wenn ja, bringt dir eine schnellere CPU nix, da GPU-Limit.


Ansonsten haben die Vorposter schon die grundsätzliche Vorgehensweise bei der Analyse von Benchmarkergebnissen beschrieben.
 
.
 
120 vom Oled. Wobei ich Qualität bis minimal 60 fps vorziehe. Der Oled reagiert so gut, das ich quasi auch bei 60 fps vollkommen zufrieden bin. Volle 4k auf dem Desktop sind sehr geil, beim Gaming aber 21:9 3840x1600 viel angenehmer und definitv geiler, nicht nur wegen den mehr fps, sondern weils weniger gezoomt wirkt und logisch auch das breite Bild viel mehr her gibt. Sehr sehr angenehm bei 48 zoll.
 
danke für das Video, in den Szenen die ich gesehen habe war der 5800x jedesmal schneller als der 3600, wo soll der 3600er schneller sein, oder verstehe ich etwas falsch?
 
Bei Bf zb in 4k war der 3600 schneller
 
MasterWinne schrieb:
In 4K ist in 99% der Spiele die CPU vollkommen egal. Die 3% Unterschied fallen unter Messtoleranz.
Zumal die Testumgebung in dem Video nicht gut kontrolliert ist. Die Szenen sind nicht 100% indentisch.
 
Zurück
Oben