Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Laphonso schrieb:
Ja Moment, entweder spielt die CPU eine Rolle oder nicht?

Der CPU Headroom ist in zig Games doch bewiesen, die 4090 wurde schneller in 4K Szenarien.


Und dass ein 10800x3D bessere Fps und vor allem Frametimes in "4K GPU Limits" bringt können wir dann bei Euren Tests hier dann ja sehen in einem Jahr? Wir haben ja Eure 9800x3D Daten jetzt.

Es sei denn, wir reden gerade aneinander vorbei :D
Entweder reden wir aneinander vorbei oder du willst mich hier auf den Arm nehmen ;)

Ich habe gesagt, dass in unserem Testparcours mit dem 9800X3D in Ultra HD kein CPU-Limit besteht, entsprechend würde ein potenzieller 10800X3D nichts an den Werten ändern.

Damit sage ich NICHT, dass es einer langsameren CPU als dem 9800X3D es nicht anders wäre. Mit dem 7800X3D zum Beispiel mag es in dem Parcours ein CPU-Limit in Ultra HD geben - das kann sein, ich weiß es aber nicht, weil ich mit dem 9800X3D getestet habe.

Darum kann ich sagen, dass ein 10800X3D die 5090 in unserem Test nicht beschleunigt hätte. Ich kann aber NICHT sagen, dass es mit einer langsameren CPU als dem 9800X3D nicht schlechter ausfallen würde.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, Sirhaubinger, mibbio und 6 andere
milliardo schrieb:
Du musst dazuschreiben dass du 4k, max Settings, max RT (+ggf PT) mit Ziel-FPS 100+ bei striktem Upscaling-Verbot meinst, sonst stimmts so nicht.
Du musst deine rosa rote Brille mal runternehmen, ich sehe da nur 25-30fps.
Oder haben dich die ganzen DLSS 3, DLSS 4, SR, RR, FG, MFG, FPS Balken ganz wuschig gemacht.
 
nuestra schrieb:
Mein be quiet Netzteil mit 850w ging bei einer 3090 und 7950x3d aus. Es geht um Spikes. Kannst gern beim igor nachlesen
Du musst da einen klaren Schnitt zwischen ATX2.03 und ATX3.x Netzteilen machen.

Alt
1737727388793.png

https://www.enermaxeu.com/de/products/power-supplies/high-end/revolution-d-f/

Neu
1737727422292.png

https://www.enermaxeu.com/de/products/power-supplies/high-end/revolution-d-f-x/

Um Spikes brauchst du dir also bei ATX3.x Netzteilen keine Gedanken mehr zu machen. Richtig ist allerdings, am Leistungslimit werden die Netzteile laut und ineffizient. Meist sieht es nämlich so aus.
1737727950711.png


Was im Idle nicht so relevant ist, bei 600-800W Leistung machen 3-4% Effizienz durchaus schon was aus, und es ist ja nicht nur das Geld was unnötig verbraten wird, sondern auch die Abwärme die zusätzlich abgeführt werden muss. Es machst also durchaus Sinn ein leicht überdimensioniertes Netzteil zu kaufen.
 
Zuletzt bearbeitet:
Fighter1993 schrieb:
Davon spricht ja auch keiner, sondern das es mit RT,PT mehr wie 24 GB brauchen wird ist sogutwie sicher.....
Wenn 24 GB für PT nicht mehr ausreichen, glaubst du das die 5090 da noch spielbare Frames bringt? Wenn die jetzt schon bei vollem Pathtracing nur 29 FPS nativ schafft und das über MFG regeln muss, was dann andere Probleme hat, wie soll das dann gehen?
 
Northstar2710 schrieb:
Da bin ich anderer Meinung. Denn die klassen unter der 5090 können genauso von MFG profitieren, sie brauchen lediglich die Grafik presets so anpassen das sin mind. 60 native fps haben. Und im WQHD bereich gibts viel mehr 240hz Bildschirme. Besonders viele die schon bei Gamern stehen.
Aber welchen Grund sollte es haben Grafik besonders hässlich zu machen (um die 60 fps zu bekommen besser wären wohl 70-90) um dann 240hz zu bekommen, die 240hz oder 200 sind ja für Shooter schnelle games, aber in schneller games ist der Inputlag ja unakzeptabel.

Also in langsamen Single player spielen will man ne schlechte (da runter gestellt) grafik die flüssig ist, flüssigkeit ist doch in langsamen spielen unwichtig Grafikquali aber sehr wichtig.

Also man tradet etwas wichtiges (grafikquasi) ein gegen was in langsamen single player games unwichtiges noch mehr flüssigkeit und noch den Inputlag oben drauf.

Das ergibt keinen Sinn.
 
  • Gefällt mir
Reaktionen: Fighter1993
Ich finde den Punkt für den DLSS Override in der Nvidia App nicht. Ist das erstmal nur exklusiv für die 5000er?
 
Wolfgang schrieb:
Damit sage ich NICHT, dass es einer langsameren CPU als dem 9800X3D es nicht anders wäre.
Das meinte ich, dann habe ich das doof formuliert, mea culpa. :schluck: Danke für Euren ganzen umfassenden Tests, Wolfgang!
 
xexex schrieb:
Richtig ist allerdings, am Leistungslimit werden die Netzteile laut und ineffizient. Meist sieht es nämlich so aus.
Alles richtig, was Du sagst. Spielt aber imho keine Rolle. In der Regel sind die Unterschiede minimal und niemand (also wir bei uns im Betrieb schon aber sonst nicht ;-)) lastet ein Netzteil dauerhaft nach 100% aus.

Eher ist es doch so, dass der Computer im unteren Bereich der Effizienzkurve vor sich hinrödelt. Das Netzteil ist ausgelegt für 100% CPU + 100%GPU-Last plus Geraffel, wo auch schon ein Aufschlag drin ist.
Bei voller CPU-Last schläft meist die GPU und im Gaming in 4k schläft die CPU. Also ist "auf Kante genäht" wohl max. 90% Netzteilauslastung im Gaming, eher aber 70-80. Das ist kaum messbar, der Unterschied in der Effizienz und sollte gar keine Rolle spielen für die Wahl des Netzteils.
 
blackiwid schrieb:
Aber welchen Grund sollte es haben Grafik besonders hässlich zu machen
du willst mir sagen ein grafik preset High macht ein spiel besonders Hässlich gegenüber Ultra?

Und was ist an wqhd Hässlich wenn man einen entsprechenden Monitor hat.

Und auch bei singelplayer titeln sind 240hz/fps schöner als 60fps.
 
  • Gefällt mir
Reaktionen: calippo
Northstar2710 schrieb:
du willst mir sagen ein grafik preset High macht ein spiel besonders Hässlich gegenüber Ultra?
Hässlicher ja.

Northstar2710 schrieb:
Und was ist an wqhd Hässlich wenn man einen entsprechenden Monitor hat.
Naja wenn du high mit upscaling also maximal 1080p nativ hast bei quality DLSS und nur high, wird man bei single player games schon nen unterschied sehen, wenn nicht täte es ja auch ne billigere Karte.

Bevor ich diesen komischen Tradeoff, weniger Grafikqualität + höheren input lag aber mehr FPS habe, lass ich das lieber und wenn ich glaube das High eh reicht, dann kauf ich direkt ne billigere Karte und gut, was sollen hohe fps wenn man sich nie schnell bewegt nie das Bild schnell dreht, bringen? Und wenn man das tut stört dann nicht der Inputlag?
Northstar2710 schrieb:
Und auch bei singelplayer titeln sind 240hz/fps schöner als 60fps.
Nen kleineren Inputlag und schönere Grafik ist auch (noch) schöner.

Zumal man ja schon ne Nvidia geholt hat um mit RT die Bildqualität zu erhöhen das also das Ziel zu sein scheint.

Mag es irgendwelche seltenen Szenarien und Games geben wo das irgendwie für irgendwen sinn macht, vermutlich, aber man verliert entweder leicht weniger oder leicht mehr auf der anderen Seite als Preis, das man sagt, oh ich kann das Game nicht mit 70fps spielen das Singleplayer game, aber ich bin vollkommen ok mit hohem input lag und schlechterer Grafikqualität... die Anzahl an leute.

Vorallem schwangt der Inputlag auch noch mehr, das ist fast noch schlimmer als einen konstant hohen.
 
jak80 schrieb:
Ich finde den Punkt für den DLSS Override in der Nvidia App nicht. Ist das erstmal nur exklusiv für die 5000er?
Ich denke, das kommt mit einem zukünftigen Treiberupdate.

Du kannst aber manuell die DLSS 4 DLL austauschen.
 
  • Gefällt mir
Reaktionen: jak80
blackiwid schrieb:
wenn nicht täte es ja auch ne billigere Karte.
ich spreche von günstigeren Karten als die 5090. Da du gesagt hast das Mfg nur bei einer 5090 sin macht. was einfach nicht stimmt.
 
hatte eigentlich geplant, meinen 7800x3d + 4090 auf 9800x3d + 5090 aufzurüsten, aber...
7800x3d > 9800x3d: +14% durchschnittlich lt cb-test
4090 > 5090: +9% raytracing / +16% raster durchschnittlich lt cb-test
(in 1440p, da das meine auflösung ist, mit 480hz monitor)
wüsste mal gerne, was genau der unterschied zwischen den beiden kombinationen ist. wohl abhängig vom spiel, so 25% vielleicht?
3090 > 4090 waren es noch fast +85%. mein vorgänger-pc war ein 9700k + 2080. der neue brachte dann das 4fache an frames.
und jetzt so einen haufen geld ausgeben, um mich vielleicht um 25% zu steigern?
das geld fehlt dann, wenn nvidia in 2 jahren 3000 € für die normale 6090 verlangt.
 
Northstar2710 schrieb:
du willst mir sagen ein grafik preset High macht ein spiel besonders Hässlich gegenüber Ultra?
Teilweise finde ich es sogar kontraproduktiv. Zu hohe Texturauflösung und eher low poly Meshes sieht unpassender aus als eine niedrigere Texturauflösung, die in etwa der Qualität der low poly meshes entspricht.

Eine gute Gesamtwirkung der Grafik kommt zustande, wenn alle Parameter in etwa auf gleicher Ebene sind. Mich reißt es jedes Mal aus der Immersion, wenn ein Aspekt nahezu fotorealistisch ist, z.B. Raytracing/Pathtracing Spiegelungen in einer Pfütze, aber dann ein NPC vorbei marschiert, der so aussieht und sich bewegt, als wäre er aus einem 15 Jahre alten Spiel 1:1 übernommen worden.

Hogwarts Legacy kommt mir da in den Sinn, die Gebäude nahezu fotorealistisch, die NPCs eher comichaft. Final Fantasy besteht nur aus solchen unpassenden Elementen, wobei es da ja ein absichtliches Stilelement ist.
Wenn ich Hogwarts Legacy mal spielen werden, dann drehe ich die Regler nach Möglichkeit so weit runter, dass das etwas besser zu den NPCs passt.
 
  • Gefällt mir
Reaktionen: puffisworld
blackiwid schrieb:
Bevor ich diesen komischen Tradeoff, weniger Grafikqualität + höheren input lag aber mehr FPS habe, lass ich das lieber und wenn ich glaube das High eh reicht, dann kauf ich direkt ne billigere Karte und gut, was sollen hohe fps wenn man sich nie schnell bewegt nie das Bild schnell dreht, bringen?
Selbst bei langsamen singelplayer spielen bewegt man die Maus schnell genug so das die höher fos zahl deutlich angenehmer ist. Auch bei Strategy spielen ist ein sauberers scrollen durch höhere Fps einfach angenehmer. Es muss ja nicht immer ein schlechteres preset sein. Und bezogen auf wqhd +dlss Q/b/p gibt es zig Gamer die es so verwenden. dazu kommt noch, wie empfindlich das spiel auf den inputlag reagiert. Und es einen stört. mit 60fps ist der inputlag aber sehr schwach und mit 70nativen fps kann ich ihn in den meissten spielen nicht mehr merken. So das auch einfaches FG für mich in den meissten spielen aktiviert wird.
 
Als ich den Test gelesen habe, war ich wieder einmal sehr beeindruckt – und zwar von meiner RTX 4090
 
  • Gefällt mir
Reaktionen: adfsrg
Die 4090 war und ist einfach top, vermutlich wird sie als 5080 ti zu gegebener Zeit mit dem neuen Featureset zurückkehren. (Falls die VK Zahlen der 5090 einbrechen und Nvidia nervös wird)
 
Fighter1993 schrieb:
Eine FE kannst du Knicken und das ist die einzigste zur UVP. Die 100 Karten für Deutschland sind schneller per Bot gekauft als du klicken kannst…
Einzige.
Wird leider so ablaufen wie du es beschreibst.
Laphonso schrieb:
in denen die 5090 eine 4090 um 40-50% mehr fps deklassiert u
Fake Frames zählen da aber nicht mit rein.
 
Zurück
Oben