Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Bisschen ernüchternd ist das ja schon, dass der Zuwachs bei der Rohleistung so gering ist und es keinen Shrink für die Effizienzsteigerung gibt. Aber hat sich ja neulich schon in dem einem Video von Der Bauer angedeutet. Diese Karte sollte besser eine 4090TI sein.

Zudem sind die Speichertemperaturen ein Nogo, vorallem bei diesem aufwändigen Kühler und sie es bei der GPU ja hinbekommen. Im Sommer dann 100°C auf dem Speicher vermutlich überschritten. @Wolfgang: Könnt ihr die Graka mal öffnen und prüfen, ob man das verbessern kann? Also wie bei der 3090 weitere Pads hinzufügen oder evl. minderwertige Pads durch hochwertige oder hochwertiges Putty ersetzen. Andernfalls kann man dann wieder nur Custom kaufen, wenn man keine Angst haben will, dass die Graka schlechend den Speichertod stirbt.

Und auch ziemlich schäbig, dass man kein Multiframegen (MFG) auf der 4000-Serie bekommt. :kotz: Der mistige DX12-Wrapper von Witcher 3 frisst auch Leistung. Nativ kommen auf meiner 4080 etwa 50-60FPS raus, auf 1440P mit fast allem auf Max, außer Unschärfezeugs und Vignette etc. Mit Framegen sind es 80 bis 100 etwa (und ggf. nun leicht mehr durch die Optimierung) und mit DLSS Qualität 100-150 im Dreh. DLSS Qualität macht das Bild aber schon schlechter. (Bei Demo 401, Titanic HG finde ich DLSS besser umgesetzt. Dies ist ein Unreal-Engine-Programm.) Und Artefakte bei Witcher 3 durch Framegen sind kein Problem mehr für mich, da hilft es, die unnötigen Unschärfesachen abzuschalten. Und wenn Nvidia dann auch mal bei meiner Karte das Multiframegen geben würden, könnte ich dann quasi ohne DLSS-Nutzung wohl nahezu die 260Hz meines Monitors ausnutzen (per Treiber/Nvidia-App hinzugefügt). Und nach meiner Logik wird ggf. schlechtere Latenz wieder bisschen abgemildert, weil der Monitor dann bei 260Hz selbst weniger Inputlag hat als bei geringerer Frequenz.

Edit:

5090 -> 4090TI
5080 -> 4080TI
5080TI (die Graka mit 24GB, die zwischen 5080 und 5090 fehlt) -> 4080TI Super oder 4085
;)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Finde es enttäuschend. FPS pro Watt sinkt. Der Performancezugewinn ist eher klein. Das Kühldesign ist nice. MFG interessiert mich nicht. Werde ich nicht kaufen.
 
Hi@all!

Bei der 4090 hab ich verstanden das man die haben möchte,
das war ein großer Schritt zu einer 3090!

Die 5090 ist einfach etwas zu wenig, was da an Leistung kommt,
ist aber auch der aktuellen CPU Leistung geschuldet,
man bemerkt einfach, dass ein 9800X3D bremst.

Ich sage ja schon seit Jahren,
dass die CPU Leistung zu wenig im Vergleich zur GPU Leistung steigt
und heute sehen wir es noch deutlicher, als es noch bei der 4090 der Fall war. :D

Dennoch habe ich ein paar Kunden,
die "Day One" einen 5090 schon geordert haben!
Und mit einem "optimierten" 9800X3D,
kommt da auch etwas mehr an Leistung noch bei herum.

Bin gespannt, aber nicht so sehr gespannt wie es noch zur 4090 der Fall war,
die 5090 ist für mich weit uninteressanter!

Gruß
Mehlstaub
 
  • Gefällt mir
Reaktionen: Apocalypse, evilhunter und Baal Netbeck
Optimal Setting schrieb:
So denke ich auch. Aber mit der 5090 hast du schon 60fps während die 4090 dann noch bei 45-50fps ist. demnach musst du mit dlls dann evtl auf performance während die 5090 noch quali kann. bin auch hin und her gerissen. 30% mehr leistung. ok. 30% teurer ok. 30% mehr Abwärme und dann noch alles ins gehäuse nicht ok!

Ehrlicherweise muss man auch sagen, dass FG nicht stets eine Verdopplung bedeutet; also, jetzt zaubert FG auch aus 55 FPS nicht zuverlässig 110 FPS. MFG würde insofern auch helfen. Es bleibt spannend.
 
Die Rohleistung ist ja mal ganz schön... enttäuschend. Gerade mal zwischen 9% und 22%, je nach Auflösung und Raster/RT. Das man keinen solchen Sprung wie bei der 4090 zu erwarten hatte, war nach den letzten Leaks (kolportierte 27%) ja schon nicht mehr zu erwarten, trotz ordentlich technisch aufgebohrtem Chip... Aber das ist dann doch ganz schön enttäuschend. Ehrlich gesagt ein ziemlicher Witz, vor allem bei der Leistungsaufnahme und dem Preis.

Am meisten enttäuscht bin ich aber bisher von DLSS 4. Und MFG scheint ja auch eher eine Nullnummer zu sein... Wenn ich noch immer idealerweise 60+ FPS brauche, um das sinnvoll einzusetzen, wozu dann überhaupt MFG, wenn FG auch schon sehr sehr brauchbare Frameraten daraus macht? Dort wo 200+ FPS wichtig wären, ist FG generell fehl am Platz, nämlich bei schnellen kompetitiven Spielen. Sehr enttäuschend das Ganze.

Zu den DLSS 4 Detail-Betrachtungen: Sicherlich, noch Beta, doch meines Erachtens macht DLSS 4 teilweise enorme Rückschritte, während man nur stellenweise Fortschritte macht. Ggf. liegt es auch speziell an der Implementierung, das muss sich noch zeigen. Besonders auffallend ist es in Alan Wake 2, aber auch Cyberpunk weist diese (wenn auch weniger stark) auf.

Im Detail: (Erstes Bild jeweils DLSS 3, gefolgt von DLSS 4 Shot)

Alan Wake 2

In diesem Shot sieht man eindeutig, dass DLSS4 manchmal Probleme mit der Textur-Schärfe hat. Oder sollte man sagen: Die Probleme verschieben sich? Beim Screenshot mit DLSS 3 sind die Wand-Texturen des rauhen Putzes deutlich schärfer, vor allem am Übergang Licht zu Schatten, während die Gesichts-Details, vor allem der Bart mit DLSS 4 deutlich schärfer ist. Auch die Fugen der Glasfliesen kann DLSS 4 deutlich besser herausarbeiten.

Screenshot 2025-01-23 203401.png Screenshot 2025-01-23 203353.png

Und weil wir gerade bei Fugen sind: Was ist denn hier mit der Decke passiert? DLSS 4 hat hier endeutig Probleme bei der Ausleichtung der Fugen/Übergänge zwischen Balken und eigentlicher Holzdecke. Eventuell ein Problem mit Ray Reconstruction? Oder fehlerhafte Geometrie im Spiel. Wer weiß.

Screenshot 2025-01-23 203545.png Screenshot 2025-01-23 203540.png

Hier ein positives Beispiel für DLSS 4. Die Poster im Hintergrund werden deutlich schärfer und detaillierter gezeichnet:

Screenshot 2025-01-23 203450.png Screenshot 2025-01-23 203444.png

Nur um dann einen Shot später die Wandbilder (DLSS 4) in totalem Matsch versinken zu lassen:

Screenshot 2025-01-23 203425.png Screenshot 2025-01-23 203420.png

Auch bei der Textur des Sonnenschirms versagt DLSS 4 total:

Screenshot 2025-01-23 203628.png Screenshot 2025-01-23 203622.png


Cyberpunk

Zumindest aber Ray Reconstruction scheint gute Arbeit zu leisten, die sehen deutlich besser aus:

Screenshot 2025-01-23 203709.png Screenshot 2025-01-23 203704.png
 
  • Gefällt mir
Reaktionen: tiga05, Baal Netbeck und Wau
Pestplatte schrieb:
Der beste move von Nvidia war es die Produktion der 4090 einzustellen weil sie eigentlich die bessere Karte ist.
Naja, besser ist sie nicht... wen die Scalper keinen strich durch die Rechnung machen...! :evillol:

1737662415304.png

1737662391824.png

1737662285102.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pestplatte
KurzGedacht schrieb:
Zeigt auch jetzt schon, dass die Versprechen bzgl der 5070 Leistung fernab jeder Realität sein werden bzw einfach nur Fake Frames auf den Bildschirm zaubern, die dann trotzdem kein spielbares Ergebnis liefern.
Jo und der Test zeigt auch, dass kein gutes Spielgefühl aufkaumt auch wenn 60 FPS auf dem Schirm sind. 120 FPS mit dem Input Lag von 30 FPS, sowas will ich nicht.
 
shaboo schrieb:
Sorry, aber das wäre ja nun völliger Kokolores gewesen - eine 5080 für $999 und eine 5080Ti, mit völlig anderem Chip, für $1999.
Hab ja auch nichts vom Preis gesagt.
Sollte schon günstiger sein.
 
Irgendwie fehlen mir die Worte. Habe gutes gelesen und gesehen, das mich auch beeindruckt hat. Im absoluten Sinne bin ich aber dennoch enttäuscht, obwohl ich nicht großartig anderes erwartet habe. Gleichzeitig auch ernüchternd.

Ich bin also irgendwie beeintnüchtert, oder entbeeindrüchtert.
 
Es ist 21 Uhr, 6 Stunden nach Veröffentlichung. Hier sind über 725 Kommentare geschrieben worden. Habt ihre alle nix zu tun? Das ist doch irre 😂

@Jan könnt ihr eigentlich tracken welcher Artikel nach 1 Stunde oder nach 24 Stunden die meisten Aufrufe oder Kommentare hatte?
Artikel-Effizienz = Kommentare/Stunde 😂



Zur GPU: alle meckern über die geringe Leistungssteigerung im Vergleich zur 4090. Aber im Test steht, dass die trotz schnellster CPU in UHD ins CPU-Limit rennt, in einigen Spielen. Mehr Leistung würde die auch nicht auf die Straße bringen können. Mehr CPU-Limit bringt doch auch nix. Sie ist zu teuer und zu stromhungrig. Aber anders war das Leistungsplus nicht zu erreichen. Die schlechte Effizienz ist zu kritisieren. Und der Preis. Die geringe Leistungssteigerung eher nicht, wegen des CPU-LIMITs.
 
"In WQHD lassen sich bei der neuen Grafikkarte bei maximal 144 FPS wiederum noch 184 Watt messen, hier kann sich die GeForce RTX 4090 mit 119 Watt also wieder etwas mehr absetzen."

Die Performance pro Watt im fps Limit ist echt traurig....ich spiele eigentlich immer im fps Limit, ihr auch? Je nach Genre mit 60, 120 oder 144 fps
 
  • Gefällt mir
Reaktionen: Sp4wNickle
doppelt soviel fps wie meine 7800xt
aber auch doppelt soviel stromverbrauch. - nogo
 
Schade, ich hatte mir vom Transformer-Modell mehr erhofft. Kann es sein, dass wir hier jetzt langsam das Limit des möglichen erreicht haben, genauso wie bei ChatGPT und co.?
 
Wuff
Banger schrieb:
Bisschen ernüchternd ist das ja schon, dass der Zuwachs bei der Rohleistung so gering ist und es keinen Shrink für die Effizienzsteigerung gibt. Aber hat sich ja neulich schon in dem einem Video von Der Bauer angedeutet. Diese Karte sollte besser eine 4090TI sein.

Zudem sind die Speichertemperaturen ein Nogo, vorallem bei diesem aufwändigen Kühler und sie es bei der GPU ja hinbekommen. Im Sommer dann 100°C auf dem Speicher vermutlich überschritten. @Wolfgang: Könnt ihr die Graka mal öffnen und prüfen, ob man das verbessern kann? Also wie bei der 3090 weitere Pads hinzufügen oder evl. minderwertige Pads durch hochwertige oder hochwertiges Putty ersetzen. Andernfalls kann man dann wieder nur Custom kaufen, wenn man keine Angst haben will, dass die Graka schlechend den Speichertod stirbt.

Und auch ziemlich schäbig, dass man kein Multiframegen (MFG) auf der 4000-Serie bekommt. :kotz: Der mistige DX12-Wrapper von Witcher 3 frisst auch Leistung. Nativ kommen auf meiner 4080 etwa 50-60FPS raus, auf 1440P mit fast allem auf Max, außer Unschärfezeugs und Vignette etc. Mit Framegen sind es 80 bis 100 etwa (und ggf. nun leicht mehr durch die Optimierung) und mit DLSS Qualität 100-150 im Dreh. DLSS Qualität macht das Bild aber schon schlechter. (Bei Demo 401, Titanic HG finde ich DLSS besser umgesetzt. Dies ist ein Unreal-Engine-Programm.) Und Artefakte bei Witcher 3 durch Framegen sind kein Problem mehr für mich, da hilft es, die unnötigen Unschärfesachen abzuschalten. Und wenn Nvidia dann auch mal bei meiner Karte das Multiframegen geben würden, könnte ich dann quasi ohne DLSS-Nutzung wohl nahezu die 260Hz meines Monitors ausnutzen (per Treiber/Nvidia-App hinzugefügt). Und nach meiner Logik wird ggf. schlechtere Latenz wieder bisschen abgemildert, weil der Monitor dann bei 260Hz selbst weniger Inputlag hat als bei geringerer Frequenz.

Edit:

5090 -> 4090TI
5080 -> 4080TI
5080TI (die Graka mit 24GB, die zwischen 5080 und 5090 fehlt) -> 4080TI Super oder 4085
;)
In 40 spielen 30% vorne ist doch super
 

Anhänge

  • Screenshot_20250123_202712_YouTube.jpg
    Screenshot_20250123_202712_YouTube.jpg
    205,1 KB · Aufrufe: 48
Danke für den epochalen Test, da steckt Arbeit drin!

Zur Karte... erstmal ernüchternd, mal schauen was die 5080 kann...
 
MaverickM schrieb:
Gerade mal zwischen 9% und 22%,
In 1080p haben wir die 5090 sogar minus 5 % hinter der 4090 laut Hardware Unboxed.
Andere Tests zeigen über 40% Vorsprung auf die 4090 in Rohperformance.

Die Varianzen von 50 % fps Korridor (!) ergeben null Sinn, das hatten wir bei der 4090 nicht.
Test-Treiberproblem? CPU Limit? FE Problem?

Und ausgerechnet Igor (!) sagt DLSS4 hat ihn "deeply impressed" und ein "Stück weit mitgerissen"

Jetzt wissen wir auch, warum die Fokus auf AI Frames liegt.

Bin gespannt ob die Customs mehr Kühlung, weniger db und/oder oc rausholen oder ob das alles Show ist wie bei den 4090ern und irrelevant fps mäßig. Vor allem, wenn auch die ins CPU Limit rennen, weil auch der 9800x3D hier am Ende ist.
 
Unglaublich wie oft man hier "Igor sagt" liest. So viele denen wichtig ist was andere sagen und denken. :D
 
Erwartungen sind zwar nicht übertroffen aber auf jeden Fall erfüllt.

Von einer 2070 auf 5090 zu gehen wird so oder so ein Unterschied wie Tag und Nacht. Alleine schon die Features die dazu kommen werden das ganze sprengen.
 
Zurück
Oben