Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

HAse_ONE schrieb:
oh man... ich weiß grad echt nicht auf was ich upgraden soll, oder ob überhaupt. 5090 ist eigentlich raus, ist mir für das gebotene deutlich zu teuer und Leistungsaufnahme ist einfach zu krass.
5080 wird vermutlich nicht an die 4090 ran kommen. Und eine gebrauchte 4090 würd ich ungern von fremden Leuten kaufen.

Hab mir auch überlegt ob ich erstmal verzichte und erstmal einen neuen schönen 4K OLED Monitor hol, aber das wird meine 6900XT nicht stemmen können ... maaaaaan alles kacke, ich lass am besten alles wie es ist, kommt zum Großteil doch eh nur rotzspiele auf den Markt :D

Warte einfach noch 11Monate, dann kommt doch Die 5080 ti/s. Sie wird die 4090 leicht überbieten und den VRAM mangel der 5080 lösen. Das eindeutig bessere Produkt. Und dann holst du dir gleich Monitor und GPU gleichzeitig.
 
  • Gefällt mir
Reaktionen: HAse_ONE
Grestorn schrieb:
Das macht es deutlich wahrscheinlicher, dass ich eine zu einem UVP ergattern kann ohne zu lange warten zu müssen (mehr als UVP zahle ich nicht).
Eine FE kannst du Knicken und das ist die einzigste zur UVP. Die 100 Karten für Deutschland sind schneller per Bot gekauft als du klicken kannst…
 
Wolfgang schrieb:
Reflex 2 steht aktuell noch in keinem Spiel zur Verfügung

Genauso wie DLSS FG.
Steht DLSS MFG im Modus 4x hast du immer ein gerendertes Frame und 3 künstliche Frames, bis dann wieder ein gerendertes (usw.) folgt. Das gilt auch bei einem FPS-Limiter. Stellst du den zum Beispiel auf 100 FPS, hast du nach wie vor 1 gerendertes und 3 künstliche Frames. Das gerenderte wird nur entsprechend eingebremst, um die 100 FPS nicht zu überschreiten. Deswegen reduziert sich bei DLSS FG/MFG in dem Fall auch die Leistungsaufnahme der Grafikkarte.
Ist euch denn etwas dazu bekannt, ob das in Zukunft anders gesteuert werden soll? Ich spiele grundsätzlich immer mit FPS-Limit/Reflex, um G-Sync aktiv zu haben. Dass man dann dabei mit MFG quasi ungewollt die "echten" gerenderten Frames einbremst, ist natürlich richtig ärgerlich. Ich hatte gehofft, dass MFG in einem solchen Fall nur die fehlenden FPS "auffüllt", aber nicht die originalen Frames bremst.
 
nuestra schrieb:
Warum verkauf die 4090 und kauf für ca 800€ eine 5090 dann hast 30-100% mehr Fps und bist wieder up to date. In 2 Jahren bekommst für die 4090 nur noch ca 1000€
Welch entrückte Mondnachrichten hast du konsumiert? Habe ich was verpasst - bitte kläre mich auf. Wo erhalte ich 30 bis 100 % mehr FPS mit einer 5090 gegenüber meiner 4090? Ich zocke in 4k und wenn möglich immer mit RTX, HDR sowie ohne DLSS. Abgesehen davon zweifle ich, dass ich nach dem Release noch 1500 € für die 4090 bekomme.
 
Danke für den Test. Für mich ist das eher eine 4090TI.

Wahnsinn diese Verbräuche. Ich bleibe bei meiner kleinen 4060 Ti, die zieht mit Undervolting und leichtem GPU OC nur 125 Watt im Durchschnitt. Ist eine sehr sparsame Konfiguration mit einem 5700X3D. Zusammen sind das keine 200 Watt. Sehr positiv, da ich viele Stunden im MSFS verbringe.
 
Cameron schrieb:
musste es bei der 5090 gar kein größerer Sprung sein.
ich glaube eher sie konnten ohne die fertigung zu wechseln, garnicht höher springen.
 
Ich bin sehr gespannt, wie die "Straßenpreise" für die 5090er-Modelle aussehen werden.
 
Dedenne1987 schrieb:
Last of Us Part I. Da ist es richtig übel
Interessant dass du ausgerechnet dieses Spiel nennst. Das habe ich genau so (mit DLAA) durchgespielt und mir ist nichts aufgefallen. Ich habe es eben nochmal angemacht. Mit DLAA sehe ich kein Smearing, mit DLSS hingegen ist es Smearing aus der Hölle.
 
Mal schauen ob und wann eine 5080 ti mit 24 GB kommt, ansonsten muss meine 4080 bis zur 60'er Serie durchhalten.
 
C4rp3di3m schrieb:
Man ruht sich auf besserer Trickserei aus, anstatt die Hardware weiter zu verbessern
Die steigerung wird immer teurer und schwerer. Besser würee es sein wenn die Engine Entwickler ihre Software besser auf die Hardware abstimmen würden.
 
Arzuriel schrieb:
Am Ende hat man dann einen Preis von 2500€ investiert

Ich nicht, und für einiges von dem Krempel (Seasonic Fanless, Noctua Kühler/Lüfter, 5 TB SSD-Speicher) habe ich eine Nutzungsdauer von zwei oder mehr Grafikkartengenerationen vorgesehen.

Die letzten Grafikkarten (1070, 2070 S, 4070) habe ich im Vierjahresintervall gekauft.

Zum Vergleich das, was ich nur in den vier Jahren ab 1996 verballert habe:

  • Voodoo 1 (500 DM),
  • Voodoo 2 (530 DM),
  • zweite Voodoo 2 für SLI (260 DM),
  • Pentium 133,
  • Pentium 200 (500 DM),
  • Celeron 333.

Festplatten haben damals auch noch richtig Geld gekostet, und die 2D-Grafikkarte musste man bei den Voodoos separat kaufen. Und nach 2 Jahren sahen die Voodoos bei Quake 3 schon älter aus, als die GTX 1070 nach 8 Jahren.

Ich kann mich nicht beschweren.

MeisterOek schrieb:
Wenn mir die Konsolengrafik jetzt schon reicht

Warum hast Du dann die 4090 gekauft, statt einer 4070, und beschwerst dich dann über die Preise ?
 
  • Gefällt mir
Reaktionen: C4rp3di3m
adfsrg schrieb:
Dass der Preis der 5090 keinesfalls so hoch ist wie der eines Bugattis und die meisten Leute sich problemlos eine 5090 kaufen könne - sofern sie wollen
Wo ist denn da der Zusammenhang? Nur weil ich in einem Monat soviel verdiene wie etwas anderes kostet, heisst das noch lange nicht das ich mir das leisten könnte. Was bleibt denn von 2400 Euro netto übrig? Das ist doch Käse. Ich verdiene deutlich mehr und könnte mir nicht einfach so eine 5090 kaufen. Das müsste ich planen und über Monate hin sparen und auf andere, viel wichtigere Dinge verzichten. Bedenke das man für das Geld schon ein brauchbares Auto bekommt. Ich kenne Leute mit dem Gehalt die froh sind wenn das Geld bis zum Monatsende reicht, die werden sich nie im Leben eine 5090 leisten.
Fighter1993 schrieb:
Für wen den sonst?
Na laut Steam Hardware Survey liegt die 4090 bei ca. 1,16% der Gamer weltweit, nehmen wir die 3090 (0,63%) noch dazu sind wir bei ca. 1,8%. Sprich für 98,2 Prozent der Gamer ist diese Karte wohl nicht interessant.
Fighter1993 schrieb:
Die 5080 mit ihren 16 GB VRam ist aufjedenfall nicht das High End Produkt für den Gamer. Einfach weil der Speicher in 4K zu gering ist für die Zukunft.
Einfacher Tipp: Kauf jetzt eine 5080 mit 16GB, nimmt die gesparten 1200 Euro und kaufe Nvidia Aktien. Wenn in 2-4 Jahren dann die 5080 zu wenig Speicher hat, einfach beides verkaufen und die 7080 ist dann quasi umsonst.
Für die Zukunft kaufen ist Quatsch und funktioniert nicht. Hatte selbst eine 3090 und was hätte ich jetzt von 24GB VRAM? Sinnvoller wäre gewesen eine 3080 für die Hälfte zu kaufen und zum Release der 4080 abzustoßen. Hätte mich unterm Strich weniger gekostet und ich hätte jetzt die bessere Karte.
 
  • Gefällt mir
Reaktionen: Terrschi
https://www.hardwareluxx.de/index.p...x-5090-founders-edition-im-test.html?start=19
Leider vollkommen unbeachtet:
Code:
             Flux.1 dev FP8     Flux.1 dev FP4
RTX 5090     6.42 s/ Bild       3.807 s/ Bild
RTX 4090     10.812 s/ Bild     17.187 s/ Bild
RTX 4080     15.459 s/ Bild     28.935 s/ Bild
FB4 ist 4x schneller als bei der 4090.#

Auch sowas spricht eine deutliche Sprache:
1737720263110.png
 
Zuletzt bearbeitet:
adfsrg schrieb:
Das musst du näher ausführen, ich verstehe nicht was du sagen willst.
Man kann bei Supersampling auch so vorgehen, dass nicht die Auflösung erhöht wird, sondern das gesamte Bild mehrfach gerendert wird, jeweils um einen minimalen Betrag (kleiner als ein Pixel) versetzt (jittered). Das ist ein extrem gut funktionierender SS Algorithmus. Wenn Du das aber innerhalb eines Frames macht, wird die Framerate entsprechend reduziert (bei 4-fachem Rendering auf 1/4tel). Dafür hast Du eben auch eine 4-fache Abtastung und fast perfektes AA (ganz ähnlich wie beim alten MSAA).

DLAA/DLSS macht im Prinzip nichts anderes, nur dass man zeitlich aufeinanderfolgende Frames nutzt, die ebenfalls gejittered werden. Damit holt DLAA / DLSS die zusätzlichen Details raus, die beim native Image fehlen. DLAA kann auch sehr viele Frame so einbeziehen, speziell wenn der Spieler sich gerade nicht bewegt.

D.h. Du hast mit DLAA von der Menge an Informationen, deutlich mehr als bei klassischem SuperSampling.

Dafür hat DLAA / DLSS Nachteile bei starken Bewegungen (da sind dann die nutzbaren Frames deutlich weniger oder im Extramfall nur eines) und eben das Problem mit eventuellen Artefakten (Smearing, Ghosting).

Bei einem Standbild wird DLAA aber immer massiv jedem SS überlegen sein.
 
Überrascht mich überhaupt nicht, da ich als 4090 Nutzer wusste, dass die 4090 schon zu gut geworden ist. Wieso sollte die 5090 so viel besser werden, wenn die Konkurrenz auf dem High Ende Niveau schläft?
 
Capthowdy schrieb:
Wobei DLAA ja nicht von einer niedrigeren Auflösung hochskaliert, es sollte also eher nicht genauso anfällig für Bildfehler sein.
Es geht bei der Artefakten nicht ums hochskalieren, sondern darum, dass die Informationen mehrere Frames zusammen verrechnet werden. Diese zeitliche Komponente kann Artefakte verursachen, wenn der AI Algorithmus sie nicht als Fehler erkennt.

Der AI Algorithmus ist nicht für das Skalieren und die Bildgenauigkeit verantwortlich, sondern für das Erkennen und Unterdrücken der daraus entstehenden, ungewollten Artefakte.
 
0xffffffff schrieb:
Mal schauen ob und wann eine 5080 ti mit 24 GB kommt
Das wäre dann wohl eine umgelabelte 4090 + MFG. :D
Ergänzung ()

Grestorn schrieb:
Der AI Algorithmus ist nicht für das Skalieren und die Bildgenauigkeit verantwortlich, sondern für das Erkennen und Unterdrücken der daraus entstehenden, ungewollten Artefakte.
Trotzdem erzeugt DLAA deutlich weniger Artefakte als DLSS, das kann man z. B. bei The Last of Us Part I sehr gut sehen. DLSS kannst du in dem Spiel praktisch vergessen, DLAA sieht hingegen völlig OK aus.

Grestorn schrieb:
Es geht bei der Artefakten nicht ums hochskalieren
Doch, geht es indirekt schon. Wenn das Ausgangsmaterial von besserer Qualität ist, kommt auch bessere Qualität mit weniger Artefakten raus.
 
  • Gefällt mir
Reaktionen: GreatEvil
Vielen Dank für so einen ausführlichen Artikel, hatte bisher nur Zeit den zu überfliegen, aber ein genaueres Durchschauen ist zum WE geplant.
Die 5090 liefert ja genau das, was auch erwartet war nach den Leaks an Gaming Performance.

Danke auch für die 3DMark Ergebnisse, da schneidet sie ja doch deutlich stärker ab, also vielleicht ist der 9800X3D einfach nicht schnell genug für die Karte, in 4K wollen ja auch mehr Strahlen verfolgt werden, was CPU Last erzeugt. Wird noch spannend wie Blackwell dann nach unten skaliert, lt. 3DMark könnten ja knapp 10% mehrleistung pro SM Performance sein, was auch zu den ~15% Mehrleistung einer 5080 ggü. der 4080 passen würde.
Der IDLE Verbrauch der 5090 ist dann doch erschreckend, da sind die kleineren Karten hoffentlich besser.

DLSS 4 sieht sehr vielversprechend aus und Multiframegeneration schein auch gut zu funktionieren. Dass die Änderungen auch für die alten Gens komme ist sehr erfreulich, gerade für alle mit 4000er Karte, womit DLSS FG wohl den GAP zu FSR3 FG schließen kann. Bleibt noch zu hoffen, dass FSR4 die optische Qualität ggü. FSR3 verbessert um an DLSS SR ranzukommen und im besten Fall noch eine Konkurrenz für Ray Reconstruction in petto hat (oder zumindest nachgeliefert bekommt).
 
Zurück
Oben