Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Vielen Dank für so einen ausführlichen Artikel, hatte bisher nur Zeit den zu überfliegen, aber ein genaueres Durchschauen ist zum WE geplant.
Die 5090 liefert ja genau das, was auch erwartet war nach den Leaks an Gaming Performance.

Danke auch für die 3DMark Ergebnisse, da schneidet sie ja doch deutlich stärker ab, also vielleicht ist der 9800X3D einfach nicht schnell genug für die Karte, in 4K wollen ja auch mehr Strahlen verfolgt werden, was CPU Last erzeugt. Wird noch spannend wie Blackwell dann nach unten skaliert, lt. 3DMark könnten ja knapp 10% mehrleistung pro SM Performance sein, was auch zu den ~15% Mehrleistung einer 5080 ggü. der 4080 passen würde.
Der IDLE Verbrauch der 5090 ist dann doch erschreckend, da sind die kleineren Karten hoffentlich besser.

DLSS 4 sieht sehr vielversprechend aus und Multiframegeneration schein auch gut zu funktionieren. Dass die Änderungen auch für die alten Gens komme ist sehr erfreulich, gerade für alle mit 4000er Karte, womit DLSS FG wohl den GAP zu FSR3 FG schließen kann. Bleibt noch zu hoffen, dass FSR4 die optische Qualität ggü. FSR3 verbessert um an DLSS SR ranzukommen und im besten Fall noch eine Konkurrenz für Ray Reconstruction in petto hat (oder zumindest nachgeliefert bekommt).
 
Fighter1993 schrieb:
Eine FE kannst du Knicken und das ist die einzigste zur UVP. Die 100 Karten für Deutschland sind schneller per Bot gekauft als du klicken kannst…
Jeder Hersteller wird ein Modell zum FE-UVP haben. Das war auch bei den bereits geleakten Karten von Gigabyte so und ist m.W. auch von NVidia so vorgeschrieben.
 
  • Gefällt mir
Reaktionen: Quidproquo77
GrooveXT schrieb:
Wenn in 2-4 Jahren dann die 5080 zu wenig Speicher hat, einfach beides verkaufen und die 7080 ist dann quasi umsonst.
Leider hat die Karte jetzt schon zu wenig VRam für 4K.
 
nutrix schrieb:
https://www.hardwareluxx.de/index.p...x-5090-founders-edition-im-test.html?start=19
Leider vollkommen unbeachtet:
Code:
             Flux.1 dev FP8     Flux.1 dev FP4
RTX 5090     6.42 s/ Bild       3.807 s/ Bild
RTX 4090     10.812 s/ Bild     17.187 s/ Bild
RTX 4080     15.459 s/ Bild     28.935 s/ Bild
FB4 ist 4x schneller als bei der 4090.
Ja, das stimmt. In einigen KI-Workloads scheint die 5090 aus dem Stand heraus (ohne zukünftige Software-Optimierungen für die 500er-Generation) wirklich deutlich performanter zu sein.
 
  • Gefällt mir
Reaktionen: Chaini, shadACII und nutrix
Grestorn schrieb:
Jeder Hersteller wird ein Modell zum FE-UVP haben. Das war auch bei den bereits geleakten Karten von Gigabyte so und ist m.W. auch von NVidia so vorgeschrieben.
Ah ok das wusste ich gar nicht. Das ist doch Nice.
 
moby_dick schrieb:
Ja, das stimmt. In einigen KI-Workloads scheint die 5090 aus dem Stand heraus (ohne zukünftige Software-Optimierungen für die 500er-Generation) wirklich deutlich performanter zu sein.
Ich habs noch mit einem Beispiel UE5 und 4k Path Tracing erweitert.

Daher, die Pros feiern bestimmt alle diese Karte jetzt, und die werden gerne den Gamern die 5090 wegschnappen. So schlecht, wie sie jetzt alle hier hinstellen wollen, ist die GPU gar nicht.
 
Surtia schrieb:
Welch entrückte Mondnachrichten hast du konsumiert? Habe ich was verpasst - bitte kläre mich auf. Wo erhalte ich 30 bis 100 % mehr FPS mit einer 5090 gegenüber meiner 4090? Ich zocke in 4k und wenn möglich immer mit RTX, HDR sowie ohne DLSS. Abgesehen davon zweifle ich, dass ich nach dem Release noch 1500 € für die 4090 bekomme.
Hier in 45 games aufgerundet 30% vor der 4090 und mit mfg ist Sie nochmal doppelt so schnell.

Wenn du dlss nicht nutzt ist dein Problem. 80% der Spieler nutzt es
 

Anhänge

  • Screenshot_20250123_202712_YouTube.jpg
    Screenshot_20250123_202712_YouTube.jpg
    205,1 KB · Aufrufe: 33
  • Gefällt mir
Reaktionen: Sirhaubinger
Grestorn schrieb:
Jeder Hersteller wird ein Modell zum FE-UVP haben. Das war auch bei den bereits geleakten Karten von Gigabyte so und ist m.W. auch von NVidia so vorgeschrieben.
Es wird aber vermutlich wie bei der 4090 laufen: zu Release gibt es diese Karten und danach verschwinden sie, weil "nicht lieferbar" und man bekommt nur die teurere, aber eigentlich identische, "OC" Variante.
 
  • Gefällt mir
Reaktionen: nutrix und Shio
Serandi schrieb:
Wieso sollte die 5090 so viel besser werden,
Abwarten, einige Varianzen hier je nach Game + Setting sind auffällig.

Ich bin mir sicher, dass wir dieses Jahr 2025 zahlreiche Games sehen werden, in denen die 5090 eine 4090 um 40-50% mehr fps deklassiert und bereits in den 0.1% Percentil fps deutlich vor den avg fps for einer 4090 landet, also noch flüssiger mit mehr fps läuft und noch weichere/smoothere Frametimes abliefert.

Die 5090 wird in Zukunft bessere Skalierungseffekte zeigen als in den Day 1 Tests.

Die Ungewißheit bzw. das alleine wird vielen dennoch zu wenig Sicherheit geben für einen Umstieg, finde ich auch plausibel.
Zudem bleibt die 4090 ein Monster.
Die 5080 Tests werden die 4090 voraussichtlich in ihrer Position als zweitschnellste GPU auch die nächsten 2 Jahre manifestieren. :D


Btw interessieren mich nur für das Isolieren des CPU Limits mal 8K Tests der 4090 vs 5090.
 
  • Gefällt mir
Reaktionen: shadACII und nutrix
MeisterOek schrieb:
Oh wow, also ich glaube die 4090 wird tatsächlich die letzte Grafikkarte in meinem Besitz sein, denn ich schwenke dann wohl komplett auf Konsole um, wenn die 4090 in "vielen" Jahren die aktuellen Games nicht mehr stemmen kann.
Du gehst also davon aus, dass sich die nächste Xbox und/oder die PS6 deutlich von der 4090 absetzen können? Erstmal abwarten, auch im Konsolenbereich geht die Hardwareentwicklung immer langsamer voran.
 
  • Gefällt mir
Reaktionen: shadACII
Fighter1993 schrieb:
Leider hat die Karte jetzt schon zu wenig VRam für 4K.
Ok, in welchen Reallife Szenarien ist das so?
 
  • Gefällt mir
Reaktionen: shadACII
Capthowdy schrieb:
Doch, geht es indirekt schon. Wenn das Ausgangsmaterial von besserer Qualität ist, kommt auch bessere Qualität mit weniger Artefakten raus.
Welche Artefakte hat man denn bei dem Spiel? Moiré? Smearing? Ghosting?
 
Mich erstaunt der relativ niedrige Zuwachs bei RT. Sind die fetten Performance Sprünge bei nativer Auflösung und Raytracing bereits vorbei? Soll jetzt alles über upsamling und FG laufen? Dachte wir würden nochmal echte Sprünge bei RT stehen..
 
Capthowdy schrieb:
Es wird aber vermutlich wie bei der 4090 laufen: zu Release gibt es diese Karten und danach verschwinden sie, weil "nicht lieferbar" und man bekommt nur die teurere, aber eigentlich identische, "OC" Variante.
Reicht mir ja, ich bestelle gleich bei Release zum UVP.
Ergänzung ()

Fighter1993 schrieb:
Leider hat die Karte jetzt schon zu wenig VRam für 4K.
Quatsch.
 
F4711 schrieb:
Mich erstaunt der relativ niedrige Zuwachs bei RT.
Der 9800x3D wird hier bereits zu langsam sein, um die 5090 zu fluten, und wer das lustig findet, darf gerne bei den 10800x3D Tests meinen Beitrag hier zitieren, wenn sich alle wundern, warum der Vorsprung der 5090 zur 4090 bei den gleichen RT Szenarien mit derselben CPU doch "unerwartet" größer wird, vor allem deutlich im min-fps Korridor.
 
  • Gefällt mir
Reaktionen: nutrix, shadACII und Grestorn
F4711 schrieb:
Mich erstaunt der relativ niedrige Zuwachs bei RT. Sind die fetten Performance Sprünge bei nativer Auflösung und Raytracing bereits vorbei? Soll jetzt alles über upsamling und FG laufen? Dachte wir würden nochmal echte Sprünge bei RT stehen..
Ich könnte mir Vorstellen, dass gerade auch bei RT ein Auslastungsproblem zum Tragen kommt. Nicht nur bei der GPU sondern auch durch ein CPU-Limit.

Mal sehen, was die Zukunft bringt, speziell wenn man die Engines noch besser auf Blackwell optimiert.
 
@Laphonso
Sicherlich werden Firmware und Treiberupdates noch einiges rausholen können aber bezweifle es doch sehr, dass da noch so viel geht und wenn, dann wird es auch auf den 40ern gehen oder Nvidia lässt die genau deshalb extra ablaufen um die 40er künstlich zu kastrieren und die 50er besser dastehen zu lassen, da haben sie ja auch das Szepter in der Hand, wenns um die Konkurrenz der eigenen Karten geht.

Aber völlig klar, mehr Leistung durch kommende Treiberupdates usw erwarte ich ebenso.
Solche 8k Tests kommen schon sehr bald in Hülle und Fülle.
 
  • Gefällt mir
Reaktionen: Laphonso und Grestorn
GrooveXT schrieb:
Ok, in welchen Reallife Szenarien ist das so?
Ich meinte das ehr so das ich jetzt nicht nochmal 1300€ ausgebe für 16GB und die Spiele in Zukunft werden mehr VRAM verbrauchen. Einfach weil die 4090 und 5090 dieses liefern.
Ergänzung ()

Grestorn schrieb:
Ihr wisst das ich von der 5080 spreche richtig?
 
Grestorn schrieb:
Man kann bei Supersampling auch so vorgehen, dass nicht die Auflösung erhöht wird, sondern das gesamte Bild mehrfach gerendert wird, jeweils um einen minimalen Betrag (kleiner als ein Pixel) versetzt (jittered).
Danke, ich stand wohl echt auf dem Schlauch. Manchmal bringe ich die Begriffe ein wenig durcheinander. Ich meinte nicht SuperSampling im Allgemeinen sondern Oversampling aka OGSSAA im Speziellen.
Grestorn schrieb:
D.h. Du hast mit DLAA von der Menge an Informationen, deutlich mehr als bei klassischem SuperSampling.
bei dem einfachen SuperSampling mag das stimmen, aber gemäß Nyquist-Shannon-Abtasttheorem reicht die doppelte Frequenz (hier Pixel je Richtung) aus um ein Signal exakt zu rekonstruieren (genau genommen nicht =2 sondern >2). Es kann also gar nicht besser werden als 2xOGSSAA.
Grestorn schrieb:
Bei einem Standbild wird DLAA aber immer massiv jedem SS überlegen sein.
Das stimmt so nicht und das kann man auch ganz leicht beweisen. Zuerst erstellst du ein Bild mit 2xOGSSAA. Das nimmst du als Referenz. Dann nimmst du eins mit DLAA. Jetzt vergleichst du die Werte von 2xOGSSAA und DLAA mit der Referenz. Jedes Pixel, das nicht exakt übereinstimmt ist ein Fehler. Da du 2xOGSSAA als Referenz hast ist jedes Pixel von 2xOGSSAA exakt gleich der Referenz (ist logisch, da es ja ein und dasselbe Bild ist). DLAA wird wahrscheinlich viele Abweichungen haben, also Fehler. Somit kann DLAA nicht besser sein als 2xOGSSAA.
Und mal ehrlich: Wer vergleicht schon Standbilder? Wer das tut, hat absolut nichts verstanden. Das ergibt einfach keinen Sinn.
 
Fighter1993 schrieb:
Ihr wisst das ich von der 5080 spreche richtig?
Ja. 16GB sind auf die nächsten Jahre genug. Auch wenn es mal ein Spiel gibt, dessen Texturcache so hoch einstellbar ist, dass man die 16GB knacken kann.

Ich kann immer eine solche Konfig machen, die den Speicher knackt. Einfach mal 20GB Texture-Cache... rums.

Ob der dann optisch irgendeinen Unterschied macht, steht auf einem ganz anderen Blatt.

Genau die Diskussion hatten wir bei Doom:Eternal, das die selbe unsinnige Einstellungsmöglichkeit hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen, Quidproquo77, shadACII und 2 andere
Zurück
Oben