Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Snoopy69 schrieb:
Davon liest man unironisch einige BeitrĂ€ge auf reddit 😂 Der Performance und QualitĂ€tsboost durch DLSS4 reicht vielen, was wieder mal fĂŒr die mĂ€chtige Auswirkung des Featuresets spricht.
Einige werden aufgrund dessen die aktuelle RTX GPU einfach weiterfahren, und oft sind es 4090 GPU Gamer..

btw:
https://old.reddit.com/r/nvidia/comments/1i9l2ak/nvidia_just_gave_40_to_60_performance_for_free_as/

So with DLSS3 in Cyberpunk I would play 1440P Quality with path tracing, no RR as it looked bad, and I would use FG. That would be 116.58 fps. With DLSS4 I can now drop to performance and enable RR to get 166.37 FPS. That's ~43%
 
  • GefĂ€llt mir
Reaktionen: PierreBK und nutrix
Die Hardwaremehrleistung der neuen 50er zur alten 40er eher mauh und Preispfui. Die Software mit DLSS4 & Co ist hier sicher etwas stÀrker aufgestellt. Aber auf ganzer Linie auch kein komplett waschechtes Gamechanger Hui. Verbrauch hoch bei gleichzeitig Effizenz runter ist dann noch das SahnehÀubchen obendrauf.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Igors Lab meint auch, dass 30 reichen. Mir reichen 30 in Cyberpunk und Alan Wake.
Da dĂŒrfte auch jeder etwas anders reagieren. Ich bin allerdings allergisch auf alles unter 60fps wenn es Richtung CP2077 und Shooter / RPG a la Witcher geht. MFG seh ich nicht wirklich. Meine PrĂ€ferenz sind "echte" 120fps und dann gern noch FG x2 on top.

Damit reize ich meinen Monitor aus und hab noch ein gutes SpielgefĂŒhl zum "halben Preis".
ErgÀnzung ()

DerRico schrieb:
Aber so 50% mehr Rasterleistung wÀre nett gewesen. Und mit N3P mit knapp 3Ghz stabil, plus ein paar Prozent mehr freigegebenen Shadern auch locker drin gewesen. Dies ist ein Produkt der Gier bzw. des Geizes.
Geh ich voll mit. Bei 2400€ UVP wĂ€re das auch sicher problemlos drin gewesen - hier wollte man einfach nur Marge maximieren mit minimalem Aufwand. Mehr muss man halt auch nicht tun um dennoch deutlich vor AMD zu liegen.

Man hat was Gamer angeht einfach nur das Minimalziel erfĂŒllt.
 
  • GefĂ€llt mir
Reaktionen: DerRico und IchBins237
Soviel zahl ich mit Kind fĂŒr ne Woche Urlaub AI ĂŒber Ostern in Belek. :lol:

Aber gut, jedem sein Hobby. Mich geilt das nicht mehr an, die PrioritÀten liegen einfach woanders.
 
Wird es noch ne rtx7090 geben?
Das ist schwierig da die nodes ab n3 23k$ kostet und mit gaa ab n2 sich die preise quasi verdoppeln.

Nvidia hat keine Mcm Lösung daher mĂŒssen die desktop dgpu monolithisch sein das ist teuer da vor dem gaa das si nicht halbiert werden kann
Und da a16 vermutlich 2026 risk und Massenfertigung 2028 kommt dĂŒrfte das grob 45k$ per wafer sein
nehme ich die aktuelle design zugrunde mĂŒsste ein high end chip maximal 150mmÂČ groß sein damit lĂ€sst sich keine vernĂŒnftige sku bauen
Außer man geht voll auf HBM und steigert den Takt auf maximum möglich sind grob 5,0ghz
das kĂ€me grob auf etwa die doppelte rtx4090 perf. bei grob 130mmÂČ mit etwa 470w
Das Si betrÀgt dann nur 192bit was ein problem ist hbm ist unausweichlich wÀre aber gleich grob bei 3072bit

Ein chip wĂŒrde dann 107$ kosten mit 4gpc a16sm a256alu ließe sich noch ne sku mit 6 gpc bauen bei grob 135$
Das wĂŒrde gehen aber das hat Konsequenzen bei der WĂ€rmedichte den auf 150mmÂČ mĂŒssen 470w weggekĂŒhlt werden gut möglich das die 5ghz gar nicht erreicht werden können und man in eine Wand rennt um die 3,5ghz dann muss man umdenken
Die Lösung wird mit Sicherheit mehr Si sein also auf 512bit gehen was dann etwa 255mmÂČ chip wird. (alu si 30-70) chip bei grob 258$ bei gleicher Leistung aber mit mehr Takt gehe da von maxed 4,0ghz aus.
6*14*256(192)*2=129tf
Das blöde ist das dies a16 node ist und dieser vermutlich erst 2029 fĂŒr nvidia infrage kommt eher 2030 dazwischen hat man nix n3 dĂŒrfte grob nur ne Effizienzsteigerung sein bei 150sm a128alu +-86tf
Das wÀren neben der nur 460w tbp +15%

Die folge rtx6090 wird wie rtx5090 ne derbe EnttÀuschung sein.
erst die rtx7090 dĂŒrfte da mehr perf. bringen das ist nebenbei erst 2029

FĂŒr kleine chips sehe ich ganz dunkel da es sich nicht lohnt da man ohne massiven Bandbreitenverlust keine vernĂŒnftige sku hinbekommt.
Die Lösung ist hier hbm und deutlich mehr alu letztere brauchen neben platz auch Energie die weggekĂŒhlt werden muss.
In n3 geht das noch aber mit gddr7 ist das ausgeschlossen da man hier auf maxed 128bit gehen kann (122mmÂČ) doppelt frisst zu viel FlĂ€che
Dies aber limitiert die Bandbreite auf maxed 36gbps +- 576gb/s das ist bei 3gpc a16sm (46sm) a256alu bei 49tf viel zu wenig; mit 192bit 162mmÂČ wĂ€re es knapp mit 864gb/s dann ist es denkbar.
Nur ob sich das lohnt das im Gegensatz zur Konkurrenz aussieht eher nicht.

4 gpc stehen so gut wie sicher was nutzbare alu bei 60sm a256alu maximal bringt bei maxed 192bit Si
chip ab 178$ +-60tf akÀ rtx4090 perf. und die wird schon bei 1008gb/s leicht limitiert
Die folge ist das man ein hybrid Ansatz bauen muss oder was wahrscheinlicher ist hbm
3072bit brauchen da grob 150mmÂČ
Das gepaart mit gĂŒnstigen hbm3 5,6gbps und man hĂ€tte keine Bandbreiten sorgen mehr aber KapazitĂ€tsprobleme da hbm bis 2030 ausgebucht ist.

Die Antwort auf rtx6090 und rtx7090 ist
ein refresh auf n3e mit 10gpc (150sm) 3,2ghz a128alu +-86tf stillstand quasi 2027 365w
Ein redesign a16 node bei 6gpc a256alu 4,0ghz 129tf 2029 470w
Alles mit gddr7 32gbps bis 36gbps

Amd wird gewinnen wenn dass der plan ist

Was die mid class angeht wird man lediglich rebrand geben wie man auch zu 65nm Zeiten getan hat. (2007-2010)
Was entry angeht (60 class) ist die rtx5060 die letzte gen gut möglich das der chip nochmal rebrand wird bis man mit a16 node eventuell ne sku hinbekommt wenn die Konkurrenz es erlaubt.
Den das ist sehr fraglich.
 
  • GefĂ€llt mir
Reaktionen: Maxminator und Terrschi
Der große Vorteil von mfg ist auch den Verbrauch stark zu senken. Einfach bei 70fps mfg einschalten und 120 fps 4k genießen mit der rechen Leistung von 70
 
Quidproquo77 schrieb:
Igors Lab meint auch, dass 30 reichen. Mir reichen 30 in Cyberpunk
Ja bei Cyberpunk funktioniert das prima. Ich spiele das mit Ultra Details und Raytracing alles auf Hoch. Habe so 40-50 FPS im Schnitt. Das lĂ€sst sich gut spielen. Man brauch zwar erst etwas eingewöhnung wenn man vorher bei ĂŒber 100 FPS in fast jedem Spiel war. Aber so lĂ€ufts prima... Und das mit ner RDNA2
 
Ein fps cap macht das gleiche
 
1737811887206859.png
 
  • GefĂ€llt mir
Reaktionen: nuestra
@nuestra Wohl wahr, aber prinzipiell egal mit ner gescheiten PSU, va ab ATX3.1
 
So wie bei manchem Spielerelease sich erst nach ein paar Patches eine AnnÀherung an das Versprochene/Erwartete einstellt, lese ich GPU-Rekeasetest-Threads mittlerweile auch erst nach dem 1.000-en Beitrag. ^^

@Wolfgang: Was ein umfangreicher und tiefgehender Test, absolut top!
Alleine das Inhaltsverzeichnis ist lĂ€nger als manche Artikel. Das wĂŒrde ich mir verkleinert ausdrucken und an die Wand hĂ€ngen im Stile eines Zertifikats aus amerikanischen Serien. ^^

@Jan : Dieser Test muss als irgendeine ZĂ€hlaufgabe ins Nikolaus-RĂ€tsel 2025, dafĂŒr wĂŒrde ich meinen Monitor sogar erstmalig hochkant drehen. ^^

Geschrieben wurde hier natĂŒrlich eh schon alles. Daher nur die kurze Anmerkung, dass dieses Mal auch bei Nvidia die "Software" hinter Terminplan zu sein scheint. Das passt auch nicht ganz zum bisher gepflegten Image. Gerade die Möglichkeiten der neuralen Shader finde ich sehr interessant.
 
  • GefĂ€llt mir
Reaktionen: Jan
@Jan und @Wolfgang
Vielen Dank, fĂŒr den grossartigen und neutralen Test, es war eine Freude ihn zu lesen!

Ich war zuerst auch enttĂ€uscht, bis ich mir vor Augen gefĂŒhrt habe, was das wirklich bedeutet.
Ent-tÀuscht zu sein bedeutet, man hat sich getÀuscht. Die TÀuschung ist aufgelöst und die klarheit
ist hervorgekommen. Das bedeutet NICHT, dass jemand eine TÀuschung begangen hÀtte. Sondern
dass man andere Erwartungen hatte.
In diesem Fall, ist es eine Frage der Logik. Mal ganz ehrlich, warum sollte Nvidia eine 5090 bringen,
die satte 60% schneller ist? Es gibt aus Nvidia Sicht keinen Grund dazu. Sie fĂŒhrten schon mit der
4090, nun haben sie mit der 5090 nochmals ihren Vorsprung erweitert. Es ist also absurd gewesen zu
glauben, sie wĂŒrden nun mehr Leistung liefern. Da wie gesagt, es fĂŒr Nvidia keinen Grund dazu gibt.

Zu den Kritikpunkten:
-Der Preis.
Da gehe ich konform mit vielen, dass er schlicht sehr hoch ist, war aber auch nicht anders
zu erwarten. Dazu haben wir ja auch genĂŒgend Beispiele, wie hoch die Preise bei anderen Sachen sind,
wo kaum-bis-wenig Konkurrenz im obersten Feld ist.

-Die Leistung.
Hier verstehe ich manche schlicht nicht. Es ist mehr, als die 4090. Man kann darĂŒber diskutieren,
ob es sich bei der Leistungssteigerung lohnt, mehr aber nicht. Sie hat mehr Leistung, definiert also
die absolute Speerspitze der Grafikkarten.

-Der Verbrauch.
Ziemlich heftig, mal ganz davon ab, dass es schwer abzufĂŒhren ist. Aus meiner Sicht, ist der Verbrauch
genauso zu kritisieren, wie bei AMD im idle. Dazu kommt, dass die Effizienz nicht gestiegen ist(hoffe ich hab
das nicht falsch verstanden). FĂŒr mich ein ziemlicher Makel. Betrachte ich dann noch die WĂ€rme, die
man bei einer 5090 abfĂŒhren muss, wird es nicht besser.

-Das Spulenfiepen.
Ähm, bei einer Graka ĂŒber 2000 Euro, darf das nicht sein! Sorry, aber das ist ein no-go, aus meiner Sicht.

-Die Gamingkarte.
Betrachte ich die 5090, dann empfinde ich sie subjektiv nicht als Gamingkarte, sondern als Zwitter. FĂŒr mich
wĂ€re sie mit ihren Cuda-cores direkt fĂŒr KI gedacht und damit wĂŒrden sich einige der Kritikpunkte erledigen.

-MFG.
NatĂŒrlich kann man darĂŒber diskutieren, dass es nicht "echt" sei. Nur ist es vermutlich die Zukunft. Einige haben aber vergessen, dass es eine gewisse Grundpower benötigt, damit das auch reibungslos klappt. Genau den Punkt finde ich aber wichtig.

Abschliessend, es ist keine schlechte Karte, auch wenn es einiges zu Kritteln gibt. Man sollte aber die
eigenen Erwartungen(durch das Marketing geschĂŒrt), nicht als Basis von Wissen ansehen, noch sich ĂŒber
die ent-tĂ€uschung Ă€rgern.. denn man hat ja nun eher den klaren Blick, wenn der Ärger verflogen ist.
Mich wĂŒrde der hohe Preis, die WĂ€rmeprobleme davon abhalten, die 5090 zu kaufen. Ich fĂŒr meinen Teil,
gebe nicht so viel fĂŒr eine Graka aus, wie fĂŒr ein gebrauchtes Auto. Selbst wenn ich die CUDA-cores gebrauchen könnte.
 
  • GefĂ€llt mir
Reaktionen: Hells_Bells und Jan
syfsyn schrieb:
Nvidia hat keine Mcm Lösung daher mĂŒssen die desktop dgpu monolithisch sein das ist teuer da vor dem gaa das si nicht halbiert werden kann
Blah!
https://www.computerbase.de/news/gr...al-die-mit-208-milliarden-transistoren.87436/

Hat Nvidia lĂ€ngst im Petto, nur halt nicht fĂŒr den Endkunden. Am Ende wĂŒrde man so oder so, den doppelten Preis fĂŒr eine solche Lösung verlangen. Es ist eine simple Kalkulation, was kostet mehr, ein großer Die und die defekten verbaut man in Karten fĂŒr Endkunden, oder zwei kleinere, die ein kostspieliges Packaging benötigen.

Aktuell soll ja vor allem das Packaging der Flaschenhals bei TSMC sein, also wird man sich hĂŒten GPUs fĂŒr die Endkunden da auch noch durchzujagen, wenn man sich im Businessbereich die Chips vergolden lassen kann.
 
Nun das ist tsmc packaging mit zwei dedizierten gpu das sind einzelne chips die auf einen wafersubstrat gesetzt werden das ist Perse kein mcm sondern ne brĂŒcke ĂŒber nvlink auf dem chip das funktioniert nur bedingt und ist in directx Kontext nicht besser als sli.
Zumal nvidia hier massive Probleme hat
 
DriveByFM schrieb:
Danke, aber leider enttÀuschend, naja spart mir viel Geld. :D
Eine 3090 hĂ€tte dem Vergleich außerdem sehr gut getan.
Fehlt mir oft bei irgendwelchen Test... wie lohnt sich der Aufstieg von einer sehr in die Jahre gekommenen GPU/CPU usw.
Weiter find ich den Vergleich FPS/Euro bissl unvollstĂ€ndig. Mir fehlt was z.b. die 4090 FĂŒr Euro leistet, als ich die gekauft habe (ggf. UVP) und nicht wie das wĂ€re wenn ich die ca. 400-500€ teurere nicht verfĂŒgbare Karte jetzt kaufen wollte.
 
syfsyn schrieb:
kein mcm sondern ne brĂŒcke ĂŒber nvlink auf dem chip
Nochmals nein!
Blackwell als neue GPU-Architektur fĂŒr AI-Beschleuniger nutzt deshalb ein Design mit zwei identischen Dies, die wiederum ĂŒber einen Die-to-Die-Link mit 10 TB/s kommunizieren und gegenĂŒber Anwendungen als eine einzelne GPU agieren sollen
Macht nur derzeit bei Grafikkarten fĂŒr den Consumer Markt keinen Sinn, eine 50180 wĂŒrde dann 1000W+ schlucken und alles kleinere lĂ€sst sich schlichtweg gĂŒnstiger "am StĂŒck" herstellen.
 
Es ist aber ne brĂŒcke und somit zwei getrennte chips ob das einen anderen Namen hat ist egal
 
ZurĂŒck
Oben