Test GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark

Ano_Dezimal schrieb:
Was genau ist hier schwierig? Es ist sogar recht einfach. Wenn du überhaupt solche Tests als Basis nehmen möchtest dann schaust du einfach welche Spiele du hast oder zukünftig haben willst und wie deine Karte agiert. Dann hast du schon deine Entscheidung.

Du willst auf 400W runter und ein Spiel spielen bei dem nur 6% mehr Leistung abgerufen wird? Okay dann kauf eben nicht. Wenn du aber eins hast wo trotzdem über 20% mehr drin sind ist das ja ein ganz anderes Thema.
Nette Idee aber zu kurz gedacht.
Tendenziell (!) kann ich die Spiele die ich spiele schon spielen (simple as that). Von kommenden Spielen dagegen kenne ich die Skalierung noch nicht.
 
Medcha schrieb:
Teuer erkaufter "Spielespaß"... 150 W für'n paar Frames... Jeder braucht so eine Grafikkarte, Geld und Energieverbrauch spielen ja mittlerweile keine Rolle mehr. Geile Kommerzwelt. Juhu!
Wer es sich nicht leisten kann, für den ist das Produkt halt nicht gedacht. Für einige sind 2300€ viel Geld - viele verballern aber MEHR für eine Woche Urlaub. Die 5090 bleibt mehr als eine Woche und ist daher "Kleingeld".
 
5 Jahre Garantie sind ja möglich und dann ist so eine Enthusiastenkarte mit ~50€ auch nur 1x Essen gehen im Monat. Für ein Hobby gar nicht so teuer. Und die Zeiten von jedes Jahr doppelte Performance sind vorbei.
 
Blaze1987 schrieb:
Auch wenn ich Igor sein Fazit nicht angemessen finde, sieh dir doch einfach mal die Effizienz, ...

Trotzdem teste ich auch gerne selbst mal, falls ich eine 5090 abbekommen sollte.
Mein Eindruck= die Ergebnisse streuen stark, je nach Game!
Bin gespannt, was bei Dir so rauskommt.
und
Wie das Ganze mit Fps-Limit so reagiert.
 

Anhänge

  • Ausreisser in der Effizienz.jpg
    Ausreisser in der Effizienz.jpg
    133,4 KB · Aufrufe: 83
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blaze1987
Laphonso schrieb:
Wir wissen nicht mal wann und wie überhaupt die RTX6000er produziert und erscheinen werden.

AMD und Nvidia stagnieren gerade, von Intel kommt gar nichts außer low End.
Von der 1080Ti über die 2080Ti, 3090, 4090 und nun 5090 wurde es immer teurer.

Bei einer 6090 mit dann inflationsangepassten 2579 Euro Euro FE Preis in 2 oder 2,5 Jahren ist das eine kühne Hoffnung und Aussage , dass es da "herbe Wertverluste" gibt.
Man muss Nvidia nicht schön reden.
Nvidia macht sich auch selber Konkurrenz. Die nächste Generation muss ja besser werden als die letzte, damit man den Leuten neue Karten verkaufen kann.

RTX 5000 ist allgemein eine sehr schlechte Generation. Und erinnert eher an die Generationssprünge von Intel.

Von 1080 auf 2080 auf 3080 auf 4080 waren es z.b. immer 40-50% mehr Performance.
Von der 4080 auf die 5080 sollen es aber nur noch 15% sein.
Wenn die RTX6080 aber wieder einen "normalen" Performanceboost bekommt, dann ist sie fast an der 5090 dran.
Auch könnte die 6080 mit hoher Wahrscheinlichkeit 8x3GB also 24GB VRAM bekommen.
Ich glaube auch nicht, das Nvidia die 400W weiter steigern wird. Ich glaube auch dran, das die 6080 eher 300-350W nutzen wird.
Und auch wenn die 6080 dann 1500€ kostet, ist es immer noch einiges weniger als die 5090 und somit wird die 5090 viel an Wert verlieren.
Wäre halt dumm eine teuer gebraucht Karte zu kaufen, die doppelt soviel schluckt für vielleicht 5% mehr Leistung und weniger Features, denn RTX6000 wird auch wieder neue Features haben...
Und ja ich schreibe hier extra von einer 6080 und nicht 6090.

Und das mit der 6000er wieder mal mehr Leistung kommen wird steht fest.
2nm geht dieses Jahr noch in die Massenproduktion und AMD kommt 2027 mit UDNA.
AMD ist bei der Hardware konkurrenzfähig zu Nvidia, man hatte aber bei RDNA3 einen Fehler eingebaut der nicht beabischtigt war und lag deshalb hinter den Erwartungen. RDNA4 hätte im Chiplet-design denselben Fehler gehabt, deswegen wurde das High-End Modell gestrichen.
UDNA wird eine neue Architektur ohne diesen Fehler haben und mit Sicherheit schneller sein als die 5090.

Lediglich in sachen Software aka DLSS/MFG liegt AMD Nvidia mind 2 Jahre zurück und ich sehe nicht, das man das aufholen könnte.
Allerdings ist es auch die Software, die viele ja nicht unbedingt haben wollen. FG und MFG sind nicht wirklich Lieblinge der Nutzer... Der Rest von DLSS4 ist aber gut.
 
Meiner Meinung nach hätte nVidia die Karte bei 450W belassen sollen und die UVP gleich der 4090 setzen. Dann wäre die 5090 deutlich überzeugender, mit den ~17% Leistungsgewinn.

Aber so ist das halt eher ein Reinfall.
 
Tzk schrieb:
Ich frage mich allerdings auch, ob die 40er Serie einfach zu gut ist und damit die 5090 im Vergleich schlecht ausschaut.
"Gut" waren in der 4000er Serie mmn. auch nur eine handvoll Karten.
Eigentlich nur die RTX 4090 und die RTX 4070 Ti Super, wenn ich es mir genauer überlege. Alle anderen Karten hatten mehr oder weniger deutliche Makel (VRAM Geiz, teils enttäuschende Leistung für die jeweilige Klasse, usw.)
Die 5000er sind bisher auch eher nicht so geil, wobei ich befürchte, dass die RTX 5080 sogar noch enttäuschender als die 5090 wird.
 
  • Gefällt mir
Reaktionen: JetLaw, Tzk und homunkulus
Ano_Dezimal schrieb:
Alles supi, würde meine RTX 5090 Liquid Suprim sowieso nochmal undervolten. Das passt schon so. Neukaufpreis abzüglich lockerer 1500€ für die alte 4090 machen die Karte sogar günstiger als die 4090 war.

Freue mich auf Freitag Donnerstag und hoffe auf Verfügbarkeit.
Ich sag mal wie es ist: Richtiger money waste :D
 
Was mir gerade aufgefallen ist, man kann sich praktisch da die 5000er Serie so ziemlich 0% Effizienzfortschritt hat die Leistungssteigerung anhand der TDP ziemlich gut errechnen bzw. an die Performance zumindest annähern.

Rtx 4090 450W 5090 575W = 27,7% höherer Verbrauch, ~28% bessere Performance im Schnitt
RTX 4080 320W 5080 360W = 12,5% höherer Verbrauch, ca ~12% bessere Performance laut Leaks
Rtx 4070TI Super 285W 5070TI 300W = 5% höherer Verbrauch, vermutlich ca ~5-7% bessere Performance.
(Hier muss man allerdings bedenken dass die 4070TI non Super ebenfalls 285W verbraucht hat).
 
Zuletzt bearbeitet:
Xes schrieb:
Gut" waren in der 4000er Serie mmn. auch nur eine handvoll Karten.
Ja, damit hast du vollkommen Recht. Gemeint hatte ich eigentlich die Effizienz, nicht die Karten im Gesamten. Das NVIDIA echt knauserig mit dem VRAM ist steht außer Frage. Und das es in der 40er Gen kaum “Runde” Karten gab ebenfalls.

Selbst in der 30er Gen war z.B. die 3070 mit 8gb ein schlechter Scherz. Da war zum Launch schon kalt das die Karte zum Rohrkrepierer wird, nicht so wie die kleinere 3060 mit 12gb.
 
  • Gefällt mir
Reaktionen: Xes
DevPandi schrieb:
Sowohl Maxwell als auch Turing haben damals trotz gleichem Fertigungsprozess sowohl mehr leistung als auch die Effizienz steigern können.
Maxwell und Turing sollen den gleichen Fertigungsprozess gehabt haben?
 
Skuros schrieb:
UV bringt einfach deutlich mehr, aber scheint gefühlt immer mehr in Vergessenheit zu geraten, da die letzten Reviews eher aufs TDP reduzieren ausgerichtet sind, nicht nur bei CB.
Tatsächlich macht es keinen großen Unterschied. Ja, mit UV kannst du vielleicht etwas Leistung konservieren. Aber im Endeffekt kann man sich die 150 MHz auch sparen. Du bist aber ständig beim "feinjustieren", weil das UV dann doch nicht in allen Situationen stabil ist...
Dann einfach PL auf 80% (in Falle meiner 4070 Super) oder sogar etwas niedriger. Dann kackt dir nicht plötzlich das Spiel ab.
 
drunkeNNN schrieb:
Keine heisse Generation. Definitv nicht. TSMC liefert nicht wirklich...nach dem EUV-Sprung schläft Litho wieder ein.
Wobei die Entscheidung, in welchem Knoten ein Chip gefertigt wird, v.a. von der Firma (Nvidia) abhängig ist. Wenn Nvidia hier eine von TSMCs N3 Knoten bevorzugt hätte, wär TSMC wahrscheinlich durchaus in der Lage gewesen, das zu realisieren. Nur hätte so ein großer Monolith in N3 nochmal deutlich mehr gekostet. Die Frage ist dann auch, ob ein (theoretisch) noch effizienterer Knoten es aus Nvidias Sicht Wert gewesen wäre. Andersrum, würde Nvidia deswegen mehr 5000er RTX verkaufen? Wohl eher nicht. Nvidia weiß eben, daß sie sich hier nicht strecken mussten, denn gerade die 5090 steht konkurrenzlos alleine auf weiter Flur. Da ist die Entscheidung, die Fertigung im wesentlichen so zu belassen, wie sie sich für Ada bewährt hat, logisch.
 
Ok - es wird (von der 3090 kommend) die MSI Suprim werden mit Undervolting (Ziel ~450 Watt).

Ich glaub das ist eine „vernünftige“ Lösung und die Mehrkosten gegenüber einer gebauchten 4090 halten sich in Grenzen. Als Bonus gibts den aktuellen DisplayPort mit dazu.

Anwendungsbereich: VR für den MSFS.
 
  • Gefällt mir
Reaktionen: minalion
Die 4090 wird leistungsmäßig zwischen der 5080 und der 5090 liegen, wenn man das MFG weglässt. Die 4090 hat wohl auch das rundeste Gesamtpaket zwischen den beiden GPUs.

Ich werde meine UV 4090 behalten. Sie macht noch viel Spaß.
Ich habe eh nur 120Hz@4K und dank neuem DLSS4 wird es auch in ausgeglichener Einstellung so gut aussehen und laufen, dass auch das klassische Framegen ausreicht.

Ein Vorsprung von 400 Watt zu 400 Watt beträgt nur mickrige 14 Prozent. Nein, danke.
 
MaverickM schrieb:
Meiner Meinung nach hätte nVidia die Karte bei 450W belassen sollen
Ging mir auch so durch den Kopf 125W für ein paar Prozent heftig. Aber naja kann ja jeder selber machen, mein Fall ist die eh nicht, freue mich einfach über die Benefits die DLSS4 für meine schnuckelige 4070 abwirft.
Wenn sie anspricht, viel Spass damit.
 
Die Zeiten des automatischen Vorsprungs durch die Fertigung scheint derzeit einmal stark eingebremst.

Entweder die Hersteller gehen den Weg über künstlich generierte Pixel und deutlich mehr AI Leistung oder die nächsten Karten müssen in einem sehr fortschrittlichen Node gefertigt werden.
Ich schätze mal es wird die Mischung aus beidem.

Ich sehe sonst leider wenig Perspektive, dass wir von den absurden 600W wieder auf ein vernünftiges Niveau runter kommen.
 
Ich verstehe nicht, warum sich der Test komplett auf Rasterization begrenzt hat, wenn eine 5090 wahrscheinlich eher für RT und PT gekauft werden dürfte (und je nach Monitor auch dort noch Leistung übrig hat)...
 
Topi41 schrieb:
und die Mehrkosten gegenüber einer gebauchten 4090 halten sich in Grenzen.
Ich denke mal mit 800-1000 € Differenz wirst du da schon rechnen können.

ElectricStream schrieb:
Ich habe eh nur 120Hz@4K
Bei 120 Hz bringt dir MFG sowieso nichts, außer einen höheren Input-Lag gegenüber normaler FG.
 
Zurück
Oben