Test GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark

theGucky schrieb:
Da rechne ich mit einem herben Wertverlust in 2 Jahren.
Wir wissen nicht mal wann und wie überhaupt die RTX6000er produziert und erscheinen werden.

AMD und Nvidia stagnieren gerade, von Intel kommt gar nichts außer low End.
Von der 1080Ti über die 2080Ti, 3090, 4090 und nun 5090 wurde es immer teurer.

Bei einer 6090 mit dann inflationsangepassten 2579 Euro Euro FE Preis in 2 oder 2,5 Jahren ist das eine kühne Hoffnung und Aussage , dass es da "herbe Wertverluste" gibt.

Und: Wird es überhaupt eine 6090 geben? Wird DLSS 5 vielleicht einfach 20-30% mehr Performance durch Qualitätsverbesseurngen und Algorithmen raushauen und dadurch das ganze Releasefenster auf 2028 geshoben?

Im übrigen wird die 5090, wie auch die 4090 bisher, mit neuen CPUs (10000er x3D) noch besser wieder skalieren und gewinnt im Laufe der Zeit mehr Performance und fps Korridore. Die wird also - wie die 4090 - noch schneller, nicht langsamer. Dazu 32 GB VRAM.

Wie bei der 2080Ti, 3090 und 4090, sehe ich als early adopter das auch bei der 5090 so:
Sofort beim Launch kaufen oder eben direkt skippen für die höchste Nutzungsdauer vs "Invest".
Ergänzung ()

Jan schrieb:
Danke für Eure unfassbar umfassende und tolle Arbeit und Tests!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
DerRico schrieb:
Die eigentliche "Schuld" dafür liegt aber nicht bei denen die gut gearbeitet haben und jetzt voll absahnen. Würde jeder genau gleich machen.
Die "Schuld" liegt bei den Pfeifen von AMD, die erst die Fertigung nicht mehr hingekriegt haben (schon vor ein paar Jahren) und nun auch keine ordentlichen GPUs mehr designen. Und bei den Idioten von Intel, für die das Gleiche mit ein bisschen anderen Vorzeichen gilt. Und bei Samsung...
Also zusammenfassend ist der geringe Leistungsvorteil der 5090 gegenüber der 4090 zu verantworten von AMD, Intel, Samsung und ein bisschen TSMC, in dieser Reihenfolge?

Faszinierend.

xpad
 
  • Gefällt mir
Reaktionen: McTheRipper, znarfw und SP-937-215
ruthi91 schrieb:
Woran haben denn NVIDIA und TSMC zweieinhalb Jahre gearbeitet ?
Sicher nicht um bei Preis, Performance und Stromverbrauch zu stagnieren.

Das konnte ja sogar Intel besser mit 14nm++++.
Das dachte ich mir auch, die 5090 hätten sie so betrachtet schon lange bringen können…

Entweder ging die Entwicklung schon in die nächste Gen, sie haben keine grossen Optimierungen gefunden oder die Entwicklung ging nicht in diese Sparte bzw war nicht übertragbar.
 
Tom_1 schrieb:
Ich komme von einer 3080, für mich ist das ein enormes Upgrade.
Hä? Du hast aber eine 4090 in der Signatur stehen?
1737804377767.png
 
  • Gefällt mir
Reaktionen: McTheRipper und Otsy
DerRico schrieb:
Schade. Das Wunderbare an der 4090 war, dass man eben einfach ohne weiteres Nachdenken einmal einen effizienten Betriebspunkt finden musste und dann war gut. Meine läuft mit rund 320W. Geht wunderbar.

Bei der 5090 müsste man nun jeweils einzelne Spiel anschauen und Profile hinterlegen. Das ist schon wieder nicht cool. Also natürlich ist auch eine pauschal auf 400W eingegrenzte 5090 selbst im langsamsten Spiel eine Rakete. Aber Über 25% zu verlieren in der Spitze - dafür gebe ich die voraussichtlich 2.800€ nicht gerne aus.
Das gab es bei der 4090 genauso - immer dann, wenn sie ihr Powerlimit auch auszureizen wusste und musste, um die Leistung zu erreichen. Immer dann hast du auch bei der 4090 schon etwas deutlicher verloren, wenn du ihr den Sprit genommen hast.
Ist ja auch logisch. Das ist auch gar nicht so kompliziert. Ich sehe nicht, dass sich die 5090 da anders verhält. Vielleicht, weil sie aufgrund des breiteren SI und des deutlich größeren Chip einfach noch mehr am Strom hängt. Aber drehst du den Saft ab, wenn er benötigt wird, kostet dass dann eben doch mehr Leistung, als im Durchschnitt.

Das PT hat halt doch irgendwo seinen Grund. Wenn es überall auch mit 70% davon gehen würde, würde NV ab Werk doch auch keine 100% ansetzen.

Ich finde irgendwie amüsant, wie überrascht immer alle sind...

Es ist im Grunde immer noch derselbe Fertigungsprozess. An den Shadern selbst hat sich nichts geändert. Es ist der größere Chip und das breitere SI... Fertig. Das skaliert halt nicht 1-zu-1...

In der Hinsicht wird der Vergleich zwischen 5070 und 4070 wohl etwas spannender, weil sehr identisch.
 
Waelder schrieb:
Das dachte ich mir auch, die 5090 hätten sie so betrachtet schon lange bringen können…
Eine 4090TI hätte sich nicht so gut vermarkten lassen.
Und nun slot-en sie die 5080 (=4080Ti), die 5070Ti (=4080 Refresh) und die 5070 = (4070 Refresh) darunter ein.

Den hard carry macht DLSS 4.

Und wir werden GENAU DASSELBE bei den 9070ern erleben. Architektur Minischritte, hier und da mehr Effizienz für 2+ Jahre alte Performance / altes Zeug.
FSR 4 wird der Joker, damit RDNA4 den Launch wert ist.
Analog DLSS 4 für RTX5000, die für sich eher öde sind.

Nvidia und AMD sind da so unterschiedlich gar nicht unterwegs.
Nur dass AMD sind und uns eine 8900XTX nicht antut, die auch 500+ Watt ballern würde um dann doch nicht mal die 4090 zu knacken.


Davon abgesehen werde ich die 5090 weder im PT noch via UV limitieren. Wenn ich das Biest schon kaufe, soll es sich auch austoben :D
 
Hab ich den sweet spot ubersehen?
Nur durch UV zu erreichen?

Was ne Energieschleuder, NV hat offensichtlich gewinnträchtigere Investments.
 
drunkeNNN schrieb:
Keine heisse Generation. Definitv nicht. TSMC liefert nicht wirklich...nach dem EUV-Sprung schläft Litho wieder ein.
Gibt's was Besseres? Nein?... Dann muss man das Beste machen aus dem, was man hat. Den Fehler auf TSMC zu schieben ist wirklich billig.. NV wusste doch, was es gibt/geben wird, da hätte man vielleicht einen anderen Weg einschlagen können. Bei so viel Geld, welches NV Scheffel lohnt es sich vielleicht doch wieder eigene Gaming Chips zu entwickeln und von der Entwicklung der AI Teile zu entkoppeln
 
  • Gefällt mir
Reaktionen: Wintermute
Joa eine neue versuchte Sichtweise des Schweinemettigels mit Schokozuckerglasur ist auch nicht besser.

Meine RTX 3080 läuft seit Anfang an auf 200W (statt 320W) und das bei nur 3% Performanceabzug.

Die 50er Generation ist leider eine zum Vergessen. Sehr schade für die Leute die zur Zeit und bald upgraden müssen, aber für alle anderen muss natürlich auf einen vernünftigen Sprung gewartet werden mit der nächsten Generation.

Ich sage niemandem was er zu tun hat, aber man kann zumindest hoffen, dass mehrere Leute doch nochmal drüber nachdenken was die hier zu kaufen erwägen. Langsame logische Blickweise auf den Stand der Dinge ganz nüchtern. Preis, Performance, Verbrauch, anstehende PC Spiele u.s.w.

Wer muss der muss, aber ich würde mich aus Konsumentensicht sehr unwohl fühlen bei dieser Generation.

Ich bleibe bei meiner Ansicht, dass das was wir hier sehen eigentlich eine unter 1000€ 300W GPU hätte sein müssen von der Rohleistung im Jahr 2025. Warum es nicht klappt ist im Endeffekt auch egal, aber wenn man nicht irgendwann anfängt für sich selber und die Würde des Menschen zu stehen dann wird es natürlich weiter mit der Dreistigkeit eskalieren.

Ich sagte es schon zur Titan und 2080 Ti. Wer das bezahlt der darf in 2 Jahren mehr bezahlen und kriegt weniger. Und jetzt sind wir schon bei über 2300€ innerhalb weniger Jahre und die Karten haben nicht mal mehr schöne Halo Namen.
 
  • Gefällt mir
Reaktionen: dohderbert und Corpus Delicti
Meine 4090 tut es noch bis zur 6090. Sehe derzeit keinen wirklichen Grund zu wechseln. Bin mit der Power immer noch zufrieden. Für DLSS MFG Mehrpower sehe ich nicht ein NV Geld in den Rachen zu werfen.
 
drunkeNNN schrieb:
Keine heisse Generation. Definitv nicht. TSMC liefert nicht wirklich...nach dem EUV-Sprung schläft Litho wieder ein.
Litho schläft nicht. Nvidia setzt nur auf einen mittlerweile drei Jahre alten Node
Es gibt ja mittlerweile schon zwei weitere N3 Generationen danach und dieses Jahr kommt die dritte / N2

Nur braucht Nvidia halt alle ihre N3 Kapazität für AI. Da bekommen die konsumer nur die Restenodes
 
Simanova schrieb:
Das Problem bei der RTX 5090 ist, dass keine Langzeittests vorliegen. Man kauft die Katze im Sack. Bei der RTX 4090 hat es 2-3 Wochen nach Release gedauert, bis die ersten Stecker verschmort waren.
Immernoch die Stecker sind verschmort weil die Anwender zu blöd waren diese richtig zu bedienen.
Mach dir da bei der 5000er keine Sorgen.

Ich wette mit dir Nvidia hat das diesmal mit Sicherheit vorher getestet.
Solch einen Shitstorm bei den "schwachen" Karten können sie wirklich nicht mehr gebrauchen.
 
Tom_1 schrieb:
Ich habe 2 Rechner :)
Dann kommst du so gesehen ja trotzdem nicht von einer 3080, außer du sagst mir jetzt dass du hauptsächlich mit der 3080 spielst und der 4090 PC steht fast nur rum. Normal würde man es genau andersrum erwarten und dann macht es mehr Sinn die 4090 in den 3080 PC zu stecken (oder sie zu verkaufen) und die 5090 in den 4090 PC. Ach egal, was auch immer. ;)
 
  • Gefällt mir
Reaktionen: minalion
ich glaube die 5090 wird noch schneller, wenn mal dsll 4 usw richtig rockt in neuen games,
da werden es dann schon mehr als 20% sein, bei fast 100% mehr cuda cores.....
 
Also das selbe Spiel wie bei der 40** Serie Power Target kann man schön herunter drehen und man verliert nur ein Bruchteil der Leistung. Bei meiner 4070 habe ich das Power Target nur auf 70 % gestellt und Spüre keinen unterschied außer das die Karte wesentlich Leiser läuft.
 
Laphonso schrieb:
Davon abgesehen werde ich die 5090 weder im PT noch via UV limitieren. Wenn ich das Biest schon kaufe, soll es sich auch austoben :D
Hoffentlich nutzt du nen gutes Netzteil mit ordentlich Leistung ;)
 
Einfach nur abartig über welche Stromverbräuche hier selbstverständlich diskutiert werden. Ich finde das alles extrem, aber auch spannend. Wenn mit 400 Watt minimum Verbrauch eine Komponente im System soviel verbraucht wie viele durchschnittliche PCs. Und wenn ich mir die Hersteller TDP der 5090 von 575 Watt betrachte, denke ich mir, mein gesamter PC mit 12900K und 3080 Ti übertaktet erreicht ca. 600 Watt.
Also ziemlich abartig alles.
Die 5090 ist eine Profi Karte für Leute die damit Geld verdienen müssen und Zeit ein Kostenfaktor ist.
 
  • Gefällt mir
Reaktionen: rentex
GhostSniper4090 schrieb:
Ein Witz ehrlich, ich bin schwer entäuscht. Ein richtiger Flop würde ich sagen.
Ich bin gespannt was das mit den Preisen machen wird.
So ein Erfolg wie bei RTX 4000 wirds diesmal nicht das ist kla.

Und auch wenn die 5090 gekauft wird. Die Modelle daraunter werden nicht der Knüller....

evt müssen sie dann über den Preis gehen.

Oder höchst Manipulativ wieder Strafen an die Boardpartner zahlen um die Teile zu verschrotten, so das der Preis nicht sinkt.
Dafür sollten sie dann aber von anderen Stellen mal gerügt werden....
 
Laphonso schrieb:
Und wir werden GENAU DASSELBE bei den 9070ern erleben. Architektur Minischritte, hier und da mehr Effizienz für 2+ Jahre alte Performance / altes Zeug.
FSR 4 wird der Joker, damit RDNA4 den Launch wert ist.
Analog DLSS 4 für RTX5000, die für sich eher öde sind.
Genau dasselbe würd ich nicht sagen und hoff ich mal für Amd, auf der ersten Blick sollte dort zumindest überall ein wenig was verbessert worden sein, hier und da wie du sagst, aber wenn wir NVIDIA hernehmen sind Verbesserungen schwer aus zu machen.
 
Zurück
Oben