Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

@nuestra So wie die Vegas damals, das war auch krass :D
 
Schade.

Sieht eher nach einer Karte aus die ich erwartet hätte für 600-700€ bei 250W im Jahre 2025.

Also den kleinen Performancesprung durch so viel zusätzlichen Verbrauch und Realgeldmehrkosten ist nicht so geil.

Insgesamt :

Pro :
- Kühler

Contra :
  • Leistung
  • Preis
  • Verbrauch
  • Generationengewinn
  • Features
  • VRAM Temperatur
  • Leistungsfortschritt zu Vorgängergenerationen
  • Gehäusetemperaturlevel durch 600W

Wertung :

1.6 / 10 Punkten.

Bei mir definitiv der Ekel herbeigerufen mit der Karte. Es ist zu viel ein Produkt um Shareholder glücklich zu machen und zu wenig ein Produkt für wirkliche Spieler.

Fazit :

Entweder hätte die Karte 30-40% besser sein müssen oder deutlich günstiger und sparsamer. Das Gesamtpaket ist für alle zu wenig und enttäuschend. Es ist mehr als 2 Jahre her, dass wir die RTX 4090, welche bereits viel zu teuer war wie bereits die 2080 Ti und 3090, und wir haben keinen direkten Leistungssprung bekommen.

Als gesamte Gamereinheit hoffen wir, dass wir mit der nächsten Generation wieder etwas vernünftiges präsentiert bekommen und nicht der langsame Tropf des großen Monopolstellers ausgesetzt sind deutlich über dem Rand des preislich vertretbaren.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Ob diesmal die 5090 ein Ladenhüter wird und dafür die 5080 mehr gekauft wird ist auch mal ab zu warten.
 
Die 5090 läuft mit Riser Kabel nicht mit PCIe 5.0, auch interessant..zu sehen bei Igor..
 
Optimal Setting schrieb:
hatte vorher auch die 3090 drin. gab auch kein problem. trotz oc
Ja kommt auch auf das Netzteil an ein platin schafft das sicher mit 7950x3d. Aber zusagen 1000w reicht locker kannst du nicht behaupten beim 14900ks mit 5090ti super
 
Tornavida schrieb:
Ne hast du nicht,stimmt,aber direkt als Kommentar zu dem vorher Besprochenem könnte es jemand aber so auffassen,dass es ja mit WK anders ist. Und es wird genauso warm und nicht nur fast.
Die in den Raum abgegeben Wärme ist nicht genauso wenn man auf ein Wasserkühlung umbaut.

Die Wasserkühlung kommt mit einer Pumpe, die 2-15W Abwärme zusätzlich produziert.
Dann tauschst du zwei kleine schnelle Lüfter gegen viele Radiatorlüfter und das sind auch nochmal ein paar Watt mehr, wenn man davon ausgeht, dass man viel Radiatorfläche nutzt.
Und mit wenig Radiatorfläche wäre es witzlos die Kosten einer Custom Wasserkühlung zu inverstieren.

Dann kann sich auch die Leistungsaufnahme der Grafikkarte ändern. Denn eine niedrigere Temperatur verbessert die Effizienz der GPU. Nicht massiv, aber im Extremfall kann das 10-15% ausmachen.
Bei grob 550W bei fast 90°C können 10% weniger dank 50°C schon nett sein.

Natürlich gesetzt den Fall, dass der Takt gleich bleibt und nicht höher geht, um das Powerlimit zu erreichen.
Denn dann würden die FPS steigen und die CPU würde etwas mehr verbrauchen.

Also je nach Situation und vielen anderen Faktoren ändert sich die abgegebene Wärmemenge durchaus durch den Umbau auf eine Wasserkühlung.
Es kann am Ende etwas mehr oder weniger sein...oder zufällig gleich. Es ist aber nicht "genauso".
Tornavida schrieb:
Hier gabs mal einen Thread wo jemand die Radiatoren im Kellerraum hatte und dorthin aus dem Zimmer geleitet hat,
Ja, das ist super.
Ich habe einen Kellerraum zum Hobbyzimmer ausgebaut und kann im Sommer dort spielen.

Meine spezielle Situation fand ich aber irrelevant für den allgemeinene Fall eines Umbaus auf eine Wasserkühlung.
Tornavida schrieb:
Die die hier unterwegs sind werden schon wissen wie sie ihren PC einstellen müssen um nicht auf so einen CPU Verbrauch zu kommen.
Ja. Meine Hardware läuft auch nur zu Testzwecken Stock und wird sonst optimiert.
Aber auch undervolting und FPS Limits haben ihre Grenzen.
Die 5090 hat laut Test ja schon einen hohen Idle Verbrauch und Undervolting vollbringt heutzutage auch keine Wunder mehr, wenn man die Leistung halbwegs beibehalten möchte.
Tornavida schrieb:
Liest sich aber so für mich, auch dieser Post.
Ich möchte den hohen Stromverbrauch der 5090 nicht kleinreden. Das ist extrem viel.

Es ist aber auch keine Brechstange, wo die Effizienz für minimale Zugewinne über Board geworfen wird.
Die Effizienz ist im Vergleich zu den 4000er Karten nicht groß anders.
Der Chip ist größer und schneller und in ähnlichem Maße energiehungriger.

Natürlich wünsche ich mir was anderes nach 2,5 Jahren. Mehr Effizienz über eine bessere IPC und mehr Effizienz über eine bessere Fertigung.
Aber es ist eher eine 4090 Ti geworden mit gleicher Fertigung und minimalen Veränderungen, die scheinbar selten eine bessere IPC bringen.
Manche Tests sind ja 40-50% schneller und damit besser als der Zuwachs an Ausführungseinheiten...irgendwas ist also schon anders.

EIne Brechstange ist für mich ein Intel 14900KS, der die gleiche CPU wie ein 13900K ist aber nochmal heftiger ab Werk übertaktet.
Oder auch der single core Boost von AMD 3000, 5000 und 7000er CPUs, der unnötig nah ans Limit geht und damit den Alltagsverbrauch versaut und viele Standard Lütersteuerungen zum ausrasten bringt.

Ich weiß nicht, ob Nvidia nicht mehr liefern konnte oder wollte. Ist beides möglich.

Daher würde ich schon sagen, dass ich den Stromverbrauch in Maßen relativieren möchte.
Absolut gesehen ist es viel und es lässt Innovation vermissen, aber die Effizeinz ist auch nicht über Bord geworfen worden.
Wenn Nvidia nichts besseres kann, dann kann ich verstehen, dass die Leistungsaufnahme steigen muss um eine Mehrleistung bieten zu können.
 
Zealord schrieb:
Entweder hätte die Karte 30-40% besser sein müssen oder deutlich günstiger und sparsamer.
In manchen Bereichen ist sie doch etwa 30% besser als die 4090. Günstiger oder sparsamer kann sie ja nicht sein, wenn das Fertigungsverfahren quasi unverändert ist und der Chip größer.
 
adfsrg schrieb:
In manchen Bereichen ist sie doch etwa 30% besser als die 4090. Günstiger oder sparsamer kann sie ja nicht sein, wenn das Fertigungsverfahren quasi unverändert ist und der Chip größer.
Ja 27,5% schneller in 45 games
 

Anhänge

  • Screenshot_20250123_202712_YouTube.jpg
    Screenshot_20250123_202712_YouTube.jpg
    205 KB · Aufrufe: 27
mospider schrieb:
Wer bedenken wegen seinem Netzteil hat, kann sich den Test von Igors Lab ansehen. Dort wird etwas dazu geschrieben und empfohlen: https://www.igorslab.de/nvidia-gefo...-600-watt-kraftpaket-im-gaming-und-labortest/
Ich hätte da keine Bedenken. Ich würde es wie üblich testen und wenn die Kiste ausgeht unter Last wüsste ich das es nicht passt. Man sagte schon bei der 4090 das 750W nicht passen. Jetzt mit 850W mache ich mir bei der 5090 keine Sorgen. Die wird sowieso undervoltet.
 
adfsrg schrieb:
In manchen Bereichen ist sie doch etwa 30% besser als die 4090. Günstiger oder sparsamer kann sie ja nicht sein, wenn das Fertigungsverfahren quasi unverändert ist und der Chip größer.

Doch doch. Effizienz- und Leistungsgewinne durch Architekturänderungen sind definitiv möglich und genau das was wir uns alle wünschen wenn wir neue Grafikkartengenerationen kaufen.

Wir haben hier Blackwell und nicht Ada Lovelace. Wenn nur die Fertigungsgröße bestimmen würde wie gut eine GPU ist dann wären Intel, AMD und alle anderen ja auch easy dabei.
 
Laphonso schrieb:
Es sei denn, wir reden gerade aneinander vorbei :D
Naja, in jedem Frame ist CPU Einfluss drin. Das heißt, mit einer schnelleren CPU, die ihre Geschwindigkeit 1:1 wie ein etwaiger Vorgänger durch eine bestimmte Sache erreicht, aber ohne dabei andere Dinge schlechter zu machen kann natürlich auch die Framerate steigen trotz, dass man eigentlich gar kein CPU Limit hat. Was einfach in der Natur der Sache liegt. Kommt ein Nachfolger des 9800X3D mit schnelleren Caches, sodass der Vorgang der Datenablage/Zwischenablage weniger Zeit benötigt, wird das auch schneller. Egal in welcher Auflösung. Das sinkt nur halt mit immer mehr GPU Rechenanteil in der Summe.

Was aber bei deinem verlinkten Video dazu kommt - das ist UHD mit DLSS Balanced. Also leicht unterhalb von WQHD als Renderauflösung. Wie man auch hier im Test sieht hat die 5090 mit WQHD noch mehr Probleme sich von der 4090 abzusetzen als in UHD oder UWQHD. Ob das jetzt der CPU Einfluss ist oder einfach, ob die GPU intern nicht in der Lage ist, sich richtig auszulasten muss man dabei halt dediziert überprüfen. Ich denke, es wird ein Mix aus Beiden sein ;)


Und außerdem sollte man für solche Vergleiche noch klären, was man am Ende wirklich aussagen will. Steigt von UHD native auf UHD mit DLSS Quality oder Balanced die FPS Rate, dann kann man davon ausgehen, dass die CPU zumindest mehr Bilder kann als sie UHD native abliefern müsste. Im Umkehrschluss heißt das aber nicht zwingend, dass sie gar nicht limitiert. Denn ggf könnte die GPU noch etwas schneller, wenn die CPU schneller wäre. Ob es dann aber reicht "nur" die CPU zu verschnellern ist eine andere Frage - denn ggf. ist die GPU zwar in der Lage theoretisch mehr zu können, aber bei zu geringer Last kommt sie nicht in Fahrt. Dann nutzt dir die schnellere CPU auch nix (zumindest nicht allein)
 
  • Gefällt mir
Reaktionen: Grestorn
erazzed schrieb:
So wirklich freiwillig sind die Ansprüche an GPU-Leistung nun nicht. Wenn man sich die aktuellen Spiele so anschaut, wird man ja gezwungen eine >1000€ Grafikkarte im Rechner zu haben, um überhaupt auf vernünftige fps-Werte zu kommen.
Mit Ansprüche meinte ich nicht nur die GPU, sondern auch alles drum herum wird immer aufwendiger, teurer und "Gamer" optimiert (mit oft zweifelhaftem Mehrwert für das tatsächliche Spielerlebnis).

Auch wenn mir die Preise ebenfalls nicht schmecken, ich kann schon nachvollziehen, dass Nvidia die Preise anzieht, wenn sie sehen, dass Gamer bereit sind, für (produktions)technisch deutlich weniger aufwendige Geräte tief in die Tasche zu greifen. Allen voran RGB-Beleuchtung, die jede Elektronikbude in China für ein paar Cent zusammenlöten kann, die Gamer aber riesige Aufpreise bezahlen.

Oder Mäuse und Tastaturen für >200€. Wer Spaß daran hat, bitte gerne. Aber bitte im Hinterkopf behalten, dass 98% der Funktionalität und Komfort von Mäuse für 30€ erreicht werden können und man für die letzten 2% Design/Funktion 200€ Aufpreis bezahlt.

Ich bin auch der Meinung, dass für ein sehr gutes Spielerlebnis WQHD @60 FPS ausreichen kann und ein paar Regler auf nicht max sind auch kein Weltuntergang.
Nicht jeder spielt Shooter in der Weltrangliste, wo es auf die letzte Millisekunde/Frame ankommt.
Das ist trotzdem richtiges PC-Gaming.

Hier wird die 5070Ti aus meiner Sicht sehr gute Dienste leisten und sollte der Marktpreis in den nächsten Monaten (wenn sich alles beruhigt hat) sogar unter die UVP von 879€ fallen, wäre das eine Senkung des Preisniveaus in dieser Klasse. (vielleicht auch ne Karte von AMD, das verfolge ich zur Zeit nicht)
Wer damit keinen Spaß mit den Games der nächsten Jahre haben kann, dem kann ich dann auch nicht mehr helfen.
 

Lässt sich also locker auch auf 70% PT stellen
 
Zealord schrieb:
Entweder hätte die Karte 30-40% besser sein müssen oder deutlich günstiger und sparsamer. Das Gesamtpaket ist für alle zu wenig und enttäuschend. Es ist mehr als 2 Jahre her, dass wir die RTX 4090, welche bereits viel zu teuer war wie bereits die 2080 Ti und 3090, und wir haben keinen direkten Leistungssprung bekommen
Ich denke, da stimmen Dir fast alle zu hier im Forum.

Meine Meinung: Neben den physikalischen Grenzen der Fertigung sind es die beiden Monopole die es kaputt machen: TSMC - über 60% Bruttomarge, war hier zu lesen. Die sind so allein auf weiter Flur, dass die älteren Prozesse nicht billiger werden, sondern angeblich in 25 sogar TEURER geworden sein.

Das andere Monopol liegt bei NV, die legen noch einmal +70% Bruttomarge bei sich drauf und haben keinerlei Druck irgendwas zu liefern.

Vor ein paar Jahren wären wenigstens die ganz teuren Karten wie die 5090er in 3nm gefertigt worden mit 20% mehr Leistung als das Gezeigte. Untenrum hätten wir dann eine 5070 mit vielleicht 12k Shader bekommen und alle wären froh gewesen.

Wo mir technisch ein bisschen die Phantasie fehlt: Wie soll der nächste Schritt aussehen? Die 6090 lässt dann 3 Jahre auf sich warten? 8fach-FG mit noch weniger DLSS-Rauschen und dann? Was lässt sich aus 2nm rausholen? 15% mehr Takt? Mehr Shader führen ja - siehe 40 und 5090 kaum noch zu Mehrleistung. Vielleicht ist das die Zukunft: eine KI, die die Auslastung der Shader verbessert?
 
  • Gefällt mir
Reaktionen: Torr Samaho, Verak Drezzt und Zealord
ich denke ich werde mich mal auf die 5080 fixiren
 
Zurück
Oben