Test GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark

nVidia hätte definitv mit weniger Leistung wieder mal auskommen können, wie man hier sehr schön sieht. Genauso wie schon bei der 4090. Wozu das hohe Power-Limit?
Alternativ hätten sie eine Dual-BIOS-Version daraus machen können.

Screenshot 2025-01-26 225352.png Screenshot 2025-01-26 225332.png Screenshot 2025-01-26 225304.png

Quelle: Optimum
 
Gibt's Gehäuse? Vielleicht mit speziellem Aufbau wo die Grafikkarte nicht so heiß über die CPU heizt?

Wenn man die Lüfter der gpu in der Richtung drehen könnte, würden mir die Gehäuse wo das Mainboard gedreht ist und die gpu oben sitzt einfallen.

Die meisten eigen Designs werden diese Problematik evtl. Nicht so stark haben??

Mfg
 
DevPandi schrieb:
Sowohl Maxwell als auch Turing haben damals trotz gleichem Fertigungsprozess sowohl mehr leistung als auch die Effizienz steigern können.
Turing hatte ggü. Pascal doch nicht die gleiche Fertigung ? Das waren 16nm zu 12nm. In etwa vergleichbar wie N4 zu N5. Eine Verbesserung war auf jeden Fall da - hier haben wir aber effektiv Stillstand.
 
  • Gefällt mir
Reaktionen: Quidproquo77
digitalangel18 schrieb:
Es ist der gleiche Fertigungsprozess und der Chip ist deutlich mächtiger. Wo soll der Vorsprung herkommen?

Schon mal ne 6600xt mit einer 5700xt verglichen?
Beide ca gleich schnell, im gleichen Fertigungsprozess, aber die 6600xt ist deutlich effizienter.
Dann der Sprung von Kepler auf Maxwell. Beide in 28nm. Bei gleicher Performance ist Maxwell deutlich effizienter.
 
Maxminator schrieb:
ich hätte auch NIE im Leben von einer 4090 auf die 5090 umgestiegen!

Von meiner 3090 "muss" ich quasi auf die 5090 gehen, da die Gebrauchpreise von den 4090 überhaupt nicht in mein "Monsterschnäppchen" passen - leider!

Denn ich hätte jetzt lieber eine 4090 für 1200€ gebraucht gekauft
Das habe ich letztes Jahr im Juli erledigt.
Zwar für 100 € mehr (1300 €) und "nur" eine Palit, aber rückblickend eine gute Entscheidung.
 
Gut, dass ich letztes Jahr noch auf die 40er Serie aufgerüstet habe. Die Benchmarks sind mir eher eine Enttäuschung für die 50er. Mal abwarten, wie es bei den kleineren GPU aussehen wird. Vermutlich ähnlich schwach im Vergleich zur 40er.
 
  • Gefällt mir
Reaktionen: Flexatainment
Optimal Setting schrieb:
ich meinte eher hdmi. die neuen lg oled tvs haben nur hdmi aber können 144 / 165 hz. wie kann ich die dann mit hdmi 2.1 füttern?
HDMI 2.1 wie auch DP 1.4 können 4K/240hz mit DSC ausgeben.
 
@mospider Danke. Aber ich wollte eher wissen wie es sich mit 4k 144/165 Hz verhält. Kommt da auch schon DSC zum Einsatz oder schafft es Hdmi2.1 auch noch ohne in RGB HDR 10 Bit!
 
Optimal Setting schrieb:
@mospider Danke. Aber ich wollte eher wissen wie es sich mit 4k 144/165 Hz verhält.
Hast du nicht im Luxx exakt das gleiche gefragt und es wurde dir sogar dort beantwortet?
 
ElectricStream schrieb:
Transformermodell machts möglich..

Ich kann nun Cyberpunk mit diversen Textur-Mods + FG voll ausfahren und habe mit Balanced immer noch zwischen 90-100 FPS. Mit Performance sind es sogar wieder an die 120 FPS@4K
Greift das neue DLSS System schon mit den 4000ern?
So richtig blicke ich da noch nicht durch, auch weil da noch die Rede von Beta ist.
 
SavageSkull schrieb:
Greift das neue DLSS System schon mit den 4000ern?
ja wenn das Spiel einen Patch bekommen hat. CP77 z.b.
SavageSkull schrieb:
So richtig blicke ich da noch nicht durch, auch weil da noch die Rede von Beta ist.
Das ist es ja auch. Ich würde da erstmal auf den Treiber warten der vermutlich Donnerstag kommt. Und dann muss das Produkt auch noch reifen.
 
  • Gefällt mir
Reaktionen: SavageSkull
  • Gefällt mir
Reaktionen: Vigilant
SavageSkull schrieb:
Greift das neue DLSS System schon mit den 4000ern?
Jep, es gibt in der DLSS-Version 3.10.1 das neue Preset "J" (Transformermodel).

Verwende es gerade in Shadow of the Tomb Raider. Das Preset muss aber über Nvidia Profile Inspector eingestellt werden.

1737974606260.png


Dafür wiederum ist eine Ergänzung der Insepctor-XML mit den entsprechenden Parametern erforderlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElectricStream
Wenn ich mir eine 5090 kaufen würde nur um sie dann mit angezogener Handbremse nutzen zu können, dann brauche ich sie nicht. Meine 4090 ist für meine Belange (comfyUI/Fooocus und StableDiffusion) völlig ausreichend. (Ich zocke zwar weniger, aber selbst in Asetto Corsa EVO in WHQ Auflösung reichen mir die 60 Frames (v-Sync) völlig aus. Auslastung der 4090 bei ca.70%. Das macht die 5090 obsolet. Wenn der Fertigungsprozess kleiner wäre, würde es Sinn machen, aber so nicht.
 
In meinen Augen eine schwache Generation.
 
Vorab sorry für OT, ich bin kein potentieller 5090 Käufer, lese hier einfach nur interessiert mit, habe mir bei diesem Beitrag hier:
Laphonso schrieb:
Das Gejammer und Gehate ist einfach nur noch anstrengend, seit der 2080Ti, der 3090, der 4090 und nun 5090 sind diese Gruppe hier ja "Opfer", die "kein schlechtes Gewissen sich selbst gegenüber haben".
Geht es eine Nummer kleiner?
Alle 2 Jahre dasselbe Geweine bis hin zu Beleidigungen.
gedacht, "Da hat er leider Recht. Ich bin jetzt seit 2008 hier auf CB und habe von Jahr zu Jahr weniger Lust im Forum zu lesen oder was zu schreiben. Es wird immer mehr gejammert, andere beleidigt, alles besser gewusst, keine zweite Meinung akzeptiert, usw. Und das Schlimme ist, das Thema ist egal! Ob GPU's, Smartphones, Spiele, BEV (als Randthema) - es ist so schade. Ich kenne so Einige hier, die immer noch auf der Webseite aktiv sind, aber so gut wie gar nichts mehr schreiben, genau wegen diesem Thema.". 😕

Dann lese ich das hier, eigentlich eine Bestätigung:
Ano_Dezimal schrieb:
Wirst du hier auch leider nicht mehr ändern. Die Community hier ist leider darauf aus alles beser zu wissen, eigene Meinungen aufzubinden und andere als Deppen hinzustellen
aber dann fällt mir ein, da war doch was...

Ano_Dezimal schrieb:
Das ist halt bei UV so. Etwas senken, 20 sekunden Arbeit und basta. Übertreib halt noch mehr.
Ano_Dezimal schrieb:
Sagmal, kommt von dir eigentlich auch ein Satz bei dem du überlegst vorher?
Ano_Dezimal schrieb:
Ist halt quatsch. Kann man so garnicht sagen. Gibt auch günstigere. Strix, Suprime und Waterforce sind sowieso überbewertet. Aber genug lemminge fallen darauf natürlich immer rein.

Muss ich jetzt nicht verstehen, oder? 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Flexatainment, Quidproquo77, Raging-Raven und 2 andere
Vigilant schrieb:
Jep, es gibt in der DLSS-Version 3.10.1 das neue Preset "J" (Transformermodel).

Verwende es gerade in Shadow of the Tomb Raider. Das Preset muss aber über Nvidia Profile Inspector eingestellt werden.

Anhang anzeigen 1575180

Dafür wiederum ist eine Ergänzung der Insepctor-XML mit den entsprechenden Parametern erforderlich.

Genau :)
Also vorher bitte mit dem DLSS Swapper die DLSS Version des Spieles wechseln!
https://github.com/beeradmoore/dlss-swapper

Danach das Profil J forcen, dazu die Anleitung hier befolgen.

1) First of all you need nvinspector :
https://github.com/Orbmu2k/nvidiaProfileInspector/releases

2) Then you need to edit this file "CustomSettingsNames.xml" that you need to put in your nvinspector folder.
You can download it here : https://github.com/Orbmu2k/nvidiaProfileInspector/issues/156

In "CustomSettingsNames.xml" find the section of "Preset G (Unused)" and replace the 2 lines of preset G by these 2 lines :

<UserfriendlyName>Preset J (transformer)</UserfriendlyName>
and
<HexValue>0x0000000A</HexValue>

3) Finally all that remains to do is to force the preset J in the profile of your game in nvinspector and that's it.

I tested it in a few games and it works.
No need to change drivers for it to work.

optional noch das hier verwenden um zu Prüfen ob DLSS4, Preset J läuft
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13693273&postcount=7001
 
  • Gefällt mir
Reaktionen: Vigilant
Zurück
Oben