Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Die 5090 hat 30% mehr Raster Performance in allen Tests im Schnitt. Jetzt habt ihr es schwarz auf weiß. Es sind 30% und keine 15-20 ;)
 

Anhänge

  • Screenshot_20250124_202711_Reddit.jpg
    Screenshot_20250124_202711_Reddit.jpg
    342,5 KB · Aufrufe: 70
  • Gefällt mir
Reaktionen: nutrix
Was eine Enttäuschung und die Customs pusten bisher scheinbar auch alle die 600W fast komplett ins Case... wäre bei mir zwar egal, könnte das Seitenteil tauschen und 4x140 Lüfter alles absaugen lassen aber nee lass mal Lederjacke, kannst behalten dein Praktikantenprojekt da.
 
  • Gefällt mir
Reaktionen: Sp4wNickle, MSI-MATZE und nuestra
cheyennne_hey schrieb:
->Früher Enthusiasten Forum

Heute ->Verbitterte zumeinst ältere Menschen hier, die lange nicht mehr Zielgruppe sind.

Ich sehe nur verbitterte Enthusiasten, die "aus Prinzip" nur das Spitzenmodell akzeptieren wollen, und gar nicht merken, dass da nur immer mehr Overkill zu immer höheren Preisen draufgesetzt wird.

Und dass das Viertbeste heute eigentlich schon die Reserven bietet, die früher als Spitzenklasse vermarktet wurden.
 
  • Gefällt mir
Reaktionen: vaN und alkaAdeluxx
ob ich mit meiner 6800XT noch bis zur RTX 6090 Warten kann 😒😒
 
Am besten finde ich, das nVidia keine GPU-Hotspot-Temps mehr auslesen lässt.

Eine Sorge weniger. ;)

1737748973979.jpeg
 
Zuletzt bearbeitet:
Für mich das einzig interessante an dem Test: DLLS 4 SR ghosting Performance und die weiteren SR Verbesserungen, da ich es mir sehr gut vorstellen kann, dass ich in Zukunft auf einen OLED mit gut implementiertem BFI setzten werde, um endlich die gewünschte Kombination aus Bildqualität und Bewegungsschärfe zu bekommen (Aktuell den Asus OLED DMG im Auge). Und BFI geht leider meistens nur zuverlässig, wenn min. 100 oder gar 120 FPS anliegen. Kommt auf den Monitor an, manchmal bleibt es aktiv bis 85 oder gar 60/70 FPS runter...
Bei schnellen/competitive games hoffe ich, dass mir SR die von BFI erforderlichen frames liefert.
In langsameren, weniger kritischen Games könnte FG für mehr FPS sorgen, wenn der disconnect nicht stört...
Aber im Bezug auf BFI tendiere ich da eher auf SR als Lösung und würde auf FG/MFG verzichten wollen, denn als Ziel habe ich ja "nur die stabilen 100-120 FPS"...und FG/MFG könnte sich wiederum komisch anfühlen, wenn man diese frames aus weniger als 60-70 Grundframes generiert...

MFG ist imho noch eine Mogelpackung: gutes Feeling erst ab 60/70 grundframes, aber ab einer gewissen Anzahl an generierten frames ist der disconnect zwischen Latenz und Frames so hoch, dass es sich nicht mehr gut anfühlt: was bringt einem dann die großartige Bewegungsschärfe der hohen frames?
Könnte man den disconnect eliminieren/mitigieren indem man die generierten frames mit einem FPS limiter capt? Wohl kaum, da durch die weniger ausgegebenen frames die Latenz nach oben gehen müsste. Latenz steht doch in direkter Verbindung mit den auf dem Monitor ausgegeben frames. Da wäre ein FPS limiter kontraproduktiv...
 
Zuletzt bearbeitet:
thuering schrieb:
Das Hydro Pro ist ein Highend-Netzteil. Das wird problemlos funktionieren.
Das wird auch mit vielen hochwertigen 850W Netzteilen funktionieren. Vielleicht nicht mit allen, aber vielen. Da bin ich mir sicher.
Vielen Dank für das beruhigen meiner Nerven. Dachte schon hab einen Fehlkauf im September 24 gemacht. Erster Selbstbau nach 25 Jahren. War schon aufregend und zugleich beängstigend. Ging aber alles gut. Hab mir viel Zeit genommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thuering
Woody17 schrieb:
Arme Wūrstchen, ihr spielt bestimmt auch Simracing noch auf 3 Monitorsetups obwohl es so geile VR Brillen gibt.

115 Beiträge seit 2006 und dann so was.
Wow, ... echt traurig.

Aber sei unbesorgt: Weder kaufe mir eine 5090, noch nutze ich ein Multimonitor Setup. Achja, Simracing zocke ich auch nicht.

VR warte ich noch ab. Die Performance, Gameauswahl sowie Features, Integration, Fortbewegung = Human Machine Interface, lässt zu wünschen übrig.

Wenn der ganze Kinderkram mal Fahrt aufnimmt (wenn ich es noch erlebe) und mal was gescheites bei rumkommt, werde ich mir auch was zulegen.

Topic 600W Karte auf 350W limitieren: Silent & Effizienz beginnt schon beim Kauf der Hardware. Hochgezüchtete Brechstangen Pixelschleuder gehört definitiv nicht zu meinen Kaufinteressen.

Mit dem Schrott kann Nvidia andere Bauern einfangen.

Viel Spaß beim Hype. Ich nutze selbst Nvidia Karten. Aber beäuge jede Gen neutral. Bin schon mit einer 3080 Ti auf die Schnauze gefallen. Solche Karte kauf ich nicht nochmal.

Wer weiß, vielleicht entsteht ja ein Muster wie bei Microsoft

Ein OS top, das nächste flop.
immer im Wechsel.

Ampere - Brechstange
Ada Lovelace - Effizient
Blackwell - Brechstange
??? - Effizient?

Wir werden sehen.

Corpus Delicti schrieb:
Am besten finde ich, das nVidia keine GPU-Hotspot-Temps mehr auslesen lässt.
Wahrscheinlich weil die Karte sonst die ganze Zeit drosseln würde oder die Lüfter auf Anschlag laufen müssten.

Boahr war das seltsam als ich von Team ROT auf Team GRÜN gewechselt bin:

GTX 970 ... einfach keine VRM Temps mehr. Und schon nur eine Gen später sind die abgebrannt (1080 Ti)
kA wie oft die Hersteller noch versagen wollen in ihrem tun.

Bin echt gespannt wie die Karten rumspacken und welche neue Fehlerbilder diese aufzeigen werden. (mit Garantie!)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: alkaAdeluxx
HWUB stellt die MSI Supreme vor und seh ich das richtig, das die angeblliche 600W Schranke des 12 Pin Steckers permanent überschritten wird?

Abgesehen vom gigantischen Gwicht und der kolossalen Größe...

Die Dinger sind nicht länger GeForce - die sind Brute Force!
 
xxMuahdibxx schrieb:
und leider nicht wirklich schneller als eine 4060 ti sein ..
Die wiederrum nur ~7% schneller wie eine 3060ti ist :freak:
Ergänzung ()

Maxminator schrieb:
was passiert mit der Effizienz einer 5090 unter Wasser und dann wenn der Chip schön unter 45°C bleibt?
wahrscheinlich genau das gleiche was mit einer 4090 unter Wasser passiert :confused_alt: 🤔
 
Norebo schrieb:
HWUB stellt die MSI Supreme vor und seh ich das richtig, das die angeblliche 600W Schranke des 12 Pin Steckers permanent überschritten wird?
Ich denke, die 600W sind nicht die technische Grenze. Aus einem 8PIN liessen sich auch locker 250, in manchen Fällen 300W ziehen. Miner wisssen, wovon ich rede :D Der Standard war auch x-Jahre alt und mit immer besseren Netzteilen / Kabeln und geringeren Toleranzen ging da eine Menge.

Beim 16PIN ist das alles enger zusammen, das theoretische Maximum ist aber wohl eher bei 700W schätze ich. Dann hast Du bis zu 700W aus dem Stecker + die notorischen 75 (bzw. 65 und ein bissschen) aus dem PCI-Slot - da kann man schon man dauerhaft 750+ ein bisschen nuckeln wenn man voll ans Limit geht.

Wobei in den letzten Jahren ja eigentlich kein Hersteller mehr wirklich über den Slot viel Leistung gezogen hat.

Im Ergebnis hast Du natürlich trotzdem recht: Fette OC-Karten und die 6090 brauchen eigentlich 2 von den 16 PIN-Steckern - dann kann man wieder ordentlich arbeiten und hat warme Füsse!
 
  • Gefällt mir
Reaktionen: Norebo
Erzähl nicht soviel blödsinn. Der Spieleentwickler würde um 80% des Martkes vorbei Entwickeln wenn man sich die RTX4090 als Referenzmodell nehmen würde.

2300€ 600 Watt und dann diese Vorstellung. Ich sehe die RTX5090 als schlecht und unnötig zum gaming an.
 
Wenn man in Betracht zieht, dass gaming nur noch 10% des Umsatzes bei Nvidia ausmacht, kann man ja schon froh sein, dass die überhaupt noch Grafikkarten für Privatpersonen herstellen.

Produktionskapazitäten sind endlich und jedes Stück Wafer könnte eigentlich auch für ein Vielfaches mehr verkauft werden als an uns.

Traurige Entwicklung für Gamer, aber so ist das halt.

Und ganz ehrlich: Braucht man eigentlich so viel Leistung? Sie 40er Reihe bietet noch für alle passende Leistung. Vielleicht sehen wir einen Sprung mit der nächsten Konsolengeneration, aber auch da wird eher versucht werden mit Software "Tricks" mehr heraus zu holen als jetzt schon.

Als Gamer sehe ich eher Probleme bei den Spielen selbst, wenn ich mir Starfield, Dragons Dogma, Jedi Survivor, etc. anschaue.
 
  • Gefällt mir
Reaktionen: nuestra
DerRico schrieb:
Ich denke, da stimmen Dir fast alle zu hier im Forum.
Mein innerer Monk feiert sich gerade. Das ist der 1300. Kommentar und wurde nach exakt 24 Stunden gepostet. Herzlichen glückwünsch.

Wenn die GPU schon nicht begeistern kann...
 
Nvidia hat mich so enttäuscht, dass ich mich gestern in den Schlaf geweint habe.
Als ich allerdings erwachte und aus der Dunkelheit empor schritt, übermannte mich eine Vision
und ein strahlend helles Licht riss mich aus meinen Depressionen und das folgende erschien
vor meinen Augen.
Denn wie heißt es so schön: Jedes Game zählt, jeder Player zählt, jedes Watt zählt,
jedes Frame zählt und jedes nicht fake Frame zählt doppelt, dreifach, vierfach ............
Mit Nvidia ist es eben wie mit Fast Food.
Du wirst gemästet mit einem ganzen Haufen an Fake Frames bis dir der Knopf an den Hosen abfällt
und du mit bis zu 600W durch den Fußboden brichst.
Aber du fühlst dich dabei nicht satt, sondern du willst mehr da der Geiz an GDDR (5070 12GB)
dich nach mehr verlangen lässt.
Auch ist dieses Fast Food mittlerweile total überteuert und man könnte mit dem Geld auch
gediegen in einem feinen Italiener ein gutes Glas Rotwein (AMDs FineWine) trinken und die Mediterrane
Küche in vollen Zügen mit 16GB und schlanken 220W genießen.
Das atemberaubende FSR4 kommt noch als Sahnehäubchen oben drauf und als Bonus unterstütz man dabei den Underdog und macht dabei noch etwas gutes für ein ausgeglicheneres Verhältnis.

1737750779809.png
 
  • Gefällt mir
Reaktionen: OldboyX, MSI-MATZE, puffisworld und 2 andere
nuestra schrieb:
@Ano_Dezimal Stehen beide schlecht da 4080 und 5080. Aber Preis Leistung sind die gut
ändert nix daran das du einen Schreibfehler gemacht hast. Denn dein Satz ergab keinen Sinn. Wenn du nicht über deinen Schatten springen willst das zuzugeben ist es okay :)
 
Zurück
Oben