Test GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark

Wenn man richtig nachdenkt und rechnet (bzw. rechnen kann) ist es völlig sinnfrei,
JEDE Grafikkartengeneration (und Smartphone auch) mitzunehmen.
Die kleinen Verbesserungen, die man allermeistens theoretisch nicht braucht
und oft mit der Lupe suchen muss, rechtfertigen die immer höher steigenden Preise
für die neuen Generationen nicht.
Aber genau deshalb können die Hersteller sich das erlauben.
Weil es immer wieder Jünger gibt, die auf Teufel komm raus
den Längsten haben müssen 🤪😜
 
  • Gefällt mir
Reaktionen: SweetOhm
drunkeNNN schrieb:
Keine heisse Generation.
Puuh, also wenn ich die Speichertemps der FE aus dem ursprünglichen Test sehe, sieht zumindest der Speicher das anders mit 96°C😅
Dass der Hotspot sich nicht mehr auslesen lässt, lässt auch Vermutungen zu...
 
  • Gefällt mir
Reaktionen: Corpus Delicti, McTheRipper, drunkeNNN und 2 andere
Ist die Kita zu, oder warum stehen hier schon wieder diese Kindergarten-Texte? 🤔 Benehmt euch doch einfach mal. Bissl Zurückhaltung und Demut tut allen gut. Wofür und warum jemand seine Kohle ausgibt, ist irrelevant. Guter Stil ist, wenn man über Geld nicht spricht. Erst Recht, wenn man es hat.

@Topic
Die Krone des Ganzen ist ja eigentlich, dass es nicht unter 400 Watt geht. Wobei ich hier eigentlich gerne Undervolting gesehen hätte, als ein einfaches Powerlimit. Ansonsten überrascht das Ergebnis angesichts der Architektur ja nicht wirklich und reiht sich damit in die Reihe der bisherigen, enttäuschenden Ergebnisse ein.

Wenn man dann noch die Präsentationen von Nvidia daneben stellt, wird es sehr traurig.
 
  • Gefällt mir
Reaktionen: minalion, TomH22, evilhunter und 8 andere
super test, danke dafür...einzig die grafik für watt / fps bzw. umgekehrt fehlt mir, ich hoffe oder bitte das nachzuliefern wenn die 5080 getestet wurde....die hoffentlich dann auch mit powerlimit.

mein fazit: es ist ja unfassbar wie gut die 4090 @ 350w (und evtl. etwas uv dazu) jetzt auf einmal dasteht.
 
  • Gefällt mir
Reaktionen: Tzk und el_zoido
drunkeNNN schrieb:
Keine heisse Generation. Definitv nicht. TSMC liefert nicht wirklich...nach dem EUV-Sprung schläft Litho wieder ein.
Stimmt so nicht ganz. Nvidia nutzt nur nicht die neuste Node von TSMC sondern ist bei der 'alten' geblieben weil günstiger und wsl um die Kapazitäten für AI Karten zu nutzen bei der die Marge größer ist.
TSMC kann man da in keinster Weise den schwarzen Peter zuschieben .
 
  • Gefällt mir
Reaktionen: Rock Lee
Coole Idee für einen Test. Hätte als Stufe gerne noch die 350 Watt und 300 Watt dabei gehabt mit der die 4090 ja meistens rennt. Aber auf jeden Fall danke schonmal.
 
Zuletzt bearbeitet:
Hier kommen einfach noch andere Faktoren zum Tragen.

Könnte die 40er Serie auch Multi Frame Generation? Nvidia scheint MFG als USP zu platzieren, was ich auch nachvollziehen kann.

Die neuen Monitore, vor allem der absolut heiße 45" 5K165 OLED von LG muss auch irgendwie befeuert werden. Da sehe ich ohne DP2.1 keine Chance. Die 4090 kann aber nur 1.4.

Es könnte aber auch sein, dass der Monitor selbst wieder nur mit 1.4 kommt, dafür maximal auf DSC setzt, um die Käuferschicht groß zu halten.
 
Bei ebenfalls 350W würde die 5090 am Ende wohl gigantische, wahnwitzige 6 - 7% vor der 4090 liegen.
Boah Nvidia haut mich wirklich aus den Socken mit dieser Karte.
 
  • Gefällt mir
Reaktionen: ram2k, SweetOhm, McTheRipper und 2 andere
Nachdem, was Nvidia die vergangenen Generationen geliefert hat, waren die Erwartungen natürlich sehr groß, weshalb 5090 mich doch etwas enttäuscht hat. Wir brauchen unbedingt wieder einen zweiten bzw. dritten Player (Hi AMD & Intel) im High-End-Segment! :D
 
Rickmer schrieb:
Die 4090 bei 600W ist deutlich langsamer als die 5090 bei 600W
Langsamer natürlich aber was heißt deutlich ? Ist doch übertriebene wenn eine 5090 nicht Mal ohne alle Spielchen deutlich schneller ist ...

Wie soll das funktionieren ?

Wenn man der 4090 600watt gibt wird sie sicher und wenn es nur niedriger einstelliger FPS Steigerung sind schneller und verkleinert somit den Vorsprung von 3000euro Partnerkarten .... Darauf wird es hinauslaufen

Das muss man doch Mal hinstellen und nüchtern betrachten 3000,- für 20-30% mehr Leistung
 
Schon deutlich effzienter, macht aber so nicht wirklich Sinn. Man kauft sich eine Grafikakrte für 2.300€, um sie dann künstlich einzuschränken. Da kann man auch gleich eine Partnerkarte kaufen, die locker 2.500€+ kosten werden, um am Ende das gleiche zu tun.

Das Einzige was da "Effizient" ist, das man hier sinnlos Geld verbrennt. Die 5000er Karten sind und bleiben Preis-/Leistungstechnisch einfacxh miserabel.
 
Mal abgesehen davon, dass ich mir nie eine 90er Karte holen würde, hat die 5090 echt ein Problem. Warum sollte man sich abseits von Enthusiasmus eine Karte zulegen, die leistungsmäßig ein aufgeblasener Gartenzwerg ist und mir nebenbei die CPU grillt, wenn ich nicht aufpasse. Dass NV die 4090 aus dem Verkehr gezogen hat, ist eigentlich eine Frechheit.
 
  • Gefällt mir
Reaktionen: MoonTower
Ganz einfach, wer nicht unbedingt muss, diese Generation auslassen. Nvidia gehört sowieso Mal wieder runter vom hohen Ross.
 
  • Gefällt mir
Reaktionen: KEYGETS und alkaAdeluxx
@Jan
Könnt ihr mal testen was so beim undervolting möglich ist? Einfach nur die TDP zu reduzieren ist für mich immer die schlechteste Lösung.
 
  • Gefällt mir
Reaktionen: Celinna, Naesh, ruthi91 und 2 andere
zweitnick schrieb:
@Jan könntet ihr zukünftig vlt. auch den MSFS 2024 in den Testparcours mit aufnehmen? Ist aktuell sicher eines der fordernsten Games, überhaupt in 4K
Jap und es ist eine Abwechslung zu all den unreal engine 5 Spielen.
 
  • Gefällt mir
Reaktionen: Celinna und klopogo
Nureinnickname! schrieb:
Ist ja auch der Selbe alte Fertigungsprozess, wo soll die Leistung also sonst herkommen? ;-)

0x8100 schrieb:
was hast du erwartet, wenn der chip mit dem gleichen prozess hergestellt wird...?
Hääh? Ihr tut ja grad so, als ob Leistungssteigerungen einzig und allein durch neue Fertigungsprozesse zustande kommen.
Also braucht Nvidia oder AMD nichts mehr an Architektur etc. entwickeln, weil einfach warten bis ein neuer Fertigungsprozess bereit steht :D.
Normal kommt auch ein großer Teil der Leistungssteigerung durch Anpassungen der Architektur, Memory Bus, etc. pp. auch die Effizienz kann durch die Architektur beeinflusst werden. Ein neuer Fertigungsprozess macht es nur deutlich einfacher, weil die meistens von haus aus eine höhere Effizienz mitbringen.


drunkeNNN schrieb:
Ich hatte erwartet, dass TSMC nach 2 Jahren für das gleiche Geld merklich mehr Leistung oder bessere Effizienz auf den Wafer belichtet bekommt.
häähhh??? Jetzt wirds echt wild. Was hat TSMC damit zu tun? Nvidia entwickelt die GPU, nicht TSMC. TSMC fertigt den Chip. Die haben verschiedene Fertigunugsprozesse und wenn Nvidia an der Architektur nichts großartig umgebaut hat, sondern nur vergrößert und dann bei TSMC im gleichen Prozess wie die letzte Gen fertigen lässt, kann doch TSMC nichts dafür ...
 
  • Gefällt mir
Reaktionen: minalion, Rock Lee, SweetOhm und 4 andere
ruthi91 schrieb:
Woran haben denn NVIDIA und TSMC zweieinhalb Jahre gearbeitet ?
TSMC hat an seiner Rendite gearbeitet - siehe News hier: +60% Bruttomarge.

Soweit es öffentlich verfügbare Informationen gibt, sind die Preise für die alten Prozesse gestiegen statt gefallen. Ist halt ein Monopolist. Wie NV, die arbeiten auch nur am Gewinn aber nicht am Benefit für den Verbraucher.

Die eigentliche "Schuld" dafür liegt aber nicht bei denen die gut gearbeitet haben und jetzt voll absahnen. Würde jeder genau gleich machen.
Die "Schuld" liegt bei den Pfeifen von AMD, die erst die Fertigung nicht mehr hingekriegt haben (schon vor ein paar Jahren) und nun auch keine ordentlichen GPUs mehr designen. Und bei den Idioten von Intel, für die das Gleiche mit ein bisschen anderen Vorzeichen gilt. Und bei Samsung...

Es ist einfach ein Trauerspiel, was die alle abgeliefert haben und nun kauft der einfache Kunde halt bei den Gewinnern und wir zahlen Monopolpreise für immer weniger aufregende Produkte.
 
  • Gefällt mir
Reaktionen: Celinna
habla2k schrieb:
[...]
Zum Thema:
Vorsprung mit mehr Watt zu erkaufen wirkt irgendwie nach Brechstange. Warum kam die nicht mit 450W und 17% Vorsprung? Wäre das nicht am Ende gar besser gewesen, als jetzt 125W mehr und nur etwas mehr Vorsprung?
Hat Nvidia nicht bei der 4090 genau das selbe gemacht? Wenn man die TDP reduziert, verliert man nur wenig Leistung:
 
Zurück
Oben