Test GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark

LeckerRK schrieb:
und nach 15 Jahren ca 8 GB mehr Videospeicher obwohl Nvidia andere nicht Gaming Grafikkarten mit 96GB Videospeicher verkauft was für ein Ironie ^^
Und genau diese 8 GB mehr Speicher und das größere SI dürften auch Grund für die etwas geringere Effizienz sein. Mehr VRAM kostet halt auch Energie. Schnellerer VRAM gleich auch noch.
Aber hey. Wir brauchen natürlich gleich 96 GB Videospeicher zum Daddeln!
 
@kachiri 96 GB Videospeicher reichen nicht auch nicht mit der Auslagerungsdatei auf C: auf einer sehr schnellen SSD die sollte schon 4 TB haben und 128 GB Dual Ram.Crysis läuft dann besser und vor allem Kopfhörer damit man die Lautstärke der Grafikkarte nicht mehr hört. 50 dB ist noch zu wenig bei den richtigen OC Karten lol ^^
 
kachiri schrieb:
Und genau diese 8 GB mehr Speicher und das größere SI dürften auch Grund für die etwas geringere Effizienz sein.
Man darf nicht vergessen, dass alle Speicherchips parallel und nicht in Reihe betrieben werden. Die Chips müssen alle aktiv sein, egal wieviel VRAM gerade gebraucht wird. Und mit dem selben Takt laufen sie auch noch. Hier gäbe es in Zukunft noch viel Potential für Energieeinsparungen.
 
  • Gefällt mir
Reaktionen: crogge und Schildbrecher
@Simanova 4 Slots auf einem neuen Mainboard neben der Grafikkarte für Videospeicher ^^ wo man für ein neues Patent für anmeldet vor allem die Ram Slots von der CPU weg nehmen am besten auf Rückseite wegen Verbindungslänge.Dann hat man auch keine Probleme mit einem Matterhorn X der die Ramslots belegt vor allem den 1sten.Das Mainboard sollte für Nvidia OC Grafikkarten dann 120 cm lang und breit sein damit man noch andere PCIe Slots drauf hat für Netzwerk Karte ect. und man sollte einen Antrag bei der Bundesregierung stellen das die die Stromkosten übernehmen.Im Ruhemodus den PC ausstellen wäre die beste Möglichkeit vor allem beim Backup machen die Festplatten deaktivieren.^^
 
Zuletzt bearbeitet:
desnatavo schrieb:
Mich würde noch interessieren welchen, falls überhaupt, das TDP auf Mfg hätte
Ohne FPS Limit passiert beim Stromverbrauch nicht viel. Angenommen wir hätten ein ausreichend starken Ausgangspunkt, sagen wir Hogwarts Legacy mit 45 fps in 4k bei Raytracing. Dann wären das mit DLSS Q 70 FPS, mit FG 120FPS und mit MFG(4x) 220 FPS. Hätte man einen 165Hz Monitor und würde man auf 160 FPS begrenzen, dann spart man etwa 30% Steckdosensaft. (Vorausgesetzt Hogwarts Legacy bekommt MFG)
Ergänzung ()

LeckerRK schrieb:
4 Slots auf einem neuen Mainboard neben der Grafikkarte für Videospeicher
Würd ich dir sofort Recht geben, wenn der Grafikspeicher noch wie vor 15 Jahren mit GDDR4 1Ghz laufen würde. Bei den heutigen Grafik-Ram Chips spielt jeder Millimeter Nähe zur GPU eine Rolle bei der Störsicherheit und der Latenz.

Man bräuchte einen Schutzmantel gegen EM Interferrenz und Mainboard-VRAM und GPU müssten sich auf eine gemeinsame Spannung bei booten einigen.

Erweiterbarer VRAM direkt auf der GPU wäre realistischer umsetzbar, z.b auf der Rückseite, so wie bei der RTX 4060Ti wo man eine M2 SSD drauf stöpseln kann.

1737846877547.png
Quelle
 
Zuletzt bearbeitet:
Simanova schrieb:
Ohne FPS Limit passiert beim Stromverbrauch nicht viel. Angenommen wir hätten ein ausreichend starken Ausgangspunkt, sagen wir Hogwarts Legacy mit 45 fps in 4k bei Raytracing. Dann wären das mit DLSS Q 70 FPS, mit FG 120FPS und mit MFG(4x) 220 FPS. Hätte man einen 165Hz Monitor und würde man auf 160 FPS begrenzen, dann spart man etwa 30% Steckdosensaft. (Vorausgesetzt Hogwarts Legacy bekommt MFG)
Ergänzung ()


Würd ich dir sofort Recht geben, wenn der Grafikspeicher noch wie vor 15 Jahren mit GDDR4 1Ghz laufen würde. Bei den heutigen Grafik-Ram Chips spielt jeder Millimeter Nähe zur GPU eine Rolle bei der Störsicherheit und der Latenz.
4 Slots Videospeicher und darauf die GPU mit Steckmodul oder darunter es geht alles solange man das Mainboard Patent was immer noch betrieben wird ignoriert und eine neues Patent erstellt.
 
Laphonso schrieb:
Woran liegt das, ich habe das (die Ursache) tatsächlich verpasst? Hast Du da einen Link?
Im Launch Test zur 5090 FE hier auf CB im Abschnitt „Temperaturen unter Last“ stand das die Hotspot Temperaturen nicht mehr angezeigt werden. Ursache wurde nicht genannt.
Bin gespannt ob das bei der 5080 auch so sein wird.
 
  • Gefällt mir
Reaktionen: Michael.76 und Laphonso
Simanova schrieb:
Ohne FPS Limit passiert beim Stromverbrauch nicht viel. Angenommen wir hätten ein ausreichend starken Ausgangspunkt, sagen wir Hogwarts Legacy mit 45 fps in 4k bei Raytracing. Dann wären das mit DLSS Q 70 FPS, mit FG 120FPS und mit MFG(4x) 220 FPS. Hätte man einen 165Hz Monitor und würde man auf 160 FPS begrenzen, dann spart man etwa 30% Steckdosensaft. (Vorausgesetzt Hogwarts Legacy bekommt MFG)
Ergänzung ()


Würd ich dir sofort Recht geben, wenn der Grafikspeicher noch wie vor 15 Jahren mit GDDR4 1Ghz laufen würde. Bei den heutigen Grafik-Ram Chips spielt jeder Millimeter Nähe zur GPU eine Rolle bei der Störsicherheit und der Latenz.

Man bräuchte einen Schutzmantel gegen EM Interferrenz und Mainboard-VRAM und GPU müssten sich auf eine gemeinsame Spannung bei booten einigen.

Erweiterbarer VRAM direkt auf der GPU wäre realistischer umsetzbar, z.b auf der Rückseite, so wie bei der RTX 4060Ti wo man eine M2 SSD drauf stöpseln kann.


Quelle
keine SSD auf die Grafikkarte sondern richtigen in dem Fall Nvidia Grafikspeicher bei der Asus Grafikkarte mit 3,8 Slots vielleicht machbar das man Videoram in 4 Slots in die Grafikkarte noch dazu stecken kann da kann Asus auch 6 Slots breit sein wenn es neue Mainboards geben würde die nicht an dem Patent von 1850 und Bill Gates 640 KB Ram reichen für jeden Menschen ein Leben lang gebunden wären,also ein neues Patent erstellen fürs Mainboard,Netzteil mindestens 2000 - 3000 Watt 80+ Platinium oder Titanium mit 95% Dauerbelastung,einen neuen Tower der wie ein Kühlschrank aussieht von länge breite und höhe mit Stützen wo Kugeln dran sind ca 30 cm hoch die man bei stillstand einrasten kann,damit die Lüfter am Boden auch genug kalte Luft bekommen,an der Seite auf beiden Seiten und hinten und oben zum raus pusten,im endeffekt eine Luft-Wasser Kühlung wo man gar nichts mehr hört und alles TOP gekühlt ist und man vorne Card Reader,USB Sticks und vor allem eine oder 2 Brenner rein setzen kann,die Festplatten alle auf den Boden damit die vorderen Lüfter direkt die CPU,den RAM,Videoram und Grafikkarte,bzw, Soundkarte ( die es nicht gibt mit richtigem Surround,da sollte man lieber Realtek on Board nehmen die haben richtigen Surround z.b. 5.1) und auf alle Fälle eine Netzwerkkarte und besonders wichtig eine Lüfterkarte für Luft und Wasser,denn das kann absolut kein Windows UEFI Bios nur Asus hat 3 vorne CPU und hinten andere 2 vorne CPU,alles andere wird theoretisch ohne Messung eingestellt also totaler Blödsinn.Ein neues BIOS ohne Microsoft Update flash wo man nichts von mitbekommt wäre ratsam vor allem für Linux.Hogwarts Legacy habe ich auch aber nie zu ende gespielt ist Geschmackssache.
 
Zuletzt bearbeitet:
Gamer567 schrieb:
Man sieht klar nochmal deutlich das die Mehrleistung der 5090 nur durch mehr Durst auf Strom erkauft wurde 😜
Im Prinzip ist die 5090 eine leicht optimierte 4090 die übertaktet wird...
Reichlich enttäuschend, aber gut, gibt halt nicht jede Generation wirklich Innovation.
 
  • Gefällt mir
Reaktionen: Raging-Raven und Serandi
Für Gaming also Scheiße und für KI/Lokal? Ich kenne mich da überhaupt nicht aus, höre nur von 4FP, DeepSeek R1. Wie viel sind die KI-Jünger bereit auszugeben für die 5090 mit 32 GB ?
 
Das einzige was mich wirklich einfach bei der Karte abstößt ist der Idle und Teillast Bereich.
Genauso die Limitierung auf 70 PT.

Genauso dass die Karte keine 120 Hz bzw. Bilder packt nativ in den 1% low.

Da brauch ich keinen Fresync / Gsync aktivieren oder frame limiter.
Wo ist die Rohleistung nativ bei fast 600 W!

Ich benötige kein MFG.
Selbst DLSS nutze ich nicht so gerne. 😅
Einfach X16 oder bzw. und Supersampling. 😁

1737842705880.jpeg




Ich kann nur davon träumen, das AMD mal wieder einen Joker hat. 🎉
Selbst Intel habe ich Glück gewünscht für mehr Konkurrenz. 😁


Die 5090 kann ich ohne uv gar nicht ins DAN-A4 verfrachten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Serandi
Gott ist die 5te gen lächerlich. Längste wartezeit und alla intel die Watt brechstange ausgepackt und kaum Mehrleistung
 
  • Gefällt mir
Reaktionen: UrlaubMitStalin und r3ptil3
  • Gefällt mir
Reaktionen: Jan
kann mir jemand mal erklären was mir mehr als 120 frames bei 4k nutzen?
hdmi 2.1 geht doch nur bis 4k 120hz. wird dann automatisch dsc eingeschaltet?
was nutzt mir dann ein 4k tv oder monitor der mehr als 120hz kann?
 
Taxxor schrieb:
(aktuell) 53 Likes für den Kommentar unter einem Test, der zeigt, dass die 5090 bei 450W 17% schneller als die 4090 bei 450W ist und mehr als 2/3 der Mehrleistung eben nicht durch mehr Verbrauch erkauft wurden.
Du berufst dich auf das, was sie verbrauchen könnte, nicht wie sie auf den Markt geworfen wurde. :freak:

Die möglicherweise bessere Effizienz wurde halt verbrannt.
 
  • Gefällt mir
Reaktionen: jotka24
Optimal Setting schrieb:
kann mir jemand mal erklären was mir mehr als 120 frames bei 4k nutzen?
hdmi 2.1 geht doch nur bis 4k 120hz. wird dann automatisch dsc eingeschaltet?
was nutzt mir dann ein 4k tv oder monitor der mehr als 120hz kann?
Du kannst entweder Displayport 1.4 mit DSC nutzen oder Displayport 2.1, was jetzt als neuer Standard hinzugekommen ist. Beide können 4k mit mehr als 120hz.
 
MalWiederIch schrieb:
Seltsame Schönrechnung - so schlimm wie es manche darstellen wollen ist es dennoch nicht, bspw. in meinem Fall:
  • 1.400€ für die RTX 4090 kurz nach Release bezahlt (neu & versiegelt mit Rechnung)
  • 1.700-1.800€ aktueller Verkaufspreis bei Ebay
  • 2.349€ für die RTX 5090 bei Release


Dumm nur, dass der Großteil irgendwas um die 1800-2000€ für ne 4090 gezahlt hat und nur ein winziger Bruchteil dein Glück hatte.

Dann kommt noch dazu, dass eben nicht jede Karte soviel wieder abwirft - eher deutlich darunter.

Gerade jetzt gehen die Karten für 1500€ raus - auch die 4090 FE. Custom Karten teils drunter.

Diese fancy Wunschpreise von 1500€ Sofortkauf für gebraucht werden nicht mal mitm Arsch angeschaut - die liegen seit WOCHEN wie Blei bei eBay.



Ich hab jetzt seit Dezember täglich Preise bei eBay abgecheckt und meine Tabs offen gehabt - wohl auch, weil ich im Januar nun meine RTX 3080 noch verkauft habe.

Hier und da haben einige auch rumposaunt, sie bekommen für ihre RTX 3080 noch 500-600€ - das sind die Karten, die nicht weggehen. 300-400€ bekommste da noch, WENN es sich um eine tadelose Karte und dazu um ne Strix oder TUF oder Konsorten anderer Hersteller handelt.



Ich hab bisher 1x Glück gehabt beim GPU Kauf - bei der 4080 Super.

Und das ging nur, weil ich nem Freund mit Bürojob in der Forschung den Auftrag erteilen konnte, mir bei Release eine 4080 Super für 1069€ (!!!) zu kaufen und ihm dann das Geld zu geben. Das Glück haben nicht alle.
 
Neubauten schrieb:
Du kannst entweder Displayport 1.4 mit DSC nutzen oder Displayport 2.1, was jetzt als neuer Standard hinzugekommen ist. Beide können 4k mit mehr als 120hz.
ich meinte eher hdmi. die neuen lg oled tvs haben nur hdmi aber können 144 / 165 hz. wie kann ich die dann mit hdmi 2.1 füttern?
 
Taxxor schrieb:
(aktuell) 53 Likes für den Kommentar unter einem Test, der zeigt, dass die 5090 bei 450W 17% schneller als die 4090 bei 450W ist und mehr als 2/3 der Mehrleistung eben nicht durch mehr Verbrauch erkauft wurden.

Das stimmt so - aber sei ehrlich...

Wieviele User nutzen dann die Möglichkeit um ihre Karte via MSI AB auf 300-350W zu deckeln um das so umzusetzen? Sind die wenigsten Nutzer und CB ist kein Maßstab.

Wir sitzen hier in einer absoluten Die-Hard-Techbubble und wissen es ein wenig besser als 95% der PC Nutzer.

Auch die alten Gens konnte man um 80-120W Verbrauch beschneiden und bei der 3080 und 4080 Super lief das sogar mit besserem Boost Takt am Ende, niedrigerer Temperatur und dabei gleicher Leistung.

So HÄTTE man die Karte auch verkaufen können - HAT man aber NICHT.

Und genau deswegen die Kommentare der User hier, dass man zuviel Saft für nichts in Wärme umwandelt.
 
Zurück
Oben