Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

nette Lösung
 
lord_mogul schrieb:
Warten wir mal auf die 5090 Ti, die kann dann UE5 auch in UHD in vollen 3840x2160 mit 60 FPS schaffen.
Die wird es nicht geben, weil der Vollausbau bei den Profikarten landen wird und dort deutlich teurer verkauft werden kann.
 
nvidia kümmert den consumer markt gar nicht mehr
Die hauen da die Schlechtesten gb202 gb203 gb205 raus um alle guten im profi segment zu verkaufen darum die arg schlechte Verfügbarkeit.
ein gb202 hat physisch 192sm 180sm sind nutzbar die werden sicher zur quadro (180$ chip)
ein gb203 hat 128sm nutzbar 112sm (80$ chip)
ein gb205 hat 80sm nutzbar 70sm (60$ chip)
ein gb206 hat 48sm nutzbar 42sm (36$ chip)
ein gb207 ist ein chip mit 32sm nutzbar 30sm und die gehen komplett an laptops (24$ chip )
und ja es gibt keinen chip mit 4 gpc das sind alles Rechtecke abseits von gb202 und gb203

Diese gen ist auf maximalen profit ausgelegt. Was normal ist aber schlampiges pcb design Streichen von features die in hardware funktionieren würden und irre tbp mit zu schlechten chips Sprich den Abfall vom wafer für maximalen preis.
Das muss mit ignorieren belohnt werden
ada war schon an die grenze dessen was als sku planen konnte insbesondere vram und aktive sm
blackfail is ne ohrfeige an die Spieler.
 
Hat jetzt lange gedauert, bis gestern endlich meine kam. Kein Wunschmodell die phantom, aber erstaunlich leise. Für die 4090 habe ich 1900 bekommen, die 5090 kostet 2.400. 500 Wertverlust in 2 Jahren (natürlich Kapitalkosten nicht berechnet), dafür immer die schnellste Karte, finde ich voll okay.

Der Stillstand hat einen Vorteil - die Karten sind wahnsinnig preisstabil.

Die Karte ist tatsächlich auch besser, als sie hier im ersten Test wegkam: Undervolten führt zu noch einmal besseren Ergebnissen, nur das Powerlimit senken lässt gute 30W weniger Verbrauch bei gleicher Leistung liegen.
Insofern ist sie eben doch auch effizient und auf knapp unter 400W im echten spielbetrieb pfeilschnell und gut kühlbar.
Ob man das braucht ist eine andere Frage, aber die mehr-FPS zur 7900xtx spürt man in 4k deutlich. Hoffe, AMD zieht ggf. doch nach.

Halten bis zur 6090 werde ich die Karte nicht: die nächsten Karten kommen in 2N statt 5N - das sind 3 Nodes, das wird ein brutaler Fortschritt in jeder Hinsicht, wie bei 3090 zu 4090.
 
DerRico schrieb:
Halten bis zur 6090 werde ich die Karte nicht: die nächsten Karten kommen in 2N statt 5N - das sind 3 Nodes, das wird ein brutaler Fortschritt in jeder Hinsicht, wie bei 3090 zu 4090.
Glückwunsch zur Karte, da bist du ja in der Relation preislich noch gut bei weggekommen.

Ich bin tatsächlich gespannt, ob der Sprung zu 2nm wirklich erfolgt. Die Anbieter (hoffentlich bietet nicht nur TSMC hier ein gutes Produkt) werden sich die umfängliche Forschungsarbeit gut bezahlen lassen. Bei Nvidia geht es ja auch immer um Kapazitäten. Gibt es da abseits der Gerüchte um 18a/Samsung irgendwelche belastbaren Aussagen seitens Nvidia?
Sollte es so kommen, werden die Preise auf jeden Fall explodieren.
 
DerRico schrieb:
Halten bis zur 6090 werde ich die Karte nicht: die nächsten Karten kommen in 2N statt 5N - das sind 3 Nodes, das wird ein brutaler Fortschritt in jeder Hinsicht, wie bei 3090 zu 4090.

Neben Mehrleistung auch TDP-Klassen wieder runter. Das ist doch absurd, wenn Grafikkarten ~500W schlucken und so riesige Kühler brauchen, sodass einem die Montage und Demontage nervt, weil man schlecht rankommt. Vorallem der Stromverbrauch und die abzuführende Abwärme bitte runter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
Banger schrieb:
Neben Mehrleistung auch TDP-Klassen wieder runter. Das ist doch absurd, wenn Grafikkarten ~500W schlucken
Es ist für mich vor allem eine Frage der Effizienz - Ich hatte - als die Specs mal klar waren - auf 30-40% Mehrleistung bei gleichem Verbrauch gehofft.

Meine 4090 hat mit meinem UV in Games zwischen 220 und 290W gebraucht (spiele kein Metro ;-). Dafür gab es Frames satt. Die 7900xtx kriege ich nicht auf das Niveau. Bei der 5090 muss ich noch fummeln, aber unter 300W geht bisher gar nichts. Sie ist aber weniger schlecht, als im Test, wo einfach nur begrenzt wurde, wenn man die Spannung der GPU anpasst.
Neubauten schrieb:
Ich bin tatsächlich gespannt, ob der Sprung zu 2nm wirklich erfolgt.
Ich kann mir nichts anderes vorstellen. Es sind 2 Jahre Zeit und der (die?) Node wird ja erfolgreich gerade ausgerollt. 5N ist einfach am Ende - sieht man ja schon beim Vergleich zur RX9070. Schon der "echte" 4N bringt fast 1/4 mehr Packdichte und vor allem deutliche mehr Takt und Effizienz. Daher ist AMD auch wieder dran. Ist wie bei RDNA2. Da hatte AMD natürlich auch den damals revolutionären Riesencache "erfunden" und ein gutes Design, aber die Fertigung bei TSMC war halt auch viel besser als die von NV beim Samsung.

Billig wird das natürlich nicht. Ggf. muss man halt das Lineup aufsplitten: 2N für die Grossen Karten, 3N für die kleinen. Auch AMD mischt ja schon z.B. bei den Prozessoren munter durch.
Von der Verfügbarkeit sehe ich kein Problem: Aktuell wird eine Fab nach der anderen hochgezogen, die Zahl der Wafer steigt und steigt. Da fallen die paar Consumer-GPUs kaum noch ins Gewicht.
 
Für ne effizientere sku hätte nvidia ein neuen Node benötigt der ist da
n3 war wohl ursprünglich geplant gewesen anders lassen sich pcb und schiere Größe des chips nicht erklären
Wenn man den n3 node durchplant kommt man auf grob 622mnm² Statt den 756mm² das wäre deutlich mehr chips gewesen. 87 vs 66
Der chip wäre nur als sku bis maxed 415w gekommen dann würden die ganzen Probleme die es derzeit mit gb202 gibt nicht geben und man hätte auf 3,00ghz gehen können.
preise sind zugegeben etwas höher aber man hätte weniger Kapazitätsprobleme da n3 ausgebaut wird wo n5 langsam abgebaut wird womit wafer schwierig sind zu bekommen darum die Knappheit derzeit
Man sieht an amd n4 node der derzeit auch ausgebaut wird das es da keine Kapazitätsprobleme gibt darum macht die Entscheidung für n5 auch keinen Sinn außer dem ceo ist es völlig egal da der Fokus auf ai liegt und alles was an n4 bekommen kann auf n4 ai Beschleuniger produziert wird.
Sprich dgx und hpc chips wie den gb200
Das dies aber ne Blase ist weis er selber darum noch schnell alles herausholen was geht und mit dem refresh auf n4 die rtx50 Serie als rtx60 nochmal 2026 bringen und als blackfail fixed kommt.
Während man noch stillheimlich samsung sf4 für ga107 chips als physx Beschleuniger akä entry gpu verkauft
Mit dem node Wechsel fixed man die meisten Probleme.
gb302 450w +-5% 90class 170sm 2,6ghz 36gb
gb303 250w +- 5% 80class 90sm 24gb
gb305 200w +-5% 70class 56sm 18gb
gb306 100w +-5% 60class 42sm 12gb
ga107 85w +16% akä equal rtx3060 name vermutlich rt6010 150€ 24sm 8gb

Darauf also 2028 mit feynman sich dann ganz aus dem Desktop verschwindet und voll auf ai pc mit dgx x86 pc am markt aufstellt und ja auch mit nenn pcie slot für die rt6010 x4 angebunden
feynman wird vermutlich mit a16 produziert und als apu kommen auf intel foveros packaging mit ner intel x86 dann beast lake cpu haben
Das gute das Verspricht ordentlichen Schub und dank bspd auch skaliert bis zum doppelten von heute bei halben verbrauch.
quasi apu system mit 450w doppelte rtx5090 perf. 3000$
apu system mit 250w und rtx5090 perf. 2000$
Darunter die entry modelle bis 150w xbox pc kompatibel 800$
ich vermute das nvidia den aib dann als mainboard brand dann Komplettsystem Lizenzen gibt quasi mit dem ga107 inklusive und leichte tbp Spielraum bis +40% für die zusätzliche gpu auf dem board die verlötet ist

Mit dieser Strategie könnte man die ai blase weiter melken und zugleich ne basis haben für Konsolen fähigen pc und quasi den aib die pc preise diktieren da man komplette pc verkauft und es damit keinen Handel mehr gibt.
Das macht mehr Sinn als wenn man den Aktionären die schwachen rückläufigen gewinne bei den desktop gpu verkünden müsste.
 
Seit ein paar Wochen beobachte ich eine 5090 bei Alternate und seit 1 Woche ist diese durchgehend auf Lager / bestellbar

die Verfügbarkeit hat sich anscheinend eingependelt, allerdings sinken die Preise bisher nicht

3200 Euro sind mir zu viel für die geringe Mehrleistung
 
Zurück
Oben