News RTX 5090 & 5080: Gerücht nennt 600 Watt und 32 GB GDDR7 für das Topmodell

V3K1 schrieb:
Endlich ist sie da.
Da wir auch dieses 250 Euro Betriebskosten zurückerhalten haben, feiere ich diese Memes, denn das ist ohne Ironie im Herbst+Winter toll. :daumen:
Ich habe immer warme Füße durch die Wärme, die meine 60-70 Grad 4090 (bei Games, die diese Grafiklast abfordern) aus dem Gehäsue schaufeln lässt, und mein Büro=Spielzimmer hat seit 2 Jahren keine Heizung mehr laufen :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: V3K1 und Grundgütiger
hemmi1982 schrieb:
Na da ist doch noch Luft nach oben. So ne Steckdose kann ja 3600W.
Die Sicherung löst doch eh erst über 20A aus, da kann man schonmal kurze Spitzen setzen :daumen:
 
Laut Benchlife/WccfTech soll wohl die CES 2025 klar gesetzt sein für die GeForce Blackwell Präsentation.

Des Weiteren kursiert ein neues Founders Edition PCB/Kühl-Design für die RTX 5090 Karten, bei denen das sehr relevant sein dürfte:

Untitled.jpg


Zudem scheinen die RTX 5000er die ersten Grafikkarten mit PCIe5.0 und DP2.1a Anbindung zu sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Haldi und Laphonso
kachiri schrieb:
Welcher Abverkauf? Im Oktober soll angeblich die Produktion eingestellt werden und die Preise steigen aktuell.
Und AMD ist als Konkurrenz fürs Preisdrücken zudem raus aus der Top/High End Klasse.
 
Lars_SHG schrieb:
der Sweetspot könnte ne 4090 im Abverkauf sein ...
... den es nicht geben wird. Nvidia hat die Produktion dieser Karten bereits abgeschnitten. Die Preise steigen daher aktuell bereits, wenn Blackwell erscheint wird eine RTX 4090 vermutlich deutlich teurer sein als eine äquivalente RTX 5000-Karte.
 
heroesgaming schrieb:
Produktion teurer geworden ist
JA aber nicht um den Faktor und schon gar nicht für großmengen die nvidia braucht. Eine 4070 würde auch für 399€ gut kasse machen, aber muss man nicht. Oder die 4060 mit dem Winzlingschip dafür 300€ absoluter Wahnsinn.
 
  • Gefällt mir
Reaktionen: SweetOhm
Also 32GB RAM und 512 Bit sind mal eine Hausnummer. Die 5080 hätten die auch mit 20GB ausstatten können, wo die 4080 bereits 16GB hatte.

wern001 schrieb:
Ich warte ja eher auf die 8090.

1727426524966.png
 
  • Gefällt mir
Reaktionen: SweetOhm und konkretor
Das sind doch nur Gerüchte. Vor allem die Leistungsaufnahme ist total unrealistisch.

Nvidia wird etwas mehr Leistung bringen. Aber nachdem keiner der Mitbewerber etwas entgegen zu setzen hat, werden sie nicht höher springen, als sie müssen.
 
Supermax2004 schrieb:
Die CES 2025 findet an 4 Tagen von Dienstag, 7. Januar bis Freitag, 10. Januar 2025 in Las Vegas statt.

Ergo Ankündigung im Januar. Release ab Feb.
 
  • Gefällt mir
Reaktionen: Haldi
Laphonso schrieb:
Was mich interessiert: Warum 96 GB RAM? Das klingt nach speziellen workflows und dass das nicht nur ein "Spielgerät" wird?

Ich hätte gerne 128 GB aber das gibt es (noch) nicht in zwei Modulen außer in Server RAM aber der ist dann doch etwas lahm mit 5600 MT/s und CL46 ;) Daher muss ich halt auf die 48 GB Module gehen.

Das ganze System baue ich wieder als VM Server auf. Sprich mein Host System wird ein Linux sein (wahrscheinlich Debian) und über die iGPU laufen und Windows wird in einer VM laufen so wie andere VM's die nicht zwingend eine reale GPU via PCIe Passthrough brauchen.

Werde das System auch für AI nutzen. Habe die Tage in Discord mit jemand gesprochen und wir haben etwas Benchmarks verglichen. Mein M1 Max brauchte für ein Bild ca. 80 Sek er mit einer 4080 ~7 Sek. Das wird also spaßig wenn die Bilder in ~4 Sek fertig sind. Wenn das mit den 32 GB stimmt könnte das sogar fast genug für 70B Modelle sein.
 
  • Gefällt mir
Reaktionen: Laphonso
Gerüchteweise wird es demnächst externe Grafikkartennetzteile geben.
 
BrollyLSSJ schrieb:
Also 32GB RAM und 512 Bit sind mal eine Hausnummer. Die 5080 hätten die auch mit 20GB ausstatten können, wo die 4080 bereits 16GB hatte.

Dann hätte die 5070 ja konsequenterweise 16 GB bekommen. Wovon träumst du :D

Die 70er karten haben doch erst mit der aktuellen Gen den Sprung von 8 auf 12 GB gemacht, nachdem sie vorher ewigkeiten bei 8 GB waren. Genauso die 80er von 10 auf 16 GB. Das muss erstmal reichen für ein paar Generationen... ;)

Jetzt bei den 70er direkt von 12 auf 16 zu gehen ist doch völlig utopisch bei Nvidia.
Ich erwarte dass die 70er weiterhin bei 12 GB bleibt, frühestens mit RTX7000 kommt dann den Sprung auf 16 GB (oder auch nicht).

Wie soll sonst Nvidias Upselling strategie funktionieren? Eine 5070 mit 16 GB für ~500-600€ wäre doch genau das was sehr viele Spieler wollen. Wenn man upselling betreibt, dann bietet man genau das eben NICHT, sondern lässt sich das was die Spieler wollen in Form einer 80er oder gar 90er Karte vergolden.



Ansonsten denke ich, dass mir meine 4080 noch lange erhalten bleibt. Gerade bei der Leistungsaufnahme bin ich längst raus. Selbst die 4080 hab ich auf 250W gedrosselt, weil die Abwärme sonst verrückt ist. Selbst bei den 320 Watt wird der PC schon zum Heizgebläse..

Eine 5080 oder 5090 zu kaufen, die so viel mehr verbrauchen wäre für mich daher völlig uninteressant.
Von daher macht mir Nvidia die Entscheidung besonders einfach, indem jegliches "Haben wollen" gefühl schon im Keim erstickt wird.

Vor allem kann man sich dann nichtmal über die Preise beschweren, wenn die Karten technisch eh uninteressant wären. Wichtiger wäre, dass sich in der Mittelklasse mal was bei der Performance tut. RAM hin oder her, die Performancesprünge in den letzten Jahren waren völlig lächerlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Haldi
belive schrieb:
An amd alleine liegts nicht nvidia macht das seit gtx 600 serie.
Die Chips sind aktuell folgendermaßen verteilt:
AD107 = RTX 4060
AD106 = RTX 4060 Ti
AD104 = RTX 4070/Ti
AD103 = RTX 4080
AD102 = RTX 4090

Dass die 80er Karten den 60er Chip nutzen ist ein Märchen. Wenn dir die P/L bei Nvidia nicht passt darfst du gerne zu AMD oder Intel greifen, nur ob die von der P/L her besser sind ist fraglich.

Die RX 7900 kostet ca 950€, das sind gerade mal 20% weniger als die RTX 4080. Letztere bietet dafür DLSS/besseres Upscaling und deutlich bessere RT Performance. Dazu kommt noch der geringere Verbrauch. Wenn die 4080 überteuert ist dann ist AMD ebenfalls kein Stück besser.
 
Ich upgrade von einer 1080ti auf das hier.
Rechne ehrlich gesagt mit 2500€.

Save.png
 
  • Gefällt mir
Reaktionen: Haldi, konkretor und nato44
BrollyLSSJ schrieb:
Also 32GB RAM und 512 Bit sind mal eine Hausnummer. Die 5080 hätten die auch mit 20GB ausstatten können, wo die 4080 bereits 16GB hatte.

Gibt geschwindigkeitsprobleme. Die VRAM werden gleichzeitig angesprochen. Ich sag mal vereinfacht wie ein RAID0. Bei 512 Bit Datenbuss müssen halt eine bestimmte Anzahl an VRam Chips drauf sein. Das ergibt dann automatisch die 32 GB
 
S.Kara schrieb:
Die Chips sind aktuell folgendermaßen verteilt:
AD107 = RTX 4060
AD106 = RTX 4060 Ti
AD104 = RTX 4070/Ti
AD103 = RTX 4080
AD102 = RTX 4090
Wobei man hier schon dazu sagen darf, dass hier einige Karten "runtergewandert" sind.
Der 107er Chip war bei den 3000er noch der 3050 vorbehalten. Die 3060 Ti war ein 104er Chip.

"Nett" wäre im Prinzip gewesen, wenn die 4060 eine 4050 (Ti) ist, die 4060 Ti eine 4060 und die 4070 eine 4060 Ti sowie die 4070 Super direkt als "4070" gekommen wäre. Die 4070 Ti hätte es dann gar nicht gebraucht. Die 4070 Ti Super hätte man direkt als 4080 bringen können und die 4080 (Super) wäre dann halt die 4080 Ti gewesen.

Preise natürlich entsprechend. Das wäre aber wahrscheinlich direkt der KO für AMD gewesen. Insbesondere in der "unteren Mittelklasse". Man stelle sich eine 4070 mit der 430 Euro UVP der 4060 Ti vor...
 
  • Gefällt mir
Reaktionen: S.Kara
S.Kara schrieb:
Die RX 7900 kostet ca 950€, das sind gerade mal 20% weniger als die RTX 4080. Letztere bietet dafür DLSS/besseres Upscaling und deutlich bessere RT Performance. Dazu kommt noch der geringere Verbrauch. Wenn die 4080 überteuert ist dann ist AMD ebenfalls kein Stück besser.
Ich nehme mal an, dass du von der XTX redest, XT und GRE sind deutlich günstiger.
Dann ist das leider völlig richtig, AMD konkurriert nicht mehr über den Preis, sondern hat sich stattdessen in den Windschatten Nvidias begeben.
Tr8or schrieb:
Gerüchteweise wird es demnächst externe Grafikkartennetzteile geben.
Den Sinn sehe ich weniger, immerhin gibt es mit ATX 3.0 / 3.1 einen passenden Standard zur Versorgung sehr stromhungriger Grafikkarten und gute Netzteile mit 1000W oder mehr sind nicht einmal sonderlich teuer.
 
  • Gefällt mir
Reaktionen: S.Kara
Zurück
Oben