News GeForce-Leak zum Fest: Erste Fotos von PCB und GPU der Nvidia GeForce RTX 5090

Floppes schrieb:
600 Watt ist einfach nur absurd. Ich habe keine Lust beim zocken eine Klimaanlage anzuwerfen.

Ich auch nicht. Mein frisch zusammengebautes System mit Ryzen 8700G im Eco-Mode (und ohne separate Grafikkarte) braucht keine 100W beim Spielen. Die Frage ist, ob man die gefraessigsten Spiele spielen will, und dann noch mit gefraessigen Settings (extrem hohe Bildwiederholraten usw.). Bei mir geht's auch so.
 
  • Gefällt mir
Reaktionen: aid0nex, anarchie99, Flyerdommo und 8 andere
FUSION5 schrieb:
Ich bin gespannt, was es mit den Zusatz PCBs auf sich hat, von denen bereits mehrfach berichtet wurde. Und wie umständlich Wasserkühlung damit wird.

Wieso soll eine Wasserkühlung umständlich werden. Ist doch nur der Austausch des Kühlkörpers
 
Holzinternet schrieb:
Hmm eventuell in nem Jahr dann eine 5070 Super. Aber nur wenn die Power der 4070 nicht mehr für SC reicht...
...das wäre auch so etwa meine Überlegung. Nachdem allerdings das 4.0-Pyro-Preview dank besserer Serverperformance so schön fluffig läuft, ist bei mir ein baldiges GPU-Upgrade eher unwahrscheinlich - meine 'olle' RX 6900XT packt das bisher ganz gut. Das Board-Upgrade auf AM5 und den 9800X3D hat schon spürbar einiges gebracht (vor allem bei den min. FPS) und ist im Vergleich zu einer RTX 5080 (oder mehr) geradezu günstig. Was hilft mir lokal Monsterperformance, wenn letztlich immer die Serverperformance limitiert...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, SweetOhm, nyster und 4 andere
Daumen hoch, wer sich als Gamer auch nicht mehr angesprochen fühlt von diesem Giganten in Preis, Leistung und Verbrauch. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: aid0nex, Three of Nine, Plastikman und 44 andere
Ich denke auch für die RTX 5090 wird es 2500€ - 3000€, da AMD abwesend ist..
Die RTX 5080 wird wohl Richtung 1400€ - 1600€ gehen und wenn mal eine
24GB Version der RTX 5080 kommt, dann 1800€ - 2000€ .. Einfach nur krank..
 
  • Gefällt mir
Reaktionen: Ben_computer_Ba, aid0nex, Three of Nine und 7 andere
Warten wir ab...bis 2500 bin ich dabei. Einfach nur, weil ich mir das Hammerrig mal gönnen will und wenn man mit AI ein bisschen spielt, lohnt das vielleicht auch.
Die 600 Watt werden wahrscheinlich auch nicht gebraucht. Vermute da geht mit 400 Watt relativ viel, ohne gross Leistung zu verlieren.
 
  • Gefällt mir
Reaktionen: aid0nex, Master_Chief_87, Zagrthos und 7 andere
Floppes schrieb:
600 Watt ist einfach nur absurd
Wieso nimmst du an, dass der Verbrauch so hoch ist? War doch bei der 4090 genauso und am Ende war es ein Bruchteil davon.

Deine 5080 wird wird im Verhältnis eine schlechtere Effizienz haben und nicht so sonderlich viel weniger verbrauchen, wie du vermutlich gerade erhoffst. Wie gesagt, schau dir die realen Werte der 4000er an 😉
 
  • Gefällt mir
Reaktionen: mac0815, Mebusprime, gartenriese und 9 andere
Floppes schrieb:
600 Watt ist einfach nur absurd. Ich habe keine Lust beim zocken eine Klimaanlage anzuwerfen.
9800x3d und 5080 wird es dann wohl :rolleyes:
Mal abwarten. Das war bei der 4090 doch das gleiche. Nur weil die aufgrund des Anschlusses potenziell so viel ziehen könnte, bedeutet nicht, dass sie das auch macht.
 
  • Gefällt mir
Reaktionen: aid0nex, mac0815, Mebusprime und 10 andere
Floringer schrieb:
die karte wird so unglaublich teuer werden
GDDR7 ist nicht mehr viel teurer als GDDR6 und nvidia dürfte auch die Hersteller zur moderaten Preisgestaltung gedrängt haben, schließlich kommen auch die Einsteiger bereits mit GDDR7.
Via GDDR7 hat man 50-60% mehr Bandbreite bei den günstigen Speicherchips, 192 Bit bzw. 96 Bit im Mainstream dann akzeptabel.

Bleibt die Frage ob nvidia bei der 5090 nicht zwei Chiplet gekoppelt hat um via Selektion 'low Power' zu packen, denn nur 600 W statt 400 W der 5080 sind auffällig.
 
NVIDIA wird den Preis sehr weise wählen. Die machen das meiste Geld eh nicht mit dieser Art von Karte, sondern mit den Lösungen für ki und Rechenzentren. Und garantiert schauen die sich sehr professionell den Markt an.
Und sind wir mal ehrlich, 2000 € oder Dollar für eine Grafikkarte auf den Tisch zu legen, das kann nicht jeder und das will auch nicht jeder. Das Brot- und Buttergeschäft spielt sich sicherlich zwischen 800 und 1200 € ab. Was es letztlich dafür gibt werden wir dann sehen. Mit Sicherheit aber so viel, dass jede Konkurrenz mindestens um 10-20 % zum Preis/Leistungspunkt abgehängt wird.
Einzig Sorge macht mir, dass es im Grunde genommen nur noch im unteren Mittelfeld beziehungsweise bei den Lowend-Karten echte Konkurrenz geben wird. Das ist ja ein quasi-Monopol in der Mittelklasse und im oberen Segment.
 
  • Gefällt mir
Reaktionen: Edzard
obsolet
 
Zuletzt bearbeitet:
Dwyane schrieb:
Ich kalkuliere für die RTX5090 mal mit 2500-3000€ beim Referenzdesign.
Die RTX5080 wird vielleicht 55% bis 60% an Performance packen, also etwa 1/2 Preis ?!

Die Programmierer von Games werden eher RTX5070TI als ihre HighTech Referenz nehmen, darüber nur mehr FPS am Bildschirm.
 
Ein Anschluss mit MAXIMAL 600W ist doch ein gutes Zeichen - das deutet für mich auf einen geringeren Verbrauch hin, als bisher angenommen wird.


Dann reicht auch mein 850W-Netzteil noch locker: aktuell verbraucht meine 3090 maximal 430W und in dieser Situation zieht der PC (AMD-CPU) dann 570W aus der Dose.

570-430+600 <= 850W.
 
  • Gefällt mir
Reaktionen: freezer255, -MK und Cameron
@Topi41 Bei mir auch, mein 850W Netzteil dürfte beim Wechsel von 3090 auf 5090 FE auch reichen.
 
Bulletchief schrieb:
Mal abwarten. Das war bei der 4090 doch das gleiche. Nur weil die aufgrund des Anschlusses potenziell so viel ziehen könnte, bedeutet nicht, dass sie das auch macht.

Nicht nur das, selbst bei dem Bruchteil von dem was der Stecker aushalten sollte sind etliche Stecker (aufgrund von Produktionsmängel, Toleranzen, Einbaufehler...) geschmolzen
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Three of Nine, SweetOhm und eine weitere Person
Der 4090 wurden in frühen Leaks auch 600W und mehr nachgesagt. Da war es nicht unrealistisch, denn NV wusste offenbar lange Zeit nicht wie „schlecht“ RDNA3 mit der Leistungsaufnahme skaliert und wollte sich nach oben alles offen lassen. Am Ende sind es dann 450W geworden. Ohne Wakü etc. sind die 600W auf der 4090 schon immer sinnlos gewesen. Besser noch, selbst mit um die 300W war das Ding ein Monster.

Ich erwarte bei der 5090 ähnliche Werte. Schauen wir einfach im Januar.
 
Zurück
Oben