Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce-Leak zum Fest: Erste Fotos von PCB und GPU der Nvidia GeForce RTX 5090
Ich auch nicht. Mein frisch zusammengebautes System mit Ryzen 8700G im Eco-Mode (und ohne separate Grafikkarte) braucht keine 100W beim Spielen. Die Frage ist, ob man die gefraessigsten Spiele spielen will, und dann noch mit gefraessigen Settings (extrem hohe Bildwiederholraten usw.). Bei mir geht's auch so.
...das wäre auch so etwa meine Überlegung. Nachdem allerdings das 4.0-Pyro-Preview dank besserer Serverperformance so schön fluffig läuft, ist bei mir ein baldiges GPU-Upgrade eher unwahrscheinlich - meine 'olle' RX 6900XT packt das bisher ganz gut. Das Board-Upgrade auf AM5 und den 9800X3D hat schon spürbar einiges gebracht (vor allem bei den min. FPS) und ist im Vergleich zu einer RTX 5080 (oder mehr) geradezu günstig. Was hilft mir lokal Monsterperformance, wenn letztlich immer die Serverperformance limitiert...
Ich denke auch für die RTX 5090 wird es 2500€ - 3000€, da AMD abwesend ist..
Die RTX 5080 wird wohl Richtung 1400€ - 1600€ gehen und wenn mal eine
24GB Version der RTX 5080 kommt, dann 1800€ - 2000€ .. Einfach nur krank..
Warten wir ab...bis 2500 bin ich dabei. Einfach nur, weil ich mir das Hammerrig mal gönnen will und wenn man mit AI ein bisschen spielt, lohnt das vielleicht auch.
Die 600 Watt werden wahrscheinlich auch nicht gebraucht. Vermute da geht mit 400 Watt relativ viel, ohne gross Leistung zu verlieren.
Wieso nimmst du an, dass der Verbrauch so hoch ist? War doch bei der 4090 genauso und am Ende war es ein Bruchteil davon.
Deine 5080 wird wird im Verhältnis eine schlechtere Effizienz haben und nicht so sonderlich viel weniger verbrauchen, wie du vermutlich gerade erhoffst. Wie gesagt, schau dir die realen Werte der 4000er an 😉
Mal abwarten. Das war bei der 4090 doch das gleiche. Nur weil die aufgrund des Anschlusses potenziell so viel ziehen könnte, bedeutet nicht, dass sie das auch macht.
GDDR7 ist nicht mehr viel teurer als GDDR6 und nvidia dürfte auch die Hersteller zur moderaten Preisgestaltung gedrängt haben, schließlich kommen auch die Einsteiger bereits mit GDDR7.
Via GDDR7 hat man 50-60% mehr Bandbreite bei den günstigen Speicherchips, 192 Bit bzw. 96 Bit im Mainstream dann akzeptabel.
Bleibt die Frage ob nvidia bei der 5090 nicht zwei Chiplet gekoppelt hat um via Selektion 'low Power' zu packen, denn nur 600 W statt 400 W der 5080 sind auffällig.
NVIDIA wird den Preis sehr weise wählen. Die machen das meiste Geld eh nicht mit dieser Art von Karte, sondern mit den Lösungen für ki und Rechenzentren. Und garantiert schauen die sich sehr professionell den Markt an.
Und sind wir mal ehrlich, 2000 € oder Dollar für eine Grafikkarte auf den Tisch zu legen, das kann nicht jeder und das will auch nicht jeder. Das Brot- und Buttergeschäft spielt sich sicherlich zwischen 800 und 1200 € ab. Was es letztlich dafür gibt werden wir dann sehen. Mit Sicherheit aber so viel, dass jede Konkurrenz mindestens um 10-20 % zum Preis/Leistungspunkt abgehängt wird.
Einzig Sorge macht mir, dass es im Grunde genommen nur noch im unteren Mittelfeld beziehungsweise bei den Lowend-Karten echte Konkurrenz geben wird. Das ist ja ein quasi-Monopol in der Mittelklasse und im oberen Segment.
Alles Wahnsinn. Aber nicht nur im Sinne von verrückt. Auch wie klein das PCB ist, also wie wenig Platz mittlerweile benötigt wird (wieviele Layer wohl mittlerweile verwendet werden?). Vor 15 Jahren noch riesige Platinen mit unzähligen zusätzlichen Bauteilen.
Ein Anschluss mit MAXIMAL 600W ist doch ein gutes Zeichen - das deutet für mich auf einen geringeren Verbrauch hin, als bisher angenommen wird.
Dann reicht auch mein 850W-Netzteil noch locker: aktuell verbraucht meine 3090 maximal 430W und in dieser Situation zieht der PC (AMD-CPU) dann 570W aus der Dose.
Mal abwarten. Das war bei der 4090 doch das gleiche. Nur weil die aufgrund des Anschlusses potenziell so viel ziehen könnte, bedeutet nicht, dass sie das auch macht.
Nicht nur das, selbst bei dem Bruchteil von dem was der Stecker aushalten sollte sind etliche Stecker (aufgrund von Produktionsmängel, Toleranzen, Einbaufehler...) geschmolzen
Der 4090 wurden in frühen Leaks auch 600W und mehr nachgesagt. Da war es nicht unrealistisch, denn NV wusste offenbar lange Zeit nicht wie „schlecht“ RDNA3 mit der Leistungsaufnahme skaliert und wollte sich nach oben alles offen lassen. Am Ende sind es dann 450W geworden. Ohne Wakü etc. sind die 600W auf der 4090 schon immer sinnlos gewesen. Besser noch, selbst mit um die 300W war das Ding ein Monster.
Ich erwarte bei der 5090 ähnliche Werte. Schauen wir einfach im Januar.