News RTX 5090 & 5080: Gerücht nennt 600 Watt und 32 GB GDDR7 für das Topmodell

belive schrieb:
Was lmao? Wäre es dir lieber wenn die 5080 den größeren Chip bekommt und dafür mehr Einheiten abgeschaltet werden? Wäre am Ende nur teurer ohne Mehrleistung.
belive schrieb:
Vielleicht wird die 5080 diesmal den 60er chip bekommen funktioniert ja seit einer dekade dieser trick mal schauen wie weit die raufklettern.
Wenn von AMD nichts besseres kommt wird das bald ausreichend sein.
 
UweP44 schrieb:
Ich tippe darauf, dass Nvidia mit der 5090 vor allem den semiprofessionellen Bereich und nicht nur die Gamer anpeilt.

Also KI Beschleuniger im Hobby und kleinem Business Bereich bzw. für alle denen professionellere Lösungen wie der H100 und Nachfolger zu teuer sind.

Die verkaufen sich auch bei Entwicklern prächtig. Den Entwickeln kann man auch auf der "billigen" Karte. In Produktion geht der Code dann auf den ProfiKarten...
 
hm uff das ist echt hart und krank das ganze. Bin ich froh die Leistung nicht zu brauchen. Der leistungsabstand wird noch mal um einiges größer als eh schon. Bald ist so ne gpu wie die gtx 1650 oder sowas nix mehr wert weil es da schon um ein vielfaches mehr Leistung gibt. Muss mich wohl beeilen die gtx 970 zu verkaufen. Sonst ist die bald noch weniger wert.
 
Also sind 5090 / 5080 / 5070 / 5060ti / 5060 bekannt, was zeigt das die 5060 wieder keiner Verbesserung mit dich bringt.
 
Ich würde das Monster, welches vermutlich dann genauso groß wäre, wie mein kompletter PC, eiskalt auf 80-100W Leistungsaufnahme drosseln.

32G VRAM klingt trotz allem nach etwas, was durchaus sinnvoll erscheint, angemessen daran, wie Speicherhungrig moderne Spiele bei hohen Details und Auflösungen wirklich werden können.
 
DragonScience schrieb:
Da würd sich ja lohnen die Abwärme irgendwie mit in die Heizkörper oder Fusbodenheizung mit einlaufen zu lassen. Warmwasserboiler...
Mach ich im Winter schon mit nem MoRa3 420, der heizt mir das wohnzimmer beim zocken angenehm auf.
Gekühlt wird ne 4090 auf 600w TDP und ein 5950X mit max. 220W
 
Endlich ist sie da.
GTX 590.jpg
 
  • Gefällt mir
Reaktionen: conf_t, SweetOhm, Coeckchen und 2 andere
belive schrieb:
An amd alleine liegts nicht nvidia macht das seit gtx 600 serie.
Auch dort lag es bereits an AMD bzw. fehlender Konkurrenz. Es gab seinerzeit sogar Berichte, dass Nvidia von der Leistung einer HD 7970 enttäuscht gewesen sei. Die GTX 680 war denn auch ganz klar eine umgelabelte Mittelklassekarte, die Titan, die ansonsten vermutlich diesen Namen getragen hätte, kam als erste 1000 €-GPU auf den Markt.

Beim roten Team hatte man sich damals einfach verrechnet und sich der Möglichkeit eines Big-Chips verschlossen, im Gegensatz zu Nvidia, die direkt in diese Richtung entwickelt hatten. Dieser Fehler wurde erst mit Hawaii korrigiert, aber das kam bekanntermaßen reichlich spät ... ^_^
Und nunja, was soll man sagen, seitdem hatten Nvidias Big Chips selten echte Konkurrenz, die Produktpolitik entspricht diesem Bild.

@topic:

Der Abstand zwischen xx80 und xx90 wächst also wohl weiter, das ist nicht schön. Wer "echtes" High-End will, kann demnach nur die 2000 bis 3000 € locker machen, die diese Karte vermutlich kosten wird, und kann es nicht, wie in früheren Zeiten, zum "Sparkurs" bekommen, während die beste Karte nur die letzten 10% bringt. Naja, es war zu erwarten ... ich denke, Blackwell wird sich dennoch ein weiteres Mal herausragend verkaufen. Ada hat erfolgreich den Weg geebnet und nach anfänglich zögerlichem Absatz seinen Stand im Markt letztlich ja doch gefunden :)
 
  • Gefällt mir
Reaktionen: SweetOhm
He die 5090er werden so oder so gekauft, alleine schon wegen dem VRAM, viele Firmen kaufen die halt für ihr KI Zeug weil eine eher günstige Alternative zu H100 und CoKG. NV wird schon seinen Schnitt damit machen
 
Die 4090 sollte auch schon mit 600 Watt kommen... Am Ende wird es vermutlich dann doch wieder auf die 450 Watt hinauslaufen. Vielleicht werden es auch 500 Watt...
Vermute mal die "Seasonic-Leaks" sind näher an der Wahrheit, als jetzt diese Gerüchte.
 
  • Gefällt mir
Reaktionen: schneeland und W4RO_DE
der Sweetspot könnte ne 4090 im Abverkauf sein!
Bei so einem Abstand zwischen 5080 und 5090 wird der Preis für die 5090 garantiert angehoben.
Eigentlich wäre dann ein Preis für die 5080 von 999 € sinnvoll. Nein, wird es nicht geben, da die Preise schon viel zu lange viel zu hoch sind und die Aktionäre immer höhere Gewinnmargen wollen!
Realistisch könnte die Karte sicherlich deutlich unter 500 € verkauft werden - aber warum? Keine Konkurrenz an der Spitze und das Produkt - abgesehen vom Preis - wird sicherlich wieder sehr gut sein.
 
kann ich mir nicht vorstellen das die jetzt schon am Limit von dem erst kürzlich erschienenen PCI-e 5.0 Stromanschluss sind. Auch wie sie anschliessend die 600 Watt an Abwärme abführen wollen ohne das die Karte 5-6 Slot groß wird.

meine 4090 mit 450watt geht auf dem Hotspot bereits auf 85grad in einigen Spielen, und die wurde bereits als kühles wunder gepriesen.

Wie mit allen Verschwöhrungstheorien: immer mit Vorsicht genie0en, nicht nervös werden, denn die Wahrheit liegt immer dazwischen.


meine Glaskugel sagt: 24Gb ddr7 , max 520Watt im p1 für 30 Sekunden
 
heroesgaming schrieb:
uch dort lag es bereits an AMD bzw. fehlender Konkurrenz
Trotzdem nutzen sie das bis zum maximum aus.

hier wird dir ja schlecht:

Man vergleiche mal mit vor rund 10 Jahren.
GTX590 --> zwei Vollaktive High-End Chips (!!!), das wäre heute eine imaginäre "RTX Titan Ada Dual" oder so
GTX580 --> vollaktiver Highend-Chip, heute wenn überhaupt vollaktiv geplant eine 4090Ti. DIe kostete übrigens 480€.
GTX570 --> teildeaktiver Highend-Chip, also das, was heute die 4090 ist. Damals 350€.
GTX560Ti --> vollaktiver Oberklasse-Chip, wäre heute eine 4080Ti. Damals 220€.
GTX560 --> teildeaktiver Oberklasse-Chip, wäre heute eine 4080. Damals 165€.

(Pcgh member zitat)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und PulsarS
kachiri schrieb:
Die 4090 sollte auch schon mit 600 Watt kommen...

Nur mit dem Unterschied da hier der Wechsel von Samsung auf TSMC es erst ermöglicht hat, mit dem Samsung Prozess wären es die 600W geworden. Das ist diesmal nicht der Fall.
 
  • Gefällt mir
Reaktionen: thom_cat
belive schrieb:
Trotzdem nutzen sie das bis zum maximum aus.
Was nur folgerichtig ist ... die GTX Titan war eben nur der erste Schritt in diese Richtung. Und schon diese verkaufte sich ziemlich gut für ihren Preis. Am Ende haben sich die Kunden die heutige Situation selbst eingebrockt, denn am Ende waren ausreichend viele stets bereit, preislich mitzugehen.
belive schrieb:
hier wird dir ja schlecht:

Man vergleiche mal mit vor rund 10 Jahren.
GTX590 --> zwei Vollaktive High-End Chips (!!!), das wäre heute eine imaginäre "RTX Titan Ada Dual" oder so
GTX580 --> vollaktiver Highend-Chip, heute wenn überhaupt vollaktiv geplant eine 4090Ti. DIe kostete übrigens 480€.
GTX570 --> teildeaktiver Highend-Chip, also das, was heute die 4090 ist. Damals 350€.
GTX560Ti --> vollaktiver Oberklasse-Chip, wäre heute eine 4080Ti. Damals 220€.
GTX560 --> teildeaktiver Oberklasse-Chip, wäre heute eine 4080. Damals 165€.

Grundsätzlich stimme ich dir zu, dass sich da einiges zu Ungunsten des Kunden verschoben hat. Allerdings lässt diese Rechnung eben doch außer Acht, dass Produktion teurer geworden ist, dass im Laufe von zehn Jahren einiges an Inflation passiert (gerade mal geschaut, von 2010 bis heute waren es knapp 33%, also wäre selbst eine identische Karte heute ein Drittel teurer als damals) und nicht zuletzt, dass ein GA102 aus teurer, moderner 5nm-Fertigung trotz dieser Strukturbreite sogar größer ist als der GF110 einer GTX 580. Ich bezweifle nicht, dass Nvidia ihre Marge im Laufe der Zeit deutlich vergrößert haben, aber auch ohne diesen Faktor und bei gleichstarker Konkurrenz durch AMD wäre eine RTX 4090 heute sicherlich zwei bis drei Mal so teuer wie eine GTX 580 es noch war.
 
Zuletzt bearbeitet:
Cool Master schrieb:
  • 5090
  • 9000er X3D
  • 96 GB RAM (oder mehr wenn es 64 GB Module bis ~Dez gibt)
  • 2 TB 980 Pro übernehme ich
  • Neues NT
Sehr lecker :D

Was mich interessiert: Warum 96 GB RAM? Das klingt nach speziellen workflows und dass das nicht nur ein "Spielgerät" wird?
Oder wird z.B.? der MS FS 2024 hier mehr als 64 GB utilizen können?
Ergänzung ()

Mr. Danger schrieb:
Leistung einer RTX 5090 und 200W wären mal eine Sensation.
Mit den Nodes nicht momentan nicht machbar.
Denke mal 100% 5090 netto Performance (die wir ja nicht nicht kennen) zu 200 Watt sehen wir erst mit der RTX7000 Generation in einer 7070 oder so.
Ergänzung ()

Lars_SHG schrieb:
der Sweetspot könnte ne 4090 im Abverkauf sein!
Für die Verkäufer, ja, wenn das derzeit so bleibt. Sofern die 4090 mehr VRAM als die 5080 behält, wird sie nicht wirklich deutlich günstiger als meine vermuteten 1200-1400 Euro.
 
Lars_SHG schrieb:
der Sweetspot könnte ne 4090 im Abverkauf sein!
Welcher Abverkauf? Im Oktober soll angeblich die Produktion eingestellt werden und die Preise steigen aktuell. Da wird es keinen großartigen Abverkauf geben. NV hat genug Zeit, dass man die Lager langsam dahinsieden lässt.
(Wie AMD Ja auch schon beim 5800X3D. Da gab es auch nie einen Abverkauf, die Verfügbarkeit nahm einfach mit der Zeit ab)
 
Zurück
Oben