News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

575Watt, Custom-Modelle eventuell sogar höher?! Am besten dann direkt mit Abschmiernippel zum Nachdrücken der Wärmeleitpaste :D
 
  • Gefällt mir
Reaktionen: Creekground, Bänki0815, mastermc51 und 2 andere
nuestra schrieb:
Ja hoffe die EU schreitet auch bei dem Verbrauch der e Autos ein. Unerhört wieviel die verbrauchen. Hoffe der elon bringt die 5090 als standheizungs gpu in den tesla

E-Autos aind durch die Kapazität des Akkus begrenzt, so hat jeder von Fahrer bis Hersteller eine Motivation so wenig wie möglich zu verbrauchen.

Das gleiche gilt bspw. auch in Notebooks: seit der 10er Serie bei nvidia werden nur noch abgespeckte Chips in Notebooks verbaut. Niemand hätte Spaß an den <15min Akkulaufzeit bei einer 600W GPU und einem 99Wh Akku.

Und ja, eine 5090 in E-Auto sind ein Problem. Wenn man die Hardware in einem Tesla voll auslasten würde (z.b. durch die Nutzung des Autopilot) so steigt der Verbrauch potenziell um über 10% weil die nvidia gpus so viel Strom fressen.
 
pmkrefeld schrieb:
Wie man besonders an Laptop-GPUs von nvidia ablesen kann.
Eine mobile 4080 hat beim gleichen Verbrauch die doppelte Leistung eienr mobile 4060. Mehr Recheneinheiten bedeutet weniger Frequenz und somit weniger VCore, und der VCore wirkt sich quadratisch auf den Verbrauch aus....
Und dafür eine Grafikkarte kaufen, die mal eben locker 1000 € oder mehr kostet als die nächstkleinere Variante? Ich nenne so was Selbstbetrug. Man macht sich vor, dass man irgendwo was einspart, dabei zahlt man am Ende nur drauf.
 
GRB221009A schrieb:
Vielleicht verstehe ich es nicht weil ich relativ arm bin, aber ist das dann alles nicht nur noch ein Statussymbol?
Man muss einfach unterscheiden was Sinn macht. Meiner 4080 läuft mit Max 250 Watt, weil nur 2-3% weniger Leistung.

Die 5090 wird bei gaming auch keine 600 Watt brauchen. Denke bei 400 Watt wird es fast die gleiche Leistung sein. Bei KI Workflows dann vielleicht eher die 600 Watt, dafür ist die Karte aber auch schneller fertig.

Sonst sehe ich auch das Problem, das die Fertigung keinen großen Schritt macht... Damit kann auch kein großer Sprung kommen.
 
  • Gefällt mir
Reaktionen: mac0815
DLSS4-leak.jpg
 
In Zeiten von UV doch eh kein großes Problem. Meine RTX 4090 frisst maximal 334W, sind also auch gut 120W weniger als angegeben.

Dürfte bei der RTX50 Gen ähnlich sein.
 
  • Gefällt mir
Reaktionen: mac0815 und aluis
Fighter1993 schrieb:
Wie eine 4?

Glaubst Du ernsthaft das Dingen wird 4000€ kosten?
Ich kann dich beruhigen wird sie nicht.
Puh da bin ich ja beruhigt auch wenn ich mich auf die Watt bezogen hatte ;) Trotz UV muss man wohl mit 4xx W rechnen wenn sich das Teil von einer 4090 merkbar absetzen soll. Naja mal schauen, über die 4090 gab es ja auch die wildesten Gerüchte und hinterher war alles nur halb so schlimm.
 
  • Gefällt mir
Reaktionen: RAZORLIGHT, Ralf74, -MK und 2 andere
@Fighter1993 Aber sie kann DLSS4. :mussweg:

edit: Bin gespannt ob Nvidia es wieder schafft den Leuten irgendwie zu erklären warum nur die neue Generation DLSS4 kann und die alte aus Gründen nicht.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und mastermc51
Also ich hab ja bis zu 1400 € für die 5080 vermutet. 1700 € sind da nochmal deutlich drüber. Und die 5090 ist ja im Prinzip zwei 5080, also wird da locker der doppelte Preis fällig: 3400 € :freak:

Ich bin gespannt, wo man am Ende wirklich landet.
 
  • Gefällt mir
Reaktionen: baskervil77 und Solavidos
Das geht alles absolut in die falsche Richtung. Der Hardwarehunger, der Stromverbrauch und die Preise für Grafikkarten machen das spielen am PC immer teurer... Aber die Grafikqualität hat sich in den letzten zehn Jahren kaum verbessert oder ist teilweise sogar schlechter. Die Spiele sind einfach nur extrem schlecht optimiert weil ja genug Leistung vorhanden ist... warum also sparen? 600+ Watt TDP? Nein danke...
 
  • Gefällt mir
Reaktionen: Ralf74
Jan schrieb:
Noch bleibt es ein Gerücht, ... nennt ein neuer Leak jetzt 575 Watt für das neue GeForce-RTX-Topmodell. Das wären 125 Watt mehr als bei der RTX 4090. Die RTX 5080 soll auf 360 Watt kommen – 40 Watt mehr als die RTX 4080 (Super).
Der Artikel ist relativ schwammig abgefasst!

TPU erklärt das Ganze besser.
https://www.techpowerup.com/330459/...features-575-w-tdp-rtx-5080-carries-360-w-tdp

TDP = ThermalDesignPower nuuur für den GPU-Die alleine.(in diesem speziellen Fall)
Hinzu kommen Watts für Vram + PCB + Lüfter etc.
und Wandlerverluste nicht vergessen!

Interessant= 40W für 16GB Vram der 5080 = > 25W für 32GB der 5090,
sollte der höhere Vramtakt dann gleich soviel mehr Watt kosten?
 
Zuletzt bearbeitet:
Fighter1993 schrieb:
Das Teil wird vergleichsweise doch von sehr wenigen Leuten gekauft. Und Scalper werden es auch schwer haben. Sie aktuell PS5 Pro. Die will keine Sau.
Und die 5090 dann von einem Spinner zu kaufen. Ne lass mal. Die kauft man entweder direkt für sich oder lässt es.
Die Risiken im Falle einer nicht durchführbaren RMA etc. sind einfach viel zu hoch.
Das glaube ich nicht, zumindest nicht, wenn der Preis unter den besagten € 2.500,- bleiben wird. Ich denke, dass es genug Enthusiasten gibt die gerne eine 5090 haben wollen, ob man es nun braucht sei mal da hingestellt.

Sollten mindestens 50% Mehrleistung gegenüber der 4090 hinten rausfallen, ist die 5090 "das Gerät" für alle die zu faul sind Regler in Spielen zu bedienen, einen 4K Monitor haben und sich sowas leisten können und wollen und glaube mir, dass sind mehr wie man vermutet.

Ja bei Scalpern kaufen ist egal für was keine Option, nicht nur wegen der Garantie. Man sollte seine Kaufimpulse soweit schon kontrollieren können und die Geduld aufbringen die Ware bei einem anständigen Händler zu einem "vernünftigen" Preis erwerben.
 
drago-museweni schrieb:
Es bleibt nur die Frage, wird das jetzt mit jeder Generation mehr, da es anscheinend anders nicht mehr möglich ist solche Leistungssteigerungen zu erreichen die vermutet werden.
Schon die RTX 4000er Serie war mit 600W geplant. Entsprechende Prototypen wurden mehrfach abgelichtet. Aber grundsätzlich muss keiner eine RTX 5090 kaufen. Und wer VRAM Probleme hat, kann ab März zur Konkurrenz wechseln (Intel B770 24GB VRAM, AMD RX 9080)
 
  • Gefällt mir
Reaktionen: -MK
quakegott schrieb:
Grafikqualität hat sich in den letzten zehn Jahren kaum verbessert
Gibt halt keine Riesen Sprünge mehr wie Anfang der 2000er. Das nächste Groß Dinge ist aktuell RT aber das auch nur Schleppend.
 
Jan schrieb:
TDP ist bei NVIDIA alles.
For the RTX 5080, the GB203-400-A1 chip is supposedly drawing 360 Watts of power alone, while 40 Watts are set aside for GDDR7 memory and other components in the PC. The lower-end RTX 5080 uses more power than the RTX 5090 because its GDDR7 memory modules reportedly run at 30 Gbps, while the RTX 5090 uses GDDR7 memory modules with 28 Gbps speeds. Indeed, the RTX 5090 uses more modules or higher capacity modules, but the first-generation GDDR7 memory could require more power to reach the 30 Gbps threshold. Hence, more power is set aside for that. In future GDDR7 iterations, more speed could be easily achieved without much more power.
(schreibt TPU)
 
Zurück
Oben