News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

Die spinnen doch, die Römer ähhh Grünen! (und nein, ich meine jetzt mal nicht den Habeck^^)
 
  • Gefällt mir
Reaktionen: PiraniaXL
Chismon schrieb:
Durch massive Architekturanpassungen (anstelle von großen Nodensprüngen/viel besserer Fertigung), siehe bspw. Intel Lunar Lake, aber klar, einfacher und günstiger wäre es natürlich für nVidia massiv den Verbrauch zu erhöhen von Ada Lovelace auf Blackwell für mehr Leistung oder die Chips größer zu machen (was aber mehr kosten/Profite nicht maximieren würde).

Ich würde Effizienzsteigerungen von CPUs nicht mit GPUs vergleichen. Das ist eine völlig andere Baustelle. GPUs haben Tausende Recheneinheiten, die viel kleiner und einfacher gehalten sind, als die wenigen großen Recheneinheiten pro CPU-Kern.

CPU-Kerne bzw. ihre Recheneinheiten sind viel komplexer, daher haben sie auch mehr Optimierungspotenzial und es sind wirklich große Sprünge möglich. Geht aber oft mit einer komplett neuen Architektur einher, wie z.B. damals der Sprung vom Pentium 4 auf Core 2. Lunar Lake bringt auch tiefgreifende Veränderungen mit sich, Blackwell ändert an den Recheneinheiten eher wenig -- von FP4 abgesehen, siehe weiter unten. Nur die Transformer, NVLink bzw. NVLink Switches wurden signifikant verbessert (30-mal mehr Performance für Inference). Das hiflt AI-Anwendungsfällen enorm, aber Spielen leider gar nicht.

Man sollte sich von den Zahlen der Server-GPUs auch nicht täuschen lassen. B100 mag wesentlich schneller sein als H100, hat aber auch fast 2,7-mal so viele Transistoren und ist eigentlich eher eine optimierte Version des GH200. Nvidia gibt z.B. eine massive Steigerung in FP4 an, aber man sollte beachten, dass FP4 von Hopper gar nicht nativ unterstützt wurde, während Blackwell entsprechende Hardware mitbringt. In INT8 hat man ca. die 2,5-fache Leistung und das entspricht auch ca. der Transistoren-Steigerung.

Abseits von FP4-Unterstützung und den Verbesserungen der Transformer bzw. NVLink, bringt Blackwell nur durch den kleinen Schritt auf 4NP Verbesserungen mit sich.
 
Solus schrieb:
Wieviel an Stromkosten im Schnitt kostet dann eigentlich so eine RTX 5090, wenn man sie eine Stunde laufen lässt?
Die Stromkosten ist für Käufer das geringste Problem, die haben eh zu viel Geld.
Bei dem Jahresverdienst spielen 50 oder gar 100 Euro im Jahr auch keine Rolle mehr.
Aber die Abwärme dürfte interessant werden.
Mit Intelprozessor fährt man dan mal eben 900 Watt Dauerlast.
Das ist ein netter kleiner Heizlüfter im Raum.
Mir ist so schon viel zu heiß, und ich habe vielleicht so maximal 300 Watt, eher weniger.
 
Wann das Referenzmodell mit Kompressorkühler kommt, ist bei Nvidia wohl nur noch ne Frage der Zeit :D
 
BxBender schrieb:
Das ist ein netter kleiner Heizlüfter im Raum.

Im Sommer durchaus ein Problem, aber da hält man sich tendenziell ja mehr draußen auf. Im Winter wiederum spart man sich das klassische Heizen.
Aber in Summe 1kw an potentieller Abwärme, wenn man alles drumherum zusammen nimmt, ist schon ne Ansage.
 
Dr. MaRV schrieb:
Gleich geht das Geheule über Stromverbrauch, Leistungsaufnahme und Effizienz wieder los und natürlich über den zu erwartenden Wucherpreis oder Preiswucher.

Sie müssen ein Hellseher sein! Woher wissen Sie das? Verbrennt IHN! :evillol: :evillol: :evillol:
Ergänzung ()

Tornavida schrieb:
600W ? WTF Nvidia? Glaube ich erst wenns so kommt.
ICH nicht! Das AI Strom brauchen wird ist kein neues Geheimniss. Und das Gaming nur noch das Sekundärgeschäft ist auch nicht. Und Wunkong wie auch Pathtracing zeigen jauch das es soetwas wie zu große GPUs nicht wirklich gibt.
 
S.Kara schrieb:
Mag ich dir gerne glauben dass du als 4090 Besitzer auf einen hohen Wiederverkaufspreis hoffst. :D
Ich habe ja schon einen Käufer für mein System, ich warte quasi auf die 5090 und die x3D CPUs :D

Ich gönne jedem die 4090 Power für 500 Euro (wäre generell toll, wenn "alle" eine 4090 hätten aus der Logik heraus, dass man die vs. High End nunmehr veraltete PS5 Technologie-Bremse als Vorlage für die devs ignorieren könnte), das hatte ich hier schon mal geschrieben, aber ich erinnere an die Fehlprognosen zur 2080Ti nach dem 3070 Launch und an die Fehlprognosen zur 3090 nach dem 4080 Launch.

Wenn wir (aus Gamersicht) Pech haben, haut Nvidia ein DLSS 4 Featureset raus mit exklusiver RTX5000 Kopplung, und dann kosten die 4080 customs 1600 Euro, und dann fallen die 4090er nicht zum Release auf unter 1000 Euro.
Forget it.


Ich werde unsen Dialog hier zitieren @S.Kara in wenigen Wochen mit Blick auf die Preise :-P
Dann schauen wir, wer die "bessere" Markteinschätzung hatte, okay? ^^
 
Zuletzt bearbeitet:
Okay, für die gebotene Leistung ist das wohl passend, aber nicht zeitgemäß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MaverickM
Weltraumeule schrieb:
Sage ich ja.
Aber ich habe auch die Reaktionen mitbekommen, wenn sich 2070 oder 3080Ti Gamer Kollegen dann so etwas wie Cyberpunk bei mir auf dem System spielen konnten.
Das sieht halt nochmal geiler aus mit Patchtracing.

Gerade Raytracing generell profitiert sehr von einer 4090. Das nutze ich voll aus.

Wer das alles nicht braucht, spart viel Geld :D
Alle 2 Jahre die schnellste (und leider damit teuerste) GPU fürs Gaming ist halt mein ( im Vgl. günstigstes) persönliches Hobby.
Da gehts um Emotion, nicht um rational oder "Schuld" ;-)
 
Ist das nicht übertrieben? Also die 600 Watt.
 
  • Gefällt mir
Reaktionen: MaverickM
Da macht NV wohl den gleichen Fehler wie Intel... immer mehr Verbrauch. Bis es kracht. Vielleicht, wenn es den wirklich so kommt das AMD sich in dem Bereich bewegen will, wo eh die meisten Karten verkauft werden und hier vielleicht den Sweetspot aus Leistung und Verbrauch trifft. Könnte das mal eine Erfolgreiche GEN werden... wer weiß wie viele sich bei NV ärgern müssen, weil das neue 950w Netzteil jetzt 150-300W zu wenig hat.
 
Meine alte 4090FE mit UV/0,875V@2520MHz mit einem FPScap@120 ist die effizienteste Grafikkarte, die ich je hatte. Das kann man aber nur beurteilen, wenn man seine eigenen Erfahrungen damit gemacht hat.
Die neue 5090 wird sicher auch keine 600 Watt brauchen. Das sollte eigentlich jedem klar sein.

Wenn Nvidia bei der neuen 5080 bei 16GB VRAM bleibt, wird die Karte ein Rohrkrepierer. Bei den brandneuen Games sind 16GB heute schon nicht mehr ausreichend.
 
  • Gefällt mir
Reaktionen: Cohen und -HeLo-
Puh.. ich glaube bald baut man sich keine Wärmepumpe mehr ein sondern ne x090 GPU mit Kühlkreis Anschluss an den Fußboden.
Wenn die jede Generation mehr Leistung braucht bin ich un 10 Jahren gespannt. 2kw für die GPU.
 
  • Gefällt mir
Reaktionen: FTPFreezer
Tornavida schrieb:
Mehr Leistung bei gleichem max. Verbrauch...immer her damit.

Gibts doch, einfach eine oder zwei Klassen tiefer kaufen und fertig.


Matthias80 schrieb:
Da macht NV wohl den gleichen Fehler wie Intel... immer mehr Verbrauch. Bis es kracht. Vielleicht, wenn es den wirklich so kommt das AMD sich in dem Bereich bewegen will, wo eh die meisten Karten verkauft werden und hier vielleicht den Sweetspot aus Leistung und Verbrauch trifft.

Intel hat den Fehler gemacht, dass Sie die Effizienz schlecht ist. Bei Nvidia ist aber genau das Gegenteil der Fall. Nvidia baut deutlich effizientere GPUs als AMD und Intel.

Nur weil die Top Modelle mehr absolut verbrauchen, sind sie nicht ineffizienter.

Zumal GPUs nach unten skaliert werden können. Wenn AMD nicht massiv die Effizient verbessert, wird man trotzdem bei gleicher Leistung mehr Strom für RDNA4 benötigen.

Matthias80 schrieb:
wer weiß wie viele sich bei NV ärgern müssen, weil das neue 950w Netzteil jetzt 150-300W zu wenig hat.


Ich glaube die Anzahl der Leute die sich ärgern wird sich bei einer 2000+ Euro Grafikkarte sehr in Grenzen halten. Zumal das ein Leistungsbereich ist, der auch mit einem guten ATX3.x 1000 Watt Netzteil abgedeckt werden kann. Die meisten Kunden von High end Grafikkarten kaufen sich meistens nicht die 60€ Chinaböller 1000 Watt netzteile
 
Ich habe das Gefühl das die Leute hier glauben das die Grafikkartenhersteller bewusst ihre Grafikkarten auf mehr verbrauchen Fertigen bzw mit Absicht !

Seit ihr auch mal auf Idee gekommen wenn es Technisch machbar ist, das die Grafikkartenhersteller es auch umsetzen würden 50% mehr Leistung und 50% weniger verbrauch ?

Ein noch besseren Verkaufsargument neben denn preis würde es nicht geben.
 
  • Gefällt mir
Reaktionen: Blackvoodoo
Ist doch super. Dann spart man sich im Winter wenigstens die zusätzliche Heizung im Zockerzimmer.
 
Für meinen Anwendungsfall vollkommen uninteressant, da überdimensioniert. Ich bin mit Full-HD vollkommen zufrieden. Da reichen Einsteigerkarten für 300€.
 
Solus schrieb:
Wieviel an Stromkosten im Schnitt kostet dann eigentlich so eine RTX 5090, wenn man sie eine Stunde laufen lässt?
600W für eine Stunde sind 600 Wattstunden, also 0,6kwh. Ich zahle 34 Cent pro kwh, die Rechnung lautet also 0.6 x 0.35€ = 0,21€ also 21 Cent pro Stunde Volllast.

Mit UV werden es mind. 100W weniger, und mit Framelimit (warum willst Du mehr FPS als Dein Monitor anzeigen kann?), eher Richtung 2/3 davon, also ich rechne da mit ca. 15 Cent pro Stunde zocken.
 
  • Gefällt mir
Reaktionen: Sturmwind80, Drakrochma und Ruebennase
Zurück
Oben