News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

Ich warte nur noch bis die EU einschreitet und den Wahnsinn stoppt. Da nähert sich ein Gaming-PC dann schnell 1kW verbrauch... Das sind ~5 PS5, ~10 Gaming Laptops oder 60 SteamDecks.... Und sepbst wenn der Stromverbrauch irrelevant wäre... wer würde schon freiwillig dauerhaft einen Heizlüfter bei sich aufstellen? Und wie bei den CPUs liefert die GPU wahrscheinlich 80% der Leistung bei halbiertem Verbrauch... so macht das kein Spaß.
 
  • Gefällt mir
Reaktionen: Steinaltkachel, aid0nex, -Scallywag- und 9 andere
@Cool Master die Frage die sich da einem aufdrängt braucht man das alles als Spieler ?
 
  • Gefällt mir
Reaktionen: Gothic47, Steinaltkachel, schkai und eine weitere Person
Cat Toaster schrieb:
Dann bleiben wir alle weiter gespannt, ob die Mehrleistung auch im Verhältnis dazu steht.
Guter Punkt.
Wobei Nvidia hier keinen Zwang hat, die 4090 wird dann weiter die zweitschnellste Karte sein, denn Konkurrenz ist nicht in Sicht.

Knapp 600 Watt sehe ich aber schon als verrückt an. Schade, dass man ohne Konkurrenz nicht den Pfad zu weniger Verbrauch geht.
Bei 250 Watt würde ich schwach werden. Die 4090 hätte ihren Sweet Spot bei handgetunten 300.
Mal sehen was dann 3nm in der 6er Reihe bringen...
 
  • Gefällt mir
Reaktionen: Ralf74
Cool Master schrieb:
Das kann man nicht mehr Vergleichen. Früher waren es einfach nur eine GPU heute ist das viel mehr als nur GPU.

Der Begriff GPGPU existiert lt. Wikipedia. seit 2003. Und spezialisterte Funktionen wie z.B. Hardware En- und Decoding wahrscheinlich ebenso.
Auch die Architektur war noch nie homogen, die Aufteilung in Pixel- und Vertex-Shader gibt es mind. seit GeForce 3.
Nur weil man da jetzt Hardware für Matrizenberechnungen in niedriger Genauigkeit draufpappt macht es nicht wirklich zu einer neuen Klasse oder Art Hardware 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Wilfriede, aid0nex, RAZORLIGHT und 9 andere
So langsam scheinen sich die Wattangaben zu bestätigen was ich schade finde denn mehr Abwärme als meine UV 4090 möchte ich nicht im Raum auch wenn die Effizienz unterm Strich eventuell für 5xxx sprechen wird. Mal schauen was von der Leistung dann auf der Strasse ankommt/bleibt bei gleichem Verbrauch und somit Abwärme bzw. wie weit man runterregeln kann. So wie es aussieht wird da aber eine 4 vorne stehen was mir zuviel wäre.
 
  • Gefällt mir
Reaktionen: BAR86
iron_monkey schrieb:
Man kennt es ja ausm Baumarkt, diese vielen vielen Heizstrahler mit 220W die einem die Füße quasie wegbrennen. /s
Die Wohnung heizt man nicht, aber das Zockerzimmer sehr wohl.
Kann man aber im Sommer die 5000W Klima dazuschalten, für die Umwelt
/S
 
  • Gefällt mir
Reaktionen: Morpheus101
Duman schrieb:
Warum hat die 5060 TI 12 und die 5070 nur 12 GB?
Der 5080 hätte man ruhig 24 GB spendieren können.
Geplante Obsoleszenz!
 
  • Gefällt mir
Reaktionen: Gothic47, Stramma und Öcher Tivoli
Womit für mich schon einmal klar ist das Nvidia keine Grafikkarte in Bezug auf die technischen Daten hat.
Und preislich vermutlich ganz sicher keine !

Bin mal gespann was AMD abliefern wird.
Mit der Verschleierungstaktik ob der neuen Namensgebung glaube ich nicht das der kommende Nachfolger
der 7800XT an Leistung zulegen wird. Aber sicherrlich der Preis, man kann sich ja am Monopolisten orientieren,
gibt ja sonst keine Konkurenz.

Hoffentlich täusche ich mich...... omg, ich träume.
 
Ganz einfach nicht kaufen.

Interessant wird doch eh erst die 5060 ubd 5070...

Enthusiasten nischen wie die 5080 und 5090 finde ich eh uninteressant
 
  • Gefällt mir
Reaktionen: Ralf74
RFB18 schrieb:
Und parallel wird in Baden-Württemberg dazu aufgerufen Strom zu sparen, weil das Netz aktuell nix hergibt.

Was für eine Welt
Du kannst bei Stromknappheit die Karte einfach Rückwärts laufen lassen.
 
  • Gefällt mir
Reaktionen: Bänki0815 und simosh
helge-schneider-nee(1).gif
Zu viel Verbrauch für einen zu kleinen Sprung an power.
Wenn ich eine 4000er haben würde, dann würde ich abwarten auf die 6000er. Da habt ihr mehr von.

Denn Blackwell ist im selben node, nen bissl größer und verschlingt mehr Strom.
 
  • Gefällt mir
Reaktionen: S@uDepp
Cool, wenn irgendwo zu viel Strom verbraucht wird sieht die Polizei das aus dem Hubschrauber heraus mit der Wärmebildkamera. Und dann kommt das SEK.

Das ist der Moment wo man neben neuem Monitor und Netzteil noch eine Klimaanlage einplanen muss. Da ist mir eine "Durchschnittliche Noob Karte" für Strategie/Aufbau, und PS5/Switch(2) für den Rest lieber. ¯\(°_o)/¯
 
  • Gefällt mir
Reaktionen: Kuristina und Solavidos
Cool Master schrieb:
Das kann man nicht mehr Vergleichen. Früher waren es einfach nur eine GPU heute ist das viel mehr als nur GPU. Das sollte auch berücksichtigt werden wenn die Reviews kommen. Man kann eine moderne GPU nicht einfach nur als GPU bezeichnen da die viel mehr können als "Bilder ausgeben".
Naja was heißt früher. Schon die 5800 Ultra wurde für ihren Verbrauch und Lärm belächelt. Aber da reden wir von was, 60w im Spielbetrieb? Das brauchen die Intels fast beim Idlen (übertrieben).Seither haben sich die Grenzen immer mehr verschoben.
Die Frage ist wohin führt die Reise noch?
 
  • Gefällt mir
Reaktionen: Ralf74
Serandi schrieb:
Ich Wette bei meiner extrem sparsamen Nutzung einer 5090 würde diese maximal 300 Watt ziehen. Würde die nicht anders als meine 4090 verwenden: max UV, immer mit DLSS Quality, Raytracing und Pathtracing off, und FPS Limit ✅
Warum schafft man sich so eine Grafikkarte an, wenn man sie anschließend mit angezogener Handbremse betreibt? Dann doch lieber ein, zwei Nummern kleiner kaufen und ein paar tausend Euro sparen.


Der Stromverbrauch ist irre. Ich hoffe einfach nur, dass die Spieler endlich Nvidia übers den Geldbeutel sagen, wie scheiße sie das finden.
 
  • Gefällt mir
Reaktionen: Steinaltkachel, Ralf74, baskervil77 und 3 andere
Ich würde eine 5090 auf 200 Watt begrenzen wenn das gehen würde. Die Leistung musste so auch völlig ausreichend sein.👍
 
pmkrefeld schrieb:
Ich warte nur noch bis die EU einschreitet und den Wahnsinn stoppt. Da nähert sich ein Gaming-PC dann schnell 1kW verbrauch... Das sind ~5 PS5, ~10 Gaming Laptops oder 60 SteamDecks.... Und sepbst wenn der Stromverbrauch irrelevant wäre... wer würde schon freiwillig dauerhaft einen Heizlüfter bei sich aufstellen? Und wie bei den CPUs liefert die GPU wahrscheinlich 80% der Leistung bei halbiertem Verbrauch... so macht das kein Spaß.
Ich finde ja wirklich schade bis sogar , dass man in einer Zeit wo es keine Konkurrenz gibt den Verbrauch steigert, statt senkt.
Siehe oben: der Sweet Spot der 450 Watt 4090 waren handgetunte 300.
Man hätte die Karte sicher auch mit 300 Watt bringen können. Beeindruckend wohl nicht, aber Konkurrenz ist keine da, und wenn doch eine ums Eck biegt hätte man immer noch eine 600 W Titan nachschieben konnen
 
  • Gefällt mir
Reaktionen: Ralf74, Solavidos und pmkrefeld
@Experte18
Noch so einer. Warum überhaupt eine 5090 kaufen, wenn man sie dann auf 5070-Niveau (oder so) laufen lässt?
 
  • Gefällt mir
Reaktionen: Wilfriede, Bylar, ST18 und 11 andere
zeedy schrieb:
Kriegt man sie überhaupt mit einem 2 kg Kühlkörper leise luftgekühlt? Knapp 600W ist doch einfach absurd. Für mich hört der Spass bei 300W wirklich auf.
Ja geht...
Meine 7900XTX zieht auch knapp 400W aus der Steckdose, aber da die Asus Tuf Gaming einen extrem großen Kühler hat (so wie die 4090) ist die beim Zocken gar nicht zu hören. (leiseste Karte die ich je hatte!)
Habe aber auch ein Phanteks NV7 Gehäuse mit mehr Lüftern als der Gotthard Tunnel in der Schweiz hat 😜
 
  • Gefällt mir
Reaktionen: Gothic47 und Solavidos
Sun-Berg schrieb:
Einfach die die FPS auf um die 120FPS begrenzen und DLSS/FSR Quality nutzen, dann muss die GPU in den allermeisten Fällen gar nicht die maximale Leistung bringen. Also kein Stress.
Also könnte man sich ja auch gleich einfach eine etwas schlechtere Karte holen und diese halt auf 100% laufen lassen, um nicht unnötig Geld rauszuschmeißen?
 
  • Gefällt mir
Reaktionen: eXe777, Obvision, Zarlak und eine weitere Person
Zurück
Oben