News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

Pisaro schrieb:
Bei einer RTX 5090 definitiv, sollte der Verbrauch stimmen. Die RTX 5080, wenn diese wirklich "nur" 360 Watt zieht, geht dann locker mit einem 650 Watt Netzteil.
Sag das mal nicht zu laut mein Lieber. Sollte die RTX 5080 genauso Spannungsspitzen erzeugen wie damals die 3080/3090 und man nicht mindestens ein ATX 3.0 Netzteil hat, dann wäre ich mit 650W vorsichtig!
Okay, die aktuelle 4080(S) haben aber das Problem nicht, hoffen wird das dies bei der 5xxx Generation auch so ist...mich betrifft das sowieso nicht da ich ein Klasse Netzteil habe und die 5xxx Serie mal komplett auslassen werde, bin in Sachen Grafikpower immer noch sehr gut bedient!
 
Stanzlinger schrieb:
Weil eine 5070 vielleicht 1-2 Jahre reicht und dann ersetzt werden muss. Die 5090 hält locker 5-6 Jahre. Muss ich nun alle 1-2 Jahre neue Karte kaufen, dann zahl ich auch mehr wie 2000€...Außerdem haben ist besser als brauchen
Das mag sein. Aber sorry wenn mir jemand erzählt er kauft sich ne 4090/5090 um sie dann bis an die Kotzgrenze zu undervolten um danach mit DLSS und OHNE RT/PT seine Spiele zu spielen..... ne verstehe ich immer noch nicht :freak:
 
  • Gefällt mir
Reaktionen: Fyrex
Loomes schrieb:
Schlechter Vergleich oder? Ein schickes Auto kauft man sich weil es einem dann optisch zusagt, nicht um damit rumzurasen.
Bei einem Stück Platine sieht das hingegen anders aus. Warum kaufst du dir ne 4090 wenn du sie dann so stark einbremst? Um 20€ Strom zu sparen im Jahr? Aber ne Grafikkarte für 2000€ kaufen? Diese Ideologie verstehe ich leider nicht.
Habe ich bereits erklärt warum. Kannst du finden und lesen.
 
  • Gefällt mir
Reaktionen: Loomes
Pisaro schrieb:
Was hat das damit zu tun?
Viel. Wenn ich eine ordentliche Beleuchtung und Schattierung will, die bei anderen Strategiespielen hingefakte Mangelware ist, muss ich halt damit rechnen, dass Einsteigerkarten das nicht mehr auf ultra packen, vor allem nicht ab einer gewissen Komplexität und Geometrietiefe, Objekten, Distrikten usw.
Die Entwickler hätten auch die höchste Qualitätstufe (Schatten, GI) weglassen können, dann wären alle fein damit gewesen und hätten gesagt: Wow läuft das toll. :cheerlead:
Cities Skylines läuft auf einer modifizierten Unity 5 Auskopplung mit deren "realtime GI", die ist halt optisch schwächer und auch von der Performance nicht gerade das gelbe vom Ei, aber auf die Probleme stößt man einfach, wenn man riesige Welten erschaffen will, nur mal so als Reminder: Frostpunk 2 läuft auf maximalen Einstellungen mit höheren FPS als damals Anno 1800.
Pisaro schrieb:
Das ergibt jetzt irgendwie gar keinen Sinn. Muss es ein besser aussehendes Strategiespiel geben um so sagen das die FPS bei Frostpunk 2 für diese Optik nicht passen?
Ja, sollte es, damit die in den Raum geworfene These irgend eine Grundlage hätte, aber die gibts nicht.
Das ist nichts anderes als Mimimi.
Pisaro schrieb:
Es muss doch kein besser aussehendes Spiel geben um zu sagen Spiel XY läuft für die Optik nicht wirklich gut.
Das ist ja dann nur ein Gefühl. Tatsache ist nunmal, dass je größer die Stadt wird und desto mehr Gebäude in die Eiswelt gesetzt werden, die Anforderungen bei maximalen Settings an die globale Beleuchtung steigen.
Ob ein Spiel gut läuft oder nicht, siehst du auch eher an der Skalierung mit niedrigeren Settings, anstatt auf max. zu beharren. Was ist da eigentlich die letzten Jahre so passiert, dass man sich an max Settings aufhängt?

Wenn es nach mir ginge, dann sollte man optional alles bieten, was die Engine hergibt und richtige Ultra Settings nicht verstecken.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Taxxor
Bei der 4090 für 1300€ hab ich noch mitgemacht (Danke Galaxus und Shoop) aber über 2000€ werde ich sicher nicht ausgeben... dann bleibt die 4090 halt bis 2030.
 
Ich freue mich schon darauf, eine neue Workstation mit zwei RTX 5090 zu bauen. Letztes Jahr haben wir eine mit zwei RTX 4090 gebaut, die mit einer 600-W-TDP laufen und nie über 70°C erreichen (die Lüfter im Gehäuse, an der CPU und GPU laufen immer auf 100 %, da die Workstation nicht im Office steht).

Ich glaube, die RTX 5090 und RTX 4090 sind weniger auf Gamer ausgerichtet und eher für semi- oder professionelle Anwender gedacht. Ich kann mir gut vorstellen, dass ein Teil der Entscheidung, warum alle Nvidia-GPUs unterhalb der RTX 4090 so wenig VRAM haben, darin liegt, dass professionelle Anwender gezwungen werden, die teureren Quadro-Karten zu kaufen und somit deutlich mehr Geld auszugeben. Viele Anwendungen im Bereich “Number Crunching” benötigen nicht mehr als 20 GB VRAM und keine professionellen Treiber. Das funktioniert mit der RTX 4090 gerade noch, aber die RTX 4080 fällt da schon raus.

Es wäre interessant zu sehen, wie viele RTX 4090 an Gamer und wie viele in professionelle Umfelder verkauft wurden. Hat jemand dazu Zahlen?
 
  • Gefällt mir
Reaktionen: unich
Loomes schrieb:
Das mag sein. Aber sorry wenn mir jemand erzählt er kauft sich ne 4090/5090 um sie dann bis an die Kotzgrenze zu undervolten um danach mit DLSS und OHNE RT/PT seine Spiele zu spielen..... ne verstehe ich immer noch nicht :freak:
Ist doch easy...er hat dann jetzt mehr Leistung als er braucht - kann daher die Leistung beschränken und sparen. Warum 400fp, wenn 60 aktuell auchreichen? Wenn du eine neue Karte kaufen musst, weil du mit deiner 5070 nur 60 Fps schaffst, wegen fehlender Leistung, dann erhöht der 5090er User nur die Wattzahl, wenn ein neues Spiel kommt. Das ist billiger als eine neue Karte kaufen. Und wenn er das 2-3x so macht, steht er finanziell besser da. Gut für die Umwelt ist es auch, da er weniger kaufen muss.
 
  • Gefällt mir
Reaktionen: Serandi
Die TDP der 5090 müsste theoretisch doppelt so hoch sein wie der 5080 von den Shadern und CUs gerechnet.Oder irgendwie ist die 5080 merkwürdig ineffizient.
 
Ach, bei der 4090 wurde doch auch 600W angegeben und Panik brach aus. Am Ende wurden die 600W nur mit extremen OC erreicht.
Im Stock war bei 455W schon Schluß.
Mit (144fps) frame Limiter war man schon unter 400W
mit etwas Undervolting war man dann bei unter 300W.
Wird bei der 5080/5090 auch nicht viel anders, wenn nicht sogar noch effizienter.
 
  • Gefällt mir
Reaktionen: Serandi, Celinna und lazsniper
Mal sehen, ob sich der unrühmliche Trend im Grafikkartenmarkt fortsetzt und die RTX 5090 zum neuen Bestseller wird. Die Wahrscheinlichkeit dafür ist leider hoch... Denn viele dystopische Menschen von heute geben Unmengen an Geld für teure Technikprodukte aller Art aus und meckern im Gegenzug über gestiegene Lebensmittelpreise im Supermarkt. Diese Leute sind keine echten Enthusiasten, sondern nur oberflächliche Typen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fyrex
Simanova schrieb:
TDP hat erstmal nichts mit dem Verbauch zu tun - von daher ist die Computerbase News schon relevant. TDP kennzeichnet die Dimensionierung des Kühlsystems,
richtig, heißt ja nicht automatisch dass die karte sobald man ein spiel startet 600 watt aus dem netzteil saugt.

mit etwas UV sollte die karte sogar effizienter sein als die 4090.

denke im schnitt mit 350 watt sollte man gut hinkommen, also keine aufregung wert.
Ergänzung ()

Millennial_24K schrieb:
Dystopische Menschen
was es alles gibt!
 
Stanzlinger schrieb:
Weil eine 5070 vielleicht 1-2 Jahre reicht und dann ersetzt werden muss. Die 5090 hält locker 5-6 Jahre. Muss ich nun alle 1-2 Jahre neue Karte kaufen, dann zahl ich auch mehr wie 2000€...Außerdem haben ist besser als brauchen
Mein Eindruck ist eher der, dass die 5090 Käufer sehr viel eher wieder was Neues kaufen. Weil sie eben immer das Beste vom Besten haben wollen. Der 5070 Käufer dagegen ist eher bereit Kompromisse ein zu gehen und stellt lieber an den Reglern als gleich ne neue Karte zu kaufen.

Außerdem kann man ja in beiden Fällen die alte Karte verkaufen. Billiger kommst du nicht mit der 5090 nicht bei weg.
 
  • Gefällt mir
Reaktionen: legenddiaz und Fyrex
Die 575W sind doch bedeutungslos. Der User und die gewählten Einstellungen bestimmen die Leistungsaufnahme. Eine 5090 ermöglicht nur den Balken so weit nach rechts schieben zu können wie bei keiner anderen GPU bevor es unspielbar wird. Am Ende wird eine 5070 bei identischen Einstellungen und FPS keinen spürbaren Vorteil haben was den "Verbrauch" betrifft.
 
Allen quatsch kann die EU regulieren. Den Stromverbauch von Hardwarekomponenten zu deckeln wären mal Sinnvoll...
 
  • Gefällt mir
Reaktionen: ArrakisSand
Pisaro schrieb:
Bei einer RTX 5090 definitiv, sollte der Verbrauch stimmen. Die RTX 5080, wenn diese wirklich "nur" 360 Watt zieht, geht dann locker mit einem 650 Watt Netzteil.

Das hinge dann noch von der CPU ab...
 
TheChosenOne schrieb:
Allen quatsch kann die EU regulieren. Den Stromverbauch von Hardwarekomponenten zu deckeln wären mal Sinnvoll...
Doppelte Leistung kann man aber nicht erwarten, wenn das Limit bei 200W liegt. Das wäre also erstmal ein Rückschritt. Der Import würde blühen und wenn eine Begrenzung per Software erfolgt, wäre die mit einer neuen Firmware auch passe. Daher kein Limit und alles ist fein. Mit Solaranlage kann mir der Verbrauch sogar egal sein und bin sogar umweltfreundlich.

Und wenn die Leistung nicht reicht, dann kauft man eine weitere Karte und der Verbrauch würde sich nach DEINEM Vorschlag LEGAL verdoppeln. Was hast du da gewonnen? Beschränken auf eine Karte je Haushalt?
 
Zuletzt bearbeitet:
Millennial_24K schrieb:
Mal sehen, ob sich der unrühmliche Trend im Grafikkartenmarkt fortsetzt und die RTX 5090 zum neuen Bestseller wird. Die Wahrscheinlichkeit dafür ist leider hoch...
Warum denn leider? Wenn die Leistung stimmt und die Nutzer bereit sind den Preis zu zahlen gilt das für jede Leistungsklasse. In diesem und letzten Nvidia Blackwell Thread hagelt es zu ~ 60-70% negative Kommentare, während es in den letzten beiden Radeon Threads gerade mal ~ 5% sind. Nvidia scheint die Kritik geradezu magisch anzuziehen, aber wieso eigentlich? Habe ich bisher noch nicht ganz durchblickt.
Millennial_24K schrieb:
Denn viele dystopische Menschen von heute geben Unmengen an Geld für teure Technikprodukte aller Art aus und meckern im Gegenzug über gestiegene Lebensmittelpreise im Supermarkt.
Im Supermarkt lasse ich monatlich für die ganze Family auch 500-600 Euro, das waren vor etwa 4 Jahren nur 200-300. Service und neue Bremsscheiben fürs Auto kosteten 2000 Euro. Da muss man nicht dystopisch sein, sondern ganz normal leben, wenn man alle paar Jahre eine neue GPU fürs Privatsystem kauft.
Millennial_24K schrieb:
Diese Leute sind keine echten Enthusiasten, sondern nur oberflächliche Typen.
Oberflächlicher wie du kann man andere Menschen ja auch nicht bewerten.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Laphonso
Quidproquo77 schrieb:
In diesem und letzten Nvidia Blackwell Thread hagelt es zu ~ 60-70% negative Kommentare, während es in den letzten beiden Radeon Threads gerade mal ~ 5% sind. Nvidia scheint die Kritik geradezu magisch anzuziehen, aber wieso eigentlich?

NVidia dreht die Wassertemperatur zu schnell hoch - etliche Frösche fühlen sich unwohl und quaken noch.
 
  • Gefällt mir
Reaktionen: raychan und Biochem97
  • Gefällt mir
Reaktionen: Quidproquo77 und ElliotAlderson
Pisaro schrieb:
Kannst auch Cities Skylines 2 nehmen, da ist das Verhältnis sogar noch schlimmer.
Oder Manor Lords. Ist ein gutes Beispiel....

Ging ja mit eigener Engine erst "online" bei Release. Sah bombastisch aus und lief gut. Da hatte meine 7900 XT im 60 FPS Limit so ungefähr 150-180W gezogen.

Dann haben sie auf UE5 umgestellt. Spiel sieht imho noch immer gleich aus. Bis auf den Schattenwurf der Wolken vielleicht.

Aber meine Graka zieht nun bei gleichen Settings 100-120W mehr. Für nix.
 
  • Gefällt mir
Reaktionen: Pisaro
Zurück
Oben