News GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen

Sehe das Problem weniger. Die Effizienz sollte dank 5nm deutlich steigen. Insbesondere Notebooks sollten anders als bei Ampere massiv an Leistung gewinnen.

Klar sehen wir 400W aber das liegt daran dass AMD Konkurrenzfähig ist und beide Unternehmen mit der Brechstange die Leistungskrone wollen und teilweise auch weit über den Sweetspot hinaus gehen. In den Klassen darunter sollte es besser aussehen.

Jeder kann ja selbst von 400W-450W die TDP auf 300-350 reduzieren und verliert dabei vermutlich nur 10-15% Leistung. Auch wer gedacht hätte RTX3090 Leistung gibt es jetzt mit 150W muss wohl aufhören zu träumen. 200W-225W werden es selbst auf TSMC N5 noch locker sein.
 
  • Gefällt mir
Reaktionen: Smartbomb und laxus222
@syfsyn mal sehen was davon letztlich Realität wird. Da können wir nach dem Release hier nochmal schauen :D

Soweit so logisch ^^
 
  • Gefällt mir
Reaktionen: laxus222
syfsyn schrieb:
So tsmc 5bnm hat
80% mögliche Verkleinerung
30% mehr energie Einsparung oder 15-25% mehr performance (sprich takt).


bedeutet 80% chipfläche ist aufgrund der wärmedichte keine gute idee das umzusetzen
ich gehen von 50% flächenreduktion aus
Die Fläche skaliert eh schlechter da SRAM und Analog nur 10-20% kleiner werden. Nur Logik profitiert wirklich - Und dass sind wie Du schon sagst die maximalen Theoretischen werte die oft bei HPC nicht zur Anwendung kommen.
 
Laphonso schrieb:
Ich erkenne eher, dass hier alle Opfer der Debatte geworden sind, welche unseren Einfluss und den der worldwirde pollution null mehr differenziert.
Siehe oben 100 Unternehmen produzieren 71% des Mülls, sinnbildlich.
Aber ja, lass uns jeden CPU und GPU thread offtopic zuballern mit Ökolokiedebatten und unsere 0,00000001 % Einfluss.
Ich kaufe weiterhin meine Systeme nach Immersion + Performance und bin mit der Abgeltung über die Stromverbrauchspreise völlig einverstanden. Dann bezahlt jeder für das, was sie/er verbraucht.
Ergänzung ()


Deine Ad hominem Attacke werde ich reporten. Ich habe 2 Systeme zu Hause. Privat + Job.
Deine Ignoranz gibt Dir nicht das recht, hier polemisch zu attackieren.
Genau das ist das Problem. Erkennst du nicht, was passiert, wenn "alle" so denken würden wie du? Bzw. tut es der Großteil ja leider.
 
  • Gefällt mir
Reaktionen: Beg1
Klever schrieb:
Der Stromverbrauch steigt. Wenn eine 4090 Ref mit 400 Watt nicht auskommen sollte, wird eine Custom 500-550 Watt brauchen falls diese Leaks stimmen sollten, und das dauerhaft. Kurzfristige Power Spikes werden höher liegen, betragen die doch schon jetzt bei einer 3080 490 Watt innerhalb 1 ms.
Je nachdem - Evtl. geht Nvidia ab Werk ans Limit um ja nicht die Leistungskrone zu verlieren und testet das aktuell...

Schon bei Ampere was ja kaum noch Luft zum Übertakten da Nvidia nahezu alles ausgereizt hat. 100W mehr für 5% bringen dann auch nicht mehr.
 
8087 schrieb:
Kein Bock mehr.

Ich lass meine alte 2070S weiter auf 105 Watt laufen. Was damit nicht läuft, spiele ich nicht.

400 Watt für die GPU? Mal an die Umwelt gedacht?
Dass die Karten weit überm Sweetspot betrieben werden was Takt und TDP angeht sieht man ja im Vergleich zu den Mobilen Karten die nur mit der Hälfte der TDP auch 60-70% der Leistung bringen.

Finde es übertrieben wegen 5% teilweise 50-100 Watt mehr zu verbrauchen nur um im Benchmark den Längeren zu haben...
 
  • Gefällt mir
Reaktionen: Smartbomb, schneeland, Beg1 und 2 andere
Laphonso schrieb:
Ja! 60 fps in Cyberpunk Ultra/Psycho inkl. Raytracing ballern komplett anders als 60 fps in Overwatch Epic Settings, welche dieselbe GPU ggf. mit 1/3 Aufnahme fahren kann.
Ich glaube die frage war mehr gemeint:
macht es einen unterschied ob man den fps limiter auf 60 zu setzt oder das powerlimit so weit runter setzt, dass nur noch 60 fps raus kommen.
Im groben sollte es kein unterschied machen, weil hinten 60fps bei einem bruchteil des maximal verbrauchst herauskommen.

mMn ist aber der limiter sinnvoller, da die karte in anspruchsvollen szenen mehr verbrauchen kann um die fps zu halten, während die powelimit karte dann einfach weniger bilder ausgibt^^
 
  • Gefällt mir
Reaktionen: Smartbomb, McFritte, Beg1 und 3 andere
estros schrieb:
Ich find gut, dass heutige GPUs so viel Power haben. Die Anforderungen sind dank Auflösung, Bildrate und RT so hoch, das muss gestillt werden, wenn wir ein sichtbar realistischeres Bild erhalten wollen.

Genau dafür gibt es DLSS bzw. FSR. :) Ich denke nur damit wird es möglich werden wirklich ernsthaft über 4K zu kommen. Wenn sich FSR wirklich durchsetzt und in jedem Spiel nutzbar wird wäre das der Hammer :)
 
MasterAK schrieb:
Meine RX6900XT läuft mit max. 2,25GHz und damit mit max. 220Watt Verbrauch. Wenn AMD und Nvidia den Stromverbrauch massiv steigern, dann werde ich auf die kleineren Modelle umschwenken. 400Watt ist mir zuviel.
Ich würde immer den Vollausbau des nächstkleineren Chips nach dem Top-Modell empfehlen und den dann zur not etwas einbremsen.

  • Das Preis-Leistung Verhältnis ist gut und man hat trotzdem eine Steigerung zur letzten Generation
  • Die Karten werden in höheren Stückzahlen umgesetzt und sollten weniger Probleme haben bzw. schneller neuere Revisionen in den Regalen
  • Haben oft die Kühler der größten Karten bei weniger Leistung und laufen daher recht angenehm.
 
  • Gefällt mir
Reaktionen: Smartbomb, Beg1, Cohen und eine weitere Person
Also wenn man beim Zocken irgendwann 500 Watt braucht, wechsel ich auf Custom-Wasserkühlung und stell mir den Radiator nach draußen ans Fenster. Wenn man keine Klimaanlage hat und ggf. sogar unterm Dach wohnt, wird Zocken im Sommer sonst doch vollkommen unerträglich.
 
  • Gefällt mir
Reaktionen: Cool Master
Also technisch werden die neuen GPUs sicher interessant werden, aber ich glaube ich kaufe lieber ein oder zwei Stufen darunter. Der Verbrauch und die Preise gehen ja doch ganz schön nach oben in letzter Zeit. MFG Piet
 
Phoenixxl schrieb:
Diese Verbräuche sind schon kurios.
Ich werde nicht der einzige sein, der von Hand ein Powerlimit weit unter den Möglichkeiten setzt.
Bei Gothic 3 habe ich meine 1080 ti z.B. auf 60% gesetzt...

Das Spulenrasseln wird sicherlich auch nicht besser...
Ich habe immer einen Framelimiter drin. Weitaus bessere Temperaturen, immer Ruhe, weniger Verbrauch. Und ich vermisse nichts.
 
PietVanOwl schrieb:
aber ich glaube ich kaufe lieber ein oder zwei Stufen darunter.

Oder einfach bei der alten bleiben :) 1080 Ti ist ja noch durchaus gut unterwegs. Ich denke meine 2070 langt mir auch noch locker min. 2-3 Jahre.
 
Cool Master schrieb:
Oder einfach bei der alten bleiben :)
Ja wäre auch eine Option, aber der 2. PC braucht auch mal langsam eine neue Karte (390X). Da komme ich am besten wenn ich eine neue Graka für den 1. PC hole und die Ti an den 2. weiter reiche. Ging die letzten Jahre so ganz gut. :) MFG Piet
 
  • Gefällt mir
Reaktionen: Cool Master
GHad schrieb:
Stimmt. perfekte Lösung... Einfach zum 1kw PC noch ne 2kw Klimaanlage dazu... Hitzeprobleme im Sommer gelöst!
Klingt wie Satire, aber ist tatsächlich die Lösung.
Bei solch extremer Enthusiast Hardware hat man ein enormes Hitzeproblem. Meist auch Lautstärke, wenn es noch mit Luft gekühlt werden soll. Im Hochsommer ist das richtig eklig.
Wir brauchen im Sommer selbst bei normalen Bürorechnern die Klima, hält man sonst einfach nicht aus. Selbst die strahlen viel Wärme ab.
Für mich ist das der Hauptgrund warum ich das nicht mache mit diesen 400 Watt Karten. Den Strom wird sich jeder leisten können der auch das Budget dieser Karten aufbringt, aber die anderen Nachteile sind mir zu heftig. Mit Wakü kann man das teils noch abfedern, aber die verliert auch schnell an Leistung bei hoher Außentemperatur.
 
Phoenixxl schrieb:
Diese Verbräuche sind schon kurios.
Ich werde nicht der einzige sein, der von Hand ein Powerlimit weit unter den Möglichkeiten setzt.
Bei Gothic 3 habe ich meine 1080 ti z.B. auf 60% gesetzt...
Warum sollte man das über das Powerlimit regeln?

Einfach die gewünschten maximalen fps im Grafiktreiber einstellen (z. B. 60 fps, 80 fps, 100 fps, 120 fps,... je nach Vorlieben und Genre). Dann laufen ältere Spiele wie Gothic 3 relativ stromsparend (je 30 - 50 Watt für CPU und GPU).... und Spulenfiepen gibt es bei den meisten Grafikkarten erst ab mehreren hundert fps, wenn man die Spiele ungebremst laufen lässt.

Gothic 3 Screenshot Teilausschnitt.png
 
Skidrow1988 schrieb:
@gartenriese
Meine nächste wird eine 6600er.... Die liegt bei 160 Watt. Ich komme mit den kleineren Karten problemlos aus.
Die kleineren Nvidia-Karten werden aber auch entsprechend wenig verbrauchen. Ich verstehe grad nicht, wieso du da zwischen AMD und Nvidia einen Unterschied machst.
 
Zurück
Oben