News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

Ranayna schrieb:
Wenn man jetzt wirklich an einem Punkt in der Entwicklung angekommen ist, an dem sich mehr Leistung nur durch mehr Stromverbrauch erreichen laesst, muss auf mehreren Ebenen ein Umdenken stattfinden.

Dir ist schon klar, dass die GPU Beschleuniger der ersten Generationen alle so um die 10 Watt verbrauchten?

Die Frage muss sein, wann man aufhören möchte und "genug" genug ist. Schon immer wurde mehr Leistung durch mehr Stromverbrauch erzielt und die verbesserte Fertigung konnte diesen Effekt verlangsamen. Schon immer wurde aber eine verbesserte Fertigung mit mehr Leistung verkauft, was den Stromverbrauch erhöhte.

Evtl. kommen wir irgend wann auf bei Halbleitern an einen Punkt, dass neue Produkte bei gleicher Leistung gekauft werden, weil sie weniger verbrauchen. Glühbirnen sind z.b. ein Beispiel.

Bei Halbleitern ist dieser Punkt aber noch lange nicht erreicht.

btt:

Wenn man die Angaben in ein vernünftiges Licht setzt, kommen die kleinen großen Karten mit maximal 450 Watt, die 4080Ti mit maximal 650 Watt und die 4090 mit maximal 850 Watt.

Weniger ist immer möglich.

mfg
 
Die Karten werden sicherlich ihr Anwendungsgebiet haben.
Aber wer davon ausgeht dass diese Karten ausschließlich für den heimischen PC zum Zocken bestimmt sind, dem ist nicht zu helfen.
Selbst die jetzigen "High End Karten" sind völlig überdimensioniert und stehen in keiner Relation zu dem was wirklich benötigt wird.
 
Jetzt schreiben wieder alle dass sie das nicht mit machen... am Ende des Tages wollen dann doch wieder alle eine haben. Wenn doch alle mal so konsequent bleiben würden.
 
  • Gefällt mir
Reaktionen: dohderbert, Pro_Bro, Vitec und 2 andere
niemand redet drüber dass es doch NV Tradition ist, nach einer guten GPUgeneration immer eine beschissene folgen zu lassen. Ist doch klar dass die erstmal ineffizient sein muss :D
 
Gleich mal meinen Vermieter anrufen...ich brauche eine, oder für die Zukunft schon, mehrere Drehstromsteckdosen im Wohnzimmer
 
  • Gefällt mir
Reaktionen: McTheRipper, edenjung, Colindo und eine weitere Person
Selbst wenn Strom umsonst und die Karten einen guten Preis hätten sind solche Karten nicht jedermanns Sache.
Das Gerücht dürfte/könnte auch dazu dienen die aktuellen Karten auf dem hohen preislichen Niveau zu halten.

Letztendlich entscheidet der Konsument durch sein Konsumverhalten welche Produkte angeboten werden. Die Industrie ist sich nicht zu schade Alles anzubieten wonach der Markt verlangt sei es noch so absurd.
 
Völliger Wahnsinn. Was das mittlerweile für Ausmaße annimmt...

Zur Not wird halt von Hand der Takt und die Core Voltage etwas reduziert um den Stromverbrauch wieder in vernünftige Bahnen zu lenken. So sollte auch die Effizienz wieder steigen.
 
Verständlich ist, dass die Entwickler der GPUs das Maximum rausholen wollen. Und mit PCIe 5.0 steht ja deutlich mehr Power zur Verfügung.
Spannend wird es wirklich, was dann auch die Grafikkarten kosten werden. Vermutlich hohe Anschaffungskosten teffen dann auf hohe Betriebskosten. Da wird sich aber dann vielleicht doch der ein oder andere Nutzer am Ende des Jahres umgucken. Sollten sie ein Topmodell bringen, was dieses voll ausreizt, ok, aber die anderen Karten sollten doch bitte im Rahmen bleiben. Sonst muss man eben ernüchtert feststellen, dass man eben technisch doch noch nicht so weit ist.
Ich persönlich würde mich über eine Leistung einer 3090 (ti) bei der 4070 freuen, am besten bei gleichem Stromverbrauch. Ansonsten mal schauen, was AMD dann so zaubert.
Ich persönlich stelle mir auch die Frage, ob es Sinn machen würde die zukünftigen Grafikkarten in ein aktuelles System zu packen oder ob es wirklich erst mit einem Komplettwechsel Sinn macht.
 
Wow, das ist mal ne Ansage.
So weit gehe ich nicht mit.

Bin ich froh das ich meine RTX 3080Ti @1800 Mhz bei 280-300 Watt betreiben kann.
 
Also wenn die Leaks stimmen, dass es bis zu 850 Watt und eine um 2,5x höhere Performance von 3090 zu 4090gibt, dann wäre quasi der Leak mit dem monolithischen Aufbau falsch. Bei Multichip-Design würde das wiederum sehr viel Sinn machen.
 
Anonymous schrieb:
Selbst die jetzigen "High End Karten" sind völlig überdimensioniert und stehen in keiner Relation zu dem was wirklich benötigt wird.
Achso, dann kannst du mir auch erklären warum mein 5950X in Verbindung mit der 3090, viel zu Langsam ist für Natives 4K Gaming in Maximalen Settings??

Und sag bitte nicht, brauch kein Mensch - das kann ja jeder selber für sich entscheiden was er am PC für Details usw. haben möchte ;)
 
  • Gefällt mir
Reaktionen: Pisaro und MeisterOek
Anonymous schrieb:
Aber wer davon ausgeht dass diese Karten ausschließlich für den heimischen PC zum Zocken bestimmt sind, dem ist nicht zu helfen.
Selbst die jetzigen "High End Karten" sind völlig überdimensioniert und stehen in keiner Relation zu dem was wirklich benötigt wird.
GeForce sind Nvidias Gaming-Karten. Für den professionellen Einsatz gibt es Quadro. Die sind also gewiss zum Zocken bestimmt.

Die jetzigen High-End-Karten sind auch sehr weit weg von überdimensioniert.
 
  • Gefällt mir
Reaktionen: XPS
Also anstatt die Effizienz zu erhöhen, erhöhen sie einfach die Stromzufuhr.
Ist ein wenig wie beim Intel 9900k
 
Kauf dir ein 750W Netzteil, haben sie gesagt. Damit wird man mit einem Single-GPU-System niemals Probleme bekommen, haben sie gesagt.
 
  • Gefällt mir
Reaktionen: mazO!, Alphanerd, RD500YPVS und 3 andere
edenjung schrieb:
Ich möchte nur Mal daran erinnern, dass der A100 von Nvidia nur 250W verbraucht. Mit 40gb RAM usw.

Effizienz geht auch bei riesigen Chips.
Man muss es nur wollen.
Ja, aber die GPU hat auch nur knapp 7k Shader, keine Tensor cores, kein RT und keine Direct X Schnittstelle.


Ich verstehe nicht wieso Leute hier so verwundert sind, ne 3080 bzw. 3090 kriegt man auch auf einen verbrauch von 450-500Watt und wenn man jetzt noch die 80% mehr Shader dazu rechnet die Lovelace haben soll dann denke ich ist die 650-750Watt Range garnicht mal so unlogisch.

Kann mir immer nur wieder auf die Schulter klopfen das ich eine 3080 behalten hab, der zukünftige Markt wird übel !

Die Preise für den Vollausbau werden jenseits von gut und böse sein, da bin ich fest von überzeugt. Selbst die Mittelklasse wird nicht billig werden, daghegen sehen manche heutige preise aus wie top deals.
 
Herdware schrieb:
Bei aller Liebe für die Umwelt, wären das und der Strompreis nicht mal die größten Bedenken.
Man spielt ja nicht 24/7 und wenn, dann befindet sich der Gaming-PC meist nur im Teillastbereich. Da gibt es sicher in jedem Haushalt viel schlimmere Stromfresser.

... Das zieht einen ganzen Rattenschwanz der Unvernunft nach sich.

Diese Überdimensionierung und dann eben der "Rattenschwanz" das neue Anschaffen von Netzteilen etc... würde schon eine Rolle spielen, wenn viele es machen. Daher ist es sinnvoll, etwas argumentativ gegenzusteuern. Und: Ein Highend-PC heute verbraucht beim Spielen vielleicht 550 Watt im Durchschnitt, einer mit einer 850W-Grafikkarte vielleicht 800 Watt. Das sind 250 Watt mehr, und wenn man alleine an Wochenenden 4 Stunden spielt ist schon das nicht nichts...
 
Zuletzt bearbeitet:
conaly schrieb:
sind wir beim aktuellen Strompreis jenseits der 400€ im Jahr allein für den PC-Betrieb.
Ich finde es zwar auch verrückt, aber ca. 1,1€ Stromkosten für 4h Lieblingshobby pro Tag, das ist für sehr viele Leute immer noch nicht wirklich viel. Drei Zigaretten oder ein Filterkaffe-to-go aus einen Kiosk.
Oder man setzt sich ins Auto und fährt 3km, dann ist man auch einen Euro los.

Für mich als Wochendteilzeitzocker wären die Stromkosten kein Thema, allerdings die Abwärme um so mehr, weil mein PC in einem Schrank steht und ich da nicht noch mehr Lüftungslöcher reinbohren kann.
 
Wenn die Rechnung von AMD und ihrem Multichip-Design aufgeht, dann sehe ich auch die ganz vorne.
 
  • Gefällt mir
Reaktionen: Colindo
Gibts denn aktuell überhaupt Modelle bzw. Kühler von Grafikkarten die nutzerfreundlich >500W kühlen können?
Nutzerfreundlich = noch halbwegs leise und kein riesiger 2kg 4-Slot Backstein.
Wünschenswert wäre natürlich auch, dass sich die Komponenten der Karte in einem vertretbaren Temperaturbereich aufhalten und nicht hart bei 90-100° throttlen.
Also ohne AIO zur Hilfe kann ich mir das eigentlich nicht vorstellen.

Der letzte Brecher dieser Art war damals die 295X2 mit tatsächlich 500W TDP, aber hatte eben auch eine AIO zur Hilfe.
Und obwohl Nvidia mit den FEs in dieser Generation wirklich herausragende Ref-Designs rausgebracht hat, bezweifel ich irgendwie, dass sie nochmal einen drauf setzen können um so viel Watt leise zu kühlen.
 
Zurück
Oben