News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

TenDance schrieb:
Sorry, aber die Milchmädchenrechnung stimmt nicht.
Komisch, ich habe gar keine Berechnung angestellt. Wenn 80% mehr Ausführungseinheiten 50% Stromersparnis wegen dem Prozess gegenüber stehen, wird ein Chip mehr verbrauchen. Ich habe nie gesagt, wieviel. Schon gar nicht, dass es 850 Watt sein werden. Ich habe auch nicht behauptet, der Chip würde ineffizienter.
Alles, was ich gesagt habe, ist, dass die nächste Generation aufgrund ihrer stark erhöhten Rechenleistung, die für zukünftiges RT auch notwendig sein wird, mehr Strom als die aktuelle Gen brauchen wird.

Dafür braucht es keine "Milchmädchenrechnung". Ich bin jetzt nicht fleißig genug, um das genau mit Quellen zu belegen, doch ich bin sicher, dass wir einen derartig hohen Zuwachs an Recheneinheiten schon lange nicht mehr gesehen haben. Das das die Ersparnisse durch den neuen Prozess auffressen wird, ist logisch. Aber wir können das ja nach ersten Tests weiterdiskutieren.

Du glaubst das eine, ich das andere. Der Release wird zeigen, wer recht behält.

TenDance schrieb:
Und was für ein "drumherum"?
Ich kenne mich da nicht so genau aus, zugegeben. Aber es ist ja wohl so, dass ein Cuda-Core oder ein Cluster von Cuda-Cores nicht für sich alleine darsteht, sondern dass es "drumherum" noch eine ganze Latte an anderen Transitoren gibt, die benötigt werden, damit die Cuda-Cores so funktionieren, wie sie sollen. Du kannst mir gerne ganau erklären, wie das organisiert ist, wenn Du das Wissen hast. Ich habe es nicht, und deswegen spreche ich vom "drumherum". Es steigt also nicht nur die Anzahl der Recheneinheiten allein, weil der Chip nicht aus Cuda-Cores alleine besteht.
 
Balikon schrieb:
Mit Wasser. Oder 4-Slot-Kühlern.
Das wirst auch nicht schaffen bei 600W und mehr... da braucht's schon ein eigenes Gehäuse mit eigener Kühllösung :p
Ein Kühlschrank wär cool 🤣
 
Wat(t)? Wenn die 7900XT ähnlich angesetzt ist muss ich wohl zwangsweise wieder nen Wasserblock verbauen und irgendwo noch nen Platz für nen dritten 480er Radi finden... ach, ich nehm nen Kühler vom Leo 2. Der sollte für leisen Betrieb reichen.
 
super, jetzt wo die gaspreise explodieren am besten solar aufs dach und mit der rtx 4090 die bude heizen! :evillol:
 
@zonediver Das wäre jetzt auch nix wirklich neues. Vielleicht ist der Stromverbrauch der Kompressorkühlung da schon mit eingebucht :D
 
"Lovelace will be available in September."
Die Bots, Scalper, Miner und NVIDIA wird's freuen.
Für den klassischen Gamer wird es nur Teuer, traurig oder beides.
 
  • Gefällt mir
Reaktionen: Bulletchief
owned139 schrieb:
den Takt des 5800X3D gesenkt, um innerhalb der TDP zu bleiben?
Was für eine Frage!
5800X 36.5MB gesamter Cache.
5800X3D 100.5 MB gesamter Cache

Cache ist zwar relativ sparsam, aber bei den Unterschieden.
Ausserdem haben sie den Grundtakt um 400Mhz gesenkt, den Boosttakt aber nur um 200 Mhz.
Was am Ende beim Boost rumkommt mit guter Kühlung könnte eine recht kleine Differenz ergeben.
 
  • Gefällt mir
Reaktionen: owned139 und Colindo
SaxnPaule schrieb:
Das wäre doch mal ein sinnvoller Punkt bei dem die EU ein Machtwort sprechen könnte.

Maximale Leistungsaufnahme der GraKa limitieren auf z.B. 400W.

Somit wären die Hersteller gezwungen an der Effizienz zu drehen und nicht auf Teufel komm raus immer höher schneller weiter.

Einfach das powertarget selbst begrenzen und schon hat man die Möglichkeit sich selbst eine effiziente Karte zu regeln. Oder wenn man sich damit befasst, gar etwas undervolting.

Die 3080ti/ 3090 verbraucht ungezügelt auch heute schon 400watt plus.
„Drosselt“ man die um ca. 15% der Leistung (fps), so bekommt msn plötzlich eine 200watt Karte die effizient und schnell ist.

Ich finde es toll selbst die Wahl zu haben.
Ein Produkt was werksmäßig völlig zügellos betrieben werden KANN finde ich genial.

Ich kann bei meiner 3080ti zwischen 200 oder 400 Watt Wahlen, was dann halt 100 oder 115fps entspricht, oder erhöhte settings.
Die Wahl zu haben finde ich gut.

Und wenn eine Karte bei 600watt? Zb. 100-150% mehr Leistung hat als eine jetzige 400watt Karte, finde ich die Steigerung bemerkenswert ( nicht gut oder schlecht, einfach bemerkenswert).
Ich kann doch selbst wieder den Verbrauch runter regeln.

Nur sollte Nvidia dann endlich mal ihren antiken Treiber überholen und mal auf den Reiter „Leistung“ bei AMD gucken.
Wenn solche Wattmonster rauskommen, sollte es mmn im Treiber per Mausklick mindestens 3 Profile geben, die der Anwender nutzen kann.

Als Beispiel ausgehend von einer 600watt Karte:
Profil 1:Effizienz ~250watt -25% Fps
Profil 2: Normal ~ 450watt -15% fps
Profil 3: yolo ~600watt plus, maximale fps
 
  • Gefällt mir
Reaktionen: Bulletchief, cb-leser, Ultharandor und 3 andere
Leider gibt es bei Nvidia noch immer kein Umdenken: Anstatt den Verbrauch zu deckeln und im Rahmen einer Deckelung die Effizienz zu steigern, wird munter & rasant immer mehr Energie aus der Steckdose gesaugt, so als gäbe es kein Morgen, während die Effizienzsteigerung von Generation zu Generation immer stärker am Schrumpfen ist. Leider ist Intel auch auf diesen dämlichen Zug aufgesprungen. AMD hat bei seinen Grafikkarten immerhin bessere Energiesparmodi eingebaut.

Es ist nur noch eine Frage der Zeit, bis auch PCs energetisch gedeckelt werden. Denn wenn viele elektrische Geräte längst Effizienzklassen besitzen müssen, wird es für PCs auch drauf hinauslaufen.

Ich denke, es dauert nicht mehr lange, bis der Gesetzgeber auch PC energetische Vorgaben machen wird, damit energetischer Fortschritt immer kleineren Energieverbrauchs auch in der PC-Sparte umgesetzt wird.

Nvidia & Intel befinden sich mit ihrer Entwicklung längst auf dem energetischen Holzweg, winzige Effizienzsteigerungen über absurd erhöhten Energieverbrauch zu realisieren.
 
Bin ich raus. Die 3090 Strix OC ging nach 12 Monaten gegen eine 3070 Noctua weg...
Selbst gedrosselt war mir das zu wahnwitzig. ( PT 75% und geringes UV mit 1900 Core und +400 Mhz Vram)
Ergebnis ca 300Watt TBP GPU und eine weiterhin hörbare Karte. Für Silentfreaks nur mit WaKü erträglich.

Nochmal tue ich mir 400Watt mit Luft nicht an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwirbelkatz
shaadar schrieb:
Diese Überdimensionierung und dann eben der "Rattenschwanz" das neue Anschaffen von Netzteilen etc... würde schon eine Rolle spielen, wenn viele es machen. Daher ist es sinnvoll, etwas argumentativ gegenzusteuern. Und: Ein Highend-PC heute verbraucht beim Spielen vielleicht 550 Watt im Durchschnitt, einer mit einer 850W-Grafikkarte vielleicht 800 Watt.

Du solltest vielleicht nochmals nachrechnen, wenn der Highendpc heute komplett 550W nimmt hat er eine 350-400W GPU drin.
Wenn es 850W GPUs werden sollen, dürfte es komplett Richtung 1000-1100W Verbrauch gehen.
Also mal gechillt verdoppelt.
Sorry, aber da spiel ich nicht mehr mit, obwohl mein Strom grün und günstig ist.
RT Gedöns und 4K High FPS brauch ich nicht....
 
Triky313 schrieb:
Jetzt schreiben wieder alle dass sie das nicht mit machen... am Ende des Tages wollen dann doch wieder alle eine haben. Wenn doch alle mal so konsequent bleiben würden.
Alle? Nicht mal heutige Mittelklasse Karten bei den Preisen haben "alle", ich hab sogar wieder gedowngraded von rx480 auf meine alte HD7950, da mir die 350 Euro zu verlockend waren und kauf mir davon lieber irgendwas anderes wie nen TV Upgrade oder nen Beamer oder sowas.

Mag nen extremes Beispiel in die andere Richtung sein, aber die Highendklasse kaufen doch eh schon nur was 0,1-1% der Leute, auch mit normalem Stromverbrauch, so sinds denk ich noch weniger. Sicher es wird welche geben die das zahlen, aber das ist wie mit den SUVs damit fahren ja auch nicht "alle" rum.

Irgendwer meinte noch das das doch nur 20 Euro mehr Stromkosten pro Monat seien, ich weiß nicht in welcher Welt manche leben das 20 Euro mehr laufende Kosten im Monat scheiß egal sind, das sind 240 Euro im Jahr Mehrkosten. Dann kommen noch 1x vermutlich neues Netzteil + Klimaanlage dazu, selbst wenn ihr die eh schon habt muss die dann stärker laufen oder länger.

Positiv koennte sein das damit der Blick weg geht (sofern AMD bei dem Wahnsinn nicht mit macht), so wie bei Tesla, wo klar ist das der normale Mensch dort gar nicht erst mehr schaut was die anbieten, wo auch 99% der Benutzer garantiert nicht mal deren Produkte ernsthaft mehr anschaut, da es nur für Reiche ist.
 
  • Gefällt mir
Reaktionen: Bornemaschine
Haha for sure..

Da bin ich aber gespannt ob das wirklich zutreffen wird, denn schon diesen September mit einer RTX 4XXX Generation und diesen TGP's aufzurüsten, wäre ein enormer Sprung und ob sich der Markt so schnell an solche Änderungen anpasst ist doch fraglich. Noch dazu kommt die Frage, wie man das Schlussendlich kühlen möchte. Der Leistungsanstieg müsste demnach ja enorm sein, sonst rentiert sich das ja für den Käufer überhaupt nicht mehr.

Man sei gespannt, aber ich sag natürlich niemals nie :D.
 
M@tze schrieb:
Dieses "Also mein Beitrag ist so klein, der ändert global galaktisch rein gar nichts" ist auch nur eine reine Schutzbehauptung (Sorry, aber ist so) für das eigene gute Gewissen,
Darüber kann man streiten:

Natürlich ist jedes Kilogramm CO2, dass jeder einspart, eine Hilfe, aber im Vergleich zu den Riesenemittenten, sind wir Verbraucher ein deutlich kleineres Licht, als viele glauben. Was nicht heißen soll, dass jeder einzelne nicht bemüht sein sollte, etwas zu ändern.
 
Zuletzt bearbeitet:
Bin schon mal auf Igor gespannt, was der dann da rausmessen und empfehlen wird, geht dann wohl in die 1.5 kW Klasse bei den NTs und sicher darüber, bin dann mal gespannt obs dann immer noch User gibt, die das dann als SLI/Crossfire haben wollen. Da kann ich schonmal das Popcorn rausholen, bzw. Igor kanns sicher auf dem 1.5kW Boliden warm machen
 
xy1337 schrieb:
Dann bringt es auch nichts, wenn man für ein Grafikkartenupgrade vorsorglich ein Netzteil mit 750 Watt genommen hat. Da braucht man jetzt eher 1000 Watt oder besser 1200 Watt.

Als Freund von effizienter und unhörbarer Hardware muss ich dann wohl am unteren Ende zugreifen. Ich würde mir eine Verdoppelung der Leistung meiner GTX 1070 mit 16 GB VRAM und einer Leistungsaufnahme unter 150 Watt wünschen.

Das habe ich ja schon fast mit meiner 6800. :)
 
Naja, da demnächst das russische Gas weg ist, muss ich eh mit Strom heizen - geht natürlich auch mit einer Grafikkarte ;-)
 
Es ist und bleibt dabei: Es sind Gerüchte.

850W sind illusorisch, die Wärmeverlustleistung kann über Luftkühler auf diesem Raum nicht mehr abgeführt werden.
 
  • Gefällt mir
Reaktionen: Innocience, GERmaximus und Bright0001
kachiri schrieb:
Sorry. 850 Watt ist kompletter Wahnsinn. Auch im Hardwarebereich sollte man sich Gedanken machen, wie man "sparsamer" und "bewusster" mit Ressourcen umgeht.
Wenn man wirklich ausrasten will mit 4K120Hz, Raytracing, Downsampling, Texturmods etc., dann sollte das jeder für sich entscheiden dürfen und dann halte ich die Option "viel Watt für viel Leistung" auch für okay. Allerdings sollte die Option bestehen, die Karten bei Bedarf auf einen Bruchteil der Leistung und damit Leistungsaufnahme zu reduzieren, wenn es nicht nötig ist.

Wie kann es eigentlich angehen, dass zur Zeit überall die Effizienz steigt, nur bei Grafikkarten scheint auf beiden Seiten die Markus Rühl Methode ("viel hilft viel") angewendet zu werden?
 
Zurück
Oben