News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

Balikon schrieb:
Wenn 80% mehr Ausführungseinheiten 50% Stromersparnis wegen dem Prozess gegenüber stehen, wird ein Chip mehr verbrauchen.
"80% mehr" = 180%. Bei 50% Ersparnis verbleiben 50%.

1 x 180% x 50% = 0,9
 
  • Gefällt mir
Reaktionen: bensen
Dante2000 schrieb:
Wird wohl Zeit für eine grundlegende neue Technik.
Lass dich nicht aufhalten. :schluck:

Night-Hawk schrieb:
Ich persönlich hoffe das irgendwie ein staatliches Regulativ eingreift und die Leistungsaufnahme bei Grafikkarten und Prozessoren auf vernünftige Werte begrenzt.
Was genau soll das denn bringen? Hanni und Nanni, die >1000€ bzw. >1500€ für ne GPU bezahlen, werden sich durch Zoll-Gebühren nicht davon abhalten lassen ein entsprechendes Top-Modell aus UK/CH/Sonstwoher zu importieren. Gleichzeitig deckelt man das GPU-Angebot für den Pöbel halt auf X070 Niveau, was den Preisen sicherlich nicht gerade helfen wird.

Ich glaube so ein Gesetz wird exakt nichts bringen, außer dafür zu sorgen, dass alle in Summe mehr bezahlen als eigenlich notwendig wäre.

(Du bist nur exemplarisch zitiert, das gilt auch für alle EU-Rufer)
 
Solange hinten genug Ethereum €€€ herauskommt, ist mir der Stromverbrauch doch egal.
 
  • Gefällt mir
Reaktionen: fgordon, Jusdepomme und Benni1990
Czk666 schrieb:
Das habe ich ja schon fast mit meiner 6800. :)
Eben. Einfach ne 6900 oder eine 3090 holen. Powerlimit auf 150 Watt und schon hat xy1337 das gewünschte Ergebnis.
 
  • Gefällt mir
Reaktionen: cb-leser, hahaqp, GERmaximus und eine weitere Person
Wow. Wie hier alle Steil gehen :D

Man sollte nicht alles auf die Goldwaage legen
https://twitter.com/greymon55/status/1496335011091722240
Wie er ja schon selbst gesagt hat:
A lot of my tweets are not really leaks at all, just my own thoughts and guesses, but I've seen some people take it as rumors or leaks.🤣
Und diese kolportierten 850W sollten wohl eher die max. theoretisch mögliche Peak Leistungsaufnahme darstellen.

Bis zu 850 Watt TGP werden erwartet

Nvidia traue ich es zwar zu, für den Platz an der Sonne die letzten Reserven heraus zu pressen, ein einzelner Chip in N5 wird aber wohl eher nie in diese Regionen mit der TGP kommen.
Das sind mit dem Rest des Rechners zusammengenommen, Regionen eines kleineren Heizlüfters. Hallo???
 
  • Gefällt mir
Reaktionen: .Sentinel.
scootiewolff22 schrieb:
ich freue mich auf die 4060 :)
Thermi 2.0? Passt ja sogar von der Bezeichnung.. ist nur eine "0" dazu gekommen:
480 -> 4080..
Damals war ja schon die 460 eine bessere, weil u.a. effizientere und sparsamere Wahl
 
@GERmaximus der Mensch braucht Rahmenbedingungen! Funktioniert ja grundsätzlich auch, siehe z.B. Staubsauger.
 
Czk666 schrieb:
Das habe ich ja schon fast mit meiner 6800. :)
Für 400 Euro habe ich vergessen zu erwähnen. Wobei die RX6800@Stock mit ihren 250 Watt weit von 150 Watt entfernt ist. Mit UV geht das vielleicht, aber dann bin ich bei meiner GTX 1070 nur noch bei ca. 100 Watt. Da hinkt der Vergleich dann schon wieder.
 
Man muss ja nicht jeden Schwachsinn mitmachen. Da ich kein RT brauche, da mir die Ergebnisse bis auf ein paar Ausnahmen sowieso nicht gefallen, kann meine mittlerweile 5 Jahre alte GTX 1080 Ti bleiben. Selbst die ist an heißen Tagen im Sommer schon unerträglich. Hatte noch nie solange eine Grafikkarte im Einsatz, das war die beste Anschaffung.
 
  • Gefällt mir
Reaktionen: Bulletchief
Hoffentlich bekommt die 4090 das 600 oder 850 watt Bios damit man endlich nicht mehr so beschnitten wird in der leistung wie bei der 3090 :D

Fand das bei meiner 3090 so schrecklich das meine nur 470 watt hat
 
blackiwid schrieb:
Irgendwer meinte noch das das doch nur 20 Euro mehr Stromkosten pro Monat seien, ich weiß nicht in welcher Welt manche leben das 20 Euro mehr laufende Kosten im Monat scheiß egal sind, das sind 240 Euro im Jahr Mehrkosten.
Das war ich und am Ende kommt es doch auf den Einzelfall an und dort kann ja wieder jeder selber entscheiden was er für richtig oder Falsch hält.

Ich Zahle im Sommer Monatlich mit PC, Klimasplit Geräten, Meerwasser Aquarium und der Rest vom Haus, 350 - 400€ Strom im Monat, und das ich dann sage "20€ mehr oder weniger" machen den Braten auch nicht Fett, ist nun mal einfach Fakt oder meinst du die 20€ im Monat fallen auf bei der Jahresabrechnung !?

Wie gesagt, nicht immer von Sich selber auf den Rest der Welt schließen, Sicher ist mein Fall nicht der Regel oder Normal Fall, jedoch kenne ich in meinem Umfeld genug Leute die Ähnlich denken, andere sehen es wieder anders, was auch ok und nicht Falsch ist.

Aber am Ende ist es Leben und Leben lassen und jeder soll sich das Kaufen oder Machen was er möchte oder sich Leisten kann!

Deswegen halte ich auf von solchen EU Regelungen usw. Absolut nichts...
Das Kind "Umwelt" ist schon vor vielen Jahren in den Brunnen gefallen!
 
xy1337 schrieb:
Für 400 Euro habe ich vergessen zu erwähnen. Wobei die RX6800@Stock mit ihren 250 Watt weit von 150 Watt entfernt ist. Mit UV geht das vielleicht, aber dann bin ich bei meiner GTX 1070 nur noch bei ca. 100 Watt. Da hinkt der Vergleich dann schon wieder.

Nein du vergleichst ja selben Verbrauch und schaust dann ob doppelt Leistung da ist. Über 200 verbauche ich nur wenn ich sie volle Pulle laufen lasse. Control mit raytracing, ...
Der Preis ist natürlich ein anderes Problem. Abzüglich meiner alten vega, habe ich auch 'nur' 400 bezahlt.
 
Also schon die 450W halte ich für vollkommen inakzeptabel, aber 650-850W(!!!) sind kompletter Irrsinn. Was zu Hölle geht hier ab?

Ich kann auch diverse Kommentatoren hier nicht verstehen, die dieses Vorgehen hier auch noch in Schutz nehmen und meinen, man würde ja auch Mehrleistung dafür bekommen. Ihr habt doch den Schuss nicht gehört. Einfach stumpf die Leistungsaufnahme zu steigern kann nicht der Anspruch der Entwicklungsabteilungen von Chipherstellern sein. Und es kann nicht euer Anspruch an diese sein, solche Produkte kritiklos zu akzeptieren.
 
  • Gefällt mir
Reaktionen: FLCL
Hurricane.de schrieb:
Also schon die 450W halte ich für vollkommen inakzeptabel, aber 650-850W(!!!) sind kompletter Irrsinn. Was zu Hölle geht hier ab?

Ich kann auch diverse Kommentatoren hier nicht verstehen, die dieses Vorgehen hier auch noch in Schutz nehmen und meinen, man würde ja auch Mehrleistung dafür bekommen. Ihr habt doch den Schuss nicht gehört. Einfach stumpf die Leistungsaufnahme zu steigern kann nicht der Anspruch der Entwicklungsabteilungen von Chipherstellern sein. Und es kann nicht euer Anspruch an diese sein, solche Produkte kritiklos zu akzeptieren.
Es hat doch keiner gesagt das du eine RTX4000 kaufen musst wer High End will muss mit High End verbrauch leben war immer so und wird immer so Bleiben

In Meinem fall will ich in UWQHD in ultra mit MAX RT im 3 stelligen FPS Bereich spielen also muss ich mit dem Verbrauch leben und nehme das gerne in kauf
 
  • Gefällt mir
Reaktionen: GERmaximus
Irgendwann ist die Physische Grenze erreicht und dann geht es mit Verbrauch steil bergauf, wenn man mehr Leistung will.
Aber soweit sind wir doch noch nicht, oder?^^

Der Hauptzielgruppe von nvidia (Miner) ist der Verbrauch doch eh egal 🤷‍♂️
 
Schon witzig. Da würde so ne Karte mehr fressen als mein Staubsauger (700 Watt)^^
 
Cohen schrieb:
1 x 180% x 50% = 0,9
1. Besteht der Chip nicht bloß aus Cuda-Cores.
2. Müssen sich die 50% auch erstmal bewahrheiten. Sind von allen beteiligten auch nur spekuliert.
3. Gelten die 50% - wenn es denn 50% sind - für den Sweetspot. Wie hoch ist die Wahrscheinlichkeit, dass eine Top-Grafikkarte taktmäßig im Sweetspot gefahren wird?
 
modena.ch schrieb:
Die Grünen sind ja irre und gar nicht grün.

Bei Navi 31 sollen es aber auch 450W werden.
Aber wenn das RDNA3 dann bei der 7900 zieht sind das bis zu 400watt weniger was die 4080/4090 brauchen. Ist zwar nicht viel aber lächerlich im Vergleich zu Nvidia. Ich hoffe das es so nicht kommen wird.
Und ehrlich gesagt kann ich mir weder 850 noch 650 Watt vorstellen.
Dumm nur für die die sich zum 3080 Release ein 1kw Netzteil gekauft haben weil das ist jetzt zu klein für die nächsten Generation Nvidia Karten :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kassandra_89
shaadar schrieb:
Ein Highend-PC heute verbraucht beim Spielen vielleicht 550 Watt im Durchschnitt, einer mit einer 850W-Grafikkarte vielleicht 800 Watt. Das sind 250 Watt mehr, und wenn man alleine an Wochenenden 4 Stunden spielt ist schon das nicht nichts...

Ich habe keine Zahlen dazu parat, aber ich würde annehmen, dass der typische Durchschnittsverbrauch eines Gaming-PCs und der Grafikkarte darin, noch deutlicher unterhalb des Maximalwerts liegt.

Nicht jedes Spiel hält die GPU die ganze Zeit am Anschlag.
Ich spiele z.B. auch öfter Sachen wie World of Warships (das standardmäßig auf 75FPS gedrosselt ist) oder Hearts of Iron 4, Civ 5+6 usw. Dabei kommt schon meine "alte" RTX2080 nicht wirklich ins Schwitzen bzw. langweilt sich nur und bleibt deutlich unter ihrem theoretischen Maximalverbrauch.
Die meisten Cores der 9900K-CPU drehen auch meist nur Däumchen, selbst bei neueren und anspruchsvolleren Spiele. Entsprechend niedrig ist der typische Verbrauch.

Aber wie gesagt, man muss die Stromversorgung und Kühlung des Gaming-PCs trotzdem auf das theoretische Maximum (+ etwas Sicherheit) auslegen, damit der stabil funktioniert.
 
Zurück
Oben