News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

Aktuell bin ich mit meiner 6900xt voll zufrieden. 300W sind aber besonders im Sommer nicht zu unterschätzen. Da meine Karte eine 2,5 Slot Kühlung hat, gehe ich davon aus das RDNA 3 eine 3 Slot Kühlung bekommen wird.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Das wird den GPU Herstellern hoffentlich noch maechtig auf die Fuesse fallen.
Wenn man jetzt wirklich an einem Punkt in der Entwicklung angekommen ist, an dem sich mehr Leistung nur durch mehr Stromverbrauch erreichen laesst, muss auf mehreren Ebenen ein Umdenken stattfinden.

Das faengt ja schon bei so Kleinigkeiten wie den Stromanschluessen an. Da gibt es, schon alleine Zulassungstechnisch, ein recht hartes Limit: 2300 Watt Verbrauch an Steckdose. Denn dauerhaft duerfen aus einer Schukosteckdose nur maximal 10 Ampere gezogen werden. Die 16 Ampere sind nur fuer Spitzenlasten zugelassen. Unter Dauerbelastung kann dir eine Schuko, erst Recht wenn sie nicht mehr die juengste ist, schmelzen. Ich merke ja schon das der Stecker meines 1300 Watt Staubsaugers spuerbar warm geworden ist wenn ich fertig mit Saugen bin...
Solche Lasten stellen insbesondere aeltere elektrische Systeme vor eine Herausforderung.
In den USA mit ihren 120 Volt ist das realistische Limit sogar noch kleiner. Kontinuierliche Dauerlast ist dort nur 1440 Watt, bei einer Spitzenlast von 1800. Dabei sind die Netzteile auf 120 Volt in der Regel weniger Effizient. So um die 1200 Watt nutzbare Dauerlast duerfte ziemlich das Ende der Fahnenstange sein.

Dann haengen da ja auch ordentliche Kosten dran. Einerseits natuerlich der Strom selbst. Aber potente Netzteile sind auch schon wesentlich teurer wenn man die Kilowatt Marke ueberschreitet.

Dann sind da noch die Regulierer. Ich war sehr ueberrascht, dass in diesem Fall die Behoerden in den USA tatsaechlich schneller sind als in der EU. In Kalifornien duerfen Komplett PCs nur noch unter ziemlich strengen Energieverbrauchsauflagen verkauft werden.
Einen Highend Zocker-Fertigrechner kannst du dort nicht mehr kaufen. Noch betrifft das einzelne Komponenten nicht, aber ich waere nicht ueberrascht wenn das noch kommt.
Aehnliche Regelungen erwarte ich bald auch in der EU.

Alles in Allem hoffe ich persoenlich darauf, das man beginnt einzusehen, das ein immer mehr langsam nicht mehr verhaeltnismaessig ist. Langsam wird der Preis fuer dieses stetige Wachstum zu hoch.
Das muessen sowohl die Hardwarehersteller, die Spieleentwickler und auch die Spieler einsehen.
 
  • Gefällt mir
Reaktionen: 416c, Bornemaschine, Lamaan und 3 andere
HardcoreGaymer schrieb:
Bei dieser Entwicklung bin ich echt froh, eine PS5 ergattert zu haben...dann kann ich die kommenden Spiele immernoch genießen, ohne Angst zu haben die Stromrechnung nicht mehr zahlen zu können ^^
Von den Preisen und der Verfügbarkeit der aktuellen GPUs mal ganz abgesehen.
Das ist auch immer so ein "Argument" und ist auch wieder unmöglich zu verallgemeinern...

Mein OLED TV 3500€ , PS5 600€ , Boxensystem 2000€ ...

Am Ende auch Komplett bei 400 - 500W im Betrieb und macht somit kaum nen Unterschied zum PC System...
(5950X / 3090 / 64GB RAM)
Anschaffungs Preis war fast der Selbe nur Strom ist etwas weniger am Ende...

Dieses Argument zieht am Ende wieder nur wenn ich die PS5 an "Veraltete" Technik hänge und ob das dann wieder Sinn macht muss wieder jeder für sich selber entscheiden.

Die Spiele Preise von 70 - 100€ für die PS5 noch gar nicht mit eingerechnet ;)
 
Sehr schade, die Entwicklung geht leider in die komplett falsche Richtung. Aber wenn das Wichtigste die Spitzenposition im Ranking ist darf man sich wohl nicht wundern.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Colindo schrieb:
Von den -50% Stromverbrauch bei gleichem Takt, die N5 gegenüber N7 laut AMD bereitstellt, hast du aber schonmal etwas gehört, oder?
Ja, genauso wie ich gehört habe, dass bei RDNA 3 die Shaderanzahl verdreifacht und der IF-Cache vervierfacht werden soll. Und wie gesagt, so ein Grafikchip besteht ja nicht nur ausschließlich aus Recheneinheiten. Das ganze drumherum wächst entsprechend mit.
Und wer soll jetzt glauben, dass das bei gleichem Stromverbrauch machbar sein soll? Geschweige denn, geringerem?
 
Zuletzt bearbeitet:
Kann man auch als Miningbremse sehen, immerhin...
 
  • Gefällt mir
Reaktionen: Inxession
XPS schrieb:
Anschaffungs Preis war fast der Selbe nur Strom ist etwas weniger am Ende...
Und der Rechner braucht kein Display und kein "Soundsystem"?
 
  • Gefällt mir
Reaktionen: Bornemaschine, Alphanerd und tidus1979
Gibt es für die Kühler dann ein Toaster add on? Dann könnte man bein Zocken sich gleichzeitig auch das Frühstück vorbereiten
 
  • Gefällt mir
Reaktionen: edenjung
kachiri schrieb:
Und der Rechner braucht kein Display und kein "Soundsystem"?
Ich sagte ja fast, das Komplette System liegt mit 4 Monitoren bei 800 - 900W laut Enni Strom Messgerät, was in Monatlichen Kosten von 80 - 100€ Resultiert (10-15 Std Laufzeit)

Ich nutze die PS5 nicht so Intensiv wie den PC, aber würde ich dies tun, läuft es fast aufs selbe hinaus bei Nutzung eines Monitors
 
Wattwanderer schrieb:
Die Existenz von Technologie allein verändert unser tägliches Leben nicht. Sie muss für jeden bezahlbar sein.
Das wird sie auch bleiben, selbst wenn die Hardwarepreise zur Zeit schwindelerregend bleiben. Was ein normaler Consumer, der nicht spielt, mit einem PC macht, schaffen erschwingliche 6 Kerner ohne Grafikkarte locker.

Wer aber das maximale aus einer Hardware rausholen will oder muss, wird das entsprechend bezahlen müssen. Nicht nur bei der Anschaffung, sondern auch beim Unterhalt. Das war schon immer so und wird sich nicht ändern.
 
Zuletzt bearbeitet:
Zornica schrieb:
sieht mir nach einem Zeichen aus, dass da aktuell die Grenze des Möglichen erreicht wurde
Würde ich so pauschal nicht sagen. Eher deutet es auf die Grenze der jeweiligen Architektur hin, denn solche Situationen gab es schon öfter, dass man mehr Leistung nur durch (deutlich) mehr Verbrauch erreicht hat bis dann eine neue Architektur kam, die effizienter war.
 
  • Gefällt mir
Reaktionen: Celinna
Balikon schrieb:
Und wer soll jetzt glauben, dass das bei gleichem Stromverbrauch machbar sein soll? Geschweige denn, geringerem?
Wenn AMD auch die CUs verdreifacht hast du Recht. Wenn es aber so gelöst wird wie bei Nvidia in der letzten Generation (wovon ich ausgehe) sind es nur +50% CUs. Das wäre deutlich zurückhaltender als der Anstieg bei Nvidia.

Dass Cache kaum Strom verbraucht wissen wir vom 3D-V-Cache. Außerdem hat AMD dargelegt, dass die schmale Speicherbandbreite plus Cache deutlich weniger verbraucht als auf eine große Speicherbandbreite zu setzen, wie es Nvidia macht.
 
Die dreifache Leistung bei vierfachen Verbrauch...sind wir doch schon gewöhnt.
 
naja.. wenn das wirklich so kommt.. dann bleibe ich wohl länger mit meinem CX und der 3080Ti mit UV glücklich.

ich brauch das ned.
vllt doch irgendwann eine Series X kaufen?
hmm..
 
Berichtigt mich, wenn falsch...

Im Beitrag wird von TGP nicht TDP gesprochen - die TGP bezieht sich auf den Leistungsverbrauch der ganzen Karte, die TDP nur auf den Chip, oder?
Dann wären 450W TGP im Vergleich zu 250W TDP garned so dramatisch viel mehr...
 
Ich bezweifle 800W stark, selbst eine Custom-Wakü hat an 800 Watt ordentlich zu knabbern, da geht nichts unter 2x 360er Radiatoren mit Lüfter am Anschlag.
Die 3090 / 6900 XT haben schon heute je nach Gehäusekühlung bei >350W Hitzeprobleme. Was für ein Kühlmonstrum braucht man für 500 oder 600 Watt?

Und selbst wenn es so kommt, meine Schmerzgrenze ist bei 350W für die GPU, darüber kaufe ich nichts.
Die 6900 XT liefert mit UV bei 220 Watt die Leistung einer 6800 XT, bis 350W ist da noch viel Luft für (effiziente) Performance.
 
  • Gefällt mir
Reaktionen: Protogonos, Celinna, hahaqp und 2 andere
Na, das doch mal fein. Braucht man ja bald n extra Dieselgenerator nur für die Graka. Völlig richtige Richtung der Graka-Entwicklung!
 
@Colindo Es wird sich zeigen, wer von uns beiden Recht behält. Ich denke natürlich, dass ich das sein werde.

Falls AMD die RT-Leistung der einzelnen Recheneinheiten nicht massiv anhebt, wird man nur durch entsprechend mehr Recheneinheiten auf Augenhöhe mit Nvidia sein. Die Spekulationen kommen ja nicht von ungefähr.

@owned139 Guter Punkt!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben