News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

Halte ich für Unsinn. Wieso sollte die TGP der 4090 fast doppelt so hoch sein wie die der 4080?
Zwischen 3080 und 3090 liegen 30W und ich denke mal, dass es bei Lovelace ähnlich sein wird.

SaxnPaule schrieb:
Maximale Leistungsaufnahme der GraKa limitieren auf z.B. 400W.
Sowas sollte immer in Relation zur Leistung stehen. Eine Graka die 800W verbraucht, aber 4x so schnell ist wie eine 400W Graka, wäre in einem Rechenzentrum effizienter und würde den Verbrauch sogar senken.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Celinna und McTheRipper
MasterAK schrieb:
AMD und Intel sollten sich warm anziehen. 😁
Nee eher schonmal die kurze Hose auspacken und die Sonnenbrille.

Scheinbar sind die neuen nvidia-karten kurz davor ne Plasmazündung hinzubekommen.
 
  • Gefällt mir
Reaktionen: RaptorTP, TobiD79, Celinna und 4 andere
Matthias B. V. schrieb:
Also 450W wären schon zu viel des Guten für mich.

Glaube aber eh kaum dass 500W oder 850W dauerhaft zu erwarten sind.
Hier sind es um die 400 - 410W mit entsprechendem BIOS (3090), was somit gerade mal 100W mehr wären bei einer neuen Generation, daher halte ich das für gar nicht mal so Unrealistisch!

Und noch zum Thema "Kühlen", sie läuft unter Last bei 70 - 80c mit dem Standard Kühler!
 
Wie @TenDance schon schreibt ergeben solch astronomisch hohe Verbräuche technisch keinen Sinn. Man muss sich mal ausmalen, dass Nvidia die Anzahl der Shader "nur" von 10.000 auf 18.000 erhöht. Also würde schon ein doppelt so hoher Verbrauch bei gleicher Fertigung eine unproportionale Steigerung bedeuten. Mit dem Shrink zusammen sollten selbst gesteigerte Taktraten bei deutlich weniger Leistung möglich sein. Also auch ich sehe hier die 450 W als realistisch an. Auch wenn selbst das mir zuviel wäre.
 
  • Gefällt mir
Reaktionen: Celinna und CaptainPiett
Salamimander schrieb:
Na passt doch wie Arsch auf Eimer. Komplett am Ziel vorbei. Der Intel unter den GPUs...O_o. Bitte bitte AMD macht das Spiel nicht mit. Verzichtet auf das Prestige der Leistungskrone und nehmt euch 400Watt weniger bei von mir aus 20% weniger Leistung. DAS Wäre innovativ.
Mit der 6900XT, die 27cm lang und nur zwei Slots dick ist, zeigt AMD doch klar deren Fokus. Außerdem ist sie irre leise. Ich hoffe auch, dass sie auf ihrem Pfad der Effizienz bleiben. "Mehr Power" ist Proletengehabe.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, McTheRipper und Inxession
Kylo Zwähn schrieb:
Die Frage ist halt wie hoch das Leistungsplus gegenüber der jetzigen Generation ist. Wenn das Mal gesponnen +60 - 70% wären, sieht das wieder anders aus. Auch wenn das nicht passieren wird.
Nein. Alleine durch TSMC N5 vs. Samsung 8LPP müsste sich der Stromverbrauch halbieren bei gleicher Leistung. Dazu kommt noch eine verbesserte Architektur!

60-70% mehr Leistung müssten mit dem Verbrauch der alten 3090 machbar sein. Deutlich über 450W sind damit nicht zu rechtfertigen… Da müsste schon die Leistung mehr als verdoppelt werden!
 
  • Gefällt mir
Reaktionen: Celinna und Colindo
Finde der Trend geht komplett in die verkehrte Richtung. Verzichte selbst schon auf 4k, da es unter vollen Details und RT einfach viel zu hohe Leistung erfordert. Da bleibe ich lieber bei WQHD und 27", sodass ich die meisten Spiele bei maximal 300 Watt samt UV, Framelimit und Gsync genießen kann. Habs eh schon mal erwähnt, die Effizienzsteigerung @Stock TDP zwischen Turing und Ampere finde ich persönlich nicht sonderlich prickelnd. Wenn das bei Lovelace nicht besser wird und nur wieder auf Leistung @4k u. RT entwickelt wird, wird vermutlich die 2080ti noch ein paar Monate bleiben - und ich zähle mich eigentlich zu den Enthusiasten der jahrelang immer im obersten Regal eingekauft hat.... Vielleicht werde ich aber einfach auch zu alt/vernünftig :confused_alt:
 
  • Gefällt mir
Reaktionen: Chris3344, Sparkley und Onkel Föhn
sieht mir nach einem Zeichen aus, dass da aktuell die Grenze des Möglichen erreicht wurde, man aber irgendwas "besseres" liefern muss und das nun über Leistungsaufnahme erkauft...
na gut, das war schon die letzten jahre so eigentlich

Wann kam eigentlich die letzte GPU mit deutlich mehr Leistung OHNE höherer Leistungsaufnahme heraus?
 
Balikon schrieb:
Auch AMD will die Recheneinheiten stark aufstocken, es ist klar, dass das nur in eine Richtung führen kann: Mehr Stromverbrauch.
Von den -50% Stromverbrauch bei gleichem Takt, die N5 gegenüber N7 laut AMD bereitstellt, hast du aber schonmal etwas gehört, oder?
 
  • Gefällt mir
Reaktionen: McTheRipper, Balikon und ETI1120
Ich erwarte bei der sich ankündigenden Materialschlacht auch, dass der Verbrauch der Grafikkarten steigen wird. Aber die genannten Werte sind absurd.

Und kopeti7kimi hat sich deutlich distanziert, in dem er es ausdrücklich als Gerücht bezeichnet hat. Die Zuverlässigkeit der "Quelle" von der er diese Werte gehört hat schätzt er mit 50/50 ein. Also als keine glaubwürdige Quelle.

Ich halte es für gut möglich dass Greymon55 hier ein paar zahlen falsch interpretiert.

Das Problem ist nicht der Stromverbrauch an sich sondern die Abfuhr der Wärme. Im Winter spart man zwar einen Heizlüfter, aber was ist im Sommer? Wird mit der Grafikkarte ein Gutschein für die Beratung durch einen Klimatechniker angeboten?

Außerdem sollte man beachten, dass Nvidia von Ampere auf Lovelace einen Sprung von 1 1/2 Nodes macht und dann noch beinahe die doppelte elektrische Leistung verbraten?

Ich würde es Mal zur Kenntnis nehmen und mich überraschen lassen.
 
  • Gefällt mir
Reaktionen: Speedy, Col.Maybourne, Recharging und eine weitere Person
Zornica schrieb:
Wann kam eigentlich die letzte GPU mit deutlich mehr Leistung OHNE höherer Leistungsaufnahme heraus?
AMD hat den Verbrauch bei der 6900XT gegenüber der Vega64 nicht erhöht, bei 230% Spiele-Leistung.
 
  • Gefällt mir
Reaktionen: 416c, KurzGedacht, Lamaan und eine weitere Person
ZenMasterTM schrieb:
Mit der 6900XT, die 27cm lang und nur zwei Slots dick ist, zeigt AMD doch klar deren Fokus. Außerdem ist sie irre leise. Ich hoffe auch, dass sie auf ihrem Pfad der Effizienz bleiben. "Mehr Power" ist Proletengehabe.
Laut Gerüchten wird RDNA3 bei 500W+ liegen.
 
Bei dieser Entwicklung bin ich echt froh, eine PS5 ergattert zu haben...dann kann ich die kommenden Spiele immernoch genießen, ohne Angst zu haben die Stromrechnung nicht mehr zahlen zu können ^^

Von den Preisen und der Verfügbarkeit der aktuellen GPUs mal ganz abgesehen.
 
Neue Grafikkarten braucht kein Mensch, neue Preise brauchen die Menschen!
 
  • Gefällt mir
Reaktionen: zelect0r und Onkel Föhn
K4mpftro11 schrieb:
Sollte sich das bewahrheiten, wäre das Klimapolitisch und angesichts steigender Energiepreise ein Fiasko.
Aber auch nur aus deutscher Sicht. Die Amerikaner sind nicht gerade dafür bekannt, ein hohes Bewusstsein für Klimapolitik zu haben. Darüber hinaus sind die Energiepreise auch vor allem nur in Deutschland so hoch. In anderen Ländern kann man davon ausgehen, dass eine TGP von 850W akzeptiert wird.
 
Kylo Zwähn schrieb:
Die Frage ist halt wie hoch das Leistungsplus gegenüber der jetzigen Generation ist....
Nicht wirklich, wenn das Zimmer zur Sauna wird.

Das Problem sehe ich weniger dahingehend die Grafikkarten mit dem AD102 Chip kühlen zu können sondern wohin mit der erzeugten Abwärme.

Wenn es wirklich so (unausgegoren) kommen sollte - was mich bei nVidia nicht wundern würde, zumal die Presse damals zum Turingstart auch nicht den RT-Raytracingspieleausblick bzw. die Vaporware und den dafür fälligen Aufpreis in Rezensionen/Bewertungen der Produkte abgestraft hat - wird das trotz Undervolting hier und da schon problematisch werden (in immer wärmer werdenden Sommern).

Falls ich bis dahin noch keine passende dGPU ergattern habe können, käme für mich vermutlich sowieso nicht mehr als eine RTX 4070 in Frage (natürlich nur mit mindestens 12, besser 16, GB) und die dürfte sich dann auch schon 300W genehmigen (wenn das reicht bzw. sich diese Gerüchte als wahr herausstellen sollten).

400(+)W Karten dürfen nVidia gerne behalten oder sich gerne vor Schweiss triefende Early Adopter und Hobbyenthusiasten leisten ;).
 
Zuletzt bearbeitet:
Balikon schrieb:
Wieso regen sich alle hier auf?

...

Diese Leistung gibt es schlicht nicht zum Nulltarif.
...
Computer wurde zum Massenphänomen als sie unter 10.000 DM fiel. Homecomputer unter 1.000 DM.

Die Existenz von Technologie allein verändert unser tägliches Leben nicht. Sie muss für jeden bezahlbar sein.

Daher finden sich kaum 128 Kern PCs unter dem Schreibtisch obwohl relativ einfach möglich.

BTT:

Ich weiss nicht ob ich nur mein Aluhut verlegt habe aber NVidia scheint voll in Richtung Coin umzuschwenken. Mit Grafikports als Feigenblättchen. "Wir? Wir haben uns an Coins doch nicht bereichert. Wir haben nur Grafikkarten gebaut." So wird es heißen sollte es damit schiefgehen.

Andererseits dürfen sich zahlungskräftige Gamer natürlich über die Leistungsexplosion die sonst einige Generationen später gekommen wären freuen.

Ob das wenigstens die Supercomputer weiterbringt? Wohl nicht, denn sie haben ohnehin alles bekommen wenn man genug Geld auf den Tisch legt?
 
Chesterfield schrieb:
400gtx -> 500gtx fermi
War es da bzgl. Verbraucht/Abwärme nicht genau andersrum. Meine, dass die 400er die eher ineffizienten Hitzköpfe waren und die 500er dann die (deutliche) Verbesserung.
 
  • Gefällt mir
Reaktionen: Vitec und Herdware
Sollte das wirklich so kommen, wird die EU dem bald ein Riegel vorschieben! Die USA (oder war es doch nur Kalifornien) haben ja für neue PC Komponenten schon Regeln.
 
Zurück
Oben