News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

leipziger1979 schrieb:
Bei AMD wird es wohl auch nicht besser aussehen.
Denn auch die kochen nur mit Wasser.
Die kochen im Wasserkocher statt mit einer Spule gleich mit zwei Spulen. Somit mehr Fläche um Wärme ans Wasser abzugeben ;)
 
calippo schrieb:
wer ein Hobby im Extrembereich betreibt
das zukünftige HighEnd wir in allen Lagen extrem werden.
Nichts was für OTTO Normal Sinn macht.
Sei es Kühlung bei annehmbarer Lautstärke, sei es das wieder neue Netzteil samt Verbrauch, letztendlich die Kosten der Anschaffung. Die Hürden für HighEnd gehen da exorbitant nach oben! Das gute ist, fürs normale daddeln wird auch der "normale" Aufwand reichen. Auf ein Big Tower mit 10 Lüftern oder so... hätte ich kein Bock. Hoffe mein 850W Netzteil reicht noch... Preise sind eh sinnlos...

MfG
 
Fighter1993 schrieb:
Und ich denke wohin mit der ganzen Wärme wenn die 300W meiner 6900XT aufdrehen.

500W sind das Doppelte, das müss man sich mal auf der Zunge zergehen lassen.
Da ich ne Custom wakü habe ist das eher unproblematisch bei mir aber man sieht auch bei 3090ti das die Temps kein problem darstellen und die kühler sehr gut sind
 
Darklordx schrieb:
Im Winter als Heizung gut... Wenn ich mit meiner 5900x und Rx6800XT ein paar Stunden zocken, muss ich derzeit irgendwann mal die warme Luft rauslassen... 😮‍💨

Nur was ist Sommer? 🔥😱

Und alle Zocker ab Ende Juni bis Ende August... 🥵

Ich muss gestehen, dass ich mein Office aktuell mit einer 6900XT heize… kein Scherz!

Nachts Mine ich ein bisschen ETH, aber dafür ist es morgens angenehm warm. Prinzipiell ist Mining finanziell nicht wirklich attraktiv.
 
seas888 schrieb:
Ekelhaft. Der Halbleitermangel hat die Technologieentwicklung wirklich zurückgeworfen. Die Leute kaufen alles was es gibt warum also wirklich entwickeln wenn man einfach mehr Strom reinballern kann.
Woran machst du das fest? Die Effizienz wird erheblich steigen. Nur steigert man eben die Performance im größeren Maße als die Effizienz.
Es gibt aber keinen einzigen Anhaltspunkt, dass die Entwicklung verlangsamt wurde, weil eh alles gekauft wird.
Der Großteil der Entwicklung war zudem schon zu einem Zeitpunkt, als der Halbleitermangel noch gar nicht akut war.
 
wer auf ein paar Lichtstrahlen mehr und übertriebene Spiegeleffekte keinen Wert legt ist auch locker noch mit der aktuellen Grafikkarten Generation zufrieden.
Ich denke meine Grafikkarte wird noch drei bis vier Generationen durchhalten.
Dann bekomme ich wie früher mit neuer Grafikkarte auch wieder 40% mehr Leistung
 
Fighter1993 schrieb:
Nvidia wäre in allen Belangen geschlagen....
Wie kommst du drauf? Kennst du schon Preis, Leistung und Verbrauch von RDNA3?
Ich bezweifle, dass das MCM Design sparsamer und schneller als die monolithische Bauweise sein wird.
 
Zuletzt bearbeitet von einem Moderator:
leipziger1979 schrieb:
Bei AMD wird es wohl auch nicht besser aussehen.
Denn auch die kochen nur mit Wasser.


Bin mal gespannt. AMD ist Stand jetzt schon effizienter und ich könnte mir vorstellen, dass sie sich mit dem MCM-Design vergleichsweise mehr Fläche leisten können, weil sie trotzdem weniger Ausschuss haben werden, und dann mehr Einheiten langsamer bzw. am Sweetspot fahren können, ohne gleich einen Monsterchip zu haben. Zumindest in meinem Laienhirn könnte das so funktionieren. Die Frage ist aber, ob AMD das so plant oder auch an die Kotzgrenze geht, weil damit vielleicht noch mal mehr Profit zu machen ist...


Tawheed schrieb:
Tja euer Spiele Hobby ist halt sehr co2 intensiv. Die ganzen Pixel und Geometrie muss ja irgendwie berechnet werden...


Ich spiele CO2-neutral, der Strom kommt vom Dach. :D
Wir könnten ja auch schon weiter sein, aber schwarz-gelb hat dem ja recht erfolgreich einen Riegel vorgeschoben, mit Abstandsregeln, weniger Geld für Photovoltaik und weiter fleißig Subventionen für Braunkohle usw.

Für mich ist bei maximal 250W Schluss. Wenn in Zukunft Mehrleistung immer mit deutlich mehr Verbrauch einhergeht wird meine 6700XT noch eine ganze Weile im Rechner bleiben. Aber 3-4 Jahre mit der plane ich eh ein, bis dahin kann viel passieren. Man kann nur hoffen, dass solche Karten sich für die Hersteller nicht rechnen, der Absatz einbricht und ein Umdenken stattfindet. Allein mir fehlt der Glaube.
 
  • Gefällt mir
Reaktionen: Flywolf, Colindo, BGnom und eine weitere Person
Irre! Alle reden vom Energiesparen und gleichzeitig werden solche Produkte designed.
 
Da bin ich raus... zwei stunden spielen 1€ strom weg.
 
SavageSkull schrieb:
Besser mit Strom heizen als mit russischem Gas.
Wobei eine Wärmepumpe für die Aufgabe effizienter ist, allerdings hat die keine Spieleleistung als Verlust.
Der Strom aus der Steckdose ist auch zu 50% aus fossilen Rohstoffen, 15% davon Erdgas
 
  • Gefällt mir
Reaktionen: aid0nex, Tapion3388, Zubz3ro und 2 andere
wern001 schrieb:
Wir Zeit dass das Transistor-Design geändert wird, so das nicht mehr 99,998% in Wärme umgewandelt werden.
Wenn man außer acht lässt dass schlussendlich jede Energie in Wärme überführt wird könnte man ja LEDs statt blöder Trasistoren verwenden. Wenn die Diskokugel im PC hektisch flackert wird gerade gerechnet XD

Oder sollte die Energie eher elektromagnetisch in die Umgebung abgestrahlt werden? Da jammern die Leute doch schon wegen Handys. Was wäre da erst los wenn in jeder Wohnung ein paar hundert Watt abgestrahlt werden um Hirne zu braten? Allerdings könnte man den PC dann ggf. als Mikrowellenersatz nutzen.
Aber dann wird es ja doch wieder nur warm :/

Die Physiker der Welt sind offen für Vorschläge.

Spaß beiseite, prinzipiell klingt es doch erstmal positiv wenn der Anteil der GPU am Verbrauch steigt. Der Rest ist ja nur overhead, die GPU macht die Rechenarbeit. Selbst der Speicher ist nur dafür da die zu versorgen, je weniger der Rest braucht, desto besser sollte sich der Energiebedarf auch leistungsabhängig regeln lassen.

p.s.
calippo schrieb:
Der Autovergleich ist aber trotzdem interessant, weil wohl niemand 24/7 auf maximaler Last zockt.
'niemand' ist wohl übertrieben, die meisten zocken nicht 24/7. Für die Zeit wo kein Spiel läuft gibt es z.b. PrimeGrid, Einstein@home usw ;)
Gut, das verbraucht auch etwas weniger als furmark, ist also nicht exakt maximallast.
 
Zuletzt bearbeitet:
Matthias80 schrieb:
schon bei der 3000 Serie sieht es mau aus mit ITX Modellen. Oder hast du welche gefunden?
AMD auch...

MfG

hmm ok dass ist dann echt doof.
Könnte mir aber gut vorstellen, das die hersteller den Aufwand geschäut haben, die 3000er serie als kompaktes design aufzubauen, da die KArten auch so quais sofort ausverkauft waren.

Bin aber ehrlich gesagt davon ausgegangen, dass es von der 3070 oder der 3060 kompakte designs gibt, da die von der leistungsaufnahme ja durchaus im rahmen wären.
 
wern001 schrieb:
Mehrleistung ohne Rücksicht auf Verluste.
Wir Zeit dass das Transistor-Design geändert wird, so das nicht mehr 99,998% in Wärme umgewandelt werden.
Es sind 100%
Oder worin wird die Energie sonst umgewandelt? Gut, irgendwann leuchtet der Transistor
 
  • Gefällt mir
Reaktionen: ChowTan
es nimmt mittlerweile echt lächerliche züge an. wie will man das ohne fette wakü noch kühlen? und partnerkarten werden da ja vermutlich zum teil nochmal ne ordentliche schippe drauflegen...

hoffentlich kriegt man in der generation überhaupt noch karten mit unter 200W verbrauch.

anappleaday schrieb:
Halt 100W mehr als die 3090, uhh, wow, nein, böse[...]
artikel nicht gelesen oder nicht verstanden? die 450W sind der vermutete verbrauch der GPU, nicht der gesamten karte.

M1ch1 schrieb:
Bin aber ehrlich gesagt davon ausgegangen, dass es von der 3070 oder der 3060 kompakte designs gibt
wie kompakt soll es denn sein? zumindest von der 3060 gibt es 4 170-172mm kurze dualslotkarten.
 
  • Gefällt mir
Reaktionen: Tapion3388
poolk schrieb:
In was soll es stattdessen umgewandelt werden?
Kinetische Energie!
So kann man gleich den Lüfter betreiben um die GPU zu Kühlen!

Benni1990 schrieb:
Da ich ne Custom wakü habe ist das eher unproblematisch bei mir aber man sieht auch bei 3090ti das die Temps kein problem darstellen und die kühler sehr gut sind
Jup.
Hab meine 6800xt mal leicht übertaktet auf über 500W GPU only.
Selbst da ist der WaKü Block noch nicht geschmolzen.
https://www.computerbase.de/forum/attachments/1637016490698-png.1147375/


Aber BTT:
Ich finde das sehr sehr schade.
Früher liefen die Grakas im SweetSpot und man konnte mit OC noch 15-25% Performance Gewinn rausholen durch völlig Irrsinnigen Stromverbrauch.
Heutzutage ist das eigentlich die Standard Einstellungen und mit Glück gibt's noch nen Quiet Bios.
Dazu kosten die Karten auch noch das 3 Fache.
Es ist wirklich eine schreckliche Zeit für Enthusiasten.... Und es ist keine Besserung in Sicht.
 
Tornavida schrieb:
Ehrlich gesagt fände ich Spekulationen und Gerüchte über 4060,4070&4080 deutlich interessanter

Achtung, dieser Beitrag ist nur MEINE Einschätzung (basierend auf bisherigen Gerüchten)!

Ich denke der Strombedarf wird sich etwa an der höheren Stufe der Vorgängergeneration orientieren.
RTX 4090 - "neu" ~600W
RTX 4080/Ti - RTX 3090/Ti ~400-450W
RTX 4070/Ti - RTX 3080/Ti ~320-350W
RTX 4060/Ti - RTX 3070/Ti ~220-250W

Stromverbrauch kann etwas höher sein durch !hoffentlich! mehr Speicher.

Gibt auch ein paar Gerüchte, die zumindest die 4080 beinhalten:
https://www.computerbase.de/2022-02/nvidia-geforce-rtx-4080-4080-ti-4090/

Grundsätzlich gehe ich von deutlich gesteigerter Performance pro Watt aus (außer bei den absoluten Topmodellen), selbst ein Wechsel innerhalb der gleichen "Serie" (xx60 auf xx60) könnte lohnenswert sein.
 
owned139 schrieb:
Wie kommst du drauf? Kennst du schon Preis, Leistung und Verbrauch von RDNA3?
Ich bezweifle, dass das MCM Design sparsamer und schneller als die monolithische Bauweise sein wird.
Da nvidia jetzt schon mehr Strom braucht wie RDNA 2 für die gleiche Leistung gehe ich davon aus das es bei RDNA 3 ähnlich sein wird.
Raster sind sie eh schon vorne. Deshalb sage ich ja wenn RT gleichwertig wäre dann wäre Nvidia Nr 2.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung
Zurück
Oben