Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch
das zukünftige HighEnd wir in allen Lagen extrem werden.
Nichts was für OTTO Normal Sinn macht.
Sei es Kühlung bei annehmbarer Lautstärke, sei es das wieder neue Netzteil samt Verbrauch, letztendlich die Kosten der Anschaffung. Die Hürden für HighEnd gehen da exorbitant nach oben! Das gute ist, fürs normale daddeln wird auch der "normale" Aufwand reichen. Auf ein Big Tower mit 10 Lüftern oder so... hätte ich kein Bock. Hoffe mein 850W Netzteil reicht noch... Preise sind eh sinnlos...
Da ich ne Custom wakü habe ist das eher unproblematisch bei mir aber man sieht auch bei 3090ti das die Temps kein problem darstellen und die kühler sehr gut sind
Im Winter als Heizung gut... Wenn ich mit meiner 5900x und Rx6800XT ein paar Stunden zocken, muss ich derzeit irgendwann mal die warme Luft rauslassen... 😮💨
Ekelhaft. Der Halbleitermangel hat die Technologieentwicklung wirklich zurückgeworfen. Die Leute kaufen alles was es gibt warum also wirklich entwickeln wenn man einfach mehr Strom reinballern kann.
Woran machst du das fest? Die Effizienz wird erheblich steigen. Nur steigert man eben die Performance im größeren Maße als die Effizienz.
Es gibt aber keinen einzigen Anhaltspunkt, dass die Entwicklung verlangsamt wurde, weil eh alles gekauft wird.
Der Großteil der Entwicklung war zudem schon zu einem Zeitpunkt, als der Halbleitermangel noch gar nicht akut war.
wer auf ein paar Lichtstrahlen mehr und übertriebene Spiegeleffekte keinen Wert legt ist auch locker noch mit der aktuellen Grafikkarten Generation zufrieden.
Ich denke meine Grafikkarte wird noch drei bis vier Generationen durchhalten.
Dann bekomme ich wie früher mit neuer Grafikkarte auch wieder 40% mehr Leistung
Wie kommst du drauf? Kennst du schon Preis, Leistung und Verbrauch von RDNA3?
Ich bezweifle, dass das MCM Design sparsamer und schneller als die monolithische Bauweise sein wird.
Bin mal gespannt. AMD ist Stand jetzt schon effizienter und ich könnte mir vorstellen, dass sie sich mit dem MCM-Design vergleichsweise mehr Fläche leisten können, weil sie trotzdem weniger Ausschuss haben werden, und dann mehr Einheiten langsamer bzw. am Sweetspot fahren können, ohne gleich einen Monsterchip zu haben. Zumindest in meinem Laienhirn könnte das so funktionieren. Die Frage ist aber, ob AMD das so plant oder auch an die Kotzgrenze geht, weil damit vielleicht noch mal mehr Profit zu machen ist...
Tawheed schrieb:
Tja euer Spiele Hobby ist halt sehr co2 intensiv. Die ganzen Pixel und Geometrie muss ja irgendwie berechnet werden...
Ich spiele CO2-neutral, der Strom kommt vom Dach.
Wir könnten ja auch schon weiter sein, aber schwarz-gelb hat dem ja recht erfolgreich einen Riegel vorgeschoben, mit Abstandsregeln, weniger Geld für Photovoltaik und weiter fleißig Subventionen für Braunkohle usw.
Für mich ist bei maximal 250W Schluss. Wenn in Zukunft Mehrleistung immer mit deutlich mehr Verbrauch einhergeht wird meine 6700XT noch eine ganze Weile im Rechner bleiben. Aber 3-4 Jahre mit der plane ich eh ein, bis dahin kann viel passieren. Man kann nur hoffen, dass solche Karten sich für die Hersteller nicht rechnen, der Absatz einbricht und ein Umdenken stattfindet. Allein mir fehlt der Glaube.
Besser mit Strom heizen als mit russischem Gas.
Wobei eine Wärmepumpe für die Aufgabe effizienter ist, allerdings hat die keine Spieleleistung als Verlust.
Wenn man außer acht lässt dass schlussendlich jede Energie in Wärme überführt wird könnte man ja LEDs statt blöder Trasistoren verwenden. Wenn die Diskokugel im PC hektisch flackert wird gerade gerechnet XD
Oder sollte die Energie eher elektromagnetisch in die Umgebung abgestrahlt werden? Da jammern die Leute doch schon wegen Handys. Was wäre da erst los wenn in jeder Wohnung ein paar hundert Watt abgestrahlt werden um Hirne zu braten? Allerdings könnte man den PC dann ggf. als Mikrowellenersatz nutzen.
Aber dann wird es ja doch wieder nur warm :/
Die Physiker der Welt sind offen für Vorschläge.
Spaß beiseite, prinzipiell klingt es doch erstmal positiv wenn der Anteil der GPU am Verbrauch steigt. Der Rest ist ja nur overhead, die GPU macht die Rechenarbeit. Selbst der Speicher ist nur dafür da die zu versorgen, je weniger der Rest braucht, desto besser sollte sich der Energiebedarf auch leistungsabhängig regeln lassen.
p.s.
calippo schrieb:
Der Autovergleich ist aber trotzdem interessant, weil wohl niemand 24/7 auf maximaler Last zockt.
'niemand' ist wohl übertrieben, die meisten zocken nicht 24/7. Für die Zeit wo kein Spiel läuft gibt es z.b. PrimeGrid, Einstein@home usw
Gut, das verbraucht auch etwas weniger als furmark, ist also nicht exakt maximallast.
hmm ok dass ist dann echt doof.
Könnte mir aber gut vorstellen, das die hersteller den Aufwand geschäut haben, die 3000er serie als kompaktes design aufzubauen, da die KArten auch so quais sofort ausverkauft waren.
Bin aber ehrlich gesagt davon ausgegangen, dass es von der 3070 oder der 3060 kompakte designs gibt, da die von der leistungsaufnahme ja durchaus im rahmen wären.
es nimmt mittlerweile echt lächerliche züge an. wie will man das ohne fette wakü noch kühlen? und partnerkarten werden da ja vermutlich zum teil nochmal ne ordentliche schippe drauflegen...
hoffentlich kriegt man in der generation überhaupt noch karten mit unter 200W verbrauch.
anappleaday schrieb:
Halt 100W mehr als die 3090, uhh, wow, nein, böse[...]
Kinetische Energie!
So kann man gleich den Lüfter betreiben um die GPU zu Kühlen!
Benni1990 schrieb:
Da ich ne Custom wakü habe ist das eher unproblematisch bei mir aber man sieht auch bei 3090ti das die Temps kein problem darstellen und die kühler sehr gut sind
Aber BTT:
Ich finde das sehr sehr schade.
Früher liefen die Grakas im SweetSpot und man konnte mit OC noch 15-25% Performance Gewinn rausholen durch völlig Irrsinnigen Stromverbrauch.
Heutzutage ist das eigentlich die Standard Einstellungen und mit Glück gibt's noch nen Quiet Bios.
Dazu kosten die Karten auch noch das 3 Fache.
Es ist wirklich eine schreckliche Zeit für Enthusiasten.... Und es ist keine Besserung in Sicht.
Achtung, dieser Beitrag ist nur MEINE Einschätzung (basierend auf bisherigen Gerüchten)!
Ich denke der Strombedarf wird sich etwa an der höheren Stufe der Vorgängergeneration orientieren.
RTX 4090 - "neu" ~600W
RTX 4080/Ti - RTX 3090/Ti ~400-450W
RTX 4070/Ti - RTX 3080/Ti ~320-350W
RTX 4060/Ti - RTX 3070/Ti ~220-250W
Stromverbrauch kann etwas höher sein durch !hoffentlich! mehr Speicher.
Grundsätzlich gehe ich von deutlich gesteigerter Performance pro Watt aus (außer bei den absoluten Topmodellen), selbst ein Wechsel innerhalb der gleichen "Serie" (xx60 auf xx60) könnte lohnenswert sein.
Wie kommst du drauf? Kennst du schon Preis, Leistung und Verbrauch von RDNA3?
Ich bezweifle, dass das MCM Design sparsamer und schneller als die monolithische Bauweise sein wird.
Da nvidia jetzt schon mehr Strom braucht wie RDNA 2 für die gleiche Leistung gehe ich davon aus das es bei RDNA 3 ähnlich sein wird.
Raster sind sie eh schon vorne. Deshalb sage ich ja wenn RT gleichwertig wäre dann wäre Nvidia Nr 2.