News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

Balikon schrieb:
Wenn man den Gerüchten glauben kann, hat das Flagschiff 80% mehr Cuda-Cores als die GTX 3090 respektive GTX 3090 Ti, die schon bis 450W TBP haben soll.

Es sind ja nicht nur die Cuda Cores. Das ganze drumrum wird massiv ansteigen und will mit Strom versorgt werden.. Da ist nicht mit einer geringeren Stromaufnahme zu rechnen, selbst, wenn man deine optimistische Effizienssteigerung für gegeben hält.

Auch AMD will die Recheneinheiten stark aufstocken, es ist klar, dass das nur in eine Richtung führen kann: Mehr Stromverbrauch.
Sorry, aber die Milchmädchenrechnung stimmt nicht.

Zum einen, ist die 3090 (und die fiktive 3090Ti erst Recht) auch nur eine 3080 mit freigelassener TDP. Die paar Ausführungseinheiten rechtfertigen nicht den Stromverbrauch, sondern die höhere Taktrate jenseits des sweetspots.

Zum anderen ist, wie gesagt, der modernere Fertigungsprozess deutlich im Vorteil. Der GA102 belegt ja auch schon 628mm² , ein eventueller GL102 wird ja ebenso mit ~600mm² gerüchtet. Da könnte der Stromverbrauch auch bei den 450W verbleiben, der sweetspot wäre eh darunter.

Und was für ein "drumherum"? nVidia hat kein magisches package angekündigt, die Karte wird größer werden um die Stromversorgung zu stemmen, das war es aber auch schon. Wir werden wie immer keine exorbitanten Speicher sehen, nVidia hat sich schon lange festgelegt HBM nur im Serverbereich zu verbauen. Consumer bekommen GDDR6X.

Man sieht ja auch an den gerüchteten drei Leistungsstufen dass derselbe Chip mit ~450, 650 und 850W projektiert ist. Ob da ein paar Ausführungseinheiten abgeschaltet sind oder nicht macht den Kohl nicht fett.
Oftmals war es bei nVidia auch so dass die teildefekten Chips in niedrigeren Karten mehr Strom zogen.
Sweetspot eben...
 
GrovyGanxta schrieb:
vllt doch irgendwann eine Series X kaufen?
Oder die 500 € sparen und einfach die Einstellungen deiner PC-Spiele auf Series-X-Settings runterschrauben (Preset medium/high, 60-fps-Limit, maximal RT-Lite...)

Dann ist die Effizienz auch nicht mehr viel schlechter als bei PS5 + Series X.
 
Ich glaube, dass man erstmal abwarten sollte, was die Grafikkarten im Mittel denn tatsächlich verbrauchen, bevor man hier das Ende der Menschheit ausruft.

Nicht vergessen- Wir befinden uns hier in der Gerüchteküche, in der es auch schon seit Jahrzehnten DIE neue Akkutechnologie und unbegrenzen Speicher auf Tesafilm gibt und auch die Energieaufnahme eines Alder- Lake exorbitant über der eines Rocket Lakes gelegen haben muss.
 
  • Gefällt mir
Reaktionen: Innocience, Kommando und hahaqp
Solange eine RTX 4070 mit 16GB VRAM kommt und zwischen 3080 - 3080TI Niveau liegt und dabei nicht mehr verbraucht, können die Grakas oben auch 2KW verbrauchen.

Vielleicht haut NVidia beim grossen Chip extra RT Einheiten drauf, damit RT zumindest auf diesen ordentlich nutzbar wird. Der Klientel dürfte sowohl der Preis als auch der Verbrauch egal sein, solange die Leistung passt.

Naja wir hatten auch früher schon meist eine extra Soundkarte im Gamingrechner, dann rauf bis zu quadsli Systemen, dazu kurz extra Aegis-Karten. 3dfx auch 2-3 Grakas im Rechner, daher sehe ich das alles viel entspannter.
Zumal einen Staubsauger nutzt jeder Haushalt, eine 4090 dürfte wohl nur bei den wenigstens im Rechner landen.

xy1337 schrieb:
Als Freund von effizienter und unhörbarer Hardware muss ich dann wohl am unteren Ende zugreifen. Ich würde mir eine Verdoppelung der Leistung meiner GTX 1070 mit 16 GB VRAM und einer Leistungsaufnahme unter 150 Watt wünschen.
Naja die 3050 ist ja schon auf GTX 1080 Niveau, evtl. könnte hier eine 4060 schon reichen mit 12 GB Vram und halt maximal 200W um 80%+ auf die 1070 zu schaffen. Bleibt noch der Preis.
benneq schrieb:
Dann fehlt nur der Adapter für einen kompakten Umluft-Ofen, damit der Gamer die Abwärme direkt zum Aufbacken von Tiefkühl-Pizza am Schreibtisch verwenden kann.
/afk Patent einreichen
zu spät :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando
Herdware schrieb:
Das würde mich mit meinem 650W-Netzteil wohl bestenfalls auf eine 4070 und kleiner beschränken.

Und ja, ich könnte mir ein neues Netzteil anschaffen und das wäre angesichts der Kosten für die Grafikkarte nicht mal ein wirklich relevanter Aufpreis, aber ich will das aus Prinzip nicht. Irgendwo muss die Vernunft auch mal eine Grenze setzen.
(Außerdem würde wohl auch mein Gehäuse kühlungstechnisch an seine Grenzen kommen. Das ist nicht gerade ein Airflow-Monster.)

Früher hatte ich nur eine "Vernunft-Preisgrenze" für High-End, jetzt kommt die "Vernunft-Verbrauchsgrenze" hinzu, die mich wohl in Zukunft auf Mittelklasse-Karten beschränkt.

Diesen Trend zu explodierenden Verbrauchswerten hatte ich echt nicht vorhergesehen.

Die letzten Absätze sprechen Bände (absolut gut das du das so ansprichst) und ist ein ehrlicher Appell an jeden selbst gerichtet der oder die gerne in PC Komponenten investieren und damit einem Hobby zu frönen.

Manche haben es sich selbst hier im Thread ja auch aus Jucks vorgerechnet (Thema Energiekosten) und ich hatte bei dem Thema auch so meine „Prinzipien“ hinsichtlich hoher Verbräuche, aber diese Entwicklung hab ich mir auch noch nicht so bewusst vor Augen geführt.
 
Wird wohl Zeit für eine grundlegende neue Technik. Mehrleistung durch massiven Stromverbrauch zu generieren ist kein Fortschritt, sondern ein Beweis dafür das diese Art der Technik an seine Grenzen gestoßen ist.
 
Bedankt euch bei euren selbst gewählten Politikern für die höchsten Energiekosten der Welt.
 
  • Gefällt mir
Reaktionen: frank99
Es geht wieder los. Naja die 3000er Karten sind top. Um diese zu verbessern quasi, muss Nvidia mal wieder aufpumpen mit aller Macht. Hört sich nicht gut an.
 
Ihr müsst Euch keine Gedanken machen. Ich konstruiere gerade ein PC Gehäuse, welches sich in einer Klimaanlage befindet. Quasi eine Wasserkühlung 2.0. Die Abwärme wird also direkt nach draußen abgeführt und gleichzeitig kann man die Wohnung kühlen. Ich sehe goldene Zeiten auf mich zukommen!
 
  • Gefällt mir
Reaktionen: Sun-Berg
Mein Glaskugel sagt mir, das die Kühlung teuerer wird als die "Nackte" Grafikkarte :evillol:
 
Dante2000 schrieb:
Wird wohl Zeit für eine grundlegende neue Technik. Mehrleistung durch massiven Stromverbrauch zu generieren ist kein Fortschritt, sondern ein Beweis dafür das diese Art der Technik an seine Grenzen gestoßen ist.
Stichwort Raytracing - Keine Megachips werden mehr gebraucht, sondern viele, energieeffiziente Chiplets können den Job übernehmen.
 
Weyoun schrieb:
Bei steigenden Strompreisen und Energieknappheiten dank Putins Ukraine-Feldzug
Die Steigenden Energiepreise sind Hausgemacht (Pseudo"-Grüne" lol Agenda unter Merkel&SPD und jetzt im Turbo der Ampel, GAS-Börse der EU...) und "Putin" also Russland bzw. Gazprom liefert was "wir" bestellen - wir bestellen aber nicht mehr. Wenn man dann selber die seit Monaten fertiggestellte NordStream2 Pipeline in Geo-Politische Geiselhaft der USA (Polens usw) nehmen lässt, dann ist man als DE schuld.

Abgesehen davon sollte man seine Grafikkarten immer Untervolten. Das hilft enorm. Meine 3070Ti FE frist ca 270 Watt im Standard bei anspruchsvollen games. Untervoltet nur noch 150 bis 170 Watt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: frank99, Bright0001 und wtfNow
XPS schrieb:
Kann ich bestätigen mein Rechner schafft es ohne Probleme einen Raum von 22qm auf 24 - 25c zu Erwärmen, gestern Abend erst wieder bemerkt, im Sommer läuft dafür halt das Klima Splitgerät durch...
Der Mensch erzeugt 60Watt Heizleistung. Bitte mit einberechnen 🙂
 
  • Gefällt mir
Reaktionen: XPS
Matthias B. V. schrieb:
Nein. Alleine durch TSMC N5 vs. Samsung 8LPP müsste sich der Stromverbrauch halbieren bei gleicher Leistung. Dazu kommt noch eine verbesserte Architektur!

60-70% mehr Leistung müssten mit dem Verbrauch der alten 3090 machbar sein. Deutlich über 450W sind damit nicht zu

Das ist etwas mehr als ein kompletter Node Shrink dazwischen. Sprich also etwa 30-45% Verbrauchsvorteil bei gleicher Leistung oder 15-30% Mehrleistung bei gleichem Verbrauch.
Und wie auch schon bei Samsungs 8NM wird man nicht so dicht packen wie es maximal möglich wäre, um Taktraten um die 2Ghz zu erreichen. Also mit viel mehr würd ich nicht rechnen weil das nicht realistisch ist.

Aber für die Miner, RT, 4K HighFPS wird man die Leistung trotzdem beträchtlich steigern wollen.
Man hört ja Zahlen wie Faktor 1.5x bis 2.5x, was pervers wäre. Deshalb wird der Verbrauch deutlich steigern.

Ich denke dieses Mal hat AMD mit den mehrfachen GPU Tiles das deutlich effizientere und schlauere Pferd im Stall. Auch wenn es auch da 450W werden sollten.
Falls sie denn die Treiber hinbekommen.
 
  • Gefällt mir
Reaktionen: Colindo
Auch wenn die Effizienz der großen Karten steigt, diese nominal hohen TDPs sind schon enorm. Von der 1000 Watt-Grenze sind wir nicht mehr weit entfernt.

FranzDurst schrieb:
Viele leben scheinbar in einer Blase, in vielen Ländern der Welt interessiert die Leute der Stromverbrauch herzlich wenig weils dort Strom günstig in Hülle und Fülle gibt, was auch völlig normal ist.
Der Strom selbst (bzw. die Erzeugung) ist in Deutschland gar nicht mal so teuer, es sind die extrem hohen Steuern/Abgaben/Entgelte etc. die den Endkundenpreis so hochschießen lassen. Auch die derzeitigen Energiepreise wirken sich bei den meisten Erzeugern nicht stark aus, da es in diesem Feld üblich ist, langfristige Geschäfte über Termingeschäfte abzusichern, um den Preis stabil zu halten.
 
Bei 300 Watt ist die Abwärme im Raum mir persönlich genug. Mehr ist mir einfach zu unangenehm, weil es auch so etwas wie Sommer gibt und es dann unerträglich heiß im Zimmer ist. Ich muss kleinere Modelle kaufen, hilft nichts.
 
Coenzym schrieb:
Wie soll man das silent kühlen ?
Motorradhelm mit eingebautem DT 990 Pro und Helmkühlung und dann ist es silent ;=)

Und solche News sind gut und recht ernst nehmen kann man die nicht mehr. Versuche mal jetzt eine RTX 3080TI zu bekommen je nach dem was für einen Hersteller man haben will. Und NVIDIA redet von RTX 4...... einfach nur noch lächerlich.

Wenn es so weiter geht wartet man auf eine Grafikkarte wie auf einen Trabant damals ;=)

Und ich schreibe es hier nochmal in der Hoffnung es wird nicht wieder wie an anderer Stelle zensiert. Die EU ist sich offenbar einig, wenn es um gerade Gurken und um Staubsauger die weniger Watt haben geht. Geht es um die Unterhaltungsindustrie winkt man sich hinter den berühmten Türen zu und schaut drüber hinweg. Eine Heuchelei sondergleichen, dass man über erneuerbare Energie CO2 und Co und um die Weltrettung debatiert. Auf der anderen Seite ich sage nur Lobby ist es vollkommen egal, wenn es neue Hardware gibt die jenseits von Gut und Böse Watt verbratet.

Ziel muss es sein Hardware zu entwickeln die Leistung hat ja, aber nicht mit solchen Watt Zahlen aufwartet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GBi und hr.deml
WommU schrieb:
In Zukunft wird der "Stromverbrauch" so oder so stärker reguliert, bis hin zu Rationierungen und zeitweiligen Abschaltungen. Da passen diese Karten nicht mehr in unsere Landschaft. Zumindest nicht für die Allgemeinheit.
Wichtiger wären Ausreizen von Energieoptimierung und vor allem bessere Programmierung und Optimierung der Spielehersteller. Sonst wird das Hobby so teuer, dass deren Absatz und Gewinne sinken.
Das denke ich auch. Allein die unter der jetzigen Regierung stark forcierte Energiewende wird den Strompreis in die Höhe schnellen lassen. Strom wird immer mehr zum Luxusgut werden. Hinzu kommt das durch die Abschaltung der letzten Atomkraftwerke Ende diesen Jahres eine große Versorgungslücke entstehen wird, die auch der Ausbau der erneuerbaren Energien nicht kompensieren können wird (Stichwort Dunkelflaute). Kohle ist dann als nächstes dran. Hinzu kommt ein ständig wachsender Energiebedarf der Bevölkerung (z.B. Elektrauto). Ab 2023 kann es dann häufiger zu Notabschaltungen ganzer Gebiete kommen.
Im nahen Ausland werden zwar neue Atomkraftwerke gebaut, aber auf teuren Zukauf von außen kann man sich auch nicht immer verlassen.
 
@edenjung Das ist vollkommen klar. Ich meinte eher wenn eine 850W Karte die Arbeit von mehreren verrcihten kann, die für die gleiche Arbeit z.B. aktuell noch 2000W verbraten.
 
Wenn wir uns die Geschichte der Leistungsaufnahme von Prozessoren und Grafikkarten anschauen, dann war die Entwicklung immer geprägt durch AMD. Damals zu Pentium 4 Zeiten, als AMD mit Athlon 64 raus kam und Intel in Grund und Boden stampfte bei der Performance, hatte Intel mit dem Prescott reagiert, der dank verlängerter Pipeline und Taktraten um die 4GHz halbwegs konkurrenzfähig war. Auf Grafikseite haben wir damals die FX 5000 Reihe, besonders berühmt die FX 5800 mit ihrem extrem lauten Kühler, wo nvidia ein wenig überrascht wurde von der brachialen Performance der Radeon 9700 Pro und kurz darauf der 9800 Pro, man musste also alles aus dem Chip rausholen was geht und wurde in Folge dessen sehr laut. Gehen wir ein paar Jahre weiter, als AMD viele Monate vor nvidia die HD 5870 rausbrachte, die performant war und relativ genügsam, Nvidia hatte die Leistungskrone zurück erobert mit den Fermi (Thermi) Karten, wo man dann erstmals ein Powerlimit einführte, dann kam wieder die Zeit wo AMD nicht Konkurenzfähig war auf Prozessorseite konnte Intel den Stillstand in 14 nm zelebrieren, dank Bulldozer Flop bei AMD. Man hatte überlegen Leistungsfähige Chips spätestens ab der Ivy Bridge Generation und das mit sehr niedrigem Verbrauch, was man dann auch in den Vordergrund stellte. Auf der Grafikseite konnte Nvidia mit dem eigentlich Mittelklasse Chip in der GTX 680 bereits alles gewinnen und das bei wenig Verbrauch, so das man den großen Chip als Titan in ein neues Segment verschob. Schaut man sich die GTX 1000er Reihe an, da war AMD immer noch recht weit hintendran, wodurch man sehr viel Performance als GTX 1060 mit 120W auf den Markt bringen konnte und selbst eine GTX 1080 nur knapp oberhalb von 200W lebte. Was diese Karten teils grandios zum übertakten machten, nvidia musste die Chips ja nicht ausreizen. Als dann AMD auf beiden Seiten wieder Konkurenzfähig wurde, musste Intel mit 10900K reagieren, der so schwer zu fertigen war, das man den 10850k einführte, da die Selektion von 10900 Chips zu schwierig wurde und Nvidia auf der Grafikseite Karten im Programm hat die inzwischen bei 400W Hallo sagen, da AMD plötzlich mit dem Sprung von RX 580 auf RX 5700 und dann RX 6900 sehr viel Boden gut gemacht hat und Nvidia die Chips selber ausreizen muss.

Ich persönlich hoffe das irgendwie ein staatliches Regulativ eingreift und die Leistungsaufnahme bei Grafikkarten und Prozessoren auf vernünftige Werte begrenzt.
 
Zurück
Oben