News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

blackiwid schrieb:
Ich hab nur mal geschaut die Stromkosten die da anfallen sind mehr als ein 7 Tage Mallorca Urlaub mit Mietwagen Finca etc:
https://worldonabudget.de/kosten-auf-mallorca/

Sagen wir so, wenn man sich ohne größere Probleme High end hardware nebenbei kaufen kann, dann macht man auch nicht unbedingt den 400€ Urlaub auf Malle. Aber selbst wenn. Wie jemand leben möchte ist jedem selbst überlassen genauso wie die finanziellen Mittel völlig verschieden verteilt sind. Von 400€ leben in manchen Ländern auch ganze Großfamilien im Monat.

blackiwid schrieb:
Oder man kann sich in 2 Jahren nen neuen Mittelklasse TV kaufen oder mir fallen da halt 1000 Dinge ein die ich lieber haben wollte. Sicher Urlaub ist nicht jedermans Sache, aber ob es nun groessere Monitore, ergonomische Tastaturen, Beamer, TV Geräte, es scheint mir ne Million Dinge zu geben wie ich Geld mit mehr wert ausgeben kann.

Wie gesagt, ist völlig individuell. Und eine Frage der Prioritäten. Manch einer muss mehrere Monate für eine 1500Euro Grafikkarte sparen, bei manchen ist das das Monatsspaßbudget und bei anderen ist das Spielgeld, was man alternativ auch an einem Partyabend durchbringen kann. Je nach Situation ändert sich so eine Betrachtung. Wer in allen anderen Bereichen auch schon entsprechend gut ausgestattet ist, wird das anders sehen, als jemand der sich sowas nach langem Sparen mal gönnt.

calippo schrieb:
Alles eine Frage der Prioritäten. Wenn jemand 4h pro Tag spielt im Schnitt, also seine Freizeit fast komplett für Gaming verwendet, dann muss dieser eine sehr hohe Gamingpriorität haben.

Ich glaube viele Vollzeit Berufstätige haben mehr als 4 Stunden Freizeit. Aber ist auch wieder individuell, wie man die verbringen möchte.

blackiwid schrieb:
Nochmal selbst wenn ich mal einfach gerne 50 Euro pro Monat verbrenne, aus Ignoranz und weil ich unbedingt auf 4k mit 144hz zocken muss. Dann kommt entweder noch ne Klimaanlage mit (gut die ist im Vergleich dazu dann wahrscheinlich stromsparend)

Nein, kann ich dir aus Erfahrung sagen, dass eine Klimaanlage recht Energiehungrig ist :)

blackiwid schrieb:
Oder man kauft sich so ne teure Karte nur um sie dann im Sommer nicht nutzen zu können da man nicht gerne in der Sauna spielen will.

Naja oder man spielt nicht in einem schlecht isolierten Altbau Dachgeschoss. Je nach Raumsituation braucht man nicht unbedingt eine Klima um mit der Abwärme im Sommer klarzukommen.



blackiwid schrieb:
ich seh nur nicht das es zumindest kein Massenphenomen werden wird.

Genauso wie High End Produkte wie Oberklasse Grafikkarten keine Massenprodukte sind

blackiwid schrieb:
die Deutschen sind Stinkreich und Verschwenderisch bis zum abwinken und die nächste Nvidia Generation wird dann wohl 5000 Watt verbrauchen

Es gibt in Deutschland arme und reiche Menschen und alles dazwischen. Anhand eines Autos kann man das aber nicht wirklich feststellen. Was aber viele gerne vergessen. Bei vielen Millionen Menschen sind auch die obersten 10% noch sehr sehr viele Menschen absolut.

PusteBlume0815 schrieb:
Auf jedes Elektrogerät muss von Gesetz wegen ein Energielabel. Warum gilt das nicht auch für Hardwarekomponenten?

Weil es bei den Schnellen Effizienzschritten bei PC Hardware wenig Sinn macht. Was heute effizient ist, ist eine bis zwei Generationen später schon völlig veraltet.

PusteBlume0815 schrieb:
Sollten die Angaben nur halbwegs stimmen, wäre das wirklich eine fatale Entwicklung.

Nein, denn wir kennen die Leistung nicht. Aber die Diskussion über die Effizienz habe ich aufgegeben. Entweder möchten die meisten das hier nicht verstehen oder können es nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus, VoAlgdH und highwind01
blackiwid schrieb:
That said, denk nicht das die Deutschen mit SUV 4h am Tag rum fahren, wenn man nur seine 3km zur Arbeit faehrt stört der hohe Spritverbrauch für die kurze Distanz ja weniger.
Warum spekulieren, wenn es dazu Daten gibt?

Im Schnitt fahren die Deutschen ca. 13.000 Km und der Pendler fährt ca. 14km zur Arbeit (einfache Strecke vermute ich, bin mir aber nicht sicher) und der Kilometer kostet ca. 30 Cent. Solche Zahlen findet man im Netz dazu.
Allerdings scheinen junge Leute gar nicht mehr so viel Wert auf ein eigenes Auto zu legen, insbesondere in Großstädten verzichten sie darauf und dann wird natürlich einiges an Geld frei, das dann ggf. in höher priorisierte Dinge wie Handy oder eben Gaming-PC gesteckt wird. Und obwohl 1000€ Handys und 2000€ 1000 Watt Grafikkarten sehr teuer sind in Anschaffung und Unterhalt, im Vergleich zum Auto sind das fast Peanuts.

m3rch3r schrieb:
Zu mutmaßen, solche Verbrauchswerte würden Kunden solcher High-End-Karten abschrecken, ist angesichts der aktuellen Lage recht sinnfrei. Wie man sieht, verkauft sich alles wunderbar, gleich des Preises oder Verbrauchs. Wer sich heute eine RTX 3090 für 2000 Euro und mehr leistet, verschwendet sicher wenige Gedanken an 100-200 Euro Mehrkosten pro Jahr.
Genau das sehe ich auch. Sollte sich das Preisgefüge für die 4000er Generation ein bisschen entspannen, weil die Chips verfügbarer werden, weil Mining weniger interessant ist, weil Intel als neuer Konkurrent agiert, dann werden die Verbrauchspreise noch ein bisschen weniger relevant.
 
LOL, also:
GeForce RTX 4080 , mit 450 Watt
GeForce RTX 4080 Ti , mit 600 Watt
GeForce RTX 4090 , mit 800 Watt
OMG. das in meinen Augen und den baldigen Strompreisen von über 0.40€/Kwh, definitiv zu viel.
Irgendwie läuft bei nVidia was falsch.
 
edenjung schrieb:
Ich möchte nur Mal daran erinnern, dass der A100 von Nvidia nur 250W verbraucht. Mit 40gb RAM usw.

Effizienz geht auch bei riesigen Chips.
Man muss es nur wollen.
Ja aber dann fehlen die prestigeträchtigen Hochfrequenz Kerne äh ich meine GPU.
Ich Frage mich ob man so ein Verbrauchsmonster nicht in erster Linie für die Gamer baut. Sondern für die Miner.
Und was soll man erwarten bei doppelten Verbrauch auch doppelte Leistung? Ich mein bei einer neuen Generation würde ich das mindestens erwarten.
Kann ja Nvidia neue Slogans machen: For the Miner und The Way it's Meant to bei Mined :freak:
:D
 
  • Gefällt mir
Reaktionen: edenjung
kachiri schrieb:
Sorry. 850 Watt ist kompletter Wahnsinn. Auch im Hardwarebereich sollte man sich Gedanken machen, wie man "sparsamer" und "bewusster" mit Ressourcen umgeht.
In dem Fall hast du dann auch deinen Herd und ähnliche Verbraucher auch direkt ausgebaut ?

Wäre ja kompletter Wahnsinn einen 3,6kW Herd zu betreiben und das womöglich 2 Std beim kochen ? Da sollte man schon bewusste mit umgehen. Kauf dir n Sandwich statt hier so Energie zu verschwenden.

Gordon-1979 schrieb:
LOL, also:
GeForce RTX 4080 , mit 450 Watt
GeForce RTX 4080 Ti , mit 600 Watt
GeForce RTX 4090 , mit 800 Watt
OMG. das in meinen Augen und den baldigen Strompreisen von über 0.40€/Kwh, definitiv zu viel.
Irgendwie läuft bei nVidia was falsch.

Ne, bei euch in DE läuft was falsch, nicht bei nVidia. Ihr habt eure tolle Energiewende preislich einfach nicht im Griff. 🤣
 
  • Gefällt mir
Reaktionen: Vitec, Shoryuken94 und VoAlgdH
600mm Die?
@SV3N Mein Namensvetter, magst du qmm draus machen?
Ich bin Einheitenfetischist und mm klappt so eher nicht xD
 
  • Gefällt mir
Reaktionen: SVΞN und Colindo
Echt faszinierend, wie viele Menschen sich hier genötigt sehen, unter Beweis zu stellen, dass sie offensichtlich die Bedeutung von "Effizienz" nicht verstehen...
 
  • Gefällt mir
Reaktionen: hahaqp, Shoryuken94 und VoAlgdH
Herdware schrieb:
Und die Kühlung des ganzen PCs muss auch entsprechend leistungsfähig sein. Ich würde sagen, 90% aller heutigen Gehäuse fallen bei solchen Verbrauchswerten der GPU (und die CPUs werden ja auch nicht sparsamer) schon mal mangels Airflow raus. Oder es müssen halt zwei große AIOs oder besser gleich eine Custom-Loop-Kühlung sein, was auch längst nicht mit jedem Gehäuse geht.
Ich finde es hier viele vergessen. Es geht hier nicht nur darum den PC zu kühlen. Ich will im Sommer nicht darüber nachdenken müssen ob ich oder der PC den Hitzetod stirbt. Vor allem wenn es Mal wieder Tagelang über 24° draußen sind und ich Mal abends zocken will. Nicht jeder hat seinen PC im Wohnzimmer mit 30qm stehen wo sich die Hitze besser verteilen kann. Selbst die 300-500 Watt mein Rechner mit dem Monitor an Wärme produziert kann schon Recht unangenehm werden.
Und selbst bei mir im Wohnzimmer am 4k TV und 36qm Fläche wird es ganz schön warm. Im Arbeitszimmer mit 10qm wird es teils unangenehm das ich im Winter das Fenster öffnen muss.
 
ThirdLife schrieb:
In dem Fall hast du dann auch deinen Herd und ähnliche Verbraucher auch direkt ausgebaut ?

Wäre ja kompletter Wahnsinn einen 3,6kW Herd zu betreiben und das womöglich 2 Std beim kochen ? Da sollte man schon bewusste mit umgehen. Kauf dir n Sandwich statt hier so Energie zu verschwenden.



Ne, bei euch in DE läuft was falsch, nicht bei nVidia. Ihr habt eure tolle Energiewende preislich einfach nicht im Griff. 🤣
Badam-Tsssss.
 
Der mutmaßliche hohe Verbrauch dürfte doch ausschließlich dem Ziel geschuldet sein, in Zukunft noch höhere Preise einzufordern. Im Gegenzug wird Leistung satt geliefert, so dass die Hersteller sich im Falle eines Shitstorms darauf berufen können.

mit frdl. Gruß
 
Ich mag solche Heizkraftwerke überhaupt nicht. Neben dem 12VHPWR Power-Stecker sollte man konsequenterweise auch gleich Anschlußstutzen für die Wasserkühlung vorsehen. Wie soll man so etwas noch leise mit Luft kühlen können?

Technisch gesehen ist das aber durchaus erklärbar. Nehmen wir mal an der neue Grafikchip bekommt doppelt so viele Recheneinheiten wie sein Vorgänger bei gleicher Taktfrequenz. Gleichzeitig wird der Fertigungsprozeß von 8 nm auf 5 nm "geshrinkt". Der neue Fertigungsprozeß (5 nm) ist aber nur etwa 20-30% energieeffizienter als der alte. Daraus ergibt sich daß eine 200W-Grafikkarte mit n Recheneinheiten im 8 nm Prozeß dann zu einer 280 ... 320 W-Grafikkarte mit 2 * n Recheneinheiten im 5 nm-Prozeß wird.

Sehr vereinfacht gerechnet müßten entsprechend skalierte RTX4xxx-Grafikkarten auf die folgende Leistungsaufnahme kommen:

30% effizienter20% effizienterzum Vergleich
RTX4050182 W208 WRTX3050: 130 W
RTX4060238 W272 WRTX3060: 170 W
RTX4070308 W352 WRTX3070: 220 W
RTX4080448 W512 WRTX3080: 320 W
RTX4080Ti490 W560 WRTX3080Ti: 350 W
RTX4090490 W560 WRTX3090: 350 W
RTX4090Ti630 W720 WRTX3090Ti: 450 W

Bei der vereinfachten Rechnung habe ich die TGP hochskaliert. Eigentlich müßte man aber vorher noch die Leistungsaufnahme des Grafikspeichers herausrechnen. Dennoch ist ein klarer Trend erkennbar. Und die von Greymon55 gelieferten Werte für die RTX4090 sind noch deutlich höher.

Um diesem Trend entgegen zu wirken müßte man die einzelnen Recheneinheiten neu designen und konsequent auf Energieeffizienz trimmen (und dazu noch aggressiveres Power-Gating betreiben).

Moderate Taktfrequenz-Reduzierung und Undervolting würden auch helfen, das zeigt z.B. die RTX A5000 ganz gut (die liegt bei ca. 230 W). Aber das wird NVIDIA nicht machen da man ja die Konkurrenz (AMD, Intel) bei Benchmarks ausstechen will.

Ich hatte mir eigentlich vorgenommen nur noch Grafikkarten mit maximal etwa 200 W Leistungsaufnahme zu kaufen. Aber da bleibt dann nur noch die RTX4050 übrig. Oder die RTX4060/4070 mit Taktreduzierung und Undervolting.

An der Physik führt hier wohl kein Weg vorbei ...

Updates: RTX4080Ti/RTX4090 ergänzt / TDP durch TGP ersetzt.


Intel i7-11700K | Noctua NH-D15S | Asus ROG Strix Z590-E | 32 GB RAM @ 3600 CL16 | 1TB NVMe | 4TB SSD
Zotac GTX1080 | MSI MPG341CQR | Seasonic Prime TX-850
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banjo
Wenn man die Kosten des Stromverbrauchs beim Kartenpreis abzieht bin ich dabei. Also auf durchschnittliche 2 Jahre Nutzung dann mindestens minus 500 Euro bei derzeitigen 40 Cent/kwh. Dank dem Krawallrussen dann wohl demnächst auch mehr, wenn wir überhaupt noch welche brauchen werden. Nvidia fährt derzeit einen Kurs der ist einfach nur noch krank. Wir reden von Effizienz und die ballern fast 1KW Grafikkarten raus, was ist das Ziel das die EU wie bei Staubsaugern den Stecker ziehen muss ?
 
ThePlayer schrieb:
Ja aber dann fehlen die prestigeträchtigen Hochfrequenz Kerne äh ich meine GPU.
Ich Frage mich ob man so ein Verbrauchsmonster nicht in erster Linie für die Gamer baut. Sondern für die Miner.
Die A100 minet sehr viel schneller ne a A102 (3080-3090). Da spielt vor allem der Speicherdurchsatz den grossen Tango. Und der ist bei der A100 dank 40-80GB HBM2E und damit 1.5TB/Sek Durchsatz etwa doppelt so hoch wie bei den Gaming Ablegern. Davon ab dass sie dabei sehr viel effizienter agiert, kostet sie halt auch 10K Schleifen, hat keine Displayanschlüsse und kann nach dem Runterrocken nicht an einen armen Gamer verscherbelt werden.
Die wird den meisten Minern daher zu teuer sein.
 
Zuletzt bearbeitet:
owned139 schrieb:
Sowas sollte immer in Relation zur Leistung stehen. Eine Graka die 800W verbraucht, aber 4x so schnell ist wie eine 400W Graka, wäre in einem Rechenzentrum effizienter und würde den Verbrauch sogar senken.
Ja in Rechenzentrum ist das ja auch egal. Aber Zuhause. Wer möchte direkt neben einem 850W Heißluftgebläse sitzen. Selbst wenn man das gekühlt bekommt selbst wenn es "nur" 600W sind kommt noch der 4k oder UWQHD Monitor 30" und mehr und die 100W+ CPU dazu die auch Wärme abgeben.
 
Nightmare25 schrieb:
Also auf durchschnittliche 2 Jahre Nutzung dann mindestens minus 500 Euro bei derzeitigen 40 Cent/kwh. Dank dem Krawallrussen dann wohl demnächst auch mehr, wenn wir überhaupt noch welche brauchen werden.
Unsere Kraftwerke haben wir selber in die Luft gejagt, die Russen waren das nicht^^.
 
crackett schrieb:
Auch da stellt sich wie bei allem die Frage nach der Verhältnismäßigkeit.

Eben, genau darum geht es mir ja.

Ich bin sicher kein Heiliger, wenn es um den eigenen CO2 Fußabdruck geht und ich will mich auch nicht als Moralapostel aufspielen (auch wenn es gegebenenfalls so rüber kommt), nur finde ich, dass bei vielen Consumer Flaggschiff/Halo Produkten genau diese Verhältnismäßigkeit komplett abhanden gekommen ist.

Statt eines 600mm²/>500Watt GPU 'Monsters' kann man auch 2 Playstation 5 Systeme laufen lassen. (Theoretisch sogar noch mehr, da 5nm vs. 7nm und bei der GPU muss ja noch ne CPU zusätzlich laufen.)

Gilt in anderen Bereichen genau so.
Willkürliches Beispiel: Statt eines Hummer EV mit ~200kWh Akku, kann man mit den gleichen Ressourcen auch 2 Ford F150 bauen.

Auf sowas darf man mMn durchaus hinweisen, denn die größeren Systeme machen mMn ab einem gewissen Zeitpunkt schlichtweg nicht mehr doppelt oder dreifach so viel Spaß, verbrauchen aber nachweislich und objektiv mehr endliche Ressourcen, als die 'sinnvolleren', effektiveren, kleineren Systeme.

Dass man diese Linie selbstverständlich immer weiter verschieben kann*, ist mir klar und ich habe definitiv nicht 'Die Lösung', nur finde ich die Entwicklung, gerade in Anbetracht der vorhandenen Probleme, durchaus... nunja, problematisch.

crackett schrieb:
Um es mal auf die Spitze zu treiben, wäre Suizid der Maximalbeitrag zum Klimaschutz…

Ist zwar rein technisch korrekt, ist aber doch nur eine 'Reductio ad absurdum'. Mit sowas bringt man die Debatte nicht wirklich vorwärts.

*Warum ne 4080Ti? Ne PS5 tut es doch auch. -> Warum ne PS5? Ein Laptop tut es doch auch. -> Warum nen Laptop? Ein Smartphone tut es doch auch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und M@tze
Shoryuken94 schrieb:
Nein, denn wir kennen die Leistung nicht. Aber die Diskussion über die Effizienz habe ich aufgegeben.

Effizienz ist aber nur die eine Seite der Medaille. Wenn die Karte bei der 4 fachen Leistung einer 3090 "nur" 1kW verbraucht ist das zwar effizient, aber gut muss man das (die 1kW Verbrauch) trotzdem nicht finden.

Wenn die optische Qualität der Spiele in dem selben Maße mitsteigen würde, wäre das ja noch irgendwo vertretbar, aber wenn wir ehrlich sind, sind die Grafiksteigerungen von einer guten Mittelklasse Karte zu einem Highend Modell abseits von Bechmarks und statischen Screenshotvergleichen oft mit der Lupe zu suchen und im normalen Spielfluss oft kaum auszumachen. Das heisst, im Endeffekt habe ich ein 1kW Kraftwerk unterm Tisch stehen, das vor Kraft kaum laufen kann und auf meinem Bildschirm sieht es fast aus wie vorher, weil keiner mit der Grafikleistung was sinnvolles anstellen kann.
 
  • Gefällt mir
Reaktionen: v_ossi
calippo schrieb:
Allerdings scheinen junge Leute gar nicht mehr so viel Wert auf ein eigenes Auto zu legen, insbesondere in Großstädten verzichten sie darauf und dann wird natürlich einiges an Geld frei, das dann ggf. in höher priorisierte Dinge wie Handy oder eben Gaming-PC gesteckt wird. Und obwohl 1000€ Handys und 2000€ 1000 Watt Grafikkarten sehr teuer sind in Anschaffung und Unterhalt, im Vergleich zum Auto sind das fast Peanuts.

Wobei zu bedenken ist, dass das Leben in der Stadt tendenziell teurer ist. Fängt bei den Mietpreisen an und hört bei den Freizeitaktivitäten auf. Von der Differenz zwischen Stadtwohnung und Dorfwohnung lässt sich oft locker ein Fahrzeug finanzieren.

Aber es stimmt schon, dass der Trend zum eigenen Auto in der Stadt rückläufig ist. Das deswegen die Finanzen in der Stadt besser sind, ist fraglich. Die Verdienstmöglichkeiten in der Stadt sind aber meist deutlich besser. Da kommt schon am Anfang der Kette um einiges mehr raus.

Je nach Region macht das natürlich echt was aus. Sieht man z.B. schön im Bereich Braunschweig / Wolfsburg, wo sechsstellige Haushaltseinkommen bei jungen Paaren keine Seltenheit sind. Das sieht auf dem Land wiederum etwas anders aus, zumindest in der Masse.

Nightmare25 schrieb:
Wir reden von Effizienz und die ballern fast 1KW Grafikkarten raus, was ist das Ziel das die EU wie bei Staubsaugern den Stecker ziehen muss ?

Das Problem ist doch, dass die meisten das Wort Effizienz nicht verstehen. Merkt man hier in den Kommentaren super. Verbrauch ≠ Effizienz. Aber ich habe die Hoffnung aufgegeben, dass das verstanden wird. Dann könnte man ja nicht jeden Tag unnötige Hasskommentare und Parolen in einem Technikforum posten.

ThePlayer schrieb:
Ja in Rechenzentrum ist das ja auch egal. Aber Zuhause. Wer möchte direkt neben einem 850W Heißluftgebläse sitzen. Selbst wenn man das gekühlt bekommt selbst wenn es "nur" 600W sind kommt noch der 4k oder UWQHD Monitor 30" und mehr und die 100W+ CPU dazu die auch Wärme abgeben.

Oh im Rechenzentrum spielt das auch eine Rolle. Je nach Aufbau ist da die Leistungsaufnahme pro Rack beschränkt und Energie und Kühlung müssen wirtschaftlich sein. Da sind wir wieder bei der Effizienz, die man bislang nicht bewerten kann.

Zu Hause kann die Wäre ein Problem werden, wenn man in einem kleinen Raum ist oder keine Klimaanlage hat. Ich glaube global ist das weniger ein Thema, da ACs recht verbreitet sind und Strom billig. Aber ja, muss man am Ende wissen, ob man das möchte.

sidewinderpeter schrieb:
verboten solls werden, vom umweltbundesamt!


Oh ja Fortschritt verbieten. Das ist immer eine super Idee.
 
  • Gefällt mir
Reaktionen: VoAlgdH
Zurück
Oben