News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

bensen schrieb:
Also laut CB hat eine 3090 +15% Performance pro Watt gegenüber einer 2080Ti. Und wie du schon sagst, wir die an der Kotzgrenze bertrieben. Eine 3070 steht mit +28% in der Tabelle.
Also ich sehe da mehr Effizienz.
Also ich weiß nicht wo du die Zahlen her hast. Die 3090 hat 12% mehr Performance pro Watt zur 2080ti laut CB Test ganz davon abgesehen das der Vorgänger eher in der TitanRTX zu finden ist. der Vergleich also hinkt. Und das die "näher an der Kotzgrenze betrieben wird" das ist doch genau das Problem. Weil sie es nicht geschafft haben eine wirkliche Effizienzsteigerung hinzulegen wie AMD mussten sie um mehr Leistung zu haben die Leistungsaufnahme drastisch erhöhen.
bensen schrieb:
Und dazu kommen noch zwei Node Sprünge bei der Fertigung bei der nächsten Generation.
TSMC gibt von 10 nm (entspricht etwa 8LPP) auf 5nm -60% Power bzw. +38% Performance bei gleicher Power an. Es ist also völlig utopisch anzunehmen, dass die Effizienz nicht nennenswert steigt. Selbst ohne Verbesserungen in der Architektur.
Wir werden sehen. Aber wenn sie wirklich so "nennenswert" steigen würde würde es keinen Grund geben die Leistungsaufnahme so in die Höhe schnellen zu lassen.
bensen schrieb:
Zwei Punkte. Nvidia taktet die Spitzenmodelle weiter weg vom Sweetspot und was noch viel wichtiger ist, AMD setzt auf N7 während Nvidia noch auf einen 10 nm (8LPP) Prozess setzt.
Da liegen durch die Fertigung schon erhebliche Unterschiede.
Das machts in keinem Fall besser.
bensen schrieb:
Nein, wie ich schon erklärt habe, ist diese Schlussfolgerungen nicht logisch.
Erstens dauert eine GPU Entwicklung länger. Zu dem Zeitpunkt war das Ausmaß der Nachfrage noch gar nicht klar.
Zweitens reduziert kein Hersteller F&E. Wie stellst du dir das vor? Sie feuern die Belegschaft und nach ein paar Jahren holt man wieder neue, die natürlich keine Einarbeitungszeit brauchen? F&E ist eine permanente Sache, Entwicklungen kommen teils erst Jahre später auf den Markt. Man kann auch nicht einfach ein paar Jahre aussetzen und dann irgendwan urplötzlich weiter vorne weiterentwickeln. Die Jahre fehlen dir einfach.
Ganz einfach du shiftest deine Entwickler von Consumerkarten hin zu Professional Karten und Computing. Und ohh Wunder wir haben große Ankündigungen in die Richtung gesehen.
 
Tornavida schrieb:
Ehrlich gesagt fände ich Spekulationen und Gerüchte über 4060,4070&4080 deutlich interessanter

Wer kauft sich denn freiwillig dieses Ineffizienzmonster einer RTX 4090 ausser den üblichen Early Adoptern, Scalpern, etc., zumal eine Klimaanlage dann nur dafür schon angersten wäre bei der zu erwartenden, saunagleichen Abwärme?

Ich fand meine relativ effiziente GTX 670OC mit i7-2600 schon gut raumerwärmend im Sommer und die GPU lag vielleicht knapp über 200W damals.

Oberhalb einer RTX 4070 sehe ich verbrauchs- und abwärmetechnisch und wohl auch preislich (darunter aber auch was Lovelace angeht) schwarz.
 
wern001 schrieb:
Wird Zeit dass das Transistor-Design geändert wird, so das nicht mehr 99,998% in Wärme umgewandelt werden.
Was genau stellst du dir da physikalisch vor? Energie muss irgendwohin, immer. Alternativ kann der Chip ja vielleicht leuchten oder im Gehäuse Herumsausen oder dein Zimmer Radioaktiv belasten, aber ob das nun so viel sinnvoller ist ...
 
Die Entwicklung geht hier meiner Meinung nach in eine völlig falsche Richtung. Effizienz sollte das Ziel sein.. 450 Watt Leistungsaufnahme ist indiskutabel.
 
Ich muss ja eins sagen, es ist ein Hobby da sind „Vernunft und Ökologische Gesichtspunkte“ erstmal zweitrangig. Aber seit der 10er Reihe sagt hier so ziemlich jeder Enthusiast das die 40-80 Watt den Braten nicht fett machen.

Ich kann mich noch an Freunde erinnern die sagten wenn die Zigaretten 5€ kosten höre ich auf mit rauchen.

Klar wenn der Verdienst stimmt mag mir das auch nichts ausmachen. Nur die generelle Preissteigerung und Inflation scheint so manchem wirklich komplett egal zu sein. Ist schon wunderlich manchmal das hier so zu lesen. Weil am Schluss haben wir alle weniger im Portmonee, egal ob ich 50k oder 120k im Jahr verdiene.

Zu den Verbräuchen der Karten, mich würde mal interessieren wie lange so eine Karte hält. Also mal angenommen es gibt noch eine 4090Ti, wie lange wird die laufen bis alle Teile im inneren den Hitzetod sterben? Nicht jeder baut seine Karte ja auch Wasser um.
 
  • Gefällt mir
Reaktionen: Venatoris
Fliz schrieb:
450 Watt Leistungsaufnahme ist indiskutabel.
Die 450W beziehen sich doch nur auf die GPU, so wie es aussieht wird die komplette Platine bis zu 600W fressen und hier wird die Luftkühlung mit Sicherheit an ihre Grenzen stoßen. Bei der übernächsten Generation können dann NVIDIA und AMD sagen, schaut her wie effizient unsere neuen Karten sind :D
 
Zuletzt bearbeitet:
Wer mit einer Anschaffung liebäugelt:

Hier ein Vergleich zu meinem PC der kühlen Hobbykeller (18°C) mit 1700X und Vega56 UV steht und auf Peak ca 350 Watt kommt. Trotzdem wird es bereits ab 15 Min. AAA Gaming WARM unter dem Schreibtisch. Anfangs wärmt es wohlig die Füsse, aber später wird unweigerlich zu warm.

Im Vergleich dazu kommt ein PC mit RTX 4090 und 12900/5900X so auf 700-800 Watt komplett.
Stell dir einfach eine Herdplatte unterm Schreibtisch vor, die x Stunden lang durchgehend läuft. Wobei die sich ja sogar noch ausschaltet wenn es zu heiss wird!

Mein Fazit:
Ist was fürs Marketing oder maximal vielleich für klimatisierte Serverräume.
 
wern001 schrieb:
Mehrleistung ohne Rücksicht auf Verluste.
Wird Zeit dass das Transistor-Design geändert wird, so das nicht mehr 99,998% in Wärme umgewandelt werden.
Naja, eine 4090 wird vermutlich auch mehr Leistung haben, als ein 4k Spieler unbedingt benötigt. Ich als WQHD Spieler werde vermutlich locker mit einer 4070 auskommen, die hoffentlich nicht mehr Strom benötigt, als eine 3080. Mal sehen. ;)
 
Manchmal hab ich schon das Gefühl, das einige Kommentare auf "was kostet die Welt" oder mein mein Auto, mein Boot, mein Haus hinauslaufen. Weiß nicht, ob das provozieren soll? Man muss nicht damit hausieren gehen das man sich alle 2 Monate 5x 3090 Ti kauft, alle 3 Monate den nächsthören OLED TV etc. wenn man vermögend ist. Die angenehmsten Reichen sind oftmals die, denen man es nicht ansieht...
Und man kann doch vermögend sein, für den das hier alles Peanuts sind und trotzdem nicht die Entwicklung gut heißen? Oder schließt sich sowas automatisch aus?
Wurde doch oft genug geschrieben, jeder soll sich kaufen wann, wie oft er möchte. Andere haben da halt andere Prinzipien. Deswegen ist das nicht gleich die Ökokeule. Es ist und bleibt für die meisten ein Hobby. Und jeder kann darin verballern, soviel er möchte. Aber trotzdem kann ich kritisch hinterfragen.
Ergänzung ()

Stefan1200 schrieb:
4090 wird vermutlich auch mehr Leistung haben, als ein 4k Spieler unbedingt benötigt
Naja, wie du schon gelesen hast, kommt es drauf an. :-)
Cyberpunk in 4K mit Raytracing und am besten minimum 144Hz? Das wird die 4090 meiner Meinung nach auch noch nicht stemmen.
 
  • Gefällt mir
Reaktionen: ComputerJunge, Tapion3388 und Meltman
Neodar schrieb:
Einfach nur Irrsinn.
Sie werden trotzdem gekauft :D

Venatoris schrieb:
Und man kann doch vermögend sein, für den das hier alles Peanuts sind und trotzdem nicht die Entwicklung gut heißen? Oder schließt sich sowas automatisch aus?
Leute die Kohle haben werden sich sicher nicht auf einem Computer Forum rumtreiben. Die haben besseres zu tun ;)
 
sethdiabolos schrieb:
aber im Sommer setze ich mich dann nicht mehr vor so eine Heizung.

Das musste ich auch schon feststellen. Trotz wassergekühlter Graka. Die Abwärme bleibt ja trotzdem und verteilt sich im Zimmer. Lüften bringt auch nichts.... viel mehr als bis auf die Unterhosen kann man sich auch nicht ausziehen in Kombi mit einem Lederstuhl eh nicht zu empfehlen :D

Somit wird halt in den heissen Sommertagen einfach aufs zocken verzichtet.
 
jetzt regt sich jeder auf. Wenn die Benchmarks kommen und man Cyberpunk bei 125259 fps spielen kann, dann will niemand mehr was von der Diskussion wissen....
 
seas888 schrieb:
Also ich weiß nicht wo du die Zahlen her hast. Die 3090 hat 12% mehr Performance pro Watt zur 2080ti laut CB Test ...
https://www.computerbase.de/2021-06...3/#abschnitt_energieeffizienz_in_fps_pro_watt


seas888 schrieb:
Und das die "näher an der Kotzgrenze betrieben wird" das ist doch genau das Problem. Weil sie es nicht geschafft haben eine wirkliche Effizienzsteigerung hinzulegen wie AMD mussten sie um mehr Leistung zu haben die Leistungsaufnahme drastisch erhöhen.
Ja, das ist richtig. Aber der Grund ist ja ein anderer. Nvidia hat ja einen eindeutigen Fertigungsnachteil.
Deine Behauptung war, Ampere ist nicht nennenswert effizienter als Turing. Und das ist falsch. Einige Karten sind nicht effizient, weil sie eben weit über den Sweetspot betrieben werden.

seas888 schrieb:
Wir werden sehen. Aber wenn sie wirklich so "nennenswert" steigen würde würde es keinen Grund geben die Leistungsaufnahme so in die Höhe schnellen zu lassen.
Das hängt ja wohl davon ab, was die Konkurrenz macht. Und die setzt auf ein Dual Die MCP. Wenn AMDs Lösung also wesentlich breiter ist, kann Nvidia dass nur mit mehr Takt kontern. Da wird man mal abwarten müssen was beide zeigen.

Desweiteren steigt die Transistordichte mehr als der Effizienzgewinn durch die Fertigung. Geht man also wieder in die vollen, steigt die TDP, auch wenn es nicht auf Kosten der Effizienz geht.


seas888 schrieb:
Das machts in keinem Fall besser.
Keine Ahnung was du jetzt diskutieren willst. Es ging hier nicht darum besser oder schlechter zu sein, sondern um den Grund warum AMD bei der Effizienz aufgeholt hat. Der Grund ist eben nicht, dass Nvidia die Hände in den Schoß gelegt hat.

seas888 schrieb:
Ganz einfach du shiftest deine Entwickler von Consumerkarten hin zu Professional Karten und Computing. Und ohh Wunder wir haben große Ankündigungen in die Richtung gesehen.
Ach ja? Ich sehe da einen HPC Chip, wie zuvor auch. Den Rat meines Posts ignorierat du zudem komplett.
Die Entwicklung der Architektur geschieht weit voraus, dann folgt die Implementierung. Und du meinst Nvidia hat dann die Chipknappheit vorhergesehen und die Entwicklung eingestellt aber mehr Wafer bestellt, haben sie nicht. Klingt sehr glaubwürdig.
 
BloodReaver87 schrieb:
....... viel mehr als bis auf die Unterhosen kann man sich auch nicht ausziehen in Kombi mit einem Lederstuhl eh nicht zu empfehlen :D

Somit wird halt in den heissen Sommertagen einfach aufs zocken verzichtet.
Ich sitze auch schon mal nackig vorm PC. Da mein Steelcase Gesture aber eine raue Oberfläche hat, empfiehlt es sich ein Handtuch runterzulegen:)
 
Nick.Bo schrieb:
Nur die generelle Preissteigerung und Inflation scheint so manchem wirklich komplett egal zu sein. Ist schon wunderlich manchmal das hier so zu lesen. Weil am Schluss haben wir alle weniger im Portmonee, egal ob ich 50k oder 120k im Jahr verdiene.

Habe ja schon mehrfach geschrieben, ich glaube, wir sehen hier Downgrades. Ein Haus ist z.B. für viele unerschwinglich geworden, ein fettes Auto ist nicht mehr so wichtig, Urlaub&Party war in den letzten 2 Jahren auch nicht angesagt. Da bleibt einfach viel Geld übrig, z.B. für Computerhardware.
Alleine, dass ich mit meiner Frau nicht mehr ca. vier mal pro Jahr ins Kino und nicht vier mal Essen gehe und auch nach Corona wohl nicht mehr damit anfange, spart uns 4x50€ (Parken, Karte, Essen&Trinken, Sprit) fürs Kino und 4x100€ fürs Essen im Jahr.

Eine 4090 kaufe ich natürlich trotzdem nicht :)

pitu schrieb:
Leute die Kohle haben werden sich sicher nicht auf einem Computer Forum rumtreiben. Die haben besseres zu tun ;)
Definiere "Kohle haben". 150m € Yachtbesitzer sind hier bestimmt nicht, 1,5m € Bootsbesitzer vielleicht auch nicht.
Leute, die pro Jahr so 1-2k€ (80-170€ pro Monat) in ihr Lieblingshobby stecken und ansonsten auf nichts verzichten müssen, weil sie an anderen Dingen gar nicht so großes Interesse haben, sind auf jeden Fall hier.
Der Eindruck, dass eine 4090 Peanuts ist, der entsteht ggf. eher beim Leser oder wird gewollt vom Schreiber so dargestellt.


BloodReaver87 schrieb:
Somit wird halt in den heissen Sommertagen einfach aufs zocken verzichtet.

Ich halte diesen "OMG, denkt an den Sommer" ohnehin für übertrieben. Ich sitze im Hochsommer eher nicht vor der Kiste, sondern bin lieber draußen. Ich pausiere sogar oft mein VOD Abo, weil ich keine Lust habe, mir in der warmen Bude Filme und Serien anzuschauen.
Die Heizperiode beginnt hier am 1. Oktober und endet am 30. April, im Mai und Juni und September kann man durch permanentes Lüften die Temperatur ausgleichen, bleiben Juli und August.

Wer wirklich eine 600W 4090 für 2000€ "braucht", der findet eine Lösung für dieses Problem.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Ich glaub da erst mal garnichts mehr. ;)
Lol, frag' mal mich. :D Auch die ganzen Performancenvorhersagen halte ich für Mumpitz. Faktor 2 und mehr wird nicht passieren. Im Leben nicht...
 
Hier scheitert auch NVidia irgendwann an der Leistungsaufnahme wie schon Intel. Was soll uns denn in 5 Jahren erwarten? 1000W nur für die Grafikkarte?
 
wern001 schrieb:
Mehrleistung ohne Rücksicht auf Verluste.
Wird Zeit dass das Transistor-Design geändert wird, so das nicht mehr 99,998% in Wärme umgewandelt werden.
Was sollen Transistoren auch sonst erzeugen außer Wärme (den digitalen Schaltvorgang mal außen vor gelassen)?
 
Zer0Strat schrieb:
Auch die ganzen Performancenvorhersagen halte ich für Mumpitz. Faktor 2 und mehr wird nicht passieren. Im Leben nicht...
Vielleicht in bestimmten Szenarien, durchaus.

Überalles gesehen? Schwer abzuschätzen aktuell und was AMD und NVIDIA wirklich machen. Mal abwarten, was kommt. Geh ich rein nach der Shaderzahl bei RDNA3 und wenn sie 50 W drauf packen und man auch beachtet dass N5 ja durchaus was bringt und je nach dem wie AMD takten kann, ist jetzt Faktor 2 je nach Auflösung und Szenario nicht so abwägig.

In anderen Beriechen wird der Faktor nicht so ansteigen können, weil man solche Rechenmonster in bestimmten Auflösungen überhaupt nicht effektiv auslasten kann. Na sein wir mal gespannt was kommt.

Sollte AMD ihre 350 W halten und da wirklich was bei rum kommen: Hut ab! Na egal, warten wir mal.
 
Zurück
Oben