News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

M1ch1 schrieb:
Warum schlechter Vergleich?
Der Vergleich wäre an sich ganz interessant, da du dich aber mega verrechnet hast, ist er relativ schlecht :).

600W bei 24/7 Betrieb über 365,25 Tage sind 5259,6 kWh ... also ca. 5300 so weit so richtig.
Aber wenn ich mit einem Elektroauto 18kWh/100km verbrauche (15kWh/100km ist doch sehr optimistisch) dann entsteht folgende Rechnung um auf die Strecke in km zu kommen, die man damit fahren kann:

5259,6kWh / 18kWh * 100km und das sind 29220km was schon ziemlich viel ist und das Hobby RTX 4090 doch in einem etwas anderen Licht da stehen lässt :). Auch wenn es nur eine Grenzbetrachtung ist.
 
Ich will das Gejammer über den Verbrauch nicht stören, daher mal offtopic;

Sollte die 4090 in Cyberpunk Psychosettings inkl.. Raytracing mindestens 50% mehr fps netto als meine 3090 Strix raushauen können in UWQHD, wird sie gekauft 🤩
 
Fighter1993 schrieb:
Da nvidia jetzt schon mehr Strom braucht wie RDNA 2 für die gleiche Leistung gehe ich davon aus das es bei RDNA ähnlich sein wird.
Raster sind sie eh schon vorne. Deshalb sage ich ja wenn RT gleichwertig wäre dann wäre Nvidia Nr 2.
Nvidia hat aktuell auch die schlechtere Fertigungstechnik. TSMCs 7nm sind besser als Samsungs 8nm und genau das ändert sich mit Lovelace, da Nvidia zukünftig auch bei TSMC fertigen lassen wird.
 
Fighter1993 schrieb:
Da nvidia jetzt schon mehr Strom braucht wie RDNA 2 für die gleiche Leistung gehe ich davon aus das es bei RDNA ähnlich sein wird.
Raster sind sie eh schon vorne. Deshalb sage ich ja wenn RT gleichwertig wäre dann wäre Nvidia Nr 2.

Die Fertigung ist diese Generation aber identisch, vorher hatte nvidia Samsung 8nm und AMD TSMC 7nm, hab da zwar keinen Direktvergleich, aber ich tippe darauf, dass TSMC vorne liegt.

Jetzt sind beide auf TSMC 5nm - da kann man dann vergleichen und ich erwarte nicht, dass sich die beiden in dieser Generation viel nehmen werden.

Eventuell liegt AMD durch MCM im Bereich Rasterizer auch leicht vorne, RT denke ich wird nvidia weiterhin deutlich gewinnen (interessiert mich zwar nicht wirklich...)
Ergänzung ()

ix.tank schrieb:
5259,6kWh / 18kWh * 100km und das sind 29220km was schon ziemlich viel ist und das Hobby RTX 4090 doch in einem etwas anderen Licht da stehen lässt :). Auch wenn es nur eine Grenzbetrachtung ist.

Und wir reden dabei NUR von der GPU (am Limit) ;)
Prozessor, Monitor, Soundsystem verbrauchen auch alle ordentlich.
 
Ich möchte sowas wie die 6800.
Der sweetspot was Leistung, verbrauch und UVP angeht von dieser Generation.
Nur halt bei der nächsten generation. Mir auch wurst von welchem Hersteller das sein wird.

Dann bin ich glücklich. Von mir aus auch als Ref design. Das ist dieses mal wirklich gut gelungen bei AMD.
 
  • Gefällt mir
Reaktionen: Laphonso
wern001 schrieb:
Mehrleistung ohne Rücksicht auf Verluste.
Wir Zeit dass das Transistor-Design geändert wird, so das nicht mehr 99,998% in Wärme umgewandelt werden.
Da Rechenergebnisse keine Energieform sind, wird der physikalische Wirkungsgrad von Logik-ICs immer genau 0 % sein. Und die Verluste werden prinzipbedingt immer fast ausschließlich in Form von Wärme abgegeben. Ein kleiner Teil in Form von elektromagentischer Strahlung und die ebenso unerwünscht.

Was irgendwann in der Zukunft möglich wäre: andere Halbleitermaterialen und eine hoch temperaturbeständige Aufbau- und Verbindungstechnik, dann ließe sich die Abwärme vernünftig nutzen.
Es gibt bereits heute einige Rechenzentren, welche die Abwärme zum Heizen nutzen (Anschluss ans Fernwärmenetz), allerdings kommt man dabei um eine Wärmepume nicht herum, da man die Hardware logischerweise nicht mit 90 Grad Kühlwassertemperatur kühlen kann und mit Wärmepumpe ist das ganze natürlich nicht besonders attraktiv.
Wären höhere Temperaturdifferenzen zur Umgebung möglich, könnte man mit der ganzen Abwärme viel eher was anfangen. Im besten Fall theoretisch zumindest sogar ein Dampfkraftwerk damit betreiben und so einen Drittel der Energie wieder in Form von Strom zurückgewinnen.

Heute sind wir aber gerade mal an dem Punkt angekommen, wo hoch temperaturbeständige Halbleiter überhaupt mal im großen Stil eingesetzt werden (Siliciumcarbid, theoretisch bis so 1000 Grad nutzbar), allerdings nur in der Leistungselektronik, nicht für Logikschaltungen. Und die Aufbau- und Verbindungstechnik erlaubt es derzeit noch gar nicht die höheren möglichen Temperaturen auszuspielen. Mehr als 200 Grad sind zurzeit nicht drin.
 
  • Gefällt mir
Reaktionen: BGnom
250W Alder Lake und 450W Ada Lovelace = der schnellste Heizlüfter der Welt.

Sorry, aber ich kauf mir lieber etwas von AMD, wo das schnellste Gesamtsystem nicht mehr verbraucht als bei Intel nur die CPU.
 
  • Gefällt mir
Reaktionen: Grübelfisch
ChowTan schrieb:
Sorry, aber ich kauf mir lieber etwas von AMD, wo das schnellste Gesamtsystem nicht mehr verbraucht als bei Intel nur die CPU.
Das wird ein böses Erwachen für User wie dich, sobald AMD RDNA3 präsentiert :D
 
Tawheed schrieb:
Tja euer Spiele Hobby ist halt sehr co2 intensiv. Die ganzen Pixel und Geometrie muss ja irgendwie berechnet werden...
Jo schon, aber man kanns auch übertreiben!
Meine alte 970 braucht so 140 Watt unter Last.
Steamdeck so 15?!
 
  • Gefällt mir
Reaktionen: alex197
Ich hoffe mal auf eine einen zahmeren Verbrauch bei 4070 bzw 7700 und darunter die Top Riege brauch ich mir nicht geben außer ich lass den Rechner an warmen Tagen generell aus^^
 
Darklordx schrieb:
Im Winter als Heizung gut... Wenn ich mit meiner 5900x und Rx6800XT ein paar Stunden zocken, muss ich derzeit irgendwann mal die warme Luft rauslassen... 😮‍💨

Nur was ist Sommer? 🔥😱
Im Sommer auf dem Steam Deck oder Konsole zocken. Oder Indie-Titel / ältere AAA-Spiele auf dem PC. Oder Settings bei den neueren AAA-Spielen im Sommer runterdrehen.

Im Winter dann die neuen AAA-Spiele auf dem PC mit höheren Einstellungen.
 
Matthias80 schrieb:
schon bei der 3000 Serie sieht es mau aus mit ITX Modellen. Oder hast du welche gefunden?
AMD auch...
Naja so mau auch wieder nicht , hab das ncase m1 das nimmt problemlos eine 3090 evga die mit etwas kleinere kühler und nein die überhitzt nicht samt 240mm aio für CPU ... Und sogar BluRay Laufwerk
 
owned139 schrieb:
Das wird ein böses Erwachen für User wie dich, sobald AMD RDNA3 präsentiert :D
Bei RDNA3 gehe ich von mindestens 450-500W aus.
 
  • Gefällt mir
Reaktionen: owned139
Check24.de: 44 Cent /kwh!

1000 Watt PC + Monitor + Beleuchtung etc.

3 Stunden/365 Tage

ca. 500 Euro Stromkosten / Jahr
(monatlich 40 Euro)

viel Spaß dann auch, ich versuche meinen PC möglichst bei 300, mit Monitor dann maximal 400 Watt zu halten
die AMD RX 6600(XT) hat derzeit ja die beste Effizienz
hoffentlich hat die nächste Generation dort auch einen P/L und Effizienz-Schlager zu bieten, wäre super, besser wäre natürlich noch die 7er variante :-)
 
Axxid schrieb:
Gerade in einer Zeit, in der Menschen wegen Klimawandel und Umweltschutz auf die Strasse gehen, ist so etwas blanker Irrsinn. Ist man wirklich im Chipdesign so am Ende, dass man nur noch mit Watt auf Probleme werfen kann?
Um deine frage zu beantworten.
Ja. Was soll Nvidia anderes machen ?
Eine neue Generation mit gleichbleibender TDP und 10% Mehrleistung ?
Dann würden sie wohl ihr Gesicht verlieren weil es heißt, sie kommen in vielen Jahren Forschung nicht wirklich weiter.
Ist halt wie beim Benziner. Irgendwann war alles ausgereizt, und die Fortschritte wurden von den 60ern bis 2010 mit jedem Jahrzehnt kleiner.
Seit 2010~ ist da eig auch nicht mehr wirklich was an Innovation passiert. (Nagelt mich nicht auf das genaue Jahr fest)
 
Mich würde ja eher die 4070 und 4060 interessieren, sind das auch solche fresser? Raytracing interessiert mich ja so gar nicht, möchte nur ne starke GPU die 50-100% mehr Leistung als meine GTX1080 für 500€
 
Hätte Amd mit dem Multi-Chip-Design nicht auch den Vorteil gegenüber einem monolithischen Design (Nvidia), dass im Idle-Zustand sich alle weiteren Recheneinheiten komplett in den deep sleep state schalten könntenund nur eine einzige Einheit Strom verbrauchen würde. Eventuell würde so weniger Strom benötigt werden als ein deutlich grösserer Nvidia-Chip im idle state bräuchte. Nur mal so ein Gedanke.
Aber eines sollte Amd bessern: Verbrauch bei Videos/Youtube und Multimonitorbetrieb und dieser ewig nervende Umstand, dass der Speicher nicht runtertaktet....(nicht bei Wenigen usern der Fall).
 
Wintermute schrieb:
Die 4060 und 4070 könnten diesmal wieder richtig gute Karten werden
Ich geb zu, ich war die letzten Jahre(zente) immer im ganz oberen Spektrum unterwegs. Aber sowas wie die 3090 Ti werd ich mir als 4090 nicht einbauen. Daher hoffe ich auch auf diese Karten. Lautstärke und Verbrauch sind mir mittlerweile nicht mehr unwichtig. Vor allem Lautstärke. Und nein, ich möchte nicht hören, dann bau auf Wakü um.^^
Hoffe, das die Karten dann auch verfügbar sind. Und zu welchem Preis...
 
  • Gefällt mir
Reaktionen: Wintermute
Zurück
Oben