News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

Zwirbelkatz schrieb:
Am meisten Sorge bereitet mir die ohnehin schon zunehmend unsachliche Diskussionskultur in diesem Bereich. Bei Produkten mit dieserlei Extremwerten wird die Quote der Postings, die sich mit den technischen Eigenschaften des Produktes tatsächlich auseinandersetzen, abermals geringer werden.
Und das wundert dich?
Wer in den 600 Watt ein Problem sieht, sieht darin ein gesamtgesellschaftliches Problem; Energieverschwendung und damit mittelfristig den Klimawandel. Wer da mit Relativierungen, Vergleichen oder seiner individuellen Freiheit argumentiert, erntet verständlicherweise Unverständnis. Beim Thema Energie sollten wir doch alle inzwischen sensibilisiert sein und erkennen, dass wir da an einem Strang ziehen müssten.
Nicht umsonst sind ja auch andere Bereiche des Lebens zum Wohle der Allgemeinheit reglementiert.

Beitrag schrieb:
Es gibt bereits heute einige Rechenzentren, welche die Abwärme zum Heizen nutzen (Anschluss ans Fernwärmenetz), allerdings kommt man dabei um eine Wärmepume nicht herum, da man die Hardware logischerweise nicht mit 90 Grad Kühlwassertemperatur kühlen kann und mit Wärmepumpe ist das ganze natürlich nicht besonders attraktiv.
Ich müsste es heraus suchen, aber irgendwo im Internet habe ich schon gesehen, dass irgendwer sein Mining Rig an die eigene Fußbodenheizung angeschlossen hatte. Natürlich ne absolute DIY Bastellosung, aber theoretisch ne Möglichkeit mit deutlich weniger Temperatur zu heizen. ^^
 
  • Gefällt mir
Reaktionen: chilchiubito
Bei so viel Abwärme könnte es bei sommerlichen Temperaturen selbst für ein Mo-Ra 420 langsam eng werden. Mehr als 50°C Wassertemperatur sollte man seiner Pumpe auf die Dauer nicht "gönnen".
 
Pixelkiller schrieb:
Der Strom aus der Steckdose ist auch zu 50% aus fossilen Rohstoffen, 15% davon Erdgas
Das ändert sich seit Jahren stetig und 15% Erdgas ist immer noch weniger als 100% Erdgas. Also ist bereits der Status Quo schon besser. Aber so ernst war meine Aussage dazu auch gar nicht gemeint.
 
Bei der GeForce 480GTX (für die jüngeren, das war die karte mit dem Loch im PCB damit der radial Lüfter von beiden seiten luft bekommt) hat pcgh noch gescherzt das das man im bundle auch ein Atomkraftwerk Findet welches für den enormen Strombedarf benötigt wird. Wenn die damals schon gewusst hätten was heute an normalen werten gehandelt wird...
 
  • Gefällt mir
Reaktionen: Tapion3388 und Grübelfisch
@Vitali.Metzger

Im Idle sind die AMDs besser als die Nvidias.
Sogar mit recht ordentlichen Abstand.


amd idle.PNG
 
Ich hoffe es gibt irgendwann mal die Möglichkeit eine nackte Platine ohne Kühlung kaufen zu können am besten direkt von Nvidia. Alles über 400 Watt ist mit Luft kaum noch zu kühlen.
 
scryed schrieb:
Bitte nicht böse nehmen.
12,7L ist halt nicht für jeden klein genug.

Und umgekehrt wird nen Schuh draus. Die evga ist eine der wenigen die passt. Sehr viele oder besser die meisten Modelle passen halt nicht.

Mfg
 
Wenn wir (in Österreich) bald kein russisches Gas mehr bekommen bleibt rund 20% der Haushalte nur mehr der Umstieg auf elektrisches Heizen. In jeden Raum einen Rechner mit einer RTX 4090 die durchgehend Cryptowährungen mined wäre eine Lösung mit der zumindest ein kleiner Teil der Heizkosten durch Bitcoin Gewinne retour käme... ;-) verrückte Welt. Im Sinne des Klimawandels ist das alles leider nicht.
 
Immerhin muss ich die Wohnung dann nicht mehr mit Gas heizen.
 
  • Gefällt mir
Reaktionen: alex197
owned139 schrieb:
Wie kommst du drauf? Kennst du schon Preis, Leistung und Verbrauch von RDNA3?
Ich bezweifle, dass das MCM Design sparsamer und schneller als die monolithische Bauweise sein wird.
Man kann davon ausgehen, dass ein MCM-Design sparsamer ist unter der Voraussetzung, dass die Last gut über den gesamten Chip verteilt werden kann. Das setzt eine schnelle Verbindung der Chiplets voraus.

Das ist wie beim Duell 12900K vs. 5950X. In Cinebench nehmen sich die CPUs nicht viel von der Leistung her, aber der 12900K verbraucht deutlich mehr. Durch die höhere Kernzahl kann der Ryzen näher am Sweetspot operieren, während die Alder Lake CPU das über Takt und Spannung bringen muss. Das kostet natürlich Energie. Wird bei den GPUs nicht anders sein, denn es steckt ein grundsätzliches Effizienzprinzip dahinter.

Zum Thema im Allgmeinen. Ich bin da echt noch sehr skeptisch. Dass das PCB für 600W ausgelegt ist, heißt ja nicht zwingend, dass es auch ausgeschöpft wird. Klar, es wird vermutlich eine hochgezüchtete Liquid Edition geben, die an die Grenzen geprügelt wird, aber ganz normale Modelle mit Luftkühlung?! Wie soll das funktionieren? Es kann doch nicht sein, dass Nvidia eine Aufrüstwelle bezogen auf Netzteil, Gehäuse + Kühlung so ohne weiteres erwarten kann von den Konsumenten. Selbst wenn die Leute das tun, was ist mit den restlichen Komponenten das Systems, die massiv unter der Hitzeentwicklung leiden werden? RAM und SSDs werden sich bedanken....

Das ist am Ende einfach nicht alltagstauglich. Daher denke ich, dass die normalen Modelle (der RTX 4090 mit Luftkühlung) bei 400-450W landen werden und das ist schon sportlich.
 
Zuletzt bearbeitet von einem Moderator:
"Thermi 2.0" GTX 4x0 = RTX 40x0, die Geschichte wiederholt sich nur noch extremer... ITX geht dann wohl nur noch wenn die GPU extern verbaut ist. Das ist der falsche Weg, NVIDIA. Bleibt mal zu hoffen, dass zukünftig vielleicht ausgerechnet Intel mal mit geringerem Stromverbrauch überrascht.
 
  • Gefällt mir
Reaktionen: Silencium
Ich weiß, hier wird argumentiert mit „ich fahre kein Auto“ und „spare bei xyz.“. Klar, man kann sich das alles immer schönreden und sicherlich hat jeder irgendwo ein GuiltyPleasure. Doch ich sehe hier nicht nur die Verbraucher als alleiniges Problem, in Form von Abnehmern. Vielmehr kann ich da einfach immer wieder nur auf Apple zeigen, wo man in meinen Augen absolut die richtige Richtung vorgibt. Wenn MS schon so „rücksichtslos“ mit TPM anfängt, warum dann nicht mal von der x86 Platform abwenden? Diese Leistungsaufnahmen sind bei privaten Individuen schon irre, aber man sollte sich mehr die DataCenter vor das geistige Auge führen 😐

Finde es auf jeden Fall krank und auch falsch - alleine das „Signal“! In einer Zeit wo die Politik zum Sparen aufruft und ich lasse an unserer Politik selten eine Feder, ganz im Gegenteil.
 
Ich weiß, Klicks sind ganz geil und so, aber warum kann man nicht einfach mal auf Fakten warten? Der wievielte Artikel zum möglichen Verbrauch war das nun? Ernsthaft, alle 2 Wochen ändern sich die Spekulationen :D
 
  • Gefällt mir
Reaktionen: Bulletchief und calippo
Jetzt stellt sich nur noch die Frage, was dafür dann auch an Leistung rauskommt...
Kann ja deshalb trotzdem noch effizient sein.
 
Grübelfisch schrieb:
ITX geht dann wohl nur noch wenn die GPU extern verbaut ist. Das ist der falsche Weg, NVIDIA.

ITX ist eben eine Nische, genau wie 400++W GPUs und das ausgerechnet diese beiden Nischen nicht optimal aufeinander abgestimmt oder gar inkompatibel sind, regt dich auf, weil...?
 
Silencium schrieb:
Vielmehr kann ich da einfach immer wieder nur auf Apple zeigen
Vermutlich meinst du den ARM ansatz...
Aber das zu kurz gedacht. Apple ist definitiv kein grüner Samariter!

Mfg
Ergänzung ()

Beg1 schrieb:
400w+ zukünftig wohl nicht mehr so...
Von AMD gibt's stand jetzt fast keine itx Karten zu kaufen! Selbst bei den kleinen Versionen. Also viel zu kurz gedacht.

Mfg
 
Tawheed schrieb:
Oder einfach eine große Steuer auf Spiele Hardware und Software.
Genau, was schwebt dir da vor 50% auf die 4090? Das dann viele eher nen abo bei geforce now oder anderswo abschließen und dieses mit der Zeit teurer wird weil niemand mehr Hardware kauft und alles in der cloud landet, ist dann ja nicht so schlimm.
Steuer auf gaming hardware alles klar, würde ich es nicht hier im Forum lesen,wäre es ein guter Vorschlag von den Grünen.
Mit der Steuer auf Hardware retten die Gamer in Deutschland dann die Welt.
 
Matthias80 schrieb:
Bn gerade blind am Handy...
Er schrieb doch glaube multi Monitor Betrieb und sehr kleine Lasten wie yt.
Da sieht es leider nicht so gut aus.

Mfg
Multi-monitor ist der Abstand nicht groß.

dual monitor.PNG

Die kleinen Karten von AMD sind gut genauso wie die kleineren von Nvidia. Die Dickschiffe von beiden schlucken mehr.

Und bei Youtube ist AMD besser als NVidia, wenn auch nur minimal.

Unbenannt.PNG


Die nehmen sich nix. Bzw. nur ganz, ganz wenig.

Weiß nicht wo die Leute da nen massiven unterschied sehen.
Das kann man übrigens ganz entspannt im Test zur 3090ti sehen.
 
Zurück
Oben