News GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen

Cool Master schrieb:
Uff noch mehr Verbrauch und damit Abwärme? Da wird WaKü ja im Prinzip unausweichlich werden.
Das dachte ich auch gerade nach dem Lesen der News, zumindest wenn es kühl und leise werden soll.
Ich bin gewappnet und die Abwärme sollte für meinen Build kein Problem darstellen. Gefallen tut mir die Tendenz dennoch nicht, denn bereits jetzt ist die Wärme im Raum deutlich zu merken. Vor allem im Sommer.
 
BrollyLSSJ schrieb:
Dark Power 12 Pro
Würde ich vllt. sogar kaufen, wenns das mit weniger Watt gäbe (so 850 reichen mir..was auch schon krass viel ist). ..wobei es da ja glaube einige Quali-Probleme gab, wenn ich mich recht entsinne (grad zu faul unten im Hilfsforum zu schauen..)
 
Meine GF3070 läuft auf 50% Powertarget und gönnt sich 110 Watt. Das empfinde ich schon als viel, aber auch ausreichend für alle 1440p Anwendungen bisher. (z.B MSFS2020, NewWorld in Ultra-Max-Details)
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
Also 450w lassen sich auf noch ohne grosse Probleme mit einer guten Luftkuehlung kontrollieren.
Bei meiner FTW3 kann ich die Luefter zwar hoeren jedoch wuerde ich die Lautstaerke nicht als stoerend bezeichnen.

Die Abwaerme ist im Winter sogar angenehm und im Sommer dreht man halt die Klimaanlage etwas hoeher.

Solange die Leistung der naechsten Nvidia Karten stimmt, landet die 4090 auf jeden Fall in meinem Rechner.
 
Meine RX6900XT läuft mit max. 2,25GHz und damit mit max. 220Watt Verbrauch. Wenn AMD und Nvidia den Stromverbrauch massiv steigern, dann werde ich auf die kleineren Modelle umschwenken. 400Watt ist mir zuviel.
 
  • Gefällt mir
Reaktionen: Smartbomb und DaBo87
Mal sehen wie viel Leistung dabei rum kommt. Könnte knapp werden dieses mal. Evtl haben sie nichts gegen Navi 31. Aber ist ja noch ein wenig hin.

Was den Verbrauch angeht scheinen die Gerüchte logisch, mal sehen was AMD für ihre großen Navis aufruft. Könnte mir vorstellen dass Nvidia die Brechstange versucht. Bereits jetzt kommt RDNA2 mit doch deutlich weniger Strom aus. Customdesigns mit 550W+ sind sicherlich nicht ganz unrealistisch.

Dennoch distanziere ich mich sehr deutlich von dem gekrähe hier hinsichtlich "zu viel" usw. Es wird auch wieder kleine GPUs mit wenig Verbrauch geben. Also schön die Kirche im Dorf lassen. Bei den Halo Produkten dürfen sie gerne die Sau rauslassen.

Sowas lässt sich übrigens auch problemlos mit Luft kühlen auch im Tripleslot ;) geht sogar mit Dual Slot Bauhöhe.

Die Effizienz muss weiter steigen, das ist klar, aber alles andere sehe ich entspannt.

Auch sollten die Chips trotz 5nm riesig werden. Da hat AMD Vorteile bei der Produktion mit den Chiplets und auch beim Preis.
 
  • Gefällt mir
Reaktionen: Maggolos
MasterAK schrieb:
Meine RX6900XT läuft mit max. 2,25GHz und damit mit max. 220Watt Verbrauch. Wenn AMD und Nvidia den Stromverbrauch massiv steigern, dann werde ich auf die kleineren Modelle umschwenken. 400Watt ist mir zuviel.
Sofern Nvidia und AMD die Raytracing Berechnung separieren, benötigen sie Leistung.
RT ist nun mainstream.

Solange es keinen nächsten "Effizienz-Durchbruch" gibt bei der RT HW Berechnung auf Gamingkarten, werden sie diese Architektur fluten müssen.
 
Macht Nvidia das, weil AMD evtl. so stark wird oder einfach weil man muss? Weiss man, was RDNA 3 so an Watt ziehen könnte?
 
Bis zu über 400W?!
... und ich dachte, mein Seasonic Titanium Fanless 600W würde mir die nächsten 20 Jahre locker reichen. Das war wohl falsch gedacht.

Wenn das so weiter geht, dann reicht nichtmals undervolting mehr um das Netzteil noch zu verwenden. Vielleicht bringt Seasonic bald noch ein 800W Fanless?
 
Syrato schrieb:
Macht Nvidia das, weil AMD evtl. so stark wird oder einfach weil man muss? Weiss man, was RDNA 3 so an Watt ziehen könnte?
Wenn AMD und Nvidia alle 2 Jahre den Performance = fps Output bei gleichen Settings im Vergleichsfalle um ~ 40% erhöhen wollen, geht das nur über den Mix aus mehr Power und mehr Effizienz, es sei denn, wir haben einen Evolutionssprung in der Fertigung wie ihn AMD bei den CPUs hatte.

Ohne das Raytracing Addon bräuchten die 3090er GPUs keine 450 Watt unter Last.
 
Bitte beim Thema bleiben! Aquarium freut sich (und nicht nur das).
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und PS828
Skidrow1988 schrieb:
Also 400W wären schon eine Ansage. Aber Mal abwarten. Auch heute dümpeln die Karten meist niedriger. Meine nächste wird bestimmt eine AMD, von daher tangiert mich das sowieso weniger.
Laut den Gerüchten soll es bei AMD genauso viel werden. Tangiert dich also doch 😉
 
BloodReaver87 schrieb:
MSI Afterburner als Beispiel. Aber spezifisch aufs Spiel, geht glaub ich nicht, wenn du das meinst?
Macht es einen Unterschied ob man am Powerlimit dreht oder einfach ein FPS Limit im jeweiligen Spiel setzt?
 
  • Gefällt mir
Reaktionen: Laphonso
abzjji schrieb:
Macht es einen Unterschied ob man am Powerlimit dreht oder einfach ein FPS Limit im jeweiligen Spiel setzt?
Ja! 60 fps in Cyberpunk Ultra/Psycho inkl. Raytracing ballern komplett anders als 60 fps in Overwatch Epic Settings, welche dieselbe GPU ggf. mit 1/3 Aufnahme fahren kann.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
Ich find gut, dass heutige GPUs so viel Power haben. Die Anforderungen sind dank Auflösung, Bildrate und RT so hoch, das muss gestillt werden, wenn wir ein sichtbar realistischeres Bild erhalten wollen.
Zwei Kühllösungen fallen mir ein:
  • Entweder ein Out of the Box Wakü Design, damit CPU-Kühler und Umbau gespart wird
  • oder ein kombiniertes Axial und Radial Design
Zu kühlen geht das jedenfalls. Auch wenn das einige hier verneinen. 400 Watt sind fernab der PC Welt nicht viel, man muss es nur abführen.
 
  • Gefällt mir
Reaktionen: Maggolos, laxus222 und Laphonso
Taxxor schrieb:
In meiner Etage war der Elektriker damals sehr spendabel und hat für jedes Zimmer 4 Sicherungen vorgesehen, jeweils immer drei für Steckdosen und eine fürs Licht.
Hab auch schon da andere Extrem erlebt - pro Raum nur eine 10A Sicherung, weil da noch Altlasten in Form von Kabeln aus Alu verlegt waren. Da wird es dann schon langsam eng, wenn man Staubsaugen wollte, während nebenbei jemand am PC zockt.
 
400W TDP - cool, äh -HOT!! Zusammen mit dem kolportierten 170W-Ryzen kann ich dann endlich mit einem custom loop im Winter die Hütte heizen. Im Sommer jage ich es dann durch den Warmwasserspeicher. 2x am Tag duschen - passt! Sehr gut mitgedacht von Grün und Rot.
 
So tsmc 5bnm hat
80% mögliche Verkleinerung
30% mehr energie Einsparung oder 15-25% mehr performance (sprich takt).


bedeutet 80% chipfläche ist aufgrund der wärmedichte keine gute idee das umzusetzen
ich gehen von 50% flächenreduktion aus
Derzeit ga102 623mm² 84sm
Geplant 144sm was sehr ambitioniert ist
534mm²
144*2/2*1,5*128*1,8=49,8tf
Energie
derzeit 350w für 84sm
144sm und 30% Energieeinsparung=420w
reduziere ich den takt auf sagen wir mal 1,6ghz wirds
44tf und -40% energieverbrauch etwa 360w

das wird nicht im ansatz reichen um den rdna3 n31 zu kontern
Und bein n32 ist man auch stark im Nachteil.
Möglich das nvidia hier die keule auspackt
kack auf den Verbrauch 420w 1,8ghz und 534mm³
Nur wird das gerade ausreichen mit dem n32 mitzuhalten
Dieser hat 2*20*256=10240shader 2,4ghz 512mb inf cache und vermutlich je chip 312mm² und 49tf
Und wird als rx7900xt kommen
Energie verbrauch liegt bei ~385w
der klare Vorteil vom amd die wärme verteilt sich auf 2 chips was nochmal hilft beim takt.
ein chiplet hat etwa bei 2,4ghz 190w
Man wird das an folgenden sehen nvidia 3 x8pin und pcie (525w)
amd 2*8pin 1*6pin +pcie (450w)

Nvidia hat keine andere Wahl als die shader zu verändern aus 128sm 64fp32 64fp16 wird 96fp32 32fp16
dann wären bei nur 1,8ghz und -40% energie vs 8nm
58tf und 378w gl102 523mm²wenn nvidia klug ist.
oder
49tf 360w-420w 523³mm² gl102
vs
67tf und etwa 360w rdna3 n31 312mm²je chiplet *3= 946mm²
49tf und etwa 385w rdna3 n32 312mm² je *2=624mm²
Also hat nvidia bei lovelace kein konkurrenzprodukt vs amd rdna3 n31 mcm chip
das wird vermutlich hopper sein.

Generell kommen wir ab 20tf derzeit in ein massiven cpu limit bei 1080p und ab 25tf 1440p
für 2160p wird es reichen.
Spannender ist der einzelne chiplet mit 20 wgp und nur 5120shader bei amd 312mm² und etwa 24,5tf
als 7700xt mit max 210w
6700xt hat 12,3tf gut möglich das amd rx 7800xt dafür vorsieht und die rx7700xt mit 16wgp reduziert
19,6tf vs 12,3=+59% bei 168w
ich ging bei amd von 50% geringere chipfläche vs n21 aus
wenn amd die volle 80% nutzt ist ein chiplet 105mm²
Dann wäre amd unschlagbar. allerdings wirds warm. und das max wird auf 2,2ghz reduziert
aus bwl Sicht würde ich den chip so klein wie möglich machen min zu 70% also dann 157mm²
der Rest sollte übertragbar sein allerdings ist die Wärmedichte ein problem 157mm² und 190w vertragen sich nicht wirklich.
Daher sind 50% Flächenreduktion eher möglich
 
  • Gefällt mir
Reaktionen: Smartbomb, danyundsahne und Sammy2k8
Zurück
Oben