News GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen

BrollyLSSJ schrieb:
... den Verkauf der > 1000W PSU ankurbeln. Sonst kauft doch keiner das Dark Power 12 Pro (und dessen Konkurrenten).

Ab 1000W gehen die Preise von Netzteilen auch schon richtig gut ab, weswegen mir 850W dann doch langfristig reichen mussten, zur Not geht es dann eine GPU-Leistungsklasse tiefer (einfach eine 60er anstelle einer 70er Serie nVidia Karte, also eine RTX 4060(?); alternativ bzgl. RDNA3 vielleicht eine RX 7700(XT)), so einfach ist das ;).

Wenn Leistung/Preis/Verfuegbarkeit dann nicht stimmen sollten, wird es vielleicht dann doch eine im Preis reduzierte Ampere oder RDNA2 Grafikkarte, 'mal schauen was der Markt so hergeben wird, mehr als UVP ist (bei mir) nich' ...
 
AMD's NAVI 31 (RX7900XT) Verbrauch wird ja auf 400-450W geschätzt und den finde ich im Gegensatz zu den >400W des AD102 (RTX4090) angemessen.

Da die RX7900XT voraussichtlich wohl mindestens 30% schneller (eher 40% Begründung siehe unten) als NVIDIAS's Top Dog wird, ist sie im Gegensatz zur RTX4090 selbst mit 400-450W noch ein wahres Effizienzwunder.

Bei NVIDIA hingegen sind >=400W indiskutabel, aber anders geht es wohl nicht bei <= 300W könnten sie die Flinte Leistungstechnisch ja auch gleich ins Korn werfen.

Es ist sowieso noch fraglich, wie sie die PS am Ende auf die Strasse bringen wollen.
Es wird ja davon ausgegangen, das der AD102 (RTX4090) relativ zur GA102 (RTX3090) 70% mehr Shader units hat und 5nm Prozess bedingt ca. 20% mehr Takt aufweisen soll was am Ende in +90-100% resultieren soll.

Da davon ausgegangen wird, das NVIDIA immer noch auf GDDR6X ,mit wohl 24Gbps setzen wird, sehe ich das anhand einer mangelhaften Speicherbandbreite nicht.
24Gbps bedeuten zuerst einmal noch mehr Leistungsaufnahme, als die bereits grenzwertig hohe des micron 19.5Gbps Speicher (in Kombination mit dem SI) der der auf der 3090 verbaut wird.
Aber bei einem ebenfalls 384Bit SI wären das gerade mal +23% (24/19.5)
In welcher Welt soll das reichen um die anvisierten 90-100% zu erreichen, die Karte wird so doch gnadenlos ausgebremst.
Also kommt wohl wenn man bei GDDR6X bleiben will, nur ein 512Bit SI in Frage 512/384*1.23= +64%
und selbst dies ist schon grenzwertig wenig um kein Flaschenhals zu erzeugen.

Als kleine Veranschaulichung wie es bei der letzten Gen. aussah:
GeForce RTX 2080 Ti (FE) = 616 GB/s
RTX 3090 = 936.2 GB/s (Speicherbandbreite +50% resultiert in einer Leistung von +45% in 4k)

Also ich bin auf jeden Fall gespannt wie das NVIDIA bewerkstelligen will.
Auch ist anzumerken das schnellerer Speicher, in Kombination mit einem 512Bit SI wohl den Löwenanteil der Prozessbedingten Power Reduktion wieder zu Nichte machen würde. Und das natürlich bei gleichem Takt, wenn da nun zusätzlich der Takt um 20% gesteigert würde, kann sich ja jeder selber ausmahlen wie der Verbrauch dann durch die Decke geht.
Daher meine Prognose, es wird woĥl trotz TSMC 5nm keine grösseren Taktsteigerungen geben.
+70% würde auch viel besser zu den +64% passen.
Am Ende würde ich also auf eine Leistung von +70% relativ zur RTX 3090 bei ca. 400W tippen.
5nm.png

Da könnte sich wirklich ein mittlere Katastrophe für NVIDIA anbahnen.

Man stelle sich nur vor, NVIDIA's Top Dog erreicht am Ende mit ach und Krach nur +70% (Faktor x 1.7 rel. 3090) bei ca. 400W
und AMD ca. +140% (Faktor 2.4 rel. 3090) bei ebenfalls 400W.

AMD hingegen mit ihrem Geniestreich, dem so genanten Infinity Cache Ansatz holt mit RDNA3 die Ernte ein.
Bei weiterhin 256Bit SI (+ eventuell leicht schnellerer GDDR6) und 512MB IC (der nur einen Bruchteil eines analogen GDDR6 SI Verbraucht) macht das Unmögliche möglich und bringt bei 400W ca. die 2.5 Fache Performance auf die Strasse.

Selbst NAVI32 müsste da nicht mehr all zuweit zurückliegen und wenn es denn stimmt, das er ein halbierter (bzw. 1 + 1 Chiplet) NAVI 31 sein sollte, würde er wohl auch entsprechend höher getaktet werden (in etwa wie z.B. die 6700XT vs. 6900XT) dies natürlich bei entsprechend geringer Die Fläche (bzw. Vorteil Chiplet gute Yield Rate)
Ein Angebot das man wohl kaum ablehnen kann und bei NVIDIA für schlaflose Nächte sorgen wird, da ihre Marge erodiert und sie dann über den Preis kommen müssen.
 
tackleberry schrieb:
Was halten eigentlich normale Haushaltsicherungen aus?
230V bei 16A = U*I=P in Watt also 230V*16A=3680W Maximale Dauerlast. Da sind wir bei 1GPU/1CPU System noch entfernt von. Aber es kommt ja der Monitor/die Monitore hinzu ggf. Drucker/Licht oder sonstiges je nach verkabelung.
 
zakuma schrieb:
Dadurch produziert der Chip nicht weniger Abwärme ;)

Ja und was willst du mir/uns nun damit sagen? Durch WaKü wird aber die Wärme effizienter und schneller abtransportiert.
 
ach schön und meanwhile die Grünen mit ihrem Ökostrom, der bei alten/derzeitigen Verbrauch noch viele viele viele Jahrzehnte bräuchte um überhaupt halbwegs 24/7 abdecken zu können. Dann schaltet man in 2040 seinen PC aka Dorfheizung an und dunkel ist´s im Örtchen, bzzzz nix Licht in der "Laangestraße" :daumen:
 
  • Gefällt mir
Reaktionen: dohderbert
400 Watt nicht ausreichend.. ich bin raus..
 
  • Gefällt mir
Reaktionen: dohderbert
Dann wird ja mein Zocker-Keller im Winter mal wärmer als 22 Grad - da wäre nur zu begrüßen ;-)
 
Ist ja scheinbar keine gute Weiterentwicklung. Mal schauen ...
 
XPS schrieb:
Müssten so 3 - 4 KW sein

3680 W bei 16 A - normal sind aber Räume mit 6 A abgesichert, sprich 1380 W oder 10 A / 2300 W

Problem sind die Sicherungsautomaten, die dann auf die größeren nötigen NT ziemlich allergisch reagieren beim Einschalten oder sptzen

zur News:

scheinbar schiebt Nvidia also Panik wie der überhastete Release der TIs zeigt, so das man wesentlich mehr Leistung duch weit höheren Verbrauch erzielen will.
 
Wär mir auch zu viel Verbrauch, allerdings greife ich auch grundsätzlich nicht zum Top-Modell. Wäre für meine Zwecke eh Overkill. Interessant wäre für mich also maximal eine 4070. Da wird der Vebrauch aber wohl ähnliche Regionen erreichen wie gerade die 3070. Also überspring ich die Generation einfach und bleib da ganz locker.
 
Läuft der Chip mit einer Wasserkühlung auf einer niedrigeren Temperatur, verbraucht die Karte meinetwegen 360 Watt anstatt 400 Watt. Dennoch ist Abwärme dieser Größenordnung alles Andere als optimal, wenn sie in dem Zimmer landet, in welchem sich der Spieler befindet. Ob nun abgeführt durch Metall oder Wasser.

Selbst wenn sich der Markt der Grafikkarten bis dahin entspannt haben sollte, dürften derlei Boliden für viele Interessenten außerhalb jeglicher Zahlungsbereitschaft liegen.
 
So begründet Leo den höheren Verbrauch:

3dcenter schrieb:
Jene größten Chips werden in der 5nm-Generation augenscheinlich enorme Zuwächse an reiner Rechenleistung mitbringen, gleichfalls lassen sich die Grafikchip-Entwickler bei ihren Performance-Projektionen nicht lumpen und streben wenigstens eine Performance-Verdopplung gegenüber dem bisherigen Stand an. Sofern sich dies nur ansatzweise erfüllt, wird dies jedoch kaum ohne einen weiter nach oben gehenden Stromverbrauch vonstatten gehen können. Die Stromverbrauchs-Charakteristik der 5nm-Fertigung läßt eigentlich nur 40-50% mehr Rechen-Einheiten zum gleichen Stromverbrauch zu, selbst eingerechnet in der Praxis leicht bessere Werte zuzüglich Effizienzgewinne durch Architektur-Verbesserungen reicht es niemals, um die für Navi 31 und AD102 genannte Hardware-Konfiguration ohne höheren Stromverbrauch zu realisieren.
http://www.3dcenter.org/artikel/erster-ueberblick-zur-5nm-grafikchip-generation

D.h. entweder weniger Mehrleistung zum selben Verbrauch, oder ein deutlich höherer Verbrauch.

Also seht euch schon einmal vorsorglich nach 1000 Watt Netzteilen um. ^^
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Maggolos
Termi 2.0? Und ich dachte mein 1000W Netzteil hat jetzt endlich mal ausreichend Reserve...
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, konkretor, dohderbert und eine weitere Person
Schade, dass man für einen hohen Carnot-Wirkungsgrad große Temperaturdifferenzen braucht. :(
Sonst könnte man die Effizienz von Nvidia-Grafikkarten prima verbessern, indem man einfach ein Dampfkraftwerk um sie herum baut.
 
Da ich mit der gebotenen Leistung Geld verdiene, stört mich der Stromverbrauch nicht. Bis vor ein paar Jahren war das Rendern eine unglaubliche Geduldsfrage. Jetzt geht es im Vergleich dazu schon mehr als rasant. Da ist es mir auch vollkommen egal ob die Grafikkarten 200 oder 1000W verbraten. Meine beiden 3090 sind ein Segen für meine Arbeit. Und sollte die nächste Generation nochmal einen ordentliches Plus bieten, werde ich auch davon wieder 2 verbauen. AMD kommt in diesem Anwendungsfall ja leider nicht in die Pötte.
 
  • Gefällt mir
Reaktionen: VoAlgdH und Laphonso
Da sich alle wegen des Stromverbrauchs selbst boykottieren, freue mich ich mich über das Szenario guter Verfügbarkeit der 7900XT und 4080Ti und 4090 für uns Enthusiasten. :daumen: ;-)
 
Und das mit dem deutlich höheren Verbrauch betrifft auch Navi 31, da AMD auch sehr ambitionierte Ziele hat, die nur mit mehr Verbrauch möglich sind.
 
  • Gefällt mir
Reaktionen: Laphonso
Ich bin erleichtert, dachte schon, ich wäre einer von sehr wenigen Leuten, die es so sehen, dass die Effizienz unter hoher Leistung nicht gegeben ist, die Abwärme dementsprechend hoch wird und das Design einfach zu groß ist.
Die Anschaffung ist nicht nur teuer, sondern der Verbrauch kann einem per Stromrechnung auch noch einen reinwürgen.
Ein richtiger Entwicklungsfortschritt ist nur beschränkt sichtbar, es werden halt mehr features hinzugefügt und das Powerlimit aufgebohrt. (Dafür werden die Karten noch mehr überdemensioniert, wie damals zu Zeiten des VLB)
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
AMD's NAVI 31 (RX7900XT) Verbrauch wird ja auf 400-450W geschätzt und den finde ich im Gegensatz zu den >400W des AD102 (RTX4090) angemessen.

Da die RX7900XT voraussichtlich wohl mindestens 30% schneller (eher 40% Begründung siehe unten) als NVIDIAS's Top Dog wird, ist sie im Gegensatz zur RTX4090 selbst mit 400-450W noch ein wahres Effizienzwunder.
Die 7900XT wird nicht 40% mehr Raytracing Power (im Sinne der Performance/ fps) als die 4090 fahren. Das hast Du in der Rechnung vergessen. Zudem hat die 4090 ggf. on top wieder 50% mehr VRAM.
 
Zurück
Oben