Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Meine Kommentare während des Lesens des Artikels. Zitate aus dem Artikel.

Die GeForce RTX 4080 mit 12 GB und eine schnellere RTX 4080 mit 16 GB für 1.099 respektive 1.569 Euro UVP sollen im November folgen.

Huch, gleich mal 120€ oben drauf?

Performancerating 3.840 × 2.160

Bis zu 3-fache Leistung klingt auch fett, wenn ich ganz unten die 3060TI stellvertretend für meine 2080S nehme. 4080/16 könnte dann knapp über 3090TI liegen und 4070 4080/12 dann zwischen 3080TI und 3090?

Temperaturen im Detail

Die GeForce RTX 4090 Founders Edition bleibt in allen Lebenslagen eine kühle Grafikkarte. Beim Spielen beträgt die Edge-Temperatur gerade einmal 69 °C, womit Nvidias neues Flaggschiff kühler als alle getesteten Founders-Edition-Modelle der GeForce-RTX-3000-Serie ist – trotz höherer Leistungsaufnahme. Und auch die Asus GeForce RTX 3090 Ti TUF OC wird um 4 °C abgehängt.


Wenig verwunderlich, ist auch die Hotspot-Temperatur auf der Founders Edition niedrig: Mit 79 °C reicht es abermals für den Spitzenplatz unter den GeForce-Beschleunigern, die GeForce RTX 3070 FE erreicht mit 81 °C die zweite Position. Auch der GDDR6X-Speicher bleibt mit 78 °C kühler als auf anderen Grafikkarten von Nvidia, auch wenn die Asus GeForce RTX 3090 Ti TUF OC mit 80 °C nahe dran ist. Bei den FE-Modellen der GeForce RTX 3080 und der GeForce RTX 3080 Ti wird der Speicher dagegen mit 100 respektive 102 °C deutlich wärmer.

Auch gute Temperaturen für die Referenz. Also hier wieder die für einen ineffizienten Samsung-Prozess-Shrink kalkulierten Kühler. Da kann man hier im Gegesatz zu Ampere auch zur Referenz greifen, ohne dass man drauf angewiesen ist, auf der Speicherrückseite Wärmeleitpads zu verbauen.

Beim Abspielen eines HDR-Videos schneidet die GeForce RTX 4090 mit 53 Watt dann klar besser als die älteren Ableger ab.

Und wie kriegt man das Video dazu, dass es als HDR läuft? Bei mir nicht der Fall, wenn HDR in Windows aktiviert wird. HDR-Video läuft weiterhin als Nicht-HDR.

Leistungsaufnahme in Games

In Spielen benötigt die GeForce RTX 4090 die maximal erlaubten 450 Watt im Werkszustand meistens nicht. Selbst im durstigen Doom Eternal bleibt das Flaggschiff mit 432 Watt leicht darunter. Der Wert liegt absolut betrachtet weiterhin sehr hoch, aber eben nicht so hoch, wie es vormals kolportiert wurde und mit Blick auf Ampere zu erwarten war: Die GeForce RTX 3090 Ti genehmigt sich bei deutlich geringerer Leistung mit 463 Watt sogar mehr als offiziell spezifiziert (450 Watt).

Dann sollten die 4080/16 und 12 sich mit rund 300 und rund 260W begnügen im GPU-Limit. Je nach Lastspitzen müsste mein Netzteil theoretisch die 16er auch schaffen, wenn das blöde Netzteil doch nur den 3. 8-Pin hätte.

Mit der GeForce-RTX-4000-Serie geht Nvidia nun den nächsten Schritt und stellt DLSS 3.0 vor. Das läuft im Gegensatz zu den ersten beiden Hauptversionen nicht mehr auf allen GeForce RTX, sondern nur noch auf der neuen Generation.

😡
Ist es nun technisch möglich, dass DLSS3 mit der neuen Funktion auch auf Ampere geht?

Sämtliche Spiele und Engines, die DLSS 3 in Zukunft erhalten werden (Stand 11. Oktober 2022)
  • Unreal Engine 4 & 5

Damit dann auch Titanic - Honor & Glory. ^^

350 statt 450 Watt: Im Durchschnitt kaum schneller

Das Ergebnis ist eindeutig: Viel schneller wird die GeForce RTX 4090 durch den Sprung von 350 Watt auf 450 Watt (nicht immer ausgereizt) im Testparcours auf dem Core i9-12900K nicht. Im Durchschnitt legt Nvidias neues Flaggschiff dadurch nur um 3 Prozent zu. Ausnahmen bilden Spiele, in denen die RTX 4090 die 450 Watt ausreizt, der Einschnitt auf 350 Watt also groß ist. Aber selbst dann bleibt der Zuwachs einstellig.

Wäre dann kein Beinbruch gewesen, die TDP leicht zu senken. Ansonsten kann man sich den einstelligen Zuwachs zurück holen, indem man die Spannung senkt.

Die Messreihen zeigen, dass Nvidia mit der Entscheidung, die GeForce RTX 4090 auf dem TDP-Niveau der GeForce RTX 3090 Ti zu belassen, über das Ziel hinausgeschossen ist. Maximal 400 Watt hätten gegenüber 450 Watt quasi keinen Leistungsverlust, 350 Watt einen im Durchschnitt nur messbaren gebracht.

Jo.

Das Spielen in Ultra-HD-Auflösung mit mindestens 60 FPS ist die Paradedisziplin für die GeForce RTX 4090. Für geringere Auflösungen ist die Grafikkarte dagegen viel zu leistungsstark, selbst mit sehr schnellen Prozessoren. Dann wird die GPU in den meisten Spielen selbst vom Core i9-12900K im Testsystem ausgebremst. In 4K sind 60 FPS für die GeForce RTX 4090 ein Kinderspiel, auch mit maximalen Details inklusive Raytracing.

Dann werden wohl 4080/16 und 12 die perfekten WQHD-Karten, wenn man alles auf Max. knallen will. Bei meinem GTA5 mit meinen Einstellungen für ~150FPS wird dann selbst die 4080/12, die maximal 4070(TI) heißen sollte, dann maximal 50% laut Glaskugel ausgelastet werden, bzw. ich könnte da noch MSAA anschalten. Spannender wird es bei Grafikhuren-ShadernTM in Minecraft, denn sowas wie Seus HRR3 mit Fake-Raytracing krüppelt schon ordentlich auf einer 2080S. Und bei Transport Fever 2 wäre es interessant, ob das mit mehr Grafikkartenspeicher besser läuft, bzw. ob der Speicher dann komplett genutzt wird, bis auf 500GB. Da ist die Frage, ob das Spiel den Speicher wirklich braucht oder ihn einfach noch reserviert.
 
TWIN013 schrieb:
Ab welcher Uhrzeit lohnt es sich denn, sein Glück in einem der Shops zu versuchen?
Ich kann dir nicht genau sagen ab wann sie verkauft wird aber du wirst mit ziemlicher Sicherheit kein Glück brauchen. Die Verfügbarkeit soll sehr viel besser werden als mit der letzten Generation.
 
  • Gefällt mir
Reaktionen: Celinna und Wintermute
Ah das Fazit hätte ich mir bissiger gewünscht was die Sinnlose 450W Standard konfig angeht...
Nen BIOS Switch wäre wohl zu einfach gewesen!

MfG
 
  • Gefällt mir
Reaktionen: Alex1966, Iscaran, danyundsahne und 2 andere
Weltenbaum schrieb:
... 6800 XT ? Ernsthaft
Die 3080er sind noch realitätsfremder bepreist. Dazu ist die 6800XT ne super Karte wenn man kein RT braucht. Ich persönlich warte eh noch auf RDNA3 bevor ich mich entscheide.
 
  • Gefällt mir
Reaktionen: danyundsahne, Captain Mumpitz und Illithide
bad_sign schrieb:
Lustig, denn während Mining war eigentlich nur die 6900 lieferbar^^
Was hat jetzt lieferbar damit zu tun? ssh bezieht sich darauf das AMD bei Ryzen und RDNA nur langsame, verbuggte Hardware geliefert hat ... bei CPU wie auch GPU hatten wir meiner Meinung nach in letzter Zeit einen guten Put, es gab keinen klaren Sieger zwischen Intel vs. AMD und nV vs. AMD.
 
Auch wenn bestimmt kein Redakteur bis Seite 19 liest Versuche ich es trotzdem Mal: wie war die Lautstärke bei 350 oder 300 Watt? Bekommt das der FE Kühler leise weg?
 
  • Gefällt mir
Reaktionen: Ralle321
Celinna schrieb:
ich werde die wohl bei 350W betreiben das sieht schon sehr gut aus.

Morgen wird bestellt, hoffe krieg auch eine ab lol. Sind ja doch vielmehr als gedacht die diese Karte bestellen möchten.
Hört doch auf die Preise zu bezahlen, sonst wirds nie mehr günstiger.
 
  • Gefällt mir
Reaktionen: p4z1f1st, coasterblog, Beatmaster A.C. und 8 andere
Wo ist RDR2 Benchmark!? Oder Anno 1800!?
 
  • Gefällt mir
Reaktionen: ben12345
bad_sign schrieb:
Lustig, denn während Mining war eigentlich nur die 6900 lieferbar^^
Und die 3080er hingen an den tiefen Ästen? Man bekam im Grunde alles, auch eine 6800er etc... Eben für komplett beknackte Preise.
 
Matthias B. V. schrieb:
Bin es nur ich oder kommt einem das Gefühl dass die Architektur Generation eigentlich nicht so prickelnd ist und von TSMC gerettet wird.
Sehe ich auch so. die RTX 3000-Reihe war überraschend stark für die wenig fortschrittliche Fertigung bei Samsung. Jetzt nutzt man wieder TSMC und das Ergebnis war doch relativ vorhersehbar.

Ich bin wirklich gespannt, wie sich die Karten verkaufen werden. Bezogen auf die UVP ist Nvidia mal wieder in neue Gefilde vorsgestoßen (wenn man die 3090 Ti und einige Titans mal ausklammert). Aber das wirtschaftliche Umfeld ist ein komplett anderes verglichen mit den letzten zwei Jahren und Mining scheint erstmal auch kein Thema mehr zu sein.

Ich bin erstmal raus. 2.000€ nur fürs Zocken ist es mir einfach nicht wert. Da kann die Karte noch so toll sein.
 
  • Gefällt mir
Reaktionen: Chris8208 und Matthias B. V.
0ssi schrieb:
Gibt es dazu eine Quelle und bezieht sich das nur auf G-Sync kompatibel (= FreeSync = VESA Adaptive Sync)
oder auch auf echtes G-Sync (mit Modul) ?
Blurbusters - PCGH - Ab 5:10
Der YT-Kanal von Battlenonsense ist, was diese Themen betrifft, goldwert. Da wird richtig penibel getestet.
G-Sync mit dediziertem Modul ist grundsätzlich besser als G-Sync Compatible oder FreeSync.
0ssi schrieb:
Weil ich hatte noch nie zusätzlich V-Sync an und noch nie Tearing,
weder früher mit echtem G-Sync Monitor noch aktuell mit G-Sync kompatibel. Oder nur in einzelnen Spielen ?
Das hängt stark davon ab, wie sehr die frametimes innerhalb der G-Sync/FreeSync Range schwanken. Da z.B. 144 oder gar 165 Hz allgemein sehr schnell ist, ist Tearing ohnehin nicht ganz einfach zu bemerken.

0ssi schrieb:
Da V-Sync eigentlich nur smooth läuft wenn man so viel FPS hat wie die maximale Aktualisierungsrate (Hz)
ergibt es für mich gar keinen Sinn wie V-Sync bei weniger FPS als Hz technisch sauber funktionieren sollte
und wenn es funktionieren würde dann bräuchte man doch gar kein Adaptive Sync (FreeSync/G-Sync c) !?
Das liegt an der Arbeitsweise der Verfahren. V-Sync orientiert sich an die Frametime. VRR orientiert sich an den avg. fps und passt die Bildwiederholfrequenz auf diesen Wert an.

Sagen wir du hast ein Monitor mit 144 Hz. Das bedeutet, dass das Display ein vollständiges Bild in 6,94 ms darstellen kann. Dieses Bild, was der Monitor zeilenweise zu zeichnen vermag, liegt im vorderen Puffer deiner GPU, dem sog. Frontend-Buffer. In einer perfekten Welt wird dieses Bild erst Abschluss des Darstellungsvorgangens ausgetauscht - also alle 6,94 ms. In der echten Welt wird das Bild aber mal in 5 ms, mal in 6,3 ms, mal in 3 ms etc. ausgetauscht. Rechnerisch können diese Zeiten im durchschnitt 6,94 ms ergeben, was eben 144 fps entspräche, aber reell wurde ja nicht jedes Bild tatsächlich erst nach 6,94 ms ausgetauscht.

Genau diese Umstände können auch innerhalb der VRR-Range zu Tearing führen, weil der Monitor noch das eine Bild am zeichnen war, die Daten im Puffer der GPU sich aber nun schneller geändert haben und dein Monitor an der neuen Zeile die neuen Daten bekommt. Die Bildzeit variiert also (Frametimevariance).

Was V-Sync hier grundsätzlich macht ist, dass diese Bilder nur dann ausgetauscht werden, wenn der Monitor auch in seiner letzten Zeile mit der Darstellung des einen Bildes fertig geworden ist.
FreeSync oder GSync betrachten aber nicht die Bildzeit, sondern die avg. fps.

Aktiviert man hier also zusätzlich das V-Sync, werden spontane Änderungen dieser Bildzeiten bzw. Varianzen in den Frametimes gemieden, weil V-Sync dann eingreift. Da du hier innerhalb der VRR-Range bist, verursacht es somit auch keinen zusätzlichen Inputlag zu VRR.
 
  • Gefällt mir
Reaktionen: Banger
SKu schrieb:
Ist das mit NBB überhaupt gesichert? Den Weg ging Nvidia damals bei der 3000er, weil der eigene Shop völlig überfordert war. Gilt das immer noch bei der 4000er Serie?
Auch das ist meiner Meinung nach noch nicht sicher. Am besten geht man auf die nvidia Seite und klickt auf kaufen und hofft, dass die Seite nicht abschmiert und die Karte im Warenkorb landet, oder der Link zum dementsprechenden Shop führt.

Zur Sicherheit also schon Mal bei NBB einloggen. :daumen:

Oh das wird wie beim Kauf der 3080 FE, nur mit der Hoffnungen, dass die Verfügbarkeit wirklich sehr viel besser ist und man auch noch weiß wann es losgehen soll. :D
 
Wintermute schrieb:
Die 3080er sind noch realitätsfremder bepreist. Dazu ist die 6800XT ne super Karte wenn man kein RT braucht. Ich persönlich warte eh noch auf RDNA3 bevor ich mich entscheide.
Nach Überlegung werde ich das auch tun, hab ich bei der 6900xt genauso gemacht, statts die 3090.. Übertaktet läuft meine Super, und Schafft ohne RT ab und an die 3090ti sogar. Nicht das RDNA3 der GeForce ohne RT davon Rennt. FSR 3.0 wird ja auch kommen mit KI
 
bart0rn schrieb:
Wenn man es genau nimmt ist 4k das 4fache von Full HD, nicht das doppelte
Anhang anzeigen 1269302

1920*1080 = 2.073.600 Pixel
3840*2160 = 8.294.400 Pixel
Ja stimmt wenn dann ist es wohl mehr als wqhd. Kostet dennoch mehr als nur auf full hd zu zocken. Da braucht man schon ne Leistung wenn man live streamt und gleichzeitig zocken tut.
 
canada schrieb:
Was hat jetzt lieferbar damit zu tun? ssh bezieht sich darauf das AMD bei Ryzen und RDNA nur langsame, verbuggte Hardware geliefert hat ... bei CPU wie auch GPU hatten wir meiner Meinung nach in letzter Zeit einen guten Put, es gab keinen klaren Sieger zwischen Intel vs. AMD und nV vs. AMD.
Wo wurde das geschrieben?
Aber wenn AMD mit fast 3x mehr TF Leistung nicht auch 60% liefern wird, dann hätten sie sich ja die neue Arch sparen können.
Wintermute schrieb:
Und die 3080er hingen an den tiefen Ästen? Man bekam im Grunde alles, auch eine 6800er etc... Eben für komplett beknackte Preise.
2021 war eher 6900XT angesagt, erst später im Jahr gabs dann 6800(XT) mit dazu, zum selben Preis^^
 
  • Gefällt mir
Reaktionen: Wintermute
KingZero schrieb:
Hammer Grafikkarte. Bin aber nicht bereit 2000€ für auszugeben. Bei 1500€ hätte ich wahrscheinlich zugeschlagen.

Gibts eigentlich Tests zur 4060ti/4070?
wenn die Karten dann nächstes Jahr irgendwann erscheinen wirst du hier bestimmt auch einen test dazu finden.
 
Eine Karte mit Optimierungspotential was Verbrauch/Abwärme angeht. Jedoch ist der Preis jenseits von Gut & Böse. Kann sich noch jemand erinnern, wie die Titan Karten vorgestellt wurden und die Preise als unglaublich betrachtet wurden? Nun sind wir bei fast 2.000,- EUR für die stärkste RTX Karte.

Gespannt bin ich auf die 3080 16GB. Fraglich ist für mich jedoch, ob ich dann nicht gleich auf eine RTX 3090 gehe bei dem Preis ...
 
Alsoooo wenn man die Karte auf 300w einschränkt, dann ist sie definitiv effizient - man möge meine vorherige Urteilssprechung nun mit Steinen bewerfen :mussweg: .
Allerdings bleibt zu hoffen, dass die Kaufbereitschaft zurückbleibt damit die Preise sinken und diese völlig überzogenen UVPs Wunschdenken von Nvidia sind, anstatt Realität.

So geil wie der grüne FPS Balken jetzt auch sein mag aber ~2800€ würde ich jetzt erstmal nicht hinlegen wollen, aufm PC siehts nämlich so aus wie auf der Playstation 5, es gibt keine brauchbaren Spiele und alles erst im/ab nächsten Jahr.
Für mich jedenfalls das Hauptargument um dort hinein zu investieren, ansonsten ists halt auch nur ein Briefbeschwerer und außer MW2 juckt dieses Jahr gar nichts mehr.
 
  • Gefällt mir
Reaktionen: Chris8208, FLCL und McTheRipper
Atma schrieb:
Auch eine 3090 Ti kann man untervolten, blendest du das gekonnt aus?
Na klar kann man das. Hast Du auch gesehen, wo man bei 300 Watt bei einer 3090Ti landet, oder blendest Du das gekonnt aus? Umso weniger Du die 3090Ti saufen lässt, desto mehr Kreise zieht die 4090 um sie und säuft dabei immer noch nicht mehr.
 
  • Gefällt mir
Reaktionen: Alex1966, MeisterOek, Ragnarök88 und eine weitere Person
Zurück
Oben