Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

60% schneller als eine 3090 ti bei 300w ist ein krasser Sprung. RIP 3090 ti käufer. Da könnte man schon schwach werden. Bei den 50XX schlag ich dann wieder zu.
 
Ragnarök88 schrieb:
Ja, er zeigt dir, dass die Karten unter Vollauslastung (4K) unter Rasterbedingungen eine vergleichbare Effizienz aufweisen, während die EffizienzVorteile unter RT Bedingungen für Nvidia sehr groß sind.
Igor bestätigt die aussage sogar.. Ach ist es echt soo schwer mal Objektiv zu sein?
Ich sagte ja, Lesen will gelernt sein..
 
Ano_Dezimal schrieb:
Irgendwie dachte ich das ich mehr gehyped bin. Ich glaube ich werde langsam zu alt für das alles.
Evtl. liegt´s auch einfach nur am Preis?
Geht mir jedenfalls so.
 
  • Gefällt mir
Reaktionen: Wichelmanni, McTheRipper und Fuchiii
cookie_dent schrieb:
Evtl. liegt´s auch einfach nur am Preis?
Geht mir jedenfalls so.
Ne der Preis ist mir egal und auch der Preisverlust der 3090 GPU beim eventuellen Verkauf. Ich glaube es ist einfach nur weil es halt doch nur eine Grafikkarte ist. Vermutlich werde ich trotzdem eine kaufen wenn die Karte die in Frage kommt lagernd ist.
 
  • Gefällt mir
Reaktionen: Max007
Banger schrieb:
Das war auch meine Beobachtung, kurz vor dem Ende der Sync-Range Tearing. V-Sync an und Tearing weg. Niedriglatenzmodus auf Ultra noch rein und V-Sync-Inputlag weg, der sonst bei 144/144 aufgetreten wäre.

Deswegen macht man ja ein fps-cap rein, um eine gesunde Distanz zum Ende der Sync-Range zu haben. So bleibst du stets innerhalb der Range und vermeidest somit auch den Inputlag, der durch V-Sync Buffering bei fps>= Hz eintreten würde.

Der fps-cap bringt auch den Vorteil, dass du dich vom GPU-Limit entfernst (sofern deine gpu stark genug ist und mehr fps als Hz kann). Durch Vermeidung des GPU-Limits reduzierst du dann die Latenz wesentlich mehr als der Low Latency Mode es tut.
 
  • Gefällt mir
Reaktionen: Banger, Sebastian2003 und Celinna
Displayport 1.4 ist ja mal ein heftiger Fail... eine Karte, die bei 4K hohe Bildraten schafft und dann kann sie die nicht ans Display weiter geben. DP2.0 wäre für mich ein musthave gewesen bei so einer Karte.
 
  • Gefällt mir
Reaktionen: Iscaran
superrocko schrieb:
Da benötigte man eben keine 600 Watt mehr, aber die Kühler & Designs waren soweit fertig und bestellt, das man das nicht mehr stoppen konnte.
Mann hab ich mich erschreckt, als ich das erste Mal den Trümmer in den Händen einer Person gesehen hab. Da musste ich sofort an den Aprilscherz denken.
Fast wär's ja wahr geworden, fehlen nur ein paar Zentimeter. :D
Seit Jahr und Tag muss ich den unnützen Kühler abbauen, wenn ich mal wieder aufrüste. Und da bin ich bestimmt nicht nur einer von wenigen. Möchte gar nicht wissen, was der überflüssige Klumpen auf der 4090 kostet.
 
Zuletzt bearbeitet:
Wer bei der Karte nicht zuschlägt ist selber schuld und alle die eine 3090 haben bekommen noch halbwegs gutes Geld und können mit knapp 1000€ auf eine 4090 umsteigen besser und Billiger geht es nicht
Ergänzung ()

Rickmer schrieb:
Displayport 1.4 ist ja mal ein heftiger Fail... eine Karte, die bei 4K hohe Bildraten schafft und dann kann sie die nicht ans Display weiter geben. DP2.0 wäre für mich ein musthave gewesen bei so einer Karte.
Das Problem war als DP 2.0 verabschiedet wurde und Offiziell war gab es schon kein zurück mehr bei Nvidia daher 1.4 und sind wir mal ehrlich wer hat schon 8k 60hz und zockt darauf ?
 
Hutzeliger schrieb:
Wenn man sich mal die Tests und das Vid von Igor anschaut hauts einen um.

Diese Karte ist beim Gaming weit weg von 450 Watt! Nicht drüber sondern darunter!!!

Jo und mit undervoltung kann man auch nur gut was rausholen an Effizienz.

Aber anderes Thema. Deine Signatur. Ich hab fast einen Schlaganfall bekommen beim Versuch die zu lesen!
 
  • Gefällt mir
Reaktionen: Hutzeliger
Thares schrieb:
Reicht bei dem Biest eine 1000 Watt Netzteil in Kombi mit AMD 5950X ohne Wasserkühlung nur Luft bzw . mit 7 Lüftern Noctuah 140mm und zwei M2SSD.

Ja Dicke,

bitte schaut euch die Empfehlung von IGOR an! Wirklich, die realen Zahlen sind noch viel besser als hier dargestellt, der reale Gaming Verbrauch liegt deutlich unter 450 Watt.
WQHD: 321 Watt Average

Igor Empfiehlt ein 850 Watt NT.
Spannungsspitzen sind auch nicht relevant. Wahnsinns Stück Technik.

 
  • Gefällt mir
Reaktionen: Thares
Brachiale Leistung und für mich am wichtigsten:
Wenn eine 3090 schon im System läuft, dann läuft auch die 4090 mit !mit dem selben Netzteil! -> (Powertarget 450W mit 3 Kabel 6+2 PIN )

Ein 850W Netzteil Gold+ reicht locker

Karte ist gekauft
 
  • Gefällt mir
Reaktionen: Celinna und Hutzeliger
ben12345 schrieb:
Was genau soll den pci e 5 bringen wenn nicht mal bei 4 die lanes ausgereizt werden? Bringt doch absolut 0 Vorteile oder? Hab ich da was falsch verstanden?
Ich hatte doch gar nichts von PCI-Express geschrieben...? Es geht aber auch um Zukunftssicherheit. Neue Mainboards kommen nunmal mit PCIe-5.0 daher. Da ist es doch ein Witz, wenn die "neue" GPU bereits wieder veraltet ist.
 
Atnam schrieb:
Aber anderes Thema. Deine Signatur. Ich hab fast einen Schlaganfall bekommen beim Versuch die zu lesen!
Die Geduld, die so zu bauen, muss man erstmal haben :D
 
  • Gefällt mir
Reaktionen: Atnam und Hutzeliger
Benni1990 schrieb:
Wer bei der Karte nicht zuschlägt ist selber schuld
Wozu soll ich die kaufen die Spiele laufen super . Vielleicht in 1-2 Jahren wenn die Spiele nicht mehr flüssig laufen .
 
  • Gefällt mir
Reaktionen: MrChlorophil, edenjung, Keloth und 3 andere
Beeindruckende Hardware, aber trotzdem absolut absurde Preisgestaltung/Preis-Leistungsverhältnis.
 
Jenergy schrieb:
Es geht aber auch um Zukunftssicherheit. Neue Mainboards kommen nunmal mit PCIe-5.0 daher. Da ist es doch ein Witz, wenn die "neue" GPU bereits wieder veraltet ist.
Da siehst du die Sache aber von der falschen Seite aus.
Die GPU benötigt schlicht kein PCIe 5.0. Sie würde auch in 5 Jahren dadurch auf einem 5.0 Board nicht plötzlich schneller werden.

Wichtiger wäre es, dass man ein Board kauft, das in Zukunft eine GPU versorgen kann, die PCIe 5.0 benötigt, auch wenn die nächsten mindestens 2 Generationen dadurch noch keinen Vorteil haben werden.
 
  • Gefällt mir
Reaktionen: ben12345
Benni1990 schrieb:
Das Problem war als DP 2.0 verabschiedet wurde und Offiziell war gab es schon kein zurück mehr bei Nvidia daher 1.4 und sind wir mal ehrlich wer hat schon 8k 60hz und zockt darauf ?

Naja, die Karte ist gerade rausgekommen und wird auch in einigen Jahren noch laufen. Auch jetzt gibt es schon 4k - 240hz Monitore. Mit DLSS3.0 erreicht man auch entsprechende Framezahlen. Schon Schade, dass da dann Displayport 1.4 limitiert. Benutzt man dann HDMI2.1 für den Spiele-PC?

PCIE5 oder 4 ist hingegen völlig egal, da die Grafikkarte auch mit PCIE4 die volle Leistung abruft. Auch in der Zukunft wird da niemals von PCIE5 profitiert. Das wird vielleicht bei der nächsten, schnelleren Grafikgeneration ein Thema.
 
  • Gefällt mir
Reaktionen: MrChlorophil und McTheRipper
Die Gerüchteküche hat für ordentlichen Absatz von Netzteilen, Lüftern und Airflowgehäusen geführt.
Nice und gut gemacht an alle, die darauf reingefallen sind.

Die GPU ist extrem nice.
Verfügbarkeit?

4080 16gb Test ist nun noch interessanter. AMD Release ebenso.
 
zivilist schrieb:
Spaß beim zocken kommt bei gut gemachten Games auf, nicht das man die maximale Auflösung und Detailgrad einstellen und hohe fps erreicht. Wenn die Spiele schlecht sind bringt auch eine schnelle GPU nichts.

Ich überspringe mal 3 Generationen.
Jupp.
Ich erlebe das gerade wieder mit the Witcher 3.
Ich hab zwar via Mods massiv was an der Grafik getan, aber selbst damit ist das Gameplay das wichtigste. Ob ich das jetzt auf meinem Laptop oder meinem Desktop zocke ist mir egal. Der einzige Unterschied ist, dass der lappi ne 1050ti hat und der Desktop ne 6800. Bockt macht's auf beiden 👍
 
  • Gefällt mir
Reaktionen: pfreampfl
Zurück
Oben