Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Ja, reichen. Aber "nur" bis 450 W. Wer die letzten 150 W auch noch braucht - für die Karten, die 600 W überhaupt unterstützen - der muss 4 Stecker anschließen.
 
Das heißt also auch, dass jede 4080 auch läuft, wenn sie nur 2 Stecker bekommt und der dritte vom Dreizack leer bleibt. Also bei Modellen, die keine Gamingpro von Palit sind. Wenn 2 Stecker zusammen 300W liefern und der Slot 75, reicht das da selbst, wenn man das Powertarget erhöhen will.
 
Was würdet ihr sagen ist eigentlich eine gute CPU als "Partner" für eine RTX 4090? Aktuell setze ich einen 5800X ein auf einem MSI B550-A Pro Mainboard und 32GB RAM DDR4 mit 3200MHz.
Ergänzung ()

tomcat66 schrieb:
Ja, reichen. Aber "nur" bis 450 W. Wer die letzten 150 W auch noch braucht - für die Karten, die 600 W überhaupt unterstützen - der muss 4 Stecker anschließen.

Tatsächlich ist der Verbrauch bei mir in Benchmarks auch schonmal 460W, aber nur für Sekunden. Normalerweise dümpelt die Karte bei 4k max details eher so bei 150W rum.
 
laurooon schrieb:
Was würdet ihr sagen ist eigentlich eine gute CPU als "Partner" für eine RTX 4090?
Ganz einfach: Die schnellste! Denn rein technisch gesehen limitiert aktuell jede CPU die 4090. Ob du das auch merkst in deinen Spielen mit deinen Einstellungen, steht wieder auf einem anderen Blatt.
Die heißesten Kandidaten wären ja 7800X3D und 7900X3D, welche bereits im Februar erscheinen. Wenn du dein aktuelles System zu einem guten Preis los wirst und du die Kohle für neue CPU+Board+RAM übrig hast, dann los!
Oder schnallst den 5800X3D auf dein Brett. Mit dieser Variante hadere ich auch gerade.:confused_alt:
 
Ich überlege ja noch, ob sich sogar der Wechsel vom 5900x auf den 5800x3d mit ner 4090 für VR lohnt...
 
Welcher RAM passt denn dazu? Damals ich gekauft hab, war 3200Mhz der Sweetspot, doch manche RAM rechnen schon mit 6000Mhz heutzutage. Lohnt das? Oder lohnt das nur mit neuer CPU und neuem Brett?
 
6000MHz bekommst du nur mit DDR5, also auch nur mit AM5. Und der Sweetspot für DDR4 liegt bei 3600MHz, was so gut wie jede Board/CPU-Kombi schafft.
 
Ich habe mal eine Frage zum Thema DLSS. Bei den Benchmarks wird ja immer nur nach den maximalen Frames gefragt, auch wenn 300 fps nicht immer sinnvoll sind, z.B. wenn das Display diese gar nicht wiedergeben kann.

Wenn ich also eine Ziel-fsp von 60 habe, kann ich dann durch DLSS noch effizienter, also "stromsparender" arbeiten? Ich müsste DLSS nicht akvieren, könnte aber. Dann müsste die Karte nur ca. 30 "echte" Frames berechnen, der Rest wäre Frame Generation. Verbraucht das weniger Leistung als 60 echte Frames zu berechnen?
 
Kurzes Fanboy Gelaber, Nvidia bringt den nächsten Gamechanger auf den Markt:


Puh, da wird AI richtig nach vorne getrieben. Vor allem werden so die neuro networks weiter trainiert und verbessert...

Ich hoffe es in der Praxis nur halb so gut, dann wäre es wirklich krass.
 
Mal eine Verständnisfrage:

Warum senkt die Grafikkarte ohne GPU Limit nicht Takt und Spannung ?

20230106182214_1.jpg


Stelle ich es selbst im Curve Editior ein dann spart man ja deutlich Strom.

20230106182423_1.jpg


Ohne eigene Kurve macht es die Karte erst bei 50% Powerlimit von Alleine !?
 
Zuletzt bearbeitet:
@0ssi

Wenn Du einen 120Hz Monitor hast, dann solltest Du den Limiter auf 116 stellen, damit Du immer innerhalb der Sync Range bist.
 
Hat 240Hz und läuft aktuell ohne Sync um zu schauen ob Tearing bei so hohen Hz noch relevant ist.
Mit der 3080 hatte ich in vielen Spielen trotz G-Sync das Problem, dass z.B. 90 FPS schlechter liefen
als 60FPS und perfekt war es immer erst wieder ab 110-115 FPS was irgendwie keinen Sinn ergab !?

Wollte eigentlich noch mit echtem G-Sync gegentesten aber solche Monitore sind selten geworden.
 
Vielleicht war bei 90 ein LFC-Übergang? Dort kann LFC-Stutter auftreten, besonders wenn ein Framelimiter nah dran ist. Echtes G-Sync wird dann im Spiel besser laufen.

Edit: Und Helligkeitsgeflacker am LFC-Übergang.
 
requiRe schrieb:
Moin, kurze Frage: Hat deine TUF 4090 Probleme mit sehr starkem Spulenfiepen?
Zwar schon lange her, aber kann mich hier auch mit extremem Spulenfiepen bei einer TUF anschließen. Werde die Woche noch eine Gigabyte Gaming OC testen, mal sehen, ob es da besser ist.

Update: Ja, die Gigabyte Gaming OC ist deutlich besser. Zuerst dachte ich gar kein Spulenfiepen zu hören, aber wenn man die Lüfter nur noch mit 1000 RPM drehen lässt und so bei 120 FPS ist, kann man doch ein bisschen was raushören. Aber kein Vergleich zu dem Düsenjet Spulenfiepen der TUF...
 
Zuletzt bearbeitet:
Die Gigabyte GeForce RTX 4090 Gaming OC gibt es bei Mindfactory gerade übrigens für 1977 Euro. Sonst war der beste Preis für die Karte bei 2050 Euro angesiedelt. Und generell für ne 4090 ein verhältnismäßig guter Preis.
 
Achtung: Das ist nicht Kaufland selbst sondern ein Marketplace Händler
also die haben das Amazon Prinzip mit dem Marketplace einfach kopiert:

kl1.jpg


kl2.jpg
 
Media Markt versucht noch im Laden in der Nachbarstadt RTX3080TI für 1579€ an den Mann zu bringen. :rolleyes: Wegen der 4070TI darf die maximal 750€ kosten.
 
  • Gefällt mir
Reaktionen: Veitograf, Opteron185 und bart0rn
Zurück
Oben