Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

0ssi schrieb:
Gibt es dazu eine Quelle ? Weil hier stand mal was von VSync weder aus noch an sondern auf Die Anwendung
entscheiden lassen und es wäre schon kurios wenn man gerade jetzt wo es einen Frame Limiter im Treiber gibt
sagt, dass man wie früher VSync als Frame Limiter "missbrauchen" soll um in der G-Sync Range zu bleiben !? :freaky:

Ja, auf die Schnelle zum Beispiel hier .

Staying in VRR Range: Set the Max Frame Rate slightly below the maximum refresh rate of your display to stay within the Variable Refresh Rate range - providing a no-tear, low system latency experience! For the smoothest, no tear experience, set the low latency mode to Ultra and turn VSYNC on.

^ Im Grunde empfiehlt nVidia hier für G-Sync/VRR sogar drei Dinge: Das fps Limit im Treiber zu setzen, low latency auf 'ultra' UND dann auch noch V-Sync on.

Ich habe mich vor einiger Zeit mal ausführlicher damit beschäftigt und ich gebe nichts auf inoffizielle Quellen wie die PCGH. nVidia entwickeln die Technologie und den Treiber und die werden am besten wissen, was man da einstellen muss.

Und deswegen folge ich seit Jahren der offiziellen Empfehlung: 1) V-Sync global on (im Treiber ist das wohl so programmiert, dass das bei gleichzeitig aktiviertem G-Sync dann optimal abgestimmt ist) 2) Low Latency Ultra 3) V-Sync im Spiel off.

Gemäß meiner damaligen Lektüre ist das redundant, was nVidia da in meinem oben zitierten Ausschnitt empfiehlt mit FPS Limiter und V-Sync on.
Laut anderer Artikel, die ich damals gelesen habe, macht der Treiber das mit dem Limit alles vollautomatisch, wenn G-Sync und V-Sync aktiviert sind.
Ich fahre wie gesagt seit Jahren gut damit. Null Probleme und alles smooth.
 
  • Gefällt mir
Reaktionen: JPsy, FUSION5, Celinna und eine weitere Person
@Balikon
Was auch 1600 € wären.. Und da werden dann wieder die Leute zu NV greifen.. Wie gesagt ich glaube da noch nicht dran. Alternativ nehmen wir die RX 6800XT mit einer UVP von 649 USD... AMD hat auch bei Zen 3 nicht die Preise erhöht, also gehen wir dennoch mal von 100 USD Aufpreis aus.. Dann wäre immer noch viel Luft... 1099 USD kann ich mir ebenso vorstellen, mehr aber nicht. Ryzen hat es ja seit Zen 1 gezeigt, wieso.

Ich sag dir klar, dass die Preise der 4080/16 und der 4080/12 Platzhalterpreise sind. Nvidia wird diese Senken, wenn AMD die Karten bringt..
 
Ich bin Mal gespannt wie sich die Hardwarepreise in den nächsten Monaten entwickeln werden. Vielleicht bekommt man eine 4090 dann auch bald für 1500€, oder eine 7950 XT für 1000€.
 
ich glaube die wirklich interessante karte könnte am ende eine 4080ti werden...den die lücke zw. den 4080 und der 4090 ist riesig...
 
Wow! Beeindruckende Effizienz!
Ich hätte an ihrer Stelle dieses schöne Stück Technik einfach direkt mit 300W verkauft.

+50% Leistung
-50% Energieverbraucht im Vergleich zu einer 3090TI


DAS wäre marketingtechnisch etwas gewesen! 🤩

Aber so .... die zusätzlichen 9% an Mehrleistung für weitere 150W. Hier haben sie leider echt einiges verschenkt. Heißt also für jeden Interessierten selbst Hand anlegen. Schade. Für mich wäre sie aber sowieso nichts.

Die enorme Effizienz lässt mich aber wieder einmal auf eine gute <350€ GPU hoffen.
 
  • Gefällt mir
Reaktionen: Alex1966, cypeak, Blackland und 2 andere
Danke für den tollen Test. Heute ist der Tag an dem meine beiden 3090 definitiv zum Alteisen gehören. Was für ein mächtiger Performancesprung. Die 3090 sind im Blender Benchmark zwar ähnlich schnell, brauchen aber bedeutend mehr Strom. Also werden diese gegen eine gute MSI Suprem X 4090 ausgetauscht. Damit habe ich definitiv das bessere Gesamtpaket.
 
Wolfgang schrieb:
Du bist halt in niedrigeren Auflösungen als UHD sehr schnell CPU-limitiert, das ist da das Hauptproblem. Sicherlich reduziert sich auch nochmals die Auslastung der ALUs, das Hauptproblem wird aber die CPU sein.

zumindest für künftige CPU Tests sehr gut :)
und danke für den tollen Test Wolfgang
 
Da fragt man sich schon ob es noch Sinn macht eine Strix zu kaufen wenn die FE schon auf 600W laufen kann? Bestenfalls vielleicht für Leute die das Ding mit Luft Kühlen wollen, aber denen ist eh nicht zu helfen. 😂
 
Danke für den Test.
War ja am überlegen die Karte zu nehmen. Werde wohl aber auf den Test der 3080 16g warten. Aktuell die 2080 ti drin und mein Gesamtsystem mit Monitor und Co. Zieht gerade mal das, was die 450w der Grafikkarte zieht. Selbst auf 300w Senkung würde ich noch weit drüber sein. Einen Blick auf die Stromkosten muss ich hier leider werfen und auch als Vorbild gegenüber meiner Tochter sagt, dass ich jetzt nicht einfach voll raushauen sollte. Mal sehen wie weit man die 3080 16g drücken kann.
 
Wenn man die 4090 bei der Leistung mit 300 Watt betreiben kann, dann hoffentlich die 4080 auch mit 200 Watt und die 4070 mit 150 Watt. Dann muss auch die Leistung nicht in dem Maße steigen. :)
 
  • Gefällt mir
Reaktionen: Alex1966, -> m1 <- und Corin Corvus
Leistung passt zum Preis. Mal sehen wie die anderen Karten abschneiden.
 
Sun-Berg schrieb:
Im Übrigen fand ich den Teil zu DLSS3 sehr interessant. Gerade Spiele bei denen der Input-lag nicht so wichtig ist, wie etwa der FS2020 (meiner Meinung nach, Profis sehen das bestimmt anders) wird DLSS 3 einen grossen Nutzen haben. Die Bildqualität scheint ja erstmal zu stimmen.
Dafür müsste DLSS aber auch mehr gefördert werden.. Ich glaube in fast allen Sims wäre DLSS ne tolle Nummer und hübscht effizient die Grafik auf.. In einem Shooter versteh ich das Treibergebaue, aber in Wirtschaftssims wäre es doch toll, wenn man es per Treiber zumindest erzwingen könnte.. Geht leider nicht. Aber der RT Modbaukasten ist für mich auf der GPU Vorstellung eh das spannendere Gewesen.
 
  • Gefällt mir
Reaktionen: Sun-Berg
Die 300W Werte sind sehr vielversprechend. Schade, dass sie nicht so released.
Der Markt ist einfach verrückt.
Geile Karte, kranker Preis
 
  • Gefällt mir
Reaktionen: Blackland
Hauwexis schrieb:
Wenn ich jetzt, nur ein paar Jahre später plötzlich für ein Flaggschiff mehr als das 5,5 fache bezahlen soll ist das für mich reine Abzocke, Fantasiepreisgestaltung eben.

Passt einfach vorne und hinten nicht.

Verkauf einfach deine Niere ^^
Ich stimme dir aber zu.
 
Vom verantwortungslosen Verbrauchsmonster zur Effienzbestie. Well, that descalated quickly.
 
Hauwexis schrieb:
Habe für eine 980Ti damals Neu 359€ bezahlt.Das war ein fürs Flaggschiff angemessener Preis.
Erzähl doch hier keinen Unsinn und falsche Sachen. 🙄 Ja, als Restposten vielleicht, da vielleicht, wo schon Pascal oder gar Turing lieferbar war. Never ever zum neuen Release! Bei der 980 GTX stand ich im Laden und hab eine für ca 700 € gekauft (eher mehr, siehe https://www.hardwareluxx.de/index.p...vga-geforce-gtx-980-ti-sc-acx-20-im-test.html), und dann 7 Monate später für 500 € verkauft.
 
Zuletzt bearbeitet:
Und da kommen sie wieder, die Kommentare ala: "leistet das Doppelte der 3080ti, darum ist der Preis ok..." facepalm
 
  • Gefällt mir
Reaktionen: MrChlorophil, EUROFlGHTER und Captain Mumpitz
Sehr interessant, aber ich denke ich werde die 4000er Serie auslassen nachdem ich auf die 3000er gegangen bin für ein neues System. Die zusätzliche Leistung wird kaum gebraucht und die 3080 hab ich auch nur weil ich mein ganzes System auf einmal neu gekauft hab.
 
  • Gefällt mir
Reaktionen: MrChlorophil und Weltenbaum
Zurück
Oben