Plane 7900 XT an GSync only Monitor - Empfohlene Einstellungen?

nailos

Lt. Junior Grade
Registriert
Juli 2010
Beiträge
488
Hallo,

ich spiele mit dem Gedanken mir eine RX 7900 XT für meinen Desktop PC zu kaufen. Sie würde die aktuelle RTX 3070 ersetzen, welche wiederum in den Wohnzimmer PC wandern würde. Ich hoffe, dass sie dort mit reduzierter Auflösung und/oder DLSS und ggf. reduzierten Settings noch zwei Jahre durchhält. Eine neue NVIDIA Karte kommt aktuell nicht in Frage, da alles unterhalb der RTX 4080 zu wenig Speicher hat und mir die 4080 zu teuer für das gebotene ist.

Nun ist mir aufgefallen, dass mein aktueller Monitor, ein Viewsonic XG2703-GS (27 Zoll, WQHD, 165 Hz), eben nur GSync fähig ist. Er müsste noch aus der ersten Generation von GSync Monitoren stammen, sodass er auch noch nicht mit AMD Karten und VRR arbeitet. Daher ist meine Frage, was sind für AMD Karten die "optimalen" Settings, um zum einen Tearing zu vermeiden und zum anderen den kleinstmöglichen Input Lag zu bekommen?

Ich habe mir bereits ein paar Videos von Battlenonsense und HUB angeguckt, aber die meisten sind schon ein paar Jahre alt und ich frage mich, ob es mittlerweile weitere bzw. bessere Lösungen gibt. Wobei ich mich auch frage, wie sehr mein Problem überhaupt noch relevant ist, da ja quasi alle neuen Gaming Monitore VRR haben.

Mein Verständnis ist bisher folgendes:
1. "Enhanced Sync" hilft Tearing bei FPS oberhalb der Monitorfrequenz zu vermeiden und den Input Lag gering zu halten.
2. VSync und "Enhanced Sync" vermeiden Tearing unterhalb der Monitorfrequenz, erhöhen aber den Input Lag.
3. Fallen die FPS unter die Monitorfrequenz, wird mit VSync nur noch die hälfte der Monitorfrequenz in FPS ausgegeben.
3. Dem Input Lag kann man minimal mit "AntiLag" entgegen wirken, aber nur in DX9 und DX11 Spielen (geht hier mittlerweile auch DX12?)
4. Das Begrenzen der FPS, sodass die GPU Auslastung unterhalb von 95% liegt, kann in manchen Spielen den Input Lag reduzieren.

Das alles lässt für mich folgenden Schluss zu:
Am besten mit Enhanced Sync immer oberhalb der Monitorfrequenz bleiben. Falls die GPU 165 FPS nicht schafft, die Monitorfrequenz (wenn möglich im Spiel) senken. Da ich bisher immer mit 75+ FPS zufrieden war, müsste ich in meinem Fall 75 Hz einstellen und die Spieleinstellungen so setzen, dass die 1% Lows über 75 FPS liegen. Dazu am besten noch eine FPS Begrenzung im Spiel auf zB. 90 FPS setzen, um die GPU Last nicht unnötig hoch zu halten.

Stimmt ihr dem so zu oder habe ich hier grundsätzlich was falsch verstanden oder gibts eine bessere Lösung?


LG nailos

PS:
Grundsätzlich ist das alles nur eine Übergangslösung, bis ein neuer Monitor kommt. Meinen Wunschmonitor gibt es aber noch nicht. Ich hätte gerne 4K auf 32 Zoll und ein OLED oder Micro LED Panel bei mindestens 120 Hz mit VRR. Ich hoffe, dass da später in diesem Jahr oder im nächsten Jahr was entsprechendes kommt.
 
nailos schrieb:
Ich hoffe, dass sie dort mit reduzierter Auflösung und/oder DLSS und ggf. reduzierten Settings noch zwei Jahre durchhält.
Nicht das eigentliche Topic, aber: wusstest du, dass man in allen Spielen auch die Detailregler nicht nur auf "Ultra" setzen kann, so dass man selbst mit einer GTX 1070 noch "durchhalten" könnte...
 
Ja. Darum habe ich in dem von dir zitierten Satz geschrieben, dass ich das vorhabe.
 
AMD Enhanced Sync und Nvidia Fast Sync kann man eigentlich vergessen weil es Mikroruckler gibt
also wenn dann 120Hz und per FSR versuchen nie unter 120FPS zu fallen damit V-Sync smooth läuft.

Warum willst du für 1440p 165Hz keine RTX4070Ti kaufen ? Die packt mit DLSS und Frame Generation
120-165FPS. Micro LED dauert doch noch ewig ! Nicht verwechseln mit Mini LED. Völlig unterschiedlich.
 
0ssi schrieb:
AMD Enhanced Sync und Nvidia Fast Sync kann man eigentlich vergessen weil es Mikroruckler gibt
Oh das ist schade. Ist das deine persönliche Erfahrung oder hast du dazu vielleicht sogar einen Link?

0ssi schrieb:
also wenn dann 120Hz und per FSR versuchen nie unter 120FPS zu fallen damit V-Sync smooth läuft.
Das würde dann zur typischen VSync Verzögerung führen. Ich habe das ewig nicht mehr gehabt, daher müsste ich wohl einfach mal testen, ob mich das Delay insbesondere bei hohen Hz stört. Aufgrund der geringen Rückmeldungen hier im Thread werde ich wohl eh selbst testen müssen.

0ssi schrieb:
Warum willst du für 1440p 165Hz keine RTX4070Ti kaufen ? Die packt mit DLSS und Frame Generation
120-165FPS.
Die 4070 TI packt das HEUTE. Ich habe mir vor 2,5 Jahren für 500€ die 3070 FE geschossen, weil ich damals keine 3080 in meinem Gehäuse verbauen konnte und die AMD Karten nicht verfügbar waren. Ich bin mit der Leistung der 3070 grundsätzlich zufrieden, aber der VRAM macht die Karte leider wirklich zu einer GTX Karte und selbst dabei muss ich die Einstellungen zurückdrehen. Das ist an sich kein Problem, aber da ich sowieso eine GPU für den Wohnzimmer PC brauche, erwäge ich eben das Upgrade. Ich möchte aber den "Fehler", eine Karte mit zu wenig VRAM zu kaufen, nicht wiederholen. Ich hatte vor ein paar Jahren auch mal eine GTX 970 und fühlte mich auch damals ziemlich verarscht von NVIDIA.

0ssi schrieb:
Micro LED dauert doch noch ewig ! Nicht verwechseln mit Mini LED. Völlig unterschiedlich.
Ich habe ganz bewusst Micro LED geschrieben. Wer weiß, wie lange es noch dauert, bis es für mich akzeptable OLED 4K 32 Zoll Monitore gibt. Da ich den Monitor zum Arbeiten nutze, sollte es ein Panel mit "normalem" RGB Array sein, sodass die Schrift klar von Windows gezeichnet wird.


LG
 
nailos schrieb:
Oh das ist schade. Ist das deine persönliche Erfahrung oder hast du dazu vielleicht sogar einen Link?
Früher selbst getestet und hier wurde es mal erklärt:

nailos schrieb:
Das würde dann zur typischen VSync Verzögerung führen.
Bei 60Hz merkt man den V-Sync Input Lag aber bei 120Hz ist es tatsächlich sehr gut spielbar.
Aber man darf eben nie unter 120FPS fallen weil V-Sync mit weniger FPS als Hz ist schrecklich.
Triple Buffering verursacht dann Ruckler und Double Buffering halbiert mal eben die Framerate.

nailos schrieb:
Die 4070 TI packt das HEUTE.
Dann sollte sie es auch in 2-3 Jahren schaffen weil die Grafik wird besser also geht Ultra eh nicht mehr
weil die GPU zu schwach ist oder man nutzt DLSS also bei 1440p wird ja nur noch in 1080p gerendert
und schon sollten 12GB ausreichen. Die "3,5GB" meiner 970 hatten damals für FHD völlig ausgereicht.
 
Okay, dann werde ich mir das mit dem normalen VSync mal anschauen, wenn die AMD Karte da ist.
Da es hier ja nicht um eine Kaufberatung bezüglich Nvidia vs AMD ging, müssen wir das auch nicht weiter vertiefen.
 
Zurück
Oben