5060 Ti 16 GB - Micro Ruckler

Soweit ich mich erinnere, läuft der RAM synchron mit dem CPU. Es gibt/gab eben keinen 2.667er RAM, daher RAM mit etwas höherer Taktung, welcher eben mit 2.667 läuft.

So, nochmal zurück zum CPU. Eben, ich wollte den eigentlich nicht upgraden, weil der Leistungssprung minimal ist. Bei dem GPU bin ich von 1660 Super auf 5060 Ti. Von 6 GB VRAM auf 16 GB VRAM.

Rohleistung +139% lt. UserBenchmark:
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-5060-Ti-vs-Nvidia-GTX-1660S-Super/4183vs4056
Dazu ca. 3x Frames durch MFG 4x (außer für die Tests hier, hatte ich MFG immer aktiviert). Dazu +50% Frames durch DLSS Quality vs. nativ.
2,39 x 3 x 1,5 = 10,8-fache Frames (bzw. eben höhere Grafikdetails).
(Meine alte 1660 Super in nativ ohne FrameGen vs 5060 Ti mit DLSS 4 Q und MFG 4x)

Und jetzt das Upgrade von 10400 auf 7500F, der ja hier für die (obere) Mittelklasse (1.000 - 1.500 Euro, also bereits deutlich oberhalb der Konsolen) empfohlen wird:
https://www.computerbase.de/forum/t...g-pc-spiele-pc-selbst-zusammenstellen.215394/

Der wäre 22% schneller lt UserBenchmark:
https://cpu.userbenchmark.com/Compare/Intel-Core-i5-10400-vs-AMD-Ryzen-5-7500F/4073vsm2144536

6 Cores, 12 Threads - keine Verbesserung

Bei Cyberpunk fällt der 7500F auch mal auf 21FPS als 0,1% Low. Vielleicht bin ich auch insgesamt zu kritisch?
Auch bei Witcher sind gerade am Anfang beim 7500F einige harte Frame Drops (0,1% bei 26; beim 10400F bei 90-93 in der gleichen Szene).

Auf jeden Fall keine 10x-Upgrade (bei der 5060 Ti zum großen Teil durch "Fake Frames" und "Fake Auflösung", völlig klar) und auch nicht frei von Frame Drops.

Daher ja, der Plan war eigentlich nicht, den CPU zu upgraden und ein 7500F wäre ein viel zu geringes Upgrade. Und ein 9800X3D oder was auch immer ein ziemlicher Overkill für eine 5060Ti.

Jetzt noch zu den PCIe Lanes, das wäre ja evtl. der zweite Grund für ein Upgrade. Die 5060 Ti läuft auf x8, mein Motherboard auf PCIe 3.0. Hier wurde eine 4090 auf 2.0 x16 gesetzt (Sollte 3.0 x8 entsprechen) oder gar auf 1.1 x16 (sollte nur die Hälfte von 3.0 x8 sein):

https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/28.html

Es werden nur FPS veröffentlicht, keine Min-FPS oder Min-Frametimes, aber ich vermute doch, dass die Tester im Text darauf hingewiesen hätten, wenn nicht allgemein die FPS ein paar Prozent leiden, sondern die weniger FPS durch einige, wenige Micro-Ruckler verursacht worden wären.
 
Die Webseite User Benchmark kannst du in die Tonne kloppen. Die schaust du dir am besten gar nicht an. Schau dir lieber Tests hier bei CB, techpowerup oder Gamersnexus (einige nur bei YouTube, nicht alles als Text) an.
 
Bitte bitte nutze niemals Userbenchmark. Das sind absurde Intel-Fanboys, die alles dafür tun, dass Intel besser als AMD dasteht und immer wieder völlig weltfremd an ihrem Benchmark rumschraubenl, um das sicherzustellen.
 
Fryous schrieb:
So, nochmal zurück zum CPU. Eben, ich wollte den eigentlich nicht upgraden, weil der Leistungssprung minimal ist.
Wie groß der Sprung ist, kommt aber auch darauf an, auf welche neue CPU du wechselst. Aber das hängt wiederum mit den Kosten zusammen
Ergänzung ()

Fryous schrieb:
Dazu ca. 3x Frames durch MFG 4x (außer für die Tests hier, hatte ich MFG immer aktiviert). Dazu +50% Frames durch DLSS Quality vs. nativ.
2,39 x 3 x 1,5 = 10,8-fache Frames (bzw. eben höhere Grafikdetails).
(Meine alte 1660 Super in nativ ohne FrameGen vs 5060 Ti mit DLSS 4 Q und MFG 4x)
Milchmädchenrechnung. Die 5060ti ist oft gar nicht stark genug damit du in eine FPS Bereich kommst, bei dem sich FG bzw MFG wirklich lohnen würde. Du brauchst von Anfang an mindestens 60 FPS, besser 80-100 FPS. Begründet sich durch die erhöhte Latenz
 
Und hier noch mal ein Test:


Auch mit 2.0 und selbst mit 1.1 gibt es keine extremen Unterschiede, vor allem unten bei UWQHD/4k - vor allem verschieben sich beide Graphen. Also ein beschränkter PCIe-Bus würde nicht zu einzelnen Frame-Drops führen, sondern das Gesamtgefüge (Average FPS und 1% in gleichen Maße) verschieben.

79,8 / 108,7 = 73,4%
79,2 / 107,7 = 73,5%
75,8 / 105,4 = 71,9%
70,5 / 99,9 = 70,6%

Fazit, oder eben auch nicht: Ich denke auch nicht, dass es am CPU liegt. Oder am PCIe Bus. Aber woran es liegt, weiß ich eben nicht. Ich habe jetzt ALLE Autostart-Programme deaktiviert, also selbst das Microsoft Antivirus Icon usw...
Ergänzung ()

stefan92x schrieb:
Bitte bitte nutze niemals Userbenchmark. Das sind absurde Intel-Fanboys, die alles dafür tun, dass Intel besser als AMD dasteht und immer wieder völlig weltfremd an ihrem Benchmark rumschraubenl, um das sicherzustellen.

Auch im Vergleich Intel zu Intel sieht es jetzt nicht besser aus:
https://cpu.userbenchmark.com/Compare/Intel-Core-i5-14400F-vs-Intel-Core-i5-10400F/m2273207vs4079
 
Vllt hast du das schon irgendwo erwähnt. Hast du auch Windows nochmal komplett frisch installiert? Wäre eine Maßnahme, auch wenn man das natürlich gerne vermeiden möchte. Aber scheinbar hast du schon viel getestet.
 
Winston90 schrieb:
Milchmädchenrechnung. Die 5060ti ist oft gar nicht stark genug damit du in eine FPS Bereich kommst, bei dem sich FG bzw MFG wirklich lohnen würde. Du brauchst von Anfang an mindestens 60 FPS, besser 80-100 FPS. Begründet sich durch die erhöhte Latenz

Das ist eine interessante akademische Diskussion für kompetitive e-Sports-Valorant-Spieler & Co. - für mich komplett irrelevant. Der Input Lag selbst bei 20-30 fps auf 80-120 fps hochskaliert ist mit MFG 4x und Nvidia Reflex geringer als nativ ohne Nvidia Reflex und geringer als bei aktuellen Konsolen (PS5, PS5 Pro).

Bei Sportarten wie Sprint, Schwimmen oder Formel 1 gibt es sog. Mindestreaktionszeiten - die liegt je nach Sportart bei 100 bis 200 ms. Weil schneller kann selbst der genetisch bevorzugteste und am besten trainierteste Mensch der Welt nicht reagieren, d.h. eine Reaktionszeit unter 200 ms ist bspw. in der Formel 1 ein Frühstart. Auch Verstappen braucht über 200 ms. Normale Menschen, die das nicht beruflich machen und trainieren, sind natürlich noch wesentlich schlechter.

Beispiel Video von Digital Foundry (God of War), da hat die PS5 112 ms Latenz, ein normaler PC 124 ms und Nvidia Reflex 47 ms. Bei 60 fps habe ich Frametimes von 17 ms, bei 30 fps habe ich 33 ms und bei 25 fps habe ich 40 ms. Da werden also 16 bis 23 ms Latenz durch geringer Wiederholrate hinzugefügt, was gerade einen Bruchteil vom Unterschied von PS5 zu Nvidia Reflex ausmacht. Und 16 bis 23 ms sind nur Bruchteil der menschlich bestmöglichen Reaktionszeit.

Am Ende kommt es auch bisschen auf die Optimierung des Spiels an, siehe Computerbase Test. Bei Outlaws lt. Computerbase-Test ist komplett ohne MFG die PC Latenz bei 46 ms und mit MFG 4x bei 55 ms. Also gerade mal 9 ms mehr, wobei nativ 105 ms statt 46/55 ms wären und bei der PS5 sind es wahrscheinlich auch deutlich über 100 ms (analog dem God of War Test von Digital Foundry).

TL;DR: Der Input-Lag ist für mich irrelevant als Singleplayer-Casual-Gamer der zu 95% mit dem Gamepad spielt und nur mal Cyberpunk ausnahmsweise mit Maus/Tastatur weil Ego-Perspektive. Ich schaue, dass ich 100 - 165 fps habe unter Nutzung von MFG 4x und für nicht-kompetitive Spiele ist das super und vom Input-Lag immer noch Welten besser als PS5/PS5 Pro oder PC nativ.
Ergänzung ()

So, Shadow of the Tomb Raider habe ich noch hier, da gibt es auch einen Benchmark.
UWQHD, DLSS Q, Ultra + RT Ultra:

TR-01.png


Rechts ist ja so ein Frametime-Graph, da sieht man sowohl CPU als auch GPU. Der Graph geht von 0 bis 20 ms und ist eigentlich nie schlechter als 10 ms.

Aber auch dort gibt es im Benchmark diese typischen Aussetzer oder ist das einfach normal!?

TR-02.png


TR-03.png

Ergänzung ()

Btw: GPU bei 100% - also keine CPU-Limitierung!?
Und der RAM ist mit 9 von 16 GB ja auch nicht voll!?

Ob vielleicht RTSS selbst das Problem ist? Da müsste ich jetzt mal gedanklich rekonstruieren, hatte ich RTSS zuerst oder sind mir zuerst diese Micro-Ruckler aufgefallen... oder mal ein anderes Tool suchen...
 
Zuletzt bearbeitet:
Ich rekonstruiere das ganze nochmal. Mein Monitor (DW3423DWF) unterstützt VRR. Also man kann über die Nvidia Systemsteuerung G-Sync Kompatibilität anschalten. Der G-Sync Indikator wird angezeigt, funktioniert also. Gerade in Cyberpunk ist mir aber Ingame (besonders wenn man geduckt ist, merkt man es ja sehr gut) sehr extremes VRR Flickeringaufgefallen. Für die ganzen Tests oben war G-Sync auch wieder aus, aber das spielt keine Rolle.

Habe jetzt nochmal G-Sync wieder aktiviert und RTSS und MSI Afterburner ausgeschaltet und wirklich 0 (!) Hintergrundprogramme laufen und dann nochmal den Tomb Raider Benchmark gestartet. Dort dann nur mittlere Details und ohne Ray Tracing und auch da habe ich das VRR Flickerung sehr deutlich bemerkt. Etwas öfters als einmal pro Sekunde blitzt es hell auf, dann wieder normal. Also es liegt nicht an RTSS, es liegt nicht am GPU und kann eigentlich auch nicht am CPU liegen (Shadow of the Tomb Raider auf mittleren Details aus dem Jahr 2018 - da sollte ein 10400 als Budget-Gaming-CPU aus dem Jahr 2020 keine Probleme haben - besonders nicht solche extremen Frame Drops).

Also, zuerst kam das VRR OLED Flickering, dann kam RTSS und auch bei 2018er Spielen mit mittleren Details kann die Kombination 10400F + 5060 Ti keine konstante Bildrate halten. Der RAM ist nicht voll. BIOS Update auch gestern gemacht. Average FPS sehr toll, aber etwa 1x pro Sekunde oder evtl. bisschen öfters ein einziges Frame, was massiv abfällt und damit VRR OLED Flickering verursacht (falls G-Sync aktiv). Oder sich eben in RTSS massiv bemerkbar macht oder einen einzigen Micro-Ruckler pro Sekunde verursacht.
 
So, ich habe jetzt meinen Monitor auf HDR mit Modus "DisplayHDR True Black" umgestellt. In Windows HDR aktiviert. G-Sync ist aktiviert und rechts oben wird G-Sync angezeigt, d.h. es funktioniert auch. MSI Afterburner und RTSS gelöscht. Nvidia FrameView installiert (siehe auch hier: https://nvidia.custhelp.com/app/ans...r-may-be-observed-when-using-diagnostic-tools )

In Cyberpunk Hoch eingestellt, DLSS Quality, UWQHD, MFG x3, RT aus, Max FPS in Cyberpunk auf 162 eingestellt.
In FrameView sind die FPS 160-175 (die 162 max werden also nicht immer gehalten, aber so ungefähr). Die 1% Lows schwanken zwischen 80 und 130/140, meistens so 100-120.

VRR Flickering ist weg, Micro-Stuttering ist weg. Das ist wirklich der wichtige Unterschied, ich hatte auch vorher schon mal MSI/RTSS gelöscht bzw. noch gar nicht installiert, und trotzdem hatte ich VRR Flickering und das Micro Stuttering ca. 1x pro Sekunde. Beim VRR Flicker hat man 1x pro Sekunde, besonders in Cyberpunk geduckt (da ist es extra dunkel) diesen Lichtblitz hell gesehen - der ist jetzt komplett weg. Auch das Micro Stuttering, das war bspw. extrem (!) auffällig wenn man in Cyberpunk Auto gefahren ist, ist komplett weg (flüssig wie ein Rennspiel).

Also keine Ahnung woran es jetzt liegt und das werde ich morgen wahrscheinlich weiter ausprobieren, damit ich hoffentlich das Setting finde, was VRR Flickering und Micro Stuttering verursacht hat, aber jetzt zumindest mit diesen Settings ist es komplett weg und extrem flüssig: Cyberpunk Hoch, DLSS Quality, UWQHD, MFG x3, RT aus, Max FPS in Cyberpunk auf 162.

Die PC Latency gibt FrameView mit 43-48 ms an (meistens 43-45 ms). Das ist m.E. ein sehr guter Wert wenn die PS5 oder ein nativer PC normalerweise über 100 ms liegen. Ich kann natürlich nicht sagen, wie genau Nvidia FrameView das überhaupt berechnet, ist aber für mein Casual-Gamer empfinden (der früher mal CS 1.6 gezockt hat, viele, viele Jahre ist es her) kein merkliches Input Lag und ich kann jedenfalls im Single-Player sehr einfach auf Headshots-only gehen (wie damals mit der Scout in CS). Für kompetitives eSports ist MFG natürlich kein Thema, aber ich habe meine 165 fps im Average und kann mit der Maus auch im Kampf im Singleplayer locker auf Headshots zielen ohne merkliches Input Lag. Und für die 95% anderen Titel, die ich mit Gamepad spiele, noch weniger ein Thema.

Edit: Mein Reasoning für MFG x3: Bei 165 Hz was der Monitor schafft bin ich bei 55 fps x 3 und 55 fps ist nun wirklich keine FPS-Rate, welche rucklig oder lagig wäre. Bis vor 2 Wochen hatte ich einen 60 Hz Monitor. Seit 20 Jahren zocke ich 60 Hz oder schlechter (viele Jahre auch Counter-Strike 1.6) und die meisten Konsolen machen, gerade im Single-Player, 30 fps. Filme sind 24/25 fps.
 
Zuletzt bearbeitet:
Zurück
Oben