• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Days Gone im Test: Trotz hoher FPS ruckelt es auf dem Gaming-PC

B3nutzer schrieb:
Habs jetzt bei mir auch nochmal mit ner Slow Mo Aufnahme vom Monitor geprüft. Das hätte ich gleich von Anfang an machen sollten.

In der gesamten Benchmarkszene sind mir jetzt mit Hilfe der Slow Mo zwei winzige Unregelmäßigkeiten aufgefallen. Einmal am Speicherpunkt am Tor und dann nochmal kurz danach. Das wars. Die Ausgabe am Display ist praktisch perfekt mit Gsync und ohne Vsync (Gamepadsteuerung).

Damit hat sichs für mich auch erledigt. Das Game läuft absolut sauber bei mir. Kein Grund sich verrückt machen zu lassen.

deckt sich ja mit dem was 99% der Spieler hier sagen, was am Ende am Monitor ankommt mit Gsync ist absolut perfekt, kein ruckeln, kein zuckeln, keine riesen Framesprünge(MSI AB: 12,6ms->12,8ms z.B.). Da interessiert nicht was davor im PC passiert(capframex), solange das was am Ende rauskommt super ist.

Edit: nix gegen capframex :) das Tool ist super wenn man Probleme und Ursachen finden möchte wenn das Endergebnis mies ist und man dann prüfen möchte was davor vor den ganzen Buffern und Co schon schief lief.
 
Zuletzt bearbeitet:
GerryB schrieb:
Mit Controller oder auch mit Maus?

Hab beides getestet. Mit Controller ist alles perfekt. Mit Maus nur in der Theorie...

Ich konnte in der Slow Mo sehen, dass das Bild bei den Rucklern mit Maussteuerung gar nicht stehen bleibt, sondern dass die Kamera einfach von einen auf den nächsten Frame zu weit in die Richtung springt in die ich die Maus bewegt habe.

Das sieht dann aus wie ein Ruckler ist aber technisch gesehen gar keiner.
Das ist dann auch der Grund, warum ich es nicht mit CapFrameX messen konnte.

Wie ich vermutet habe scheint das Spiel einfach Probleme mit dem Maus Input zu haben und die Bewegungen falsch auf die Kamera zu interpolieren.
Die Spielinterne Mausglättung schwächt das etwas ab, aber nicht vollständig.

Diese Maus "Ruckler" kommen ca. alle 5-10 sec. wenn ich die Maus in Bewegung halte.

Vielleicht mal mit der Polling Rate Spielen...
 
  • Gefällt mir
Reaktionen: cruse und Celinna
@B3nutzer
Maus ist eh sone Sache bei der Unreal Engine 4

Z.B. ich spiele gerne Terminator Resistance was auch darauf basiert aber es gibt keine Hardwaremausunterstützung und deshalb ist die da ziemlich schwammig in dem Spiel. Man muss für sich da einen weg finden das am besten einzustellen.
 
Okay. krass!
Das hatte ich ja noch nie. Es ist tatsächlich die Polling Rate.

Wenn ich die Polling Rate auf 125 Hz stelle, dann sehen die Kamerabewegungen aus, als würde man mit 30 FPS spielen. Das Stottert richtig furchtbar, ist aber wie gesagt nur die Kamerabewegung. Einfach gerade aus laufen ist super smooth, auch die Animationen des Chars sind super. Aber der sich bewegende Hintergrund ruckelt wie hölle wenn ich die Kamera bewege.

Je höher ich die Pollig Rate stelle, desto besser wird es. Leider kann meine Maus nicht mehr als 1000 Hz.
Das ist wohl immernoch nicht genug.


Kann das vielleicht jemand bestätigen? Polling Rate auf 125 Hz stellen und dann testen. Wäre jetzt interessant, ob das echt nur bei mir auftritt.
 
  • Gefällt mir
Reaktionen: cruse
Es ist erstaunlich wie sehr der Test von PCGH vom diesem Test differiert. Ich hatte leider noch keine Zeit selbst zu spielen. PCGH hatte keinerlei Ruckel Probleme.
 
wenn heute - 12 jahre nach dem reasel von DX11 - noch spiele ausschließlich für DX11 herauskommen, dann darf man annehmen, dass hier mehr böse absicht dahintersteckt als purer blödheit, oder?
 
nagus schrieb:
wenn heute - 12 jahre nach dem reasel von DX11 - noch spiele ausschließlich für DX11 herauskommen, dann darf man annehmen, dass hier mehr böse absicht dahintersteckt als purer blödheit, oder?
Und wenn das Spiel sauber ohne Bugs läuft und zudem in keinem CPU-Limit(da ist meist DX11 der Grund) ist, warum nicht? Genau ein Spiel, welches es fast perfekt macht und zeigt, dass man zuerst auf sich(der Entwickler sich selbst) und dann auf die API gucken sollte
 
leonM schrieb:
Und wenn das Spiel sauber ohne Bugs läuft und zudem in keinem CPU-Limit(da ist meist DX11 der Grund) ist, warum nicht?

Genau das ist aber doch hier bei AMD der Fall (sogar noch stärker als bei anderen UE4 Games) in dem sich in 1080p eine 6900XT nur 25 statt 90-100% von einer 5700XT absetzt und gleichauf mit allen anderen RDNA2 Karten, selbst der 6700XT ist. Da ist die 3090 mal eben 50% schneller als die 6900XT.

Selbst in 1440p liegen 6900XT und 6800XT noch gleichauf, genau wie sie auch beide in absoluten FPS gleichauf mit den 1080p Werten liegen. Erst in 4K sehen wir die erwarteten Unterschiede.
 
Zuletzt bearbeitet:
nagus schrieb:
wenn heute - 12 jahre nach dem reasel von DX11 - noch spiele ausschließlich für DX11 herauskommen, dann darf man annehmen, dass hier mehr böse absicht dahintersteckt als purer blödheit, oder?
Das ist ein wenig kurz gedacht. Das Spiel ist für die PS4 entwickelt worden und die unterstützt kein DirectX 12. Da das Spiel nun portiert wurde war es fast klar dass keine DirectX 12 Unterstützung dabei ist. DirectX 12 ist ein komplett anderer Rendering-Pfad, da stellt man nicht ein paar Zeilen Code um und es läuft schon, das ist in der Praxis um vieles komplexer.
 
Taxxor schrieb:
Genau das ist aber doch hier bei AMD der Fall (sogar noch stärker als bei anderen UE4 Games) in dem sich in 1080p eine 6900XT nur 25 statt 90-100% von einer 5700XT absetzt und gleichauf mit allen anderen RDNA2 Karten, selbst der 6700XT ist. Da ist die 3090 mal eben 50% schneller als die 6900XT.

Selbst in 1440p liegen 6900XT und 6800XT noch genau gleichauf, erst in 4K sehen wir die erwarteten Unterschiede.

Das Spiel läuft mehr in GPU-Limit als in CPU-Limit und man zockt das locker jenseits von >100fps. Man kann immer unzufrieden sein oder auch mal akzeptieren, wenn jemand gute Leistung erbracht hat. Wir reden hier immer noch über einen Port von einer alten KonsolenGen

https://extreme.pcgameshardware.de/attachments/daysgone-png.1364687/
 
leonM schrieb:
Das Spiel läuft mehr in GPU-Limit als in CPU-Limit und man zockt das locker jenseits von >100fps.
Ja, mit einer Nvidia GPU tut man das aber eben auch in CPU intensiveren Szenen, mit einer AMD GPU ist man hier mit 102-105FPS(Unterschied 6700XT zu 6900XT) sowohl in 1080p als auch 1440p jedoch nicht so weit über 100 ^^
 
Zuletzt bearbeitet:
KRambo schrieb:
Das ist ein wenig kurz gedacht. Das Spiel ist für die PS4 entwickelt worden und die unterstützt kein DirectX 12. Da das Spiel nun portiert wurde war es fast klar dass keine DirectX 12 Unterstützung dabei ist. DirectX 12 ist ein komplett anderer Rendering-Pfad, da stellt man nicht ein paar Zeilen Code um und es läuft schon, das ist in der Praxis um vieles komplexer.
Jein... Ist im Kern zwar richtig aber Horizon Zero Dawn wurde auch direkt in DX12 gebracht auf PC.

Alles in allem läuft DaysGone im 95% Perzentil ganz gut, mit nahezu gerader Frametime Line aber zwischendurch hakt es schon derbe. Nicht unspielbar aber nervt schon wenn es einen triggert. Betrifft wohl aber meist nur RDNA 2 Karten, dass lässt mich halt schon wieder an die schlechte DX11 Performance von AMD denken. Ich habe mit DX11 Titeln generell immer irgendwelche Probleme.
 
Übrigens sehr krass, welchen Unterschied am Startpunkt des CB Benchmarks die Blickrichtung macht. Man beachte CPU und GPU Last

Vom Camp weg gedreht
1080p back.png



Zum Camp hin gedreht
1080p front.png


Schon eine Seltenheit, dass man einen GPU Benchmark selbst in 1440p Sehr Hoch Settings nicht nachstellen kann, weil der 5800X zu schwach ist (die Bilder oben sind in 1080p um zu sehen, was der 5800X in die andere Richtung schauend noch rausholen kann, in 1440p waren es hier um die 135fps).
 
  • Gefällt mir
Reaktionen: bad_sign
Taxxor schrieb:
Übrigens sehr krass, welchen Unterschied am Startpunkt des CB Benchmarks die Blickrichtung macht. Man beachte CPU und GPU Last

Vom Camp weg gedreht
Anhang anzeigen 1082774


Zum Camp hin gedreht
Anhang anzeigen 1082775

Schon eine Seltenheit, dass man einen GPU Benchmark selbst in 1440p Sehr Hoch Settings nicht nachstellen kann, weil der 5800X zu schwach ist (die Bilder oben sind in 1080p um zu sehen, was der 5800X in die andere Richtung schauend noch rausholen kann, in 1440p waren es hier um die 135fps).

Ich glaube in deinem Beispiel hat es mit dem besagten Speicherpunkt zu tun. Probiere es mal weg vom Stützpunkt aus, ob du das in der gleichen Form nachstellen kannst.
 
leonM schrieb:
Ich glaube in deinem Beispiel hat es mit dem besagten Speicherpunkt zu tun. Probiere es mal weg vom Stützpunkt aus, ob du das in der gleichen Form nachstellen kannst.
Der Speicherpunkt ist erstens erst beim Tor und hat zweitens keinen Einfluss auf die FPS, solange nicht aktiv gespeichert wird, was hier nicht der Fall ist.

Der Stützpunk selbst braucht hier einfach mehr CPU Leistung, wenn man in diese Richtung schaut, mehr als der 5800X liefern kann, solange er mit einer AMD GPU kombiniert ist. Ein Beispiel weg vom Stützpunkt würde das Verhalten daher natürlich nicht zeigen.
 
Taxxor schrieb:
Der Speicherpunkt ist erstens erst beim Tor und hat zweitens keinen Einfluss auf die FPS, solange nicht aktiv gespeichert wird, was hier nicht der Fall ist.
Der Stützpunk selbst braucht hier einfach mehr CPU Leistung, wenn man in diese Richtung schaut, mehr als der 5800X liefern kann, solange er mit einer AMd GPU kombiniert ist.
Ich glaube ab einem Zeitpunkt wo man dem Stützpunkt sieht, kommt es zum automatischen Speichern im Hintergrund. Das war schon bei den Konsolen(PS5) so, man hat es direkt gemerkt.
 
leonM schrieb:
Ich glaube ab einem Zeitpunkt wo man dem Stützpunkt sieht, kommt es zum automatischen Speichern im Hintergrund.
Automatisches Speichern siehst du am Symbol unten rechts an der Karte und dauert 1-2 Sekunden. Du kannst dort ne halbe Stunde stehen und die FPS werden sich nicht verändern.

Das automatische Speichern gibt's übrigens auch beim Tor auf der anderen Seite des Stützpunkts, da ist die CPU Last aber ebenso geringer und damit die FPS deutlich höher, weil man beim durchqueren des Tors ja wieder vom Camp weg schaut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
Nochmal zum Thema vsync, free/gsync und Framelimiter.
Ich nutze in meinen Games nur noch Freesync in Kombination mit RTSS (front edge sync) als Framelimiter. InGame und und im Treiber vsync aus und keinen Framerate cap. Als Overlay nehme ich CapframeX.
Ich mache immer ein paar logs mit CapframeX und stelle dann das Limit von RTSS auf die average FPS ein.
Die Frametimes und fps sind damit smooth wie der Schaum vom irischen Bier.

Hier mal ein paar Screenshots zum Vergleich aus Hunt Showdown:
InGame Limiter vs RTSS
 

Anhänge

  • CX_2021-05-19_14-52-45_Comparison.png
    CX_2021-05-19_14-52-45_Comparison.png
    94,7 KB · Aufrufe: 256
  • CX_2021-05-19_14-52-41_Comparison.png
    CX_2021-05-19_14-52-41_Comparison.png
    39,4 KB · Aufrufe: 247
  • CX_2021-05-19_14-52-09_Synchronization.png
    CX_2021-05-19_14-52-09_Synchronization.png
    102,9 KB · Aufrufe: 244
  • CX_2021-05-19_14-52-04_HuntGame_.png
    CX_2021-05-19_14-52-04_HuntGame_.png
    73,9 KB · Aufrufe: 254
  • CX_2021-05-19_14-51-46_Synchronization.png
    CX_2021-05-19_14-51-46_Synchronization.png
    139,2 KB · Aufrufe: 237
  • CX_2021-05-19_14-51-37_HuntGame_.png
    CX_2021-05-19_14-51-37_HuntGame_.png
    107,1 KB · Aufrufe: 249
Zuletzt bearbeitet:
Zurück
Oben