• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Days Gone im Test: Trotz hoher FPS ruckelt es auf dem Gaming-PC

gartenriese schrieb:
Naja, die ganzen Nachteile von Windows 10 muss man hier im Forum ja nicht aufzählen, sollten ja bekannt sein.
Hmm könnte bis jetzt noch keine Nachteile im Vergleich zu Windows 7 für mich feststellen...
Windows 10 sucht sich die Treiber zur Not selbst.
Unter 7 hatte man dann Pech wenn man nicht gefunden hat dann ging das Gerät halt nicht.

Aber gerade für neue Spiele ist Windows 10 doch dann Pflicht. Und hier würde eben nunmal ein Spiel getestet und zwar ein Neues.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und Pisaro
ZeroStrat schrieb:
CapFrameX ist ein Tool, um die Leistungsfähigkeit der Hardware (frühes Erfassen der Presents in der Renderpipline) zu messen. Damit das richtig funktioniert, müssen alle Sync Techniken deaktiviert werden. Selbst G-Sync alleine kann sich störend auswirken, siehe F1 2020 als Beispiel.

Danke für den Hinweis. Ja das ergibt natürlich Sinn. CapFrameX liefert also nur valide Ergebnisse, wenn sämtliche Sync techniken deaktiviert sind.

Mein Verdacht ist eben, dass das Spiel intern auch schon ein Framepacing macht und wir deswegen Ausreißer in CapFrameX sehen könnten. Dadurch würden die Messungen "verfälscht" werden.

Nur mal rein hypothetisch. Wäre das möglich? Nicht nur auf DaysGone bezogen, sondern allgemein.


GerryB schrieb:
@B3nutzer
Wenn Dein TV 60Hz hat, wäre dann net mal ein Fps-Limit von 63Fps per RTSS als FastSync idealer?
(bzw. mit AMD dann EnhancedSync)

Zur Not auch mal einen Regler nach links, damit die 63Fps gehalten werden.

Zusätzlich könnte man noch den Einfluss von dem Latenzregler im NV-Treiber untersuchen.
Ich staune das Ultra so gut bei Manchen funzt. Meist wär ne mittlere Einstellung sauberer.
Ultra = 1x Buffer
Normal = 2x Buffer
Vsync = 3x Buffer

AMD verwendet generell weniger Buffer und sollte in nem Blindtest flüssiger wirken.
(zur Erinnerung)

Ich hab ein High Refreshrate Gsync Display. Daher alles gut. Ich versuche hier nur grundlegende Probleme besser nachzuvollziehen, damit ich die Ergebnisse auch richtig interpretieren kann.

Dass die Frametime Messungen hier nicht zwangsläufig etwas mit dem zu tun haben, was man am Display sieht ist ja schonmal ne Erkenntnis, die wahrscheinlich nicht jeder hier hatte... Diese Erkenntnis beeinflusst natürlich maßgeblich wie man die Ergebnisse für sich interpretieren sollte.
Man sollte generell schon möglichst genau wissen, was man misst, bevor man irgendwelche Schlüsse daraus zieht.

Dass man mit CapFrameX wunderbar die performance der Hardware ohne Einfluss des Display Sync messen kann ist natürlich super und ein absolut valider und sinnvoller usecase.
Fraglich ist nur, ob man aus einem CapFrameX Graphen 1:1 ableiten kann, ob das Spiel für den User ruckelt...
Wohl eher nicht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Celinna
KCX schrieb:
Published Jun 20, 2017... Das war einmal 😉
Wenn du es Aktueller willst:

Es ist nach wie vor so. FPS am Besten sogar 4 unter Max Hz, Vsync an und Gsync an.
 
  • Gefällt mir
Reaktionen: Celinna und ZeroStrat
B3nutzer schrieb:
Dass man mit CapFrameX wunderbar die performance der Hardware messen kann ist natürlich super.
Fraglich ist nur, ob man aus einem CapFrameX Graphen 1:1 ableiten kann, ob das Spiel für den User ruckelt...
Wohl eher nicht.
Das kann am Ende das Tages eh kein ("internes") Tool wissen, auch nicht Afterburner + RTSS, weil es kein Feedback vom Monitor gibt, welches dir sagt, dass das Bild jetzt wirklich gezeichnet wurde. Das geht nur mit Capture Cards und Tools wie beispielsweise FCAT.
 
Phear schrieb:
Wenn du es Aktueller willst:

Es ist nach wie vor so. FPS am Besten sogar 4 unter Max Hz, Vsync an und Gsync an.
Jein,
4fps ist günstig, aber
sieht bei Igor ein mue anders aus in Overwatch
the Winner is IGFL (ohne ...)

Mit AMD dann vermutlich 3fps<Hz.
 

Anhänge

  • Fps-Limit 140.png
    Fps-Limit 140.png
    21,5 KB · Aufrufe: 278
Zuletzt bearbeitet:
gartenriese schrieb:
Ja, ich spreche Englisch, sonst hätte ich nicht auf Digital Foundry verwiesen. Danke fürs Verlinken, genau das Video meinte ich!
Aber genau in dem Video erwähnen sie es doch am Ende. Sorry für den schnippischen Kommentar.
 
@ZeroStrat

Man sieht hier im Thread aber wunderbar wie jeder die Frametime Graphen dahingehend interpretiert, dass er die Ausreißer am Display auch sehen müsste.

Messung zeigt Spikes -> User sagen "ich SEHE aber nix, komisch".

Genau da liegt wohl das allgemeine Missverständnis.


Warum Wolfang jetzt trotzdem Ruckler sieht, schwer zu sagen. Ich denke ja immernoch, dass es an der Maussteuerung liegt, denn die Ruckler mit Maus hatte ich bei mir, mit Controller waren sie weg. (Das Video im Artikel, das die Benchmarkszene zeigt, ist offensichtlich mit Maussteuerung erstellt worden)

Wie auch immer, ich werd mir die Ausgabe am Display mit Gsync heute nochmal in SlowMo ansehen und dann meine eigenen Schlüsse daraus ziehen. Etwas anderes ist für mich ehrlich gesagt auch nicht wichtig.
Ich finde die Messung die CapFrameX macht eher für nen Hardwarevergleich interessant.
 
  • Gefällt mir
Reaktionen: pietcux, bad_sign und GerryB
Hat denn Keiner mal ne olle PS2-Maus?

Die hätte evtl. durch Ihren eigenen Interrupt net solche Probleme.
 
Da bin ich leider raus. Keine PS2 Maus :heul:
Trotzdem seltsam, dass es bei mir nur in diesem Spiel vorkommt.
Die Ruckler sind aber bei der Maussteuerung nicht konstant. hab da vielleicht alle 5-10 sec. mal nen einzelnen kleinen Ruckler. Aber man merkts eben, wenn man genau drauf achtet. Mit Gamepad ist das nicht (das steckt ja auch über nen Wireless adapter am USB)

Ist halt jetzt wieder schwer nachzuvollziehen, weil es manche einfach nicht sehen oder es vielleicht auch gar nicht auftritt. Messen kann mans auch nicht. Tja schwierig...
 
B3nutzer schrieb:
Man sieht hier im Thread aber wunderbar wie jeder die Frametime Graphen dahingehend interpretiert, dass er die Ausreißer am Display auch sehen müsste.
Das kann ja auch der Fall sein, muss es aber nicht. Wenn man einen signifikanten Ausschlag nach oben (kein Pedant nach unten) sieht im CX Graphen, dann spürt man den sehr wahrscheinlich auch als User vorm Monitor. Wenn CX Stuttering angezeigt, dann habe ich das i.d.R auch so wahrgenommen.
 
  • Gefällt mir
Reaktionen: B3nutzer
Ich würde sagen, worst Case ist Ausschlag nach oben+unten in direkter Abfolge, weil dann die Differenz sehr groß ist.(oben =10ms + unten 5ms Ausschlag)

Früher hat man mal gesagt, das ab 16ms-Diff. Was zu sehen ist. Mit modernen Monis evtl. bei 8ms Differenz.
(bezogen auf 100Fps+, die dann mal deutlich schwanken müssten)

Weil Ausschlag nach oben+unten sich fürs Auge summieren ist halt ein Fps-Limit günstig, um den Ausschlag nach Unten zu cappen.
 
Zuletzt bearbeitet:
GerryB schrieb:
the Winner is IGFL (ohne ...)
Es geht dabei nicht nur um die Latenz. Siehe das Video.
Ohne Vsync zerreißt das Bild. Ergo Tearing.

Das ist 10mal nerviger als eine Latenz, die marginal höher ist.
 
  • Gefällt mir
Reaktionen: Celinna
ZeroStrat schrieb:
Wenn man einen signifikanten Ausschlag nach oben (kein Pedant nach unten) sieht im CX Graphen, dann spürt man den sehr wahrscheinlich auch als User vorm Monitor. Wenn CX Stuttering angezeigt, dann habe ich das i.d.R auch so wahrgenommen.

Das habe ich bisher gar nicht bedacht.
Tatsächlich wäre ein Blick auf das "Moving Average" in CapFrameX da wohl deutlich aussagekräftiger, als ein Blick auf die reinen Frametimes.

Wenn man sich die Ausschläge beim Moving Average ansieht, dann schlägt das genau dann aus, wenn der Speichervorgang ab Sekunde 18 kommt. Und genau diese Spikes nach oben im Graphen haben auch kein "Pedant nach unten". Bzw. es gibt an der jeweiligen Stelle mehr Ausschläge nach oben als nach unten und genau dort hab ich auch minimal Microruckler wahrgenommen.


Siehe hier:
https://www.computerbase.de/forum/attachments/1621524825877-png.1082297/

Die unzähligen Spikes die am Moving Average wenig bis gar nichts ändern, konnte ich hingegen am Display nicht wahrnehmen.
 
Der größte Spike geht doch von 12ms auf 22ms und unmittelbar danach auf 7-8ms runter?
Das wäre genau so ein Fall mit +10 + (-5) = 15 gesamt.

Da fragt man sich natürlich Was die Engine macht, um auf 7-8ms runter zu kommen.
Wird dann an der Umgebungsqualität gespart?
 
Zuletzt bearbeitet:
Die PCGH hat ihren Test auch gerade Online gestellt.
https://www.pcgameshardware.de/Days...est-Release-Benchmark-Review-Steam-1372247/2/

Das ist doch das Problem das Digital Foundry auch schon beschrieben hat, oder?
Eine gewisse Seltsamkeit fiel uns allerdings in Kombination mit Vsync auf, denn obwohl das Framepacing sauber ist, scheint die Bildausgabe zu schwanken. Zuerst sinkt das Spieltempo, dann schnellt es hoch, um kurz darauf wieder ein normales Level zu erreichen. Eventuell sollen so Framedrops beziehungsweise zur Bildausgabe unpassende Frames vermieden werden, überzeugend ist die Lösung allerdings eher nicht. Wollen Sie Vsync nutzen, um Bildrisse zu vermeiden, so raten wir derweil zu einem externen Tool. Haben Sie einen Monitor mit Adaptive Sync, oder wollen Sie den Fps aus anderem Grund eine Obergrenze setzen, können Sie auch die spielinterne Bildratenbegrenzung nutzen, mit dieser traten während eines kurzen Tests keine der seltsamen Geschwindigkeitsschwankungen auf. Gleiches gilt für freigeschaltete Bildraten.
 
  • Gefällt mir
Reaktionen: GerryB
@GerryB
Ja, aber der Ausschlag nach oben ist größer als der Ausschlag nach unten. Daher verändert sich eben logischerweise das Moving Average. Den Ruckler sieht man.

Bei den meisten anderen Spikes sind die Ausschläge nach oben und nach unten gleich groß. Das Moving Average verändert sich nicht und man (ich) sehe keinen Ruckler am Display.

Gut möglich dass ein Ausschlag gleichermaßen nach oben und nach unten die Auswirkung von Framepacing oder Display sync ist und nicht unbedingt als möglicher Ruckler misszuverstehen ist.

Deswegen ja die These, dass man wahrscheinlich eher aufs Moving Average schauen sollte, wenn man wissen will obs wirklich am Display ruckelt - oder ruckeln "könnte".
 
|SoulReaver| schrieb:
Es ist nach wie vor ein alter Hut. Kommt ein Spiel raus kann man sich Zeit lassen, denn es braucht IMMER Patches bis es mal richtig läuft.
Genauso handhabe Ich es schon lange. Da Ich mit allen Spielen die ich besitze sowieso Jahre bis Jahrzehnte brauche alles zu zocken widre vielleicht noch extrem selten ein Spiel zu Release gekauft. ZB als nächstes dann STALKER 2. Ansonsten spart es mir nicht nur Zeit und Nerven sondern gleich auch noch eine Menge Kohle. Hatte bis dato gedacht Ich würde das Spiel mal irgendwann für meine PS kaufen. Aber so kommt es dann als Goty auf den PC.

Vielen Dank für den Test.

MfG
 
  • Gefällt mir
Reaktionen: |SoulReaver|
B3nutzer schrieb:
@GerryB
Ja, aber der Ausschlag nach oben ist größer als der Ausschlag nach unten. Daher verändert sich eben logischerweise das Moving Average. Den Ruckler sieht man.
...
Deswegen ja die These, dass man wahrscheinlich eher aufs Moving Average schauen sollte, wenn man wissen will obs wirklich am Display ruckelt - oder ruckeln "könnte".
Den Ausschlag bei Moving Average siehst Du ja eh nur bei rel. großen Werten so richtig gut.
Aber in dem o.g. Fall kommt halt hinterher auch noch der Dip dazu.

Interessant finde ich das Zitat von PCGH.
da sagt man ja das Game-Vsync net nutzen, stattdessen extern Vsync=Treiber!?

Game-Vsync könnte durch die Konsolenherkunft nen Wurm drin haben.
Gegen Sowas hilft u.U. Special K. (siehe Post#165 von NIKON... einige Seiten vorher)
https://www.computerbase.de/forum/t...uf-dem-gaming-pc.2023850/page-9#post-25656529
 
Zuletzt bearbeitet:
GerryB schrieb:
Jein,
4fps ist günstig, aber
sieht bei Igor ein mue anders aus in Overwatch
the Winner is IGFL (ohne ...)

Mit AMD dann vermutlich 3fps<Hz.
Ich meine, dass GSync ohne VSync nicht immer 100% funktioniert. Nur durch den Framelimiter kann nicht sichergestellt werden, dass kein Tearing auftritt. Warum das so ist, kann ich dir aber gerade nicht erklären.
 
Zurück
Oben