Wenn jemand wissen möchte: "
Warum performed RDR2 so schlecht auf dem PC?"
Antwort:
Diverse Elemente wie die Position der Sonne am Himmel, also Tageszeit und DInge die davon abhängig sind, das Wetter- oder Hunger/Durst-System und UI Elemente, werden "on each frame" aktualisiert. Also wenn jemand 60FPS hat, bei dem wird zB die Position der Sonne 60 mal pro Sekunde aktualisiert. Wenn man 100 FPS hat, eben 100 mal pro Sekunde. Oder wer 90 FPS hat, bei dem wird halt auch das UI 90 mal pro Sekunde aktualisiert - also alle 6,6 Millisekunden.
Und das kostet eben Leistung. Immens viel Leistung sogar. Oder auch genau soviel, das man halt mindestens einen 7700k + GTX 1070 braucht, um auf 40 FPS zu kommen. Wenn man das ganze jetzt, zb die Sonne (bzw das Wettersystem und alle Abhängigkeiten), nur alle 1 Minute aktualisiert, oder UI-Elemente nur jede 0.1 Sekunden, dann hätte man mit der gleichen Hardware eben nicht mehr 40, sondern 65 FPS, würde den Unterschied aber gar nicht merken (bzw sehen können).
Und deswegen ist das Testen auch so "ungenau" (streut sehr viel), weil je nachdem was gerade "da ist", muss der Rechner Scripte/Code unterschiedlich oft pro Bild aktualisieren. Du brauchst für RDR2 halt einen PC der RDR2 gut darstellen kann, und zusätzlich noch unnötig viel Code nebenbei parsen kann. ALso was brauchst du? Eben, einen unverhältnismäßig starken PC.
Tjoar
Siehe auch hier:
https://www.pcgameshardware.de/Red-...gt-die-zeit-an-der-Bildwiederholrate-1337175/