Limitiert CPU XYZ die Graka ABC?

HisN schrieb:
Die 1% sollten sich doch auch nicht ständig ändern. Rein logisch gedacht.
Es ist der niedrigste gemessene Wert. Der ändert sich nur, wenn ein noch niedriger Wert gelesen wird. Same bei den 0.1. Kein Wunder wenn sich da nix ändert. Das ist (meiner Meinung nach) ganz normal.

Der 1% Wert ändert sich ständig, genauso wie es der 0.1% Wert und die average FPS tun, abhängig von dem Spiel, der Hardware, der Last und der Szene. Das ist vollkommen normal. Ob dein 1% FPS Wert dann z.B. 55 oder 56 FPS ist in einer Szene, ist natürlich vollkommen egal, egal ist es aber nicht in einer nächsten Szene wo der dann unter die Sync Range des Monitors rutscht und Tearing auftritt, das man an dem 1% low FPS Wert gut sehen kann. Deswegen ist ein aktualisierter 1% low FPS Wert auch (für mich) wichtig.

HisN schrieb:
Wenn die Werte beim Nvidia-Overlay sich ständig ändern, bedeutet das ja nur dass die Nvidia-Metrik diesen Wert nur über einen kurzen Zeitraum misst und dann verwirft. Was bringt das einem? Man sieht den niedrigsten Wert der letzten 10Sekunden? (Zeit frei erfunden)

Nicht nur das GFE Overlay misst einen aktuellen 1% und 0.1% FPS Wert, auch andere OSDs wie z.B. der FPS Monitor tun es. Es ist ein aktueller Wert der abhängig von der Szene andauernd aktualisiert wird, genauso wie es man mit einem avg FPS Wert macht.

Beispiel RDR 2, Umgebung und die Stadt Strawberry. Während man in der wäldlichen Umgebung der Stadt locker einen 1% FPS Wert 60 hat, rutscht dieser in dem Städtchen mit dem Wasserrad unter 50 FPS und kann gut und gerne 47-46 FPS betragen, abhängig von den Settings und der Tageszeit. Wo dann Low Frame Compensation anspringt, aber das sieht man nicht (bzw nur "gefühlt") wenn man keinen aktuellen 1% low FPS Wert hat der einem zur Verfügung steht.

RTSS zeigt dagegen dann einen nicht mehr aktuellen Wert 1% low FPS Wert, der bei der wäldlichen Umgebung stehen geblieben ist und die Stadt Strawberry gar nicht mehr erfasst. Der 1% low FPS Wert ist dann (im RTSS OSD) verfälscht, dies kann man gut sehen indem man das Benchmark stoppt und neu anwirft. Dann zeigt das RTSS OSD (kurz) den richtigen Wert - um es nach 10-20 Sekunden wieder nicht mehr zu aktualisieren. Dann kommt es auch wieder zu dem beschriebenen Problem dass (im RTSS OSD) die average FPS unter den 1% low FPS liegen, was auch gar nicht Sinn der Sache ist.

Mag sein das der Wert im txt Format richtig eingelesen wird wenn das Benchmark dabei läuft, aber mir ist da ein nicht verfälschtes OSD wichtiger.

HisN schrieb:
Beim AB siehst Du den niedrigsten Wert des ganzen Benchmark-Runs. So wie es sein sollte (meiner bescheidenen Meinung nach). Und man kann es an und abstellen, weil man keine Load-Screen, oder Death-Screen Werte sehen möchte.

Für das txt File mag es ja stimmen, für das OSD wie gesagt, leider nicht. OSD bei RTSS zeigt dir einen relativen aktuellen Wert von 1% low FPS das 10-20 Sekunden später (Beispiel) dann nicht mehr dem eigentlichen 1% low FPS entsprechen. Deswegen hat es mich auch so gewundert, weil ich es von GFE Overlay und FPS Monitor anders kenne.

Ist aber kein Hals- und Beinbruch, dann werde ich RTSS eben deinstallieren und den guten alten FPS Monitor wieder nutzen, so wie ich es vor GFE Overlay getan habe, das bietet dann die für mich wichtige Funktionalität. Wäre auch bei dem sehr praktischen GFE Overlay geblieben, aber die Nvidia Telemetrie Prozesse müssen nicht sein.

Trotzdem Danke für deine Antwort, somit weiß ich dass ich bei RTSS falsch bin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HisN
Ich komme mir gerade schon verarscht vor. Ich habe mal Core-Parking wieder abgeschaltet (irgendein Update hat das wohl mal gelöscht) und dann den Taskmanager und HW-Info beim Spielen an gemacht. Und was ist? Der Takt klebte die ganze Zeit bei 4,3GHz, obwohl GTA im CPU-Limit lief. Da verschenke ich doch Leistung, wenn die Kiste nicht auf 4,7GHz läuft, wie im Bios eigentlich eingestellt?! Ist zwar nur 35% CPU-Auslastung gewesen, aber der Krüppel hängt ja mit seiner Quadcore-Engine trotzdem immer im Limit.

Edit:

Transport Fever 2 nutzt mit seinem CPU-Limit mit ~40% viel öfter den Takt von 4,7GHz. Beim Laden der Map waren es sogar bis 70% Auslastung, wo dann irgendeine KrinteTM schon auf dem Hyperthreading lief und da war die CPU durchgehend auf 4,7GHz.

🤷‍♂️
 
Zuletzt bearbeitet:
Hallo Community,

ich hab Mal eine umgekehrte Frage, folgendes ist mir aktuell nicht ganz klar.

Spiele, welche sich im CPU Limit befinden, können die GPU nicht auslasten, weil die CPU die Rohdaten nicht schnell genug bereitstellen kann. Soweit klar.

Spiele, die sich im GPU Limit (aufgrund Auflösung und Bildverbesserung) befinden, vergeuden die CPU Leistung, weil ja Leistung für mehr Bilder pro Sekunde da wäre.
Soweit klar.

Wie verhält es sich aber jetzt mit einem 3900x mit einer alten 660ti?

Mit meiner alten Kombi

3900x/2070s Frostbite, UWQHD, hatte ich
- in Anno1800 mit einem Savegame um die * Einwohner meist so zwischen 80-100FPS. Details das 2. höchste Profil. (* Einwohner muss ich nachschauen, ist 6 Monate her )

- in Rocket League konstant 250FPS anliegen. Alles auf max.


Mit der Kombination
3900x/660ti ist, trotz 720p Auflösung bei 20-50FPS Feierabend. Details auf Minimum, Auflösung 720p. In beiden Spielen.

Ist das jetzt genau dieses Gleichgewicht, was immer angepriesen wird?

meine Frage hierzu:
Produziert die CPU nur soviel FPS wie die GPU verarbeiten und ausgeben kann?
Die CPU könnte ja bei Anno um die 80-100 berechnen, aber die GPU sagt halt bei 40, ne mehr will ich nicht arbeiten und deswegen lastet sich die CPU nicht aus?

Temperaturen mit meiner Wakü waren immer so 60 CPU, 50 GPU und 30 Wasser.

die 660ti ist luftgekühlt. Die CPU kommt daher solo im Loop auf 55-60 Grad.

Ist das korrekt, was ich geschrieben habe, oder hab ich einen Denkfehler drin?

Bitte helft mir Mal kurz. Meinen Knoten im Hirn zu lösen. Danke.
 
michi_z1981 schrieb:
Mit der Kombination
3900x/660ti ist, trotz 720p Auflösung bei 20-50FPS Feierabend. Details auf Minimum, Auflösung 720p. In beiden Spielen.

Du hast doch den Lösungsweg schon selbst genannt.
Wenn die Graka voll ausgelastet ist, dann kann sie nicht mehr als 20-50 FPS ausgeben, dann ist sie am Ende.
Langweilt sich die Graka, dann kann der 3900x nicht mehr als 20-50 FPS berechnen.

Eins von beiden ist immer "der Flaschenhals" (solange RAM nicht überläuft oder VRAM nicht überläuft).
Die Auslastung der CPU ist völlig egal. Das einzige was Du an der Auslastung der CPU siehst ist das Multitaksing von Windows. Also schau auf die Auslastung der Graka. Sie ist der Anzeiger.
 
  • Gefällt mir
Reaktionen: michi_z1981
HisN schrieb:
Du hast doch den Lösungsweg schon selbst genannt.
Besten Dank. War nur so ein Knäuel im Kopf, weil ich jetzt Mal wieder bissl gespielt hab und die Zahlen im OSD etwas verwirrend erschienen.

Es ging mir jetzt gar nicht um das böse Fla-Wort. ;)
 
  • Gefällt mir
Reaktionen: HisN
Hi, ich will hier niemandem ans Bein pinkeln, aber die Informationsflut ist hier gewaltig. So als Rückmeldung eines Laien.

Eigentlich möchte ich nur wissen, ob sich für mich ein Upgrade von einem R5 2600 auf R7 3800XT lohnt mit einer 2070. Ich habe das Thema gelesen, das Meiste auch verstanden aber trotzdem noch viele offene Fragen.

Und daher stellt sich mir die Hauptfrage, ob es nicht einfacher ist die CPU zu kaufen, im direkten Vergleich selbst zu testen ob ich mehr FPS rausbekomme, sich das ganze lohnt und falls es sich nicht lohnt wieder zu verkaufen. Statt 80 Seiten aus 11 Jahren zu lesen erscheint mir das irgendwie effizienter.

Denn selbst nach dem Lesen bin ich mir bei vielen Dingen weiterhin unsicher: Welche Rechenaufgaben fallen der CPU zu, welcher der GPU (es wurde angerissen, aber das und noch viel mehr Hintergrundwissen muss ich erstmal sammeln)? Warum ist das bei Spielen so unterschiedlich? Welche Rolle spielt die Auflösung in welcher Gewichtung und was ist bei zwei Bildschirmen mit unterschiedlicher Auflösung? Welcher Leistungssprung rechtfertigt welche Erweiterungsausgaben? Das sind Beispielfragen, die sich ein Laie vor dem Einlesen stellt, hier als rhetorisch anzusehen.

Da das ja sehr individuell ist und all das zu klären ein erheblicher Aufwand ist, um eine ganz praktische Frage zu klären wollte ich nur mal Rückmeldung geben von jemandem, der kein Enthusiast, aber interessiert ist.

Der Thread diente ja ursprünglich dazu der Fragerei ein Ende zu bereiten, um es also runterzubrechen: Ist das individuelle Testen einfach effizienter als das Einlesen in die gewaltige Thematik?

Oder kürzer: Probieren geht über Studieren?
 
Zuletzt bearbeitet von einem Moderator:
3800XT ist im getesteten Spielemix auf 720p (dadurch geringsten Einfluss der GPU) um ca. 30% schneller...

1636559254475.png


Welche GPU die Richtige ist, kommt ganz auf dein Spiel und deine Auflösung und deine persönlichen Anforderungen an FPS und Grafikdetails an.

Ich glaube eine "Allheilempfehlung" kann dir leider keiner geben.

Es gibt Spiele, die brauchen mehr CPU Leistung und welche die mehr GPU Leistung brauchen...
Es gibt sogar Spiele wie Anno 1800 die im Early Game absolut GPU lastig sind und im Late Game absolut CPU lastig werden.

Zur Auflösung:
FHD hat 2.073.600 Pixel
WQHD hat 3.686.400 Pixel
UWQHD hat 4.953.600 Pixel
UHD hat 8.294.400 Pixel

Das heißt deine GPU (Unabhängig zur CPU) muss bei 4K erst einmal das 4-Fache an Pixel verarbeiten können...

In der Theorie heißt das in der Regel, umso höher die Auflösung, umso "unwichtiger" die CPU weil die GPU zum Engpass wird...

In 4K wäre der 3800XT theoretisch nur 9% schneller als der 2600er, was aber immer in Abhängigkeit der ausgewählen Spiele im Benchmark ist.
1636559807739.png
 
  • Gefällt mir
Reaktionen: michi_z1981
Tagesmenu schrieb:
Eigentlich möchte ich nur wissen, ob sich für mich ein Upgrade von einem R5 2600 auf R7 3800XT lohnt mit einer 2070.
wie sieht die auslastung der GPU denn aktuell aus? da kannst dir ja ausrechnen wie viele fps die graka mit ner stärkeren CPU liefern könnte, vorausgesetzt sie limitiert aktuell nicht eh schon.

warum ausgerechnet den 3800XT? auf deinem MB läuft mit dem aktuellsten beta-BIOS auch Zen3 und der 5600X ist bei games in den meisten fällen schneller und auch noch günstiger (obgleich eigentlich zu teuer). mehr als nen hexacore mit 65W würde ich auf dem MB auch nicht unbedingt betreiben wollen.

Statt 80 Seiten aus 11 Jahren zu lesen
soll man ja auch nicht. die eigentliche anleitung ist ja nur der eröffnungsbeitrag. allerdings geht es dir hier gerade genau um das gegenteil dessen um was es hier im thread geht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tagesmenu
Tagesmenu schrieb:
Eigentlich möchte ich nur wissen, ob sich für mich ein Upgrade von einem R5 2600 auf R7 3800XT lohnt mit einer 2070. Ich habe das Thema gelesen, das Meiste auch verstanden aber trotzdem noch viele offene Fragen.

Wir wissen nicht was sich für Dich lohnt. Da musst Du schon genauer werden. Wie viel Mehrleistung muss denn die Geldausgabe bringen, damit sich für Dich "es lohnt sich" ergibt?
Schau auf die Auslastung der Graka.
Ist die zu 95% oder mehr ausgelastet: Woher soll da Mehrleistung kommen, die Graka ist am Ende.
Ist die zu 50% ausgelastet: 50% Mehrleistung wäre möglich, falls die CPU dazu in der Lage ist (was sie nicht sein wird, aber einfach mal um es für Dich verständlicher zu machen).

Ganz ohne uns, ohne 80 Seiten lesen, einfach nur weil Du es verstanden hast.
 
Zuletzt bearbeitet:
Also danke für die Antworten, aber ich wollte nicht explizit auf Hilfe hinaus, sondern darauf hinweisen, dass eine andere Vorgehensweise evtl. effizienter wäre und dazu eine Meinung von euch haben. Ich weiß, dass ihr mir nicht sagen könnt, was sich für mich persönlich lohnt, die Info tropft aus jedem zweiten Kommentar.

Nichtsdestotrotz sind die Angaben und Empfehlungen zum Mainboard natürlich sehr wertvoll. Das sind eben solche Dinge, die ich nicht in Betracht ziehe. Ich weiß auch nicht, ob ein 8 Kerner sinnvoller für mich wäre als ein 6er bei den Titeln, die ich spiele. Der Rechner ist rein aufs Spielen ausgelegt.

Da trotzdem nach Daten gefragt wird, nehme ich Hilfestellung dennoch gerne an, in der Hoffnung aus meinen Fehlern und falschen Annahmen klüger zu werden. Wie gesagt, ich bin interessierter Laie und kann meinen Kenntnisstand nicht ordentlich einschätzen.

Ich spiele auf 27" WQHD 144+Hz, wobei ich meist auf 120FPS oder niedriger limitiere, mit einem Zweitmonitor in FullHD, auf dem Spiele nie angezeigt werden.
Hauptsächlich spiele ich Apex Legends auf Maximaleinstellungen (nur Schatten reduziert) mit 90-110FPS, derzeit viel DS3 mit Mods auf Max bei ca. 80FPS mit selbigem Limit und bald Elden Ring mit hoffentlich noch 60+FPS. Ich merke beim Einstellungsschrauben einfach, dass 20FPS mehr immer angenehmer sind, wobei ich bei einem Spiel von 2016 halt nicht auf die schöne Grafik verzichten möchte. Deswegen habe ich mir gedacht, dass ein Austausch des schwächsten Glieds im System eventuell diese 20FPS rauskitzeln lässt. Die Treibereinstellungen habe ich schon so gut es geht optimiert.

Bei DS3 liegt die Graka-Auslastung zwischen 75-90%, bei Apex um die 95% in anspruchsvollen Darstellungen. Also ein bisschen bis wenig Spielraum. Schön wäre auch einfach ein bisschen mehr Stabilität und kein Schwanken um bis zu 30FPS an manchen Stellen, wobei ich nicht glaube, dass das machbar ist. Die CPU zeigt 25-35% Auslastung an, wobei ich hier ja gelernt habe, dass das so eine nutzlose Info vom Taskmanager ist.

Der 3800XT ist reine Willkür, da ich mich am Gebrauchtmarkt orientiere. Schön finde ich an der Stelle, dass Weedlord zum 5800x rät, Deathangel nur zu einem 6 Kerner aufgrund des MB. ^^

Ich habe auch keinen Zeitdruck, weswegen ich auch bis nach Weihnachten warten kann. 20FPS wären mir ca. 200€ wert und da ich die Grafikkarte dafür sowieso nicht tauschen kann, bleibt ja nur die CPU. Diese begrenzt derzeit auch meinen Ram, der höher takten könnte wobei ich auch überhaupt keine Ahnung habe wie sehr Ramgeschwindigkeit an der Bildwiederholfrequenz hängt. Da frage ich mich meist, woher man solches Wissen überhaupt gewinnt?

Falls jemand mal einen guten Lesetipp für die Zusammenhänge der Komponenten in Bezug auf Gesamtleistung und deren Interpretation hat, würde ich das sehr gerne lesen.
 
Ich würde beim Zweitmonitor anfangen.
Wenn der keine 144hz hat, sondern nur 60, dann kann sich Windows schon gerne mal daran verschlucken und Drops produzieren. Ab vom (Daten)Kabel, und schauen ob die Drops verschwinden. Wenn sie nämlich vom 2. Monitor kommen, dann hilft eine neue CPU nicht.

Drops "um" 30 FPS kannst Du nur beseitigen wenn beide Komponenten (Graka und CPU) Deine 120 FPS ÎMMER und AUSNAHMSLOS halten können. Da wäre es dann mal wichtig ohne Limiter zu schauen was Sache ist (oder die Auflösung/Anti-Aliasing auf ein Minimum zu reduzieren, um die Graka aus der Rechnung zu nehmen), wenn die Drops auftreten. Ist es die Graka, die die Drops produziert, oder ist es die CPU, denn auch dort kann nur der Ersatz der Komponente, die die Drops verursacht helfen.

Wenn Du kein Zeitdruck hast, schau genauer hin. Teste. Bis Du Dir sicher bist die Komponente identifiziert zu haben, die für die Drops verantwortlich ist.

Wenn wir jetzt sagen: Kauf CPU XXX, aber die Drops kommen von der Graka ..... was hast Du dann gewonnen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tagesmenu
Also am Zweitmonitor (auch 144Hz) liegt es nicht, gerade getestet. Das mit den Drops habe ich mir schon gedacht, da sie beobachtet nur bei aufwändigeren Animationen auftreten und ich das auf die Grafikkarte zurückführe.

Ich teste jetzt mal die Schwankungen bei niedriger Auflösung ohne AA und Framecap.
Also in 1.280x720 sind bei 144Hz maximal 5FPS am fallen (139-144FPS) mit einer 60% Grakaauslastung bei Apex.
(In 2k ohne AA aber fast das gleiche Ergebnis mit den größeren Drops, also bricht hier die Auflösung der Graka die Beine?)

In DS3 bei 1.280x720 144HZ habe ich zwar teils 144FPS, eher 120-130FPS, aber bis zu 50FPS Drops bis unter 100 bei einer 50% (46-55%) Grafikkartenauslastung.
Bei 2k Auflösung, mit AA und 99% Grakaauslastung komme ich auf relativ stabile 90FPS ohne FPS-Limit.
An der Stelle muss ich wohl erwähnen, dass DS3 eigentlich nur auf 60FPS ausgelegt ist und ich das Limit mit einer Mod breche.

Also bedeutet das, dass Apex die Grafikkarte gut ausnutzt, das Limit an ihr hängt und bei DS3 etwas Spielraum wäre, sich das ganze aber nicht wirklich lohnt für 200€ als CPU aufzurüsten? Habe ich das korrekt interpretiert?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: HisN
Wenn die Drops in D3 mit Hilfe einer neuen CPU behoben werden können (und nicht von Deiner Mod kommen) musst Du alleine wissen ob Dir das 200 Euro Wert ist. Mehr FPS stemmt die neue CPU.
Ich finde es übrigens toll, dass Du Dir die Mühe machst und hinschaust, anstatt Dir was vorkauen zu lassen. Das hilft viel einen eigenen Weg zu gehen. Und das ist es, worauf es mir ankommt. Dass Du Deine eigenen Antworten findest, anstatt sie Dir vorkauen zu lassen.

Ich hab leider kein D3 und weiß nicht wie viele Kerne es benutzt.
 
  • Gefällt mir
Reaktionen: Tagesmenu
Tagesmenu schrieb:
Also 1.280x720 sind bei 144Hz maximal 5 FPS am fallen mit einer 60% Grakaauslastung bei Apex.

Tagesmenu schrieb:
In DS3 bei 1.280x720 144HZ habe ich zwar teils 144FPS, eher 120-130FPS, aber bis zu 50FPS Drops bis unter 100 bei einer 50% (46-55%) Grafikkartenauslastung.
In der kleinen Auflösung siehst du was der 2600 leisten kann. Das wird er bei gleichen Bildeinstellungen auch eine Auflösung größer machen.
Bei DS3 wirst du also auch bei FullHD die 120-130 FPS haben. Wenn du jetzt anfängst, deine Bildeinstellungen so zu wählen und einzustellen, das die GPU zu >95% ausgelastet ist, hast du das Beste rausgeholt.
Das ist natürlich bei Alex dann ähnlich, aber halt andere FPS zahlen.

Sollten dir die 120FPS bei DS3 und die unbekannten FPS in Apex zu wenig sein, dann kann die 3800x oder auch der 5600 hier Abhilfe schaffen.
Der kann dann vielleicht in 1280*720 bei Alex halt dann ca 180-220FPS berechnen. Da hast dann mehr Spielraum bis die CPU ein Limit darstellt.

Aber wie HiSN sagt:
GPU >95% ausgelastet ist es ein GPU Limit (neue GPU bringt was)
Ist dagegen die GPU <95% ausgelastet, bist du im CPU Limit. ( Neue CPU würde helfen)

Das mit dem Speicher-Upgrade bei einer 3*** oder 5*** Ryzen, Takt von 2666 auf 3600 könnte, je nach Spiel, das "CPU-Limit" erhöhen.

Heißt nix anderes, das der RAM als Teil der Einheit CPU mit dieser die FPS Zahl steigern kann und wird.


BTT:
Die Drops würde ich irgendwo an der CPU suchen. Bzw in einer Software die da anscheinend immer wieder was macht und stört, vielleicht auch an der RAM Anbindung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tagesmenu
HisN schrieb:
Wenn die Drops in D3 mit Hilfe einer neuen CPU behoben werden können (und nicht von Deiner Mod kommen) musst Du alleine wissen ob Dir das 200 Euro Wert ist. Mehr FPS stemmt die neue CPU.
Ich finde es übrigens toll, dass Du Dir die Mühe machst und hinschaust, anstatt Dir was vorkauen zu lassen. Das hilft viel einen eigenen Weg zu gehen. Und das ist es, worauf es mir ankommt. Dass Du Deine eigenen Antworten findest, anstatt sie Dir vorkauen zu lassen.

Ich hab leider kein D3 und weiß nicht wie viele Kerne es benutzt.
Ich danke für deine Hilfe und all deine Mühen, die du dir im Forum machst. Die Community ist ein großer Grund für mich gewesen hier ein Abo abzuschließen.

Nur für DS3 lohnt es sich sicherlich nicht so viel Geld reinzustecken. Da aber Elden Ring den Animationen nach zu schließen auf der gleichen Engine aufbaut und dann wohl ähnlich an der CPU klebt, werde ich das Projekt CPU-Aufrüstung in den März verschieben. Wenn mein gewonnenes Wissen auch bei dem neuen Spiel Anwendung gefunden hat und zu einem ähnlichen Ergebnis kommt, kann ich ja noch einmal darüber nachdenken.
Vorerst stecke ich lieber 100€ in Gebrauchtware in Form einer Evo Plus SSD mit doppeltem Speicher als meine ältere SATA, da ich den Platz brauche und einen Scythe Fuma 2, damit der Rechner leiser wird.

Beste Grüße und nochmals danke
 
  • Gefällt mir
Reaktionen: HisN
Da ich gerade auf unserem Crew-Discord-Server von GTA auch das Thema hatte, haue ich auch hier mal meine Ergebnisse kurz rein. GTA5 nuckelt nachwievor im CPU-Limit richtig am Speicher.

8700K, 4,7GHz, 3600er-RAM, 16-19-19-39
CPU-Limit im GTA-Casino, 8700K mit 4,7GHz und 3600er-RAM.jpg


8700K, 4,7GHz, 2133er-RAM, 16-19-19-39
CPU-Limit im GTA-Casino, 8700K mit 4,7GHz, 2133er-RAM.jpg


Gibt es jemanden hier, der mit niedrigeren Timings testen kann, der evl. selbst RAM-OC betrieben hat und entsprechend mehrere Profile hat? Wäre interessant, ob das Spiel auch durch geringere Timings skaliert und nicht nur durch mehr RAM-Takt?
 
  • Gefällt mir
Reaktionen: HisN
Laut JEDEC sollten die Timings 15-15-15-36-374 und 2T bei 2133 sein. Muss ich das untere Bild nochmal testen, ob es tatsächlich zu diesen Timings passt oder doch 16-19 usw. und das beim Test nicht richtig angenommen wurde.

Bei dem Test oben war ansonsten alles an Sichtweite aus, außer Gras auf Hoch, was mehr CPU und GPU verbraucht, je höher das ist. Mit Sichtweiten auf Max. waren die FPS um 3-5FPS geringer. Man könnte meinen, in Innenräumen ist das egal, aber in dem Spiel sind die Innenräume unter der Map gebaut und die Map könnte daher noch in der Berechnung mit drin sein. Damit würde ich das mal rechtfertigen.

Heute habe ich mir ein Asus TUF Z690-Plus D4 und einen 12700K bestellt. Da werde ich die Szene nochmal testen. Ich vermute, das Casino wird dann so um die 150FPS haben. Im Discord meinte jemand, der hat so glaube um die 140-150 mit einem 11700K und 4400er-RAM. Weiß aber den seine Sichtweiten-Einstellungen nicht.
Ergänzung ()

Erstaunlich, dass ich mit den 15-15-15-Timings plötzlich auch 100FPS bekomme. WTF? Oder das Spiel ist einfach inkonsistent.

Edit: Jetzt 97FPS. Spielt vielleicht auch noch die Tageszeit und das Wetter von der Map über dem Innenraum eine Rolle.

Edit: Jo, inkonsistent. Mit 3600 auf 16-19-19-39 wieder 112FPS.

Kann ich das Casino zum CPU testen vergessen. Muss ich das Rennen "Rally de Cayo" machen. Diese Insel von diesem Rennen, die eigentlich die Cayo-Perico-Heist-Insel ist, ist sehr CPU-lastig. Da kann ich einstellen, wie Wetter und Tageszeit sind, also ist da ein Äpfel-Birnen-Faktor weg. Auch da könnte man ein CPU-Limit im geringeren FPS-Bereich testen, indem man extra alles an Sichtweite und Gras hoch knallt, wobei Gras auch auf die GPU geht, aber reichte wohl beim letzten mal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HisN
Auf Cayo Perico eine Stelle gefunden, ca. 78FPS das geringste hier. 8700K mit 4,7GHz, RAM mit 3600 und 16-19-19-39. Die 2x16 G-Skill-Ripjaws halt.
CPU-Limit auf Cayo Perico, 8700K mit 4,7GHz, 3600er-RAM (16-19-19-39).jpg


Edit:

Bios ist auch bisschen dumm, auf JEDEC drücken und er nimmt die 15-15-15-36 nicht an bei 2133, daher erstmal mit 16-19-19-39 bei 2133. 66FPS.
CPU-Limit auf Cayo-Perico, 8700K mit 4,7GHz, 2133er-RAM (16-19-19-39).jpg


Nachdem sich das Bios gefügt hat, indem es 15-15-15-36 für 2133 angenommen hat, kamen so 71FPS raus.
CPU-Limit auf Cayo Perico, 8700K mit 4,7GHz, 2133er-RAM (15-15-15-36).jpg


Also skaliert das Spiel mit Takt und Timings, daher es würden bestimmt nochmal 5FPS rausspringen, wenn CPU sein Speichercontroller auch 3600 mit CL 14 fressen würde.
 
Zuletzt bearbeitet:
Banger schrieb:
Im Discord meinte jemand, der hat so glaube um die 140-150 mit einem 11700K und 4400er-RAM. Weiß aber den seine Sichtweiten-Einstellungen nicht.

Der hatte einen 10900K mit 4800er-RAM und da waren bei dem Casino 138FPS bei dem.

Edit: Ach f*ck, das sollte auch als Edit noch oben mit ran. -.-
 
Zurück
Oben