Baal Netbeck
Fleet Admiral
- Registriert
- Apr. 2008
- Beiträge
- 12.474
Diskussion zu 720/1080p vs. 4k CPU-Spiele-Benchmarks und verwandten Themen
Auch wenn das Thema die Leute mit festgefahrener Meinung nicht umstimmen wird, würde ich gerne diese Diskussion um das Thema der 720/1080p vs. 4k CPU Benchmarks nochmal anstoßen.
Anlass ist ein neues Video von HardWare unboxed, dass sich mit aktuellen Benchmarks der Sache annimmt.
HWunboxed ist eine der wenigen review Quellen, denen ich vertraue überwiegend zuverlässige CPU-Spiele-Benchmarks zu erstellen. Gamer Nexus wäre noch besser aber die testen nicht so viele verschiedene Spiele und Einstellungen. Vereinzelt erkenne ich auch andere Quellen an, aber da gibt es weniger Vertrauensvorschuss von meiner Seite aus.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Die Diskussion startet ja unter jedem neuen CPU Test von CB in den Kommentaren aufs neue und vermischt sich dort mit den anderen Kommentaren.
Daher würde ich hier gerne eine gesonderte Diskussion starten, auf die man verweisen kann und die die Vor und Nachteile zusammenfasst. Vor allem für Neulinge die noch nicht fundamentalistisch die Scheuklappen angelegt haben und eine Verschwörung wittern.
Ich würde mit einer Liste an Punkten und ihren Begründungen für CPU-Spiele-Benchmarks in niedrigen Auflösungen starten und dann eine Liste mit typischer Kritik weitermachen und diese aus meiner Sicht kommentieren.
Gerne ergänze ich den Startpost dann mit neuen Punkten oder besseren Begründungen aus der entstehenden Diskussion.
Gründe für CPU-Spiele-Benchmarks in niedrigen Auflösungen mit High-End-GPU
Die niedrige Auflösung in Verbindung mit einer möglichst schnellen Grafikkarte zeigen grob was die verschiedenen CPUs an FPS je Spiel schaffen können und der Leser kann dem Review entnehmen, ab welcher CPU die für ihn akzeptablen FPS/Frametimes ungefähr erreicht werden.
Auch wenn die Lieblingsspiele des Nutzers nicht im Testparcour enthalten sind oder erst noch erscheinen werden, gibt der Durchschnitt des Testparcour eine Antwort auf die prozentualen Unterschiede im CPU Limit.
Jede Messung die wegen einer zu hohen Auflösung im GPU-Limit entsteht, schmälert den durchschnittlichen Unterschied und zeigt weniger was der Nutzer im CPU Limit erwarten kann.
Wichtig ist, dass möglichst gut die wahren prozentualen Unterschiede ermittelt werden.
Auch wenn die Lieblingsspiele des Nutzers nicht im Testparcour enthalten sind oder erst noch erscheinen werden, gibt der Durchschnitt des Testparcour eine Antwort auf die prozentualen Unterschiede im CPU Limit.
Jede Messung die wegen einer zu hohen Auflösung im GPU-Limit entsteht, schmälert den durchschnittlichen Unterschied und zeigt weniger was der Nutzer im CPU Limit erwarten kann.
Wichtig ist, dass möglichst gut die wahren prozentualen Unterschiede ermittelt werden.
Sobald die Grafikkarte stark genug ist, um ein CPU Limit zu garantieren, sind die Ergebnisse unverfälscht.
Natürlich beantwortet das nicht die Frage, ob der Leser mit seiner speziellen Grafikkarte, Auflösung und Einstellungen dann auch im CPU Limit sein wird, oder ob seine FPS durch die Grafikkarte eingebremst werden.
Hier muss der Leser zwangsweise seine Gehirngänge zu einer kleine Transferleistung nötigen:
"Er muss sehen welche FPS er im Moment in welchem Limit erreicht oder was er laut CPU/GPU Tests ungefähr erwarten kann. Dann muss er noch realisieren, welche FPS ihm als Minimum ausreichen."
Jeder hätte gerne die simple Antwort, wo er Spiel, Auflösung, GPU und CPU angibt und eine allgemeingültige Antwort bekommt, was für ein Limit vorliegt und was aufgerüstet werden sollte.
Aber das ist leider nicht realistisch machbar....schier unendlich viele Kombinationsmöglichkeiten und unterschiedliches Verhalten je nach Spielsituation verhindern dies.
Natürlich beantwortet das nicht die Frage, ob der Leser mit seiner speziellen Grafikkarte, Auflösung und Einstellungen dann auch im CPU Limit sein wird, oder ob seine FPS durch die Grafikkarte eingebremst werden.
Hier muss der Leser zwangsweise seine Gehirngänge zu einer kleine Transferleistung nötigen:
"Er muss sehen welche FPS er im Moment in welchem Limit erreicht oder was er laut CPU/GPU Tests ungefähr erwarten kann. Dann muss er noch realisieren, welche FPS ihm als Minimum ausreichen."
Jeder hätte gerne die simple Antwort, wo er Spiel, Auflösung, GPU und CPU angibt und eine allgemeingültige Antwort bekommt, was für ein Limit vorliegt und was aufgerüstet werden sollte.
Aber das ist leider nicht realistisch machbar....schier unendlich viele Kombinationsmöglichkeiten und unterschiedliches Verhalten je nach Spielsituation verhindern dies.
Das HWunboxed Video gibt uns hier gute Daten an die Hand. Ab Minute 29 werden ältere Benchmarks aus 2022 gezeigt.
Mit dem 16 Kerner Ryzen 3950X, dem 8 Kerner 5800X und dem niedriger taktenden, aber mit dreifachem L3 Cache ausgestatteten, 5800X3D sehen wir eine sinnvolle Auswahl, die sowohl mehr Kerne als auch AMDs "Gaming-Cache" beleuchtet.
Die damals beste GPU in Form der 3090 Ti läuft hier trotz Upscaling in 4 K in ein GPU Limit. Der 3950X liegt in den drei beleuchteten Spielen zwar minimal zurück, was jedoch nicht ungewöhnlich ist. Auch wenn man zu 99% im GPU Limit ist, kann es eben doch minimale Einflüsse durch die CPU geben. Ob 95 oder 97 FPS wird vermutlich niemand unterscheiden können.
In 1080p Ultra kann sich der X3D vom 16 Kerner wie folgt absetzen:
WatchDogs:Legion: 36,5 %
SotTR: 42%
Horizon Zero Dawn: 23%
Und vom 5800X kann sich der X3D wie folgt ansetzen:
WatchDogs:Legion 21 %
SotTR: 13%
Horizon Zero Dawn: 10,5%
Mit Spielen aus 2023/2024(weiterhin 1080p Ultra) und nun mit einer RTX 4090 fallen die Unterschiede nicht geringer aus:
Vorsprung auf 16 Kerne:
Starfield: 41%
Warhammer4K:SpaceMarines: 50%
SW:Jedi Survivor: 57%
Vorsprung auf 5800X:
Starfield: 19%
Warhammer4K:SpaceMarines: 26%
SW:Jedi Survivor: 45,5%
Besonders interessant ist der Vergleich in 4K mit Upscaling, der in den 3 Spielen in 2022 noch völlig GPU limitiert war.
Nun ist der Unterschied zwischen 16 Kerner und X3D bei:
Starfield: 37%
Warhammer4K:SpaceMarines: 46%
SW:Jedi Survivor: 49%
Meine Interpretation der Daten:
Wer 2022 ein CPU Review mit 4K(Upscaled) angeguckt hat, der war(bezogen auf diese Spieleauswahl) sogar mit einer 3090 Ti völlig im GPU Limit.
In 1080p lag der Vorsprung des X3D hingegen bei durchschnittlich 33%.
1-2 Jahre später und nun mit RTX 4090 ist der Vorsprung sogar mit 4K(Upscaled) auf 44% gestiegen.
Der Vorsprung, den die Daten aus 2022 in 1080p gezeigt haben, wurden durch neuere Spiele und eine noch schnellere Grafikkarte sogar in 4K ausgebaut..... Die 1080p Daten waren also ein sinnvoller Blick in die 4K Zukunft und die 4K Messungen waren nutzlos.
Wer sich 2022 gegen den X3D Chip entschieden hat, da er in 4K im GPU Limit war, kann dann in der Zukunft auf einem niedrigeren FPS-Level CPU limitiert sein. Abhängig von den neuen Spielen und neuen GPUs.
Mit dem 16 Kerner Ryzen 3950X, dem 8 Kerner 5800X und dem niedriger taktenden, aber mit dreifachem L3 Cache ausgestatteten, 5800X3D sehen wir eine sinnvolle Auswahl, die sowohl mehr Kerne als auch AMDs "Gaming-Cache" beleuchtet.
Die damals beste GPU in Form der 3090 Ti läuft hier trotz Upscaling in 4 K in ein GPU Limit. Der 3950X liegt in den drei beleuchteten Spielen zwar minimal zurück, was jedoch nicht ungewöhnlich ist. Auch wenn man zu 99% im GPU Limit ist, kann es eben doch minimale Einflüsse durch die CPU geben. Ob 95 oder 97 FPS wird vermutlich niemand unterscheiden können.
In 1080p Ultra kann sich der X3D vom 16 Kerner wie folgt absetzen:
WatchDogs:Legion: 36,5 %
SotTR: 42%
Horizon Zero Dawn: 23%
Und vom 5800X kann sich der X3D wie folgt ansetzen:
WatchDogs:Legion 21 %
SotTR: 13%
Horizon Zero Dawn: 10,5%
Mit Spielen aus 2023/2024(weiterhin 1080p Ultra) und nun mit einer RTX 4090 fallen die Unterschiede nicht geringer aus:
Vorsprung auf 16 Kerne:
Starfield: 41%
Warhammer4K:SpaceMarines: 50%
SW:Jedi Survivor: 57%
Vorsprung auf 5800X:
Starfield: 19%
Warhammer4K:SpaceMarines: 26%
SW:Jedi Survivor: 45,5%
Besonders interessant ist der Vergleich in 4K mit Upscaling, der in den 3 Spielen in 2022 noch völlig GPU limitiert war.
Nun ist der Unterschied zwischen 16 Kerner und X3D bei:
Starfield: 37%
Warhammer4K:SpaceMarines: 46%
SW:Jedi Survivor: 49%
Meine Interpretation der Daten:
Wer 2022 ein CPU Review mit 4K(Upscaled) angeguckt hat, der war(bezogen auf diese Spieleauswahl) sogar mit einer 3090 Ti völlig im GPU Limit.
In 1080p lag der Vorsprung des X3D hingegen bei durchschnittlich 33%.
1-2 Jahre später und nun mit RTX 4090 ist der Vorsprung sogar mit 4K(Upscaled) auf 44% gestiegen.
Der Vorsprung, den die Daten aus 2022 in 1080p gezeigt haben, wurden durch neuere Spiele und eine noch schnellere Grafikkarte sogar in 4K ausgebaut..... Die 1080p Daten waren also ein sinnvoller Blick in die 4K Zukunft und die 4K Messungen waren nutzlos.
Wer sich 2022 gegen den X3D Chip entschieden hat, da er in 4K im GPU Limit war, kann dann in der Zukunft auf einem niedrigeren FPS-Level CPU limitiert sein. Abhängig von den neuen Spielen und neuen GPUs.
Von @Mimir
Das ist eigentlich die Kernaussage und das allerwichtigste, was man hier begreifen muss.
In gewissen Grenzen kann man die Last der Grafikkarte enorm senken wenn einem die FPS nicht für den eigenen Anspruch ausreichen.
Auch mit 4K Display kann man die Auflösung senken(oder agressives upscaling verwenden)
Einige Grafikoptionen entlasten auch die CPU, aber meist entlasten sie stärker die GPU.
Man kann also fast immer ein Spiel soweit runter stellen, bis jede halbwegs aktuelle Grafikkarte die Wunsch-FPS erreicht.
Das gleiche funktioniert bei CPUs nur bedingt und auch deutlich abgesenkte Optionen haben weniger Potential die Wunsch-FPS zu erreichen.
Eine 720/1080p-CPU-Review hilft einem also eine CPU zu finden, die in den gewünschten Spielen die Wunsch-FPS erreicht.
Reichen dir 60FPS in Story Spielen? Gut...du kannst bei der CPU sparen.
Du brauchst 60 FPS auch in Strategie/Simulationsspielen...das kann schwerer/unmöglich werden
Du willst mindestens 120 FPS in Story Spielen?
Du brauchst 600 FPS in CS?
Dein Anspruch an die Wunsch-FPS zählt...die Auflösung ist Sache der Grafikakrte und damit ein anderes Thema.
Das ist eigentlich die Kernaussage und das allerwichtigste, was man hier begreifen muss.
Diesen Punkt hatte ich nicht klar genug beschrieben.Mimir schrieb:Denn der Punkt ist, dass jeder mit ner anderen Framerate spielt.
Der eine spielt vielleicht mit 50 FPS in 4K mit einer 4090.
Wieder ein anderer spielt mit einer 4070 mit 90-120 FPS in 4K, weil er etwas niedrigere Grafiksetting und Upscaling via DLSS nutzt. Die Auflösung spielt da keine Rolle, nur die Framerate die man erreichen will oder kann.......
In gewissen Grenzen kann man die Last der Grafikkarte enorm senken wenn einem die FPS nicht für den eigenen Anspruch ausreichen.
Auch mit 4K Display kann man die Auflösung senken(oder agressives upscaling verwenden)
Einige Grafikoptionen entlasten auch die CPU, aber meist entlasten sie stärker die GPU.
Man kann also fast immer ein Spiel soweit runter stellen, bis jede halbwegs aktuelle Grafikkarte die Wunsch-FPS erreicht.
Das gleiche funktioniert bei CPUs nur bedingt und auch deutlich abgesenkte Optionen haben weniger Potential die Wunsch-FPS zu erreichen.
Eine 720/1080p-CPU-Review hilft einem also eine CPU zu finden, die in den gewünschten Spielen die Wunsch-FPS erreicht.
Reichen dir 60FPS in Story Spielen? Gut...du kannst bei der CPU sparen.
Du brauchst 60 FPS auch in Strategie/Simulationsspielen...das kann schwerer/unmöglich werden
Du willst mindestens 120 FPS in Story Spielen?
Du brauchst 600 FPS in CS?
Dein Anspruch an die Wunsch-FPS zählt...die Auflösung ist Sache der Grafikakrte und damit ein anderes Thema.
Oft geäußerte Kritik an bestehenden Benchmarks
Das habe ich im Forum öfter gelesen, und es klingt auch erstmal einleuchtend.
Software entwickelt sich weiter und die Nutzer haben im Schnitt immer mehr Kerne. Da erscheint es logisch, dass es in 4K Auflösung besser wäre die 1080p Messungen zu ignorieren und auf mehr Kerne für die Zukunft zu setzen.
Meine Gedanken dazu:
Ohne Glaskugel kann ich nicht ausschließen, dass es bald den großen Durchbruch in der Variablenverwaltung geben wird und es plötzlich möglich werden wird, dass Spiele sinnvoll von vielen Kernen profitieren können.
Der Blick in die Vergangenheit und mein beschränktes Wissen zur Programmierung von Spielen sagt aber nein.
Seit 2014 haben die Konsolen in Form der Playstation 4 und XBox One, 8 Kern CPUs. Wenn gleich das eher 4 Kern/8 Thread CPUs sind.
Seid 2017 konnten und haben Spieler sich günstige 6 und 8 Kerner gekauft.
Seid 2020 haben Playstation 5 und XBox Series echte 8 Kerne und 16 Threads. Und seit 2019 gab es mit dem 3900X und 3950X, 12 und 16 Kerne im Consumer Bereich zu erschwinglichen Preisen zu kaufen.
Die Hardware und die Verbreitung von mehr als 4 Kernen ist also schon lange geben und trotzdem ist schon der Nutzen von mehr als 6 Kernen selten und gering.
Auch hier gibt es ein halbwegs aktuelles Video von HWunboxed:
Sehr interessant ist hier der Vergleich von AMDs 3600 zu 3700X und Intels 9600K zu 9900K.
Auf AMDs Seite haben 6 und 8 Kerne im Alltag sehr ähnlichen Boost Takt und den gleichen 2x16MB L3 Cache.
Bei Intel gibt es ca 400MHz Vorteil für den 9900K und 16 statt 9 MB L3 Cache.
Das Video startet mit Assassins Creed, wo 33% mehr Kerne bei AMD immerhin 12% mehr FPS bringen. Der Intel 8 Kerner ist ähnlich schnell wie AMD aber der Intel 6 Kerner leidet deutlich an weniger Takt und Cache.
Der 5800X3D schlägt den 3700X mit massiven 63% mehr FPS.
CyberPunk 2077 folgt und hier ist der Unterschied von 6 zu 8 Kernen bei AMD fast nicht vorhanden. Bei Intel schon, da sich hier auch Takt und L3 Cache deutlich unterscheiden.
..und so setzen sich die Ergebnisse fort...mal kaum Unterschied und mal 5-12%...
WatchDogs:Legion hat als einziges Spiel deutlich von 8 Kernen profitiert und lief mit dem 3700X 40% schneller. Aber selbst hier ist der 5800X3D mit 69% Vorsprung durch IPC und Cache weiter entfernt... ohne noch mehr Kerne zu bieten.
Und die Daten aus dem aktuellen Video mit 3950X vs 5800X und 7700X vs. Core Ultra 285K zeigen, dass deutlich mehr als 8 Kerne in keinem Spiel einen signifikanten Vorteil erzielen....auch in WD:Legion ist der 3850X mit 16 Kernen der neueren Architektur mit 8 Kernen unterlegen.
Zeigt mir gerne ein Spiel, dass deutlich von mehr Kernen profitiert, aber es scheint schon selten zu sein, dass 8 Kerne gegenüber 6 Kernen einen deutlichen Vorteil bringen...und noch mehr bringt fast nichts.
Die Vorteile durch andere Einflüsse wie Takt, IPC, Cache, Core to core Latenzen und RAM Latenzen scheinen viel wichtiger für die Leistung in Spielen zu sein.
In meinem großen Anno 1800 Benchmarkprojekt habe ich z.B. bei festem Takt mit meinem 3950X die Abhängigkeit von den Kernen getestet und es gab zwar leichte Verbesserungen von 4 bis auf 16 Kerne, aber lächerlich wenig im Vergleich zu anderen Einflüssen.
Von 4 auf 6 Kerne 5%
6 auf 8: 2%
8 auf 12: 1,6%
12 auf 16: 0,8%
...von 6 auf 16 Kerne: 4,5%
Aber mit 8 Kernen von Zen 2 auf Zen 3 zu wechseln bei gleichem Takt, Ram usw. bringt 10,7%.
Von 3200er RAM auf 3733 MT/s bringt 8%.
Die Grafikeinstellungen etwas zu optimieren ohne spürbare optische Einbußen bringt 18%.
Ist jetzt nur ein Spiel, das scheinbar wenig auf Kerne reagiert, aber ich habe sonst keine Daten mit festem Takt und guter Reproduzierbarkeit.
Das einzige Spiel, dass mir einfällt, dass viele Kerne verschlingen kann ist TW:Troy ...und da auch nur wenn man die Schatten auf Ultra stellt, da wird die CPU wohl mit irgendeiner gut parallelisierbaren übertriebenen Aufgabe konfrontiert. Optisch sehe ich zwischen Hoch und Ultra keinen Unterschied, aber plötzlich mutiert das Spiel von 4-5 nutzbaren Kernen zu 16 nutzbaren Kernen.
Das würde ich aber eher als Bug, denn als revolutionäre Multithread-Programmierung sehen.
Fazit zum Multitheading:
Es gab in den letzten 10 Jahren mit weit verbreiteten 8 Kernen eine Weiterentwicklung, die irgendwo zwischen sinnvollen 6 bis 8 Kernen stecken geblieben ist.
Ich sehe keine Anzeichen, dass sich das allzu bald ändern wird und dass eine CPU mit mehr als 8 Kernen einen aktuell schnelleren 8 Kerner in Spielen je überholen wird.
Wer zu den ganz ganz wenigen "Content Creatorn" gehört, die damit Geld verdienen zeitkritisch Videos zu veröffentlichen und auf dem gleichen Rechner Spielen und Rendern....ja von mir aus dann nimm mehr Kerne.
Sonst würde ich keinen Aufpreis für mehr als 8 Kerne zahlen und bei engem Budget auch auf 6 Kerne runter gehen.
Zurück zum Thema:
Die Spiele Benchmarks von heute in 1080p zeigen höchstwahrscheinlich auch die Abstände wie sie in einigen Jahren in neueren Spielen gegeben sein werden. Es ist aus meiner Sicht falsch, die jetzigen Tests als "nicht zukunftssicher" zu beschreiben, da sich die Abstände erfahrungsgemäß eher vergrößern und mehr Kerne nicht im gleichen Maße an Bedeutung gewinnen(siehe HWunboxed Video 1).
Software entwickelt sich weiter und die Nutzer haben im Schnitt immer mehr Kerne. Da erscheint es logisch, dass es in 4K Auflösung besser wäre die 1080p Messungen zu ignorieren und auf mehr Kerne für die Zukunft zu setzen.
Meine Gedanken dazu:
Ohne Glaskugel kann ich nicht ausschließen, dass es bald den großen Durchbruch in der Variablenverwaltung geben wird und es plötzlich möglich werden wird, dass Spiele sinnvoll von vielen Kernen profitieren können.
Der Blick in die Vergangenheit und mein beschränktes Wissen zur Programmierung von Spielen sagt aber nein.
Seit 2014 haben die Konsolen in Form der Playstation 4 und XBox One, 8 Kern CPUs. Wenn gleich das eher 4 Kern/8 Thread CPUs sind.
Seid 2017 konnten und haben Spieler sich günstige 6 und 8 Kerner gekauft.
Seid 2020 haben Playstation 5 und XBox Series echte 8 Kerne und 16 Threads. Und seit 2019 gab es mit dem 3900X und 3950X, 12 und 16 Kerne im Consumer Bereich zu erschwinglichen Preisen zu kaufen.
Die Hardware und die Verbreitung von mehr als 4 Kernen ist also schon lange geben und trotzdem ist schon der Nutzen von mehr als 6 Kernen selten und gering.
Auch hier gibt es ein halbwegs aktuelles Video von HWunboxed:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Auf AMDs Seite haben 6 und 8 Kerne im Alltag sehr ähnlichen Boost Takt und den gleichen 2x16MB L3 Cache.
Bei Intel gibt es ca 400MHz Vorteil für den 9900K und 16 statt 9 MB L3 Cache.
Das Video startet mit Assassins Creed, wo 33% mehr Kerne bei AMD immerhin 12% mehr FPS bringen. Der Intel 8 Kerner ist ähnlich schnell wie AMD aber der Intel 6 Kerner leidet deutlich an weniger Takt und Cache.
Der 5800X3D schlägt den 3700X mit massiven 63% mehr FPS.
CyberPunk 2077 folgt und hier ist der Unterschied von 6 zu 8 Kernen bei AMD fast nicht vorhanden. Bei Intel schon, da sich hier auch Takt und L3 Cache deutlich unterscheiden.
..und so setzen sich die Ergebnisse fort...mal kaum Unterschied und mal 5-12%...
WatchDogs:Legion hat als einziges Spiel deutlich von 8 Kernen profitiert und lief mit dem 3700X 40% schneller. Aber selbst hier ist der 5800X3D mit 69% Vorsprung durch IPC und Cache weiter entfernt... ohne noch mehr Kerne zu bieten.
Und die Daten aus dem aktuellen Video mit 3950X vs 5800X und 7700X vs. Core Ultra 285K zeigen, dass deutlich mehr als 8 Kerne in keinem Spiel einen signifikanten Vorteil erzielen....auch in WD:Legion ist der 3850X mit 16 Kernen der neueren Architektur mit 8 Kernen unterlegen.
Zeigt mir gerne ein Spiel, dass deutlich von mehr Kernen profitiert, aber es scheint schon selten zu sein, dass 8 Kerne gegenüber 6 Kernen einen deutlichen Vorteil bringen...und noch mehr bringt fast nichts.
Die Vorteile durch andere Einflüsse wie Takt, IPC, Cache, Core to core Latenzen und RAM Latenzen scheinen viel wichtiger für die Leistung in Spielen zu sein.
In meinem großen Anno 1800 Benchmarkprojekt habe ich z.B. bei festem Takt mit meinem 3950X die Abhängigkeit von den Kernen getestet und es gab zwar leichte Verbesserungen von 4 bis auf 16 Kerne, aber lächerlich wenig im Vergleich zu anderen Einflüssen.
Von 4 auf 6 Kerne 5%
6 auf 8: 2%
8 auf 12: 1,6%
12 auf 16: 0,8%
...von 6 auf 16 Kerne: 4,5%
Aber mit 8 Kernen von Zen 2 auf Zen 3 zu wechseln bei gleichem Takt, Ram usw. bringt 10,7%.
Von 3200er RAM auf 3733 MT/s bringt 8%.
Die Grafikeinstellungen etwas zu optimieren ohne spürbare optische Einbußen bringt 18%.
Ist jetzt nur ein Spiel, das scheinbar wenig auf Kerne reagiert, aber ich habe sonst keine Daten mit festem Takt und guter Reproduzierbarkeit.
Das einzige Spiel, dass mir einfällt, dass viele Kerne verschlingen kann ist TW:Troy ...und da auch nur wenn man die Schatten auf Ultra stellt, da wird die CPU wohl mit irgendeiner gut parallelisierbaren übertriebenen Aufgabe konfrontiert. Optisch sehe ich zwischen Hoch und Ultra keinen Unterschied, aber plötzlich mutiert das Spiel von 4-5 nutzbaren Kernen zu 16 nutzbaren Kernen.
Das würde ich aber eher als Bug, denn als revolutionäre Multithread-Programmierung sehen.
Fazit zum Multitheading:
Es gab in den letzten 10 Jahren mit weit verbreiteten 8 Kernen eine Weiterentwicklung, die irgendwo zwischen sinnvollen 6 bis 8 Kernen stecken geblieben ist.
Ich sehe keine Anzeichen, dass sich das allzu bald ändern wird und dass eine CPU mit mehr als 8 Kernen einen aktuell schnelleren 8 Kerner in Spielen je überholen wird.
Wer zu den ganz ganz wenigen "Content Creatorn" gehört, die damit Geld verdienen zeitkritisch Videos zu veröffentlichen und auf dem gleichen Rechner Spielen und Rendern....ja von mir aus dann nimm mehr Kerne.
Sonst würde ich keinen Aufpreis für mehr als 8 Kerne zahlen und bei engem Budget auch auf 6 Kerne runter gehen.
Zurück zum Thema:
Die Spiele Benchmarks von heute in 1080p zeigen höchstwahrscheinlich auch die Abstände wie sie in einigen Jahren in neueren Spielen gegeben sein werden. Es ist aus meiner Sicht falsch, die jetzigen Tests als "nicht zukunftssicher" zu beschreiben, da sich die Abstände erfahrungsgemäß eher vergrößern und mehr Kerne nicht im gleichen Maße an Bedeutung gewinnen(siehe HWunboxed Video 1).
Man könnte annehmen, dass Spiele in höheren Auflösungen, wo man mehr Details sieht, auch mehr Arbeit für die CPU bedeuten, oder das spezielle "4K Texturen" verwendet werden, die mehr Speicher belegen oder schwieriger zu berechnen sind.
Ich würde gerne pauschal schreiben, dass das Blödsinn ist, aber es ist eben nur zu 99% Blödsinn.
Die Qualitätsstufe und das Streaming Verhalten werden von Textur-Optionen vorgegeben..Es mag aber Entwickler geben, die das anders handhaben und unterschiedliche Texturen und Meshes für verschiedene Auflösungsstufen benutzen.
Meiner Erfahrung nach ändert sich die RAM Belegung nicht mit der Auflösung und auch die VRAM Belegung ändert sich nur minimal, da das zwischenspeichern der 4K Frames etwas mehr Platz benötigt.
Es gibt aber Testberichte, die je nach Spiel auch große Unterschiede im reservierten VRAM zeigen.
Größere Dateien könnten theoretisch auch eher Bandbreiten auslasten, was eventuell dann einen Einfluss auf die CPU haben könnte. Ich würde vermuten, dass dies keinen nennenswertte Auswirkungen hat, aber ausschließen kann ich es nicht.
Die Auflösung hat eigentlich auch keinen Einfluss auf die Drawcalls der CPU. Mit den Drawcalls sagt die CPU der GPU, was sie wo/wie rendern soll. Mit welcher Abtastrate die GPU das dann rendert, macht der CPU nicht mehr/weniger Arbeit.
Aber es gibt Beispiele, wo die Auflösung doch einen Einfluss im CPU Limit hat. Bei manchen Tests unterstelle ich eher schlechte Reproduzierbarkeit, aber echte Unterschiede gibt es wohl in Crysis remastered, The Talos Principle und Cities Skylines.
Auch sieht man in den meisten Spielen die bis 4K CPU limitiert sind einen minimalen Einfluss durch die Auflösung. Das erkläre ich mir jedoch genauso wie die minimalen Unterschiede verschiedener CPUs im GPU Limit. Da ist die Testszene nicht 100% der Zeit im gleichen Limit und so kommt ein kleiner Einfluss mit ins Ergebnis.
Wo es deutliche Unterschiede gibt, hat der Entwickler eventuell doch Detailsstufen an die Auflösung gekoppelt oder Sichtweiten oder die Anzahl an Objekten. Ein normales Verhalten ist das nicht und der Einfluss scheint auch unter 20% zu liegen selbst wenn extreme Unterschiede wie 720p auf 4K verglichen werden.
Pauschal für Blödsinn erklären kann man die Aussage also nicht, aber es hat soweit ich das sehen kann keinen Einfluss auf die Reihenfolge der CPUs und sollte die Kaufentscheidung nicht signifikant beeinflussen.
Man kann es aber durchaus als Anlass nehmen vor dem Aufnehmen in eine Testauswahl auf dieses Verhalten zu prüfen und eher hohe Auflösungen zu nehmen, solange trotzdem alle Testkandidaten im CPU Limit bleiben.
Grundsätzlich sehe ich aber keinen Grund für hohe Auflösungen...die Gefahr in ein GPU Limit zu kommen ist größer als die Wahrscheinlichkeit auf ein Spiel zu treffen, dass sich ungewöhnlich verhält.
Ich würde gerne pauschal schreiben, dass das Blödsinn ist, aber es ist eben nur zu 99% Blödsinn.
Die Qualitätsstufe und das Streaming Verhalten werden von Textur-Optionen vorgegeben..Es mag aber Entwickler geben, die das anders handhaben und unterschiedliche Texturen und Meshes für verschiedene Auflösungsstufen benutzen.
Meiner Erfahrung nach ändert sich die RAM Belegung nicht mit der Auflösung und auch die VRAM Belegung ändert sich nur minimal, da das zwischenspeichern der 4K Frames etwas mehr Platz benötigt.
Es gibt aber Testberichte, die je nach Spiel auch große Unterschiede im reservierten VRAM zeigen.
Größere Dateien könnten theoretisch auch eher Bandbreiten auslasten, was eventuell dann einen Einfluss auf die CPU haben könnte. Ich würde vermuten, dass dies keinen nennenswertte Auswirkungen hat, aber ausschließen kann ich es nicht.
Die Auflösung hat eigentlich auch keinen Einfluss auf die Drawcalls der CPU. Mit den Drawcalls sagt die CPU der GPU, was sie wo/wie rendern soll. Mit welcher Abtastrate die GPU das dann rendert, macht der CPU nicht mehr/weniger Arbeit.
Aber es gibt Beispiele, wo die Auflösung doch einen Einfluss im CPU Limit hat. Bei manchen Tests unterstelle ich eher schlechte Reproduzierbarkeit, aber echte Unterschiede gibt es wohl in Crysis remastered, The Talos Principle und Cities Skylines.
Auch sieht man in den meisten Spielen die bis 4K CPU limitiert sind einen minimalen Einfluss durch die Auflösung. Das erkläre ich mir jedoch genauso wie die minimalen Unterschiede verschiedener CPUs im GPU Limit. Da ist die Testszene nicht 100% der Zeit im gleichen Limit und so kommt ein kleiner Einfluss mit ins Ergebnis.
Wo es deutliche Unterschiede gibt, hat der Entwickler eventuell doch Detailsstufen an die Auflösung gekoppelt oder Sichtweiten oder die Anzahl an Objekten. Ein normales Verhalten ist das nicht und der Einfluss scheint auch unter 20% zu liegen selbst wenn extreme Unterschiede wie 720p auf 4K verglichen werden.
Pauschal für Blödsinn erklären kann man die Aussage also nicht, aber es hat soweit ich das sehen kann keinen Einfluss auf die Reihenfolge der CPUs und sollte die Kaufentscheidung nicht signifikant beeinflussen.
Man kann es aber durchaus als Anlass nehmen vor dem Aufnehmen in eine Testauswahl auf dieses Verhalten zu prüfen und eher hohe Auflösungen zu nehmen, solange trotzdem alle Testkandidaten im CPU Limit bleiben.
Grundsätzlich sehe ich aber keinen Grund für hohe Auflösungen...die Gefahr in ein GPU Limit zu kommen ist größer als die Wahrscheinlichkeit auf ein Spiel zu treffen, dass sich ungewöhnlich verhält.
Weil die Auflösung zu 99% nur die GPU beeinflusst und die Settings zwar überwiegend die GPU entlasten, aber auch auf die CPU-FPS einen Einfluss haben.
Verschiedene Grafiksettings zu testen ist gar nicht uninteressant, da sich viele Optionen auch auf die CPU-Drawcalls auswirken.
Sichtweiten und Einstellungen für NPC und Vegetationsdichten verändern die Anzahl an Objekten die die CPU der GPU über die Drawcalls mitteilen muss. Weniger NPCs bedeuten auch tendenziell weniger Wegfindung, wobei das meiner Erfahrung nach wenig ausmacht.
Die Berechnung von Schatten belastet je nach Spiel mehr oder weniger die CPU.
Die Objektdetails ändern meist die Anzahl der Polygone und damit auch die Drawcalls.
Raytracing kann ebenfalls einen deutlichen Einfluss auf die CPU Last haben.
DLSS/FSR haben meiner Erfahrung nach einen kleinen Einfluss im CPU Limit, aber entscheidend ist das nicht.
Nvidias Framegeneration belastet in einigen Spielen(z.B. CP2077) Auflösungsabhängig die CPU und kann in 4K schnell zu einem CPU Limit führen. Das ist höchstwahrscheinlich ein Bug, es sollte aber beachtet und vermieden werden.
Grafikoptionen wie Nachbearbeitung, Anti Aliasing, Anisotropische Filterung, Flimmereffekte, Bloom, Tesselation, Tiefenschärfe, Motion Blur usw. sind meist ohne Einfluss auf die CPU und können für einen CPU Test deaktiviert werden um die GPU zu entlasten.
Ich bin also durchaus offen für eine Diskussion zu geänderten Grafiksettings in CPU-limitierten Spielen, aber für ein Review zu diversen CPUs in vielen Spielen ist es notwendig sich auf einen Satz an Settings zu beschränken.
Die meisten Reviews benutzen Ultra Settings, da sie so den Worst Case für die CPU Last abdecken und senken die Settings eventuell für Multiplayer Spiele wie Counter Strike/Fortnite usw.
Unterschiedliche Settings sind für spezielle Reviews zu einzelnen Spielen durchaus interessant und werden ja auch oft gemacht.
Leider selten in CPU und GPU limitiert aufgeteilt.
Verschiedene Grafiksettings zu testen ist gar nicht uninteressant, da sich viele Optionen auch auf die CPU-Drawcalls auswirken.
Sichtweiten und Einstellungen für NPC und Vegetationsdichten verändern die Anzahl an Objekten die die CPU der GPU über die Drawcalls mitteilen muss. Weniger NPCs bedeuten auch tendenziell weniger Wegfindung, wobei das meiner Erfahrung nach wenig ausmacht.
Die Berechnung von Schatten belastet je nach Spiel mehr oder weniger die CPU.
Die Objektdetails ändern meist die Anzahl der Polygone und damit auch die Drawcalls.
Raytracing kann ebenfalls einen deutlichen Einfluss auf die CPU Last haben.
DLSS/FSR haben meiner Erfahrung nach einen kleinen Einfluss im CPU Limit, aber entscheidend ist das nicht.
Nvidias Framegeneration belastet in einigen Spielen(z.B. CP2077) Auflösungsabhängig die CPU und kann in 4K schnell zu einem CPU Limit führen. Das ist höchstwahrscheinlich ein Bug, es sollte aber beachtet und vermieden werden.
Grafikoptionen wie Nachbearbeitung, Anti Aliasing, Anisotropische Filterung, Flimmereffekte, Bloom, Tesselation, Tiefenschärfe, Motion Blur usw. sind meist ohne Einfluss auf die CPU und können für einen CPU Test deaktiviert werden um die GPU zu entlasten.
Ich bin also durchaus offen für eine Diskussion zu geänderten Grafiksettings in CPU-limitierten Spielen, aber für ein Review zu diversen CPUs in vielen Spielen ist es notwendig sich auf einen Satz an Settings zu beschränken.
Die meisten Reviews benutzen Ultra Settings, da sie so den Worst Case für die CPU Last abdecken und senken die Settings eventuell für Multiplayer Spiele wie Counter Strike/Fortnite usw.
Unterschiedliche Settings sind für spezielle Reviews zu einzelnen Spielen durchaus interessant und werden ja auch oft gemacht.
Leider selten in CPU und GPU limitiert aufgeteilt.
Die meisten erfahrenen Hardware Tester nutzen unterschiedliche Szenen, je nachdem welche Hardware sie vergleichen wollen.
Nicht alle, aber sie sollten es tun.
Die genutzte Testszene hat meist einen riesigen Einfluss auf die Ergebnisse und ob die FPS durch die CPU oder die GPU limitiert sind.
Oft ist z.B. ein Szene mit viel Vegetation und Licht/Schatten Effekten eher GPU intensiv.
Eine Szene in einer Stadt mit vielen NPCs, ist einerseits wegen den zusätzlichen NPCs CPU intensiv, aber auch weil es in/hinter Gebäuden oft viele Objekte gibt, die die CPU handeln muss, die dann aber von der GPU in der Renderpipeline verworfen werden, da sie eh verdeckt sind. Beides verschiebt die Last eher Richtung CPU.
Aber auch Außenareale können die CPU hoch belasten, wenn sich der Spieler schnell fortbewegt und die Welt konstant/schnell nachgelanden werden muss.
Daher ergibt es aus meiner Sicht Sinn, wenn man die CPUs in Szenen testet, in denen die FPS aufgrund von hoher CPU Last besonders niedrig fallen und die GPUs in Szenen testet, wo sie aufgrund von hoher GPU Last besonders niedrig fallen.
Ich sehe durchaus den Konflikt mit der oft getätigten Anweisung, man sollte zu einem Spiel die CPU-Reviews und die GPU-Reviews angucken um zu sehen, ob man wohl im CPU oder GPU Limit unterwegs sein wird.
Das kann einem keiner seriös vorhersagen, aber wenn die Reviews sich auf entsprechend anspruchsvolle Szenen und Einstellungen konzentrieren, kann man erwarten, dass man überwiegend bessere Leistung erwarten kann als das gezeigte.
Sofern man sich die Hardware nicht ausschließlich für ein spezielles Spiel kauft, sind aus meiner Sicht die prozentualen Unterschiede interessanter als die absoluten FPS.
Nicht alle, aber sie sollten es tun.
Die genutzte Testszene hat meist einen riesigen Einfluss auf die Ergebnisse und ob die FPS durch die CPU oder die GPU limitiert sind.
Oft ist z.B. ein Szene mit viel Vegetation und Licht/Schatten Effekten eher GPU intensiv.
Eine Szene in einer Stadt mit vielen NPCs, ist einerseits wegen den zusätzlichen NPCs CPU intensiv, aber auch weil es in/hinter Gebäuden oft viele Objekte gibt, die die CPU handeln muss, die dann aber von der GPU in der Renderpipeline verworfen werden, da sie eh verdeckt sind. Beides verschiebt die Last eher Richtung CPU.
Aber auch Außenareale können die CPU hoch belasten, wenn sich der Spieler schnell fortbewegt und die Welt konstant/schnell nachgelanden werden muss.
Daher ergibt es aus meiner Sicht Sinn, wenn man die CPUs in Szenen testet, in denen die FPS aufgrund von hoher CPU Last besonders niedrig fallen und die GPUs in Szenen testet, wo sie aufgrund von hoher GPU Last besonders niedrig fallen.
Ich sehe durchaus den Konflikt mit der oft getätigten Anweisung, man sollte zu einem Spiel die CPU-Reviews und die GPU-Reviews angucken um zu sehen, ob man wohl im CPU oder GPU Limit unterwegs sein wird.
Das kann einem keiner seriös vorhersagen, aber wenn die Reviews sich auf entsprechend anspruchsvolle Szenen und Einstellungen konzentrieren, kann man erwarten, dass man überwiegend bessere Leistung erwarten kann als das gezeigte.
Sofern man sich die Hardware nicht ausschließlich für ein spezielles Spiel kauft, sind aus meiner Sicht die prozentualen Unterschiede interessanter als die absoluten FPS.
Ja, das ist etwas das man durchaus beachten muss. Ob jetzt ein gesetztes FPS Limit oder eine Beschränkung weil die eigene Grafikkarte schwächer oder die Auflösung höher ist.... In vielen Fällen werden die gezeigten Unterschiede in realen Situationen nicht erreicht.
Doch ein Review ist für die Allgemeinheit und da will auch jemand seinen 240Hz Monitor auslasten, oder sich für zukünftige Spiele/Grafikkarten rüsten. Die Entscheidung ob das für einen selbst wirklich nötig ist, kann einem ein Review nicht abnehmen.
Mehr Spiele zu testen, in denen die Nutzer auch kritisch niedrig im CPU Limit sind, halte ich auch für sinnvoller als das X-te 3rd Person Spiel. Leider sind diese(meist Strategie/Simulation Spiele) oft schwerer zu testen und schlechter reproduzierbar.
Und wenn man sich die Spielerzahlen anguckt sind manche Spiele einfach für eine größere Leserschaft interessant als andere...das müssen die Tester auch irgendwie berücksichtigen.
Doch ein Review ist für die Allgemeinheit und da will auch jemand seinen 240Hz Monitor auslasten, oder sich für zukünftige Spiele/Grafikkarten rüsten. Die Entscheidung ob das für einen selbst wirklich nötig ist, kann einem ein Review nicht abnehmen.
Mehr Spiele zu testen, in denen die Nutzer auch kritisch niedrig im CPU Limit sind, halte ich auch für sinnvoller als das X-te 3rd Person Spiel. Leider sind diese(meist Strategie/Simulation Spiele) oft schwerer zu testen und schlechter reproduzierbar.
Und wenn man sich die Spielerzahlen anguckt sind manche Spiele einfach für eine größere Leserschaft interessant als andere...das müssen die Tester auch irgendwie berücksichtigen.
Wegen der beschränkten Zeit/Ressourcen die für Reviews gegeben ist.
Mehr Daten sind nett, aber Zeit und Ressourcen sind nicht unendlich vorhanden. Irgendwo muss priorisiert werden, was sinnvoll ist und was nicht.
Und abseits von Videos wie das von HWunboxed, ist es nicht sinnvoll zusätzlich in 4Kzu testen. Denn wo fängt man an und wo hört man auf?
4K mit einer RTX4090 ist auch nur für die wenigen Leser relevant, die eine 4090 besitzen und diese in nativen 4K nutzen. Viele mit 4K Monitor werden wohl eher DLSS nutzen...und vor allem werden sie keine 4090 besitzen...und vermutlich haben sie auch nicht alle Einstellungen auf Ultra...und sie spielen nicht die exakt gleichen Spiele...usw. Es kann nicht jede Kombi getestet werden!
Am Ende muss trotzdem jeder seine eigene Abschätzung machen, wie viel CPU und wie viel GPU Leistung in der individuellen Situation gebraucht wird und da sind die prozentualen Unterschiede, im entsprechenden Limit, der beste Ausgangspunkt.
Mehr Daten sind nett, aber Zeit und Ressourcen sind nicht unendlich vorhanden. Irgendwo muss priorisiert werden, was sinnvoll ist und was nicht.
Und abseits von Videos wie das von HWunboxed, ist es nicht sinnvoll zusätzlich in 4Kzu testen. Denn wo fängt man an und wo hört man auf?
4K mit einer RTX4090 ist auch nur für die wenigen Leser relevant, die eine 4090 besitzen und diese in nativen 4K nutzen. Viele mit 4K Monitor werden wohl eher DLSS nutzen...und vor allem werden sie keine 4090 besitzen...und vermutlich haben sie auch nicht alle Einstellungen auf Ultra...und sie spielen nicht die exakt gleichen Spiele...usw. Es kann nicht jede Kombi getestet werden!
Am Ende muss trotzdem jeder seine eigene Abschätzung machen, wie viel CPU und wie viel GPU Leistung in der individuellen Situation gebraucht wird und da sind die prozentualen Unterschiede, im entsprechenden Limit, der beste Ausgangspunkt.
Wer einmal an Verschwörungen glaubt, den kann man vermutlich eh nicht retten.
Aber ich kann ja trotzdem ein paar Gegenargumente formulieren.
Nicht jedes Review ist positiv und rät zum Kauf einer neuen CPU....Ryzen 9000 Launch...Intel Arrow Lake Launch sind aktuelle Beispiele wo fast jedes Review von Enttäuschung geprägt war...der 9800X3D ist überwiegend positiv aufgenommen worden aber eben auch begründet und nicht aufgrund einer groß angelegten Verschwörung.
Wenn Reviews nicht unabhängig berichten und reine Werbeveranstaltungen sind, wird das von den Käufern schnelle entlarvt und die entsprechenden Quellen verlieren an Ruf/Bedeutung. Es gibt viele schlechte Youtube-Reviews, aber eben auch welche die sich mit langjähriger Qualität und Sachlichkeit ein Vertrauen erarbeitet haben.
Ob CPU-Tests in 720p oder 4K...am Ende entscheidet der Leser ob die gezeigte Leistung benötigt wird....aber nur im CPU-Limit kann der Leser auch eine fundierte Entscheidung treffen.
Aber ich kann ja trotzdem ein paar Gegenargumente formulieren.
Nicht jedes Review ist positiv und rät zum Kauf einer neuen CPU....Ryzen 9000 Launch...Intel Arrow Lake Launch sind aktuelle Beispiele wo fast jedes Review von Enttäuschung geprägt war...der 9800X3D ist überwiegend positiv aufgenommen worden aber eben auch begründet und nicht aufgrund einer groß angelegten Verschwörung.
Wenn Reviews nicht unabhängig berichten und reine Werbeveranstaltungen sind, wird das von den Käufern schnelle entlarvt und die entsprechenden Quellen verlieren an Ruf/Bedeutung. Es gibt viele schlechte Youtube-Reviews, aber eben auch welche die sich mit langjähriger Qualität und Sachlichkeit ein Vertrauen erarbeitet haben.
Ob CPU-Tests in 720p oder 4K...am Ende entscheidet der Leser ob die gezeigte Leistung benötigt wird....aber nur im CPU-Limit kann der Leser auch eine fundierte Entscheidung treffen.
Dafür sind Reviews nicht gemacht und auch nicht geeignet.
Die Benchmarks zeigen vor allem Unterschiede zwischen den Testkandidaten und nur grob die absoluten FPS je Spiel.
In den meisten Spielen variieren die FPS stark je nach Spielsituation und natürlich je nach Grafikeinstellungen.
Die Tests in Ultra zu machen ist gut für eine Vergleichbarkeit und den Extremfall, aber selten "optikeffizient". Es ist viel sinnvoller die Grafiksettings zu optimieren und nicht plump auf Ultra zu lassen.
Reviews zeigen die Leistungsunterschiede und hoffentlich ein breites Spektrum, so dass der Leser eine ähnliche CPU wie seine eigene findet und sehen kann wie viel Prozent Mehrleistung er ungefähr erwarten kann....sofern er dann nicht im GPU Limit ist, aber das muss der Leser selbst testen oder aus GPU-Reviews abschätzen.
Die Benchmarks zeigen vor allem Unterschiede zwischen den Testkandidaten und nur grob die absoluten FPS je Spiel.
In den meisten Spielen variieren die FPS stark je nach Spielsituation und natürlich je nach Grafikeinstellungen.
Die Tests in Ultra zu machen ist gut für eine Vergleichbarkeit und den Extremfall, aber selten "optikeffizient". Es ist viel sinnvoller die Grafiksettings zu optimieren und nicht plump auf Ultra zu lassen.
Reviews zeigen die Leistungsunterschiede und hoffentlich ein breites Spektrum, so dass der Leser eine ähnliche CPU wie seine eigene findet und sehen kann wie viel Prozent Mehrleistung er ungefähr erwarten kann....sofern er dann nicht im GPU Limit ist, aber das muss der Leser selbst testen oder aus GPU-Reviews abschätzen.
Baal Netbeck schrieb:
Die rot markierten Bereiche sind Beispiele in denen es nur sehr geringe Unterschiede zwischen den drei Auflösungen gibt.
Hier ist das Spiel also auch noch in der 4K Auflösung im CPU Limit. Der rechte rote Kreis zeigt zwar minimal schlechtere FPS für die 4K Auflösung in Blau aber hauptsächlich sehe ich hier ein CPU Limit.
Die lila markierten Bereiche sind eindeutig GPU limitiert und es gibt große Unterschiede in den FPS.
Der rechte Bereich erreicht in 4K ca. 53 FPS.
In 1440p dann 82 und in 1080p fast 100 FPS.
Der orange Bereich links im Bild zeigt zwar deutlich niedrigere FPS für 4K aber 1440p und 1080p liegen gleichauf, was dafür spricht, dass hier ein Wechsel von einem GPU in ein CPU Limit stattfindet.
Es zeigt sich an diesem Beispiel, dass die Szenen, in denen die FPS stark absinken, das Spiel mit einer mittelklasse Grafikkarte weiterhin im CPU Limit sein kann. Auch mit einer 4K Auflösung.
Bitte bleibt sachlich und freundlich! Es ist in Ordnung wenn Leute zu unterschiedlichen Schlussfolgerungen kommen.
Ich bitte jedoch darum eure Punkte möglichst mit Belegen zu untermauern und nicht einfach irgendwas zu behaupten.
Zuletzt bearbeitet: