Diskussion zu 4k CPU-Spiele-Benchmarks und verwandten Themen

Baal Netbeck

Fleet Admiral
Registriert
Apr. 2008
Beiträge
12.474

Diskussion zu 720/1080p vs. 4k CPU-Spiele-Benchmarks und verwandten Themen​


Auch wenn das Thema die Leute mit festgefahrener Meinung nicht umstimmen wird, würde ich gerne diese Diskussion um das Thema der 720/1080p vs. 4k CPU Benchmarks nochmal anstoßen.


Anlass ist ein neues Video von HardWare unboxed, dass sich mit aktuellen Benchmarks der Sache annimmt.
HWunboxed ist eine der wenigen review Quellen, denen ich vertraue überwiegend zuverlässige CPU-Spiele-Benchmarks zu erstellen. Gamer Nexus wäre noch besser aber die testen nicht so viele verschiedene Spiele und Einstellungen. Vereinzelt erkenne ich auch andere Quellen an, aber da gibt es weniger Vertrauensvorschuss von meiner Seite aus.


Die Diskussion startet ja unter jedem neuen CPU Test von CB in den Kommentaren aufs neue und vermischt sich dort mit den anderen Kommentaren.

Daher würde ich hier gerne eine gesonderte Diskussion starten, auf die man verweisen kann und die die Vor und Nachteile zusammenfasst. Vor allem für Neulinge die noch nicht fundamentalistisch die Scheuklappen angelegt haben und eine Verschwörung wittern. ;)

Ich würde mit einer Liste an Punkten und ihren Begründungen für CPU-Spiele-Benchmarks in niedrigen Auflösungen starten und dann eine Liste mit typischer Kritik weitermachen und diese aus meiner Sicht kommentieren.

Gerne ergänze ich den Startpost dann mit neuen Punkten oder besseren Begründungen aus der entstehenden Diskussion.

Gründe für CPU-Spiele-Benchmarks in niedrigen Auflösungen mit High-End-GPU​

Die niedrige Auflösung in Verbindung mit einer möglichst schnellen Grafikkarte zeigen grob was die verschiedenen CPUs an FPS je Spiel schaffen können und der Leser kann dem Review entnehmen, ab welcher CPU die für ihn akzeptablen FPS/Frametimes ungefähr erreicht werden.

Auch wenn die Lieblingsspiele des Nutzers nicht im Testparcour enthalten sind oder erst noch erscheinen werden, gibt der Durchschnitt des Testparcour eine Antwort auf die prozentualen Unterschiede im CPU Limit.

Jede Messung die wegen einer zu hohen Auflösung im GPU-Limit entsteht, schmälert den durchschnittlichen Unterschied und zeigt weniger was der Nutzer im CPU Limit erwarten kann.

Wichtig ist, dass möglichst gut die wahren prozentualen Unterschiede ermittelt werden.
Sobald die Grafikkarte stark genug ist, um ein CPU Limit zu garantieren, sind die Ergebnisse unverfälscht.

Natürlich beantwortet das nicht die Frage, ob der Leser mit seiner speziellen Grafikkarte, Auflösung und Einstellungen dann auch im CPU Limit sein wird, oder ob seine FPS durch die Grafikkarte eingebremst werden.

Hier muss der Leser zwangsweise seine Gehirngänge zu einer kleine Transferleistung nötigen:

"Er muss sehen welche FPS er im Moment in welchem Limit erreicht oder was er laut CPU/GPU Tests ungefähr erwarten kann. Dann muss er noch realisieren, welche FPS ihm als Minimum ausreichen."

Jeder hätte gerne die simple Antwort, wo er Spiel, Auflösung, GPU und CPU angibt und eine allgemeingültige Antwort bekommt, was für ein Limit vorliegt und was aufgerüstet werden sollte.

Aber das ist leider nicht realistisch machbar....schier unendlich viele Kombinationsmöglichkeiten und unterschiedliches Verhalten je nach Spielsituation verhindern dies.
Das HWunboxed Video gibt uns hier gute Daten an die Hand. Ab Minute 29 werden ältere Benchmarks aus 2022 gezeigt.
Mit dem 16 Kerner Ryzen 3950X, dem 8 Kerner 5800X und dem niedriger taktenden, aber mit dreifachem L3 Cache ausgestatteten, 5800X3D sehen wir eine sinnvolle Auswahl, die sowohl mehr Kerne als auch AMDs "Gaming-Cache" beleuchtet.
Die damals beste GPU in Form der 3090 Ti läuft hier trotz Upscaling in 4 K in ein GPU Limit. Der 3950X liegt in den drei beleuchteten Spielen zwar minimal zurück, was jedoch nicht ungewöhnlich ist. Auch wenn man zu 99% im GPU Limit ist, kann es eben doch minimale Einflüsse durch die CPU geben. Ob 95 oder 97 FPS wird vermutlich niemand unterscheiden können.

In 1080p Ultra kann sich der X3D vom 16 Kerner wie folgt absetzen:
WatchDogs:Legion: 36,5 %
SotTR: 42%
Horizon Zero Dawn: 23%

Und vom 5800X kann sich der X3D wie folgt ansetzen:
WatchDogs:Legion 21 %
SotTR: 13%
Horizon Zero Dawn: 10,5%

Mit Spielen aus 2023/2024(weiterhin 1080p Ultra) und nun mit einer RTX 4090 fallen die Unterschiede nicht geringer aus:
Vorsprung auf 16 Kerne:
Starfield: 41%
Warhammer4K:SpaceMarines: 50%
SW:Jedi Survivor: 57%

Vorsprung auf 5800X:
Starfield: 19%
Warhammer4K:SpaceMarines: 26%
SW:Jedi Survivor: 45,5%

Besonders interessant ist der Vergleich in 4K mit Upscaling, der in den 3 Spielen in 2022 noch völlig GPU limitiert war.
Nun ist der Unterschied zwischen 16 Kerner und X3D bei:
Starfield: 37%
Warhammer4K:SpaceMarines: 46%
SW:Jedi Survivor: 49%

Meine Interpretation der Daten:
Wer 2022 ein CPU Review mit 4K(Upscaled) angeguckt hat, der war(bezogen auf diese Spieleauswahl) sogar mit einer 3090 Ti völlig im GPU Limit.
In 1080p lag der Vorsprung des X3D hingegen bei durchschnittlich 33%.
1-2 Jahre später und nun mit RTX 4090 ist der Vorsprung sogar mit 4K(Upscaled) auf 44% gestiegen.

Der Vorsprung, den die Daten aus 2022 in 1080p gezeigt haben, wurden durch neuere Spiele und eine noch schnellere Grafikkarte sogar in 4K ausgebaut..... Die 1080p Daten waren also ein sinnvoller Blick in die 4K Zukunft und die 4K Messungen waren nutzlos.

Wer sich 2022 gegen den X3D Chip entschieden hat, da er in 4K im GPU Limit war, kann dann in der Zukunft auf einem niedrigeren FPS-Level CPU limitiert sein. Abhängig von den neuen Spielen und neuen GPUs.
Von @Mimir
Das ist eigentlich die Kernaussage und das allerwichtigste, was man hier begreifen muss.

Mimir schrieb:
Denn der Punkt ist, dass jeder mit ner anderen Framerate spielt.
Der eine spielt vielleicht mit 50 FPS in 4K mit einer 4090.
Wieder ein anderer spielt mit einer 4070 mit 90-120 FPS in 4K, weil er etwas niedrigere Grafiksetting und Upscaling via DLSS nutzt. Die Auflösung spielt da keine Rolle, nur die Framerate die man erreichen will oder kann.......
Diesen Punkt hatte ich nicht klar genug beschrieben.
In gewissen Grenzen kann man die Last der Grafikkarte enorm senken wenn einem die FPS nicht für den eigenen Anspruch ausreichen.
Auch mit 4K Display kann man die Auflösung senken(oder agressives upscaling verwenden)
Einige Grafikoptionen entlasten auch die CPU, aber meist entlasten sie stärker die GPU.

Man kann also fast immer ein Spiel soweit runter stellen, bis jede halbwegs aktuelle Grafikkarte die Wunsch-FPS erreicht.

Das gleiche funktioniert bei CPUs nur bedingt und auch deutlich abgesenkte Optionen haben weniger Potential die Wunsch-FPS zu erreichen.

Eine 720/1080p-CPU-Review hilft einem also eine CPU zu finden, die in den gewünschten Spielen die Wunsch-FPS erreicht.
Reichen dir 60FPS in Story Spielen? Gut...du kannst bei der CPU sparen.
Du brauchst 60 FPS auch in Strategie/Simulationsspielen...das kann schwerer/unmöglich werden
Du willst mindestens 120 FPS in Story Spielen?
Du brauchst 600 FPS in CS?

Dein Anspruch an die Wunsch-FPS zählt...die Auflösung ist Sache der Grafikakrte und damit ein anderes Thema.

Oft geäußerte Kritik an bestehenden Benchmarks​

Das habe ich im Forum öfter gelesen, und es klingt auch erstmal einleuchtend.
Software entwickelt sich weiter und die Nutzer haben im Schnitt immer mehr Kerne. Da erscheint es logisch, dass es in 4K Auflösung besser wäre die 1080p Messungen zu ignorieren und auf mehr Kerne für die Zukunft zu setzen.

Meine Gedanken dazu:
Ohne Glaskugel kann ich nicht ausschließen, dass es bald den großen Durchbruch in der Variablenverwaltung geben wird und es plötzlich möglich werden wird, dass Spiele sinnvoll von vielen Kernen profitieren können.

Der Blick in die Vergangenheit und mein beschränktes Wissen zur Programmierung von Spielen sagt aber nein.

Seit 2014 haben die Konsolen in Form der Playstation 4 und XBox One, 8 Kern CPUs. Wenn gleich das eher 4 Kern/8 Thread CPUs sind.
Seid 2017 konnten und haben Spieler sich günstige 6 und 8 Kerner gekauft.
Seid 2020 haben Playstation 5 und XBox Series echte 8 Kerne und 16 Threads. Und seit 2019 gab es mit dem 3900X und 3950X, 12 und 16 Kerne im Consumer Bereich zu erschwinglichen Preisen zu kaufen.
Die Hardware und die Verbreitung von mehr als 4 Kernen ist also schon lange geben und trotzdem ist schon der Nutzen von mehr als 6 Kernen selten und gering.

Auch hier gibt es ein halbwegs aktuelles Video von HWunboxed:
Sehr interessant ist hier der Vergleich von AMDs 3600 zu 3700X und Intels 9600K zu 9900K.
Auf AMDs Seite haben 6 und 8 Kerne im Alltag sehr ähnlichen Boost Takt und den gleichen 2x16MB L3 Cache.
Bei Intel gibt es ca 400MHz Vorteil für den 9900K und 16 statt 9 MB L3 Cache.

Das Video startet mit Assassins Creed, wo 33% mehr Kerne bei AMD immerhin 12% mehr FPS bringen. Der Intel 8 Kerner ist ähnlich schnell wie AMD aber der Intel 6 Kerner leidet deutlich an weniger Takt und Cache.
Der 5800X3D schlägt den 3700X mit massiven 63% mehr FPS.

CyberPunk 2077 folgt und hier ist der Unterschied von 6 zu 8 Kernen bei AMD fast nicht vorhanden. Bei Intel schon, da sich hier auch Takt und L3 Cache deutlich unterscheiden.

..und so setzen sich die Ergebnisse fort...mal kaum Unterschied und mal 5-12%...
WatchDogs:Legion hat als einziges Spiel deutlich von 8 Kernen profitiert und lief mit dem 3700X 40% schneller. Aber selbst hier ist der 5800X3D mit 69% Vorsprung durch IPC und Cache weiter entfernt... ohne noch mehr Kerne zu bieten.

Und die Daten aus dem aktuellen Video mit 3950X vs 5800X und 7700X vs. Core Ultra 285K zeigen, dass deutlich mehr als 8 Kerne in keinem Spiel einen signifikanten Vorteil erzielen....auch in WD:Legion ist der 3850X mit 16 Kernen der neueren Architektur mit 8 Kernen unterlegen.

Zeigt mir gerne ein Spiel, dass deutlich von mehr Kernen profitiert, aber es scheint schon selten zu sein, dass 8 Kerne gegenüber 6 Kernen einen deutlichen Vorteil bringen...und noch mehr bringt fast nichts.

Die Vorteile durch andere Einflüsse wie Takt, IPC, Cache, Core to core Latenzen und RAM Latenzen scheinen viel wichtiger für die Leistung in Spielen zu sein.

In meinem großen Anno 1800 Benchmarkprojekt habe ich z.B. bei festem Takt mit meinem 3950X die Abhängigkeit von den Kernen getestet und es gab zwar leichte Verbesserungen von 4 bis auf 16 Kerne, aber lächerlich wenig im Vergleich zu anderen Einflüssen.
Von 4 auf 6 Kerne 5%
6 auf 8: 2%
8 auf 12: 1,6%
12 auf 16: 0,8%
...von 6 auf 16 Kerne: 4,5%
Aber mit 8 Kernen von Zen 2 auf Zen 3 zu wechseln bei gleichem Takt, Ram usw. bringt 10,7%.
Von 3200er RAM auf 3733 MT/s bringt 8%.
Die Grafikeinstellungen etwas zu optimieren ohne spürbare optische Einbußen bringt 18%.

Ist jetzt nur ein Spiel, das scheinbar wenig auf Kerne reagiert, aber ich habe sonst keine Daten mit festem Takt und guter Reproduzierbarkeit.
Das einzige Spiel, dass mir einfällt, dass viele Kerne verschlingen kann ist TW:Troy ...und da auch nur wenn man die Schatten auf Ultra stellt, da wird die CPU wohl mit irgendeiner gut parallelisierbaren übertriebenen Aufgabe konfrontiert. Optisch sehe ich zwischen Hoch und Ultra keinen Unterschied, aber plötzlich mutiert das Spiel von 4-5 nutzbaren Kernen zu 16 nutzbaren Kernen.
Das würde ich aber eher als Bug, denn als revolutionäre Multithread-Programmierung sehen.

Fazit zum Multitheading:
Es gab in den letzten 10 Jahren mit weit verbreiteten 8 Kernen eine Weiterentwicklung, die irgendwo zwischen sinnvollen 6 bis 8 Kernen stecken geblieben ist.
Ich sehe keine Anzeichen, dass sich das allzu bald ändern wird und dass eine CPU mit mehr als 8 Kernen einen aktuell schnelleren 8 Kerner in Spielen je überholen wird.
Wer zu den ganz ganz wenigen "Content Creatorn" gehört, die damit Geld verdienen zeitkritisch Videos zu veröffentlichen und auf dem gleichen Rechner Spielen und Rendern....ja von mir aus dann nimm mehr Kerne.
Sonst würde ich keinen Aufpreis für mehr als 8 Kerne zahlen und bei engem Budget auch auf 6 Kerne runter gehen.

Zurück zum Thema:
Die Spiele Benchmarks von heute in 1080p zeigen höchstwahrscheinlich auch die Abstände wie sie in einigen Jahren in neueren Spielen gegeben sein werden. Es ist aus meiner Sicht falsch, die jetzigen Tests als "nicht zukunftssicher" zu beschreiben, da sich die Abstände erfahrungsgemäß eher vergrößern und mehr Kerne nicht im gleichen Maße an Bedeutung gewinnen(siehe HWunboxed Video 1).
Man könnte annehmen, dass Spiele in höheren Auflösungen, wo man mehr Details sieht, auch mehr Arbeit für die CPU bedeuten, oder das spezielle "4K Texturen" verwendet werden, die mehr Speicher belegen oder schwieriger zu berechnen sind.

Ich würde gerne pauschal schreiben, dass das Blödsinn ist, aber es ist eben nur zu 99% Blödsinn.

Die Qualitätsstufe und das Streaming Verhalten werden von Textur-Optionen vorgegeben..Es mag aber Entwickler geben, die das anders handhaben und unterschiedliche Texturen und Meshes für verschiedene Auflösungsstufen benutzen.
Meiner Erfahrung nach ändert sich die RAM Belegung nicht mit der Auflösung und auch die VRAM Belegung ändert sich nur minimal, da das zwischenspeichern der 4K Frames etwas mehr Platz benötigt.
Es gibt aber Testberichte, die je nach Spiel auch große Unterschiede im reservierten VRAM zeigen.
Größere Dateien könnten theoretisch auch eher Bandbreiten auslasten, was eventuell dann einen Einfluss auf die CPU haben könnte. Ich würde vermuten, dass dies keinen nennenswertte Auswirkungen hat, aber ausschließen kann ich es nicht.

Die Auflösung hat eigentlich auch keinen Einfluss auf die Drawcalls der CPU. Mit den Drawcalls sagt die CPU der GPU, was sie wo/wie rendern soll. Mit welcher Abtastrate die GPU das dann rendert, macht der CPU nicht mehr/weniger Arbeit.

Aber es gibt Beispiele, wo die Auflösung doch einen Einfluss im CPU Limit hat. Bei manchen Tests unterstelle ich eher schlechte Reproduzierbarkeit, aber echte Unterschiede gibt es wohl in Crysis remastered, The Talos Principle und Cities Skylines.
Auch sieht man in den meisten Spielen die bis 4K CPU limitiert sind einen minimalen Einfluss durch die Auflösung. Das erkläre ich mir jedoch genauso wie die minimalen Unterschiede verschiedener CPUs im GPU Limit. Da ist die Testszene nicht 100% der Zeit im gleichen Limit und so kommt ein kleiner Einfluss mit ins Ergebnis.

Wo es deutliche Unterschiede gibt, hat der Entwickler eventuell doch Detailsstufen an die Auflösung gekoppelt oder Sichtweiten oder die Anzahl an Objekten. Ein normales Verhalten ist das nicht und der Einfluss scheint auch unter 20% zu liegen selbst wenn extreme Unterschiede wie 720p auf 4K verglichen werden.
Pauschal für Blödsinn erklären kann man die Aussage also nicht, aber es hat soweit ich das sehen kann keinen Einfluss auf die Reihenfolge der CPUs und sollte die Kaufentscheidung nicht signifikant beeinflussen.

Man kann es aber durchaus als Anlass nehmen vor dem Aufnehmen in eine Testauswahl auf dieses Verhalten zu prüfen und eher hohe Auflösungen zu nehmen, solange trotzdem alle Testkandidaten im CPU Limit bleiben.

Grundsätzlich sehe ich aber keinen Grund für hohe Auflösungen...die Gefahr in ein GPU Limit zu kommen ist größer als die Wahrscheinlichkeit auf ein Spiel zu treffen, dass sich ungewöhnlich verhält.
Weil die Auflösung zu 99% nur die GPU beeinflusst und die Settings zwar überwiegend die GPU entlasten, aber auch auf die CPU-FPS einen Einfluss haben.

Verschiedene Grafiksettings zu testen ist gar nicht uninteressant, da sich viele Optionen auch auf die CPU-Drawcalls auswirken.
Sichtweiten und Einstellungen für NPC und Vegetationsdichten verändern die Anzahl an Objekten die die CPU der GPU über die Drawcalls mitteilen muss. Weniger NPCs bedeuten auch tendenziell weniger Wegfindung, wobei das meiner Erfahrung nach wenig ausmacht.
Die Berechnung von Schatten belastet je nach Spiel mehr oder weniger die CPU.
Die Objektdetails ändern meist die Anzahl der Polygone und damit auch die Drawcalls.
Raytracing kann ebenfalls einen deutlichen Einfluss auf die CPU Last haben.
DLSS/FSR haben meiner Erfahrung nach einen kleinen Einfluss im CPU Limit, aber entscheidend ist das nicht.

Nvidias Framegeneration belastet in einigen Spielen(z.B. CP2077) Auflösungsabhängig die CPU und kann in 4K schnell zu einem CPU Limit führen. Das ist höchstwahrscheinlich ein Bug, es sollte aber beachtet und vermieden werden.
Grafikoptionen wie Nachbearbeitung, Anti Aliasing, Anisotropische Filterung, Flimmereffekte, Bloom, Tesselation, Tiefenschärfe, Motion Blur usw. sind meist ohne Einfluss auf die CPU und können für einen CPU Test deaktiviert werden um die GPU zu entlasten.

Ich bin also durchaus offen für eine Diskussion zu geänderten Grafiksettings in CPU-limitierten Spielen, aber für ein Review zu diversen CPUs in vielen Spielen ist es notwendig sich auf einen Satz an Settings zu beschränken.
Die meisten Reviews benutzen Ultra Settings, da sie so den Worst Case für die CPU Last abdecken und senken die Settings eventuell für Multiplayer Spiele wie Counter Strike/Fortnite usw.

Unterschiedliche Settings sind für spezielle Reviews zu einzelnen Spielen durchaus interessant und werden ja auch oft gemacht.
Leider selten in CPU und GPU limitiert aufgeteilt.
Die meisten erfahrenen Hardware Tester nutzen unterschiedliche Szenen, je nachdem welche Hardware sie vergleichen wollen.
Nicht alle, aber sie sollten es tun. ;)
Die genutzte Testszene hat meist einen riesigen Einfluss auf die Ergebnisse und ob die FPS durch die CPU oder die GPU limitiert sind.
Oft ist z.B. ein Szene mit viel Vegetation und Licht/Schatten Effekten eher GPU intensiv.
Eine Szene in einer Stadt mit vielen NPCs, ist einerseits wegen den zusätzlichen NPCs CPU intensiv, aber auch weil es in/hinter Gebäuden oft viele Objekte gibt, die die CPU handeln muss, die dann aber von der GPU in der Renderpipeline verworfen werden, da sie eh verdeckt sind. Beides verschiebt die Last eher Richtung CPU.
Aber auch Außenareale können die CPU hoch belasten, wenn sich der Spieler schnell fortbewegt und die Welt konstant/schnell nachgelanden werden muss.

Daher ergibt es aus meiner Sicht Sinn, wenn man die CPUs in Szenen testet, in denen die FPS aufgrund von hoher CPU Last besonders niedrig fallen und die GPUs in Szenen testet, wo sie aufgrund von hoher GPU Last besonders niedrig fallen.

Ich sehe durchaus den Konflikt mit der oft getätigten Anweisung, man sollte zu einem Spiel die CPU-Reviews und die GPU-Reviews angucken um zu sehen, ob man wohl im CPU oder GPU Limit unterwegs sein wird.
Das kann einem keiner seriös vorhersagen, aber wenn die Reviews sich auf entsprechend anspruchsvolle Szenen und Einstellungen konzentrieren, kann man erwarten, dass man überwiegend bessere Leistung erwarten kann als das gezeigte.
Sofern man sich die Hardware nicht ausschließlich für ein spezielles Spiel kauft, sind aus meiner Sicht die prozentualen Unterschiede interessanter als die absoluten FPS.
Ja, das ist etwas das man durchaus beachten muss. Ob jetzt ein gesetztes FPS Limit oder eine Beschränkung weil die eigene Grafikkarte schwächer oder die Auflösung höher ist.... In vielen Fällen werden die gezeigten Unterschiede in realen Situationen nicht erreicht.

Doch ein Review ist für die Allgemeinheit und da will auch jemand seinen 240Hz Monitor auslasten, oder sich für zukünftige Spiele/Grafikkarten rüsten. Die Entscheidung ob das für einen selbst wirklich nötig ist, kann einem ein Review nicht abnehmen.

Mehr Spiele zu testen, in denen die Nutzer auch kritisch niedrig im CPU Limit sind, halte ich auch für sinnvoller als das X-te 3rd Person Spiel. Leider sind diese(meist Strategie/Simulation Spiele) oft schwerer zu testen und schlechter reproduzierbar.
Und wenn man sich die Spielerzahlen anguckt sind manche Spiele einfach für eine größere Leserschaft interessant als andere...das müssen die Tester auch irgendwie berücksichtigen.
Wegen der beschränkten Zeit/Ressourcen die für Reviews gegeben ist.
Mehr Daten sind nett, aber Zeit und Ressourcen sind nicht unendlich vorhanden. Irgendwo muss priorisiert werden, was sinnvoll ist und was nicht.
Und abseits von Videos wie das von HWunboxed, ist es nicht sinnvoll zusätzlich in 4Kzu testen. Denn wo fängt man an und wo hört man auf?
4K mit einer RTX4090 ist auch nur für die wenigen Leser relevant, die eine 4090 besitzen und diese in nativen 4K nutzen. Viele mit 4K Monitor werden wohl eher DLSS nutzen...und vor allem werden sie keine 4090 besitzen...und vermutlich haben sie auch nicht alle Einstellungen auf Ultra...und sie spielen nicht die exakt gleichen Spiele...usw. Es kann nicht jede Kombi getestet werden!

Am Ende muss trotzdem jeder seine eigene Abschätzung machen, wie viel CPU und wie viel GPU Leistung in der individuellen Situation gebraucht wird und da sind die prozentualen Unterschiede, im entsprechenden Limit, der beste Ausgangspunkt.
Wer einmal an Verschwörungen glaubt, den kann man vermutlich eh nicht retten.
Aber ich kann ja trotzdem ein paar Gegenargumente formulieren.

Nicht jedes Review ist positiv und rät zum Kauf einer neuen CPU....Ryzen 9000 Launch...Intel Arrow Lake Launch sind aktuelle Beispiele wo fast jedes Review von Enttäuschung geprägt war...der 9800X3D ist überwiegend positiv aufgenommen worden aber eben auch begründet und nicht aufgrund einer groß angelegten Verschwörung.

Wenn Reviews nicht unabhängig berichten und reine Werbeveranstaltungen sind, wird das von den Käufern schnelle entlarvt und die entsprechenden Quellen verlieren an Ruf/Bedeutung. Es gibt viele schlechte Youtube-Reviews, aber eben auch welche die sich mit langjähriger Qualität und Sachlichkeit ein Vertrauen erarbeitet haben.

Ob CPU-Tests in 720p oder 4K...am Ende entscheidet der Leser ob die gezeigte Leistung benötigt wird....aber nur im CPU-Limit kann der Leser auch eine fundierte Entscheidung treffen.
Dafür sind Reviews nicht gemacht und auch nicht geeignet.
Die Benchmarks zeigen vor allem Unterschiede zwischen den Testkandidaten und nur grob die absoluten FPS je Spiel.
In den meisten Spielen variieren die FPS stark je nach Spielsituation und natürlich je nach Grafikeinstellungen.
Die Tests in Ultra zu machen ist gut für eine Vergleichbarkeit und den Extremfall, aber selten "optikeffizient". Es ist viel sinnvoller die Grafiksettings zu optimieren und nicht plump auf Ultra zu lassen.

Reviews zeigen die Leistungsunterschiede und hoffentlich ein breites Spektrum, so dass der Leser eine ähnliche CPU wie seine eigene findet und sehen kann wie viel Prozent Mehrleistung er ungefähr erwarten kann....sofern er dann nicht im GPU Limit ist, aber das muss der Leser selbst testen oder aus GPU-Reviews abschätzen.
Um nochmal den Punkt von wechselnden Anforderungen jenach Spielszene zu verdeutlichen...hier ein Beispiel aus meinem Anno Benchmark, wo ich drei verschiedene Auflösungen getestet habe und der Testablauf in unterschiedlichen Situationen CPU oder GPU limitiert ist.
Baal Netbeck schrieb:
auflösungsvergleich-bearbeitet.PNG

Die rot markierten Bereiche sind Beispiele in denen es nur sehr geringe Unterschiede zwischen den drei Auflösungen gibt.
Hier ist das Spiel also auch noch in der 4K Auflösung im CPU Limit. Der rechte rote Kreis zeigt zwar minimal schlechtere FPS für die 4K Auflösung in Blau aber hauptsächlich sehe ich hier ein CPU Limit.

Die lila markierten Bereiche sind eindeutig GPU limitiert und es gibt große Unterschiede in den FPS.
Der rechte Bereich erreicht in 4K ca. 53 FPS.
In 1440p dann 82 und in 1080p fast 100 FPS.

Der orange Bereich links im Bild zeigt zwar deutlich niedrigere FPS für 4K aber 1440p und 1080p liegen gleichauf, was dafür spricht, dass hier ein Wechsel von einem GPU in ein CPU Limit stattfindet.

Es zeigt sich an diesem Beispiel, dass die Szenen, in denen die FPS stark absinken, das Spiel mit einer mittelklasse Grafikkarte weiterhin im CPU Limit sein kann. Auch mit einer 4K Auflösung.

Bitte bleibt sachlich und freundlich! Es ist in Ordnung wenn Leute zu unterschiedlichen Schlussfolgerungen kommen.​

Ich bitte jedoch darum eure Punkte möglichst mit Belegen zu untermauern und nicht einfach irgendwas zu behaupten.​

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut, Veitograf, Quidproquo77 und 25 andere
Wow, Respekt für den tollen Beitrag! In Zukunft werde ich diesen Thread jedes Mal verlinken wenn sich jemand über CPU-Tests in 720p/1080p beschwert :schluck:
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Um ehrlich zu sein, habe ich nie die Notwendigkeit gesehen, da ganz tief einzusteigen.

Warum? Weil es auf die Gepflogenheiten desjenigen ankommt, der etwas kaufen will. Will er denn in 4K Story-Games zocken oder bei 400+ FPS irgendwelche Fortnite-artigen Shooter. Dabei können die 720p Tests gut auskunft geben.

Dann: Wie oft wird aufgerüstet? Oder ist es okay, erstmal ne kleine CPU ins AM5-System zu schmeißen und irgendwann nochmal nachzulegen?

Diese 720p-Tests sind ein Anhaltspunkt, was theoretisch möglich ist. Und entweder braucht man das dann oder nicht.
 
  • Gefällt mir
Reaktionen: Ja_Ge und bibler
Oft wird behauptet, wie unrealistisch es ist eine RTX 4090 in 720p zu testen.
Aber ist es realistisch überhaupt eine 2000€ GPU zu haben? Wäre es nicht am realistischsten mit einer 4070 in WQHD bei 60Hz Vsync zu testen?
Dann schaut halt bis auf die Leistungsaufnahme jede CPU gleich aus, wäre aber doch rEaListiScH!!11! oder?
 
djducky schrieb:
Diese 720p-Tests sind ein Anhaltspunkt, was theoretisch möglich ist. Und entweder braucht man das dann oder nicht.
Und diese Einschätzung kann einem das Review nicht abnehmen.

Es gibt einem die nötigen Benchmark Daten die man dazu braucht.
vll schrieb:
Dann schaut halt bis auf die Leistungsaufnahme jede CPU gleich aus, wäre aber doch rEaListiScH!!11! oder?
Naja 60Hz V-sync nutzt hoffentlich kaum noch jemand, aber als Leistungsaufnahme Test ist das durchaus ein interessanter Vergleich.

Nur sinnlos um die Leistung zu vergleichen.
 
Baal Netbeck schrieb:
Und diese Einschätzung kann einem das Review nicht abnehmen.
Das ist richtig, genau dafür gibt es dann ja Kaufberatungsforen wie hier. Da muss man eben ein wenig vergleichen.
Insgesamt muss einfach nur verstanden werden, was ein CPU- und was ein GPU-Limit ist - und wie diese zustande kommen. Dann muss man die Frage, worin mehr oder weniger investiert werden soll, auf seine Gewohnheiten zuschneiden.

Es sollte klar sein, dass ich mit nem Ryzen 7700 und einer 4070 idR mehr habe, als mit nem 9800X3D und ner 4060. Und dennoch wäre der 9800X3D für MSFS24 und gewisse Online-Shooter eine gute Wahl, sofern man dann nicht bei der GPU knausern muss.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Vielen Dank für die mal wieder tolle Arbeit. Komplex ausgearbeitete Hinweise werden leider in der Regel übergangen. Ob in der Diskussion zu News und Tests, oder bei der Kaufberatung. Es kommt wenig bis kein Feedback, oder Anleitungen und Erklärvideos werden ignoriert.

Die Frage nach "dem Limit" wird seit Jahren täglich gestellt. Einige Kaufinteressenten haben den Eindruck, ihr Problem und ihr System seien einzigartig. Sie sind es nicht: Es sind völlig gängige, 1000-fach verkaufte Systeme mit Standardteilen. Jeder hat dieses Problem.
Zudem hilft es wenig, dass sich obendrein die Berater untereinander nicht immer einig sind in ihrer Sichtweise.


Als insbesondere schlimm empfinde ich diese Hektik und Ungeduld, die mittlerweile herrscht. Man braucht nicht alle Schritte eines Upgrades gleichzeitig zu gehen. Zum Beispiel erst CPU. Oder erst GPU. Dann mal in Ruhe schauen. Das System überhaupt erst mal korrekt einrichten, etc. (oder warten, bis ein Spiel auf dem Markt ist)
Eine Person, die 10 Jahre nicht aufgerüstet hat, braucht auch keine ausufernde Fachdiskussion (i.e. Grabenkrieg) über die letzten zu hebenden 2,5% mit irgendwelchem OC, Nischenbenchmark oder ähnlichem.

Ich persönlich komme bei dem Thema an einen Punkt, wo ich nicht mehr unterscheiden kann zwischen Häme, Trollerei, Sarkasmus, oder genervter Ironie. Mitunter liest man wirklich schräge Aussagen von Leuten, deren Meinung sonst etabliert ist und/oder die Jahrzehnte mit dabei sind.


Übrigens, ja, man kann Leistung auf Vorrat kaufen. Die aufgewendeten Ressourcen für eine Grafikkarte oder CPU sind nicht unendlich. Die Sucht nach Rational Choice ist manchmal einfach mächtiger als Augenmaß.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
  • Gefällt mir
Reaktionen: Baal Netbeck
xxMuahdibxx schrieb:
Hier schön zu sehen das je größer die Auflösung desto weniger Abstand auch wenn nur bis wqhd
Das zeigt ein Grafikkartenlimit, welches mit einer besseren Grafikkarte oder anderen Settings schon wieder völlig anders ausschauen kann. Weswegen es ja die 720p Tests gibt, um verschiedene Komponenten möglichst voneinander getrennt zu testen.

720p mag nicht die einzige Methode sein. Es mag nicht die beste Methode sein, aber sie ist halbwegs leistbar in Manpower pro Zeiteinheit. So gestalten sich NDA-Tests leider nun einmal.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zwirbelkatz schrieb:
Das zeigt ein Grafikkartenlimit, welches mit einer besseren Grafikkarte oder anderen Settings schon wieder völlig anders ausschauen kann.
Jup

Getestet mit 4090...

Viele können ja Regler nicht bedienen... Einfach nur dick und durstig und gut ist.
 
Super beitrag. Du hast eigentlich alles dazu angesprochen und sauber strukturiert.
Ich wills auch nochmal gerne in eigene Worte fassen, auch wenn ich vieles wiederholen werde.

Ich finde, viele verstehen leider nicht, dass das CPU limit nichts mit der Auflösung, sondern mit der Framerate zu tun hat. Das ist eigentlich die Kernaussage und das allerwichtigste, was man hier begreifen muss.

Denn der Punkt ist, dass jeder mit ner anderen Framerate spielt.
Der eine spielt vielleicht mit 50 FPS in 4K mit einer 4090.
Wieder ein anderer spielt mit einer 4070 mit 90-120 FPS in 4K, weil er etwas niedrigere Grafiksetting und Upscaling via DLSS nutzt. Die Auflösung spielt da keine Rolle, nur die Framerate die man erreichen will oder kann.

Da die Framerate über die Grafiksettings (und somit die GPU Last) nahezu beiliebig vom Spieler eingestellt werden kann ist es IMMER wichtig zu wissen, wie viele FPS eine CPU in einem Spiel schafft, damit der Spieler eben weiß, wo das Limit wäre. Denn das CPU limit ist eben eine gewisse Framerate ab der die CPU einfach nicht mehr FPS in der Testszene schafft. Mehr FPS sind dann eben einfach nicht möglich. Selbst durch reduzieren der Auflösung oder Grafiksettings kann man die Framerate in aller Regel nicht weiter steigern, wenn man das CPU limit erreicht hat.

Hab ich eine CPU, die in einem Spiel in der Testszene 80 FPS schafft, dann ist die CPU für jemanden der die Grafik so einstellt, dass 60 FPS erreicht werden, ausreichend, eine noch schnellere CPU würde nur dafür sorgen, dass er mehr CPU Leistung für künftige Spiele hat (denn die Anforderungen der Spiele werden ja stetig steigen, daher ist diese Info trotzdem sehr wichtig). Auf der anderen Seite würde ein Spieler, der mit 90-120 FPS spielen will jedoch sehen, dass die CPU mit 80 FPS zu langsam ist. Derjenige nimmt dann eben die CPU, die z.B. 140 FPS oder mehr erreicht.

Um genau diese Werte heraus zu bekommen ist es eben so wichtig im reinen CPU limit zu testen. Und ein CPU limit kann man ganz einfach eben in fast jedem Spiel erreichen, indem man die Auflösung pauschal auf einen lächerlich niedrigen wert stellt. Damit wird die Last auf der GPU so weit reduziert und die Framerate so weit erhöht, dass man garantiert das CPU limit erreicht.

Misst man dann die Frameraten, die verschiedene CPUs im CPU limit in diversen Spielen erreichen, kann man mit diesen Werten eine informierte Kaufentscheidung treffen.

Weiß ich, dass ich nur mit 60 FPS spiele und alle CPUs im Testfeld, selbst die langsamsten erreichen in allen Spielen 90+ FPS? Ja gut, dann reicht sicherlich auch eine schwächere und günstigere CPU. Ich muss mir nur bewusst sein, dass bei künftig steigenden Anforderungen die schwächeren CPUs schneller meiner Anforderung 60 FPS zu erreichen nicht mehr gerecht werden können und ich eine schnellere CPU potenziell viel länger nutzen kann.

Weiß ich, dass ich mit 90-120 FPS spielen will, dann muss ich mir eben ne CPU raussuchen, die diese Frameraten oder eben noch viel mehr schafft, so dass einerseits meine Anforderung an die Framerate erfüllt wird und andererseits genug Leistungsreserve für die Zukunft bleibt.

Würde man nicht sicherstellen, dass man Spiele im CPU limit testet, würde man all diese Informationen nicht bekommen. Spiele die bei maximalen Grafiksettings in hohen Auflösungen besonders fordernd sind würden dann keine Unterschiede zwischen den CPUs zeigen weil die Framerate womöglich weit unter dem CPU limit der langsamsten CPU liegt. Aber wie gesagt, Grafiklast ist immer höchst skalierbar. Selbst in den grafisch forderndsten Spielen kann mit mittelklasse GPUs hohe Frameraten erreichen, wenn man die Regler bedienen kann. Und dann muss man eben wissen, wie viele FPS die CPU maximal erreichen kann, um eine vernünftige Kaufentscheidung zu treffen.

CPU tests im GPU limit helfen niemanden weiter. Ein CPU test selbst wenn man die Auflösung auf 240p runter dreht hat potenziell viel mehr Praxisrelevanz als ein CPU test in 1440p. Einfach weil die Auflösung irrelevant ist und nur die Frage entscheidend ist, ob man im CPU limit testet und welche Framerate dort erreicht wird. Eine andere Frage stellt sich bei einem CPU Test nicht. Die Überlegung und gedankliche Verbindung hin zu „in welcher Auflösung und mit welchen Grafiksettings spiele ich und welche Framerate erreicht meine Grafikkarte mit den von mir gewünschten settings“ muss jeder Spieler für sich machen. Hier hilft es, GPU Tests der Betroffenen Spiele zum Vergleich zu Rate zu ziehen oder eben selbst zu testen.
 
  • Gefällt mir
Reaktionen: tehschlonz, Zwirbelkatz und Baal Netbeck
Schöner Beitrag @Baal Netbeck
Ist für die, die es noch nicht blicken, sicher lesenswert.
Bin mal gespannt, ob die das auch lesen können! 😎
Mir selber ist das alles bekannt!
Danke dir! :D
 
  • Gefällt mir
Reaktionen: cm87 und Baal Netbeck
Mimir schrieb:
Ich finde, viele verstehen leider nicht, dass das CPU limit nichts mit der Auflösung, sondern mit der Framerate zu tun hat. Das ist eigentlich die Kernaussage und das allerwichtigste, was man hier begreifen muss.
Das ist kurz und prägnant... Das werde ich noch oben einfügen. :)
MehlstaubtheCat schrieb:
Bin mal gespannt, ob die das auch lesen können!
Ist schon viel Text, aber ich wollte es lieber ausführlich erläutern um nicht angreifbar zu sein.
So mancher "missversteht" die Aussagen ja gerne mal. ;)
 
vll schrieb:
Oft wird behauptet, wie unrealistisch es ist eine RTX 4090 in 720p zu testen.
Aber ist es realistisch überhaupt eine 2000€ GPU zu haben? Wäre es nicht am realistischsten mit einer 4070 in WQHD bei 60Hz Vsync zu testen?
Dann schaut halt bis auf die Leistungsaufnahme jede CPU gleich aus, wäre aber doch rEaListiScH!!11! oder?
Bei der letzten Umfrage zu den GPUs in den PCs der Community lag die 4090 mit weitem Abstand in Führung, etwa doppelt soviele 4090 wie die nächstplatzierte GPU bei über 5500 abgegebenen Stimmen.
Also ja, der Test mit einer 4090 ist gerade hier extrem gerngesehen.
Thema 'Gaming-Grafikkarten: Welche GPU habt ihr im PC und wie viel Watt darf die ziehen?' https://www.computerbase.de/forum/t...pc-und-wie-viel-watt-darf-die-ziehen.2212665/
 
  • Gefällt mir
Reaktionen: Baal Netbeck
@MehlstaubtheCat Ja, die Umfrage hatte mich auch schockiert.

Nvidia hat diese Generation aber auch noch besseres upselling betrieben.

Die 4080 fühlte sich nur so halb nach high end an...

Wenn die Gerüchte stimmen wird der Abstand in der nächsten Generation ja noch größer.
 
Aber auch nicht vergessen das hier auch eher die Enthusiasten unterwegs sind...im groben mittel schaut das komplett anders aus.
 
  • Gefällt mir
Reaktionen: RaptorTP
xxMuahdibxx schrieb:
Hier schön zu sehen das je größer die Auflösung desto weniger Abstand auch wenn nur bis wqhd



Aber anders wer schon ein dickes GPU Flaggschiff hat spart nicht an anderer Stelle...kosten nutzen Faktor ist dann oft egal.
du bist genau in die falle getappt.

nicht der abstand der CPU wird geringer sondern das grafikkarten limit deckelt.

das gilt es auseinander zu halten denn genau beiträge wie deiner, befeuern die diskussion immer und immer wieder.

Igor sollte erstmal anfangen ne moderne homepage zu bauen. kann mir das pinke gewitter kaum anschauen.

das geht wenn er 4k und 1440p und 1080p tests weglässt. die sind zeitverschwendung. die zeit kann er in die homepage stecken
Ergänzung ()

Ich bin mitlerweile dafür, dass man die leute, die in den tests generell immer nur querschießen, rauszukicken und für den thread zu sperren. die leute wollen es nicht verstehen.

die werden den weg in den thread hier leider nicht finden und wenn dann hab sie keine lust sich das anzuschauen.

warum ich das schreibe? weil wir seit jahren dagegen ankämpfen und sich nichts bessert.
 
Zuletzt bearbeitet von einem Moderator:
Ukog-Nos schrieb:
nicht der abstand der CPU wird geringer sondern das grafikkarten limit deckelt.

das gilt es auseinander zu halten denn genau beiträge wie deiner, befeuern die diskussion immer und immer wieder.
Das zu kapieren, dazu sind wir natürlich alle zu blöde.

Wenn die CPU in System 1 200FPS schafft, die in System 2 150, die baugleiche Grafikkarten in beiden Systemen aber nur 100 - wie groß ist der reale FPS-Abstand zwischen System 1 und System 2?

Ukog-Nos schrieb:
Igor sollte erstmal anfangen ne moderne homepage zu bauen. kann mir das pinke gewitter kaum anschauen.
das geht wenn er 4k und 1440p und 1080p tests weglässt. die sind zeitverschwendung. die zeit kann er in die homepage stecken
Wie gut, dass Experten wie du Igor sagen können, was er zu tun hat. Vielleicht mag @FormatC darauf antworten - oder sich seinen Teil denken.
 
das ist meine meinung, kann man mit einverstanden sein oder nicht.

aber dass er wirklich jede auflösung durchtestet, ist halt käse. das ist absolute zeitverschwendung

er hat 8 spiele getestet.

3 davon von ubisoft.

hätte er weniger mit den auflösungen ping pong gespielt, wärens vll 20 spiele.

djducky schrieb:
Das zu kapieren, dazu sind wir natürlich alle zu blöde.

Wenn die CPU in System 1 200FPS schafft, die in System 2 150, die baugleiche Grafikkarten in beiden Systemen aber nur 100 - wie groß ist der reale FPS-Abstand zwischen System 1 und System 2?
0
 
Ukog-Nos schrieb:
das ist meine meinung, kann man mit einverstanden sein oder nicht.
Die kann man auch ein bisschen respektvoller äußern.

Ukog-Nos schrieb:
Eben. Darauf läuft es real hinaus, bis auf die ein oder andere Toleranz/Unwägbarkeit, die dann vielleicht system 1 doch minimal nach vorne bringt. Deshalb sind Leute, die von Abstand sprechen, nicht in irgendeine Falle getappt, sondern haben sich nur anders ausgedrückt.

Die Tests in höheren Auflösungen finde ich relevant, da es erstens auch Grafikeinstellungen gibt, die auf die CPU gehen. Und zweitens um eben genau zu illustrieren, was man mit welcher CPU/GPU Kombi erwarten kann. Insofern dient das der Aufklärung und sollte dir eigentlich entgegen kommen.
 
Zurück
Oben