Diskussion zu 4k CPU-Spiele-Benchmarks und verwandten Themen

djducky schrieb:
was man mit welcher CPU/GPU Kombi erwarten kann. Insofern dient das der Aufklärung und sollte dir eigentlich entgegen kommen.

und dafür ist weder ein CPU noch ein GPU test gedacht. Und das verstehen die Leute nicht.

Ein CPU test ist ein CPU test
Ein GPU test ist eine GPU test

Beides jeweils auf die getestete Hardware reduzierte tests.

Jeder von diesem speziellen Klientel ist der Meinung, diese Tests sind speziell nur für Ihn und seine Bedürfnisse und sein system angefertigt worden. Dummerweise ist genau Das nicht der Fall.

Stell dir mal vor wie viele Kominationen aus cpu und gpu es geben könnte. Das kann man einfach nicht abdecken und ist auch völlig unnötig.

Man kombiniert einfach den wert aus dem cpu test und den wert aus dem gpu test und den niedrigeren wert von beiden erhältst du als min fps.

ob das jetzt 5 fps mehr oder weniger sind, ist am ende wirklich bums egal

Du kaufst dir ja keine Hardware um genau deinen wunsch fps wert zu treffen sondern eher darüber zu landen.

dauert 1-2 minuten bis ich mir die infos zusammengesucht habe.
 
Zuletzt bearbeitet von einem Moderator:
Ukog-Nos schrieb:
Jeder von diesem speziellen Klientel ist der Meinung, diese Tests sind speziell nur für Ihn und seine Bedürfnisse und sein system angefertigt worden.
Unfug

Ukog-Nos schrieb:
dauert 1-2 minuten bis ich mir die infos zusammengesucht habe.
Ja, weil es entsprechende Tests gibt.

Du argumentierst dir eigentlich gerade selbst ins Gesäß...
 
Ukog-Nos schrieb:
aber dass er wirklich jede auflösung durchtestet, ist halt käse. das ist absolute zeitverschwendung
Nein, ist es nicht. Und über die Farben entscheide ich immer noch selbst. Gefühlt jede dritte Seite ist blau, dann folgen Rot, dann die finsteren Mittenachtsseiten mit schwarzem Canvas und bunten Sprengseln. Meine Farbe ist sogar beim DPMA eingetragen und eine Beschwerde der Telekom wurde abgelehnt. So what? Mein Auto ist orange-glossy foliert (eingetragen und in DE ein Unikat). Ein bisschen Farbe im Leben schadet niemandem :)

djducky schrieb:
Die Tests in höheren Auflösungen finde ich relevant, da es erstens auch Grafikeinstellungen gibt, die auf die CPU gehen. Und zweitens um eben genau zu illustrieren, was man mit welcher CPU/GPU Kombi erwarten kann. Insofern dient das der Aufklärung und sollte dir eigentlich entgegen kommen.
Mein Kumpel von Hardwareunboxed hat das unlängst sogar thematisiert. Das will ich nicht nochmal wiederkäuen. Auch wenn die absoluten Balken sich immer mehr annähern, ist doch der Rest ebenfalls sehr interessant. Dazu muss man natürlich Willens (und in der Lage) sein, sich auch mal die ganzen Einzelmetriken anzuschauen. Stichwort Varianzen. Ganz ohne Grund mache ich mir ja die Arbeit nicht.

Ich habe auch sehr ausführlich Workstation getestet und da sieht man z.B. in Inventor 2021 Pro (ich teste das NUR in 4K), wie sehr sich das Verhalten in den Bereichen Graphics und Drawing trotzdem unterscheidet. Mehr als im albernen Gaming. Allein das Durchreichen der Texturen und sonstigen Materialien ist immer wieder ein Punkt, der den Flow einbremsen kann. Bei 720p ist da null Datenverkehr. Wir haben aber allein bei Arrow Lake gesehen, dass sogar die SSD-Zugriffe lahmen können (Stichwort Nachladeruckler). Ich denke mal, allein mit den albernen Briefmarkentests wird man der komplexen Thematik nicht mal ansatzweise gerecht. Man braucht schon die gesamte Bandbreite.
 
  • Gefällt mir
Reaktionen: RaptorTP, djducky und Baal Netbeck
Ukog-Nos schrieb:
du bist genau in die falle getappt.

nicht der abstand der CPU wird geringer sondern das grafikkarten limit deckelt.
Hmm also entweder hast du die Aussage anders interpretiert als sie gemeint war, oder du hast nach etwas gesucht, dass man falsch verstehen könnte und das als Gelegenheit gesehen Kritik zu äußern.

Ich gehe mal wohlwollend von Fall 1 aus und erkläre dir, wie die Aussage höchstwahrscheinlich gemeint ist.
@xxMuahdibxx meint sicherlich, dass der Abstand im Ergebnis des Reviews geringer wird, wenn mit höheren Auflösungen getestet wird.
Die CPUs haben natürlich die gleiche Leistungsfähigkeit.

Wenn die GPU "deckelt" ist das auch selten zu 100%. Ein kleiner Einfluss bleibt und dann ist der Abstand halt 1% statt 30%...eben ein geringerer Abstand als man ihn in 1080p sehen würde.

Ukog-Nos schrieb:
warum ich das schreibe? weil wir seit jahren dagegen ankämpfen und sich nichts bessert.
... Also dein Account ist neu?
djducky schrieb:
Die Tests in höheren Auflösungen finde ich relevant, da es erstens auch Grafikeinstellungen gibt, die auf die CPU gehen.
Die Auflösung geht aber zu 99% nicht auf die CPU.... So ergibt dein Argument keinen Sinn.
djducky schrieb:
Und zweitens um eben genau zu illustrieren, was man mit welcher CPU/GPU Kombi erwarten kann.
Dafür müsste ja auch jede mögliche Hardware-Kombi mit jeder möglichen Einstellungs-Kombi getestet werden und das ist unmöglich.

Zu sehen was die CPUs unlimitiert ungefähr mindestens schaffen und was die GPUs unlimitiert in Auflösung X ungefähr mindestens schaffen ist alles was du bekommst und brauchst.
 
Baal Netbeck schrieb:
... Also dein Account ist neu?
hier ja. im luxx nicht
Ergänzung ()

Baal Netbeck schrieb:
Dafür müsste ja auch jede mögliche Hardware-Kombi mit jeder möglichen Einstellungs-Kombi getestet werden und das ist unmöglich.

Zu sehen was die CPUs unlimitiert ungefähr mindestens schaffen und was die GPUs unlimitiert in Auflösung X ungefähr mindestens schaffen ist alles was du bekommst und brauchst.

so ist es.

es ist schlicht unmöglich allen Kombinationen zu testen. Also das was das spezielle Klientel sich da indirekt wünscht, ist nicht machbar.

Das wäre dann aber auch kein CPU test mehr sondern was neues.

am ende ist es wie bereits gesagt so, dass diese Leute etwas sehen wollen was nicht abbildbar ist.
Dazu kommt, dass sie das, was sie wissen wollen, bereits aus dem cpu test entnehmen können.

Diesen Leuten fehlt einfach die Transferleistung sich anschließend noch mit GPU tests zu befassen und aus diesen beiden tests zu einem Ergebnis zu kommen.

die wollen alles vorgekaut bekommen und realisieren nicht, dass das nicht umsetzbar ist und anstatt sich 5 minuten mit dem thema zu beschäftigen werden die immer wieder gleichen sprüche geklopft wie

"keiner zockt in 720p"
"niemand hat eine 4090"
etc...

ihr kennt es
Ergänzung ()

HUB holt sich verstärkung

 
Zuletzt bearbeitet von einem Moderator:
FormatC schrieb:
Und über die Farben entscheide ich immer noch selbst.
Das ist ja auch gut so. ;) Ich mag farbenfroh.
Auch über die Tests sollst du natürlich auch selbst entscheiden und wenn es sich aus deiner Sicht lohnt, mehrere Auflösungen zu testen, dann ist das so.
FormatC schrieb:
Stichwort Varianzen. Ganz ohne Grund mache ich mir ja die Arbeit nicht.
Kannst du das noch näher erläutern?
Ich habe jetzt deinen 980X3D Gaming Artikel gelesen und mir ist nur eine wichtigen Erkenntniss aufgefallen, die nicht auch in 1080p da war.....720p muss man ja wirklich nicht testen. ;)
Und zwar die Leistungsaufnahme der CPUs, wenn ein GPU Limit einsetzt. Da reagieren die CPUs schon sehr unterschiedlich. Da könntest du eventuell im Text einen größeren Fokus drauf legen?

Ansonsten wünsche ich mir eher andere Spiele und Spielszenen.
Troy in Ultra mit dieser dubiosen Schatten Einstellung, die viel Multithread Leistung fordert...ohne visuellen Unterschied.
Den anspruchslosen integrierten Benchmark in Anno 1800 für CPU Benchmarks zu nutzen ist auch irgendwie witzlos.
Super sind natürlich Frametimegraphen der Szenen, Percentile Metriken usw.

Ich schätze deine Arbeit sehr, wenn es um Leistungsaufnahme, technische Zusammenhänge, Wärmeleitung, Materialalalyse und andere Spezialthemen geht.

CPU-Spielebenchmarks überzeugen mich bei dir nicht.
FormatC schrieb:
Ich habe auch sehr ausführlich Workstation getestet und da sieht man z.B. in Inventor 2021 Pro (ich teste das NUR in 4K), wie sehr sich das Verhalten in den Bereichen Graphics und Drawing trotzdem unterscheidet.
Das mag sein. Da kenne ich mich nicht aus und vertraue dir, dass es da wichtig ist.

Aber die Diskussion geht explizit um CPU-Spiele-Benchmarks und da werden, soweit ich weiß, in 720p und in 4K die gleichen Datenmengen über den PCIe Bus geschickt...sofern der VRAM nicht vollläuft und das wäre ein extra Test.

Wenn das nicht so ist, wäre das gut zu wissen aber ich wüsste nicht warum.
 
Weil es Meshs und Texturen in verschiedenen Größen gibt. Zumindest war das damals so, als ich noch so einen Rotz programmiert habe. Ich hatte von großen Tapeten für jede Auflösung eine. Das gleiche galt auch für die ganzen Meshs. Dazu alles progressiv.

Troy war damals eine Intel-Maßanfertigung und ich finde es immer wieder bemekenswert, wie selbst die eigenen Architekturen damit klarkommen oder nicht. Gerade weil es purer Multi-Thread-P0rno ist, habe ich den auch mit drin. Exemplarisch. Das exakte Gegenstück zu Counter Strike 2 :D

Und eines musst Du mir zugestehen: So weit liegen meine Werte nicht neben denen von CB, das deckt sich fast. Ich teste vorher meist bis zu 20 Spiele durch und baue mir dann eine Art statistisches Mittel. Man kann eine Vergleichsrechnung (auch rekursiv) über die Ergebnisse der schnellsten AMD- und Intel-CPU laufen lassen und damit eine reduzierte Auswahl ermitteln, die in etwa das Gleiche abbildet. ;)

Nicht vergessen: Ich muss das hier allein stemmen und zwar NEBEN meiner Arbeit im Labor. Da gibt es keine Festangestellten, die das exklusiv erledigen könnten.

Kleiner Nachtrag:
Es ist nicht nur ein CPU- sondern ja eigentlich auch ein Plattformtest. Ohne geeigneten Unterbau ist eine CPU ja hilflos.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RaptorTP und djducky
Mir geht es primär darum, das User verstehen das bei 4k aktuell die Grafikkarte viel früher limitiert, so daß man zwar eine dicke GPU braucht aber nicht gleichzeitig das dickste CPU Flaggschiff...

Aber wenn wir wieder anfangen nur CPU only oder GPU only zu betrachten... Machen wir genau die Diskussion überflüssig.
 
Ich kann mich noch gut an die ersten Diskussionen um 720p-Benchmarks im 3DC erinnern, das ist quasi viele Jahre her. Damals war eines der Hauptargumente, dass man damit die besten CPUs vielleicht auch noch für die nächstfolgenden Grafikkartengenerationen ermitteln könnte. Damals waren die GPUs auch noch die reinsten Pixelschubser, heute ist das alles viel komplexer. Allein der ganze KI-Hype verschiebt vieles und wenn das so weitergeht, machen die ganzen Upscaler natives Ultra-HD oder höher ziemlich obsolet. Genau deshalb habe ich auch auf die 4K-Benchmarks verzichtet. Da aber auch RT mit auf die CPU schlägt, hat man selbst in WQHD mit Upscaler noch deutlichere Unterschiede zwischen den CPUs , vor allem beim P1 Low.

Und noch eine kleine Ergänzung:
Ohne die 720p-Benchmarks wären auch nie die Probleme beim NVIDIA-Treiber aufgefallen. Stichwort Overhead und Pipeline. Das war übrigens auch ein Grund, warum ich damals mit einer 6950XT getestet hatte. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck und xxMuahdibxx
Hier war das Video aus #25 verlinkt. Übersehen.


Zum Thema hinzugefügt:
Die Aussage von @xxMuahdibxx habe ich offensichtlich genauso interpretiert. Die Abstände sind geringer in hoher Auflösung. Diese Aussage ist nicht falsch. Aber für mich liegt auf der Hand, dass diese geringeren Abstände an der Grafikkarte liegen, da die Grafikkarte in den gewählten Testsettings nicht mehr Bilder schafft.

Die Settings könnte man jedoch ändern. Von Ultra auf Hoch. Wodurch die Grafikkarte mehr Bilder pro Zeiteinheit berechnen kann. Oder man könnte mehr Bilder per "Frame Generation" berechnen lassen.


Übrigens gilt die Differenz zwischen 720p und UHD als Angriffsfläche solcher Tests:
Man würde den Leuten in 720p Versprechungen machen, die in der Realität nicht eingehalten werden könnten. Damit die Redaktion(en) überhaupt noch über irgendetwas berichten könnten, würden künstlich hohe Messwerte konstruiert, kann man manchmal lesen.
Zudem hätte niemand eine teure Karte XY; in diesem Fall eine RTX4090. (Stand heute, ab 2000€ Kaufpreis), auch dies liest man mitunter.

Offenbar wird ein Prozessortest nicht als Prozessortest eingeordnet.
Sondern als Kaufberatung für einen Spielerechner.
 
Zuletzt bearbeitet: (Nachtrag Text, Formulierung verbessert.)
  • Gefällt mir
Reaktionen: Baal Netbeck
Ukog-Nos schrieb:
es ist schlicht unmöglich allen Kombinationen zu testen. Also das was das spezielle Klientel sich da indirekt wünscht, ist nicht machbar.
Darum geht es doch überhaupt nicht. Hier weht mal wieder so ein Lüftchen das Absichtlich-falsch-verstehens. Ich will keine durchgetesteten Kombinationen à la Samstagslotto, sondern:

Wenn man die Abstände (!) zwischen den maximal erreichbaren Frameraten der CPUs auch bei 4K mal misst, dann ist man eher im GPU-Limit, ja. Sollten wir alle kapiert haben, haben wir alle kapiert.

Aber erstens gibt es trotzdem Unterschiede, z.B. in den 1% Low - und zweitens wird das GPU-Limit gerade durch diese Tests in hohen Auflösungen illustriert. Wir tollen Schlaumeier hier wissen u.a. auch um das GPU-Limit, weil wir schon hunderte solcher Tests gesehen haben.

Wer ein bisschen quervergleicht zwischen CPU-tests in niedrigen Auflösungen sowie solchen in hohen Auflösungen (wo macht meine oder meine geplante CPU noch einen unterschied?), vergleichen mit seiner eigenen (geplanten) GPU - der kann zu einer vernünftigen Kaufentscheidung kommen. Auch vor dem Hintergrund, wie lange die eigentlich vorhalten soll, bevor etwas Neues kommt.

Alles andere hat Igor wunderbar erklärt, danke auch dafür @FormatC

Edit: Das hier wird das Video sein, das Igor meint.
 
nuestra schrieb:
Mein 13700hx ist ständig bei 100-105 Grad

FormatC schrieb:
Weil es Meshs und Texturen in verschiedenen Größen gibt. Zumindest war das damals so, als ich noch so einen Rotz programmiert habe.
Danke für die Rückmeldung. :)
Meine Info war eher, dass Texturen rein durch das Textursetting vorgegeben werden und die Auflösung da nichts ändert.
Und ich habe ein paar Spiele ausgetestet gehabt und da gab es nur geringe Unterschiede in der VRAM Belegung bei unterschiedlichen Auflösungen.

Jetzt habe ich einen Artikel von techspot angeguckt und es ist stark vom Spiel abhängig.
Einige Spiele reservieren ein paar hundert MB mehr in 4K...ander ein paar Gigabyte.

Das spricht schon dafür, dass bei manchen andere Qualitätsstufen angewendet werden.

Ich werde das im Hinterkopf halten und bei Gelegenheit mal näher untersuchen. :)
FormatC schrieb:
Gerade weil es purer Multi-Thread-P0rno ist, habe ich den auch mit drin.
Es wirkt halt irgendwie so wie, künstlich mit sinnloser Arbeit aufgeblasen...
So kann es dann auch toll viele Threads ausnutzen, aber sobald man von Ultra eine Stufe runter geht, ist es vorbei mit dem "Multi-Thread-Porno".

Das ist so wie mit Ashes of the Benchmark, wo der integrierte CPU Benchmark für CPUs mit mehr Kernen auch mehr Partikeleffekte hat berechnen lassen. Das lies sich scheinbar auch gut mulithreaden und das Spiel wurde für die tolle Programmierung immer wieder in die CPU Benchmarks aufgenommen.

Aber das ist eine spezielle Benchmark Funktion und im eigentlichen Gameplay werden wie bei den meisten Spielen nur 4-5 Threads wirklich genutzt.

Das ist beides so, als würde man neben dem Spiele Benchmark noch Cinebench laufen lassen.

Aber es kann durchaus trotzdem interessant sein als Benchmark... Ich würde mich dagegen entscheiden aber es ist ja schön wenn es andere testen und wir mehr Auswahl sehen.
Wäre ja blöd, wenn alle nur die gleichen X Spiele testen.
FormatC schrieb:
Und eines musst Du mir zugestehen: So weit liegen meine Werte nicht neben denen von CB, das deckt sich fast.
Uh ja.... die Auswahl der Spiele für die Reviews und die Szenen in den Spielen sind nochmal ein ganz eigenes Thema!

Da kann man viel Einfluss nehmen, ohne falsch zu messen.....bei vielen sicherlich auch unbeabsichtigt.

Schön, dass du da versuchst eine ausgewogene Mischung zu finden.

Ich persöhnlich gucke fast nie auf das Gesamtergebnis sondern eher auf einzelne Spiele, die mich interessieren oder bei denen ich denke dass sie anderen Spielen die mich interessieren ähneln.
FormatC schrieb:
Nicht vergessen: Ich muss das hier allein stemmen und zwar NEBEN meiner Arbeit im Labor.
Und dafür hast du meinen Respekt!
Es ist völlig klar, dass du keine 40 Spiele testen kannst ohne deine anderen Aufgaben zu vernachlässigen.

Dafür schaue ich andere Quellen an.

Bei dir findet man viel mehr tiefe Einglicke und Probleme abseits der Mainstream-glattgebügelten Reviews wie hier auf CB.
Kleinigkeiten, wie dass du in dem 9800X3D Review getestet hast ob die Caps gut geschützt sind...das wäre bei CB höchstwahrscheinlich rausgestrichen worden, selbst wenn sie sich Gedanken darüber gamacht hätten/haben.
FormatC schrieb:
Damals war eines der Hauptargumente, dass man damit die besten CPUs vielleicht auch noch für die nächstfolgenden Grafikkartengenerationen ermitteln könnte.
Ist denke ich immer noch so.

Viele Freunde für die ich PCs zusammenbaue wollen einmal was ordentliches und rüsten dann nie die Grafikkarte auf...eher nochmal ne neue SSD weil alle behaupten, sie würden mit 1TB auskommen und dann später feststellen, dass das doch nicht viel ist.
Aber da gucke ich eher was jetzt für sie Sinn ergibt und kaufe nicht überproportional teure CPUs

Aber ich habe schon öfter nur Teile meiner PCs aufgerüstet... da ist es schön, wenn man nur die GPU tauschen muss und Mainboard/RAM/CPU noch ordentlich sind.

Ist eventuell Cherry picking bei den Spielen, aber das Video von HWunboxed im Startpost untersucht ja so eine Vorhersage für die Zukungt aus der Vergangenheit.
3950X, 5800X, 5800X3D mit 3090 Ti, das in 4K(upscaled) im GPU Limit war und dann 2 Jahre später mit RTX 4090 nun in 4K(upscaled) größere Vorteile zeigt als 2 jahre zuvor noch die 1080p Messungen.

Da hat die Vorhersage als durchaus funktioniert und auch die Wette auf mehr Multithreading mit dem 3950X ist nicht im Ansatz aufgegangen.
FormatC schrieb:
Da aber auch RT mit auf die CPU schlägt, hat man selbst in WQHD mit Upscaler noch deutlichere Unterschiede zwischen den CPUs , vor allem beim P1 Low.
Ja. RT zerhaut die Ergebnisse nochmal ordentlich. Vor allem wenn man in die Zukunft denkt und dann eventuell Grafikkarten mit mehr RT-Leistung nicht mehr den Flaschenhals darstellen.

Ob die FPS durch die GPU gedeckelt werden ist ja das offensichtliche....die Frametimes werden oft nicht beachtet.
Die sind aber auch nochmal ein Thema für sich.

Was nutzt du eigentlich? Percentile oder den Durchschnitt der unteren 1% der Frametimes?
Oder eine der anderen Varianten, die im Netz kursieren?

Das hat ja auch nochmal Besonderheiten und Stolperfallen.

Ich halte das durchaus für wichtig zu wissen, aber nur die wenigsten schaffen es diese Werte auch reproduzierbar zu testen. Daher gucke ich da in Reviews nicht zu genau drauf....nur wenn sich ein Muster ergibt und eine CPU Architektur klar schlechter ausfällt.
Zwirbelkatz schrieb:
Die Settings könnte man jedoch ändern. Von Ultra auf Hoch. Wodurch die Grafikkarte mehr Bilder pro Zeiteinheit berechnen kann. Oder man könnte mehr Bilder per "Frame Generation" konstruieren lassen.
Das macht CB ja teilweise um überhaupt spielbare FPS testen zu können.
Aber wenn der CPU-Test eine art "Mindest FPS" zeigen soll, die man mit den CPUs erreicht, dann ist es nichthilfeich die Settings grundsätzlich zu senken. Denn viele Settings entlasten dann ja auch die CPU.
Aber man kann natürlich diese senken, die die CPU nicht betreffen.

Framegen ist schwierig, da es komische Auswirkungen auf CPU-Limit, Frametimekonsistenz und Input-Lag haben kann.
Ich habe noch keine Situation gefunden, in der ich das Feature nutzen wollen würde.
Eventuell um mit einem 360Hz Monitor von 160 auf 300 FPS zu kommen.
Aber den Fall haben vermutlich nicht viele und ich sehe das eher als Inhalt für einen spezial-Test...keine Option für ein normales CPU review.

Zwirbelkatz schrieb:
Offenbar wird ein Prozessortest nicht als Prozessortest eingeordnet.
Sondern als Kaufberatung für einen Spielerechner.
Leider wahr.
Einige leute wollen das Unmögliche.
djducky schrieb:
Aber erstens gibt es trotzdem Unterschiede, z.B. in den 1% Low - und zweitens wird das GPU-Limit gerade durch diese Tests in hohen Auflösungen illustriert.
Wenn die Tester die Zeit haben auch noch mehrere Auflösungen zu testen, ist das ja nicht schlecht.
Aber es gibt ja schon genug Reviews(oder das Video aus dem Startpost), die illustrieren, wie ein GPU Limit aussieht. Das muss man nicht jedes Mal aufs Neue zeigen.

Wenn man denn den Messungen der Frametimes vertraut, dann kann man die auch im 1080p Test vergleichen. Die gehen ja meist deutlich niedriger und sind dann eben meist auch im GPU Limit vorhanden.
Wie deutlich hängt dann ja wieder von deinen speziellen Einstellungen, deinem RAM, und deinen Hintergrundprozessen ab. Das kann dir auch der GPU-Limit-Test mit einer RTX4090 nicht vorhersagen.

Wenn es bei den Testern noch Zeit für mehr Teste gibt, dann bitte mit einer AMD/Intel Grafikkarte wiederholen. Da hat man direkt neue Informationen zum Verhalten der Treiber.
Mit RT oder ohne?
Mit schnellem RAM und mit lnagsamem RAM.
...und dann wenn das alles fertig ist, noch mehr Auflösungen..
 
@Baal Netbeck

Gibt da so viele Spiele und auch Grafikeinstellungen die an Texturen rumpfuschen. Bei einigen Laden die Texturen erst nach und nach .. Fallout 3+4 sind da so spezielle Fälle.

Andere Spiele hatten verschiedene Texturen/Details je nach Entfernung zum Charakter eingesetzt. Merkt man dann wenn man einen weiten Blick hat oder im Spiel selbst starke Zoom Funktionen vorhanden sind und man auf einmal gar nicht mehr Details erkennt.

Auch Treiberseitig wurde da vieles mal "optimiert" beim FPS Krieg von ATI und Nvidia.... und ich glaube auch das dies heute noch gemacht wird um hier und da ein paar FPS mehr zu erhaschen. Wie die Treiber die Benchmarks erkannt hatten und dabei andere Einstellungen angewand haben.

Wenn man bedenkt was ein wenig an Tuning bei Schatten und Beleuchtung an Leistung auch rausholen kann kein Wunder oder anderes wie Tesslation.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
@xxMuahdibxx Ja da laufen mit Texturen schon komische Dinge ab.
Es ist ja jetzt auch Mode, die Texturen in Matsch zu verwandeln wenn der VRAM zu knapp wird, anstatt Leistungseinbrüche durch das Auslagern zu riskieren.
Das macht die Benchmarks dazu kompliziert, weil eine Grafikkarte mit zu wenig VRAM gar nicht schlechter läuft, aber deutlich schlechtere Bilder liefert.

Anno 1800 schiebt die Texturen grundsätzlich nach der Benutzung in den System RAM und lädt die dann erst zeitverzögert wieder in den VRAM wenn man zurück springt.
Das macht es auch schwer, weil das mit der CPU Geschwindigkeit skaliert und eine schnellere CPU dir nach einem Kamerasprung viel schneller die Texturen aktualisiert. Das sieht dann also schneller gut aus.
Und das Spiel weigert sich mehr als 8GB VRAM zu nutzen, auch wenn ich es mit 11GB an der 1080 Ti und 16GB an der Radeon VII getestet habe. Ist schon ärgerlich, wenn man auf Texturmatsch guckt, obwohl der halbe VRAM leer ist. Daher sehen "mittlere Texturen" im Schnitt eher besser aus, da man weniger Zeit auf gemischtes "hoch+Matsch" guckt.

Aber egal wie es verwaltet wird...die Frage hier im Thread ist ja, ob es einen Einfluss durch die eingestellte Auflösung gibt und ob sich das in einem unterschiedlichen CPU Limit bemerkbar macht.
Ergänzung ()

Es ist auch nicht so einfach dazu Daten zu finden. Oft sind Testszenen ja nahe eines GPU Limits nicht mehr 100% CPU limitiert. Dann gibt die Zahl im Review ein Mischmasch aus CPU und GPU Limit wieder.

Wenn die Auflösung auch die CPU stärker belastet, dann wären z.B. in 1080p und 4K die FPS im CPU Limit nicht genau gleich. Wenn aber ein Teil der Testszene in ein GPU Limit läuft, sinken die durchschnittlichen FPS wegen dem teilweisen CPU Limit oder wegen gestiegener Last für die CPU.

Man müsste also eineTestszene haben, die immer absolut im CPU LImit bleibt oder nur eine Momentaufnahme vergleichen. Momentaufnahmen schwanken aber auch von Testlauf zu Testlauf...Naja hier mal ein paar Beispiele die ich zur Diskussion stellen möchte:

auflösungsvergleich-bearbeitet.PNG

Das Bild aus dem Startpost von meinen Anno 1800 Tests.
Wichtig zu beachten, dass das hier nur je ein Beispielverlauf aus den verschiedenen Messserien ist.
Eigentlich macht das Skript 5 Messungen und ich sortiere die Messung mit den besten FPS und die Messung mit den schlechtesten 0,1% los Frametimes aus...das Ergebnis ist dann der Durchschnitt aus den drei verbleibenden Messungen. Wenn ich irgendwo eine höhere Genauigkeit haben wollte, habe ich noch 1-2 Messerien hinzugefügt und dann ist das Ergebnis der Durchschnitt aus 6 oder 9 Messungen..von 10 oder 15.


Aber wenn wir uns die Rot markierten Bereiche angucken, wo wir wenig Unterschied zwischen den Auflösungen sehen, sehen wir dass die FPS Level fast gleich sind....nur etwas verschoben.
links ist es praktisch gleich...im rechten roten Feld gibt es eine leichte Einordnung von 1080 zu 4K.
Bei den FPS Einbrüchen sieht man links eine dazu passende Reihenfolge mit 4K>1440p>1080p ...aber weiter rechts genau andersherum. Ich denke das beides einfach statistische Schwankungen sind, die im Mittelwert verschwinden würden.

Weiter Beispiele von HWunboxed:
cpu limit auflösungsabhängig bsp 1.png

Hier gleichen sich die oberen drei CPUs in 4K an und der 5600X verliert nur 1 FPS...hängt aber weiter zurück, was für mch dafür spricht, dass er in beiden Messungen im CPU Limit ist.

cpu limit auflösungsabhängig bsp 2.png

Hier das gleiche.... die Frametimes sind jedoch deutlicher beeinflusst.
sind die 1% lows hier GPU limitiert? oder CPU Limitiert und die Auflösung hat die CPU beeinflusst?

cpu limit auflösungsabhängig bsp 3.png

Hier bleiben die prozentualen Abstände einigermaßen gleich... Aber alle verlieren wenige FPS.
Eventuell ein Hinweis auf ein durchgängiges CPU Limit aber Einfluss der Auflösung auf die CPU?
Oder ist die Szene doch nicht 100% CPU limitiert?
Die 1% Lows verlieren sehr ähnlich zu den FPS, was eventuell ein Hinweis darauf ist, dass es Fall 1 ist?

Naja ich bin mir nicht sicher, was ich davon halten soll. Eventuell interpretiere ich es auch falsch?
Stand jetzt würde ich sagen, dass es kein grundsätzliches Verhalten ist, dass CPUs mit höheren Auflösungen mehr Arbeit haben...und wenn sie mehr Arbeit haben, dann ist es kein signifikanter Anteil, der die Messungen in niedrigen Auflösungen diskreditieren würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gsonz
Zu Hogwarts legacy... 5950 hat 2 CCD somit mehr Latenz zwischen den Kernen..

Wenn das Spiel nur 8 Kerne nutzt ist dann der 5800er schneller zumindest bei den Low.... 6 Kerne sind aber etwas knapp..

Bei einer Szene mit Low FPS muss ja Spiele technisch etwas aufwändiges passieren.. mehr CPU berechnete Effekte.. mehr KI von NPCs oder oder.. wenn dann der Windows sheduler alles schön quer schmeißt kommt halt noch weniger raus.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Servus Baal,

Grazie für den Thread!

Auf der einen Seite echt super, dass du dir das antust & auf der anderen befremdlich, dass man diese Thematik immer noch behandeln muss :D

Danke für deinen Einsatz und liebe Grüße
Manuel
 
  • Gefällt mir
Reaktionen: Baal Netbeck
xxMuahdibxx schrieb:
Bei einer Szene mit Low FPS muss ja Spiele technisch etwas aufwändiges passieren
Ja, das frage ich mich auch öfter, was genau da die Probleme macht...ich kann nur "begründet vermuten".

In Anno sind es die Anzahl an Objekten und Details, die die Drawcalls aufblasen und das Limit verschieben.
Da die CPU das nicht so einfach multithreaden kann, dauert es prozentual länger für die CPU, als es prozentual länger dauert für die GPU die zusätzlichen Details zu rendern.

In first Person Spielen sind es ja vor allem Städte, die eher CPU limitiert laufen und da bin ich mir nicht sicher, ob es die NPCs sind oder auch hier die Anzahl an Objekten/Details.

Denn heutige Grafikkarten verwerfen ja Geometrie die nicht sichtbar ist...da verdeckt....das passiert in Städten mit vielen Objekten in und hinter Häusern viel eher als außerhalb der Städte. Ist also auch ein Grund für eine Verschiebung zum CPU Limit, wenn die CPU die zusätzlichen Objekte verwaltet, aber die GPU nur einen Teil davon benutzt.

Und natürlich werden auch die NPCs eine Rolle spielen...In The Witcher 3 gibt es z.B. diese Shader Compillation Stutter wenn neue NPC Gruppen geladen werden. In Stalker 2 sind die Siedlungen mit den NPCs besonders CPU intensiv, obwohl sich hier nicht viel hinter den Häusern versteckt.

Aber meinem Verständnis nach sollten sich NPCs im Sinne von KI, Wegfindung usw. eigentlich sehr gut multithreaden lassen. Trotzdem sehen wir CPU Limits bevor die CPUs hoch ausgelastet sind.
xxMuahdibxx schrieb:
wenn dann der Windows sheduler alles schön quer schmeißt kommt halt noch weniger raus.
Ja, das ist ein großes Ärgernis.
Es hat Jahre gedauert, bis der Windows 11 Sheduler einen Patch für AMD CPUs bekommen hat.
Mit Ryzen 9000 als Anlass, aber die älteren CPUs haben ja genauso profitiert und hätten schon einige Jahre profitieren können.

Was mich daran auch schockiert hat, ist dass es Windows 11 mit "AMD Sheduler Update" meist nur auf das Niveau von WIndows 10 gehoben wird. Warum ist keinem aufgefallen, dass Windows 11 seid Jahren einige Prozent hinter Win 10 lag?

Mehr in die Software Einflüsse zu gucken steht auch auf meiner ToDo Liste...aber weiter hinten. ;)
cm87 schrieb:
befremdlich, dass man diese Thematik immer noch behandeln muss :D
Auf der einen Seite verstehe ich, dass es ein ewiger Kampf ist, da kontinuierlich neue" Spieler mit Hardware interesse" heranwachsen und erstmal lernen müssen, was wir schon vor Jahren gelernt haben.

Befremdlich finde ich eher, dass es so viele Accounts sind, die schon X Jahre auf CB existieren und es immer noch nicht verstehen. (wollen?)

Aber so ist es wie mit vielen Computer Themen.
"RAM Geschwindigkeit ist für Spiele egal" war auch so ein typischer Spruch in den Kaufberatungen...seit ich hier bin.
Aber erst mit AM4 wurde RAM plötzlich zum Thema und es gab Benchmarks, die mehr Steigerungen durch Ram, als durch CPU OC aufgezeigt haben.
Ich habe dann auch Benchmarks mit meinem i5 3570K gemacht und festgestellt, dass sich das RamOC auf DDR3 teils stärker ausgewirkt hat als bei AM4...Die Aussage galt schon lange nicht mehr und wurde trotzdem noch jahrelang im Forum verbreitet, obwohl es schon diverse Tests dazu gab, die das wiederlegt haben.
Ich habe es auch mit DDR2 angetestet und da muss ich sagen, dass es wirklich kaum Unterschiede gab....so Pauschalaussagen haben ja meist einen wahren Kern....man muss es halt richtig einordnen.
 
Baal Netbeck schrieb:
Auf der einen Seite verstehe ich, dass es ein ewiger Kampf ist, da kontinuierlich neue" Spieler mit Hardware interesse" heranwachsen und erstmal lernen müssen, was wir schon vor Jahren gelernt haben.
Würde jetzt sogar vermuten, dass die meisten Foren, sei es hier auf CB, PCGH, oder Luxx, weniger das junge Publikum ansprechen - die werden ja hauptsächlich auf Kanäle wie YT, Insta oder Tiktok unterwegs sein.

Und daher befremdlich, dass es meist ältere User sind, die da viel Gegenwind einbringen. Wobei auch Verfechter von "richtigen" CPU Tests nicht immer zu einer guten Gesprächsbasis beigetragen haben.

Ich kann da halt noch von meinen RAM-Tests sprechen... was ja im Endeffekt genau die selbe Thematik aufgreift. Reiner CPU Test, damit die Skalierung auch korrekt aufgezeigt werden kann.

Und alle (Wunsch-)Szenarien kann und will man nicht abdecken.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
@Baal Netbeck es geht ja in der Szene nicht nur um Grafik, jedes Frame was erzeugt wird benötigt unterschiedliche Anzahl von zusätzlichen Informationen wie z.B.
  • Die künstliche Intelligenz von NPCs nicht nur für die aktuelle Szene sondern ja auch Planung für mehr
  • mehr auftretende physikalische Effekte und deren Wirkung (wird ja nicht alles in der GPU berechnet)
  • Verformung von Oberflächen, da ja nicht mehr statisch das Wireframe da ist sondern es oft dynamisch sich verändern kann.
  • Beleuchtung und speziell Nebel/Rauch mit ihren Effekten
Wenn man bedenkt wie die ersten Animationsfilme entstanden und wie lange an einem Bild dabei gerdendert wurde ... und wir haben schon fast Raytracing in "Echtzeit".
 
  • Gefällt mir
Reaktionen: Baal Netbeck
cm87 schrieb:
Reiner CPU Test, damit die Skalierung auch korrekt aufgezeigt werden kann.
Eben... Wenn es halbwegs wissenschaftlich sein soll, muss man möglichst viele Variablen fest setzen und einen Aspekt möglichst isolieren.

Das ist natürlich nicht immer möglich, aber man muss es versuchen.
Wenn man ab und zu mehrere Sachen kombiniert, kann das als "realitätscheck" durchaus auch seinen Sinn haben, aber da kann man halt nie alle Kombinationen durchtesten.

Ich habe bei meinem Anno 1800 Benchmark auch alles isoliert betrachtet...verschiedenen RAM-Takt bei festen Timings und festem CPU Takt, verschiedene Timings bei gleichem Takt. Verschiedene CPU Generationen usw. bei gleichem Takt und gleichem RAM.
Unterschiedlichen CPU Takt ....usw.

Und dann habe ich noch die CPUs "Stock" mit gleichem RAM getestet...verschiedene XMP Profile bei gleicher CPU getestet..... sozusagen der "Kaufberatungsteil" anstelle der wissenschaftlichen Untersuchung.

Das war schon extrem viel Zeit mit 2h (bis teilweise 6h) Messzeit pro Datenpunkt.

Später habe ich dann als Bonus noch mehrere Sachen kombiniert und mehrere "Optimierungsstufen" getestet.
Aber da könnte ich noch unendlich viele Kombinationen testen, wo man einfach irgendwann die Reißleine ziehen muss.
cm87 schrieb:
Wobei auch Verfechter von "richtigen" CPU Tests nicht immer zu einer guten Gesprächsbasis beigetragen haben.
Ja leider.
 
  • Gefällt mir
Reaktionen: cm87
Zurück
Oben