Test CPU-Spieleleistung im Test: Intel Core i9-9900K vs. AMD Ryzen 9 3900X mit RAM-OC

@Taxxor Wenn Du jetzt noch potentiell dazuschreibst (potentiell nicht die komplette Zeit im CPU-Limit), dann würd ich mitgehen :)
 
Rage schrieb:
@Nureinnickname! Und wenn das für Dich so ist, ist das doch klasse.
Taxxor schrieb:
Dein 60Hz Monitor gibt alle 16,66ms ein Bild aus.
Hast du 200 fps kann das dir angezeigte Bild maximal 4.9ms alt sein.

Ok mal anders gefragt, wo ist dann der Unterschied wenn ich ein Spiel auf 144 fps bei meinem 60Hz Monitor begrenze zu einem 144 Hz Monitor? Wenn ich ja angeblich nur Vorteile hab, wo ist dann der Sinn von 120Hz 144Hz oder ga schnelleren Monitoren? Ich würde selbst bei meinem 60Hz Monitor niemals ohne Vsync Zocken, da die Bildqualität extrem darunter leidet.
 
@Nureinnickname! Wenn Du mit deutlich mehr fps spielst, dann ist Dein Input-Lag sehr wahrscheinlich geringer. Wenn Du V-Sync mit Tripple-Buffer benutzt, dann hast Du direkt +50ms auf den Input-Lag. Wenn Du mal schauen willst ob Du einen Unterschied merkst, spiel mit EnhancedSync (Achtung, kann bei den aktuellen AMD Treibern kaputt sein, unbedingt die fps kontrollieren).
 
  • Gefällt mir
Reaktionen: LukS
Nureinnickname! schrieb:
Ok mal anders gefragt, wo ist dann der Unterschied wenn ich ein Spiel auf 144 fps bei meinem 60Hz Monitor begrenze zu einem 144 Hz Monitor? Wenn ich ja angeblich nur Vorteile hab, wo ist dann der Sinn von 120Hz 144Hz oder ga schnelleren Monitoren?

Der Vorteil ist, dass du nicht alle 16,6ms sondern bei 144hz alle 7ms ein Bild angezeigt bekommst, welches dann mit 200fps auch nur maximal 4.9ms alt sein kann.
Du siehst also doppelt so viele aktuelle Bilder deiner GPU.
Was ist daran so schwer zu verstehen ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS und Celinna
Naja... nichts neues, das hab ich auch ohne test gewusst...
 
  • Gefällt mir
Reaktionen: Celinna und corvus
NameHere schrieb:
Aus deinem Text wird man nicht richtig schlau. Liegt wohl auch an deiner Schreibweise.

CPU testet man in 720p damit die Grafikkarte zu keinem Zeitpunkt limitiert und nicht weil es Oldschool und Cool ist.
Testet man in 4K das ganze, hat 1-3% Leistungsdiffenz zwischen den CPU und damit ist der Test fürn Po, weil die Grafikkarte limitiert.

Und ja, man kriegt auch eine Grafikkarte (auch eine 2080ti) in 1080p klein.
Alles richtig...
Kann aber genau wie Max. Fps nur ein ermittelter wert von vielen sein.
Max. Fps interessiert auch null. Avg. Und min. Fps sowie frame Times sagen viel mehr aus. Wo wir wieder in der real World sind. Praxis wo bei der Kaufentscheidung hilft.
Die Leute wo das zu wenig ist... Auch weil man bei 4k nicht viele unterschied sieht... Hilft halt ein in dem moment Praxisferner 720p test, genau null! Das müsste auch mal verstanden werden.
Ist alles ok und Respekt für den Aufwand. Nur wie es hochgezogen wurde... Gerade weil aus der community und man die "Probleme" mit irgendwelchen Tests die nie so transparent sind, bemängelt, kommt hier so ne logische Krücke. 😣

Ich habe hauptsächlich das Problem, das mich das absolute highend (Desktop sockel) null interessiert. Höher noch weniger.
Das wird doch zu hauf von den Hardware Redaktionen getestet. Ich will was realistisches bis ins mü mit der ganzen Erfahrung der community getestet sehen.

Ich seh halt null neue Erkenntnisse.
Wurde jetzt irgendwas neues herausgefunden? Oder lese ich nur zu viel abseits?

Mfg
 
@Matthias80 Schau in den Test in meiner Signatur was passiert wenn Du in ner anderen Lösung als 720p CPU-limitiert bist. Antwort: Ziemlich genau dasselbe. Mit den "richtigen" oder "falschen" Spielen, je nach dem wie man das sehen will, kann man auch in 4K CPU-limitiert sein.
 
Esenel schrieb:
Tja und meiner macht sogar 5.2GHz.
Haben wir damit getestet? Nein...
Rage schrieb:
@janeeisklar Und es gibt sicher auch Ryzen 3000, die nur 1800 MHz IF machen :cool_alt: Oder wo der IMC keine 3733 CL14 macht... Du siehst wo die Reise hingeht

Das hier, wie schon mehrmals geschrieben, schlicht Glück in der SiliconLottery "Verglichen" wurde. Nur macht man deswegen ein "Vergleich"? Sorry, aber ich finde das albern. Und das "Fazit" ist damit stuss.
 
  • Gefällt mir
Reaktionen: McTheRipper
Matthias80 schrieb:
Avg. Und min. Fps sowie frame Times sagen viel mehr aus. Wo wir wieder in der real World sind. Praxis wo bei der Kaufentscheidung hilft.
Die Leute wo das zu wenig ist... Auch weil man bei 4k nicht viele unterschied sieht... Hilft halt ein in dem moment Praxisferner 720p test, genau null!

Wenn du hier in einem 720p CPU Test siehst, dass sich die P99 mit RAM OC teils sehr stark steigern lassen, dann kann dir das auch in 4K helfen, wo dann nämlich jene Drops eliminiert werden, die nicht von der GPU sondern der CPU kommen.

Und ob das der Fall ist lässt sich auch ganz leicht feststellen, nämlich dann wenn die P99 im 4K GPU gleich niedrig sind wie im 720P CPU Test.
 
  • Gefällt mir
Reaktionen: ZeroStrat
Esenel schrieb:
A) kann man Quasi so sagen.
Damit erübrigen sich dann sämtliche Diskussionen von wegen "AMD war nicht übertaktet", "nicht jeder schafft 5 GHz", "AMD ist besser, weil das läuft ohne, dass man was lange dran rumstellen muss" und "in der Praxis setzt das eh keiner ein". Ihr hattet halt nicht die schnellste Intel-CPU da und habt sie quasi simuliert.
 
  • Gefällt mir
Reaktionen: Pjack und Esenel
Erst mal Danke an @Rage, @Esenel und alle anderen Mitwirkenden für den Test, und vor allem für die Arbeit.

Genauso interessant war es, die Komentare zu lesen.

Dass der Intel im reinen Gaming Betrieb noch die Nase vorne hat, war ja bekannt. Allerdings muß man ihn schon etwas quälen.
Da ich mittlerweile immer weniger Zeit mit Gamen verbringe, fahre ich bei meinen bevorzugten Szenarien mit AMD besser. Ist aber meine persönliche Bewertung. Wer die absolute Leistung braucht, soll sich ruhig den Intel holen.
Mal abwarten, ob sich das mit Ryzen 4000 ändert.

Man kann den Test auch anders lesen und bewerten. Nämlich dahingehend, was bei beiden Systemen mit schnellem RAM und RAM OC möglich ist.

Und alle, die sich an den unterschiedlichen Testsystemen stören, sollten mal berücksichtigen, dass es sich um einen privaten Test handelt, wo keine Hardware gesponsert wird.
Diejenigen sind gerne aufgerufen, sich die nötige Hardware zu besorgen, und entsprechende Test selber zu machen.
 
  • Gefällt mir
Reaktionen: iceshield und Esenel
Ist mir alles bekannt...
Hab nur probiert für die allgemeinheit zu sprechen, zu übersetzen.
Für einige die sehr tief in der Materie stecken, scheint es ja schwierig zu sein Otto normal verbraucher zu verstehen.

Gibt halt so viele Sichtweisen... Man kann es einfach nicht perfekt machen.

Mfg
 
janeeisklar schrieb:
Das hier, wie schon mehrmals geschrieben, schlicht Glück in der SiliconLottery "Verglichen" wurde.
Wo wurde denn mit den 5,2GHz verglichen die esenels 9900K packt, statt mit den 5GHz die 95% aller 9900K packen?
 
  • Gefällt mir
Reaktionen: Pjack und Esenel
Taxxor schrieb:
Was ist daran so schwer zu verstehen ?
Ich frage doch nach dem Unterschied zwischen 144fps auf einem 60Hz Monitor und 144fps auf einem 144Hz Monitor, dein Test beantwortet diese Frage aber leider nicht.
 
Matthias80 schrieb:
Gibt halt so viele Sichtweisen... Man kann es einfach nicht perfekt machen.
Das Problem liegt aber eher am Verständnis der Leute, denn die Methodik ist so perfekt wie sie eben sein kann, darüber geht nur noch jede mögliche Kombi einzeln testen.
 
Nureinnickname! schrieb:
Ich frage doch nach dem Unterschied zwischen 144fps auf einem 60Hz Monitor und 144fps auf einem 144Hz Monitor, dein Test beantwortet diese Frage aber leider nicht.
Du bekommst alle 7ms ein Bild angezeigt, das maximal 6.9s alt sein kann statt alle 16,6ms, hab ich doch geachrieben.
Ob ich es jetzt mit 200 oder 144fps erkläre, also ob das Bild 4.9ms oder 6.9ms alt sein kann, macht für dich einen Unterschied?


Durch die 144fps siehst du beim 60hz Monitor viele der gerenderten Bilder überhaupt nicht, dafür sind aber diejenigen die du siehst, jeweils weniger alt als mit 60fps.

Beim 144hz Monitor mit 144fps sind die Bilder die du siehst jeweils genau so neu, nur siehst du jetzt zusätzlich noch mehr als doppelt so viele Bilder, also mehr von dem was gerendert würde, somit ist das Erlebnis flüssiger.


Und selbst andersrum wirken 60fps auf 144hz flüssiger als 60fps auf 60hz, da du durch die mehr als doppelt so hohe Abtastrate auch eine höhere Chance hast das Bild genau dann zu sehen wenn es fertig gerendert wurde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS
Taxxor schrieb:
Wenn du hier in einem 720p CPU Test siehst, dass sich die P99 mit RAM OC teils sehr stark steigern lassen, dann kann dir das auch in 4K helfen, wo dann nämlich jene Drops eliminiert werden, die nicht von der GPU sondern der CPU kommen.

Und ob das der Fall ist lässt sich auch ganz leicht feststellen, nämlich dann wenn die P99 im 4K GPU gleich niedrig sind wie im 720P CPU Test.
Richtig.
Dann sollte die community sich vielleicht auf ein Spiel einigen. Das dann bis ins mü benchmarken. Vielleicht noch ne nicht ti Grafikkarte um ein klein Bissel im Rahmen zu bleiben... Das wird dann schon aufwendig genug um auch da den Rahmen nicht zu sprengen. So kann sich dann jeder mit diesem test ein Bild machen. Rein auf das was der test wohl Aussagen sollte. Was kann man max. Aus diesen beiden Systemen raus holen.

Mfg
 
Wow toller Test. AMD-, Nvidia-Graka, mit und ohne CPU-OC. Da sind keine Wünsche offen.
 
  • Gefällt mir
Reaktionen: KlaasKersting, Pjack, bad_sign und 2 andere
Colindo schrieb:
@Baal Netbeck Wer bitte gibt denn die Standardabweichung des Mittelwerts für so eine Situation an? Das wäre ja völliger Humbug.
Jeder der sich mit sowas nicht sehr gut auskennt....Excel anwirft und Excel sagt es soll die Standardabweichung bilden.....oder der bei "Standardabweichung" das erstbeste von Wikipedia nimmt.

Und jeder der sich zwar auskennt, aber statt einem realistischen Fehlerbalken lieber einen winzig kleinen präsentieren möchte. ;)

Das n² von "n(n-1)" im Nenner macht bei der Stdabw des Mittelwertes schon bei wenigen Messwerten den Fehler unrealistisch klein.....steht im Nenner stattdessen "n" oder "n-1", wie bei der empirischen Standardabweichung, wird mit mehr Messwerten die Zuverlässigkeit des "Fehlers" besser, aber er wird immer die Schwankung der Messwerte repräsentieren.....das ist es ja eigentlich was man möchte...denn nur so kann man sehen, wie sehr man den Werten vertrauen kann....aber man kann die Schwankungen halt nicht durch öfteres Messen klein rechnen....das ist oft nicht erwünscht. :(

Nimmt man z.B. eine fiktive Serie an FPS Werten:

42​
50.5​
51​
40​
50.2​
51.9​
....dann ist der Durchschnitt bei 47,6
Aber die "stdabw des mittelwertes" ergibt nur +-2,1 ..... das spiegelt zwar wieder dass da mit der 42 und der 40, Werte dabei sind, die aus der Reihe tanzen, ist aber viel zu gnädig.
Die Empirische Standardabweichung gibt realistischere +-4,7 aus.

Und deutlicher wird es, wenn man die Anzahl der Messungen verdoppelt....bei gleicher Schwankung ändern sich die verschiedenen Berechnungen wie folgt:
von 2,1 auf 1,4 und nochmal verdoppelt auf 0,99.
Die Empirische(mit "n" im Nenner) bleibt hingegen unbeeindruckt.(ich bevorzuge jedoch die mit "n-1", die bei wenigen Messwerten noch etwas größer ausfällt)


Für eine Standardabweicheung(egal welche Art), braucht man aber schonmal als absolutes Minimum 3 Werte....eigentlich eher minimum 5.....sonst ist der Fehler des Fehlers zu unzuverlässig.;)

Für eine halbwegs genaue Messung würde ich ebenfalls 3 Messungen als Minimum ansehen. Da sollte man dann aber stark aufpassen, dass der Messablauf auch wirklich super gut zu reproduzieren ist...dass auf keinen Fall etwas im Hintergrund die Messungen gestört hat.....und dass nicht einzelne Messungen von (für die Frametimeanalyse relevanten) zufälligen Rucklern getroffen werden und andere nicht.
Das sieht man bei CapFrameX ja seh schön, und könnte versaute Messungen wiederholen....aber auch hier muss man eben darauf achten.

Gute Spielebenchmarks zu machen ist leider eine Wissenschaft für sich und es muss immer der Nutzen und der Zeitaufwand abgewogen werden....Brauche ich länger als eine Woche um die Benchmarks fertig zu bekommen, könnten Spieleupdates, Treiberupdates oder Windowsupdates schon meine gemachten Messungen irrelevant werden lassen.
Hier sehen die Ergebnisse zumindest aus meiner Sicht konsistent aus.....aber es sind halt auch immer deutliche Sprünge in den Konfigurationen. Ob 3200 oder 3733(mit optimierten Subtimings) ist ein gut messbarer Schritt....und für die Bewertung auch nicht relevant, ob das jetzt 4, 5 oder 6 % Unterschied sind....wir wissen ja nichtmal die Nachkommastelle.
Aber wenn ich wissen möchte, ob es einen messbaren Unterschied von 1T zu GearDownMode enabled gibt, dann müsste ich andere Geschütze auffahren....Sonst weiß ich am Ende eben nicht, ob es wirklich 0,4% besser ist, oder doch nur 0,1 ....oder überhaupt schneller.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: peru3232, Colindo und Esenel
Zurück
Oben