Das Problem ist einfach, dass ich meine Meinung komplett ungefiltert sage. Ich haue nun seit gut 20 Jahren+ ordentlich Pesetas in dieses Hobby.
Wie soll ich mir eine Meinung zu etwas bilden, dass ich nicht kenne? Mit Intel war ich quasi "fertig", weil es nichts mehr zu optimieren gab. Es lief einfach perfekt. Ich habe aber diesen Basteltrieb in mir.
Ich bin da nicht repräsentativ, kann aber durchaus Schwächen durch diesen Umstand aufzeigen. Wenn jemand mit einer 2080 in WQHD Ultra/High und 120Hz spielt, wird er vermutlich eher nah am GPU Limit sein.
Ich spiele jedoch in 2560x1080P bei 160Hz und auf Ultra/Medium/Low Settings. Meine GPU wird da zu 50-60% ausgelastet. Es macht nahezu alles die CPU. Genau das sorgt aber dafür, dass hier so oft über "Hochfrequenz Kerne" gelacht wird.
Wenn ich mit 60 oder 100Hz Assassins Creed zocke(was ich nich tue), dann wird man fast unmöglich diese Nachteile bemerken. Gleiches gilt für Formel 1 , Tomb Raider etc., diese Spiele sind nicht competitive und der Spieler würde das niemals bemerken.
Bei Shootern sieht die Sache ganz anders aus, wobei Shooter sich auch wieder je nach Engine anders verhalten. Overwatch reagiert total anders als CS Go. Faktisch gibt es aber keinen Shooter der so am System nagt, wie Battlefield. Da hier komplexe Dinge wie die Physik, Spieler etc. auf der CPU berechnet werden, geht bei vielen Explosionen der Punk ab. Hier kann man gnadenlos Schwächen aufdecken. Das mache ich und das gefällt vielen nicht.
Es gibt keinen korrekten Benchmark Parcours, man stellt jedoch schnell fest wie responsive etwas ist, wie die Frametimes und Drops sind.
Den allseits beliebten R5 2600 finde ich z.B unerträglich für BF5. Ich lasse die Settings ja immer gleich. Der 2600 liegt bei mir bei ca. 100 FPS mit Drops auf 56... , der 3600X macht da mal eben 150 FPS mit Drops auf 120 draus. Der Unterschied ist gewaltig! Der Preis ist für mich sekundär. Ich will Leistung und Fortschritt. Für alle!