KurzGedacht schrieb:
Ich gebs auf. Einige hier sind einfach resistent gegenüber vernünftigen Argumenten.
Das Ding ist, wenn man künstlich die FPS hoch prügelt, dann profitiert eine CPU, die Leistung durch Latenzeinsparung erziehlt, mehr als eine, die Leistung durch schnellere Berechnungen gewinnt. Denn die schnellen Berechnungen sind eben auch da, wenn es mehr zu tun gibt. Die Latenzeinsparung bei weniger FPS ist auch noch da, aber eben dann x-fach weniger in der kumulierten Sekundenmessung, weswegen sich die Verhältnisse verschieben werden.
Die Frage ist am Ende, was bringt mir das Wissen über den Durchsatz? Ist es das was man wirklich lesen will?
Oft werden ja gerade die CPU Reviews als Basis für die Kaufberatung genommen.
Und ne, das ist auch kein GPU Ding, denn mit ner schnelleren GPU wird die FPS Rate nicht steigen, wenn die CPU am Limit ist. Zum Beispiel weil man in einem Titel da ne hochkomplexe Physik oder KI Berechnung rein gebaut hat. Dummerweise kann man das heute nur näherungsweise testen. Denn es gibt meines Wissens nach keine Games am Markt, die ne bessere KI oder Physik nutzen, wenn die CPU Leistung steigt. Man kann also zum Testzeitpunkt immer nur eben nach oben mit den FPS (durch weniger Last), aber nicht nach unten testen (durch mehr Last)
Matthias80 schrieb:
Beim 7950x3d doch auch so...
Ja logisch, aber der hat eben 8C/16T die er dann benutzt. Es ist davon auszugehen, dass wenn AMD nicht künstlich den 8C vom Takt oder so stärker limitiert als die anderen beiden, dass der 8C den 12C im Gaming schlägt oder zumindest gleich schnell ist.
Es wird immernoch Sachen geben, die der 12C besser kann - auch im Gaming, weil nicht alles durch das Spiel selbst berechnet wird. Da wird auch sicher zu Teilen Last auf dem zweiten CCD sein, die dann beim 8C mit auf dem einen abgehandelt wird. Je nachdem, wie viel das ist halt.