Ich bin kein Fan des 99th Percentile.
Es sagt nichts über die wirklich blöden Drops aus, sondern nur ganz abstrakt über die Häufigkeit "nicht so guter Phasen".
Dabei gibt es keine wirkliche Aussage darüber, wie schlecht denn nun diese Phasen sind.
Richtige Worst-Cases wie harte Drops sind dabei nicht mehr aussagekräftig abgedeckt.
Ich würde schon gerne wissen, ob ein 8-Kerner z.B. mal wenigstens in ganz blöden Situationen in Richtung der 100% mehr FPS gegenüber einem 4-Kerner kommt.
Mit den maximal 29% mehr im 99th Percentile (BF1 1500X vs 1800X) kann ich nicht viel anfangen.
Was unterhalb der 99% passiert ist völlig offen. Stürzen vielleicht beide regelmäßig unter 30 FPS? Oder tuckern sie beide bei ihren ~45 bzw ~60 FPS umher?
Was sind schon 99%? Wenn man Sekunden als Maßstab nimmt, dann kann da von 100s Gameplay eine Sekunde ein komplettes Standbild sein und das 99th Percentile trotzdem bei 90 FPS stehen. Nimmt man eine realistischere Zeiteinheit wie vllt 100-200ms, dann kann ich nach dem 99th Percentile immer noch alle ~15 Sekunden ziemlich unangenehme Drops haben, die in dieser Angabe auch nicht zu sehen sind. Dennoch wären beide Rechenbeispiele richtig ätzende Verhältnisse zum Spielen.
Klar kann man anhand der Angabe grob schätzen, aber manche Dinge kriegt man auch einfach nicht geschätzt. Z.B können Framedrops von mir aus auch mal am RAM liegen. Da wäre ein 1800X vermutlich genauso schnell/langsam wie ein 1500X. Das kann auch wie oben erklärt alle paar Sekunden passieren, einem bei beiden CPUs das Spielerlebnis ruinieren, aber man selbst steht dann da und fragt sich, warum das denn trotz des guten 99th Percentile passiert. Genauso kann es sein, dass ein 1800X z.B. in sehr CPU-lastigen Momenten nicht unter 50 FPS bricht, ein 1500X es aber nur auf 25 FPS schafft. Aber woher soll ich das wissen, wenn diese Momente selten genug sind, dass das 99th Percentile sie nicht reflektiert?
Ich persönlich hätte gern wieder Min-FPS oder ein 99,9(9)th Percentile oder halt Frametime-Diagramme.