EchoeZ
Commander
- Registriert
- März 2009
- Beiträge
- 2.980
Da hast Du einen Denkfehler, denn es werden nur 'f' also einzelne Frames die überdurchschnittlich lange berechnet werden, aussortiert. Wenn Du in einer kurzen Benchmarksequenz von - sagen wir mal 10s - insgesamt 900 Bilder berechnet werden, hast Du 90 Bilder pro Sekunde. Da dauert die Berechnung eines Bildes 11,1ms. (Anm. Gilt in dem Fall bei wirklich gleichmäßigen 90 Bilder pro Sekunde)Taxxor schrieb:Nicht so ganz richtig. Aussortiert werden nicht nur die schlechtesten, sondern fast alle fps Werte, da die Angabe sich nicht auf einen Mittelwert, sondern immer auf den minimalen fps Wert bezieht.
Wenn von den insgesamt 900 Bilder MEHR als 1% durchschnittlich höher ausfallen werden diese aussortiert.
Bsp.1:
5%, also 45 Bilder brauchen länger als 11,1ms bleiben 855 Bilder insgesamt übrig, der Fps-Durchschnitt sinkt von 90fps (herkömmliche AvgFPS) auf 85,5fps (mit 99.Perzentil).
Bsp.2:
10%, also 90 Bilder brauchen länger als 11,1ms bleiben 810 Bilder insgesamt übrig und der Durchschnitt sinkt auf 81fps
Nun kommt für die Nachvollziehbarkeit der Berechnung erschwerend hinzu, daß die Fps von Sekunde zu Sekunde schwanken.
Werden in der einen Sekunde 100 Bilder (10ms Frametime), und in der nächsten 80 Bilder (12,5ms Frametime) ausgegeben muss man in jeder einzelnen Sekunde berechnen, wieviele Bilder dieser Sekunde länger brauchen um berechnet zu werden.
Das macht dann die Mess-Software zum Glück automatisch.
Du gehst bei deinen Beispielen vom weglassen ganzer Sekunden aus, und das ist nicht richtig!
Das ist dann die falsche Schlussfolgerung.Im Grunde ist diese Darstellung nichts anderes als eine einfache min fps Angabe, durch das Aussortieren von 0,1%, bzw 1% der schlechtesten Werte wird nur verhindert, dass ein einziger 0,2s kurzer Drop auf 20fps diesen Wert als min fps Wert wiederspigelt, obwohl er 99,9% der restlichen Zeit über 60 lag.
Bei einem Drop auf 20fps dauert die Berechnung eines einzelnen Bildes 50ms. Wenn dort nur ein Bild in der gesamten Sekunde länger braucht als 50ms liegt man über dem 1% und es wird weg gelassen. Bei den Beispielsweise 10s Benchmark würde der Durchschnitt im 99. Perzentil von 20fps auf 19fps sinken.
Wie gesagt, es ist nicht einfach nachzuvollziehen und noch schwerer, quasi unmöglich von Hand zu berechnen, bei den teilweise sehr starken Fps-Schwankungen im Benchmark der dazu noch länger dauert als 10s.
Dafür werden doch die Benchmarks (leider nicht immer) in unterschiedlichen Qualitäts-Voreinstellungen gemessen! FullHD vom Low bis Ultra, wie hier bei Dirt 4 geschehenJesterfox schrieb:Auflösung schön und gut, aber welche Detailstufe? Denn Überraschung: die kann man auch noch anpassen.
Habs mal editiert.Cuxnase schrieb:Du kannst halt eher sehen was die CPU in Verbindung mit einer Highend-CPU die in den wenigsten Rechner werkelt, kann. Demzufolge sehr sehr wichtig.
Demzufolge nur für die Besitzer dieser teuersten Karten sehr sehr wichtig, die in 720p zocken!
Mit deutlich schwächeren Karten bist Du eh viel eher im GPU Limit
--------------------------------------------
Ergänzung: Als extremes Beispiel
Die GTX1080Ti FE 'verliert' 44% der berechnetet Frames in der Perzentil Angabe
Die Sapphire RX580 Nitro dagegen nur 15%
Das ist natürlich ein theoretischer Wert, die höheren Fps bleiben der 1080Ti praktisch erhalten.
Nur wirkt das Gaming auf der RX580 flüssiger, weil diese verhältnismäßig weniger Bilder mit überdurchschnittlicher Berechnungzeit ausgibt.
Deswegen ist für mich die Perzentil Angabe im Verhältnis zu herkömmlichen AvgFPS Angabe ein Qualitätswert, und kein Leistungswert.
Hier noch was, es betrifft nur bedingt die 99.Perzentil-Angabe, aber daraus kann man die Kalkulation ableiten[FONT=Trebuchet MS, Arial, Helvetica]
http://www.mvps.org/directx/articles/fps_versus_frame_time.htm[/FONT]
Zuletzt bearbeitet:
(Ergänzung und ein paar Korrekturen)