• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Forza 7 Benchmark: Vega hat mehr Benzin im Blut als Pascal

Bitte erklärt mir was 99th Percentile (Frametimes in FPS) sein soll.

Franetimes in Millisekunden ist mir klar, aber in FPS umgerechnet nicht wirklich.

Danke
 
updater14 schrieb:
Da nun die NVIDIA-Bremse gelöst ist, wäre es doch schön zu sehen wenn nicht mal nur ein hochpotenter Prozessor zum Einsatz kommt (Die Grafikkarten-Benchmarks wurden auf einem auf 4,3 GHz übertakteten Intel Core i7-6850K (6 Kerne) durchgeführt), sondern man mal eine Standard-CPU nimmt die jeder so zuhause hat, bzw. die das Spiel als minimal Anforderung angibt.
Man kann ein bisschen was davon schätzen wenn man sich den CPU@Vega testteil des Updates ansieht:https://www.computerbase.de/artikel...ntel_fuehrt_bei_fps_amd_bei_frametimes_update

Da ist ja dann ein Stock 1800X drin.

EDIT: Vergleicht man mit der Seite davor (GPU Benchmarks mit OC i7-6850)
https://www.computerbase.de/artikel...afikkartenbenchmarks_von_full_hd_bis_ultra_hd

fullHD-frametimes:
6850@OC = 4.3GHz = 76.3 "fps" mit Vega und ebenso mit 1080
6850@stock = 3.8GHz (?) = 64.4 "fps"
Vega@Ryzen@4.0GHz (?) = 77.2 "fps"

Leider fehlen die nVidia frametimes @Ryzen - aber das ist ja schon fast standard bei CB...


Ansonsten geb ich dir Recht.
Statt ständig soviel OC mist mitzubenchen sollte man lieber ein bisschen mehr zeit in die Produktpalette legen und eben standardmäßig bei einem Game Bench so Dinge wie CPU-Skalierung, GPU-Skalierung und derzeit (da interessant und relevant) den Quervergleich AMD-GPU/nVidia GPU @Intel/AMD CPU.
Gerne einfach mit 2 "Stock" CPUs (idealerweise mit gleichem RAM z.B. 2667, z.b. i7-6850K vs R5 1600X (damit man 2 CPUs mit jeweils 6 Kernen hat - wobei natürlich Sockel 2011 vs AM4 ein bisschen blöd ist für Gamer).

Wenn man schon "OC" macht dann wäre es viel interessanter die CPU-s bei "gleichem" Takt mal zu sehen. Wieviel mehr dann mit OC geht kann man ja meist linear abschätzen in aller Regel.
 
Zuletzt bearbeitet:
Caramelito schrieb:
@Kraut die Anführungszeichen hast du gesehen?
Das waren Aussagen von NV Hatern letzte Woche ;)

;) okay, seh es als Ergänzung ^^
 
tek9 schrieb:
Da mittlerweile aber eh alle mit eingekauften Engines, Frameworks und Middleware arbeiten, sehe ich nur bedingt wo das Problem liegen soll.

Nicht jede Engine ist für jedes Spiel gut geeignet. Wenn du nur noch 3 gute Engines am Markt hast und es sich kein unabhängiges, kleines Entwicklerstudio mehr leisten könnte was eigenes zu entwickeln, könnte es sein dass einige Spielegenres noch kleiner werden als sie es eh schon sind oder dass sie ganz wegfallen.
Gerade Indieentwickler mit komplett neuen Spielideen könnten diese dann vielleicht nicht mehr umsetzen weil die passende Engine fehlt und die Komplexität zu hoch wird um selbst eine zu bauen.

Und das wäre dann lustigerweise genau das Gegenteil von dem was DX12 bewirken soll. Es soll dem Entwickler ja entgegenkommen und ihm mehr Möglichkeiten an die Hand geben.
 
tek9 schrieb:
Bitte erklärt mir was 99th Percentile (Frametimes in FPS) sein soll.

Franetimes in Millisekunden ist mir klar, aber in FPS umgerechnet nicht wirklich.

Danke

Dass ist das, was im worst case geliefert wird.
 
Da wäre es schön zu wissen, wie Nvidia die CPU Belastung senken konnte. Ich hätte nicht gedacht, dass nvidia das so schnell umsetzt...Hut ab!

Vega scheint aber weiterhin stark in Forza 7. In FullHD kommt die 1080 mit neuem Treiber nur an die 56 ran und mit 1440p an die 64...auch in 4K sind die 99th Percentile Werte gleich auf.

Wobei mich diese zuerst wunderten. Denn schaut man auf der nächsen Seite und sieht den Graphen, müssten diese mit Vega trotzdem besser sein.
Das liegt daran, das P99 Werte noch etwas zu grob sind um die Ausreißer wahrzunehmen......CB trägt ja nicht die Zeit sondern die Framenummer auf der X Achse auf...man sieht also, dass Vega64 in 4K auf 2115 Frames kommt. Hier wird für den P99 Wert also der 22. schlechteste Frametime benutzt. Bei der 1080 mit altem treiber kommt dieser auf unter 2000 Frames, es wird also der 20. schlechteste gewählt.
Man sieht eine ganze Reihe Peaks im Verlauf und der Wert von grob 16,1ms passt dazu.
Vega hat um Frame 1100 einen Moment wo es etwas schlechter läuft und hier findet sich vermutlich der 22. schlechteste Wert mit ca 13,3ms.

Mit den neuen Treiber schafft die 1080 auch 2151 Frames...also auch hier ist P99 der 22. schlechteste Wert und ca 13,3ms groß.....vermutlich im hinteren Bereich um Frame 1850.

Der Gleichstand bei den P99 Frametimes bildet meiner Meinung nach nicht das ab was diese eigentlich zeigen sollten. Man würde erwarten, dass die Peaks, die man bei beiden Karten im Verlauf sieht sich auch in P99 wiederspiegeln. Machen sie aber nur so halbwegs bei der 1080 mit altem Treiber.

Ich würde eher die P99.9 Werte angeben....dann sähe es eher so aus:
1080 alter Treiber = 22,1ms=45,3FPS......................CB= 62,1FPS
Vega64 = 13,6ms = 73,5FPS......................CB= 75,3FPS
1080 neuer Treiber =16,8ms = 59,52FPS...................CB= 75,4FPS

Das ist eben der Nachteil der Percentile Werte....avg FPS sind (wie die meisten inzwischen eingesehen haben) nicht geeignet, aber auch die Percentile Werte sind tückisch....man müsste mehr verschiedene Statistik Werte angeben um das ganze Bild bestmöglich zu zeichnen.
 
Ich als jemand der nicht so tief in der Materie drin steckt hätte da mal eine Frage an euch, die sich besser auskennen.

Ich erinnere mich an längts vergangenge Zeiten, da wurden bei Spielen mit den gleichen Settings die Bildqualität verglichen, die die jeweiligen Karten mit den entsprechenden Treibern liefern. Denn "Optimierungen" am Treiber haben damals schon teilweise zu Detail- bzw. Qualitätsverlusten geführt, sodass die Ergebnisse des Benchmarks nicht mehr wirklich vergleichbar waren, da man sozusagen andere Grafik-Settings vergleicht. Warum wird das heute nicht mehr gemacht? Sind die Unterschiede mittlerweile so gering oder fällt das einfach unter den Tisch? Was hält also die Treiberentwickler davon ab einfach gewisse Abstriche bei der Bildqualität zu Gunsten des längsten Balkens zu machen?
 
tek9 schrieb:
Bitte erklärt mir was 99th Percentile (Frametimes in FPS) sein soll.

Franetimes in Millisekunden ist mir klar, aber in FPS umgerechnet nicht wirklich.

Danke

"Frametimes in Percentil neben den FPS

Neben den Durchschnitts-FPS-Werten nutzt ComputerBase in zukünftigen Launch-Reviews zusätzlich in Percentile angegebene Frametime-Werte – genauer gesagt das 99,0th Percentile, zur besseren Vergleichbarkeit jedoch in FPS und nicht in Millisekunden angegeben. Doch was ist das überhaupt genau?

Bei den Messwerten handelt es sich um klassisch in Millisekunden gemessene Frametimes. Sprich, die zeitlichen Abstände von Frame zu Frame. Die Percentile-Werte haben nun den Sinn, vereinzelnde Ausreißer zu ignorieren. Das 99,0th Percentile besagt also, dass 99,0 Prozent aller Messwerte schneller als der angegebene Messwert sind. Sprich, lautet ein Wert im Percentile-Diagramm 60 FPS, laufen 99 Prozent mit einer höheren Framerate als mit 60 FPS. Genau ein Prozent läuft dagegen langsamer als 60 FPS. Es sind genauso noch „härtere“ (99,9 Prozent) oder „weichere“ (98,0 Prozent) Percentile-Werte möglich, wobei diese jedoch schnell wieder jeden einzelnen Ausreißer zeigen und damit auch (immer mal wieder) zufällig auftretende Hänger zeigen oder aber eben zu viele Hänger ignorieren würden.

Damit in einem Diagramm nicht zwei unterschiedliche Werte (FPS und Millisekunden) stehen, von denen einmal ein längerer Balken (FPS) ein besseres und ein kürzerer Balken (Frametimes) ein besseres Ergebnis bedeuten, wird das Ergebnis von Frametimes in Millisekunden auf einen traditionellen FPS Wert umgerechnet.

Schlussendlich ist ein normales Frametime-Diagramm immer noch am genauesten. Allerdings werden solche Diagramme sehr schnell unübersichtlich. Bereits bei zwei Grafikkarten kann ein optisches Chaos entstehen. Spätestens bei drei sind die Diagramme fast immer unbrauchbar. Der 99,0th-Percentile-Wert ist zwar weniger genau, zeigt jedoch anders als die Durchschnitts-FPS auch Ausreißer in der Performance, die den Spielfluss stören. Darüber hinaus bleiben solche Diagramme übersichtlich.
"

https://www.computerbase.de/artikel/grafikkarten/grafikkarten-testsystem-2017.59427/seite-2
 
meckswell schrieb:
".......Genau ein Prozent läuft dagegen langsamer als 60 FPS. Es sind genauso noch „härtere“ (99,9 Prozent) oder „weichere“ (98,0 Prozent) Percentile-Werte möglich, wobei diese jedoch schnell wieder jeden einzelnen Ausreißer zeigen und damit auch (immer mal wieder) zufällig auftretende Hänger zeigen oder aber eben zu viele Hänger ignorieren würden.........


Und das sehe ich problematisch....einzelne Ausreißer, können vorkommen und es ist sicherlich unfair eine Karte/CPU wegen "Pech" schlecht darstehen zu lassen.
Die Messung der 1080 mit neuem Treiber fällt aber ca. 6 Mal in 25s unter 60FPS, was bei 60Hz Monitor+V-sync zu 6 mal Tearing führen kann. Alles Meckern auf sehr hohem Niveau ;).
Aber wenn man sich die P99 von 75,4FPS anguckt, denkt man nicht, dass es überhaupt mal schlechter als 60FPS sein könnte.

Hier sind die Ausreißer aber eher die Regel als die Ausnahme...ich finde, die sollten abgebildet werden.

Ich hoffe auch, das CB die Messungen mehrfach wiederholt und mittelt, und nicht nur den einen 25s Test macht. Dann hätten die P99.9 Werte nämlich wirklich keine Aussagekraft. Über mehrere Messungen gemittlet aber schon....also meine Meinung;).

Edit: Das soll jetzt auch nicht AMD verteidigen oder Nvidia angreifen.... in diesem Fall wäre es ein Vorteil für AMD, aber an anderen Stellen wäre es häufig ein Vorteil für Nvidia und vor allem für Intel bei den Prozessoren. Ich würde mir eben nur aussagekräftigere Spieletests wünschen :)
 
Zuletzt bearbeitet:
@Baal Netbeck

ich denke mal dass jeder Abstand von Frame zu Frame (jeder Frametime Wert) zu einem FPS Wert aufgerechnet wird, richtig? Also bei zb 20ms = 50FPS.
Dann werden diese FPS Werte sortiert und ein 99 Percentile gebildet.

Wie schaut sowas bei Framelimit oder Adaptivem VSync aus? Wenn ich zb 60hz / FPS will, Vsync on haben möchte, dann bedeutet doch nicht diese Ausreißer >16,6ms vom VSync off Graph dass zwingend auch bei Vsync on die Framerate kurzzeitig unter 60 fallen muss oder? Möglich dass die GPU dadurch, dass sie insgesamt mit weniger Frames auskommt, diesen "Ruckler" bei Sync off ausbügeln kann, quasi mehr Luft hat.

Die Messung der 1080 mit neuem Treiber fällt aber ca. 6 Mal in 25s unter 60FPS, was bei 60Hz Monitor+V-sync zu 6 mal Tearing führen kann.

Hmm theoretisch ja, auch wenn der Begriff 60 FPS hier ja irgendwie komisch gesetzt ist.

Sie fällt ja nicht unter 60 FPS. 60 FPS wären imho Bilder pro Sekunde, die "Peaks" die du aber siehst sind lediglich ein Frametime Wert die kein FPS als solche ausdrücken können, bzw nur wenn man sie auf 1000ms hochrechnet.

Wenn da zb ein Frametime 20ms hat, also "50 FPS" ergeben würde, können ja die Frametimes davor und danach dennoch kleiner sein und >60 FPS ergeben.

Beispiel:

du hast diesen einen Frametime von 20ms (würden 50 FPS ergeben)
Dann verbleiben bis zu deiner Sekunde noch 980ms. Wenn das Game also mit 71 FPS laufen würde hättest du
14ms - 14ms - 14ms ... 14ms - 20ms - 14ms - ... 14ms über die ganzen 70*14ms + 1*20ms also 1000ms = 1 Sekunde.

Ein Peak von 20ms ist also != < 60FPS gleich zu setzen, bzw nur eben für diesen Sekunden Buchteil den du hier aber offensichtlich nicht bemerken kannst (hier in Forza zumindest, bei ~15-20ms). Mit VSync "on" auf fixierte 16,6ms bei 60 FPS/ Hz kann es zudem durchaus sein dass dieser 20ms Peak gar nicht auftritt.

Aber ka was ein Vsync mit diesem 20ms Peak macht. Erzwingt es die unvollständige Bildausgabe vorab? Ich mein... man würde ja nur ein einziges Bild den Tear sehen. Danach wieder Vollbilder. Wäre ja nicht dasselbe als richtiges Tearing (dauerhafter Versatz).
 
Zuletzt bearbeitet:
Ich habe den neuen Treiber noch nicht oben, aber selbst mit dem alten hatte ich bisher keine Drops oder ähnliches.

Nur das CPU Limit macht sich bemerkbar.

Mit der aktuellen 1080ti, hatte ich zunächst 200% Skalierung drinnen (Ursprung 2560 x 1440), somit 5k und meistens ~100fps und befand mich im GPU Limit.

Ich wollte mehr FPS und habe die Skalierung auf 25% runtergedreht, da dümpelte die Graka bei 70% rum und die FPS blieben in etwa gleich, bin gespannt wie das mim neuen Treiber ist. Hätte gerne 140+ FPS :-)
 
Ich denke auch die neuen Benchs zeigen, dass Forza immer noch deutlich CPU limitiert ist und dass NVidia Karten trotz neuem Treiber immer noch wesentlich mehr davon betroffen sind, als AMD Karten.
In 1080p ist eine 1080 momentan in etwa auf Augenhöhe mit Vega 56. In 2160p ca. 17% schneller?
Auch die 99% Perzentil Frametimes legen eine CPU Limitierung sehr nahe, denn hier können sich weder die Vega noch die 1080 Karten deutlich voneinander absetzen.
Schlussfolgerung aus beiden Messungen wäre, dass NVidia GPUs in 1080p ein wesentlich konstanteres Ergebnis liefern wohingegen AMD Karten anscheinend auch öfter mal einen "FPS-Burst" haben. So kommen die relativ hohen 50% Perzentil und die niedrigeren 99% Perzentil Werte zu Stande. In 2160p ist es wieder andersrum. Beides spricht dafür, dass Grafikkarten mit hohen FPS Raten massiv durch die CPU ausgebremst werden. Das betrifft sowohl NVidia als auch AMD, denn ich bezweifle sehr stark, dass es ein Zufall sein sollte, dass Vega und Pascal selbst in UHD im 99% Perzentil beide zufälligerweise mit angenommener 0,1% Messungenauigkeit auf exakt den selben Performance Wert kommen. Bei niedrigeren Auflösungen wird diese Ausprägung nur noch deutlicher.
 
SimsP schrieb:
Beides spricht dafür, dass Grafikkarten mit hohen FPS Raten massiv durch die CPU ausgebremst werden.

Wahrscheinlicher ist dass hier einfach die "engine" limitiert bzw. andere I/O operationen.
Vermutlich würde man sehen dass das Game 1:1 mit dem RAM-Takt skaliert (bei gleichem CPU-Takt und genügend GPU Leistung).

Just my 2 cents.
 
Ja da wird einfach ein Frametime in ms auf 1/s umgerechnet...man könnte sie ja auch als ms stehen lassen und die avg FPS in avg Frametimes umrechnen. Aber da wir über jahrelange Erfahrung besser die Werte in FPS einordnen können, ist das umrechnen meiner Meinung nach sinnvoll.

Wie genau es mit V-sync aussieht, ist sicherlich fraglich....je nachdem was die Peaks über 16,6ms auslöst, wird es minimal besser oder schlechter laufen als unbegrenzt.
Ich habe da mal selbst Frametimeverläufe mit V-sync gemessen und es war je nach Spiel sehr unterschiedlich.
Kommen die FPS aus dem CPU limit oder weil plötzlich Daten geladen werden müssen, dann kann die GPU auch mit mehr Luft nichts machen...es kommen einfach die Daten zu spät. Wenn die CPU/Ram seltener Drawcalls abarbeiten müssen, haben sie aber eventuell ihre Arbeit schneller verrichtet und reagieren etwas schneller. In The Witcher 3 bringt das viel...Spiele mit viel Spielrum laufen halt mit 16,6ms aber so manches Spiel das nur um die 60 FPS schafft, läuft schlechter.

Auch wenn die Szene aus irgendwelchen Gründen für einen Frame komplexer wird, kann mehr Luft nicht viel bringen. Die Karte rechnet ja Frame für Frame....egal ob sie zwischendurch Leerlauf hat, der Aufwand für diesen einen Frame wird nicht geringer. und der alte Frame ist immer schon abgeschlossen.

Ich würde zwei Dinge vermuten, die auf der GPU anders laufen:
Es könnte schlechter laufen, weil die Karte unterfordert heruntertaktet und für den Frame wieder hochtakten muss. Das kostet minimal Zeit.
Und es könnte leicht besser laufen, weil sie insgesamt weniger zu tun hat und daher mehr Spielraum bei Leistungsaufnahme und Temperaturlimit hat.


Dein Beispiel ist genau richtig....du hast in der einen Sekunde nur einen Frametime der aus der Reihe tanzt. Und wenn der in kritische Bereiche vordringt ist es dieser, der negativ auffallen kann. kann aber nicht muss;).

20ms sind meiner Meinung nach nicht schlimm. Deshalb habe ich ja geschrieben, es sei Meckern auf hohem Niveau.
Erst so ab 30ms fallen mir Ausreißer auf....zuverlässig erst ab 50ms.
Trotzdem kann der eine Ausreißer über 16,6ms den Monitor dazu zwingen für diesen Frame auf 30Hz zurückzuschalten und zweimal das vorherige Bild zu senden oder es mit Tearing zu senden. Ich meine es ging beides aber da bin ich mir zu unsicher.

Aber beides ist nicht gut. Entweder du siehst das gleiche Bild für 33,3ms, was man als kleinen Ruckler wahrnehmen kann oder man hat ein Frame mit Tearing.... das ich ganz bestimmt nicht bemerken würde aber es soll ja auch Leute geben, die selbst bei 144Hz Monitoren unter Tearing "leiden" und da wird das "zerrissene" Bild nur für 6,9ms angezeigt.

Was ab wann wie störend ist ist sehr subjektiv. Ich würde mich als moderat empfindlich beschreiben....ich habe jetzt einen 144Hz Monitor und ich sehe auch einen spürbaren unterschied...aber ob das Spiel mit konstanten 90 FPS oder mit 140FPS läuft vermag ich nicht zu unterscheiden.
Einzelne Frametimes, die kritische Werte erreichen spüre ich ganz unterschiedlich. Es kommt auf die höhe an und auf das Spiel und die Sitation...bewegt sich die Kamera schnell, bin ich empfindlicher...bei Standbildern sieht man logischerweise nichts....und dann kommt es noch stark auf die Grafikeinstellungen an...ein älteres Spiel mit harten Kanten ist empfindlicher als ein neueres, das tendenziell weichere Übergänge und oder Motion Blur hat.....deshalb sind im Kino ja auch die 24 FPS nicht so schlimm, weil alles was sich bewegt unscharf gemacht wird, bis man die Sprünge von Bild zu Bild nicht mehr richtig wahrnehmen kann.

Ich denke auch der Monitor spielt eine Rolle...Je nach Reaktionszeit/Pannelart verschwimmt da ja auch das Bild bei schnellen Bewegungen.

Wenn die Peaks der Nvidia Karten in Forza 7 heftiger sind, kann das durchaus erwähnenswert sein....denn scheinbar hängen die GPUs trotzdem noch weitgehend im CPU limit und nicht jeder hat einen 6 Kerner mit 4,3GHZ.....Je nach CPU wandern die hier harmlosen Frametimes in kritische Bereiche. Und gerade in einem Rennspiel will ich in meiner Konzentration nicht durch einen ab und zu stockenden Bildverlauf abgelenkt werden.

Auf jeden Fall danke für die Beitrag:) ....das bringt mich zun nachdenken!
 
@Iskaran: Was meinst du mit die Engine bremst?
Wenn der RAM der Flaschenhals wäre dann stellt sich aber die Frage, warum selbst in UHD die Leistung im Spiel noch mit der Anzahl der CPU-Kerne und deren Frequenz skaliert. Selbst im 50% Perzentil ist das noch zu sehen.
Ich persönlich kenne kein anderes aktuelles Spiel, bei dem mit vollen Details in UHD noch erkennbare Unterschiede in der Leistung bei Variation der verbauten CPU vorhanden sind.
 
SimsP schrieb:
......
Schlussfolgerung aus beiden Messungen wäre, dass NVidia GPUs in 1080p ein wesentlich konstanteres Ergebnis liefern wohingegen AMD Karten anscheinend auch öfter mal einen "FPS-Burst" haben. So kommen die relativ hohen 50% Perzentil und die niedrigeren 99% Perzentil Werte zu Stande. ......

Dann guck dir nochmal den Frametimeverlauf an....da siehst du, dass es anders ist.....und woher hast du die 50% Percentil? Die gibt CB doch gar nicht an?
 
50P = Avg wert (sozusagen).

Es gibt genug beispiel - speziell im Gaming Sektor wo die Performance auch im "CPU"-Limit durch schnelleren RAM deutlich steigen kann. Auch wenn formal nicht mal ein singleCore bzw. 1Thread maximiertes "CPU"-Limit vorliegt.
Beispiel ArmA3 dort sieht man auch quasi nie 100% CPU Last. Nicht mal auf einem Kern.
Packt man aber statt 2400er RAM, 3200er RAM rein kriegt man +10% min FPS (oder mehr hab die genaue Werte nicht im Kopf).

=> Typisches Beispiel für ein Pseudo-CPU limit. Alle Welt schreit nach CPU Limit, aber alle Messdaten belegen dass weder 1 Thread maximal im Anschlag ist noch ALLE threads.

Kann hier ja auch der Fall sein.
 
DocWindows schrieb:
Nicht jede Engine ist für jedes Spiel gut geeignet. Wenn du nur noch 3 gute Engines am Markt hast und es sich kein unabhängiges, kleines Entwicklerstudio mehr leisten könnte was eigenes zu entwickeln, könnte es sein dass einige Spielegenres noch kleiner werden als sie es eh schon sind oder dass sie ganz wegfallen.
Da mache ich mir keine so großen Sorgen. Ein gutes Spielkonzept braucht keine High-End-Grafik um erfolgreich zu sein. Außerdem werden die High-Level APIs ja auch nicht so schnell verschwinden. Mag sein, dass man damit dann nicht das letzte aus der Hardware herausholen kann, aber brauchbare Ergebnisse sollte man damit trotzdem bekommen. Khronos hat z.B. schon bestätigt OpenGL weiterzuentwickeln, denn für viele Bereiche braucht es keine Low-Level-API.
 
@Iscaran es kann schon einen Unterschied machen ob man den Mittelwert oder den P50 Wert nimmt. Heroes of the Storm z.B., da ist ungefär jeder siebte Frametime fast doppelt so lang wie die anderen. Auch der Mittelwert spiegelt das sehr schlecht wieder, aber der P50 sieht von den ständigen Peaks so gar nichts.

Ich hätte gerne mehr Frametimeverläufe in den Tests...die Daten hat CB ja...
 
Zurück
Oben