neo-bahamuth schrieb:
Erstmal müsste auch geklärt werden, ob allein die Grafikkarte schuld ist. Es gibt auch Beispiele, wo solche Probleme auch in Verbindung zu Intel-Chipsätzen gebracht werden. Daher wären die gleichen Tests auf einem AMD 990FX Board zB hilfreich.
Weiterhin gabs im Internet auch einen Test (hab die Quelle leider nicht parat), da wurde das Problem behoben (Intel i5 + Radeon 79xx) glaub ich) indem Skyrim auf einen Kern begrenzt wurde.
Von daher fände ich es toll, wenn das Problem auch mal mit AMD-CPUs und Chipsätzen beleuchtet wird um zu sehen, ob es da auch einen zusammenhang gibt oder Bild identisch zum Intel System bleibt.
Weil die Testplattformen zu den Framelatenzen sind eigentlich nur Intel-basiert.
Du beziehst dich bestimmt auf diesen hier:
http://benchmark3d.com/microstutter-case-study-skyrim-wtf-edition
Und es würde mich in der Tat interessieren was die Ursache für dieses Problem ist - denn:
1.) auch nVidia Karten zeigen derartige Latenzen, die z.T. auch via Treiber gefixed wurden
2.) wieso ÄNDERT das setzen einer Core Affinity überhaupt etwas an diesem Verhalten ? (siehe Link oben)
3.) Betrifft es vielleicht nur intel chipsätze ?
4.) Betrifft das wirklich nur HD7k (oder alle HD karten ?)
Alles Fragen die Hardwaremagazine sich mal ansehen könnten (mit rel. wenig aufwand) und die alle sehr gut wären zu wissen.
Danke für diesen Link an Neo-Bahamuth:
http://www.tomshardware.com/reviews/gaming-processor-frame-rate-performance,3427-5.html
Man sieht sehr gut dass die "Framelatenzen" bei der 95% Percentil Fraktion (speziell für Far Cry 3) bei INTEL CPUs besonders hoch sind !
Ironie:
ALSO LEUTE KAUFT KEINE INTEL CPUS mehr => Die "ruckeln" euch die GPU FPS weg.
Vielleicht ist aber auch die Far Cry 3 engine schlecht multi-threading fähig (oder Intel CPUs liegen der Engine nicht besonders) ?
http://www.tomshardware.com/reviews/gaming-processor-frame-rate-performance,3427-5.html
Oder...*beliebigen anderen Grund hier einsetzen*
Solange man das nicht untersucht hat sind solche Aussagen wie
"Und in der Tat, unsere Messungen der Framelatenz zeigen interessante Ergebnisse, die zum Teil auch spürbar sind. So stockt zum Beispiel The Witcher 2 auf der Radeon HD 7970 GHz Edition trotz hoher FPS-Werte spürbar, was sich nicht in den FPS-, aber in den Framelatenzdiagrammen schnell zeigt. Die GeForce GTX 680 läuft in diesem Spiel trotz niedrigerer Framerate deutlich besser – der Peak zu Beginn der Sequenz ist reproduzierbar, tritt aber nur ein Mal auf."
Völlig unqualifiziert. Insbesondere mit "wertenden" Aussagen wie
deutlich besser etc....
100 FPS Average trotz ruckler kann nicht viel schlechter sein als 50FPS (dazu müssten schon >50% der Ruckler mehr als 100% ABWEICHUNG in der "latenz" haben - 100fps ~10ms latenz um schlechter als 50FPS zu sein müssten die Latenze sprünge also regelmäßig WEIT über 20ms differenz gehen, z.b frame 1, 5ms; frame 2, 35ms ~20 ms = 50 "FPS" im Mittel....
Denkt mal drüber nach was ihr hier wirklich seht und wie "schlimm" das alles ist auf einem Display mit 60Hz. Mal davon ab dass es noch Inputlags anderer Art gibt die z.T. LOCKER mal über das hinaus gehen was hier "gemessen" wird.
Mit ein Grund warum ich ATI meide, Treiber ist nichts für mich und das ruckeln sehe ich auch schon immer deshalb Kauf ich seit Jahren nur noch Nv.
Bitte solche Kommentare gleich sparen - oder schonmal den i5 aus der Kiste weghauen und dafür ne AMD CPU nehmen - die ruckeln viel weniger (5ms im Schnitt).
Was ich wirklich gut fände wäre die Angabe der "Varianz" also eben der gemittelten Schwankungsbreite der FPS eines beliebig langen Benchmarkabschnittes.
Oder eben die Betrachtung der sigma-Percentile (z.B. gemittelte FPS-Abweichung für 95% der FPS) - damit kann man dann gut die paar wirklichen Ausreißer "filtern" die in so einem Datensatz unweigerlich drin sind.