News Neue Framelatenz-Diagramme auf ComputerBase

Das Frametime-Diagramm in der News wurde von CB erstellt.

Meine Aussage bzog sich nicht Direkt auf dem Beitrag von Matzegr. Sondern Allgemein weil ihr davon gesprochen habt, das es auch an anderen Dingen liegen kann.


Ich habe mir den Link natürlich nicht angeschaut. Sonst wüsste ich es ja.
 
Zuletzt bearbeitet:
Schön das mein Videolink gelöscht wurde, da hat der Moderator ihn nicht verstanden. :(

Ich fasse kurz zusammen. Jeder Test zeigt nur, wie der Tester ihn gerne gesehen haben will.
 
EchoeZ schrieb:
Ist lesen UND verstehen so schwer?

Im Test der 17 Karten wurde geschrieben, daß bei z.B FC3 die Framelatenzen einer AMD im Vergleich zur Nvidia nicht auffallen. Dennoch sind die da...
In dieser News wird nur dargestellt, daß die durchschnitllichen Fps-Werte durch die Latenzen "angehoben" werden.

Man könnte auch meinen, daß es Absicht sein könnte, um eben den "längeren" Balken zu haben...

"Das folgende Beispiel zeigt, dass die Radeon HD 7970 verglichen mit einer GeForce GTX 680 in Far Cry 3 deutlich mehr Ausreißer zeigt, d.h. sie generiert die Frames in unregelmäßigen Zeitabständen sodass der übliche Durchschnittswert von 43 FPS nur eine begrenzte Aussagekraft hat."

VS

"Jedoch lässt sich nicht generell sagen, dass die aufgezeigten Schwächen bei den Framelatenzen immer spürbar sind und das Spielgeschehen somit negativ beeinflussen. So können wir das sich anhand des Framelatenzdiagramms ergebende Bild in Far Cry 3 zum Beispiel nicht bestätigen – die Radeon HD 7970 GHz Edition ist nicht spürbar schlechter als die GeForce GTX 680."


Ersteres hat einen negativen Anklang, zweiteres einen positiven. Dazu kommt das man die ganze Sache nochmals aufgreift, ein paar Tage nachdem man das Thema schon einmal behandelt hat. Aber ohne weitere Erkenntnisse. Das wirkt auf mich nicht Neutral, noch informativ.

Wäre der Beitrag mit Ursachenforschung versehen gewesen, okay. Aber ohne wirkt es eher wie "Panikmache", wie einige hier schon äußerten.

Wenn es der Fall bei NVidia wäre, würde ich auch gerne wissen wieso und nicht nochmal das Wissen was ich schon habe erneut aufgerollt bekommen. (ein gutes Beispiel für diesen "Unsinn" war damals die Berichterstattung über die FX5800, wo jeder schrieb "Zu laut, zu warm, eine ATI 9700pro ist besser", aber so gut wie keiner auf die Ursachen einging).
 
neo-bahamuth schrieb:
Erstmal müsste auch geklärt werden, ob allein die Grafikkarte schuld ist. Es gibt auch Beispiele, wo solche Probleme auch in Verbindung zu Intel-Chipsätzen gebracht werden. Daher wären die gleichen Tests auf einem AMD 990FX Board zB hilfreich.
Weiterhin gabs im Internet auch einen Test (hab die Quelle leider nicht parat), da wurde das Problem behoben (Intel i5 + Radeon 79xx) glaub ich) indem Skyrim auf einen Kern begrenzt wurde.
Von daher fände ich es toll, wenn das Problem auch mal mit AMD-CPUs und Chipsätzen beleuchtet wird um zu sehen, ob es da auch einen zusammenhang gibt oder Bild identisch zum Intel System bleibt.
Weil die Testplattformen zu den Framelatenzen sind eigentlich nur Intel-basiert.

Du beziehst dich bestimmt auf diesen hier:
http://benchmark3d.com/microstutter-case-study-skyrim-wtf-edition

Und es würde mich in der Tat interessieren was die Ursache für dieses Problem ist - denn:

1.) auch nVidia Karten zeigen derartige Latenzen, die z.T. auch via Treiber gefixed wurden
2.) wieso ÄNDERT das setzen einer Core Affinity überhaupt etwas an diesem Verhalten ? (siehe Link oben)
3.) Betrifft es vielleicht nur intel chipsätze ?
4.) Betrifft das wirklich nur HD7k (oder alle HD karten ?)


Alles Fragen die Hardwaremagazine sich mal ansehen könnten (mit rel. wenig aufwand) und die alle sehr gut wären zu wissen.

Danke für diesen Link an Neo-Bahamuth:
http://www.tomshardware.com/reviews/gaming-processor-frame-rate-performance,3427-5.html

Man sieht sehr gut dass die "Framelatenzen" bei der 95% Percentil Fraktion (speziell für Far Cry 3) bei INTEL CPUs besonders hoch sind !

Ironie:
ALSO LEUTE KAUFT KEINE INTEL CPUS mehr => Die "ruckeln" euch die GPU FPS weg.

Vielleicht ist aber auch die Far Cry 3 engine schlecht multi-threading fähig (oder Intel CPUs liegen der Engine nicht besonders) ?
http://www.tomshardware.com/reviews/gaming-processor-frame-rate-performance,3427-5.html

Oder...*beliebigen anderen Grund hier einsetzen*

Solange man das nicht untersucht hat sind solche Aussagen wie

"Und in der Tat, unsere Messungen der Framelatenz zeigen interessante Ergebnisse, die zum Teil auch spürbar sind. So stockt zum Beispiel The Witcher 2 auf der Radeon HD 7970 GHz Edition trotz hoher FPS-Werte spürbar, was sich nicht in den FPS-, aber in den Framelatenzdiagrammen schnell zeigt. Die GeForce GTX 680 läuft in diesem Spiel trotz niedrigerer Framerate deutlich besser – der Peak zu Beginn der Sequenz ist reproduzierbar, tritt aber nur ein Mal auf."


Völlig unqualifiziert. Insbesondere mit "wertenden" Aussagen wie deutlich besser etc....

100 FPS Average trotz ruckler kann nicht viel schlechter sein als 50FPS (dazu müssten schon >50% der Ruckler mehr als 100% ABWEICHUNG in der "latenz" haben - 100fps ~10ms latenz um schlechter als 50FPS zu sein müssten die Latenze sprünge also regelmäßig WEIT über 20ms differenz gehen, z.b frame 1, 5ms; frame 2, 35ms ~20 ms = 50 "FPS" im Mittel....

Denkt mal drüber nach was ihr hier wirklich seht und wie "schlimm" das alles ist auf einem Display mit 60Hz. Mal davon ab dass es noch Inputlags anderer Art gibt die z.T. LOCKER mal über das hinaus gehen was hier "gemessen" wird.

Mit ein Grund warum ich ATI meide, Treiber ist nichts für mich und das ruckeln sehe ich auch schon immer deshalb Kauf ich seit Jahren nur noch Nv.

Bitte solche Kommentare gleich sparen - oder schonmal den i5 aus der Kiste weghauen und dafür ne AMD CPU nehmen - die ruckeln viel weniger (5ms im Schnitt).

Was ich wirklich gut fände wäre die Angabe der "Varianz" also eben der gemittelten Schwankungsbreite der FPS eines beliebig langen Benchmarkabschnittes.
Oder eben die Betrachtung der sigma-Percentile (z.B. gemittelte FPS-Abweichung für 95% der FPS) - damit kann man dann gut die paar wirklichen Ausreißer "filtern" die in so einem Datensatz unweigerlich drin sind.
 
Zum Thema Radeon Pro und Double VSync
i7-3930K +2x HD7970

AvP ohne
AvP Graph.pngAvP.png
mit 60fps
AvP D-Vsync graph.pngAvP D-Vsync.png
mit 59fps
AVP D-Vsync 59 graph.pngAVP D-Vsync 59.png

Bulletstorm ohne
Bulletstorm Graph.pngBulletstorm.png
mit
Bulletstorm D-Vsync graph.pngBulletstorm D-Vsync.png

Borderlands 2 ohne
Borderlands 2 graph.pngBorderlands 2.png
mit
Borderlands 2 D-Vsync graph.pngBorderlands 2 D-Vsync.png
Und was passiert wenn man das falsche Crossfire Profil aktiviert ;)
Borderlands 2 D-Vsync CF-pro graph.pngBorderlands 2 D-Vsync CF-pro.png


Trine 2 ohne
Trine 2 graph.pngTrine 2.png
mit
Trine2 D-Vsync graph.pngTrine2 D-Vsync.png
 

Anhänge

  • Crysis 2 Normal.png
    Crysis 2 Normal.png
    38,9 KB · Aufrufe: 537
  • Dirt -3 Normal graph.png
    Dirt -3 Normal graph.png
    137,3 KB · Aufrufe: 501
  • Dirt-3 Normal.png
    Dirt-3 Normal.png
    49,5 KB · Aufrufe: 498
Luxuspur schrieb:
achnee ... mittlerweilen auch auf CB angekommen ... das hohe FPS alleine nichts bringen ... dann will ich euch auch gleich noch nen Tip geben ... wenn man sich mit den Spieleprofilen auseinandersetzt und selbst Hand anlegt ... kann man da auch noch einiges rauskitzeln ... (mikro)ruckler zeigen nur die eigene Unfähigkeit!

Lol
Am besten noch im Grafiktreiber und im Spiel ein paar Zeilen Code hinzufügen damit diese schneller laufen.
"Schlechte Spiele und Grafiktreiber zeigen nur die eigene Unfähigkeit!"
 
Können wir uns drauf einigen, dass das Problem zu komplex ist, um es alleinig auf das Speichermanagement der AMD-Karten zu beschränken? :)
 
Relaxo32 schrieb:
Ersteres hat einen negativen Anklang, zweiteres einen positiven. Dazu kommt das man die ganze Sache nochmals aufgreift, ein paar Tage nachdem man das Thema schon einmal behandelt hat. Aber ohne weitere Erkenntnisse. Das wirkt auf mich nicht Neutral, noch informativ.

610px-Are-You-Kidding-Me-Rage-Face-Meme-Template-Blank-1024x1008.png

Wie wäre es denn, wenn hier mal jemand nicht immer nur einzelne Absätze, sondern ganze Zusammenhänge lesen würde!?

Soll ich NOCHMAL verlinken, oder kommst Du allein drauf?
 
@Haldi: Danke für deine Messung! Sehr interessant.
 
MadManniMan schrieb:
Anhang anzeigen 323613

Wie wäre es denn, wenn hier mal jemand nicht immer nur einzelne Absätze, sondern ganze Zusammenhänge lesen würde!?

Soll ich NOCHMAL verlinken, oder kommst Du allein drauf?

"So stockt zum Beispiel The Witcher 2 auf der Radeon HD 7970 GHz Edition trotz hoher FPS-Werte spürbar [...]"

"Ähnliches können wir über Alan Wake sowie Hitman: Absolution berichten. [...] hakt jedoch spürbar mehr [...]."

" Jedoch lässt sich nicht generell sagen, dass die aufgezeigten Schwächen bei den Framelatenzen immer spürbar sind und das Spielgeschehen somit negativ beeinflussen. So können wir das sich anhand des Framelatenzdiagramms ergebende Bild in Far Cry 3 zum Beispiel nicht bestätigen – die Radeon HD 7970 GHz Edition ist nicht spürbar schlechter als die GeForce GTX 680."

"Das folgende Beispiel zeigt, dass die Radeon HD 7970 verglichen mit einer GeForce GTX 680 in Far Cry 3 deutlich mehr Ausreißer zeigt, d.h. sie generiert die Frames in unregelmäßigen Zeitabständen sodass der übliche Durchschnittswert von 43 FPS nur eine begrenzte Aussagekraft hat."


Zusammenhang: Die HD7970 zeigt das Verhalten, es ist auch nachmessbar.

Trotzdem lässt sich nicht absprechen, das die Aussage aus dem Test zu FarCry 3 weniger negativ ausfällt als eben aus jener "News". Hier wird letztendlich die hohe FPS relativiert durch die Framelatenzprobleme. Obwohl nach dem Test selbst "die Radeon HD 7970 GHz Edition ist nicht spürbar schlechter als die GeForce GTX 680." ist. Was FarCry 3 anbelangt.

Trotzdem fehlt mir einfach Ursachenforschung, warum ist das der Fall? Sowas gehört dazu. Ansonsten ist es nur ein Aufgreifen bekannter Probleme ohne weiteren Mehrwert... denn das Thema geistert ja schon eine Weile in den Foren und wurde von anderen Seiten schon analysiert und dort Ursachenforschung betrieben.


Edit: Was Haldi und Iscaran gepostet haben ist da schon interessanter.
 
Zuletzt bearbeitet:
Ich versteh nicht ganz, wieso hier auf dieser News so rumgehackt wird. Ich seh das jetzt weder pro-Nvidia noch gegen AMD gerichtet. Nur weil die Kernausage bereits dem großen Graphikkarten test versteckt war, kann man doch trotzdem nochmal drauf hinweisen, vorallem bei einem so brisanten Thema.
Ich hat den Graphikkartentest selbst nur kurz überflogen und hätte ohne diese News von dem Thema nichts mitbekommen. Außerdem find ich die CB Berichterstattung hier sehr neutral. Der ursprüngliche techreport.com Bericht war sehr pro-Nvidia und derpcgameshardware dafür etwas pro-AMD...
 
mark82 schrieb:
Ich versteh nicht ganz, wieso hier auf dieser News so rumgehackt wird. Ich seh das jetzt weder pro-Nvidia noch gegen AMD gerichtet. Nur weil die Kernausage bereits dem großen Graphikkarten test versteckt war, kann man doch trotzdem nochmal drauf hinweisen, vorallem bei einem so brisanten Thema.
Ich hat den Graphikkartentest selbst nur kurz überflogen und hätte ohne diese News von dem Thema nichts mitbekommen. Außerdem find ich die CB Berichterstattung hier sehr neutral. Der ursprüngliche techreport.com Bericht war sehr pro-Nvidia und derpcgameshardware dafür etwas pro-AMD...


Mir persönlich fehlt nur eine Ursachenforschung.
Die Sache mit dem negativen / positiven Anklang stört mich persönlich nur, weil es auf mich so einwirkt auf Grund der Aussagen in der News / dem Test.

Und ersteres, liegt wohl daran das ich Geschichts- und Religionswissenschaftsstudent bin und man sich oftmals daran stört schon Bekanntes immer und immer wieder durchzukauen ohne Neuerkenntnisse.

Aber das ist alles im allen mein persönliches Empfinden zu der ganzen Sache. Interessant sind die Reaktionen trotzdem.

Edit: Und Neutralitätsempfinden ist immer schwierig zu beurteilen. Ich empfinde mich persönlich im Moment als Neutral, wenn ich aber mal überlege und meine Aussagen von "weit weit weg" (insofern mir das persönlich möglich ist) betrachte, würde ich wahrscheinlich zu der Aussage kommen das ich es nicht bin. Alles subjektives Empfinden (ich fand z.b. den techreport neutral, pcgh amd-pro).
 
Zuletzt bearbeitet:
Wie soll eine Ursachenforschung aussehen wenn die Ursache im Quellcode vom Treiber steckt, was AMD ja schon selber bestätigt hat?

Das Problem tritt halt bei AMD Karten auf, also ist es negativ für AMD. Punkt. Da kann man nix machen. Darüber zu diskutieren wie negativ jetzt der Bericht ist finde ich unsinnig, ausser die Redakteure würden direkt davon abraten AMD Karten zu kaufen, lol.

Und positiv ist, dass AMD schon reagiert hat und das Problem bereits teilweise bereinigt hat bzw. an einer umfassenderen Lösung arbeitet.
 
Vielleicht haben die AMD-Ingenieure die Bäume nicht lieb genug geknuddelt? Was denkst du denn, was die Ursachen sind? Die Ursachen werden hinter der Patent- und Betriebsgeheimniswand liegen. Wer nicht einmal Messwerte statistisch korrekt verwerten kann, sollte hier lieber den Schlussstrich ziehen. Wenn einzelne jetzt erst erkannt haben, wie man Framezeiten misst, finde ich das bedauerlich. Das Problem ist bekannt.
 
Zuletzt bearbeitet von einem Moderator:
Da abulafia ja Profi zu sein scheint... wie sind die ausgleichenden Ausschläge nach unten unmittelbar nach den Peaks denn statistisch korrekt einzuordnen?
 
Wieso einordnen? Du vermischt statistische Analyse mit der Interpretation. Die technische Begründung liegt bei AMD, dazu fehlt hier allen die Kenntnis.

Ich stelle nur fest, dass man das alles eher hätte darstellen können, wenn man mal von der sturen, geglätteten FPS Betrachtung abgewichen wäre. Mittelwert und Varianz anzugeben sollte sogar der Theologe gelernt haben.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben