Weniger Frames bei höherem GPU Takt?

AP Nova

Commander
Registriert
Juni 2008
Beiträge
2.256
Als ich neulich aus Langeweile meine GTX 260 (siehe Sysprofile) noch etwas weiter übertaktet habe, letzten Endes auf 720 MHz bei der GPU, 1512 bei den Shadern und 1260 MHz für den VRAM und dann einen nur kurzen Testlauf machen wollte, um zu gucken, ob die Karte dabei wenigstens für wenige Minuten vernünftig läuft, ist mir ein sehr merkwürdiges Phänomen untergekommen:

Läuft meine Karte auf ihren Standardtaktraten (625/1348/1100), habe ich im Benchmark von World in Conflict mehr durchschnittliche Frames (31, allerdings bei aktiviertem Vsync), als wenn die Karte übertaktet auf den erwähnten 720/1512/1260 läuft, in dem Fall hatte ich nur noch 28 fps im Schnitt, immer noch mit aktiviertem Vsync. Natürlich ist es sinnlos, mit Vsync zu benchen, es ging mir aber eigentlich nur darum, mir einen groben Überblick über den Leistungsgewinn bzw. die Taktmöglichkeiten zu verschaffen, deshalb war ich zu faul, es für die paar Minuten zu deaktivieren.

Hat irgendjemand eine Erklärung für dieses Phänomen?

Meine Vermutung: Da ich sowieso schon festgestellt habe, dass World in Conflict bei mir linear zum CPU Takt skaliert, wird wohl meine CPU der entscheidende Faktor sein. Durch den erhöhten GPU Takt benötigt die GPU vielleicht mehr CPU Ressourcen, die dann natürlich bei der Berechnung des eigentlichen Spiels fehlen. Klingt halbwegs logisch, allerdings weiß ich nicht, inwiefern das wirklich auf Tatsachen basiert.

Danke für eure Antworten

edit: Habe übrigens jeweils zweimal mit OC und ohne OC gebencht, bei beiden Malen das gleiche Ergebnis, mit "Zufall" bzw. Messtoleranzen wird das also nicht zu begründen sein.
 
Es ist eher folgendermaßen zu erklären:
Manche der Ausführungseinheiten kommen bei dem hohen Takt nicht mehr mit und machen Fehler. Es sind jedoch nur kleine Fehler, die noch von den Fehlerkorrekturmechanismen der GPU erkannt werden. Deshalb werden die fehlerhaften Berechnungen von neuem ausgeführt und das führt zu einer niedrigeren Bildrate.
 
AP Nova schrieb:
...
Meine Vermutung: Da ich sowieso schon festgestellt habe, dass World in Conflict bei mir linear zum CPU Takt skaliert, wird wohl meine CPU der entscheidende Faktor sein. Durch den erhöhten GPU Takt benötigt die GPU vielleicht mehr CPU Ressourcen, die dann natürlich bei der Berechnung des eigentlichen Spiels fehlen. Klingt halbwegs logisch, allerdings weiß ich nicht, inwiefern das wirklich auf Tatsachen basiert....

Hast du die Auslastung der CPU aufzeichnen lassen. Mit einem Tool das MIN, MAX aufzeichnet. Kenne das von der Temp. her.

Ich denke Deine GPU taktet selber wieder herunter.:D Ich kann aber total daneben liegen.
 
1337 g33k's Erklärung ist auf jeden Fall passend. nVIDIA Karten korrigieren diese Berechnungsfehler wirklich intern um Anzeigefehler zu vermeiden. Kenne das Phänomen von meiner vorherigen 8800 GTS. Meine Radeon z.B. scheint diesen Mechanismus nicht zu besitzen. Wenn ich die Karte zu hoch takte, dann erhalte ich zwar höhere Bildraten, allerdings ist das Bild dann übersäht mit Fragmenten und Artefakten.
 
hab das gleiche problem mit meiner HD4850... wenn ich den GPU-Takt erhöhe, gehen die FPS runter (vermutlich fehlberechnungen)

das ganze übertakten von GPUs bringt eh nicht viel, bzw. wenig(er)

nur beim OCn meiner CPU steigen die FPS in Source-Basierten Games (CSS; L4D2)
über 3,1Ghz gehen die FPS dann aber wieder runter (vermutlich fehlberechnungen)
 
die fehlberechnungen kann man dann aber eigentlich zu einem bestimmten grad mit spannung kompensieren. also core spannung rauf. ob man das dann wirklich machen will soll jeder für sich entscheiden.

ich pack meine HD5870 nicht an. die paar fps mehr jucken mich nicht. zieh ja nichtmal meine cpu mehr über 3.2Ghz....
 
Zurück
Oben