Als ich neulich aus Langeweile meine GTX 260 (siehe Sysprofile) noch etwas weiter übertaktet habe, letzten Endes auf 720 MHz bei der GPU, 1512 bei den Shadern und 1260 MHz für den VRAM und dann einen nur kurzen Testlauf machen wollte, um zu gucken, ob die Karte dabei wenigstens für wenige Minuten vernünftig läuft, ist mir ein sehr merkwürdiges Phänomen untergekommen:
Läuft meine Karte auf ihren Standardtaktraten (625/1348/1100), habe ich im Benchmark von World in Conflict mehr durchschnittliche Frames (31, allerdings bei aktiviertem Vsync), als wenn die Karte übertaktet auf den erwähnten 720/1512/1260 läuft, in dem Fall hatte ich nur noch 28 fps im Schnitt, immer noch mit aktiviertem Vsync. Natürlich ist es sinnlos, mit Vsync zu benchen, es ging mir aber eigentlich nur darum, mir einen groben Überblick über den Leistungsgewinn bzw. die Taktmöglichkeiten zu verschaffen, deshalb war ich zu faul, es für die paar Minuten zu deaktivieren.
Hat irgendjemand eine Erklärung für dieses Phänomen?
Meine Vermutung: Da ich sowieso schon festgestellt habe, dass World in Conflict bei mir linear zum CPU Takt skaliert, wird wohl meine CPU der entscheidende Faktor sein. Durch den erhöhten GPU Takt benötigt die GPU vielleicht mehr CPU Ressourcen, die dann natürlich bei der Berechnung des eigentlichen Spiels fehlen. Klingt halbwegs logisch, allerdings weiß ich nicht, inwiefern das wirklich auf Tatsachen basiert.
Danke für eure Antworten
edit: Habe übrigens jeweils zweimal mit OC und ohne OC gebencht, bei beiden Malen das gleiche Ergebnis, mit "Zufall" bzw. Messtoleranzen wird das also nicht zu begründen sein.
Läuft meine Karte auf ihren Standardtaktraten (625/1348/1100), habe ich im Benchmark von World in Conflict mehr durchschnittliche Frames (31, allerdings bei aktiviertem Vsync), als wenn die Karte übertaktet auf den erwähnten 720/1512/1260 läuft, in dem Fall hatte ich nur noch 28 fps im Schnitt, immer noch mit aktiviertem Vsync. Natürlich ist es sinnlos, mit Vsync zu benchen, es ging mir aber eigentlich nur darum, mir einen groben Überblick über den Leistungsgewinn bzw. die Taktmöglichkeiten zu verschaffen, deshalb war ich zu faul, es für die paar Minuten zu deaktivieren.
Hat irgendjemand eine Erklärung für dieses Phänomen?
Meine Vermutung: Da ich sowieso schon festgestellt habe, dass World in Conflict bei mir linear zum CPU Takt skaliert, wird wohl meine CPU der entscheidende Faktor sein. Durch den erhöhten GPU Takt benötigt die GPU vielleicht mehr CPU Ressourcen, die dann natürlich bei der Berechnung des eigentlichen Spiels fehlen. Klingt halbwegs logisch, allerdings weiß ich nicht, inwiefern das wirklich auf Tatsachen basiert.
Danke für eure Antworten
edit: Habe übrigens jeweils zweimal mit OC und ohne OC gebencht, bei beiden Malen das gleiche Ergebnis, mit "Zufall" bzw. Messtoleranzen wird das also nicht zu begründen sein.