Offizieller GTX260 Overclocking Thread

@ cyrezz

Das mit dem How To war auch meine Überlegung, aber im Grunde bringt sowas nicht viel, viele meinen, dass ihr Problem dann was besonderes und machen wieder einen Thread au, oder stellen die gleiche Frage zum tausendsten mal.

LG Stadtlohner
 
Kein Problem. Also wenn Fragen sind, meld dich, aber manchmal ist es ziemlich nervig, wenn solche fragen andauernd kommen, weil jemand keine lust hatte sich den thread durchzulesen.

LG Stadtlohner
 
@ risingSilence:

Hast du mit diesen Taktraten auch schon Games getestet? Würde mich noch interessieren :)
 
@ Chirvan:

Hast du ne GTX 260 von Zotac?
 
Wer von euch hat eine EVGA?

Demnächst kommt ja das neue EVGA Graka oc Tool mit Spannungserhöhung für die GTX260 280 und die 285 wenn ich mich nicht täusche. Ich denke das es dann kurzzeitig später auch bei allen anderen Hersteller gehen wird.

Die Frage ist nur welchen Spannungsbereich man damit verändern kann. 1.06Volt bis 1,12V? Oder darüber hinaus?
 
@ Chirvan: Hat mich einfach interessiert :D


Auf Fudzilla hab ich gelesen, dass es neu ein Programm von EVGA geben wird, um die Spannungen zu erhöhen. Würde mich interessieren, falls es jemand ausprobiert hat, was dabei herausgekommen ist :)
 
Auf Fudzilla hab ich gelesen, dass es neu ein Programm von EVGA geben wird, um die Spannungen zu erhöhen. Würde mich interessieren, falls es jemand ausprobiert hat, was dabei herausgekommen ist

Hast du Post 650 nicht gelesen??
 
@ Kuehnel:

Das Tool kommt doch demnächst erst oder? Weißt du vllt schon wie es heißen soll, Ich würde das dann wohl mal testen.

LG Stadtohner
 
@ kuehnel91:

sorry, das hab ich doch glatt übersehn :freaky:


@ Stadtlohner:

ich glaub, EVGA nennt es nur gerade "Voltage Tuner"...
 
Was soll das Tool bitte besser machen können als nibitor? nibitor kann ich bei jeder Karte benutzen. Ausserdem ist hier ja zu genüge festzustellen, dass eine Spannungserhöhung nicht zwangsläufig in besserem OC reslutiert. Bis 1,12V gibt es GTX260 Karten und das ist auch die Standardspannung seitens nVidia. Manche Hersteller takten ihre Karten dann mit nur 1,09V oder 1,06V.
1,03V ist das Minimum was ich bei meiner Karte für Idle einstellen kann. Unter Last fährt meine dann mit 1,12V. Mit 1,15V habe ich es mal neulich noch einmal getestet, aber mehr war einfach nicht drin. Die 800MHz laufen damit ein paar Minuten (bis zu 3min Clear Sky), aber dann gibt es einen Freeze mit schönen Bildfehlern. Der Shader macht deshalb auch nicht mehr mit und der VRAM auch nicht. ABER die Spannungswandler werden da selbst mit meiner Wakü schnell 80°C warm obwohl der Core selber bei nur 42°C ist, also 2°C mehr als gegenüber 1,12V. Die Spannungwandler sind aber mal eben 20°C wärmer!

Ich kann mir dann sehr gut vorstellen, dass so manche Karte durch dieses Tool den Hitzetot gestorben ist, da die Spannungswandler durchgeschmort sind.
 
Also, den einzigen Vorteil, den ich in dem Tool sehe ist, daß man die optimale Spannung für die maximalen Taktraten feststellen kann, ohne das BIOS ständig neu flashen zu müssen.

Das heißt, ich kann on-the-fly mal testen, ob die maximalen Taktraten, die ich mit 1,15 V fahre, auch mit 1,03V stable sind, oder ob mir eine Spannungserhöhung auch mehr Stabilität bringen würde.

Find ich ehrlich gesagt ganz sinnvoll, wenn es denn nun auch so funktioniert...
Außerdem verliert man seine Garantie nicht, weil man nicht das BIOS abändert ;).
 
Die Garantie wirst du trotzdem verlieren. Zumindest bei nicht EVGA Karten.
 
Eigentlich stimmt das was Cyrezz gesagt hat. Ob man jetzt 1,10V oder 1,12V oder 1,15 Volt eingetsellt hat, macht keinen unterschied.

Ich lass meien karte jetzt doch erstmal so, durch die 1,06 Volt gehen meine Spawas selbst bei Furmark nicht mehr über 90°C und das bei LuKü
 
In FurMark kommen meine SpaWas nicht über 50C° mal schaun was mit Spannungserhöhung drin ist. Testen werrd ich es auf jeden Fall.
 
Zurück
Oben