News „GPU Voltage Tuner“ von EVGA freigegeben

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.759
Der Grafikkartenhersteller EVGA hat das bereits länger angekündigte Tool zur Anhebung der Spannung auf einer Reihe der hauseigenen GeForce-Grafikkarten zum Download freigegeben. Aktuell unterstützt werden GeForce-GTX-260-, GeForce-GTX-280- und GeForce-GTX-295-Karten. Mit der GeForce GTX 285 funktioniert das Programm derzeit nicht.

Zur News: „GPU Voltage Tuner“ von EVGA freigegeben
 
Sollte doch theoretisch gehen, da es ja die baugleichen Karten sind. Aber wo du es dann runtergeladen kannst wird schwierig, da dieses Tool ja nur für Besitzer eine Evga Karte zum Download bereit steht.

Aber ich muss schon sagen, sehr nützlich so ein Tool. Da kann man sich das Rummalen oder -löten auf der Karte sparen. Ist ne bequeme Möglichkeit, die Spannung der GPU anzuheben.
 
Gleiches kann man auch mit dem RivaTuner machen und das geht mit GT200 und RV770 Karten.

Hier mein Selbsttest mit einer solchen Änderung. Es muss angemerkt werden, dass die Standardspannung der GTX260 1.12V beträgt und die 1.15V im späteren Verlauf also schon ausserhalb der Spezifikationen liegt. Ich bin jetzt dem Stromverbrauch mal etwas nachgegangen und habe mir ein Energieverbrauchs-Messgerät zugelegt um zu checken was wie viel verbraucht. Es handelt sich um ein handelsübliches Messgerät (misst ab 1,5W), legt also nicht jeden Wert auf die Goldwaage, es ist kein High-Tech Messgerät, also können geringe Abweichungen entstehen und die Angaben beziehen sich auf mein System, so wie es ist!

Mir ging es darum, was man noch so alles im Idle sparen kann und welche Lastspannung für meine Karte die beste wäre, wo der Verbrauch in meinen Augen noch im Rahmen ist, auch wenn ich ggf. dafür das OC etwas runter schrauben würde.

Ich habe mich für die beiden Titel Call of Duty 4 Modern Warfare und Race Driver Grid entschieden, da ich diese im Moment hauptsächlich zocke. Furmark habe ich nur mit reingenommen, um den maximalen Verbrauch zu ermitteln.



Gemessen habe ich das gesamte System ohne Monitor, also inkl. Wasserkühlung!





  • 0.7V sind nach ein paar Minuten mit einem Bildfehler abgestürzt.
  • 0.6V sofortiger Freeze, keine Messung möglich





Bei 1.15V Lastspannung kann ich leider auch kein bisschen weiter Übertakten, aber auch so fällt es wegen des immensen Anstiegs im Verbrauch für mich raus und ich werde höheren Werte erst gar nicht testen. Daher bleibe ich bei 1.13V Lastspannung (1.12V geflasht). Im Idle kann man gegenüber den ab Werk 1.06V schon noch ein wenig mehr sparen und ich belasse es bei 0.8V nach der RivaTuner Anleitung von PCGH.

Im Schnitt bleibe ich also beim Zocken unter 300W für das gesamte System (mit CPU & GPU OC; ohne Monitor) und das ist für mich im Rahmen.
 
naja so wie ich das sehe kommt man um Löten trotzdem nicht gerum wenn man es auf die Spitze treiben will ;)

@Sepp1993: was willst du den rumlöten?
normalerweise nutzt man zum spannung erhöhen nibitor

ahja, nur leider reicht die dadurch maximal erreichbare Spannung bei weitem nicht aus. Die HD4850 lässt im Bios maximal ca 1,2 V zu, gelötet geb ich jedoch 1,4 V drauf. Leider erhöht dies natürlich auch den IDLE Verbrauch, kann man jedoch durch niedrigere Biossettings die eigentlich nicht laufen würden, kompensieren.
 
Super Programm, schon Precision war super und lief tadellos.
 
also wie gesagt bei meiner evga gtx 285 funzt es nun...nur versteh ich nich wie man den spass einstellt xD...bei mir ändert sich nur die letzte röhre wenn ich am regler bewege...und der regler is von anfang an auf 2000mv!?! Oo?
 
Ich patche auch per Script und Rivatuner. Im 2D und low power 3D läuft meine GTX280 mit 0,8v mit <50°C. 3D stabil mit 702/1566/1269 läuft und 1,21v.

@dorndi: erhöhen mit nibitor geht nur im Bereich der VIDs. Wenn du andere Stufen willst mußt du auch andere Möglichkeiten nutzen. Oder irr ich mich?
 
Der NiBiTor bietet noch den Voltage Table Editor bzw. für Experten spezielle Lösungen wie die Performance Table Entries. Nein, ich nutze das nicht, mir reicht die normale Absenkung, da ich nur den Shader übertakte bzw. ein anderes ROM für gezielte Übertaktungen verwende.



Im laufenden Betrieb die Spannungen zu ändern, mag etwas Zeit sparen, hat man sich ein paar ROMs vorbereitet und die Stabilität ausgetestet, geht das mit Booten über USB relativ schnell.
 
Naja, ich sag mal so, hab die gepatchte Version getestet mit einer PoV GTX280, folgendes Problem:

Im 2D wird die Spannung bei mir angehoben, im 3D wird wieder default eingestellt, das kanns ja nicht sein...

Da bleibe ich lieber bei VF von Maxibition, zumal er gerade an einer Autostartfunktion arbeitet...;)

donrdi schrieb:
gibt es eigentlich vergleichbare programme zum verändern der spannung der gpu?

Ja, siehe obigen Link, Freeware und ohne Registrierung...:D

Funktionsfähige Grafikkarten:
- GTX260 65nm
- GTX280
- GTX295
- 9800GX2
- HD4850
- HD4870
- HD3870X2
- Grafikkarten mit Volterra VT11xx Chip

Nicht funktionsfähige Grafikkarten:
- GTX285
- GTX260 55nm
 
Zuletzt bearbeitet:

Ähnliche Themen

C
Antworten
11
Aufrufe
3.105
Zurück
Oben