Ich hoffe, dass das Tool noch ein paar mehr Funktionen bekommt, wie z.B. getrennt einstellbare Spannungen für den 2D und 3D Betrieb.
Momentan gilt die eingestellte Spannung ja für sämtliche Leistungsmodi...naja, habe ja eh nur noch einen Leistungsmodus, denn die Karte taktet sich nicht mehr runter, sofern das Programm aktiv ist. Und ich möchte sicherlich nicht im Idle andauernd die maximalen Taktraten haben.
Außerdem wäre es schön, wenn es sich nach dem Starten in den Hintergrund bewegen würde. So habe ich ständig dieses Fenster auf dem Desktop.
Aber zum Ausloten der benötigten GPU-Spannung für Over-/Underclocking ist es prima geeignet.
Gibt es irgendwo eine funktionierede Anleitung, wie man mit dem NiBiTor eine andere Spannung als die im BIOS vorgegebenen flasht? Ich kann zwar mit dem Hex-Editor andere Spannungen im "Exact Mode" sichtbar machen und flashen (wie z.B. 1,09V oder 1,10V), aber die werden real nicht übernommen laut GPU-Z oder EVGA-Tool (diese zeigen 1,125V an). Dass 1,09 oder 1,10V real gehen, sehe ich ja am EVGA Tool, nur funktioniert das nach dem Flashen mittels NiBitor nicht real. Habe irgendwo gelesen, dass das mit dem NiBiTor auch nicht klappt, da lediglich die Labels für die Voltage Tables geändert werden, nicht aber die Info an die Spannungsregler, mal 1,09V oder 1,10V auf die GPU zu geben. Stimmt das?
--!LeGGa!-- schrieb:
Hey das Tool ist einfach super...und nun hab ich den vcore auf 1.03 gestellt. Mein Ergebnis: Nach 1000 sec FurMark nur 75 Grad!!!
Fragt sich nur, ob die GPU dann auch unter Last stabil ist. Normal sind ja 1,18V.