8800 GT Overclocking

Hallo erstmal !!!
Und danke für dieses Thema (hat mir schon sehr weitergeholfen) !!!

Ich hab da ma ne Frage...

Wie lang sollte man das ATI Tool eigentlich nach Artefakten scannen lassen ??
 
Während des Scannens heizt sich die Grafikkarte ja immer mehr auf. Wenn du siehst dass die Temperatur nicht mehr höher geht und es nach wie vor keine Artefakte gibt ist es ok.
 
Das ging ja schnell !!!!

Karte ist jetzt nach ca. 1 Stunde bei konstant 77 Grad und und no errors...
Dann wars das wohl.:D

DANKE FÜR DIE SCHNELLE ANTWORT !!!!!
 
ich habe mit meiner 8800gt recht gute werte mit

750mhz (bios lock)
1960mhz shader
1050mhz ram

erreicht. das ganze läuft unter 3dmark absolut stabil und bringt mir 12400 punkte. die spannung wurde leicht auf 1,1V angepaßt.
 
Zuletzt bearbeitet:
@downforze, hast du die 1,1 mit nibitor geflashed?
ic habe das in den 4 VIDs schon werte drin, der erste mit 1,1 ab Werk. Wo hast du die 1,1 eingetragen?

Wieviel core ging vor dem mod mit 1,05?
 
unter vid mode muß für voltage 4 1,1V gewählt werden. unter extra mode bitte für extra und 3D ebenfalls 1,1V einstellen. ich habe die spannungen für throttling und 2d im übrigen auf 0,95V reduziert, das spart strom. du kannst mein bios auch gerne haben. die karte läuft übrigens mit dem standardkühler.
 
downforze schrieb:
ich habe die spannungen für throttling und 2d im übrigen auf 0,95V reduziert, das spart strom.

Blöde Frage, aber funktioniert das überhaupt? Mal nachgemessen?

Der G92 kennt ja bekanntermaßen kein 2D-Profil. Zumindest was die Taktraten angeht.

Die Spannung im IDLE hingegen kann er schon senken nach dem was ich gehört hab. Allerdings denk ich, dass sich die Senkung an der eingestellten VID orientiert und eher moderat ausfällt.

MfG Kennedy
 
Danke für das Angebot aner dein Bios wird bei mir nicht laufen. Ich selbst habe 2 8800 GT Sonic von Xpertvision, uns selbst diese haben ungleiche werte in nibiotor. und EIN modbios läuft nicht auf beiden karten. Das Bios jeder Karte muss separat ausgelesen, modifiziert und neu geflasht werden.

Ausserdem meine ich in VID 4 steht bei mir serienmäßig 1.1V. Bei extra mode nur 1,05V. Ich schau heute nachmittag mal nach. Wegen dem sli takten die beidn GPUs ohnehin nicht mehr bis 745. sondernnur nich bis ca. 725 stabil


Ich probiers mal aus.
Danke
 
hier das pic
8800gt.JPG
 
ALso meine 8800 GT Sonic mit 650 geht von Hause aus 740 clocks. AUsgelesen hat die 1,1 im VID 1. Extra und 3D sind leer.

Habe jetzt Extra und 3D auch 1.1V eingetragen und geflashed.
Leider macht die Karte nicht einen clock mehr?!

Des weiteren ist mit aufgefallen, dass eine Rivatuner 740-748 Mhz clock Einstellung im OnScreenDisplay nur 738 auswirft. Ab 749 werden pasuchal reale 756 Mhz getaktet. Es schein sowas wie eine Wall dazusein.

Edit: Im SLI laufen Sie nur 725 MHZ stabil.
 
... die Mhz vom Speicher, Shader und der GPU gehen in Schritten vor. Mit Sicherheit immer eine Zahl die durch 9 teilbar ist. Bei deiner GPU sind es 18er Schritte. D. h. nach 738 käme 756 Mhz käme 774... Exakt werden die Werte von GPU-z u. anderen nicht angezeigt. Das macht nur Rivatuner (und vielleicht noch andere Programme, die ich aber nicht kenne). Mein Shader geht in 54er vorwärts: würde ich zum Beispiel 1660 statt 1620 einstellen, bewegt sich nichts. Erst ab 1674 tut sich wieder was.
 
Zuletzt bearbeitet:
Hey Leute,

nach langem hin und her (und Dank Crysis Warhead ;) ) hab ich mich mal wieder ans OCen meiner GT gemacht :rolleyes:

Hatte ja das Problem, dass ich zwar bei Taktraten wie etwa 700MHz GPU und 1000MHz MEM bei FurMark nie Fehler bekam, aber bei Games der Rechner irgendwann abschmierte. Selbst 650MHz bei der GPU brachte nix :freak:
Den Speicher hingegen hatte ich ausgeschlossen weil auf meiner Karte Quimonda-Chips verbaut sind die mit 1,0ns spezifiziert sind.
Da mir die Karte auch @Stock schnell genug war ließ ich die Sache also vorerst ;)

Jendenfalls hab ich wieder angefangen und festgestellt, dass ich scheinbar bei 700MHz GPU und bloß 950MHz MEM keine Abstürze oder Artefakte hab.
Müsst dann also doch vom Speicher kommen weswegen ich mir die Sache mit der Speicherspannung mal näher angeschaut hab.
Laut Datasheet soll die Betriebsspannung von den 1,0ns-Chips zwischen 1,9V und 2,1V betragen. Daraufhin hab ich mal nachgemessen (Messpunkte wie auf dem Bild in DIESEM Post) und fesgestellt, dass da ca. 2,03V anliegen. Passt also scheinbar :freak:
Nach meinem Verständnis müsste die Chips also locker die Vorgegebenen 1000MHz erreichen.

Dann kam ich allerdings noch auf die Idee mal die Timings zu überprüfen. Da musste ich feststellen, dass in meinem Bios laut Nibitor die Timings für die 1,1ns-Chips eingestellt sind :(. Also schärfere Timings als es die 1,0ns-Spec vorsieht.

Nun ist also die Frage wie mein Speicher eher nen höheren Specihertakt schafft. Soll ich versuchen die Timings mittel Nibitor zu ändern oder würde ein vMem-Mod etwas nützen?

Hat ausserdem evtl schon jemand ähnliche Erfahrungen mit seiner GT gemacht und das Problem erfolgreich behoben?

Vielen Dank im Vorraus für Tipps :)

MfG Kennedy
 
Die Qimonda-Chips kannste mit 1,8-1,95V am weitesten übertakten. Spannungssenkung heisst hier das Zauberwort.

Bei Samsung-Chips ist dagegen ne Spannungserhöhung von Vorteil.

Die Timings herab zu setzen bringt schon was (50-100MHz), aber nicht soviel wie über nen Vmem-Mod(150-300MHz).
 
ZeroCoolRiddler schrieb:
Die Qimonda-Chips kannste mit 1,8-1,95V am weitesten übertakten. ...

Die Timings herab zu setzen bringt schon was (50-100MHz), aber nicht soviel wie über nen Vmem-Mod(150-300MHz).

Ok, dann werd ich mir das nochmal durch den Kopf gehen lassen mit dem vMem-Mod. Musste aber gerade feststellen dass meine PNY 8800GT scheinbar kein 100%iges Referenz-Layout hat :( Finde den Punkt zur Messung der vGPU nicht so wirklich.

Naja mal schaun. Noch ne andre Frage: Hat jemand ne Ahnung wie das mit Nibitor und der Option "Test timings" ist? Werden damit die Werte tatsächlich direkt testweise in der Karte gesetzt?
Hab mal die Specs eingegeben und den Punkt angewählt. Scheinbar hatte Nibitor die Werte auch übernommen da es darauf immer die eingestellten Werte auslas solang ich es offen lies. Allerdings stürzte mir die Kiste bei nem Speichertakt von 1000MHz wieder im 3DMark06 ab :freak:
 
Liegt wahrscheinlich an der Speicherspannung. Die Qimondas werden ab Werk etwas "übervoltet", produzieren dadurch mehr Hitze als nötig, und takten dementsprechend schlechter.

Mach doch mal ein paar Bilder von deinem PCB, vielleicht kann ich dir da weiterhelfen.;)

"Test Timings" setzt die ausgewählten Werte in Echtzeit ein, aber nur unter 32Bit OS.
 
ZeroCoolRiddler schrieb:
Mach doch mal ein paar Bilder von deinem PCB, vielleicht kann ich dir da weiterhelfen.;)

"Test Timings" setzt die ausgewählten Werte in Echtzeit ein, aber nur unter 32Bit OS.

Ok, schonmal Danke für die Hilfe :)

Was brauchsten alles an Bildern vom PCB? Reicht die Rückseite oder brauchste auch nen Überblick über die Vorderseite?
Vorderseite wär blöd, da ich dann den S1 demontiern müsst ;)

Was die Timings angeht, müssten die dann wohl bei mir übernommen worden sein die ich eingestellt hatte. Leider hat auch das nicht wirklich geholfen :(
In irgend ner Hilfe vom Nibitor oder sonst wo hab ich allerdings was gelesen, dass man damit nur einen Teil der Timings einstellen kann. Evtl. ist da noch ein andrer Wert zu niedrig auf den man keinen Einfluss hat aber egal.

P.S.: Was den Voltmod angeht, poste ich die Bilder im Voltmod-Thema. Da is das Ganze denk ich besser aufgehoben ;)

MfG Kennedy
 
Hey,
bin neu hier und grade erst auf diesen Thread gestoßen.Sehr intressant

Mein System:
C2D E6750
Gigabyte P35-Ds3
8800-gt 512mb
2gb Ram

brint das Übertakten auch spürbare Leistung in Games z.B. Crysis Warhead oder nur mehr Punkte?
Und wie funktioniert das mit BIOS flashen und was bringt das.
Sorry das ich hier so doof nachfrage aber habe in den letzten Seiten nix dazu gefunden.
Vllt. könnte ja einer ne gute Anleitung machen von Anfang bis Ende.
Das man die optimalen Taktraten für dich selber rausfinden muss ist mir klar aber ein paar einsteigertipps wären sehr nett.
Danke
 
Hi W0WA und willkommen im Forum :)

Joah, ob OC was bringt hängt vom Anwendungsfall ab. Wenn man eben nur auf Benchmarks aus ist, dann bringt das immer was ;) , bei Spielen allerdings hängt das davon wie die Karte sich auf Standardtakt schlägt.
Wenn die Karte sich da schon nur unspielbare Frames liefert nützt auch OC nimmer viel. Ähnlich schauts aus wenn man mit höchsten Einstellungen schon flüssig spielen kann. Da merkt man 10 Frames mehr auch nimmer.
Interessant wirds IMO im Mittelfeld, das heißt wenn die Karte grad noch so spielbare Frames ausspuckt und ggf. schon auf Details verzichtet werden muss. Dann bringt das schon etwas und man kann evtl sogar Details hinzu schalten :)

Wegen Bios-Flash musste mal nach Nibitor suchen. Da müssts hier nen Threat geben in dem alles erklärt wird.
Nützen tut das IMO nur wenn man z.B. bei ner 8800GT die GPU-Spannung von 1,05V auf 1,1V erhöhen kann. Dann kann man i.d.R. etwas höher Takten. Ansonsten kann man noch die stabilen Taktraten ins Bios schreiben was ich personlich nicht besonders nützlich finde da der Treiber ohnehin die Werte abspeichert und bei nem Neustart setzt.

Ansonsten kann ich noch den Tipp geben, dass du deine Taktraten mittels Tools ala FurMark, AtiTool, 3DMark06 oder auch mal nem Game testest. Dabei mal höchste Einstellungen an Auflösung, AA usw. wählen um den Speicher tatsächlich mal auszulasten. Wenn Grafikfehler auftreten oder der Rechner gar abstürzt sind die Takraten eben zu hoch angesetzt.

MfG Kennedy
 
Lkennedy, was meinst Du mit "der treiber speichert den Takt" ab? Wenn du 700 MHZ flashed, fährt das OS mit 700 Mhz hoch. trieber hin oder her. Software OC mach ich mit Rivatuner, der muss aber zum laden der OC-Takte ins startup. wäre toll, wenn ich wüsste, wie das ohne rivatuner geht und flash, nur mit dem ohnehin geladenen nvidia treiber geht.
 
Zurück
Oben