8800 GT Overclocking

hab mal mit FuidMark PhysX durch lauf gemacht mit 745/1862/1060

http://www.abload.de/img/fluidmarkmsoc.jpg

kann man sich damit sehen lassen???

und warum habe ich nur 2GB Speicher...hmm...also da sollten doch schon 3.3GB stehen da ich ja 4 GB DDR2 800 drin habe aber nur Vista Ultimate 32bit...

mfg Dr.dbdrag
 
Ja 745 im Riva ist fast das gleiche wie 740. Der nächste Step ist wohl bei 756 oder so. Den schaft die G92 aner nicht ohne Hardwaremod.
 
@rob...habe jetzt auf 756/1890/1065 durchläufe gemacht mit 3dmark06 und FuidMark PhysX,beides lief ohne fehler durch und 3dmark06 habe ich sogar diesmal 3 mal hintereinander machen lassen.

http://www.abload.de/img/756.1890.1065in3dmark0ecry.jpg

und hier....

http://www.abload.de/img/756.1890.1065f9r3.jpg

werde jetzt noch paar std zocken um zu sehen ob es auch noch so stabil bleibt...weil muss nicht heissen das wenn 3dmark06 ohne fehler das dann das normale zocken auch ohne fehler abläuft....hab da schonmal was drüber gelesen das welche in 3dmark06 keine fehler hatten aber dann beim spielen die karte nicht mehr so ganz wollte.

mfg Dr.dbdrag

P.S. mit was kann man mit den daten (756/1890/1065) meine 8800GT GS vergleichen,also welcher karte!?!?

das eine 9800GTX+ von Gainward die hat die selbe kühlung wie meine 8800GT GS von Gainward....nur mein speicher is etwas langsamer...

http://www.preistrend.de/Gainward_9800GTX+_Technische_Daten__t7307730306757207764D07747A0F7206.html
 
Zuletzt bearbeitet:
LKennedy schrieb:
Und zwar ging ich davon aus, dass ich das Drehpoti wie in der Anleitung HIER verdrahten muss.
Leider scheint der Kollege oMID. da eine etwas andere Verdrahtung vorgenommen zu haben. Schaut mir eher so aus, als hätt er er zwar das eine Kabel an den Pin gelötet an dem alle vMem-Mods angreifen, das Zwote geht aber auf nen ganz andren Pin als der aus der Anleitung.

Ich habe nach folgender Anleitung gelötet:



Man kann den Widerstand wohl an unterschiedlichen Stellen anlöten, der Effekt ist der gleiche. Ich war mir auch nicht sicher welche Lötpunkte ich nehmen soll, daher habe ich mich für die Anleitung in der damals für mich höchsten verfügbaren Auflösung entschlossen.
 
@oMID.
Jo, besten Danke für den Hinweis :)

Blöd ist eben dass meine Karte etwas anders aufgebaut ist und ich nicht weiß ob da die SMD-Bauteile genauso um den Chip angeordnet sind oder evtl gar sogar ganz Andre. Werd die Karte demnächst ausbaun und mir die Sache mal näher anschaun :)
Im Zweifelsfall werd ich dann eben nach der andren Anleitung vorgehn und das Beste hoffen.

MfG
 
Dr.dbdrag schrieb:
@rob...habe jetzt auf 756/1890/1065 durchläufe gemacht mit 3dmark06 und FuidMark PhysX,beides lief ohne fehler durch und 3dmark06 habe ich sogar diesmal 3 mal hintereinander machen lassen.

Und dann nur 10K???
 
ja leider...hab auch nur x8 fach PCIe und nicht x16 und denke das meine karte sich nicht ganz entfalten kann wegen CPU...

kann mich auch irren aber wüsste sonst nicht weshalb sonst...weil wenn man die anderen 3dmark06 läufe von mir sieht hier im forum tut sich nicht viel ändern...und mein cpu recht lahm is!!!!

mfg Dr.dbdrag
 
Gibt es eine Richtschnur, wie lange man den Artifact-Scanner des ATI Tools laufen lassen soll, um einigermaßen sicher zu sein?
 
Dr.dbdrag schrieb:
naja...werde mit dem originalen lüfter so nicht mehr weiter machen...habe mir auch schon heute nen neuen bestellt....

http://www.comtech.de/product_info.php?pID=213000&tab=pd

mal sehen wie der sich so auf meiner 8800GT macht!!!!

Öhm, soweit ich weiß passt der AC Extreme 8800 garnicht auf die 8800GT(S) mit G92. Passt nur auf die G80-Karten. So entnehm ich das auch mal der AC-Seite :rolleyes:

Also bitte wieder zurückschicken wenn der kommt und nen TwinTurbo oder S1 und nen 120er Lüfter bestellen. Damit biste besser bedient ;)

MfG
 
danke dir für die info...hab da nur gelesen das der geeignet für nVIDIA 8800 GT / GTS / GTX / Ultra da steht nichts von dem G92 oder G80!!!!:grr:

hab den schon ne email geschrieben,hab den status der lieferung angeguckt und das war noch in bearbeitung....

hoffe die können das noch ändern bevor der hier auftaucht...

mfg dr.dbdrag
 
Ich hab ein großes Problem mit den Übertakten meiner Graka ;-(

Ich habe die ASUS EN8800GT. Wenn ich aber die neuste Version vom SmartDoctor oder das Xperttool
installiere, kommt die Meldung "keine ASUS Grafikkarte, bzw. keine gültige Grafikkarte erkannt".

Treiber ist der aktuellste von nVidia. Wenn ich den alten Smartdoctor installiere, der auch der CD dabei ist, erscheint bei mir nur die Übertaktungsfunktion. Die Überwachung und Lüftersteuerung sit komplett weg.

In der Hilfe steht die ist nur bei Grafikkarten mit Überwachungsfunktion vorhanden. Wie kann es aber sein, dass z.B. der Threadsteller mit der gleichen Karte das problem nicht hat???
 
Mit dem gehts auch nicht.... hab jetzt aber die lösung gefunden, mein lüfteranschluss ist nur 2polig, also kann ich die rpm ja auch nicht erhöhen.

hat jemand nen vorschlag für nen preiswerten lüfter für ne asus 8800gt (muss aber auch auf jeden fall passen)?
:freaky:
 
castor69 schrieb:
hat jemand nen vorschlag für nen preiswerten lüfter für ne asus 8800gt (muss aber auch auf jeden fall passen)?
:freaky:

Ahoi :freaky:

Nimm den TwinTurbo oder den S1 Rev.2 mit nem 120er Lüfter. Schön leise, spitzen Leistung und P/L-Verhältnis. :)
Mit beidem biste gut bedient und brauchst nicht unbedingt ne Lüftersteuerung.

MfG
 
Das OC geht ja mit dem Smartdoc trotzdem. Hab jetzt auf 685Mhz, 1650Mhz, 1875Mhz gestellt und überwache die GPU Temperatur. Bei CoD5 mit maximalen Einstellungen und 16x AA über den Treiber hat die GRAKA maximal 71°C erreicht. Im 3DMark sind ca. 500 Punkte mehr gewesen. Die Tem is doch ok oder?

Jetzt meine Frage, wenn ich jetzt 20€ in nen neuen Lüfter investiere und den Takt noch nen bissel höher bekomme, macht das überhaupt nen großen Unterschied? Wenn nämlich kaum nen Unterschied wär kann ich mir die 20 Eus auch sparen.
 
castor69 schrieb:
Bei CoD5 mit maximalen Einstellungen und 16x AA über den Treiber hat die GRAKA maximal 71°C erreicht. Im 3DMark sind ca. 500 Punkte mehr gewesen. Die Tem is doch ok oder?

Jopp, 71° is noch weit im grünen Bereich. Alles bis 90°C is ok für den G92. Drüber fängts langsam an kritisch zu werden ;)

Anstatt mit COD5 könnste aber mal mit FurMark testen. Zeigt die Temp i.d.R. direkt an und belastet die GPU wohl am meisten.

Von den Temps her bräuchtest du dir IMO also keinen neuen Kühler zu kaufen ;) . Wie es mit der Lautstärke aussieht is ne andre Sache. Ich z.B. hab nur wegen dem ollen Lüfter des originalen Kühlers meiner Karte gewechselt. Musst du entscheiden ob dir das ne Rolle spielt und du umrüsten magst.

Wenn du nicht umrüstest, hast du übrigens auch den Vorteil, dass die Garantie nicht flöten geht.

MfG

*edit*
Achso, was deine Werte angeht, die du nun hast, könnte evtl. noch etwas mehr drin sein. Ob du persönlich in Games was davon bemerkst is natürlich ned andre Sache. Da merkt der Otto-Normal-User wohl keinen großen Unterschied ob er nun 40 oder 41FPS hat. Nur so als Beispiel ;)
 
Zuletzt bearbeitet:
mit der garantie hast du natürlich auch recht.

Dann bin ich ja beruhigt mit den Temps... laut ist der lüfter garnet, deswegen wollte ich ihn ja schneller laufen lassen.

Ok, dann lass ich alles so, ob ich 40 oder 41 fps hab is mir wirklich egal, da spar ich lieber und kauf mir in nem jahr ne neue graka :-)

vielen dank für die hilfe
 
SLI. 2. Karte schaltet ab

Habt ihr auch bemerkt, dass sämtliche SLI Treiber die 2 Karte auch in 3 D Anwendungen zeitweise deaktivieren.

Ich habe das mal loggen lassen mit GPU-Z und es fällt auf, dass die 2 Karte den Takt IMHO onhe Grund zeitweise runterschaltet:
 

Anhänge

Bemerken kann ich das schlecht. Hab ja nur eine 88GT ;)

Mhh... biste dir sicher dass das ned einfach nur ein Auslesefehler ist?

Trotz den Einträgen vonwegen 0MHz bei GPU und Speicher steigen in deinem Log die Temperaturen. Wenn das die Temps der Karte sind, zu der auch die Taktraten gehören, müsst sich das IMO um nen Auslesefehler handeln.
Hast da ja nen riesen Abschnitt von 17:55:56 bis 18:16:21 in dem zwar die Taktraten angeblich 0MHz betragen, aber die GPU-Temp zB von 41° bis auf 46° rum steigt. Deine Idle-Temp müsste ja um die 40° betragen wenn ich das richtig seh.

MfG
 
Zurück
Oben