Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
8800 GT Overclocking
- Ersteller Cro-Mag
- Erstellt am
BULL-GT schrieb:Frage: wie bekomme ich das jetst auf die karte drauf?
https://www.computerbase.de/forum/threads/grafikkarte-flashen-bios-sammelthread.403074/
Wer suchet der findet
BULL-GT schrieb:Eritsch nur mal so ne frage wieviel GK speicher hast du?
Sein Sysprofile verrät dass er 512MB hat
Hat jetzt das Flashen bei dir überhaupt geklappt?
Robmain
Lieutenant
- Registriert
- Jan. 2008
- Beiträge
- 603
manchmal flashed nvflash nciht weil man index --1 als parameter aufnehmen musst. habe ich schon ein paar mal gehabt.
@enritsch, 740 mit anderem OS wundert mich sehr, weil es an der Hardware liegt wo die GPU zzu macht und nicht am OS. 740 ist ein ordentlicher Wert, wenn Du keine Extra Spannung oder Phase hast. 1100 Speicher genau so. Womit testest Du auf stabilität. Schafft die Karte mit den Einstellung mehrere 3 DMark Durchläufte auf Default (und das ganze ohne die Blitze bzw. Querlinien in dem Letzten Ice+Snow--Benchmark)
@enritsch, 740 mit anderem OS wundert mich sehr, weil es an der Hardware liegt wo die GPU zzu macht und nicht am OS. 740 ist ein ordentlicher Wert, wenn Du keine Extra Spannung oder Phase hast. 1100 Speicher genau so. Womit testest Du auf stabilität. Schafft die Karte mit den Einstellung mehrere 3 DMark Durchläufte auf Default (und das ganze ohne die Blitze bzw. Querlinien in dem Letzten Ice+Snow--Benchmark)
Robmain schrieb:740 mit anderem OS wundert mich sehr, weil es an der Hardware liegt wo die GPU zzu macht und nicht am OS.
Der Treiber spielt aber ne wichtige Rolle
Konnt ich zwar bislang selbst nicht nachvollziehn, man liest aber recht oft, dass manche Leute je nach Treiberversion unterschiedliche Werte erzielen.
@ bull-gt: ja ich hab 512 MB gpu-speicher wie LKennedy schon angemerkt hat.
@robmain: hab das ganze mit crysis getestet (1280x1024, very high settings) und 3dmark vantage is auch fehlerfrei durchgelaufen. zudem sürtzt mit vista counterstrike source jetzt nicht mehr ab, unter xp hat das nur mit standardtakt funktioniert, und jetz auch mit oc.
ich hab übrigens ne zotac 8800 gt amp!, die is schon von werk ab auf 700/1700/1000 übertaktet und hat glaub ich auch schon höhere spannung eingestellt, das dürfte erklären warum die dann noch so gut geht.
ich denk aber auch, dass evtl der vista treiber da etwas besser funktioniert. bei der cpu (Athlon64 X2 6400+) is es z.B. grad andersrum, die hab ich vorher auf 16*210=3360 laufen gehabt, und jetzt schaff ich nur noch 16*207=3312.
@robmain: hab das ganze mit crysis getestet (1280x1024, very high settings) und 3dmark vantage is auch fehlerfrei durchgelaufen. zudem sürtzt mit vista counterstrike source jetzt nicht mehr ab, unter xp hat das nur mit standardtakt funktioniert, und jetz auch mit oc.
ich hab übrigens ne zotac 8800 gt amp!, die is schon von werk ab auf 700/1700/1000 übertaktet und hat glaub ich auch schon höhere spannung eingestellt, das dürfte erklären warum die dann noch so gut geht.
ich denk aber auch, dass evtl der vista treiber da etwas besser funktioniert. bei der cpu (Athlon64 X2 6400+) is es z.B. grad andersrum, die hab ich vorher auf 16*210=3360 laufen gehabt, und jetzt schaff ich nur noch 16*207=3312.
gowengel schrieb:lässt sich eigent auf eine 8800gt im referenzdesign das 8800gts 512 spielen oder sind die unterschiede zu groß? Des wär natürlich wahrlich interessant ne 8800gt als 8800gts zu beschriften
Wenns dir nur um die Namensgebung der Karte geht, dann kannste die AFAIK einfach mit Nibitor die ID der Karte nach belieben ändern.
Wegen nem GTS-Bios wär ich vorsichtig. Könnte große Probleme geben weil zum einen vermutlich unterschiedlicher Speicher verbaut ist und zum andren wegen den fehlenden Shadereinheiten.
Nebenbei denk ich, dass die Änderung der ID schon Probleme machen kann, da der Treiber die Karte dann eben nicht richtig erkennt.
MfG
Öhm ja dann nomml ne frage
Meine 8800gt lüft ohne probleme 725|1750|1087 (chip|shader|Ram). Entwickelt dabei keinerlei Artefakte im Atitool oder Furmark doch wenn ich z.B. COD4 öffne und zocke spackt meist das bild nach ~2h. Ist dann die Temperatur einfach zu hoch? (standardkühler höchste temp bisher ausgelesen 85C) Oder liegt des einfach an zu wenig spannung? also biosflash auf 1,1V?
Meine 8800gt lüft ohne probleme 725|1750|1087 (chip|shader|Ram). Entwickelt dabei keinerlei Artefakte im Atitool oder Furmark doch wenn ich z.B. COD4 öffne und zocke spackt meist das bild nach ~2h. Ist dann die Temperatur einfach zu hoch? (standardkühler höchste temp bisher ausgelesen 85C) Oder liegt des einfach an zu wenig spannung? also biosflash auf 1,1V?
hmm, wenn das erst nach 2 std auftritt denk ich mal liegts nich unbedingt an der temperatur, weil höchsttemperatur haste spätestens nach 30 min erreicht, wenns überhaupt so lang dauert. ich würd einfach mal auf standardtakt laufen lassen und schauen, ob die bildfehler dann immer noch auftreten. aber um das mit der temperatur zu überprüfen kannste auch mal hwmonitor nebenbei laufen lassen, der zeigt dir dann die lasttemperatur an.
hmm, vllt hat cod da einfach probleme, bei mir hat unter xp css gestresst, alles andre hat wunderbar funktioniert, aber css is nach 2 min abgekackt. erst nachdem ich jetzt auf vista x64 umgestiegen bin funktioniert alles einwandfrei.
gowengel schrieb:Meine 8800gt lüft ohne probleme 725|1750|1087 (chip|shader|Ram). Entwickelt dabei keinerlei Artefakte im Atitool oder Furmark doch wenn ich z.B. COD4 öffne und zocke spackt meist das bild nach ~2h.
Nabend und frohe Weihnachten
Könntest mal versuchen ob das auch vorkommt wenn du zB mal nur den Speicher runtertaktest auf die Standardwerte.
Selbst kann ich meinen Speicher (Quimonda-Chips) auch hoch takten bis über 1000MHz ohne dass in FurMark oder 3DMark06 fehler kommen. Problem ist, dass Games bei über 950MHz allesamt nach etwas 15-20min einfach abkacken
In Spielen scheint der Speicher etwas mehr belastet zu werden als in den Tools, weswegen er da mehr auf Temp kommt.
Dass alles im Rechner nach 30min auf max. Temp ist kann man IMO auch nicht sagen. Selbst nicht bei Volllast. Da gibts schon die ein oder andre Komponente mit ner etwas höheren Wärmekapazität die ihre Zeit brauch bis sie auf Temp ist. Macht zwar vieleicht nach über ner Stunde nur 1-2° aus, aber gerade die können hin und wieder über sein oder nicht sein entscheiden wenn man an die Grenze geht
MfG
hm ne am speicher liegts anscheinend nich ich hab ma die für den chip und shader standardwerte eingestellt und siehe da es läuft durch. Jetzt hab ich den Verdacht das in meiner Leadtek 256mb (ja ich weis...) einfach n schlechter chip verbaut ist , da der speicher an sich gut geht. Mein Verdacht is jetzt das der shader einfach den clock nicht mitmacht Werd jetzt mal die Werte testen ohne am shader was zu verändern, also auf unlinked und dann auf 1500 belassen mal gucken ob sich dann was tut oder ob ich dann doch einfach ma zum stabilen Betrieb 700|1600|1087 reinhauh und geg. sogar ausprobier ob 690|1500|1087 n guter wert wär. Bringt der Shader eigentlich viel oder kann ich wirklich draufverzichten?
Ähnliche Themen
- Antworten
- 14
- Aufrufe
- 4.301
- Antworten
- 4
- Aufrufe
- 1.213
- Antworten
- 10
- Aufrufe
- 2.945
- Antworten
- 6
- Aufrufe
- 1.343