8800 GT Overclocking

sp33d schrieb:
gpu-z zeigt doch die richtigen werte an, oder?! °_o

... die Werte werden auf oder abgerundet. Wie schon mal erwähnt werden die Taktraten in Schritten erhöht. Meist einen Wert der durch 9 teilbar ist. Ob jetzt Werte wie z. B. 740,25 Mhz GPU Clock was bringen oder eher kontraproduktiv sind wäre auszutesten.
 
hier die genauen frequenzen... falls es noch jemanden interessieren sollte. 3dmark06 spuckt jedenfalls mit den einstellungen geschmeidige 16800-16900 punkte aus. :)
grakafrequenzenvn6.jpg
 
... jo, das sind die Werte die ich meinte: schön gerade. Die Kommawerte bringen es nicht wirklich.
 
Servus,

hier mal kurz eine Systemübersicht:

  • Abit IP35
  • Intel C2Q 6600 @ 3,5 Ghz
  • OCZ RPR800 RAM 4 GB
  • Asus EN8800GT

CPU läuft wie folgt:
FSB: 390 Mhz
Multi: 9 X
DRAM Speed 1:1,20 (ca. 980 = 468 Mhz)
CPU VCore läuft auf 1,48V
CPU VTT auf 1,20V
RAM auf 2,20V
RAM Timings sind 5 - 5 - 5 - 15 - 2T

Die 8800GT läuft auf:
722 / 1800 / 1000 stabil (14166 Marks) Die Karte kommt hierbei nicht über 59°C (orig. Kühler)

Habe kurzzeitig mal 730/1804/1022 geschafft aber da kommt nun immer bei 3DMark 06 die Message "IDirect3DDevice9::Present failed: Device lost(D3DERR_DEVICELOST)"

Was für Kühler könnt ihr mir für Graka und CPU empfehlen? Kann man noch mehr aus der Graka holen? Wo sehe ich auf wieviel Volt die läuft?

Gruß
 
Zuletzt bearbeitet:
Die Spannung liest du mit Nibitor aus dem Bios.

Die Meldung heißt dass Dein Treiber aussteigt. GPU Clock zu hoch!
Ich hab sie jetzt auf H2O umgebaut. bringt 15-20° aber nicht eine Clockstufe mehr!
 
Habt Ihr bei SLI auch manchmal in GPU-Z bei der 2. Karte "0" und manchmal den Takt (600) in den clocks stehen? SLI Enabled!
 
.veGa schrieb:
Und gibt es einen Treiber der besser ist? Habe ForceWare 175.19 am laufen...
aktuell ist der 178.13 mit physx unterstützung, sind bei mir aber im 3dm06 ca. 100 punkte weniger, als mit dem vorangegangenen beta treiber...
edit: kann das jemand bestätigen? oder mach ich einfach nur was falsch?! ^^
 
Zuletzt bearbeitet:
servus,

ich hab meine 8800 gt mal auf 740/1800/1100 übertaktet und mit diesen werten läuft sie auch in 3dmark und furmark stabil. wenn ich nun allerdings counterstrike source spielen will, stürzt mein system relativ flott ab, wobei ich das ziemlich seltsam finde, weil die hl2-engine ja eigentlich cpu-lastiger ist, und wie schon erwähnt läuft 3dmark und furmark ja stabil. hat vllt jemand ne ahnung woran das liegen könnte?

ps: ich habe festgestellt, dass im furmark die core-temperatur wesentlich höher ansteigt wenn ich fsaa ausmache, als wenn es aktiviert ist. liegt das jetzt daran, das der speicher nicht hinterherkommt und dementsprechend der kern weniger zu rechnen hat, oder was hat das zu bedeuten?
 
Hi Kollege :)

Versuch mal 3DMark und/oder FurMark mit den höchsten Einstellungen an AA, Auflösung etc. laufen zu lassen. Mit geringeren Einstellungen bekommen die Tool nämlich den Speicher kaum voll.
Hört sich nach dem Problem an was ich mit meiner hab bzw hatte. Da liefen die Tools auch ne ganze Weile ohne Fehler bei 1000MHz Speichertakt. In Gmes kams allerdings regelmäßig zu Abstürzen :freak:

Versuch daher auch mal nen geringeren Speichertakt. Kann gut sein, dass nach ner Weile der Speicher zu warm wird und deswegen aussteigt.

MfG Kennedy
 
BTW, kann das sein, dass Furmark keine Multi GPU Scalierung unterstützt? Meine 2. Karte bleibt nämlich kalt.
 
hmm, dass es am speicher liegt hab ich mir auch schon gedacht, allerdings hab ich deswegen furmark auch mit fsaa 8x laufen lassen, was ja den speicher schon gut volllaufen lassen sollte (gibts da evtl. auch n tool, womit man die speicherauslastung der gpu auslesen kann?). mit der einstellung is furmark so ca. 20 min tadellos gelaufen, wohingegen, css schon nach 5 min abgestürzt ist. naja, ich muss da mal noch n bissl testen.
 
Eritsch schrieb:
gibts da evtl. auch n tool, womit man die speicherauslastung der gpu auslesen kann?

Jo, gibts ;) Nimm die Monitor-Funktion vom Rivatuner. :rolleyes:

Bevor du fragst: Im Rivatuner beim ersten Tap "Main" gibts unterm oberen "Customize" so en icon mit dem Chip und ner Lupe. Das is der Hardware-Monitor.
Unter Setup musste ggf. bei "Local videomemory usage" nen Haken setzen und eben sonst noch so was du überwachen willst.
Im Monitoring bekommste dann schön den Verlauf angezeigt wenn du den im Hintergrund mitlaufen lässt.

Aso, bei mir kommt FurMark übrigens mit ner Auflösung von 1600x1200 und 32xMSAA grad mal auf 495,12MB an Speicherauslastung. Da wirste wohl um einiges drunter liegen mit deinem TFT :D
Bei deiner Auflösung bekomm ich grad mal 350,49MB :rolleyes:

Deswegen würd ich Crysis-GPU-Benchmark mit höchsten Einstellungen empfehlen als Test wenn du es zur Hand hast.

MfG Kennedy

*edit*
@Robmain
Kann gut sein dass FurMark nicht für Multi-GPU ausgelegt ist. Seh grad, dass es nichtmal für Multi-CPU ausgelegt ist und nur einen Kern bei mir auslastet.
 
Zuletzt bearbeitet:
Die VMEM USage bei Rivatuner ist ein Plugin. Wenn ich den aktiviere, bringt er aber keine neuen Optionen in die Auswahl. Muss wohl mal neu installieren.

Edit: Habe auch noch 2.09. Es gibt schon 2.11

Edit II: Wer lesen kann... Geht nicht unter Vista, KA warum. "- Videomemory usage monitoring is not available under Vista due to Vista videomemory virtualization."
 
Zuletzt bearbeitet:
Hallo. Mal ne Frage an die Profis.
Ich habe u. g. System

Mir ist aufgefallen, dass GPU-Z den Takt der 2. Karte mal richtig, mal mit 0 anzeigt. Ich habe mir dabei gedacht, dass der Treiber im 2D Modus die 2. Karte runterfährt. Jetzt habe ich Crysis Warhead mal im Window laufen lassen (um GPU-Z simultan zu sehen) und da fällt auf, dass die Taktung der 2. Karte mal richtig ist (also 600 - bei mir 700 Clocks) und mal geht sie auf "0", um dann 2 Minuten später wieder auf 600 zu gehen. Ich habe den Treiber 177.83, weil mir der neue zu instabil erscheint. GPU-I nutzte ich v0.2.6.

Grüße
 
also irgendwie weiß ich nich was meine graka hat und wär froh wenn mal jemand nen tipp hätte:

folgendes problem:
ich habe meine zotac 8800gt amp! von 700/1700/1000 auf 740/1800/1100 übertaktet und hab damit den crysis gpu benchmark auf dx9 high mit 8x aa 50 mal (also ca. 1 Std.) ohne probleme durchlaufen lassen. temps waren in ordnung, videospeicher war voll ausgelastet, soweit alles in ordnung. dann wollte ich counterstrike source spielen und da hats keine 2 min gedauert und das bild is stehen geblieben und es kam nach etwas warten eine meldung, dass der grafiktreiber einen fehler erzeugt hätte. und da steh ich jetz! wie kann das denn sein, dass crysis ne std. ohne probs durchläuft und bei css schmierts dann ab?
 
Das ist doch von Anwendung zu Anwendung unterschiedlich. 740 ist harscharf an der Grenze!
Probier das gleiche doch mal mit 740 aus.
 
hi
habe auch ne 8800GT aber wenn ich smart doctor starte dann bekomm ich null infos über temp und auch mit anderen programmen nix, ocen geht zwar aber möchte ich ungern ohne die temps
wäre es möglich dass meine karte überhaupt keine tempfühler besitzt oder kann dies an etwas anderem liegen?
 
ja, dazu wärs ganz nützlich zu wissen, welche karte du genau hast, also von welchem hersteller.

edit: sry, hab grad gesehen, dass du ne asus hast. naja, irgendwie seltsam, dass die keine tempfühler haben soll. probier doch einfach mal gpu-z aus, das zeigt dir auch temps an. ich hatte zum beispiel die ganze zeit das problem, dass everest bei mir zu niedrige temperaturen angezeigt hat, jetz nachm update hats dann auch die richtigen angezeigt.
 
Zuletzt bearbeitet:
Zurück
Oben