8800 GT Overclocking

Jo,

na das sind doch gute Werte und aufs ATI Tool lege ich auch nicht zu vil Wert, da ich da auch Fehler habe, aber Crysis etc. läuft stabil....

Bin aktuell am ausprobieren wieviel geht, aber mein Shader scheint iwie nicht viel höher zu wollen..

Schade, aber was solls, is wie ich finde schon nen ganz gutes Ergebnis..
 
Habe heute mal versucht meine 8800gt zu übertakten.Nun kriege ich mit höheren Taktraten nach 10 min im Fur Stabilitätstest die Meldung:"..Anzeigetreiber wiederhergestellt..."
Während 2h NBA 2K9 spielen erschien diese Meldung jedoch nicht.Wo liegt mein Problem?
 
subtobe schrieb:
... dass ich bei der taktung NUR ca. 12000 3dmark 06 punkte bekomme. :( Is das normal?)
THX gruß tobi

Nicht normal. iCh hatte in diesem Setup mit e6750 @ 3,8 und eine 8800 ca. 13,5K. Es wurde aber weniger, wenn ich der Karte zu viel gegeben habe (dann ging es bis unter 10K).
3DMark 06 hungert nach hohem FSB. Mehr FSB = Mehr Punkte.
 
Naja, was heißt hier nicht normal ;) Muss man sich immer im Hinblick auf das Gesamtsystem betrachten. Falls er Vista verwendet oder zich Hintergrundprogs laufen, sind die 12k trotz 3,4GHz wohl garnicht so abwägig.
Ausserdem sollte man aufs 3DMark eh nicht soviel geben :rolleyes:

@subtobe
Nix für ungut Kollege, aber bitte verwende die normale Textgröße. Deine Beiträge stechen etwas unangenehm hervor ;)
Was fürn BS verwendest du überhaupt? Falls es Vista 64 ist, ist deine Punktzahl wie gesagt noch im Rahmen. Könntest generell mal versuchen alle sonstigen Programme zu schließen wenn du ein Benchmark laufen lässt. Kann auch einiges an Punkten ausmachen.

MfG
 
Zuletzt bearbeitet von einem Moderator: (Ursprünglichen Beitrag wiederhergestellt)
... würde auch behaupten, dass die Punktzahl von @subtobe mit seinem System ganz gut ist.
 
Ok danke Jungs!
Verwende ab jetzt immer normale Schriftgröße ;)
Hab noch mal durchlaufen lassen und hab genau 12000 Punkte!
Kann mir jemand sagen wie viele CPU Punkte er mit dem E6750 bei 3,4 Ghz hat?
Und macht es was aus weil ich nur Vista Home Premium 32 Bit statt 64 verwende, da es die Leistung nicht ganz nutzen kann?
 
3199 bei 3,6 GHZ, 13500 gesamt (13600 bei 3,8 GHZ)

 
subtobe schrieb:
Und macht es was aus weil ich nur Vista Home Premium 32 Bit statt 64 verwende, da es die Leistung nicht ganz nutzen kann?

Aus dem Bauch raus würd ich sagen dass Vista 32 beim 3DMark06 etwas schneller sein sollte. Wieviel das ausmacht kann ich nicht sagen, denk aber dass es eher zu vernachlässigen ist.
XP32 zu Vista64 macht da etwas mehr aus. Kann später mal benchen um genaueres zum Unterschied sagen zu können.

Was du mal versuchen könntest ist das was Robmain schon angesporchen hat. Einfach mal ein paar MHz runter mit den Taktraten und schaun ob du dann mehr Punkte hast. Wenn Ja, dann liegst an der Karte die mehr nicht richtig mitmacht.

MfG

*edit*
Joah, hab mal unter XP32 und dann noch Vista64 gebencht. Unter XP32 hab ich 12416 und unter Vista64 nur noch 11851 Zähler. Ein stolzer Unterschied von ca. 560 Punkten.
Was mich nur wundert ist, dass unter Vista die Bildqualität von den 3DMark06-Szenen scheinbar besser ist. Die Szenen kommen mit jedenfalls klarer vor und die Farben sind kräftiger. Treibereinstellungen sowie Treiberversion sind allerdings die gleichen. Bin noch beim 180.48 jeweils unter Vista und XP ;)
 
Zuletzt bearbeitet von einem Moderator: (Ursprünglichen Beitrag wiederhergestellt)
Ok danke
ich dachte eher dass ich mit vista 64 mehr punkte bekommen würde aber egal.
Hab den Takt der Karte mal um n paar Mhz runter genommen aber das bringt auch nur weniger Leistung!
Habe mit nicht übertakteter Karte und CPU bei 3,4 Ghz sowieso nur 10500 3DMarks.
Somit bin ich recht zufrieden wenn ich auf meine 12000 mit OC komme.
Ich denke mal es liegt an der Marke der Karte is nämlich von Colorful (nicht wirklich bekannt) und ich rate allen davon ab ne Karte von Colorful zu kaufen.
Dann doch lieber zu XFX oder EVGA greifen, da bekommt man auch Leistung!!!;)
Aber trotzdem man n großes Dankeschön an alle die mir echt super geholfen haben.
Echt klasse hier!!!
 
subtobe schrieb:
Ich denke mal es liegt an der Marke der Karte is nämlich von Colorful (nicht wirklich bekannt) und ich rate allen davon ab ne Karte von Colorful zu kaufen.
Dann doch lieber zu XFX oder EVGA greifen, da bekommt man auch Leistung!!!;)

Wie meinen?!? Das ist völlig egal von welchem Hersteller die Karte ist, die müssen alle die Vorgaben von NVidia einhalten um die Karte als 8800GT bezeichnen zu dürfen. Leistungsmäßig darf es da keinen Unterschied bei nicht übertakteten Karten geben.

Die einzigen Unterschiede ergeben sich aus den verwendeten Bauteilen. Dies äußert sich dann aber in ner unterschiedlich guten übertaktbarkeit bei gleicher Chipgüte. Bei gleichen Taktraten liefern die Karten aber trotzdem die gleiche Leistung.

Mal ne andre Frage: In welcher Auflösung lässt du den 3DMark überhaupt laufen? Ich benche schon eh und je in 1280x1024. Wenn du zB 1680x1050 benchst, ist es klar warum du "etwas" weniger Punkte hast ;)
 
Zuletzt bearbeitet von einem Moderator: (Ursprünglichen Beitrag wiederhergestellt)
wie issen des eigentlich mitm speicher bei den karten, is des auch von nvidia vorgegeben, welcher speicher da verwendet werden muss? kann ja z.B. sein, dass der speicher bei der colorful langsamere zugriffszeiten hat, das dürfte ja auch evtl. was ausmachen.
 
... bis auf die GPU können die Bauteile nach freier Wahl genommen werden.
EDIT: das Layout meinte ich nicht nur was drauf verbaut wird. Aber wie LKennedy schreibt, wird manch mal auch das PCB zur freien Gestaltung frei gegeben.
 
Zuletzt bearbeitet:
Naja, kommt auf die entsprechende Karte an. Bei der GTX260 dürfen doch auch erst seit kurzem die Herstellere eigene PCB-Layouts verwenden. Ok, bei der 88GT ist das wohl schon länger der Fall ;) Non-Ref-layouts gibts ja mittlerweile zu genüge :rolleyes:

Da der Speicher-Hersteller dann auch frei wählbar ist, gibts da schon größre Unterschiede. Auch was die Zugriffszeit angeht.
Mhh... Die Bandbreite ist bei gleichen Taktraten identisch, allerdings ist bei ner schlechteren Zugriffszeit dann die Speicherverzögerung größer... Kann u.U. zu ner schlechteren Performance führen.
Keine Ahnung wie der G92 darauf reagiert, würd aber tippen, dass das fast vernachlässigbar ist.

MfG
 
Zuletzt bearbeitet von einem Moderator: (Ursprünglichen Beitrag wiederhergestellt)
Die Bandbreiteneffizienz die du ansprichst hat den selben Effekt wie mehr oder weniger Bandbreite.

Da die GT´s sehr gut mit der Bandbreite skalieren, kann eine schlechte Effizienz durch langsamere Speicherzugriffe zu Performanceeinbußen führen.
 
Also Jungs,
mein Problem mit den sehr niedrigen 3DMark Score hat sich nun endlich gelöst!!!
Ich hatte den Treiber 181.20 installiert (der is eig recht aktuell), aber als ich mir vorher den neuesten Treiber 182.06 geladen und installiert hab hatte ich mit übertakteter Karte jetzt plötzlich ca. 13000 statt vorher ca. 12000 Punkte.
Ein Lob an Nvidia für die neuen Treiber, solltet ihr euch unbedingt auch gleich laden bringt bei mir knapp 1000 3DMark06 Punkte mehr!!!;)
Gruß Tobi
 
subtobe schrieb:
... neuesten Treiber 182.06 ...

Oh, einer neuer WHQL-Treiber :) Den muss ich mir gleich mal laden und schaun wie der läuft ;)

*edit*
Joah, den 182.06 kann man wohl empfehlen. Macht bei mir zwar keine 1000Punkte aus, aber unter Vista schafft meine Möhre damit nun auch die 12k ;)
 
Zuletzt bearbeitet von einem Moderator: (Ursprünglichen Beitrag wiederhergestellt)
... das wäre aber dann der erste Treiber seit langem (bei meinem System), wo die Punktzahl nach oben geht. Morgen wird getestet.
 
Moin Leute,
ich hätte jetzt doch noch Mal ne Frage:
Was ist der Unterschied zwischen den GPU-Takt und dem GPU-Shadertakt?
Und bringt es was wenn man die unabhängig von einander erhöht?
Ich hab nämlich gesehn das viele hier im Forum die 2 unabhängig voneinander erhöhen. (GPU-Takt meist höher im Verhältnis zum GPU-Shadertakt)
Kann man damit Fehler vermeiden oder die Stabilität erhöhen?
Gruß Tobi
 
Joah, was den Unterschied zwischen GPU- und Shadertakt angeht, kann ich dir sagen, dass das eben verschiedene Recheneinheiten/-bereiche der GPU sind mit unterschiedlichen Aufgaben. Was das nun im Detail heißt kann ich dir nicht sagen, allerdings dürfte die unterschiedliche Taktung mit der Komplexität der Einheiten und der erforderlichen Rechenleistung zusammenhängen. Der Shaderteil scheint mir wohl nur "einfachere" Aufgaben abarbeiten zu können, die allerdings einen erheblichen Anteil der eigentlichen Berechnungen ausmachen.

Eine unabhängige Taktung bringt auch etwas an Leistung je nach Anwendung. Je nachdem welcher Teil bei einem Game mehr gefordert wird, kann es daher sinnvoll sein einen Teil separat weiter zu übertakten, wenn der andre schlapp macht. Nach allem was ich so gelesen hab, scheint mir der Shaderteil als erstes instabil zu werden.

Fehler vermeided man damit wohl weniger. Wenn eine Komponente schallp mach, macht sie dies sicherlich auch bei "asynchroner" Übertaktung. Allerdings nutzt man dadurch den stabilen Bereich voll aus.

Selbst ist mir das um ehrlich zu sein zuviel Arbeit, dann noch separat Shader und GPU-Domain auf Stabilität zu testen für die paar Prozentchen an Mehrleistung.

MfG
 
Zuletzt bearbeitet von einem Moderator: (Ursprünglichen Beitrag wiederhergestellt)
ich habe mit meiner msi 8800 gt ein kleines problem, wenn ich auf 700/1700/1000 stelle und stresstest mache klappt alles super siet ich mein neues netzteil habe. aber unter cnc zh habe ich immer so freezes wo ich auch net mehr ins windows komme und locker 50secs warten muss. mit den defaultwerten klappt alles ohne probleme. bei 3dmark und furmark gibt es jedoch keine probleme.

kann ich ohne einen voltmod die spannung um 0,1 irgendwie erhöhen?
 
Zurück
Oben