Offizieller GTX260 Overclocking Thread

@ Iceman021

ich häötte da noch eine verständnis frage. Geht die GPU also auch BUR in 27 MHz schritten hocjh, und wenn ein takt dazwischen ist, wird der nicht genommen? Also standartmäßig habe ich ja 666 und 1404 MHz also etwa 1:2, wenn ich jetzt auf 670 anhebe, nimmt er den takt also nicht? Ist dieser teiler außerdem fest eingetsellt? Wenn ich nur den coretakt anhebe, geht ja nicht der Shadertakt mit hoch, also ändert sich der teiler doch, oder?!

Ich muss also theoreitsch immer in 27 bzs 54 MHz schritten gehen, nur dann werden die exakten Werte genommen? Wenn ich um 20 erhöhe, rundert die GPu selber auf 27 MHz auf und wenn ich nur um 10 MHz erhöhe, behält er einfach den alten Takt? Beim Shader dann genauso?

Zeigt nur der HW moni von rivatuner die sprünge an? GPU-Z anscheinend ja nicht.

LG Stadtlohner

P.S. meine 1256 MHz Ram takt nimmt er auch nicht an, erst ab 1269 MHz nimmt er die erhöhung an, ist mir gerade aufgefallen. Wenn ich 1256 MHz angebe wird daraus 1215 MHz ;)
 
Zuletzt bearbeitet:
@ Stadtlohner:

Hmm ich hab grad Probleme damit, deine Fragen richtig zu verstehen:

Also zuerst mal ist es nicht so, das die GPU NUR in 27 MHz Schritten verstellt werden kann, es ist aber so, das nicht jeder x-beliebige Wert auch real anliegt. Wie mein Beispiel schon zeigte, 740 bei GPU werden laut Rivatuner Hardware Monitoring Tool 738 MHz. 750 wiederum werden real 756, auch 760 werden 756! 770 an sich gehen aber als 770, wohingegen 780 real 783 werden.

--> Dies sind Werte, die ich durch eigenen Test kenne. Ich habe jetzt natürlich nicht jeden einzelnen MHz-Schritt getestet, oder geguckt, ob 743 real gehen oder ab wann der auf 756 springt etc. ---- hier musst du selber prüfen, ob das, was du einstellt auch so übernommen wird, oder was statt dessen real anliegt.

Es liegt an der Eigenart, das über einen Bustakt der reale Takt entsteht, dass nicht zu 100 % jeder eingestellte Wert auch geht (wie die Werte oben ja zeigen), dies heißt aber nicht, was du verstanden hast, das nur alle 27 MHz Schritte ein neuer Takt geht. Finde es einfach selbst heraus, mit dem monitoring Tool bei RT. Lasse dieses offen auf dem Desktop, starte ne 3D Anwendung (Furmark 1.5 im Fenstermodus am besten) - und lese die werte einfach im monitoring tool ab.

Zu deinen Core-/Shader- Verhältnissen:

Das das Verhältnis bei zb 670 GPU zu Shader 1404 nicht mehr 1:2 ist, ist ja klar. Aber das macht auch nix. Das Verhältnis 1:2 beim GT200 ist dahingehend relevant, als das es nicht überschritten werden darf seitens der GPU.

Oder einfacher ausgedrückt: Die GPU darf maximal halb so groß sein wie der reale Shadertakt, was bei deinem (Standard) Shader Takt von 1404 ja 702 MHZ GPU bedeutet. Alles von deinen normalen 666 MHZ (du hast ne XFX oder? Das das Verhältnis hier nicht exakt 1:2 ist liegt an XFX, bzw. den Werten, die sie in ihre OC-Karten im Bios hinterlegt haben) bis hin zu 702 wäre unproblematisch, solange deine Karte die max. 702 GPU denn auch noch stabil schafft.
Gehst du nun jedoch über 702 hinaus (angenommen, 705 reicht schon, wenn es denn real in 705 MHz GPU-Takt resultiert, und nicht in real 702, s. Problematik weiter oben), wird zwangsläufig der Shader auf das nächste Level von 1458 MHz springen, da ja alles > 702 bei der GPU das Verhältnis von 1:2 beim Shader 1404 sprengt. Ein großes Problem könnte in diesem Fall aber sein, das die Karte die nächste Shader Stufe aber nicht mehr schafft, es also zu Bluescreens oder Bildfehlern kommt. Soweit mitgekommen?

Also kann man am besten erst einmal testen, bei welchem Shader Level die Karte dicht macht, um dann zu berechen, wie der max. GPU Takt lautet, den man dann ja auch ausprobieren kann.

Es gilt:

704 / 1404
729 / 1458
756 / 1512
783 / 1566
8xx / 1620 ---> unrealistisch. Es schaffen zwar einige wenige 1620, aber GPU 800 so gut wie niemand? Oder? Falls doch, wird der sich hier schon melden :).

Das sind die Maximalen GPU-Takte im Verhältnis zu jeweiligen Shaderlevel. Kleinere GPU Werte als die angegeben sind natürlich durchaus möglich (wie zb bei dir 666 zu 1404).

Bezüglich des Speichers hast du recht, es gibt auch hier im Grunde nur einige Taktstufen, die real möglich sind, und, wer hätte es gedacht, wieder in 27 MHz - Schritten. 1215 hab ich aktuell auch, eine Stufe davor sind zb. 1188, eine danach 1242 MHz.

Ab welchen Werten nun abgerundet wird zur nächstkleineren Stufe bzw. ab wann aufgerundet zur nächstgrößeren, weiß ich nicht. Aber wenn du sagst, das beim RAM 1256 bei dir zu 1215 werden, obwohl ja eigentlich 1242 als nächstgelegene Stufe eher in Frage kommt, kann ich das auch nicht ganz nachvollziehen. Ich hätte gedacht, er springt immer auf die nächstmögliche Stufe, egal ob Shader oder RAM.

Naja, ist auch egal, wichtig ist nur, das man diese Thematik beim Shader im Hinterkopf behält, damit man nicht unwissenderweise schon in die nächste Shaderstufe gelangt, die u.U. instabil ist, und sich wundert, warum es abschmiert, weil man nur ein paar Mhz mehr an der GPU gedreht hat.
 
Jetzt habe ich es richtig versatnden. Ich werde nochmal weiter testen, was ich aber schon feststellen musste ist, das wenn ich im bios die Volt zahl z.B. auf 1,13V unter Extra stelle, ich immer fehler im FurMark bekomme.... leider.... Naja... muss iczh wohl mit meinen jetzigen Werten leben, sind ja auch Klasse.

Trotzdem werde ich mal weiter testen.

LG Stadtlohner
 
Wie kann ich denn überprüfen, wieviel Spannung ich auf der Karte habe?
 
Ist bei mir nicht in den Einstellungen sichtbar - muß ich dazu erst ein anderes Menü aktivieren?

Habe gerade ein wenig im Internet recherchiert und festgestellt, daß diese Auswahl wirklich nicht dort zu finden ist, wo sie eigentlich sein sollte...
Habe den RT 2.21.
 
Zuletzt bearbeitet:
Dazu gehst du auf den HW monitor und da dann auf Setup... Wenn du die deutsche Sprachdatei installiert hast, steht da Datenquelle (eine Tabele... mit grauen feldern, ganz unten) Da gehst du dann auf die Sache nach VRM Phase 1,2,3 temperatur, diese haben jeweils eine eigene zeile.

LG Stadtlohner
 
Das Einzige, was bei mir etwas mit Spannung zu tun hat, ist die "Sensor Suply Voltage mit " 3,31V. :(
 
Du musst erstmal das Plugin ,,VT1103.dll'' im Monitoring Tool einbinden, vom MT ausgehend Setup -> Plugins -> das genannte auswählen.

Dann stehen im bereich data Sources neue Anzeigequellen zur Verfügung, zb. Voltage regulator output (= Spannung) und VRM phase temperatue 1 - 3 (= Spawa Temps).
 
Das wirds sein :)!
Wo finde ich die?
 
Hab jetzt die VT1103.dll pluinnned (wie auch immer) und nun einen zweiten Spannungswert: Voltage Regulator Output - Gehe ich recht in der Annahme, daß das der richtige Wert ist?
 
Zuletzt bearbeitet:
cyrezz schrieb:
Etwas in eigener Sache zum verwendeten Heatkiller:
Da ich von dem User Iceman021 gehört habe, dass man die Spannungswandler auch mit WLP kühlen kann, statt der mitgelierten Pads (die verwende ich), könnte ich auch bei den Spawas bessere Temps erreichen und wer weiß, vielleicht laufen dann andere Werte auch besser ^^

Hast du es schon ausprobiert?
Ist halt die Frage, ob es dir was bringen würde.
Eigentlich ja nur, wenn du vorhast, die Spannung weiter zu erhöhen, um höher zu takten. Wenn du dieselbe Spannung weiterhin nutzen möchtest, wäre es ja egal, da du ja keine Bluescreens hast.


Edit: Sorry für Doppelpost!

Habe nun mal meine weiteren Werte überprüft:
Voltage Regulator Output: 1,13 (eine einzige Sekunde 1,24?!?)
VRM Phase 1 max 58°C
VRM Phase 1 max 59°C
VRM Phase 1 max 55°C

GPU: Max 57°C
Ambient: Max 44°C

Sind das noch vernünftige Werte für Luftkühlung?

Edit2: Werde aus der Aussage von Iceman (#428) nicht ganz schlau - wenn ich nun weiter übertakten möchte, wäre es bei meinen Werten nun sinnvoll, die Spannung zu erhöhen, oder abzusenken?
Würde gerne das BIOS modifizieren mit vernünftigen 2D, low Power 3D und Performance 3D Modi. Hat jemand Vorschläge für optimale Settings?
Ich meine, bei Performance 3D Maximum ist klar - mich würde am meisten die Einstellung für 2D interessieren. Am besten noch mit ordentlicher Spannungsabsenkung!

Wie kann ich mein BIOS unter DOS auslesen und auf einen USB-Stick sichern?
 
Zuletzt bearbeitet:
Was verstehst du an der Aussage nicht?

Deinen Angaben entnehme ich, das Voltage Regulator Output ca. 1,13 Volt bei dir anliegt, sobald die Karte unter Last kommt.

Das heißt, das deine Karte eine der Exemplare darstellt, die 1.12 Volt unter Extra eingetragen hat. Erfahrungsgemäß haben diese Exemplare dann auch 1.11 Volt unter 2D, was recht hoch ist, im Grunde total überflüssig, die Karte im Idle nur unnötig erwärmt und Strom verschwendet.

Es wäre also aus deiner Sicht eine Überlegung wert, die Karte per BIOS Flash mit niedrigeren Spannungen zu betreiben: Extra = 1.06 Volt, 3D sowie 2D mit dem niedrigsten Wert, der bei deinem BIOS möglich ist (was vermutlich 1.05 V sein wird).

Somit sparst du Strom, die Karte bleibt kühler, was eine niedrigere Lüftergeschwindigkeit bedeutet und somit weniger Lautstärke. Die meisten Karten schaffen mit Extra = 1.06V auch noch 700/1404, einige auch mehr.

Wie gesagt, ist dies eine mögliche Prozedur, die man aber nicht machen muss. Deine Temps. sind tatsächlich voll in Ordnung, und wenn dir Stromverbrauch egal ist, lass das BIOS so.

Du kannst aber ruhig versuchen, dich an das Maximum deiner Karte ranzutasten. Dabei wird irgendwann eine der möglichen Shaderstufen Bildfehler oder Freezes oder BS hervorrufen, dann hast du den max. Shaderlevel. Daran kannst du dich dann an den max. GPU Takt annähern (warum das so ist siehe meine Posts weiter oben). Den RAM Takt würde ich erst ganz am Ende austesten, der ist von GPU eh unabhängig. Ich würde nicht alle 3 Werte gleichzeitig erhöhen, denn das kennst du den schuldigen Wert beim Absturz nicht.

An der Spannung brauchst du für das OC nicht unbedingt drehen, da diese meist auch keine großartig besseren Ergebnisse bringt. Man kann so viell. ein nicht 100% stabiles Shaderlevel stabilisieren (also zb Karte läuft in einigen Games problemlos, aber eins schmiert immer ab -> nicht total stabil), wenn denn überhaupt. Bei meiner zb ist es egal ob 1.06 oder 1.12 oder 1.15 Volt, 1566 beim Shader wird nicht 100 % stabil.
 
Zuletzt bearbeitet:
Danke, jetzt ist alles klar.
Kann ich mir Hoffnung machen, daß die Karte noch höher geht, wenn ich sie unter Wasser setze?

Wie kann ich das BIOS unter DOS auslesen und auf Stick speichern?
Unter Win XP 64 schaffe ich es mit NiBitor leider nicht.

Wie finde ich den geringst möglichen stabilen 2D-Takt heraus?
 
Zuletzt bearbeitet:
SanBo schrieb:
Danke, jetzt ist alles klar.
Wie kann ich das BIOS unter DOS auslesen und auf Stick speichern?

Warum unter DOS ?

GPUZ.jpg


Einfach auf den "gelben" Knopf drücken und speichern. Läßt sich dann wunderbar mit dem NibiTor unter XP oder Vista x64 bearbeiten.

Gruß,

CHB68
 
Wie kann ich denn den Speicher von 896MB erhöhen?

Denn bei GTAIV reichen die 896MB nicht aus. also bei mir zumindest...
 
@bigfatih42 zu deiner frage kann man nur sagen, ehm zb so= neu Graka mit mehr Ram kaufen!!! :D oder einfach GTA-IV deinstallieren und zurückbringen, weil
das Game ist einfach sowas von schlecht für den Pc umgesetzt ist(das Game ist Extremo Cpu lastig^^), das selbst die besten Highend Systeme diesen game nicht würdig sind(gg), und deine Graka da eher ne kleinere rolle spielt ;) deswegen gibts da auch zurzeit ne riesige rückrufaktion wegens zu vieler umtauschanfragen etc ;) kenne selber ein paar Leute die von betroffen sind^^:freaky:
 
Zuletzt bearbeitet:
ja hast eigentlich recht, habe mir den Rechner extra zum zocken angeschafft. dann sowas...
Kassenbon von GTA IV habe ich weggeworfen... Einfach zu sagen leg deine 260GTX weg und hol dir eine bessere? Ich hab schon die 2 beste Grafikkarte von GeForce was es gibt...
Ach naja soll Rockstar Games mal die Games 100% prüfen bevor die sowas rausbringen...
 
Normalerweise, sollte deine graka mehr als ausreichend für dieses spiel sein:king:.Es ist schlicht und einfach die mieserable Umsetzung des Games von Rockstar G...für den Pc.., was dich bzw uns am zocken hindert.! Ich frage mich inwiefern die das game(Pc version) überhaupt getestet haben, sowas muß doch auffallen :rolleyes:
 
Zurück
Oben