Offizieller GTX260 Overclocking Thread

läuft mit knappen 30fps (mit OC @ 700 | 1400 | 1150 auch mit guten 30fps :D ) auf 1920x1200 High, 4x AA

also ich find ihn gutden 181.20 :)
 
Stadtlohner schrieb:
Rivatuner -> HW Monitor -> Setup -> Plugins -> VT1103.dll -> OK -> Data Sources -> VRM phase 1/2/3 temperature aktivieren.

Dann sollten eure Spawa temps angezeigt werden.

LG Stadtlohner


Geht aber nicht unter Vista^^


Casemodder schrieb:
Danke, hab die VRM jetzt auch. Sind alle 3 bei 52°C im Desktop betrieb - NORMAL? Wie hoch dürfen die werden?

Nochwas: Wieso taktet meine Karte im Desktop betrieb nicht automatisch runter? Hat sie früher mit dem alten 17x Treiber gemacht. Jetzt rennt die immer bei 666/1110Mhz. :( und hat 55°C...

Kann an vielen Dingen liegen. Zum 1. an zwei angeschlossenen Monitoren. Ein weiterer Grund z.B. deine Software sein.
 
Ja natürlich geht das unter Vista! Vista kann nur nicht den VRAM Verbrauch auslesen, alles andere geht.
 
Ich hab 2 Monis dran und die Karte taktet sich nicht mehr runter. Aber das macht kaum was. Da ich 1,06V im bios habe, der Takt ist da nur zweitrangig ;)

Das das unter vista nicht geht ist quatsch. Vllt hast du ja die 55nm Variante ;)

LG Stadtlohner
 
Hab meine Karte @ 700/1404/1250 gestern ne Weile in Crysis gespielt und auf einmal wurde der Bildschirm 2 mal komisch dunkelrot und ich musste ihn per Resettaste neustarten. Aber selbst da hatte ich das rote Bild dann noch und der Rechner hat ein paar mal gepiept. Habe ihn dann kurz komplett ausgemacht und danach ging wieder alles normal. Nachdem das 2 mal passiert ist hab ich die Karte wieder auf Default Werte gesetzt und das Problem trat nicht mehr auf. Temperaturen waren auch ok. 77° GPU, 75° VRM.

Was kann das sein? Welcher Wert war zu hoch wenn so ein Fehler auftritt?
 
cyrezz schrieb:
Ja natürlich geht das unter Vista! Vista kann nur nicht den VRAM Verbrauch auslesen, alles andere geht.

Unter Vista64 geht es bei mir nicht! Und das alles andere geht, ist bei mir auch nicht der Fall!
 
Also mit den 65nm Versionen geht es auch bei Vista x64. Hast du zufällig eine 55nm Version?

@Muscular Beaver
Waren die Temps wärend des Zockens so bevor der Absturz passierte oder wann?
 
Zuletzt bearbeitet:
Nur mal ne allgemeine Frage: In welchen Temperaturbereichen liegen die VRMs bei Vollast? 80-100 Grad? Oder laufen die auch noch bei 100-120 grad stabil?
 
@cyrezz
Da ich es nicht in Crysis gesehen habe, kann ich es nicht genau sagen, aber ein paar Minuten vor dem Crash habe ich schnell den Task gewechselt und diese Temperaturen gesehen (da hatte ich schon ein paar Stunden gespielt).
 
cyrezz schrieb:
Also mit den 65nm Versionen geht es auch bei Vista x64. Hast du zufällig eine 55nm Version?

@Muscular Beaver
Waren die Temps wärend des Zockens so bevor der Absturz passierte oder wann?

Nein habe ich nicht.
 
@Jenergy
Je nach Lüfterdrehzahl sind die schnell bei 100°C und mehr. Ab 125°C wird es instabil.

@Muscular Beaver
Nun, per Switch auf den Desktop da kühlen die Temps schnell ab. Schalte doch beim RivaTuner das OSD an und lass es dir im Spiel anzeigen.

@Baumnarr
Den RivaTuner .rtu mit installiert?
 
Zuletzt bearbeitet: (Rechtschreibung korrigiert)
@Chirvan
Die Temps sind vollkommen ok, aber an sich total egal solange die nicht unter Last wärmer als 120°C werden sollte es keine Probleme geben. Die Frage ist nur wie gesund sind dann diese Temps auf Dauer für die VRMs.

Die Spannung die du meinst, die 1.11V, ist die Corespannung.

Was du da meinst ist aber VRM und nicht VRAM! VRM sind die Spannungswandler und es sind drei Werte die man angezeit bekommt, VRM1, VRM2 und VRM3. VRAM, also der Videoram der Karte ist nur ein Wert. Nicht verwechseln! ;)
 
@cyrezz

Leider geht das OSD bei mir einfach nicht (habe schon zig Guides gelesen, aber nichts hilft).
Habe aber jetzt mal mit den Taktraten nochmal getestet mit Crysis im Fenster und mit Everest.
GPU wurde in den Szenen in den der Rechner gestern gecrasht ist bis zu 81° heiß und VRMs sogar 84°, einmal sind sie sogar kurz auf 86° gesprungen.
Das bei einer Zimmertemperatur von 21° (im Sommer ist es hier bis zu 30 Grad warm).
Gecrasht ist er diesmal aber nicht, habe aber auch nur ca. 15 Minuten getestet.

Das ist doch ziemlich hoch oder?

EDIT: In Furmark sind die Temperaturen auch auf einmal sehr viel höher als noch vor ein paar Wochen...
GPU: 86°
VRM: 100-105° (!)

In Rivatuner wird beim HWmon auch angezeigt dass die Grafikkarte bei Last mit 1.06V läuft. Ist das nicht etwas niedrig? Aber wenns noch höher wäre, würde die Karte ja verglühen...
 
Zuletzt bearbeitet:
Was ist das Problem, dass das OSD nicht geht? Du musst ja die jeweiligen Punkte für das OSD aktivieren, dann den "Server" einrichten, dass das OSD gestartet werden kann und dann sollte es eigentlich in jeder Anwendung laufen. Bis dato läuft bei mir das OSD in jedem Spiel einwandfrei. Beschreib doch bitte mal deine Vorgehensweise.

Die 80°C für Core und VRM ist vollkommen im grünen Bereich. Wie gesagt, die VRMs sind auch schnell und häufig bei 100°C, was an sich auch kein Problem ist. Erst wenn die VRMs gen 120°C kommen wird es problematisch!

Hmm ja 1,06V ist wenig, aber wenn die GPU damit tadellos läuft ist es doch in Ordnung. Das erzeugt weniger Abwärme. Wie schnell dreht sich denn dein Lüfter? Auf auto gelassen?
 
Ich habe alles wie überall beschrieben (z.b. bei PCGH) eingestellt. Server gestartet, alle Sachen und Plugins ausgewählt, aber es erscheint einfach kein OSD.

Sie läuft ja nicht tadellos. ;)
Ist mir zwar erst gestern zum ersten mal passiert, aber ich habe schon einen riesen Schreck bekommen als der Computer durch einen Reset nicht mehr gestartet ist und der PC Speaker Piepser meldete als ob keine Grafikkarte drin steckte.
Der Lüfter steht auf Auto.
 
Man, das wurde auf den letzten Seiten oft6 genug gesagt (ist nichts gegen dich, aber bitte lesen). Der GT200 Chip reagiert so gut wie gar nicht auf höhere Voltzahlen. Wenn du von 1,06 auf 1,11V gehst, kommst du vllt ein Shaderlevel weiter, aber das wars auch schon. Wenn du von 1,11V auf 1,12V oder 1,16V gehst, wirst du zu 99% den Shader nicht höher kloppen können (oder auch GPU, kommt drauf an). Du kommst vllt höher, wenn du auf 1,2V oder höher gehst, aber dazu brauchst du eine Wakü, mit LuKü wirst du die karte so nicht mehr lange haben.

Hier auch nochmal ein kurze Erklärung zu den Shader-, GPU- und Ramstufen. Alle drei taktraten kann man nur in Schritten erhöhen. Den Coretakt kann man in 27 MHz schritten erhöhen, den Ram takt auch in 27 MHz. Da der Shader immer doppelt so groß sein muss, wie der Core takt, kann man den Shadertakt immer nur in 54 MHz Schritten erhöhen. Shader und Core können nur asynchron laufen, wenn der Sahder mehr als doppelt so groß ist, wie der Core takt. Es geht also nich, den Core takt auf 800 MHz zu stellen, den Shader aber nur auf 1500MHZ, aber es geht den Core auf 700 MHz zustellen und den Shader auf 1500 MHz.

Es ist also falsch, wenn Leute sagen, sie haben ihre Graka auf 750 MHz core takt und 1580 Shadertakt laufen, das geht nicht, könnt ihr dann auch gerne im HW Monitor nachsehen. Entweder der Coretakt wird auf den nächst höheren Wert aufgerundet, was 756 MHz wären, oder er wird abgerundet auf 729 MHz, der Shadertakt wird auch auf-, bzw abgerundet, könnt ihr ja gerne ausrechnen.

Beim ram weiß ich die Abstufung nicht genau, bei mir läuft er auf 1215 MHz, wenn ich höher will, müsste ich dementsprechend 1242 MHz einstellen, schafft der aber anscheinend nicht mehr.

LG Stadtlohner

P.S.
  • Coretakt=x
  • Shadertakt>=2*x
 
@Muscular Beaver
Hast du auch dann in dem jeweiligen Punkt (Core-,Shader-,VRAM-Takt, Temps usw.) "show in OSD" ausgewählt? Den Server auch mit diesem Rädchen jeweils gestartet?

Stadtlohner
Ich komme mir langsam auch so vor wie Don Quijote im Kampf gegen die Windmühlen. Das wurde alles schon tausend mal (eigentlich fast keine Untertreibung) in x Threads besprochen und alleine hier im Thread x mal erwähnt. Aber manche ignorieren das leider auch gekonnt. Ich hatte mir eigentlich mal zeitweise überlegt ein How-to zu verfassenm, sammt Tipps und Tricks, aber das würde wohl nur vergebene Liebesmühe bleiben... :freak:
 
Zurück
Oben