Erfahrungen mit Geforce Titan Übertakten ...

  • Ersteller Ersteller chris_greko
  • Erstellt am Erstellt am
Ja, meine steigen derzeit bei einem max. Boost von 1176 MHz aus...1163 MHz läuft noch komplett stabil. Die Temperatur ist dabei aber wie gesagt nie über 72°C gegangen laut Anzeige. Habe aber gestern nur schnell mit dem Heaven testen können, heute abend lasse ich mal etwas mehr laufen. Das Temperaturverhalten im SLI ist aber eh mit einer Einzelkarte nur bedingt zu vergleichen...
 
Ich habe seit gestern eine Asus Titan und bin soweit zufrieden. Stutzig macht mich allerdings, dass bei Übertaktung der Karte (+100Mhz/106%/95) kein höherer Wert beim 3DMark2011 und 06 heraussspringt. Kann es sein, das der 990x limitiert ?
 
Beim 2006er ist das sehr gut möglich, da habe ich schon in der Vergangenheit nur geringfügige Steigerungen gehabt trotz deutlich stärkerer Hardware. Der 2011er sollte aber eigentlich besser skalieren.
Ich konnte gestern außer dem Heaven nur mal kurz den 2013er laufen lassen, da hat sich Ice Storm gar nicht verändert (bzw. war leicht rückläufig), Cloudgate war leicht verbessert und Fire Strike deutlich. Genauer werde ich erst heute abend testen, vielleicht kann ich dann mehr zu sagen.
 
Ok, danke. Werde heute abend auch nochmal testen und berichten.
 
Wozu sind diese +xxx MHZ Werte?
Also ich habe vor 106% und 90° einzustellen. Will dem Ding nicht allzu sehr schaden aber dazu muss sie mal bei mir ankommen.
Muss man sonst was einstellen?
 
Die +xxx MHz Werte geben den Wert an, um den der Basistakt und alle davon abhängigen Taktwerte erhöht werden.
Man kann die in einzelnen MHz-Schritten eingeben aber zumindest der Boost-Takt der GPU scheint sich in 13 MHz Schritten zu bewegen. Meine Karten gehen nämlich bei +156 MHz mit dem Boost auf 1163 Mhz was sie stabil läuft und mit +157 MHz auf 1176 MHz, welche nicht mehr stabil laufen.
Ob sich der Basistakt auch so verhält weiss ich gerade nicht, spielt für mich aber eigentlich keine Rolle weil mir ein höherer Basistakt eh nix bringen würde, wenn sich die Karte aufgrund des zu hohen Boosttakts abschießt. Da die Temps da noch im grünen Bereich sind regelt sich die Karte hier auch nicht selbst runter.

Der Speicher lässt sich komplett in einzelnen MHz-Schritten takten, hier scheinen die Reserven aber begrenzt zu sein, besonders wenn man die GPU schon weit hochgetaktet hat, da sich GPU und Speicher das gleiche Power Target (max. 265W bei 106% teilen) und Speicher OC recht viel Energie benötigt. Mein Speicher macht gerade mal +50 MHz mit bei +156 MHz GPU. Das sah bei der 680 noch besser aus, da kam ich auf über +500, wobei ich dort auch 130% PT hatte. Aber bei der gigantischen Speicherbandbreite der Titan ist der GPU Takt deutlich interessanter als der Speichertakt meiner Meinung nach.

Die 106% (Power Target) bedeuten, daß die Karte 265W statt 250W aufnehmen darf (erhöht den Taktspielraum für den Boost), die 90°C geben den Wert an, ab dem die Karte den Boost reduziert. Die Karte hat auch noch ein unveränderliches Limit für die Notabschaltung, also kannst Du sie eigentlich nicht kaputtmachen, selbst wenn Du beide Regler an den Anschlag schiebst. Sie wird dann halt u.U lauter als sie müsste.
 
Der Base Clock einer Titan liegt doch bei 837mhz, beim Evga Tool wird ein Baseclock von 992mhz ausgelesen, da stimmt doch etwas nicht!
?
 
Bei mir nicht.
Aber, nachdem ich die Karte eingebaut und den Treiber neu installiert hatte stand in Precision 575MHz.
Dies wurde auch im OSD angezeigt :D

Die Lösung war Precision neu zu installieren ohne die Einstellungen zu behalten.
Danach war sowohl die Anzeige in Precision (837MHz) als auch der Boost (993MHz) im OSD korrekt.

Beim Übertakten bin ich jetzt bei +110MHz, also 1097MHz@1.162vc.
Muss morgen aber noch mal ausgiebig Far Cry 3 und Crysis 3 testen.
FC3 war bei meiner alten 670FTW besonders zickig ;)

Mit der Spannung sowie einem höheren Temperaturlimit bzw. eigenem Lüfterprofil habe ich noch nicht gespielt.
 
ich krieg bei bf3 immer wieder einen schwarzen Bildschirm und dann kommt die Meldung mit DirectX oder so :-(
Ergänzung ()

ich hab sie jetzt komplett auf standart eingestellt,........scheissdreck da.
 
GTX Titan Coreclock 1.jpg

den Übertaktungstools kann man nicht vertrauen, die zeigen einem willkürliche GPU Clock Angaben von den 837mhz bis 992 mhz als Standard an.
Kann jemand genauers dazu sagen?
 
Zuletzt bearbeitet:
Ich sehe das Problem nicht ganz...Precision X zeigt Deinen aktuellen Takt/Boost mit dem blauen Balken an (992 MHz), der rote und der weisse Pfeil dort zeigen korrekt die Base clock (837 MHz) und den garantierten Boost (876 MHz) an.
Der garantierte Boost ist nur ein Wert von nVidia, der eigentlich Boost hängt von Temperatur und Spannung ab, daher kann der Problemlos selbst ohne Übertakten auf 992 MHz springen.
Da die Karten sich ständig je nach Last dynamisch takten, springen auch die Werte ständig. Vorallem wenn man mehrere Tools öffnet, manche erzeugen nämlich Last um die Werte korrekt anzuzeigen, was wiederrum das nächste Programm zu einer anderen Anzeige veranlasst. GPU-Z wiederum zeigt den programmierten Basis-Takt unter Default Clock an und den neuen unter GPU-Clock wenn die Karte übertaktet ist. Solange die Karte nicht übertaktet ist sind die Werte dort also gleich. Precision X wiederum zeigt den real anliegenen Takt incl. Boost an, daher steht dort eine andere Zahl.

Ist alles etwas verwirrend aber für mich sieht alles ok aus.
 
Zuletzt bearbeitet:
Da stimme ich MADman_One zu. Die anzgezeigten 992MHz sind Boost und nicht Base.
Die Karte boostet also @stock so wie meine.
 
Danke Madma,

Mit default und Boost Takt hatte ich auch keine Probleme, nur die 992mhz hatten mich bisher verwirrt.
 
also ich lass es warscheinlich original, heute teste ich nochmal die gtx 680 Phantom 2 gb, wenn es mit der genauso gut läuft dann geb ich die Titan zurück .
 
icetea_19xx schrieb:
Mit default und Boost Takt hatte ich auch keine Probleme, nur die 992mhz hatten mich bisher verwirrt.

Ja, es ist wirklich etwas verwirrend durch den Boostmechanismus. Und jedes Tool verfolgt wieder ein anderes Prinzip nachdem es die Werte anzeigt. Daher zeigen auch alle Programme eigentlich richtige Werte an, man muss halt nur erst mal rausfinden, welchen der vielen gültigen Werte das favorisierte Tool für besonders wichtig hält :D

Ich nutze daher meistens Precision X, nVidia Inspector und GPU-Z...damit kann ich alle Fragestellungen an meine Grafikhardware abdecken.
 
Hey wie machst du das das im spiel oben rechts die fps und die Temperaturen usw stehen??? ich kenn das eigentlich nur oben links von precision x aber das auf dem bild ist ja von cpu-z oder????
 
Zurück
Oben