Erfahrungen mit Geforce Titan Übertakten ...

  • Ersteller Ersteller chris_greko
  • Erstellt am Erstellt am
Keine 64-Bit-Software zum ausprobieren benutzen, kein FXAA im Treiber forcieren.
 
Ok funktioniert.
Vom 3d mark 2011 Score bin ich ein wenig enttäuscht.
11150 Punkte.

mhm CPU Limit?

100%, 80° - 11150 Punkte
104%, 90° +90 Mhz - 11624 Punkte
106%, 94° + 142 Mhz - 11877 Punkte

Takt war auf über 1100 Mhz oben.
Trotzdem nur so wenig Unterschied.
 
Zuletzt bearbeitet:
HisN schrieb:
macht aber jede Software die ein OSD einblendet. Du triffst dann echt nix mehr? Musst zu den Pros gehören, mir fällt da auch nix auf. Allerdings oute ich mich als BF3-Lutscher, mit und ohne OSD.

macht 10% aus .. Box mußte seine ganzen Benches neu machen ....wenn das OSD inGame oder Benches läuft..nur damit OCen macht natürlich nix aus.
Aber auch egal jeder wie er Kleingeld hat, gelle :-) frag mal Blaire..der hat natürlich auch wie ich keinen Plan von der Materie....
 
Zuletzt bearbeitet:
Also mal ehrlich, wer bencht denn bitteschön mit aktivem OSD, egal, welcher Art, oder anderen aktiven Services, die für den Windows Betrieb nicht unbedingt nötigt sind. Derjenige hat dann wohl die ganze Sache nicht so recht verstanden und ist an schlechten Scores selbst Schuld.
Das alles ändert aber nichts daran, daß es offenbar genügend User gibt, bei denen das OSD nicht so an der Leistung nagt. Von Lags, die darauf zurückzuführen sind, habe ich jedenfalls noch nichts bemerkt.
 
chappy086 schrieb:
Ok funktioniert.
Vom 3d mark 2011 Score bin ich ein wenig enttäuscht.
11150 Punkte.

mhm CPU Limit?

100%, 80° - 11150 Punkte
104%, 90° +90 Mhz - 11624 Punkte
106%, 94° + 142 Mhz - 11877 Punkte

Takt war auf über 1100 Mhz oben.
Trotzdem nur so wenig Unterschied.

Gut möglich. Bei der Titan schadet es keinesfalls den 2600k auf min. 4Ghz hoch zu ziehen.
Kannst es ja spaßeshalber mal machen und die Vergleichswerte posten.
 
Aber auch egal ...

Eigentlich nicht.
Wenn jemand einem OSD 10% Leistungsverlust zuschreibt hätte ich dafür schon gern Belege.
Aber ich habe so das Gefühl du hast diesen Wert nie selbst überprüft...
 
Bei mir hat sich jetzt folgendes als "benutzbar" herauskristallisiert. Ich brauch für 1202Mhz Boost die 1.2V und die 106% PT
Damit scheint es mehrere Stunden ohne Throtteln durchzuhalten. Wir warten auf den Hochsommer :-)

Code:
C:\Prog\inspector\nvidiaInspector.exe -setBaseClockOffset:0,0,160 -setMemoryClockOffset:0,0,300 -setOverVoltage:0,37500 -setPowerTarget:0,106 -setTempTarget:0,0,80 

C:\Prog\inspector\nvidiaInspector.exe -setBaseClockOffset:1,0,160 -setMemoryClockOffset:1,0,300 -setOverVoltage:1,37500 -setPowerTarget:1,106 -setTempTarget:1,0,80
 
Cool, nicht schlecht. Meine machen bei >1163 MHz schlapp, das ist der höchste Wert der möglich ist bei 1,2V und 106%, dann macht das PT Schluss.
Interessanterweise gehen beide Karten genau bis zum gleichen Wert, habe sie mal einzeln getestet letztens. Habe also zwei identische Modelle erwischt....naja, genaugenommen war das auch meine Hoffnung als ich sie zusammen beim gleichen Händler bestellt habe. Trotzdem interessant
 
wirklich jetzt? Auch im SLI? Meine 2. ist deutlich schlechter (60% Asic zu 70%), läuft wärmer und langsamer. Sie taktet im SLI also eine Stufe unter den 1202, und mir war von der 690 noch im Hinterkopf dass ich das nie "gleich" hinbekommen habe. Hab das auf den Kepler geschoben. Deine Takten im SLI gleich? Da wäre ich ja mal wieder neidisch.

*lach* Ich sehe gerade das wir uns im 3D11 auf Sysprofil die Krone teilen. Du hast mehr im X und ich mehr im P. Allerdings nur Peanuts.

Wakü drauf los los :-)
 
Zuletzt bearbeitet:
Ich habe sie einzeln eingebaut und jeweils getestet...allerdings nur stabile Benchmarkdurchläufe, keine Longruns, dafür war ich zu faul :D Und in den Benchmarks stiegen sie beide oberhalb von 1163 aus, mit 1163 liefen beide jeweils problemlos durch.
Ob es bei langen Zockersessions doch Unterschiede gibt weiss ich also nicht. Und ich habe auch nur die GPU getestet jeweils, nicht den Speicher...evtl gibt es da also noch Unterschiede. Im SLI halten sie aber lange Zockesessions mit dem Wert ohne Probleme durch.

Im SLI ist die 2. Karte laut Precision X trotz Sync immer einen Step (13 MHz) langsamer und einen Tick kühler...kA ob das ein Anzeigefehler ist oder durch die nicht immer perfekte Auslastung im SLI kommt, daher hatte ich sie einzeln getestet um herauszufinden welche Karte die bessere ist ;).

hehe lustig :D Aber mit Wasser in meinem Rechner kann ich mich nicht so anfreunden. Hatte vor einigen Jahren mal eine WaKü, aber mein handwerkliches Geschick ist leider ein wenig beschänkt. Sie war zwar dicht und kühlte auch gut, war mir aber ständig im Weg :) Und da mir die Lautstärke einer Luftkühlung gar nichts macht war mir das langfristig einfach zuviel (Wartungs-)Aufwand.
Vielleicht gehe ich da irgendwann nochmal dran, aber jetzt bleibt das erst mal so. Gute Chancen also für Dich um Dir den alleinigen Spitzenplatz zu holen ;)
 
Zuletzt bearbeitet:
Als Langzeittest kann ich TR empfehlen :D

Benchen kann ich mit einem 150er Offset (ca. 1139MHz mehr hab ich nicht getestet).
In TR kann ich maximal 1087 fahren ohne das sich der Treiber aufhängt.
Dies geschieht allerdings sehr unregelmäßig. Manchmal nach 10Min. und manchmal nach über einer Stunde erst.

In AC3 sieht’s ähnlich aus.
 
HisN schrieb:
*lach* Ich sehe gerade das wir uns im 3D11 auf Sysprofil die Krone teilen. Du hast mehr im X und ich mehr im P. Allerdings nur Peanuts.
Und ich im Entry, ätsch. Hihi. :evillol:

Wie machen sich denn die AC Kühler? Die 47° unter Last auf den Karten erscheinen mir etwas hoch, selbst bei 1,2V. Oder haben Deine Karten so hohe Leckströme? Bei denen, die ich zur Auswahl hatte, war auch ein Exemplar dabei, das deutlich mehr als die anderen geheizt hat.

ASIC Qualität hat meine Karte übrigens 71,9%,einer der besten Werte, die ich bislang bei den Titanen gesehen habe. Erklärt vielleicht auch schon ein wenig meine Temperaturen.

Und so sieht jetzt mein Final VBIOS aus, an den nicht gezeigten Reitern habe ich nichts geändert.

331431
 
Ich mag es leise :-)
Ich habe das Fenster zu und es ist schön warm in der Bude.
Die 47° hat die Karte mit dem schlechten Asic, wird deutlich wärmer als die andere. Ich kann Dir nur im Moment nicht sagen wie die Wassertemp zu dem Zeitpunkt war, keinen Statistik-Moni angeklemmt. Montage und Design finde ich klasse gelöst. Und immer daran denken: Kein Mora3, keine Gartenschläuche :-))))


Edit: Ich hab jetzt auch mal das Bios der Karten geflashed. Und siehe da. Jetzt takten meine Karten auch gleich, wenn ich nicht im Power-Limit bin. Wie geil. Hab halt das Bios der einen Karte modifiziert und auf beide Karten gepackt. Die scheinen unterschiedliche Werte im Bios gehabt zu haben. Naja .. wieder was gelernt. Hoffentlich kann ich die beiden Sicherheitskopien später korrekt zuordnen :-)




@frank
Dass Du nicht da ganz vorne mitmachst wundert mich aber^^
Keine Lust auf Rekorde im HWBot zur Zeit?
Ich muss da leider mehr Spannung drauf geben (1.2V) und renne dann ständig ins PT von 250W. Teste das mal mit weniger Spannung und mehr PT. Auf Deine 1.1V kann man gut neidisch sein. Ist der Wert geil niedrig.

Langzeittests fehlen. Ich weiß nicht ob ich mit den 1,18V hinkomme, und ob 260W PT über die Zeit ausreichen.



Edit2: Erst mal kurz vom KBT verwirren lassen über PT .. ist aber ganz einfach wenn man Screens vom Meister sieht :-)
 
Zuletzt bearbeitet:
Naja, im 3DMark Ice Storm habe ich doch den Weltrekord mit einer GTX Titan. ;)
Und auf die Titan gewechselt habe ich, weil ich die hohe Leistung in Verbindung mit einer Single GPU haben wollte, sonst hätte ich das SLI behalten können.
 
Hehe, wird sich schon jemand finden, der kurz eine 2. vorbeibringt. Da bin ich sicher. Früher oder später. Noch mal großen THX für die Screens. Erklären den KBT im Zusammenhang mid dem Tut von Edge sehr gut.
 
Jo, zum Benchen werde ich mir sicher mal eine vom Händler leihen. Aber erst, wenn die Dinger zu anständigen Preisen nicht mehr Mangelware sind.
 
Hmn ich glaube ich muss mir auch ein Bios basteln. Bei der CPU macht man das ja auch ohne tools.

@frankpr
Sehe ich das richtig das du das PT von 250W nicht angefasst hast?
Läuft deine GPU nun mit 1150Mhz max. Boost und trozdem untervoltet mit 1,1V? Beachtlich!
Wieso hast Du/ihr den Baseclock auch angehoben?
Geht das nicht das man nur den boost bzw. maxboost im clock verändert und den Baseclock unangetastet lässt?
Quasi wie bei der CPU Oc+Eist.
Mal gespannt wie weit ich mit meinem ASIC von 67,5% komme bevor ich ins TT rausche und die Karte throttelt.

Edit: Bzw. hat jemand mal vergleichsbenchscreens mit und ohne Speicher Oc zur Hand? Würde mich mal interessieren was das aussmacht.
 
Zuletzt bearbeitet:
Liegt die Unterspannung überhaupt an? @frankpr


Normalerweise, wenn du unter 1,162v gehst, überschreibt die Karte die Werte einfach selbständig. Also im Spiel, setzt er dann trotzdem 1,62 Volt.


Die einzige Möglichkeit, sie zu untervolten, wären die oberen "ausgegrauten" Regler, die zur zeit nur mit Hexedit bearbeitet werden können.

Die unteren Regler geben nur die Spannung an, die minimal in dieser Phase anliegen soll.

Deswegen auch an alle "N(Ä)nnon" Modbios Benutzer :D, wenn ihr nicht zwingend 1,187 oder 1,212v benötigt, könnt ihr die Karten einfach im P0 und P2 auf 912,5 mv stellen, dann takten sie wieder selbstständig und drosseln auch nicht mehr.
 
Zuletzt bearbeitet:
Zurück
Oben