Sammelthread Turing RTX 2060/2070/2080(Ti) Overclocking/Undervolting

@Pizza!

Wie hast du deine Linie erstellt ? Hast du dann auch dein power Limit erhöht ? Was hat das zu bedeuten wenn ich z.b die Kurve 2.080 mhz bei 1.00v laufen lasse aber nach einer gewissen Zeit geht es dann mal auf 0.987 und dann wieder 1.00 v ?
 
Also bei GTA habe ich irgendwie keine kaputten Frametimes? Oder etwa doch, aber ganz schwach? Habe 8*MSAA angeschaltet und bin im Büro vom Nachtclub im Kreis gelaufen.

Stock: weitestgehend konstant 1950MHz, Powetarget schwankend von 90 bis 100%, 73-100FPS, 11-16ms

Stock mit 90% PT: Takt schwankend von 1875 bis 1935MHz, PT schwankend von 85 bis 90%, 73-100FPS, 11-16ms

OC mit UV bei 90% PT: Takt schwankend von 1965 bis 1995MHz, PT schwankend von 85 bis 90%, 76-103FPS, 11-14ms, teilweise 16

OC mit UV bei 112% PT: Takt konstant bei 1995MHz, PT schwankend von 90 bis 105%, 76-104FPS, 10,5-14ms, keine 16 mehr

Hier gleich diese 4 Blöcke beachten, die da so zackig sind. Dazwischen habe ich rausgetabt. Muss noch die Bilder speichern und hier einfügen.

Edit:

GTA5-Frametimes bei verschiedenen Taktraten und Powertargets.jpg
GTA5-Frametimes bei verschiedenen Taktraten und Powertargets 2.jpg
 
Zuletzt bearbeitet:
Meine Linie, Curve? Mit 1980 MHz@ 0,937V bei 65°C so:
MSI AB RTX 2080 Curve 0,937V.jpg


Power limit erhöht? Nein, spielt aber keine Rolle. Mit 0,937V erreiche ich die 100% nie. Sind so 75-80% PT.
Paskal18 schrieb:
Was hat das zu bedeuten wenn ich z.b die Kurve 2.080 mhz bei 1.00v laufen lasse aber nach einer gewissen Zeit geht es dann mal auf 0.987 und dann wieder 1.00 v ?
Minmale Schwankung, kann immer passieren oder max. Stromverbrauch erreicht. Wie ich dir schon erklärt habe: Wenn die GPU die Spannung senkt, versucht Sie die TDP zu halten. Sofern die Temperatur sich nicht verändert.
Deine Spannung und GPU Takt sind abhängig von der Auslastung, Temperatur, Stromverbrauch usw.

Zusatz:
Kurz mal den VRAM Stromverbrauch OC getestet. In Ark war der Unterschied zw. 7000 und 7800 MHz so 8-10 Watt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Ich hab den Speicher auf +1000 stabil. Wie komme ich höher?
 
Zuletzt bearbeitet:
Ähm du hast +1000 eingegeben, kannst nicht +1100 eingeben? Ich habs nie probiert, einige sollen sogar +1200 geschafft haben, also sollte es gehen.
 
Mit dem Afternurner geht nur bis +1000. Da musst du ein anderes Tool nutzen
 
Habe gerade bei GTA5 Flagwar gespielt und hatte 2 oder 3 mal Lagspikes, wo auch alle Taktraten kurz runter gingen. Hat jemand eine Erklärung? Diesmal kann die Engine keine Lags produziert haben, weil die nicht auf 170FPS und mehr lief, sondern auf 120FPS. Powertarget war nicht voll, Temperaturtarget auch nicht, CPU auf 60-65°C.
 
Gibt es einen Appcrash oder Hardwarefehler in deinem Zuverlässigkeitsverlauf?
Hab ich in letzter Zeit öfters. Massiver Ruckler ingame aber Spiel läuft weiter und dazu die Fehler im Verlauf.
 
Ereingnisanzeige, Benutzerdefinierte Ansichten, Administrative Ereignisse hatte nichts. Windows-Protokolle, System auch nicht. Wo soll ich nachgucken? Bei der nächsten Runde nach dem Neustart des Spiels war es nicht mehr der Fall.
 
Dann vielleicht Treiber oder Spiel. Ich bin auch noch nicht sicher woran die massiven Ruckler bei mir schuld sind. Dachte erst Treiber, wegen Event Kernel Fehler 141 usw. ist aber dann mit dem vorherigen Treiber auch wieder Appcrash gewesen.
Hab RAM angepasst und seit dem kein Fehler. Taucht allerdings auch selten auf.
 
Den Treiber habe ich zur Sicherheit auch mal mit DDU entsorgt und den aktuellen neu installiert. Vielleicht Random-Fehler wie folgendes: Windows 10 laggt manchmal auch mit Youtube und der Maus, eine Sekunde Standbild und dann kurz weiter und wieder Standbild. Das ist aber auch sehr selten. Bei Beitrag 67 hatte ich auch gerade nicht mein leichtes OC mit UV an.

Edit:
Und da war der Bug wieder, diesmal V-Sync und Karte kurz ohne Grund auf Idle-Takt runter und die GPU-Auslastung auch auf 2% und ekehafte Frametime. Ich verstehe das nicht. Und es war wieder GTA, allerdings Tag Team und nicht Flagwar.

Edit: Die paar Lagspikes waren zwischen 2:30 und 2:40 Uhr und da keine Einträge in der Ereingnisanzeige um die Zeit, egal welche Uhrzeit.
 
Zuletzt bearbeitet:
Habe knapp eine Stunde gespielt, diesmal keine grundlosen Runtertaktungen in den Idle, sondern 15xx bis 2010MHz. Das ist ja bei Halblast mit V-Sync ok.
 
Keine Ahnung, wahrscheinlich irgendeine merkwürdige Kombination von Spiel und Treiber (vielleicht Windows noch mitschuld).
Wenn nix im Verlauf erscheint oder auch keine sonstigen Fehler.
 
Habe da noch einen Bug gefunden. GTA5 mit V-Sync, MSAA aus, DSR auf 1440P, Rennen, Halblast: Mit Youtube im Hintergrund hat die auf 1515MHz getaktet, Leistungsmodus an, und sobald das Video zu Ende war, lief dann der volle Takt abhängig von der Temperatur, manchmal für eine Sekunde 50-100Mhz runter. Ohne Leistungsmodus, daher globale Einstellung, war der Takt ungefähr bei 1200-1515MHz und dann nach dem Video war der Takt wieder voll. Stock oder OC/UV war auch egal. Auf Stock war dann ca. 1995MHz mit 1,037V und mit OC/UV dann 2040MHz mit 1V oder knapp darunter. Temperatur war dann wegen wenig Last weit unter 60°C. Es kann jemand mal bitte gegentesten. Ich teste heute das nochmal ohne DSR.
Ergänzung ()

Bei Minecraft lässt sich das ohne DSR reproduzieren, bei noch weniger Last ohne Shader trat das auch mit noch geringeren Taktraten auf. Mit Youtube im Schnitt so rund 550MHz und ohne dann um die 1000MHz.
 
Zuletzt bearbeitet:
Also beim zocken und Youtube nebenher ist mir nichts aufgefallen. Taktraten konstant hoch.
GTA V hab ich nicht.

Was mir viel eher hätte auffallen sollen, hab immer gedacht mein RAM oder Treiber ist schuld, meine +75 MHz vom OC Scanner waren nicht dauerhaft stabil.
Beta 10 vom AB bestätigt dies quasi und gibt mir beim OC Scan nur noch +50 MHz an.

Habe 1965 MHz@0,943V vs. 2010 MHz@0,993V getestet, beide mit +800MHz VRAM. Unterschied 1 fps und 30 Watt verbrauch, beide 100% TDP.
 
Welchen Player hast du bei Youtube?

Edit: Meine alte Kurve aus dem Scanner hat 2115MHz bei 35°C, ging sofort auf 2100MHz und blieb auch nicht lange. Bis 73°C ging die auf 2040MHz runter und ab 74°C waren es 2025MHz und Powertarget bei um die 110%. Also bietet Turing schon tendenziell gar keine Effizienzverbesserung gegenüber Pascal. Die 2080 hat die gleiche Leistung wie die 1080TI und frisst die gleiche Menge Strom. Oder saugt eine 1080TI 2025MHz und Stock-Spannung doch 300-350W bei Superposition? Ich sauge mir mal dann die Beta 10 und lasse eine neue Kurve generieren.

Edit: Bei mir hat der neue OC-Scanner genauso eine Kurve generiert, wo alle Stufen dann mit 30MHz weniger laufen, völlig ohne Grund! :rolleyes: Ohne Grund, weil die alten Kurven, die unveränderte vom OC-Scanner und die auf 1V abgeschnittene, bei Minecraft mit Shader, GTA5 und Superposition gehen, auch Zwischenstufen. Gibt es irgendwo versteckt eine Funktion im Programm, womit man die Kurven sicherungskopieren kann?

Edit: Geil, bei den alten Kurven ist die OSD-Einblendung verbugt und daher unübersichtlich.

Edit: Also doch neue Kurve ohne OC-Scanner und alle Stufen mit 77MHz Offset benutzen, also 75, und alles ab 1V weg. Vorher bei der Beta 9 hatten die unteren Stufen auch ca. 90MHz Offset. Also wird das auch so mit der neuen OC-UV-Kurve laufen, da Superposition auch mit Zwischenstufen ging bei verringertem PT. Scheint also einfach so zu sein, dass die alten Kurven von der Beta 9 in der Beta 10 buggen, weil die unteren Stufen, die vorher ca. 90MHz Offset hatten, auf 0-75MHz Offset verringert wurden, zudem das verbugte OSD bei den alten Kurven. Ich habe den AB übrigens nochmal neu installiert.
 
Zuletzt bearbeitet:
Ich nutze einfach Firefox für YouTube. Player, Standard würde ich sagen.

Habe keine verbuggte Curve bemerkt. Nach dem OC Scanner hab ich die Werte manuell gesetzt.
Mit Beta 10 hat man den Scanner überarbeitet, in meinem Fall scheint es sinnvoll gewesen zu sein. Mit Beta 9 bekam ich instabile Werte, Beta 10 geht wohl auf Nummer sicher.
Werde da auch nochmal, alles neu machen.

Ja die 2080 zu nehmen war nicht die beste Wahl, für ein paar Euro weniger wäre die 1080 Ti auch gut gewesen. Aber ich wollte die neuste Technik und die Ti ist leider sehr teuer. Ich hab nun genug Leistung, mal schauen wann sich die nur 8 GB rächen.
 
  • Gefällt mir
Reaktionen: Banger
Ja, meine alten Kurven waren verbugt samt OSD. Da hat der den Offset der kleinen Stufen nach unten verändert. Die neue Kurve aus dem Scanner hat unten bei den kleinen Stufen ca. 90MHz Offset und oben nur noch 45. Aber diese ist im Grunde Schwachsinn hoch 10, weil sich dann der Takt etwa auf dem Wert einpegelt, den ich auf meiner per Hand neu erstellten OC-UV-Kurve habe, mit weniger Spannung. Da sieht man wieder, dass alleiniges Übertakten Schwachsinn ist bei diesen TDP-Krüppeln ist. Besser ca. 1950-2010MHz eigepegeltem Takt mit 0,95-1V Spannung, wenn möglich, noch weiter runter mit der Spannung.

Pizza! schrieb:
Ja die 2080 zu nehmen war nicht die beste Wahl, für ein paar Euro weniger wäre die 1080 Ti auch gut gewesen. Aber ich wollte die neuste Technik und die Ti ist leider sehr teuer. Ich hab nun genug Leistung, mal schauen wann sich die nur 8 GB rächen.

Amen. Eigentlich hätte ich auch auf die TI gehen müssen, wenn Nvidia nicht solche Halsabschneider wären. Rund 400€ für die 2080 und 500€ für die 2080TI wären angemessen und bei der Titan meinetwegen 700€, weil die über die doppelte Speichermenge hat. Und eigentlich hätte auch die 2080 3072 Shader bekommen können.

These: Es könnte ja ursprünglich vorgesehen sein, dass das Referenzdesign keine Werks-OC-Karte ist und Nvidia gemerkt hat, dass die Karte mit 1710MHz Werks-Boost Rotz ist und es nicht geschafft hat, die alte TI minimal zu überbieten, deswegen mal das Werks-OC-Referenzdesign rausgehauen. Aber nur warum die TI gleich hinterher? Damit die Leute dann nicht paar Monate später gleich neue Grafikkarten von AMD und Intel kaufen? Oder wird drauf spekuliert, dass "Vega 2 64" besser als die 2080 ist und deswegen 2080TI?
Ergänzung ()

Bei welchen Programmen ist deine Karte abgeschmiert?
 
Zuletzt bearbeitet:
Hatte hauptsächlich Ark gezockt, das Spiel lief nach einem dicken Ruckler normal weiter, aber im Verlauf erschien Appcrash. Einmal ist Desktop Window Manager abgestürzt und einmal bei YouTube ein Fehler.
Ab und zu hört meine Grafikkarte auf zu leuchten, mittendrin plötzlich dunkel.
 
Hallo @Pizza! ich probiere gerade ein moderates OC bei einer rtx 2080 ti rog strix o11g.

Komponenten:
- Ryzen 7 2700X,
- MSI X470 Carbon,
- 16 GB G.Skill Aegis,
- Dark Power Pro 11 650 W)


Ich habe mit Tweak II den OC Scanner laufen lassen und die Werte übernommen.
Davor habe ich: Voltage(%) + Power Target(%) + Temp Target auf MAX gestellt.

Folgende Kurve wurde ausgegeben:

Tweak II OC Scanner.png

So wie ausgegeben habe ich es übernommen:

Voltage(%): + 100 (mehr geht nicht)
Power Target(%): 107
Temp Target: 85

Anschließend habe ich noch den Memory Clock erhöht: + 1208
D.h. von 1750MHz auf 1901 MHz


1. Frage
Als Test habe ich Time Spy laufen lassen (3x) und das ging problemlos.

Hier ist mir aufgefallen, dass der Boost Clock trotz dem OC nicht unbedingt über 2000 geht. Woran kann das liegen?


2. Frage
Dann habe ich FarCry5 als Test gespielt und mir ist nach ca. 1 Std. das Bild eingefroren (2x nach ca. 1 Std.).

Ich habe dann den Memory Clock, den ich manuell verstellt habe, vermutet, da der OC Scanner sicherlich passt.

Mit HWInfo habe ich "mitgeloggt" und mir die csv Datei danach angeschaut. Was mich stutzig macht ist, dass
zum Zeitpunkt des Absturzes der Memory Clock mit 810 MHz niedrig war. Davor war er fast durchgängig mit 15208 (+1208) ausgelastet.

Warum wird der Memory Clock so umständlich angegeben?

3. Frage

Ist es Zuviel Memory Clock oder was mache ich falsch oder was sollte ich noch beachten?

Die Temperaturen waren
GPU: Max 72 Grad
GPU Durchschnitt 68 Grad

Core Voltage
GPU: Max 1,044 V
GPU Durchschnitt 0,897 V


Vielen Dank schon einmal
Hias
 
Zurück
Oben