Pascal (GTX 1060/1070/1080/Titan X) Overclocking Thread

  • Ersteller Ersteller Stuntmp02
  • Erstellt am Erstellt am
Status
Für weitere Antworten geschlossen.
RaptorTP schrieb:
Vsync aus - bei nem 60Hz Monitor kann ich mir nicht vorstellen, wenn tearing nicht stört kann man das natürlich auch so nutzen ... ist dann aber scheiße ;)
Bei den meisten Games ist das so, aber es gibt auch Ausnahmen, z.B. CoD Black Ops III kann man auch ohne VSync an spielen und hat trotzdem kein Tearing auch mit einem 60 Hz Monitor. ;)

@Edit: In den 3D Einstellungen Treibereinstellungen von Nvidia ändere ich gar nichts, es sei denn ich lege ein Profil für ein Game an, das ist etwas anderes. Aber für den normalen Desktop Betrieb im Alltag braucht man die Standardwerte gar nicht ändern.
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Bei den meisten Games ist das so, aber es gibt auch Ausnahmen, z.B. CoD Black Ops III kann man auch ohne VSync an spielen und hat trotzdem kein Tearing auch mit einem 60 Hz Monitor. ;)
[/I]

Glaube ich dir zu 100% nicht. Das ist ausnahmslos in jedem Spiel so.
Ohne Sync egal welcher Art gibt es immer Tearing. Manche sind halt nicht so empfindlich und sehen es nicht.

Ohne Synchronisation zwischen Grafikkarte und Monitor, vor allem bei lahmen Flüssigkristallbildschirmen, gibt es immer Tearing. Das ist egal ob bei 144 Hertz, bei 165 Hertz und nicht nur bei 60 Hertz. Bei letzteres nimmt man es am deutlichsten wahr bzw sieht man es am besten. Es gibt kein einziges Spiel was davon nicht betroffen wäre!

Würde so etwas funktionieren, hätte man sich Gsync, Freesync, Adaptive Sync, Vsync, usw sparen können wenn ein Game die Aufgabe übernehmen könnte die Grafikkarte und Monitor miteinander zu synchronisieren! Wobei rein technisch gesehen kann nur Gsync oder auch Freesync richtig synchronisieren... Bei den anderen Sachen muss immer eine Partei auf die andere warten! ;)
 
Zuletzt bearbeitet:
@VAN DOOM
Aber das schöne ist ja, Glauben ist nicht Wissen! :D
Ich habe das Game und spiele es immer wieder und es lässt sich auch super ohne Vsync spielen und das ohne Tearing und ja letztlich muss es für mein persönliches Empfinden ausreichen und das tut es. Ich kann auch mit meinem 60Hz Monitor zocken und was soll ich Dir sagen, die Games sehen super aus und lassen sich auch mit VSync super gamen und ich bin mit meiner GTX 1070 und dem 60Hz Monitor aber so was von zufrieden, auch wenn Du Dir das nicht vorstellen kannst. Und nein es gibt keine Ruckelorgien oder sonstiges, man braucht auch nicht immer einen 144Hz Monitor um glücklich zu werden, aber vielleicht liegt es auch am Alter, weil ich es einfach genießen kann. In den jungen Jahren sucht man immer die Perfektion und strebt nach dem unmöglichen, im Alter genießt man und hat einfach Spaß.

Ich bin, wenn ich hier so die Posts lese sowieso ein Auslaufmodell, da ich mit der Leistung und den Werten meiner MSI GTX 1070 zufrieden bin, ich diese immer noch besitze, diese immer noch funktioniert wie am ersten Tag und diese auch immer noch in meinem PC verbaut ist. Letztlich muss das System funktionieren und das tut es Außerordentlich gut, klar gibt es immer noch Dinge die man verbessern könnte, aber he man muss ja auch noch Träume und Wünsche haben, sonst wird das Leben doch langweilig. :daumen:
 
Zuletzt bearbeitet:
@VAN DOOM

Sehe ich auch so:D

Fällt mir auch -in jedem- Game auf.

Es gibt jedoch Games und Szenen/Situationen..., in denen es nicht so arg auffällt & da man sich ja eh daran gewöhnt hat.....
 
@Zotac2012
Ich glaube es dir nicht nur ich weiss es auch zu 100% das es kein Spiel gibt ohne Tearing! ;)

Ich will dir deine Freude auch nicht verderben. Ist ja auch super für dich wenn du hier nicht so empfindlich bist. Würde mir das auch wünschen und bräuchte daher nicht immr so eine dicke Grafikkarte und schnelle Panels. Jetzt mit Gsync komme ich zum ersten mal einigermaßen mit einem TFT klar...

Jeder Mensch ist unterschiedlich gestrickt. Ich nehme Ruckeln und Tearing extrem wahr. Auch unter 144 Hertz sehe ich das recht deutlich ohne Gsync. Auch stark schwankende FPS nehme ich als Ruckeln wahr auch wenn die FPS 80-140 betragen.

Ich bin auch erst relativ spät auf einen TFT umgestiegen und hatte sehr lange einen Röhrenmonitor. Einer steht sogar noch im Keller (IIYAMA VISION MASTER PRO 454). Auch Dieser trotz 0 Reaktionszeit war nicht frei von Tearing. Erst seit Gsync oder auch Freesync ist es möglich komplett ohne zerrissene Bilder zu spielen.

Es ist also schlicht weg nicht richtig zu behaupten das es ein Spiel gibt das frei von Tearing ist. Das geht nicht ohne irgendeiner Art von Synchronisation... ;)
 
Zuletzt bearbeitet:
@Van Doom
Es ist also schlicht weg nicht richtig zu behaupten das es ein Spiel gibt das frei von Tearing ist. Das geht nicht ohne irgendeiner Art von Synchronisation... ;)
Wir reden aber hier von "normal" sterblichen Usern und nicht von vielen kleinen Van Dooms und ich beziehe mich hier auf das Tearing was Jeder dann auch sofort auf dem Monitor sieht. Und ich sehe auf dem Monitor bei COD Black Ops III eben kein Tearing, so wie es bei man anderen Games deutlich zu sehen ist. Somit lässt sich das Game dann auch ohne VSync flüssig und ohne Tearing spielen, das ist z.B. in The Witcher III oder auch in The Division nicht so.

Vielleicht solltest Du einfach mal einen Schritt zurück machen und auch akzeptieren, das es User gibt für die das Game dann auch so ohne VSync und für diese User ohne Tearing spielbar ist, vielleicht bist Du einfach nur überempfindlich und so sensibilisiert, das Du mittlerweile überall Tearing siehst, auch wenn andere das Objektiv an gleicher Stelle so gar nicht wahrnehmen. Und ich muss Dir ganz ehrlich sagen, wenn ich hier und in anderen Foren lese, welche Probleme diese User mit den 144/165Hz Monitoren und den Nvidia Treibern haben und auch mit GSync, dann bin ich ganz froh, das bei mir und meinem 60Hz Monitor alles zu meiner zufriedenheit läuft.
;)
 
Zuletzt bearbeitet:
VAN DOOM schrieb:
@Zotac2012
Ich will dir deine Freude auch nicht verderben. Ist ja auch super für dich wenn du hier nicht so empfindlich bist.
Jeder Mensch ist unterschiedlich gestrickt.
Wie du siehst akzeptiere ich das ja schon vor deiner jetzigen Unterstellung.

Bin anscheinend nicht der einzige der Tearing gut wahr nimmt.
PRAXED schrieb:
@VAN DOOM
Sehe ich auch so:D
Fällt mir auch -in jedem- Game auf.
Es gibt jedoch Games und Szenen/Situationen..., in denen es nicht so arg auffällt & da man sich ja eh daran gewöhnt hat.....

@Zotac2012
Ich bin ganz normal und hab keinerlei Probleme mit Gsync. Tearing sehe ich dadurch nicht mehr da keines mehr da ist, da sich Monitor und Grafikkarte synchronisieren. Die Technik funktioniert einwandfrei. Keine Ahnung was du mir da für Probleme unterstellen willst... Zurück rudern werde ich da bestimmt nicht mehr auf so lahme Panels...

Wie gesagt ich akzeptiere jede Meinung und jeden User. Wenn jemand auch mit nur 60 Hertz gut klar kommt und Tearing nicht sieht ist das doch schön für ihn. Das ändert aber nichts an der Tatsache das es kein Spiel gibt was frei von Tearing ist was du eben behauptet hast. Wie gesagt du siehst es vielleicht nicht aber andere eben schon. Das solltest vielleicht du akzeptieren...

Das kannst du drehen und wenden wie du möchtest, Tearing ist immer da ohne eine Sync-Technik! ;)
 
Zuletzt bearbeitet:
@VAN DOOM
Ach was die Monitore mit 144/165Hz und Gsync betrifft unterstelle ich keinem was, obwohl ich es interessant finde, das Du Dich sofort persönlich angegriffen fühlst. :D Das ist einfach der Eindruck der entsteht, wenn man mal so die Berichte von Usern mit den genannten Monitoren liest. Ich bin froh das ich keine 60Hz Geruckel-Krücke habe und vielleicht bin ich ja deswegen so gut in den schnellen Shootern, weil bei mir die Kugeln wegen meines 60Hz Monitors langsamer fliegen, auf die Idee bin ich noch gar nicht gekommen. Das kommt mir und meinem Alter dann natürlich sehr entgegen. :daumen:
 
Na ja in deinen letzten Videos war dein Aiming nicht gerade der Bringer! Ich fühle mich nicht angegriffen. Keineswegs. Es ist nur schlichtweg falsch was du behauptet hast. ;)

Man liest auch Berichte über User mit nur 60 Hertz Monitoren die irgendwelche Probleme haben oder von welchen die auf 144 Hertz gewechselt haben und vollkommen zufrieden sind und nichts anderes mehr möchten. Andere schwören auf ULMB, manche sind mit TV-Geräten zufrieden, sehen kein Tearing oder was weiß ich noch alles.... Das ist doch jedem seine Sache.

Weiß jetzt auch nicht was das mit Tearing zu tun haben sollte wenn deine Kugeln bei 60 Hertz langsamer fliegen... Vielleicht solltest du deinen Monitor übertakten und mit mehr Hertz ansteuern dann werden die auch wieder schneller,... :evillol:
 
Zuletzt bearbeitet:
@Zotac2012: Ich weiß nicht warum, aber irgendwie finde ich Dich frech, aber das ist nicht schlimm :D




Zotac2012 schrieb:
Kann ich nicht bestätigen, hier mal der Unigine Heaven Benchmark mit GPU-Takt 2050 MHz / Vram-Speicher OC 4500 MHz einmal normal per Offset übertaktet und einmal per Curve-Editor Profil.

Per MSI-Afterburner Offset Profil:
Anhang anzeigen 591646

Per MSI-Afterburner Curve-Editor Profil:
Anhang anzeigen 591647


Wie man sieht, ist das Ergebnis beim übertakten mit dem Curve-Editor Profil sogar um 19.Punkte besser, was aber unerheblich ist, im Prinzip sind die Ergebnisse also identisch! Es liegt im Endeffekt nur daran, das man das Profil im Curve-Editor auch richtig einstellen muss, aber das hatte ich ja schon mal erklärt, da gibt es nämlich nicht die von Dir genannten Differenzen ;)

Ich habe bereits zweimal versucht Dich auf den Video-Clock aufmerksam zu machen, aber irgendwie ignorierst Du das scheinbar.

Hier sind Heaven-Durchläufe mit default GPU-Clock Einstellungen, den VRAM habe ich auf FE Niveau heruntergetaktet:

Bild 1 a/b:
a1.pnga2.pnga3.png

Und hier mal ein Screen von 2000 MHz @ 0,950 V. Undervoltet nach Deiner Video-Anleitung:

Bild 2 a/b/c:
b1.pngb2.png

Auch ich habe eine minimale Verbesserung des Benchmarkergebnisses erzielt, zwar nur 7-8 Pünktchen aber die Verbesserung ist vorhanden und durch wiederholen des Benchmarks reproduzierbar.

Bitte schau auf den Video-Clock!
Was fällt Dir auf?


Mit Deiner Methode undervoltet man die Grafikkarte, übertaktet aber gleichzeitig den Video-Clock, was logischerweise durch die Offsetverschiebung passiert ist (Shift-Taste).
Somit ist das Leistungsplus jedenfalls für mich logisch und nachvollziehbar.


Kommen wir zu meiner Problematik:

Ich weiß bereits durch ausprobieren, das meine Grafikkarte die 2075 MHz (Video-Clock 1784,5 MHz) bei 1,000 V ohne Abstürze oder Artefaktbildung packt.

Mal angenommen ich würde das jetzt so handhaben wollen wie Du das im Video beschreibst. Dann würde ich mir einen viel zu hohen Video-Clock einstellen.
Dies würde direkt zum Absturz bei Belastung der Grafikkarte führen, obwohl ich mich nur auf 2075 MHz GPU-Clock begrenzt habe.

Bild 3:
j1.png

Wenn ich das jetzt bestätige, würde ich der Grafikkarte mitteilen: GPU-Clock 2075 MHz; Video-Clock 1822,0 MHz; Spannung 1000 mV.
In meinem Fall erhöht sich der Video-Clock in 12,5 - 13 MHz Schritten (beim GPU-Core übertakten in +13 MHz Offset-Schritten).
Ein Offset von +116 entspricht bei mir einem plus von 113,5 MHz des Video-Clocks.

Das klappt aber nicht, weil die Karte bei einem Video-Clock > 1809,5 MHz verreckt. Das crasht auch wenn ich das mit 1,050 V laufen lassen wollen würde.

Vielleicht wird es nochmal deutlicher wenn ich kurz beschreibe wie ich überhaupt vorgegangen bin beim OC der Grafikkarte.

Zuerst habe ich die Grafikkarte belastet und sich aufwärmen lassen, bis sich Takt, Spannung und Temperatur stabilisiert haben.
Daraufhin wurde klassisch per Offset übertaktet (+13, +26, +39, +52, ...) um den maximal möglichen stabilen Takt herrauszufinden.
Das ganze funktioniert bis zu einem Offset von +104, das entspricht in meinem Fall einem GPU-Clock von 2100 MHz (Video-Clock 1809,5 MHz) @ 1,050 V.

Allerdings kommt es hier ab und an zu Bildfehlern, die jedoch selten auftreten und bei dieser Heaven Szene im Standbild besonders hervorstechen (Szene 9, ab und an schwarze Striche auf den weißen Steinen):

Bild 4:
k1.jpg
(als Beispiel, Bild ohne besagte Fehler.)

Wenn ich es schaffe, lade ich hierzu noch ein Video hoch, auf dem man die besagten Fehler erkennen kann.
GTA V macht hier auch Probleme ab einem Offset von +91 MHz.

Ich gehe davon aus, da hier schon verschiedene Werte in den Raum geworfen wurden, dass sich je nach Hersteller-BIOS das Verhältnis aus GPU- und Video-Clock unterscheidet.

Selbst wenn ich +100 mV Spannungsoffset einstelle, ist bei 1784,5 MHz Video-Clock schluss. Dann taktet die Grafikkarte zwar mit 2088 MHz, allerdings liegen dann auch 1,075 V an.
Auch hier führt ein weiteres erhöhen des offsets um +13 MHz zu Bildfehlern, selbst wenn die Karte mit maximalen 1,093 V läuft.
Also ist definitiv bei meiner Zotac GTX 1070 AMP! Extreme bei 2088 MHz / 1784,5 MHz @ 1,075 V das Limit erreicht mit dem derzeit verwendeten BIOS.

Meine Zotac GTX 1070 AMP! Extreme hat default einen Video-Clock von 1708,5 MHz.
Dabei ist es egal ob am Anfang 2038 MHz bei 40°C oder nach aufwärmen 2000 MHZ bei 64-65°C eingestellt sind durch den GPUBoost.

Mein Ziel:

1.) GPU-Clock 2075 MHz; Video-Clock 1784,5 MHz @ 1000mV (bei einer Arbeitstemperatur von 62-65°).
2.) Die Leistung sollte gleich bleiben, also weder plus noch minus im Vergleich zum OC per Offset.

Lösung zu 1.):

Bild 5 a/b:
c1.pngc2.png
(Offset-OC: GPU-Core-Clock +78 MHz)

Bild 6 a/b:
d1.pngd2.png
(negativ Offset-OC + Steigungs-OC: GPU-Clock -78 MHz, Steigung @ 1000 mV auf 2078 MHz.)


Was habe ich jetzt hier gemacht?

Als erstes habe ich den Takt per Offset in -13 MHz Schritten reduziert.
Es wurde nur der Wert per Enter-Taste bestätigt, nicht ausgeführt (nicht per "Apply" angewandt).
Dann wurde die Kurve auf 2077-2078 MHz bei 1000 mV durch gedrückthalten von STRG hochgezogen.

Das ganze wurde solange wiederholt bis sich ein GPU-, Video-Clock von 2075 MHz / 1784,5 MHz eingestellt hat.
Dies war in meinem Fall beim Offset von -78 MHz.

Ich kann leider nicht sagen ob das so auf andere Karten übertragbar ist, oder ob es Pascal-Grafikkarten gibt, die bereits ohne negativ Offset durch anpassen der Steigung so laufen würden.
Eine Sache habe ich jedoch beobachtet: Je niedriger man die Spannung wählt, mit der die Karte laufen soll beim OC per STRG-Taste, desto höher fällt der Video-Clock aus.
Das kann bei z.B. einer EVGA, Palit, Asus, etc. Pascal-Grafikkarte völlig anders sein, ich habe leider zum testen nur diese ein Zotac GTX 1070 AMP! Extreme.

Als Alternative hatte ich zuerst so das ganze übertaktet und undervoltet:

Bild 7 a/b:
e1.pnge2.png

Allerdings hat man hier nochmal ein klein bisschen mehr Verlust im Vergleich zur negativ Offset + Steigungs-OC Methode.
In meinen Augen sind die Verluste zu klein, das sie spürbar wären beim spielen.

Von daher hat sich auch Kriterium 2.) für mich erledigt, es wäre zwar schöner wenn man durch das undervolten überhaupt keine Unterschiede hätte in der Endleistung, aber man kann auch sehr pingelig sein. Ich gestehe das war ich anfangs :D


Bitte nicht mit solch einem OC hier verwechseln: :D
Bild 8 a/b:
i1.png

Hier im Forum gibt es nämlich so einen Experten der meint seine GTX 1060 läuft mit 2500 MHz, bescheissen kann ich mich auch mit einer GTX 1070, man muss nur wissen wie.
Aber das ist OT.

Zum Schluss habe ich noch zwei Screenshots gemacht vom Verbrauch der Grafikkarte, einmal OC und einmal OC + UV, für die die es interessiert:
Bild 9 a/b:
g1.jpgg2.png
(Offset OC +78 MHz)

Bild 10 a/b:
h1.jpgh2.png
(Offset OC +78 MHz; UV @ 1,000 V)

Je nachdem wie sehr man jetzt der Anzeige vertrauen kann, liegt der Unterschied bei ~ 16-17 W durch die geringer Spannung.

Und ENDE :)

P.S.: Kritik ist erwünscht ^^




EDIT:

Hab noch was vergessen.

RayKrebs schrieb:
Was so nicht stimmt, wenn der Video Clock niedriger ist als möglich, durch OC Bios, wird nur ein bisschen Performance verschenkt, aber die Performance skaliert schon mit dem GPU Takt, jedenfalls habe ich das so getestet und bis 2100Mhz GPU Takt probiert.

Gerade das Palit GameRock Premium Bios hängt dann bei Video Clock auf 1708 Mhz fest und dennoch komme ich auf Fire Strike Ultra auf 4900 Punkte bei 2100/4400 Mhz.

Und noch einmal die bitte, wie setzt Du den Video-Clock fest und erhöhst nur den GPU-Clock?

Ich hoffe doch nicht so:
Bild 11 a/b:
f1.pngf2.png

So hab ich ganz am Anfang versucht zu übertakten, was ja falsch ist.
Darauf bezog sich auch meine Antwort. Ich korrigiere meine Aussage jedoch, von keiner Mehrleistung zu sprechen ist falsch.
Sprechen wir eher von einer vernachlässigbaren Mehrleistung.
Trotzdem wäre es interessant wie Du vorgegangen bist.

Nach meiner Ansicht ist das Verhältnis zw. GPU- und Video-Clock sehr wichtig, um ein Maximum der möglichen Leistung zu erzielen.



EDIT EDIT:

Hier mal ein Heaven-Bench:

CPU: i5-3570k @ 4,4 GHz
RAM: 24GB @1333 MHz CL9
GPU: Zotac GTX 1070 AMP! Extreme @ GPU:2075 MHz / Video:1784,5 MHz / 1,000 V / VRAM:4475 MHz

x2.png
 
Zuletzt bearbeitet:
@Polo_86c_2F
Nochmal zum Verständnis: Ich habe in meinem Video gezeigt, wie man die Grafikkarte auf 2000 MHz bringt und dabei die Grafikkarte auch noch undervoltet und das ohne die Leistung zu verlieren, was viele vorher durch das falsche einstellen im Curve-Editor hatten. Und nochmals, nein mit dieser Einstellung die ich gemacht habe, wurde nicht , wird nicht und ist nicht gesagt worden, das Du dieses Verfahren mit 1,0 Volt auf 2075 MHz GPU Takt anwenden kannst oder sollst. In meinem Video ging es allein darum, 2000 MHz mit 1,0 Volt im Curve-Editor einzustellen und zwar richtig einzustellen.

Alles andere was Du vor hast oder auch glaubst machen zu müssen hat mit dem Video nichts zu tun, klar wird bei der Methode die ich gezeigt habe auch der Video-Clock mit angehoben, das ist aber nur Sekundär zu betrachten, weil es in erster Linie darum in meinem Video nicht geht. Wenn Du unbedingt einen hohen Takt haben willst, ob jetzt 2075/2088 oder auch 2100 MHz und das mit 1,0 Volt, dann musst Du versuchen ein Curve-Editor Profil so zu erstellen, das Du den von Dir ausgeloteten Video-Clock von 1784,5 MHz nicht überschreitest.

Den höchsten Video-Clock den ich bisher bei mir gesehen habe, war 1823 MHz, ob das allerdings der PoC [Point of Crash] ist weiß ich nicht, zumindest habe ich noch nicht mehr gesehen. Wenn ich die Grafikkarte mit 2000 MHz und 1,0 Volt laufen lasse, dann habe ich einen Verbrauch zwischen 130-145 Watt und bei der Standard Einstellung [Gaming Z Bios] liegt dieser bei 155 bis 165 Watt, im Schnitt hatte ich dann mit der undervolting Einstellung immer so etwas über 15-20 Watt weniger Verbrauch.



@Edit: Was ja auch noch ein Problem ist, ist das bei jeder GTX 1070 der verschiedenen Custom Hersteller und dessen verschiedene OC Modelle, alle eine andere Standard Curve haben, was auch dazu führt, das man die verschiedenen Curve Einstellungen gerade in den höheren GPU-Taktbereichen nicht 1 zu 1 übernehmen kann.

Bei Deiner Standard Curve ist der Sprung bei 1,0 Volt auf 2075 oder auch 2100 GPU Takt geringer als das z.B. bei meiner MSI der Fall ist, wenn ich mir Deinen Screen anschaue. Wenn ich bei 1,0 Volt z.B. den State auf 2100 MHz hochziehe, dann sind das bei mir +138, schau mal was das bei Dir ist, ich vermute mal etwas weniger, Oder?
 
Zuletzt bearbeitet:
@Zotac2012

Ich glaube wir reden etwas aneinander vorbei. :confused_alt:

Auch nochmal von mir zum Verständnis: Mir ging es einzig und allein um die Art und Weise wie Du in Deinem Video das undervolten beschreibst.
Dabei ist es völlig egal ob ich mir jetzt die 1000 mV, 950 mV oder meinetwegen 1025 mV für irgend ein Beispiel rauspicken würde.
Man betreibt je nachdem mit welcher Spannung man arbeiten mag ein OC des Video-Clocks.
Diese Info fehlt in dem Video oder sie ist an mir vorbei gegangen :freak:
Gut Du sagst mir hier es ist sekundär zu betrachten. Ich seh das anders.


Nehmen wir jetzt einfach mal mein Beispiel.

Werkseitig liegt der Videotakt bei 1708,5 MHz unter Last.
Das von mir ermittelte maximum liegt bei 1784,5 MHz, dies entspricht einem Offset von +78 MHz. Dabei stellt sich der GPU-Takt von 2000 MHz auf 2075 MHz bei 62-66°C GPU-Temp, das ist in meinem Fall die Arbeitstemperatur.
Eine Kombination aus 2088 / 1784,5 MHz sowie 2075 / 1797,0 MHz führt zu instabilitäten.

Ich möchte die Karte auch nicht mit z.B. 2000 / 1784,5 MHz oder 2025 / 1784,5 MHz oder, oder, oder, laufen lassen bei x,xxx V und unnötig Leistung verschenken, ob ich die brauche oder merke sei einfach mal dahingestellt.

Könntest Du mir anhand eines Beispiels erklären, wie ich den Curve Editor richtig benutze, damit ich den Takt von 2075 MHz / 1784,5 MHz beibehalte, aber trotzdem eine niedrigere Spannung anliegen habe als den Standardwert von 1,050 V?

Meine GPU skaliert folgendermaßen bei 65°C @1,050 V:

Offset:
+- 0 = 2000 / 1708,5 MHz
+ 13 = 2012 / 1721,0 MHz
+ 26 = 2025 / 1733,5 MHz
+ 39 = 2038 / 1746,5 MHz
+ 52 = 2050 / 1759,0 MHz
+ 65 = 2063 / 1771,5 MHz
+ 78 = 2075 / 1784,5 MHz
+ 91 = 2088 / 1797,0 MHz (Bild-Fehler, sehr selten)
+104 = 2101 / 1809,5 MHz (Bild-Fehler)
+117 = 2114 / 1822,5 MHz (crash)

So sieht die Kurve mit einem Offset von +78 aus:
1.png2.png3.png4.png5.png

Wie sieht denn bei Dir aktuell der Curve Editor aus?
Vielleicht hilft mir das schon weiter die Sache besser zu verstehen.

Nach meiner Betrachtungsweise ist es unmöglich, ohne das ich mir den Spannungspunkt einzeln hochziehe von der gewünschten Spannung.

Ich muss Dich enttäuschen, die +138 kommen hin.
6.jpg

Allerdings hast Du mir nicht gesagt, welche Temp Deine GPU hatte, als Du die +138 MHz abgelesen hast, die Kurve verändert sich ja je nach Temperatur der GPU.
Zusätzlich wenn ich das richtige sehe hat die MSI einen um zwei Taktstufen geringeren Basis- und Boosttakt.

Das die Kurven je nach Hersteller und Version verschieden sind, ist mir Bewusst.
Deswegen habe ich auch im Post davor darauf hingewiesen dass das nicht unbedingt auf andere Karten übertragbar ist.
Keine Ahnung in wie weit Du das alles gelesen hast, war ja auch viel Text :D


Ich finde übrigens Du unterschätzt die Bedeutung des Video-Clocks. Vermutlich mit ein Grund warum man aneinander vorbei redet. :(
 
Zuletzt bearbeitet:
@Polo_86c_2F
Ist doch schön wenn Du jetzt Deine optimale Einstellung gefunden hast, Du gehst halt hin und setzt halt alles vor den 1,0 Volt etwas im Offset runter, kann man ja machen, ist halt ein etwas anderer Weg. Man sollte den Video-Clock aber auch nicht überbewerten, habe jetzt mal den Curve-Editor so benutzt wie Du es auch gemacht hast, allerdings habe ich diesen nur auf 2050 MHz bei 1,0 Volt eingestellt, Negativ Offset bei mir -39 MHz. Und habe das dann mal durch den Unigine Heaven Benchmark laufen lassen mit Speicher OC +450 MHz [+50MHz @Stock] gesamt also 4498 MHz mit einem Video-Clock von 1785 MHz. Bei mir hat die Grafikkarte dann zweimal runter getaktet, einmal bei ca. 45° und einmal bei ca. 55° und lief dann mit 2025 MHz bis zum Schluss durch [nutze ja immer noch den MSI Standardkühler].


Hier mal der Screen:
Unigine Valley Benchmark mit Curve Profil.jpg

So sieht der Curve Editor bei mir mit +78 MHz Offset OC aus:
Curve Editor +78 MHz Offset OC.jpg

Hier der GPU-z Screen mit den Standardwerten:
MSI GTX 1070 mit Gaming Z Bios @Zotac2012.gif
 
Zuletzt bearbeitet:
@Polo_86c_2F
Warum fährst du dann nicht mit weniger Takt und bleibst beim stabilsten Videoclock? Wenn deine Karte mit dem richtigen Verfahren keine 2075 @ 1v halten kann gehts eben nicht. Der Chip ist nicht gut genug. Meine 1070 konnte das auch nicht. maximal 2050 @ 1v / 1835MHz Videoclock waren möglich...

MSI GTX 1070 Gaming X / 2050MHz @ 1v / 1835MHz Videoclock


Mit einem tiefer eingestellten Bios (FE, Stock) wäre deine Karte vielleicht schon vor 2GHz am Ende. Die Hersteller tricksen eben in dem sie die Booststufen von unten entfernen um oben mehr Luft zu haben. Positiver Nebeneffekt für die Hersteller die Karte lässt sich angeblich höher takten. (was nicht ganz stimmt siehe dein Beispiel) ;)
 
@ODST
Da sieht man mal wieder, wie unterschiedlich selbst die Bios-Konfigurationen bei den verschiedenen Modellen selbst beim gleichen Customer Hersteller sind, ich habe ja das Gaming Z Bios drauf und wenn ich da im Curve-Editor den GPU-Takt auf 2050 MHz und 1,0 Volt stelle, dann beginnt die Grafikkarte im Benchmark mit 2050 MHz / 1,0 Volt und einem Video-Clock von 1772 MHz, dann bei 44/45°C Taktet die Grafikkarte das erst mal runter auf 2038 MHz und der Video-Clock steigt auf 1785 MHz. Mit dem Gaming Z Bios war bei mir der höchste Video-Clock 1823 MHz und auf Deinem Screen liegen ja schon 1835 MHz an. ;)
 
Zuletzt bearbeitet:
@Zotac2012
Richtig erkannt. :) Das hat zwei Gründe:

1. Ich stell die Kurve so ein, dass sie bei Betriebstemperatur ~70°C auf 2050MHz kommt. Ergo mehr Offset und mehr Videoclock.
2. Das Z Bios opfert mehrere Boostufen. Das erkennt man spätestens, wenn die Karte im Idle ist. Und deshalb verliert man da auch ein Paar MHz.

Ob man sich an den letzten MHz aufhängen muss, bleibt jedem selbst überlassen. Ich werde sobald die 1080 Super JetStream hier ist, nicht am Bios rumspielen und nur normal übertakten. Wenn die Gurke nur 2GHz MHz @ 1vschafft, dann ist das eben so. Wenigstens ist das Micron vs. Samsung Lotto endlich vorbei. :D
 
Ich werde mal am WE den Sweetspot meiner 1070 AMP! suchen. Kleine Frage: Mit welchem Programm testet Ihr GPU und vRAM? Reicht der Heaven-Bench oder sollte man mit dem Kombuster testen?
 
Zuletzt bearbeitet:
@ODST
Hat jetzt alles so geklappt wie Du wolltest mit dem Tausch? Na dann hoffe ich für Dich das Du mit der GTX 1080 Super JetStream ein gute OC Grafikkarte bekommst, das Kühldesign ist bei der Palit jedenfalls Top, kann ich sagen, weil ich ja ganz zu Anfang ja mal die Palit GTX 1070 GameRock hatte ;) Sollte Dir wieder erwarten die 1080 nicht gefallen, dann können wir ja tauschen :daumen:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben