Sammelthread Turing RTX 2060/2070/2080(Ti) Overclocking/Undervolting

Pizza! schrieb:
Zum großteil ist es Glück,

Eigentlich immer.
Scho öfters FE Karten gesehen die auch z.B. meine FTW3 Karten von den Taktwerten locker übertreffen.
 
Und ich eine Karte mit A-Chip, bei dem die OC Scanner Kurve schlechter war als die Standardkurve.
 
@noX1609: Die 2060 ist ja eine abgespeckte TU106. In der hiesigen Benchmark-Rangliste der 2070er sind vier Karten in den TopTen Non-A-Modelle - allesamt MSI Armor mit sehr leistungsstarkem Kühler.

Auch wenn die Datenbasis mit aktuell 13 Einträgen zu dünn ist, um Zufall auszuschließen: ;) Da beide Strix wohl ebenfalls dicke Kühler mit kräftigen Lüftern haben, könnte es - mit dem erwähnten Quäntchen Glück - takttechnisch gut ausgehen für die Advanced.
 
Zuletzt bearbeitet:
Danke schon mal für eure Antworten. Denke ich nehme dann die Advanced, denn hab n Angebot für ne nagel neue Karte, welche mich knapp 70€ weniger kostet als die OC (bekannter von mir hat die Karte gewonnen kann selbst aber nix damit anfangen, daher würde er mir diese zu nem wie ich finde guten Preis überlassen. Hoffe dann mal das es der Bessere Chip ist, wie kann man denn erkennen, ob es ein A Die ist der verbaut ist oder ob es der nicht so leistungsfähige andere Die ist?
Werde mal schauen was ich rausholen kann, aber hoffe mal dass die 120MHz auf jeden Fall drin sind, eventuell sogar etwas mehr :)
 
Ich habe auch eine Asus Strix und bin von dem Kühler ziemlich begeistert.
Vermutlich hat Asus das dann über die komplette Modelreihe gut gemacht, also 2060, 2070, 2080.

Den Chip kannst Du dann z.B. mit dem Tool GPU-Z auslesen: Graphics - Code Name: Txxx 300A
 
noX1609 schrieb:
Hoffe dann mal das es der Bessere Chip ist
Um keine Missverständnisse aufkommen zu lassen: Ob du einen A- oder Non-A Chip bekommst, ist kein Zufall, sondern fest definiert mit der Karte, die du kaufst. Nur wie gut dieser Chip dann geht, ist offen. Eigentlich sollte der A-Chip Vorteile haben, weil er für OC-Modelle vorgesehen ist. Die Erfahrungen der Communities zeichnen aber ein bunteres, weniger eindeutiges Bild.

Ein weiterer Aspekt, um die Verwirrung komplett zu machen: ;) Die Non-A-Karten haben normalerweise eine geringere maximale Leistungsaufnahme (Power Target/-Limit) als die OC-Modelle. Oft ist das ausreichend, aber einem gut gehenden Non-A-Chip kann damit oben raus die Luft ausgehen, was sich im besten Fall in schwankendem Maximaltakt äußert. Wenns schlechter läuft, erreichst du den Takt nicht ganz, den der Chip eigentlich drauf hätte. Bei den A-Modellen gibt es dann eine Auswahl an alternativen Bios mit ggf. höherem PT/PL, bei den Non-A eher nicht.

Das alles ist nicht kriegsentscheidend, sofern eine 2060 grundsätzlich zu deinen Anforderungen passt. Aber nun hast du das ganze Bild.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Whitebeard47, Kryss, oemmes und eine weitere Person
Danke für eure Antworten, echt super :)

Eine Frage hätte ich noch: Wo findet man das Bios welches man als Ersatz nehmen kann? Denn das wäre eventuell mal n Versuch wert, hab aber bisher nur welche für die 2070 oder 2080 gefunden aber keine für die 2060.
Außerdem: Ist es egal von welchem Hersteller das Bios stammt? Denn habe eins im Netz gefunden mit höherem Boost Takt und Power Limit, ist aber von einer EVGA und ich hab ja die Asus Strix. Geht weiterhin Aura Sync und die anderen Features?
 
Zuletzt bearbeitet:
noX1609 schrieb:
Wo findet man das Bios welches man als Ersatz nehmen kann?
Auf techpowerup in der Bios-Sammlung. Aber guck dir die Informationen zu dem Bios genau an., ob es kompatibel ist.

Und lies dir erst mal die beiden Artikel von Igor durch zum Thema Bios bei dem RTX-Krempel. Also den, den ich verlinkt habe und den, den Igor in der Einleitung verlinkt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Kryss
Sehr interessant, kannte ich nicht. Lese ich gerade :)
 
Igor lesen lohnt immer - speziell auch die Grundlagenartikel von ihm. Vor allem sabbelt der nicht rum, schwenkt paar Karten in der Luft rum und stellt dadurch Testergebnisse fest. Wenn du seine Tests liest, dann liegen denen genaue Messungen mit dem entsprechend High-Tech-Equipment zu Grunde und kein Wischiwaschi und paar Spieletests unter fragwürdigen Rahmenbedingungen.
 
  • Gefällt mir
Reaktionen: Gortha, Hias_L, W0lfenstein und eine weitere Person
Auf jeden Fall sehr geil, dass er den ganzen Müll outet, was schlechte Speicherkühlung hat. :heilig: Von Computerbase wünsche ich mir das auch. Was bringen mir 70°C auf der GPU, wenn der Speicher wegen ständig 90°C dann in einem halben Jahr abraucht? Die Zotac 2080TI AMP Extreme ist ja so ein Müll-Stück. Hätten sie für paar Cent lieber vom Werk aus mehr WL-Pads eingebaut.

https://www.tomshw.de/2018/12/11/zo...im-test-viel-rgb-licht-und-ein-paar-schatten/
https://www.tomshw.de/2018/12/03/pa...der-moeglichen-gefahrenzone-befreit-igorslab/
 
Na ja, Igor sagt eigentlich auch in den anderen Bereichen immer Klartext an soweit ihm das möglich ist. Er ist ja auch immer in der Zwickmühle, dass er einerseits die Kontakte zu den Herstellern braucht, andererseits aber auch klar die Schwachstellen ansprechen muss.
(Sein Artikel über interne Soundchips, interne Soundkarten und externe DACs hat mich z.b. davon abgehalten meine Soundkarte auszubauen. Und er untermauert es ja mit belegbaren Messdaten und sabbelt nicht was von "...aber gefühlt hört sich das so oder so an".)
Wenn man ihn aber über Jahre liest, lernt man auch irgendwann zwischen den Zeilen zu lesen und da finden sich dann schon öfter mal paar gehörige Spitzen gegen grün und rot - da macht er keine Gefangenen.
Zur RTX würde ich sagen - er hat schon mal Karten getestet, die er lieber hatte. ;)
 
oemmes schrieb:
Zur RTX würde ich sagen - er hat schon mal Karten getestet, die er lieber hatte. ;)

Im Grunde ist dieser Release auch nicht so geil gegenüber dem Vorgänger. So eine RTX2080 hätte das TDP-Niveau eine 1080 oder 1070 haben müssen, volle 3072 Shader und die Speicherbestückung der TI und die TI gleich 16GB an 512 Bit oder gleich alles mit HBM, wenn es nicht so teuer wäre.

Die AMD Vega hat er aber nicht getestet? Nicht vom Kauf von Abfall abgehalten.

Meine Gainward konnte da nicht als Abfall geoutet werden. Speicher fast genauso kühl wie die GPU, keine Röstung bei 90°C.
 
  • Gefällt mir
Reaktionen: oemmes
Banger schrieb:
Die AMD Vega hat er aber nicht getestet? Nicht vom Kauf von Abfall abgehalten.
Meinst du die Vega64, die ich hatte? Genau die Asus hat er schon getestet und auch ne Lösung für den VRM-Eierkocher angeraten per 3 mm Wärmeleitpad, aber das Teil von mir war wohl ab Werk schon Müll.

Für mich sind die RTX einfach Langweiler, weil sie von Haus aus so kastriert sind. Navi wird wohl auch nicht an ne RTX2080 oder gar ne 2080Ti anstinken können, vermutlich nicht mal an ne 2070. Somit bleibt der GPU-Markt das was er war - ne Fernsehserie von RTL - stinkenlangweilig.
 
  • Gefällt mir
Reaktionen: Banger
Die geringen Marktbewegungen haben aber auch dafür gesorgt, dass ich meine 1080 2 Jahre und 3 Monate benutzt habe. Davor habe ich die Karten teilweise nach 6 Monaten gewechselt. Wobei die GTX480 hatte ich auch rund 2 Jahre und die 8600GT hatte ich auch relativ lange.
 
Banger schrieb:
Auf jeden Fall sehr geil, dass er den ganzen Müll outet, was schlechte Speicherkühlung h

Absolut! Die Wärmebildkamera-Aufzeichnungen im Zeitraffer sind super. Wenn da beim Mem 92 Grad erreicht werden....
Die Berichte haben mich beim Kauf auch beeinflusst.

Ich glaube die Gaiming X Trio TI wird bei Igors Test z.B. so warm. 72 Grad der Chip und 92 Grad beim Mem. Da ist man schon knapp dran an den 95 Grad max die @Banger erwähnt hat. Die max Temp habe ich inzwischen auch mehrfach in anderen Foren gelesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banger
Moin zusammen,

hab heute etwas gebastelt, hab mir mal just for fun eigentlich zwei kleine Noctuas (40er) bestellt, also die sind ja echt winzig.
Habe die zusammen mit dem Silent Adapter auf die Backplate der KFA2 installiert, nicht zu hören die kleinen Dinger. Wollte das mal testen, weil ich zum Thema Backplate kühlen und Ergebnisse kaum was gefunden habe, ausser uralte Sachen. Und natürlich Spass am basteln :D

Joa, also 15 Min Witcher 3 in 2k (wg. Reshade ist nicht mehr drin als 2k bei 60 FPS), wo ich sonst mit gelocktem Lüfter bei angenehmen 52% auf 78 Grad komme, waren es jetzt 70 Grad. Geht wahrsch noch nach oben, die Tendenz war aber eher zu 69 Grad, von daher könnte das schon max sein. Ich share es mal, weil man kaum was findet. Werde das noch ausgiebiger testen, aber bisher stört es nicht weiter die Geräuschkulisse und auch nicht die Optik (vertical GPU) und scheint ein paar Grad zu bringen...

GPU läuft mit 0.868 Volt auf 1860, pendelt sich dann bei 1830 ein. Seeeehr leise das ganze System.

vg Chris
 

Anhänge

  • IMG_20190316_134005.jpg
    IMG_20190316_134005.jpg
    1,1 MB · Aufrufe: 461
  • IMG_20190316_132750.jpg
    IMG_20190316_132750.jpg
    3,7 MB · Aufrufe: 475
Danke für die Infos. Hmm scheint kein Bios dort zu geben, was zu den Strix Karten passt, denn die hat ja 2x HDMI und 2x DP, die ganzen Bios Dateien dort sind aber für andere bzw. das standart-PCB.

Naja werde mal sehen, wie weit ich die Karte getaktet bekomme.

Was könnt ihr an Bench-Marks empfehlen um die Stabilität zu testen? Kenne bisher nur den Time Spy, aber vielleicht gibts ja noch was anderes/besseres.
Eventuell verpasse ich der Karte noch Flüssigmetall, könnte noch bissl. mehr Takt rausholen wobei meistens ja das Powerlimit eher das Problem ist und nicht die Temp, zumindest bei dem Strix kühler, der ist ja nicht gerade klein ;) (und ja ich weiß flüssigmetall ist nicht ungefährlich hab aber aus dem CPU Bereich einiges an Erfahrung damit und auch bei älteren Grafikkarten schon verwendet. Wichtigste Teile werden mit Nagellack isoliert.
 
@noX1609 Der Strix Kühler ist richtig gut. Poste bitte Werte, wenn Du testest. Würde mich interessieren.

@Kryss das ist ja interessant. Ist die Hitze der Platte egal für die Lüfter und heizt dann die CPU evtl mehr auf oder wird die sogar noch mitgekühlt?
 
Zurück
Oben