Sammelthread Turing RTX 2060/2070/2080(Ti) Overclocking/Undervolting

50 grad aus, 10 grad Hysterese, erst bei 60 gehen sie wieder an. Klar?
Und/oder kühlt bis mind. 40 runter. Dann dürfte sie auch wieder bei 50 an gehen.
Deswegen sind 10 grad da auch zu viel. 3-5 is der Wert den man gehen sollte.
Geht halt darum wenn Lüfter ausgeht, steigt ja gern die temp direkt nochmal an oder bleibt direkt da. Dann haste Lüfter die an/aus gehen. (oder bei stark ansteigenden Kurven)
Und mit der Hysterese muss erst mal temp x vom letzten Ereignis entfernt erreicht sein, damit er wieder was ändern darf.

Bissl Quark erzählt.
Nur bei sinkender Temp ist die letzte Veränderung gesperrt, bis Temp minus Hysterese erreicht ist.
Wenn die Temp steigt, darf er natürlich eingreifen.
Sonst könnte man ja seine Karte braten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Weedlord, Shir Khan und amorosa
Dann hab ich es ja fast richtig verstanden. Frag mich nur warum die Lüfter dann bei mir schon angehen bevor ich 60 Grad erreiche und aus gehen bevor die Temps auf 40 gesunken sind.

 
Schon komisch, dass es so große Unterschiede gibt beim Idle-Verbrauch
Hab nochmal einen kleinen Test mit versch. Frequenzen gemacht

60, 98, 120 und 144Hz

Bis 120Hz bleibe ich noch unter 3W (im Mittel 2,5W), aber ab 144Hz explodiert der Verbrauch um mehr als das 5-fache!!! Und zwischen 120-144Hz sieht und merkt man keinen Unterschied

1080p nutze ich, weil die Skalierung nicht nicht optimal ist. Manche Apps unterstützen das noch nicht, da ist alles viel zu klein

So gesehen, war der arschteure Monitor (2.000€) zumindest von der Größe her (27") ein Fehlkauf :(
Ich bräuchte min 32"...
 
Also 60-144hz bei 2k macht bei mir keinen Unterschied, auch FHD/60 nicht. Immer um die 23Watt. Strange
 
Was könnte den Unterschied ausmachen?
Das BIOS der Karte? Der Monitor?

Wichtig ist, dass kein Browser geöffnet sein darf
Mit FF hab ich so 6W


edit:
Ich wundere mich die ganze Zeit, warum mein Sys in idle min. 10W mehr zieht, als gestern Abend
Mir ist eingefallen, dass ich gestern den aktuellsten NV-Treiber (inkl. GeForce Experience) installiert hab
Diese NV-Sch...se zieht im Hintergrund mehr als 10W??? :grr: Die Karte selbst zieht aber nur brav 1,5-2W

Zuvor hatte ich nur die nötigsten Treiber drauf

edit:
Verantwortlich ist "NVIDIA LocalSystem Container", aber ohne den läuft "GeForce Experience" nicht
(braucht man nicht wirklich)

Als Benachrichtigung finde ich "GeForce Experience" ja nett, aber 10-15W mehr dafür? Viel zu viel...
Gibt es eine andere Möglichkeit mich über neue Treiber benachrichtigen zu lassen? (per Mail oder über Push von Foren)
 
Zuletzt bearbeitet:
Also liegt es am Overlay ? Am GFE, das wir bei 20W u. höher im idle liegen ?
Oder eine Mischung aus LED, GFE wohl eher.

Ich muss mal schauen, wie sich das verhält, wenn ich bei meiner Graka die LEDS deaktiviere.
 
Guter tip, teste ich Mal. Nutze GFE nur einmal für die Settings. Man kann den Dienst ja auf manuell stellen ggf
 
  • Gefällt mir
Reaktionen: amorosa
amorosa schrieb:
Also liegt es am Overlay ? Am GFE, das wir bei 20W u. höher im idle liegen ?
Oder eine Mischung aus LED, GFE wohl eher.

Ich muss mal schauen, wie sich das verhält, wenn ich bei meiner Graka die LEDS deaktiviere.
Nee, GFE macht an meiner Karte garnichts, aber am Gesamtverbrauch des PC in idle
Aber LED kann am Verbrauch der Karte was ausmachen. Das hatte ich nicht im Kopf, weil ich keine LEDs an der Karte hab

Habe zwar LED an den GSkill Trident Z, aber brauchen tue ich das nicht. Sieht nur nett aus
Ergänzung ()

Salamimander schrieb:
Guter tip, teste ich Mal. Nutze GFE nur einmal für die Settings. Man kann den Dienst ja auf manuell stellen ggf
Es reicht den Dienst zu beenden (zum Testen), aber nach einem Neustart sind sie wieder aktiv
Ergänzung ()

Weedlord schrieb:
Also ich hatte auch ohne Expirience so einen hohen Verbrauch.
Bei mir waren es diese 2 Container-Dienste
Wenn man GFE nicht braucht, nutzen diese Dienste garnichts

Dann am besten ALLES deinstallieren und von Anfang an kein GFE installieren (nur die nötigsten Treiber)
Sollten trotzdem Dienste geladen werden, dann kann man diese deaktivieren (auf manuell). Dann verschwindet zwar "NVIDIA Einstellungen" rechts unten im Task, aber man kann ja Auflösungen auch über WIN einstellen

Aber nur dass diese 2 Dienste nebenher laufen, sind mir 10-15W einfach zuviel. Ich nutze GFE nur, um zu wissen, wann ein neuer Treiber kommt. Aber das ist es mir nicht wert. Da muss es eine andere Benachrichtigung geben
 
Zuletzt bearbeitet:
Hab da heut mittag Quatsch wegen der Hysterese am Handy erzählt. Nur bei fallenden Temps ist halt die letzte Änderung/Temp gesperrt, nicht bei steigenden Temperaturen.

@Snoopy69: Warum nutzt du nicht die CB-Seite?
emailfuerdich.PNG

Vielleicht nicht auf die Minute genau wenn er draußen ist, aber darauf wirds ja sicher nicht ankommen.
 
  • Gefällt mir
Reaktionen: Snoopy69
Ich hab LED ausgeschaltet (ca. 3-4 Watt weniger), absolutes kurz angezeigtes Minimum knapp über 15 Watt, weniger geht nicht.
Das mit dem Treiber und den Container ist interessant, muss ich mir vielleicht auch mal anschauen.
Aber ob das eine gute Idee ist die alle zu beenden... nvidia hat den ganzen Kram ja nicht zum Spaß gemacht 🤔

Ich bin da noch skeptisch mit den sehr niedrigen Werten, ca. 2 Watt für die gesamte Karte an Verbrauch halte ich kaum für möglich. Dafür ist einfach schon zu viel verbaut.

Edit: Container im Taskmanager beenden hat nichts am Verbrauch geändert.
 
Ist aber so...
Die Temperatur lügt ja nicht

Hätte ich noch den Luftkühler drauf, könnte ich das wieder gut merken. Mit Wasser leider nicht. Dafür ist die Temperatur zu konstant. Bei "Silverangel" ging das auch mit dem geringen Verbrauch der Karte

Genau hab ich mich mit den Diensten nicht befasst. Aber das Deaktivieren bringt beim Verbrauch der Karte nichts. Nur im Gesamtverbrauch und das finde ich nicht wenig


Ich habe noch eine Idee. Ist aber etwas aufwändiger...
Installiert Teamviewer oder richtet eine Remotedesktopverbindung ein. Dann eine Verbindung zwischen einem Smartphone oder einem Tablet herstellen und das Monitorkabel an der Karte abmachen und gucken, wie sich der Verbrauch der Karte dann verhält. Tut sich nichts, liegt es nicht am Monitor (vielleicht am BIOS der Karte?)
 
Zuletzt bearbeitet:
Ich habe mir ne 2070 Super gegönnt und würde die gerne Undervolten damit sie noch leiser und kühler läuft. Afterburner habe ich natürlich, aber gibts hier eine Idiotensichere "Anleitung" wie das vorgehen ist? Habe ich noch nie gemacht, ich weiß eigentlich nur das man es über das STRG + F Menü im Afterburner macht :D
 
Das einfachste ohne viel Wissen wäre, Powertarget zu begrenzen und einfach mehr Core und Mem Takt draufknallen.

Ansonsten gibt es ne Anleitung im Startpost.
 
  • Gefällt mir
Reaktionen: Kraudi2k
Ja, quick & dirty: Nutze zum OCen den OC-Scanner, - genau, mit STRG + F -, verwende den damit ermittelten Core-Takt, gib etwas VRAM-Takt hinzu (+500 gehen immer, +1000 bei vielen) und senke dann das PowerTarget unter 100% so weit ab, dass das System unter Grafiklast noch stabil ist. Nur dieser letzte Part erfordert dann etwas Herumprobieren.
 
  • Gefällt mir
Reaktionen: Kraudi2k
Kennt sich jmd gut mit AB aus?
Wenn ich zb nur CCX0 (4 Kerne) beim 3950X übertakte, zeigt mir AB die ersten 8 Kerne mit dem erhöhten Takt an.
Also 4 physische Kerne und 4 Virtuelle??? Insgesamt werden aber nur 16 Kerne bei AB angezeigt und ich verstehe nicht warum!? Sollten das nicht 32 mit SMT sein?

Muss AB bei einer neuen CPU neu installiert werden, damit alles korrekt angezeigt wird?

edit:
Wie es aussieht, werden physische und virtuelle Kerne im Wechsel in AB angezeigt...
CPU1 - phy.
CPU2 - virt.
CPU3 - phy.
etc

das würde bedeuten, dass die letzten 8 echten Kerne garnicht angezeigt werden?
 
Zuletzt bearbeitet:
Hab mal einen kleinen Test gemacht, wie sich der Takt und die Spannung bei gleicher Einstellung in AB bei 8 Grad und bei 35 Grad Wasser beim Farcry 5 Bench verhält

Bei 8 Grad Wasser war der GPU-Takt bei 2205 und 1,087V (GPU-Temp 20 Grad)
Bei 35 Grad Wasser war der GPU-Takt bei 2160 und 1,043V (GPU-Temp 44 Grad)

Wie oben geschrieben, die Einstellungen in AB sind absolut gleich geblieben

So richtig verstehe ich es nicht, weil das max. PL bei 380W liegt und die Karte nie mehr als 320W gebraucht hat
 
Dem AB würde ich im moment noch nicht trauen. Wenn ich Ryzen Master und AB vergleiche und davon ausgehe, dass Ryzen Master korrekt anzeigt, dann zeigt der AB totalen Käse an.

SMT ist aus
Anmerkung 2019-12-17 181041.png
 
Zurück
Oben