Workaround für hohen Idle Powerdraw RX5000, 6000, 7000

  • Ersteller Ersteller HierGibtsNichts
  • Erstellt am Erstellt am
H

HierGibtsNichts

Gast
Guten Abend an Alle AMD GPU User die weiterhin einen hohen Idle Stromverbrauch haben.

Diesen Workaround hat der YTber Ancient Gameplays in seinem neusten Video als erstes publiziert. Er macht im Moment die Runde in den Hardwareforen und da ich ihn hier noch nicht entdeckt habe, wollte ich das nachholen.

Ihr nutzt eine Option aus dem Adrenalin GPU Treiber, zu finden unter Einstellungen - Display-Benutzerdefinierte Auflösung (engl. Custom Resolution)

Ihr erstellt eine neue Benutzerdefinierte Auflösung mit den exakt gleichen Werten welche euer Monitor nativ nutzt.
Mit der Ausnahme das ihr eure Hz Frequenz bei 144hz Monitoren zum Beispiel auf 142 Hz begrenzt. Beim Timing Standard wählt ihr "CVT" aus, sollte diese Option nicht funktionieren könntz ihr "CVT Reduced Blanking" auswählen oder ihr müsst mit den Hertz eures Monitors weiter
runtergehen 140, 120, 100 usw. bis er die normale CVT Option zulässt.
Danach klickt ihr die neu erstellte Auflösung 1x im Treiber an.
Nun müsst ihr diese nur noch in den Windows Monitor Einstellungen auswählen.

Für Multi Monitor Setups und hohen Idle Powerdraw durch Multi Monitot

Bei den anderen Monitoren eures Setup verfahrt ihr genauso hier reduziert ihr die Hertz auf 60,75,85,100hz solange bis ihr im Fenster Powerdraw des Treibers einen deutlichen Abfallfall der Wattzahl im Idle feststellt. Auf einem Zweit oder Drittmonitor sollte für die Meisten eine niedrigere Hertz verschmerzbar sein.

Das Prozedere hat bei mir jeweils bei eine 7900XTX und einer 6750XT mit jeweils Dual und Triple Monitor Setup zu einer deutlichen Senkung des Idle Powerdraw geführt.
28-32W bei der 6750XT, 40-50W bei der 7900er Karte.

Im Video ist alles sehr gut erklärt und gezeigt. Es ist absolut kein Hexenwert und hilft stromspare.

Wichtige Anmerkung : CVT funktioniert bei Wenigen Monitoren erst unterhalb/ab von ca. 100/118 Hz darüber muss man bei diesen Monitoren auf CVT Reduced Blanking zurückgreifen. Bitte beachtet aber das bei dieser Option ihr den Monitor etwas außerhalb der Herstellerspezfikation betreibt! Bei manchen Monitoren wird je nach Panel die Farbtiefe auf 6bit reduziert (meist bei 1080p TN Panels) solange ihr nur das Übliche wie Office, YT/Twitch, Gaming etc. mit dem Monitor macht sollte euch das nicht stören.
Wenn ihr Foto/Videobearbeitung nutzt dann müsst ihr auf diesen Workaround mit diesem/eurem speziellen Monitor dann leider verzichten.

Ich hoffe dem Ein oder Andere hilft dieser Workaround, so wie Mir und man kann etwas Stromsparen.

 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Qyxes, danyundsahne, cosmo45 und 6 andere
hi,
brinkt leider nix, man muss da alle Monitore auf 60hz und 6bit laufen lassen(15-20W ersparnis), cool wäre ne option das sie automatisch wechselt, z.B. beim gaming dann auf 240Hz geht, alles ab 120hz verbraucht die gleiche Leistung
grüße
 
Ne, das Ganze ist wirklich nichts und für Leute mit nativen 8, 10 BIT Panels ist 6 BIT eine Zumutung,
das sieht man nicht nur bei Bildbearbeitung.
 
  • Gefällt mir
Reaktionen: usernamehere, Azghul0815 und Xero261286
Ich verstehe die ganze Thematik nicht, laut gnu compatiblen Ausleseprogramm und Windows Ausleseprogramm war der IDLE Verbrauch recht niedrig von meiner verkauften 6600XT.

Der Monitor hat Freesync von 35-75 Hz vertikal.

Die kritische Frage ist, wird es an der Steckdose gemessen? Und falls man dies tut, ist auch der Rest recht Energiesparsam oder nicht? B550 anstatt X570, usw.

Die nvidia 960 GTX 4GB zieht ab 14Watt im idle, deutlich mehr als die ~8Watt die die 6600XT hatte.

Anderseits was man so sieht zuletzt, wird allerlei Phantasiewert angezeigt was Spannung usw betrifft. Man müsste direkt am Sockel usw messen. Messungen am Sockel sind bei mir leider unmöglich, da ich diesen Adapter nicht besitze. Mit einer Stromzange könnte ich das PCIE Kabel messen
 
_roman_ schrieb:
Ich verstehe die ganze Thematik nicht
Es geht um Multimonitor Setups die höhere Hz Zahlen fahren - du hast EINEN Monitor mit 75Hz, da kann auch AMD Stromsparen ;)
Das ist leider immer noch ein Thema bei AMD und nur deshalb bin ich noch mit der 3060 unterwegs... Ein Workaround ist das vlt zwar, aber brauchbar sicherlich nicht - leider.
 
rickcoco schrieb:
hi,
brinkt leider nix, man muss da alle Monitore auf 60hz und 6bit laufen lassen(15-20W ersparnis), cool wäre ne option das sie automatisch wechselt, z.B. beim gaming dann auf 240Hz geht, alles ab 120hz verbraucht die gleiche Leistung
grüße
@Nickel Muss man eben nicht und das sieht man auch im Video. Mein Gamingsystem - Zweitmonitor auf 100Hz, Drittmonitor 118hz und Mainmonitor 142 Hz. Nur mein Zweitmonitor reduziert auf 6 Bit, Mainmonitor 10bit und Dritter 8bit ganz normal. 6 Bit wird außerdem nur bei CVT geändert nicht bei CVT-RB. 6 Bit Reduzierung betrifft nicht alle Monitore weil Panelabhängig.
 
Zuletzt bearbeitet von einem Moderator:
Offenbar hat AMD nicht nur Probleme im Multimonitor Setup.

Per Zufall habe ich erst vor wenigen Tagen bei meiner 6800XT entdeckt, das der IDLE Verbrauch bei 75Hz um ein vielfaches höher ist, als z.B. bei 144Hz. Eigentlich müsste es doch, wenn schon, umgekehrt sein.

Stelle ich auf 75Hz, habe ich 27Watt IDLE Verbrauch! Bei 60, 120 oder 144Hz sinkt er auf 6Watt.

Schon komisch, irgendwie begleitet diese Multimonitor Geschichte AMD doch schon seit mehreren Grafikkarten Generationen. Aber selbst mit einem Monitor, wie bei mir, passieren beim Verbrauch komische Geschichten. Das muss doch mal in den Griff zu bekommen sein.

LG
 
Zuletzt bearbeitet:
6800XT 165HZ
1683536142027.png

6800XT 60HZ
1683536203578.png

Die Ersparnis ist um Faktor 6 schon gewaltig
 
  • Gefällt mir
Reaktionen: HierGibtsNichts und Restart001
RealEnd schrieb:
Offenbar hat AMD nicht nur Probleme im Multimonitor Setup.
Es betrifft tatsächlich auch sehr stark Intel ARC und selbst Nvidias hat in bestimmten Multi Monitor Konfigurationen/Kombinationen hohen Idle Powerdraw Probs.

Das Verhalten ist tatsächlich sehr Monitor abhängig und irgendwie auch inkonsistent zum Teil. So ist meine Erfahrung.
Ergänzung ()

just_f schrieb:
da kann auch AMD Stromsparen ;)
Das ist leider immer noch ein Thema bei AMD und nur deshalb bin ich noch mit der 3060 unterwegs.
Das Problem hat auch Intel ARC sehr stark und selbst Nvidia, vorallem bei den großen RTX 3000er aber auch vermehrt bei den 2000er Modellen damals. Bei 4000 ist es stark von den verwendeten Monitoren abhängig.
 
  • High idle power has situationally been observed when using select high-resolution and high refresh rate displays on Radeon™ RX 7000 series GPUs.
ein Auszug aus dem aktuellen Treiber 23.4.3

ist bekannt aber nicht gefixt
 

Anhänge

  • Screenshot 2023-05-06 220420.png
    Screenshot 2023-05-06 220420.png
    54,8 KB · Aufrufe: 136
  • Screenshot 2023-05-06 220501.png
    Screenshot 2023-05-06 220501.png
    63,3 KB · Aufrufe: 136
  • Gefällt mir
Reaktionen: danyundsahne
man kann ja mal gern rechnen wie viel mehr kosten man dadurch hat, bin mal gespannt wer mehr als ein cent pro stunde zusammen bekommt:) glaub das nennt man sparen an der falschen stelle:)
 
Ist ja niemand gezwungen es zu machen. Und auf das Jahr gerecht sind ein paar Cent pro Stunde sicherlich schon nicht mehr ganz so wenig. Am falschen Ende würde man sparen wenn man irgendwelche signifikanten nachteile hätte. Hat man aber nicht.
 
Hat mein G-Sync leider nicht. Wird Zeit, diesen Nvidia-Quatsch loszuwerden.
 
Hat jemand Infos ob dieses Thema auch Linux betrifft oder ist das ein Windowstreiber Phänomen?
 
Das Problem ist ja nicht so unbedingt der größere Strombedarf - das größere Problem ist die höhere Abwärme des VRAM.
 
Hab mir mal eine RX 6600 zum testen geholt. Ich muss sagen, dass der Speicher mit den 23.4.x Treibern einwandfrei läuft, selbst beim Abspielen von YouTube Videos.
Allerdings habe ich Probleme im Watch Dogs2. Hub Blinken und Abstürze. Vorher lief es mit einer RTX Karte ohne Probleme. Ein Paar andere Spiele liefen ohne Probleme.
Mit dem 22.5.1 läuft Watch Dogs ohne zu Blinken (fast) 🤪 und Abstürze. Allerdings springt der Memory Takt sofort auf maximum, wenn ich YouTube einschalte. Es lässt sich durch das Abschalten von der Hardwarebeschleunigung im Chrome beheben.
Spannung und Lüfter Drehzahl Einstellungen sind im jedem Treiber komplett daneben. Z.B. 30 % im Treiber sind tatsächlich 50% (immer +20%). Gleiche gilt für Spannung und Takt.

Wenn jetzt einer noch sagt, dass AMD Treiber gut sind....

2 Monitore x 75 Hz (DP und HDMI).
 
maxi_rodriges schrieb:
Wenn jetzt einer noch sagt, dass AMD Treiber gut sind....
Nur das solche Probleme nie Alle User betreffen. Bugs haben alle Treiber, auch die von Nvidia und Intel, nachzulesen in deren Releasenotes. Für den Einzelnen der Betroffen inatürlich unschön. Aber Einzelerfahrung sind nun mal nicht statistisch relevant und allgemeingültig.
Zur Fehlerbehebung in deinem Fall. Den Nvidia Treiber mit DDU deinstalliert in Abgesicherten Modus? Der derzeit empfehlenswerteste Treiber für RX6000 ist der 23.2.2. Deaktiviere in den Windows Einstellungen den Windows Schnellstart und deaktiviere das Windows Multiplane Overlay.
Das fixt es dann für die meisten Nutzer. Für den Idleverbrauch gibt es ja nun diesen Workaround. Und KA was du mit Spannung und Lüfterkurve für Probleme hast habe 3x RX7000,6000 und eine Radeon VI und damit keine Probleme. Auch liest sich davon nix im Netz.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle und danyundsahne

Ähnliche Themen

Zurück
Oben