News AMD Adrenalin 23.7.1: Treiber soll Desktop-Leistungsaufnahme bei RX 7000 senken

@McTheRipper geht bei mir auch wenn ich den zweiten auf 60hz stelle. Wenn ich ihn auf mehr als 60hz stelle gehts sofort auf 80w+ hoch.
 
  • Gefällt mir
Reaktionen: McTheRipper
Ich kopiere Mal meine Werte aus dem Preview Treiber Thread, da immer noch gültig:

AMD 7900XT Referenz

Mit 23.5.2:
Monitor 1, WQHD 144Hz + Monitor 2, WQHD 70Hz = 90W im idle
Monitor 1, WQHD 70Hz + Monitor 2, WQHD 70Hz = 40W im idle

Mit dem neuen Treiber:
Monitor 1, WQHD 144Hz + Monitor 2, WQHD 70Hz = 80W im idle
Monitor 1, WQHD 70Hz + Monitor 2, WQHD 70Hz = 45-50W im idle
Monitor 1, WQHD 144Hz + Monitor 2, WQHD 60Hz = 45-50W im idle

Die letzte Konfiguration werde ich somit nutzen. Ist somit auch das selbe Verhalten, das @neo243 und @Payne19 schreiben.
 
  • Gefällt mir
Reaktionen: neo243
@Tobi4s bei mir ist es mit der 7900XT und dem xiaomi mi curved display mit 3440x1440_144hz gefixed. Ich hatte vorher auch immer um die 40W im idle und jetzt ist es unter 10W. Ich hoffe, das hilft dir weiter. :)
 
Noch eine Bitte an alle die noch "High Power" Probleme einen Bug Report im Adrenalin erstellen.
 
  • Gefällt mir
Reaktionen: CheersItsJulsn und McTheRipper
@Payne19 es gab user die hatten hohe verbräuche bei 144hz. Aber als sie 160Hz eingestellt hatten(da man den Monitor übertakten konnte) waren die verbräuche viel geringer. wieso weshalb warum?
 
@Vitche
Getestet mit 7900XT Stock je mit 23.5.2 vs. 23.7.1
5120x2160 @60 vorher 18 Watt jetzt 9
5120x2160 @60 + 1920x1080 @60 vorher 49 Watt jetzt 40
5120x2160 @60 + 1920x1080 @120 oder 144 vorher 80 Watt jetzt 77
5120x2160 @ 144 + 3840x2160 @ 144 vorher 80 Watt jetzt 77 via VSR(durch VSR kann ich daran nix ändern)

Da ich 2 monitore nutze und Virtual Super Resolution (VSR) die einzige Möglichkeit ist beide nutzbar zu machen ohne den Full-HD gegen einen 4K zu tauschen, ist die effektive Verbesserung 3 Watt....... Nur wenn ich einen Monitor deaktiviere, habe ich eine gute Leistungsaufnahme. Das Hatte ich vorher auch. Da es ein Multimonitor Problem ist, ist aus meiner Sicht keine Lösung da, wenn ich dafür einen deaktivieren muss. 6 setzen!
 
Zuletzt bearbeitet:
Hallo zusammen,

ich war sonst immer nur stiller Mitleser, aber ich möchte diesmal auch meine Erfahrung zu dem Thema teilen.

Grafikarte 7900XTX MBA

Monitor 60Hz 1920 x 1080 und 144Hz 2560 x 1440 = 58 Watt im ilde und VRAM dauerhaft auf 909Mhz

Monitor 144Hz 2560 x 1440 alleine =VRAM wieder schwankend 43 und 57 Mhz und 31-35 Watt im idle.

Bei mir ist alles wie gehabt wie vorher auch schade....
 
  • Gefällt mir
Reaktionen: CheersItsJulsn
RX 6800 XT / Gigabyte Aorus FI32Q @ 23.5.2
1440p/120Hz + 1080p/60Hz -> 10W
1440p/144Hz + 1080p/60Hz -> 38W
1440p/170Hz + 2160p/60Hz -> 38W
1440p/170Hz -> 10W

RX 6800 XT / Gigabyte Aorus FI32Q @ 23.7.1
1440p/120Hz + 1080p/60Hz -> 10W
1440p/144Hz + 1080p/60Hz -> 38W
1440p/170Hz + 2160p/60Hz -> 38W
1440p/170Hz -> 10W

¯\(ツ)
 
  • Gefällt mir
Reaktionen: graysson
Bei mir tut sich da rein gar nichts mit 2 Monitoren. Das nervige ist das selbst wenn ich den zweiten Monitor ausschalte bringt das null. Erst wenn ich das Monitorkabel aus der Grafikkarte ziehe geht der Verbrauch auf ~14 Watt runter in UHD und 120 Hertz.

Mit 2 Monitoren kann ich machen was ich will, da habe ich immer ~80 Watt Verbrauch im IDLE nur für die Grafikkarte. Selbst wenn ich die Hertz runter drehe bringt das nichts. Das nervt mich schon extrem von AMD da einfach sinnlos Energie verballert wird. Das lustige, auch mit 3 Monitoren bleibt der Verbrauch bei ~80 Watt.
HW Info sagt das Gleiche und mein Strommessgerät direkt an der Steckdose erzählt mir auch das der Verbrauch ab 2 Monitoren deutlich höher ist im IDLE.

IDLE Verbrauch.jpg


Setup.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: meisterkatzen
Wie verhält sich das eigentlich, wenn man FreeSync Bildschirme nutzt und das aktiv hat?
Müsste doch dann eigentlich das Problem nicht geben?
 
@Blutomen
Genauso, mein C2, 34GN850, usw kann ja Freesync. Es ist egal ob du das aus oder an machst. Die Technik ändert ja nichts an den Hertz und der Auflösung im IDLE. Sync kommt ja dann nur in Games zum tragen in dem die Hertzzahl + FPS synchronisiert werden.
 
Zuletzt bearbeitet:
IntoTheRed schrieb:
In welchen Szenarien kommt es denn vor, dass man die dicken Karten ewig idlen lässt, sodass die paar Watt relevant werden?
In allem, was nicht 3D-Beschleunigung ist. Und dann sind 100 Watt einfach mal 70 Watt zuviel. Ist absolut gesehen nicht viel, aber das läppert sich: Hier und da Standby, dort eine angelassene Lampe, Funksteckdosen/Smarthomegeräte, der Router oder Netzteile, die man in der Dose lässt etc. pp.
 
Gemeint sind damit beispielsweise UHD-Bildschirme mit 144 Hz oder die Kombination eines UHD-Bildschirms mit 120 Hz mit einem QHD-Bildschirm mit 60 Hz. Die entsprechende Problematik, die beispielsweise bei einer Radeon RX 7900 XTX im kompletten Leerlauf zu einer Leistungsaufnahme von über 100 Watt führen kann, wurde schon im Release-Treiber der ersten RDNA-3-Grafikkarten gelistet und war AMD entsprechend schon im Herbst 2022 bekannt, aber wurde bislang nie adressiert.
Aus eigener leidlicher Erfahrung kann ich sagen, dass das Thema schon zu (mindestens) 5700 XT-Zeiten vorhanden ist. Aus irgendeinem Grund taktet der RAM voll hoch (GPU bleibt unten), was dafür sorgt dass die Gesamttemperatur langsam ansteigt.
Ich bin halb wahnsinnig geworden weil der Lüfter meiner Red Dragon alle 2 Minuten kurz angesprungen ist um runterzukühlen, dann ausgeht, und nach 2 Minuten wieder anläuft.... (144 WQHD + 60 Hz FullHD)
 
Payne19 schrieb:
Es muss doch möglich sein im Jahre 2023.. 2x 1440p Monitore @144 Hz laufen zu lassen, ohne dass der Speichertakt permanent auf 100% läuft und die Karte deswegen im Idle 103 Watt frisst.

Nee. Du findest auch kein Auto, bei dem du an der roten Ampel den Fuss voll auf dem Gas lassen kannst und dann keinen hohen Energieverbrauch hast.

Payne19 schrieb:
Diese Monitorkombination ist bei weitem keine Seltenheit. Ich will im Treiber keine Custom Auflösungen und Hz runterstellen um AMD's Probleme zu lösen. Ich habe 144Hz und die will ich nutzen.

Es hängt nicht von der Auflösung ab. Es hängt nicht von der Hertzzahl ab. Es hängt einfach davon ab, ob ein ausreichend langes Vblank da ist.

Northstar2710 schrieb:
@Payne19 es gab user die hatten hohe verbräuche bei 144hz. Aber als sie 160Hz eingestellt hatten(da man den Monitor übertakten konnte) waren die verbräuche viel geringer. wieso weshalb warum?

Also Monitortimings verändert. Die werden auch ein längeres Vblank gesetzt haben.

Es ist so ziemlich immer alles Vblank Dauer.
 
Hibbelharry schrieb:
Es ist so ziemlich immer alles Vblank Dauer
Könntest du das mit „vblank“ kurz beschreiben was damit gemeint ist?
 
In meinem Fall:

Monitor 1: 1440p // 165Hz
Monitor 2: Samsung QN90A (4k TV, aber auf 1440p betrieben) // 120Hz

PC wird gestartet, befinde mich auf dem Desktop. Kein laufendes Programm. Sobald ich Bildschirm 1 auf Bildschirm 2 erweitere, springt der Wattverbrauch von 15 bis 30 Watt auf satte 90 bis 100, durchgehend. Der neue Treiber hat mir absolut nichts gebracht, denn so isses jetzt schon seit vielen Monaten. Geht meiner Meinung nach gar nicht.
 
MehlstaubtheCat schrieb:
Ich hätte mich gefreut wenn wieder HAGS intergiert wird
Deine Karte läuft mit HAGS, nur halt AMD optimiert und du kannst es nicht per Windows Feature
Ein- und Ausschalten.
AMD Unterstützt das Windows Feature bewusst nicht,
weil es nichts bringt ausser eher Probleme bei ihren Karten/Treiber.
 
Northstar2710 schrieb:
Könntest du das mit „vblank“ kurz beschreiben was damit gemeint ist?

Ich vereinfache leicht, aber das Muster sollte so klar werden:

Das Vblank oder die Austastlücke ist ein Relikt aus Zeiten von Röhrenmonitoren. Dort hat man mit der Elektronenkanone Zeile für Zeile und da Punkt für Punkt von oben nach unten auf die richtigen Phosphorpartikel geschossen und die so zum leuchten gebracht. Kam man ganz dabei unten an musste die Elektronenkanone danach wieder verdunkelt zur ersten Zeile gerichtet werden, das braucht etwas Zeit. Die Zeit zwischen Beschiessen des letzten Bildpunkts eines Bilds bis zum Erreichen des ersten Bildpunkts des nächsten Bilds ist das vblank. Real werden da auch noch ein paar Leerzeilen nach dem Ende gesendet, so funktionierte zum Beispiel Videotext anner Glotze.

Dieses Vblank gibts bis heute in der Bildübertragung.

Die meisten Grafikkarten, herstellerübergreifend, können Teile ihrer Taktdomains nur im Vblank ändern, sonst sind Artefakte da oder andere Probleme. Ist die zur Verfügung stehende Zeit dort zu kurz werden irgendwelche Takte nicht gesenkt. Hoher Takt frisst Energie, sorgt aber für eine gesichert immer brauchbare Bilddarstellung.

Wie lang in Zeit das Vblank ist, ist von mehreren Faktoren abhängig. Zunächst hat jeder moderne Monitor einen Datenkanal zur Grafikkarte und einen kleinen Speicher für Timingwerte, auch EDID genannt. Diese Informationen liest die Grafikkarte und versteht so wie sie Bildsignale timen muss, damit ein Bild herauskommt.

Ein kurzes Vblank ist nun eigentlich keine schlechte Sache, weil es Totzeiten kürzt. Es killt aber eben auch den Mechanismus zum Stromsparen. Alles hat seinen Preis.

Man hat nun folgendes Problem: Wie lang das Vblank ist wird im Kern als Anzahl von Zeilen aus dem Monitor gelesen. Je mehr Zeilen es gibt und je höher die Bildwiederholfrequenz ist desto weniger Zeit verbringt man in einer gegebenen Menge blanker Zeilen am Bildende. Man braucht aber eine bestimmte absolute Menge Zeit um den Takt ändern zu können. Das heisst nicht nur Auflösung und Bildwiederholfrequenz bestimmen wie lange ein Vblank dauert, sondern auch wieviele blinde Zeilen der Monitor für sich haben will.

Man kann also entweder die Auflösung senken, die Bildwiederholfrequenz senken oder die Anzahl der Leerzeilen erhöhen um den Vblank länger dauern zu lassen. Ein Kombination von all den Sachen führt auch zum Ziel. Ziel ist aber immer das Vblank ausreichend lang zu machen.

Es gibt Monitorhersteller, mir fällt da immer besonders LG auf, die ziemlich durch die Bank wirklich vergleichsweise kurze Vblanks in ihren EDIDs definieren. Das bedeutet dann übersetzt, dass maximales Stromsparen mit LG Monitoren besonders schlechte Chancen hat zu funktionieren.

Nervig sind auch Multimonitorkonfigurationen, weil da teilweise Vblanks geräteübergreifend in einen Einklang gebracht werden müssen damit der Takt geändert werden kann. Haben die Monitore dann unterschiedliche Eigenschaften wirds schwierig.

Das Problem ist damit wirklich komplexer als "mal eben" nen Grafiktreiber zu fixen und auf einfache allgemein bekannte Muster zu schiessen, das wird dem nicht gerecht. Klar muss das Muster dahinter sein, und wo die Stellschrauben sind: Auflösung, Bildwiederholrate, Timingparameter des Monitors oder der Monitore.

Ich fahre privat einen 4K/60Hz und einen FHD/60Hz Monitor. Mein 4K Monitor ist ein LG, mit dem gewinne ich mit Stock Konfiguration und ohne den zweiten Monitor schon keinen Blumentopf. Ich hab das Monitortiming dort händisch angepasst und einfach mehr Leerzeilen im Vblank eingefügt, bis zu einem gewissen Grad geht das immer gut. Man verlässt dabei die Spezifikation des Monitorherstellers, aber wenn ich meiner 4K Glotze meinen Modus aufzwinge macht die weiter ein sauberes Bild. Der zweite FHD Monitor ist total entspannt, der stört den Ablauf nicht, der hat da gleich genug Luft.

Grob dasselbe Spiel hab ich schon bei X anderen Kisten durchgezogen und oft gewonnen.

Und woher ich den ganzen Quatsch weiss? Ein Grundverständnis kommt aus Linuxfummeleien um die Jahrtausendwende. Damals musste man für X11 Modelines zusammenbasteln um irgendwas buntes da raus zu bekommen. Eine Modeline ist nichts anderes als die Beschreibung einer Auflösung und aller Monitortimingparameter dazu, danach weiss man was die bedeuten, inzwischen ist das wie in Windows seit vielen Jahren alles automatisch, aber ich kenns noch. Dazu hab ich den AMD Treiberentwicklern für Linux fleissig zugelesen, die das alles öfter mal erklärt haben und einige Commits im Mesa und Kernel Git durchgestöbert.
 
  • Gefällt mir
Reaktionen: denbaschu, jo0, Casillas und 25 andere
Taurus104 schrieb:
Das ist halt stark Konfiguration abhängig welche Monitoren im Einsatz hat zusammen.
AMD wird das für RX6000 nicht fixen weil das Problem hier nicht so verbreitet ist wie mit RX7000. Es ist kein offizielles Known Issue.
Davon ab hast du damit auf 5 Jahre sicher keine 100 Euro zusätzlich verbraucht.
Hier wirst du dich mit dem Workaround behelfen müssen oder wenn deine CPU eine iGPU hat diese die Berechnung in 2D übernehmen lassen. Hierzu gibt es auch Videos im Netz. Zudem ist es kein AMD only Problem. Siehe Intels ARC oder die RTX 4060 mit ihren 52W Idle Powerdraw. Auch RTX2000 war davon stark betroffen und ich war letzte Woche erst bei zwei Bekannten die mit ihrer 4080 und 4090 57W im Leerlauf verbraucht haben. Ursache auch hier die Monitor Konfiguration.
Das sehe ich anders. Egal, welche Monitore zum Einsatz kommen, es gibt keinen zwingenden Grund für den VRAM nicht herunterzutakten. Mit einem kleinen Kniff in CRU gehts ja auch auf 15-20W herunter, nur zerschießt das dann eben die Farbtiefe und HDR, ist also keine gangbare Alternative. Es liegt einfach daran, dass die die Treiber nicht vernünftig testen und wenn Probleme auftreten, lange brauchen, um diese zu fixen. Nennen wir das Kind doch beim Namen, es ist schlechtes Q&A und schlechter Support.

Es ist mir auch egal, ob das Problem auch bei anderen Herstellern auftritt. Ich habe den Kanal voll für unoptimierte Technik viel Geld auszugeben. Aber AMD hat bei mir erstmal einen schlechten Eindruck hinterlassen. Wie gesagt, AMD hat mit einem Treiberupdate VR-Shader zerschossen und dann haben sie 6 Monate gebraucht, um das Problem zu beheben. In der Zwischenzeit war die Quest 2 mit vielen VR Spielen und Google Earth nicht mehr zu nutzen. Ich bin nicht bereit, das einfach hinzunehmen.

Mir ist es letztendlich egal, welche Grafikkarte in meinem System landet, meine erste Grafikkarte, die ich von meinem eigenen Geld gekauft habe, war eine ATi Radeon 9700pro, ich bin tendenziell also aus Tradition eher im roten Lager. Aber wenn die Qualität nicht stimmt, dann bringt es nichts.
 
Zurück
Oben