News AMD RDNA 2: Neue Treiber senken den Stromverbrauch auf YouTube

t3chn0 schrieb:
Bei mir hat das korrekte Heruntertakten erst mit Aktivierung von Freesync funktioniert.

Gerade probiert, RX6900+31.5" WHQD 165Hz, tut wie es soll runter takten! Danke.

Ich habe seit einiegn Monaten halt immer nur 120Hz eingestellt gehabt, da lief es.
 
  • Gefällt mir
Reaktionen: t3chn0
BlueBringer schrieb:
HDR 400, 600 usw sind Standards für BILDSCHIRME und nicht für Grafikkarten. Die Grafikkarte gibt immer das gleiche HDR Signal aus, dass dann eben besser oder schlechter (HDR 400) vom Bildschirm wiedergegeben wird.
Und dennoch ist die Ausgabe in HDR in diesem Test irreführend. Dann müsste der Stromverbrauch in 4k mit und ohne HDR gleich sein.

Bright0001 schrieb:
Das müsstest du uns noch erläutern, wieso und wie viel mehr da wegen HDR verbraucht wird.


Bei 200W-300W Spaßriegeln machst du dir Sorgen, dass diese im Idle wegen HDR vielleicht 2W mehr verbrauchen? :lol:

Stell deinen Monitor oder Fernseher mal auf HDR und messe dann den Stromverbrauch.
 
"Denn seit dem Adrenalin 21.6.1 ist die Chance nun deutlich höher, dass der Speichertakt und damit auch die Leistungsaufnahme niedrig bleibt, selbst wenn ein Monitor mit einer höheren Bildwiederholfrequenz als 60 Hz angeschlossen ist. Das hat mit älteren Treibern quasi nie funktioniert und bei 120- oder 144-Hz-Displays (oder noch mehr) lag spätestens ab WQHD der maximale Speichertakt an."

@Wolfgang schon mit dem Adrenalin 21.5 taktete der Speicher auf einem 1440p 144 Hz herunter auf niedrigsten Wert. Bei 165 Hz lief er wieder mit 3D Takt.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
@Wolfgang
Ich hatte es hier beschrieben
https://www.computerbase.de/forum/t...ter-loesung-mittels-cru.1986961/post-25557669
Ich bin am Limit des Pixelclock. 120Hz, 8Bit und 120 Blanking wären 1090 MHz, was er nicht umsetzen will, auch nach erhöhen des Limits nicht. 1070MHz fixierter Pixelclock berechnet er automatisch 117 Hz, was mit dem maximalen Pixelclock übereinstimmt, und er stell mir 8Bit dar.

Wäre cool zu wissen, was für Magic AMD hier gewirkt hat.
Aber noch besser wäre es, wenn sie einfach den RAM gar nicht mehr außerhalb von 3D Last auf 2000 MHz schicken würden. Mit 128MB IF Cache, sollte defintiv YT mit 20 MHz, oder von mir aus 100 MHz RAM Takt möglich sein.
 
Als ich die 6900XT hier hatte war ich erstaunt wie effizient die Karte im Idle ist im Vergleich zur 3090.

Ich habe keine Lust auf Undervolting, oder mit irgendwelchen Tools rumzubasteln. Mein System hat mit der 6900XT im Idle satte 12-15W weniger verbraucht, als mit der 3090.

Vom Load Zustand wollen erst gar nicht reden. Da haben wir 350W (3090) vs. 280W (6900XT). Die 3090 ist vor allem im FS2020 schon ein gutes Stück stärker, aber zu welchem Preis? Vor allen Dingen lag die Phantom Gaming 6900XT bei 1499€ vs. 2299 von meiner 3090.

Leider unterstützt mein Oled kein Freesync (E9), nur Gsync. Da macht AMD richtig große Schritte.
 
Ist mir bei meiner 6900XT vor 3 Wochen aufgefallen.
Endlich nur noch 8 Mhz Memory Takt unter Windows 👍
 
Also ich hab 'nen 144-Hz-WQHD-Monitor (allerdings nur einen) und die GTX 1080 taktet im Idle die GPU mit 139 MHz und den Speicher mit 101,3 MHz. Springt aber schon bei leichter Tätigkeit gerne mal hoch.
 
Asghan schrieb:
Bei mir hilft leider auch 21.8.1 nicht. (und alle davor auch nicht)
Acer Nitro QHD mit 75Hz, RAM Takt bleibt bei 2Gz, Verbrauch bei ~35W im Idle.
Gehe ich runter auf 60 Hz geht instant der RAM Takt runter, und der Verbrauch sinkt auf unter 10W.

Bitte dranbleiben AMD!
Da gibt es viele komisch Szenarien.
Ich hatte knapp 40 W Verbrauch im Ruhezustand wenn Chill bei min 75FPS max 100FPS lief (100Hz Monitor), bei beiden Werten auf 100Hz fiel es auf die üblichen 6-7 Watt. Ein Sensorfehler war es nicht, auch das Messgerät an der Dose zeigte viel mehr an, die Karte war passend auch deutlich wärmer.

Spiel einfach mal mit allem möglichen Einstellungen rum und beobachte die Veränderungen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Hoffe das AMD es irgendwann hinbekommt, das mit 2 Monitoren nicht mehr volle Pulle
 
DaBo87 schrieb:
Müsste es nicht die Möglichkeit geben, abseits von 3D Berechnung (über einen Schalter o.ä.) dem Treiber mitzuteilen, dass der RAM-Takt xy MHz betragen soll?
Natürlich ist das möglich. Die Frage ist nur, ob es dann ohne Fehler läuft. Aus gleichem Grund taktet der RAM ja auch bei >120Hz Displays nicht mehr herunter.
 
Es wäre interessant, NVIDIA's Messwerte in die Diagramme aufzunehmen, denn man kann sich ja über Gegebenheiten beklagen, aber wenn die Konkurrenz es auch nicht hinkriegt, naja, vielleicht muß man da tiefer recherchieren.
 
t3chn0 schrieb:
Bei mir hat das korrekte Heruntertakten erst mit Aktivierung von Freesync funktioniert. Sobald das aus ist, blieb der Takt des VRAM hoch.
Vielen Dank.
Führt leider bei mir dazu, dass das System manchmal nicht mehr hochtaktet und alles ruckelt. Auch in Spielen. Habe aber ein Gsync Display mit einer RDNA2 in Kombi.

Nun habe ich eine Erklärung für das Verhalten und muss es mit neueren Treibern nochmal durchtesten.
 
hans_meiser schrieb:
Es wäre interessant, NVIDIA's Messwerte in die Diagramme aufzunehmen, denn man kann sich ja über Gegebenheiten beklagen, aber wenn die Konkurrenz es auch nicht hinkriegt, naja, vielleicht muß man da tiefer recherchieren.
Die sind drin, kannst du einfach ausklappen :)
 
  • Gefällt mir
Reaktionen: hans_meiser, Tanzmusikus und I'm unknown
morb schrieb:
Vielen Dank.
Führt leider bei mir dazu, dass das System manchmal nicht mehr hochtaktet und alles ruckelt. Auch in Spielen. Habe aber ein Gsync Display mit einer RDNA2 in Kombi.

Nun habe ich eine Erklärung für das Verhalten und muss es mit neueren Treibern nochmal durchtesten.
Das hatte ich auch versucht. 6900XT + Gsync Ultimate Monitor. Es traten immer wieder Bildfehler auf und das Ergebnis war bei weitem nicht so smooth wie mit nativem Gsync.

So ging die Karte wieder zurück. Sobald Du Freesync an Deinem Gsync Monitor deaktivierst, wird der Speicher ohne Unterlass mit maximaler Frequenz Takten. Bei der 6900XT waren das 20W mehr Verbrauch im Idle und deutlich höhere Temperaturen.
 
  • Gefällt mir
Reaktionen: morb
Ist bei meiner 5700 auch nach wie vor so, 1x 1440p@60Hz DP, 1x 1440p@75Hz DP -> dauerhaft 29W Idle bei 1750 MHz VRAM
 
Hovac schrieb:
Spiel einfach mal mit allem möglichen Einstellungen rum und beobachte die Veränderungen.
siehe #40.
Habe bereits ne Lösung.
 
Habe ich auch gleich mal probiert mit meiner 6800XT und meinem 5120x1440 Pixel 240hz Monitor...

AMD R9-5900X Asus StrixX570-E
2x 8gb DDR4- 3600 CL16
AMD 2.6.1
GPUCPUWallplug
1x FHD 60hz 1x 5120x1440 240hz
24W50W200w
2x FHD 60Hz
8W44W155W
1x FHD 60Hz
6W42W147W
1x FHD 60hz 1x 5120x1440 240hz
28W41W175W
2x FHD 60Hz
7W43W149W
1x FHD 60Hz
7W42W151W

Der erste test lief nicht korrekt die 5 Minuten Idle durch daher ist der Wert vom Strommessgerät in der Steckdose ungenau.

Aber ja... man sieht sehr genau wie der 5120x1440 Monitor mit 240Hz den Speicher takt in die höhe treibt ^^

FHD_Idle.png
FHD+5120x1440_240hz.png



Aber ist schon scheisse ineffizient das mein System (Nur PC Ohne Monitore) 150W aus der Steckdose zieht... im Idle!

Edit: Okay... wenn ich den LED Streifen, den ich als Zimmerbeleuchtung missbrauche, ausschalte dann komme ich gleich mal 25W tiefer xD
 
Warum verbrät eine Desktop-GPU mit zwei Monitoren überhaupt 40W im Desktop-Idle?
Jedes Notebook kann mehrere Monitore betreiben und braucht keine 10W dafür.
 
Turr1caN schrieb:
Kann ich nicht bestätigen. Meine 5700XT braucht in FullHD 144Hz egal ob bei einem oder zwei Monitoren 37W im Idle wegen dem Speichertakt. Ab 120Hz sinkt dann auch der Takt +Verbrauch.
Tja, und meine RX 5700 XT turtelt hier bei mind. 6Hz / 9W mit einem UW-Monitor mit 2560x1080 @144Hz.
Mit YT-Video Fullscreen sind es ~60MHz / 18W. Treiber habe ich Radeon 21.7.2 und 21.8.1 getestet.

Es wird wohl nicht (nur) der Grafik-Treiber verantwortlich sein.
Es könnte auch am Monitor(treiber), dem Mainboard oder Betriebssystem(seinstellungen) liegen.
Muss aber auch sagen, dass der Adrenalin bei mir in den Einstellungen kaum vom Standard abweicht.
FreeSync ist aktiviert, alles andere aus.

Das war allerdings auch schon mit meinem FullHD-TV @60Hz so.
Vielleicht hat der eine oder andere halt zu viele Hintergrunddienste am Laufen (oder G00gl Chrome).
 
@Haldi
Da läuft wohl noch so einiges mit. Allein die CPU hat ca. 20 Watt zu viel im Idle.
Bei mir ist der ganze PC bei 54-60 Watt. Je nachdem wieviel ich leuchten lasse.
Mit dem Energiesparmodus unter 40.

Mit 4K 144Hz + 1440p 120 Hz sind es 90 Watt Idle. (alles ohne HDR)
Dazu dann Youtube laufen lassen 140 Watt mit Windows Ausbalanciert. (126 Watt mit meinem Plan)
Ob 1 oder 2 Monitore aktiv sind spielt mit Youtube am laufen kaum eine Rolle, wenige Watt unterschied.

Seit vielen Treiberversionen so.
 
Zurück
Oben