News AMD RDNA 2: Neue Treiber senken den Stromverbrauch auf YouTube

Bei HDR geht es hier um HDR in YouTube, bei der eine andere Art von Decoding verwendet wird, was offenbar noch nicht optimiert ist. Nicht weil es nicht geht, sondern weil AMD / nVidia das bisher nicht optimiert haben, da es einfach zu wenig genutzt wird.
 
  • Gefällt mir
Reaktionen: Iotis
Bei 60, 85 und 120Hz hatte ich bislang 6W im Windows Desktop, nur bei 100Hz waren es bislang 30W.
Da bin ich ja gespannt wie der Verbrauch jetzt bei 100Hz ist, da ich diese Einstellung in ACC verwende.
 
Im Idle gibt's bei mir keine Probleme, auch mit 4K HDR 144 Hz nicht.

21.8.1 hat beim Verbrauch mit der 6900XT nix gebracht.

Ein paar Treiber früher gab's die leichte Verbesserung, seit dem schwankt der VRAM zw. 800 und 1300 MHz rum und es sind ein paar Watt weniger beim gucken.

Was dann kaum noch ein Unterschied macht ist, ob ich 1 oder 2 Monitore nutze wenn ich YouTube gucke.
Allgemein finde ich den Verbrauch immernoch etwas zu hoch bei YouTube und co.

Mit dem Energiesparmodus Plan lässt sich übrigens eventuell nochmal eine Menge sparen beim gucken. Da geht's nochmal 20 Watt runter fürs ganze System. Was aber auch zum Teil am 5900X liegt.
 
Ich habe mehr ein Problem damit das sobald ich in Windows die zweite Anzeige aktiviere, ob der Monitor an ist oder nicht spielt keine rollte, die Karte bleibt durchgehen bei min 2000Mhz Speichertakt was einen dann bei 30W festnagelt.

Der geringere 2D verbrauch war aber schon seit einiger Zeit aktiv min seit 21.5.2
 
  • Gefällt mir
Reaktionen: Kha'ak
DaBo87 schrieb:
Gefällt mir sehr gut, dass das Thema endlich mal angegangen wird. Was ich mir nur Frage, als Laie und absoluter Nicht-Auskenner auf dem Gebiet der Treiberentwicklung: Warum ist das so schwer, den Speichertakt da generell niedrig zu halten? Müsste es nicht die Möglichkeit geben, abseits von 3D Berechnung (über einen Schalter o.ä.) dem Treiber mitzuteilen, dass der RAM-Takt xy MHz betragen soll?

Aber offensichtlich ja wohl nicht, sonst würdens das bei AMD sicher so eingebaut haben^^
Wie du schon sagst, zum Spaß macht das AMD bestimmt nicht so^^
Es gibt einige Theorien, warum das so gehandhabt wird, aber AMD hat sich dazu leider mie wirklich selbst geäußert. Das gilt für Nvidia durchaus auch, die ähnliche Probleme, wenn auch weniger deutlich, haben.
Moep89 schrieb:
@Wolfgang Das ist nicht korrekt. Das hat sehr wohl auch schon früher funktioniert. Mein DELL S2721DGF (WQHD) wird mit 144 Hz betrieben und meine 5700XT und auch die 6900XT hat von Beginn an den normalen Idle-Takt im Dektop gehabt. Das resultierte dann in 7-9 Watt Verbrauch.
Siehe z.B. meine Posts hier und hier. Erst über 144 Hz WQHD hat der VRAM nicht mehr runtergetaktet.
Das mag mal funktioniert haben, war dann aber die Ausnahme. Auf meinem MG279Q (WQHD+144 Hz) hat es zum Beispiel nie funktioniert.
newby1987 schrieb:
Ich hatte bei CRU den Vertical Blanking Wert schrittweise von 41 auf 59 lines erhöht und nun verbraucht die RX 6800XT statt 41W rund 8W im Leerlauf. Mit der Einstellung läuft es top sei Januar ;)
Ja, das funktioniert hier mit anderen Werten ebenso einwandfrei. Da gibt es sicherlich aber auch einen Nachteil, auch wenn mir nix aufgefallen ist. Zum Spaß werden die Werte ja sicher so nicht gesetzt.
Endless Storm schrieb:
Wo sind denn die Ergebnisse für Monitore mit mehr als 60 Hz?
Die gibt es hier nicht im Artikel, für die Artikel nutzen wir andere Tests.
Pizza! schrieb:
Im Idle gibt's bei mir keine Probleme, auch mit 4K HDR 144 Hz nicht.

21.8.1 hat beim Verbrauch mit der 6900XT nix gebracht.
Nunja, wenn du schon mit älteren Treibern kein Problem hast, kanns der 21.8.1 ja auch nicht besser machen^^
 
  • Gefällt mir
Reaktionen: DaBo87
Wolfgang schrieb:
ComputerBase ist dem nachgegangen.
Bildschirm: 4k@10bit (kein HDR) und 60 Hz. Treiber 21.8.1

1628858606825.png


Ich denke man erkennt wann bei Youtube (Chromium - MS Edge) auf pause geklickt wurde. Funktioniert bei mir leider nicht - könnte an der 10 Bit Farbtiefe liegen. Stream war in diesem Fall ein FHD VP9 mit 30 fps.
 
240hz Samsung g7 Odyssee..
12-14 Watt im idle..
Läuft problemlos mit meiner 6800xt
 
Meine 6700XT taktet bei uwqhd und 100 hertz bisher nicht herunter, bin mal gespannt was der Treiber da jetzt ausmacht
 
Asghan schrieb:
dafür geht einem aber die Farbtiefe flöten...

Enurian schrieb:
Nein, wenn du nur die blanking time erhöhst, tut es das nicht. Habe im AMD-Unterforum einen Thread dazu vor einigen Monaten erstellt, wie das beim Großteil der Monitore ohne Einbußen lösbar ist.
Ich hatte den CRU Workaround benutzt, also Blanking erhöht. MIt 120Hz und dem Blanking waren nur noch 6bit Farbtiefe verfügbar. Als ich dann in CRU den Pixelclock fixiert hatte, wurden meine Hz auf 117,x gesenkt. Damit lief es dann problemlos mit 8bit und 8W Idle mit UHD@117Hz :)
Das ist aber seit 21.6 nicht mehr nötig.
 
@bad_sign
Bei dir wurde einfach das "Kabel" knapp. Bzw. die Bandbreite des Übertragungsprotokolls. Irgendwas musste eingespart werden und offenbar fängt er dann bei der Farbtiefe an.
Die meisten haben aber nicht UHD/120 und ein Bandbreitenproblem, sondern haben verringerte Farbtiefe, weil sie im AMD-Treiber ein ganz anderes Profil einstellen.
Aber wie du sagst, sollte es nun bei vielen gar nicht mehr nötig sein. Jetzt wird es interessant, ob man mit dem Gebastel einen niedrigen Verbrauch für Multimonitor hinbekommen kann :)
 
Ja DP1.3 ist einfach nicht mehr Zeitgemäß :)
HDMI2.1 ist leider noch so gering verbreitet und DP2.0 noch gar nicht
Ich habe auch gerade YT getestet, aber ich habe HW Beschleunigung aus:stock:
 
bad_sign schrieb:
Ich hatte den CRU Workaround benutzt, also Blanking erhöht. MIt 120Hz und dem Blanking waren nur noch 6bit Farbtiefe verfügbar. Als ich dann in CRU den Pixelclock fixiert hatte, wurden meine Hz auf 117,x gesenkt. Damit lief es dann problemlos mit 8bit und 8W Idle mit UHD@117Hz :)
Das ist aber seit 21.6 nicht mehr nötig.
Ist eine reduzierte Farbtiefe wirklich die Folge von dem erhöhen des Blankings?
Das habe ich ja auch gemacht, bekomme aber nachwievor 8 Bit bei WQHD+144 Hz (mehr kann das Display nicht) und Probleme mit der Farbtiefe sehe ich jetzt auch nicht. Bei noch höheren Werten (10 Bit, UHD) kann das natürlich anders sein, das weiß ich nicht.
 
Woher kommt der deutliche Anstieg im Stromverbrauch bei 4K in HDR? Wird 4K in HDR nicht von dem integrierten ASIC in Navi Chips decodiert? Wenn dem so ist, wundert mich die plötzlich höhere Last nicht - wenn die Video Frames dann eben direkt auf den CU berechnet werden müssen, kostet das Strom.
 
Sehr schöner Test. Der Leerlaufverbrauch, bedingt durch das teils unsinnige Taktverhalten, ist bei AMD schon lange eine Schwachstelle. Bei Polaris und davor hat zB im Dual-Monitor-Betrieb der Speicher immer maximal getaktet, was um die 50 Watt Mehrverbrauch im Leerlauf (!) bedeutet hat. Um das zu umgehen musste man via diversen Tools manuell einen niedrigeren Takt setzen.
 
DaBo87 schrieb:
(...) Warum ist das so schwer, den Speichertakt da generell niedrig zu halten? (...)

Aber offensichtlich ja wohl nicht, sonst würdens das bei AMD sicher so eingebaut haben^^
Letztendlich kann der Takt wohl nur zwischen zwei Bildern geändert werden, da ein Wechsel während der Bildübertragung wohl zu Flimmern führt. Deswegen gibt es auch die Workarounds, die Totzeit zwischen den Bildern mit Tools wie CRU zu vergrößern, die für einige Nutzer von 144 Hz Bildschirmen ein Runtertakten ermöglicht haben. Was mich an der Sache stört, ist der "Works as Intended" Standpunkt von AMD. Der erhöhte Speichertakt hebelt Zero-Fan Features aus und sorgt dafür, dass im 2D-Betrieb ständig der Lüfter anspringt. Das wiegt für mich schwerer als 20W Mehrverbrauch...

Ich hab mit meiner 5700XT seit ein paar Monaten das Problem, dass immer voller Speichertakt anliegt, und zwar mit einem einzigen 1440p Monitor @ 60 Hz. (Das hat nichts mit dem Speichertakt @ 144 Hz zu tun.) Lösung war auf einen Treiber vom Vorjahr zu gehen, vor der letzen großen Treiberüberarbeitung. Irgendwas hat AMD mit dem 2021er Treiber kaputt gemacht, wundert mich also nicht, dass dadurch jetzt wieder Optimierungen möglich sind...
Ergänzung ()

Wolfgang schrieb:
Ist eine reduzierte Farbtiefe wirklich die Folge von dem erhöhen des Blankings?
Per CRU meines Wissens nur wenn man wie oben erwähnt übertreibt und die Übertragung Zwecks Fehlervermeidung runterregelt. Aber da hat man auch ganz schnell einen schwarzen Bildschirm.

Allerdings kursiert parallel zur CRU Lösung eine Anleitung wie man im AMD Treiber eine Custom Resolution mit einem anderen Kodierungstandard (?) anlegt, um den Problem zu lösen. Mit diesem Ansatz war bei mir die Farbtiefe immer reduziert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Asghan und Fritzler
Es muss endlich mal ne gescheite Lösung her, dass im 2D-Betrieb auf interne Grafik der CPU (falls vorhanden) gewechselt und die Grafikkarte deaktiviert wird. Die iGPU erledigt Youtube-Videos locker mit 2W!
 
  • Gefällt mir
Reaktionen: lubi7
eastcoast_pete schrieb:
Wenn dem so ist, wundert mich die plötzlich höhere Last nicht - wenn die Video Frames dann eben direkt auf den CU berechnet werden müssen, kostet das Strom.
Nicht nur dass, wenn nicht mehr die diskrete HW für die Videocodecs verwendet werden kann ist meistens auch DRM da und sagt: Nein, das wird nicht abgespielt. Deshalb gibt es z.B. für Vega Karten welche H265 teilweise über die Shader dekodieren in Netflix kein HVEC Material geliefert.
 
Bei mir hat das korrekte Heruntertakten erst mit Aktivierung von Freesync funktioniert. Sobald das aus ist, blieb der Takt des VRAM hoch.
 
  • Gefällt mir
Reaktionen: me@home
Zurück
Oben