https://www.computerbase.de/forum/t...tet-nicht-runter-loesung-mittels-cru.1986961/Asghan schrieb:Hast du mir einen Link dazu?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD RDNA 2: Neue Treiber senken den Stromverbrauch auf YouTube
- Ersteller Wolfgang
- Erstellt am
- Zur News: AMD RDNA 2: Neue Treiber senken den Stromverbrauch auf YouTube
Grestorn
Lt. Commander
- Registriert
- Apr. 2005
- Beiträge
- 1.296
Bei HDR geht es hier um HDR in YouTube, bei der eine andere Art von Decoding verwendet wird, was offenbar noch nicht optimiert ist. Nicht weil es nicht geht, sondern weil AMD / nVidia das bisher nicht optimiert haben, da es einfach zu wenig genutzt wird.
Pizza!
Rear Admiral
- Registriert
- Juli 2013
- Beiträge
- 5.257
Im Idle gibt's bei mir keine Probleme, auch mit 4K HDR 144 Hz nicht.
21.8.1 hat beim Verbrauch mit der 6900XT nix gebracht.
Ein paar Treiber früher gab's die leichte Verbesserung, seit dem schwankt der VRAM zw. 800 und 1300 MHz rum und es sind ein paar Watt weniger beim gucken.
Was dann kaum noch ein Unterschied macht ist, ob ich 1 oder 2 Monitore nutze wenn ich YouTube gucke.
Allgemein finde ich den Verbrauch immernoch etwas zu hoch bei YouTube und co.
Mit dem Energiesparmodus Plan lässt sich übrigens eventuell nochmal eine Menge sparen beim gucken. Da geht's nochmal 20 Watt runter fürs ganze System. Was aber auch zum Teil am 5900X liegt.
21.8.1 hat beim Verbrauch mit der 6900XT nix gebracht.
Ein paar Treiber früher gab's die leichte Verbesserung, seit dem schwankt der VRAM zw. 800 und 1300 MHz rum und es sind ein paar Watt weniger beim gucken.
Was dann kaum noch ein Unterschied macht ist, ob ich 1 oder 2 Monitore nutze wenn ich YouTube gucke.
Allgemein finde ich den Verbrauch immernoch etwas zu hoch bei YouTube und co.
Mit dem Energiesparmodus Plan lässt sich übrigens eventuell nochmal eine Menge sparen beim gucken. Da geht's nochmal 20 Watt runter fürs ganze System. Was aber auch zum Teil am 5900X liegt.
GINAC
Lt. Junior Grade
- Registriert
- Sep. 2018
- Beiträge
- 391
Ich habe mehr ein Problem damit das sobald ich in Windows die zweite Anzeige aktiviere, ob der Monitor an ist oder nicht spielt keine rollte, die Karte bleibt durchgehen bei min 2000Mhz Speichertakt was einen dann bei 30W festnagelt.
Der geringere 2D verbrauch war aber schon seit einiger Zeit aktiv min seit 21.5.2
Der geringere 2D verbrauch war aber schon seit einiger Zeit aktiv min seit 21.5.2
- Registriert
- Nov. 2002
- Beiträge
- 8.966
Wie du schon sagst, zum Spaß macht das AMD bestimmt nicht so^^DaBo87 schrieb:Gefällt mir sehr gut, dass das Thema endlich mal angegangen wird. Was ich mir nur Frage, als Laie und absoluter Nicht-Auskenner auf dem Gebiet der Treiberentwicklung: Warum ist das so schwer, den Speichertakt da generell niedrig zu halten? Müsste es nicht die Möglichkeit geben, abseits von 3D Berechnung (über einen Schalter o.ä.) dem Treiber mitzuteilen, dass der RAM-Takt xy MHz betragen soll?
Aber offensichtlich ja wohl nicht, sonst würdens das bei AMD sicher so eingebaut haben^^
Es gibt einige Theorien, warum das so gehandhabt wird, aber AMD hat sich dazu leider mie wirklich selbst geäußert. Das gilt für Nvidia durchaus auch, die ähnliche Probleme, wenn auch weniger deutlich, haben.
Das mag mal funktioniert haben, war dann aber die Ausnahme. Auf meinem MG279Q (WQHD+144 Hz) hat es zum Beispiel nie funktioniert.Moep89 schrieb:@Wolfgang Das ist nicht korrekt. Das hat sehr wohl auch schon früher funktioniert. Mein DELL S2721DGF (WQHD) wird mit 144 Hz betrieben und meine 5700XT und auch die 6900XT hat von Beginn an den normalen Idle-Takt im Dektop gehabt. Das resultierte dann in 7-9 Watt Verbrauch.
Siehe z.B. meine Posts hier und hier. Erst über 144 Hz WQHD hat der VRAM nicht mehr runtergetaktet.
Ja, das funktioniert hier mit anderen Werten ebenso einwandfrei. Da gibt es sicherlich aber auch einen Nachteil, auch wenn mir nix aufgefallen ist. Zum Spaß werden die Werte ja sicher so nicht gesetzt.newby1987 schrieb:Ich hatte bei CRU den Vertical Blanking Wert schrittweise von 41 auf 59 lines erhöht und nun verbraucht die RX 6800XT statt 41W rund 8W im Leerlauf. Mit der Einstellung läuft es top sei Januar
Die gibt es hier nicht im Artikel, für die Artikel nutzen wir andere Tests.Endless Storm schrieb:Wo sind denn die Ergebnisse für Monitore mit mehr als 60 Hz?
Nunja, wenn du schon mit älteren Treibern kein Problem hast, kanns der 21.8.1 ja auch nicht besser machen^^Pizza! schrieb:Im Idle gibt's bei mir keine Probleme, auch mit 4K HDR 144 Hz nicht.
21.8.1 hat beim Verbrauch mit der 6900XT nix gebracht.
- Registriert
- Feb. 2005
- Beiträge
- 5.502
Bildschirm: 4k@10bit (kein HDR) und 60 Hz. Treiber 21.8.1Wolfgang schrieb:ComputerBase ist dem nachgegangen.
Ich denke man erkennt wann bei Youtube (Chromium - MS Edge) auf pause geklickt wurde. Funktioniert bei mir leider nicht - könnte an der 10 Bit Farbtiefe liegen. Stream war in diesem Fall ein FHD VP9 mit 30 fps.
Blackfirehawk
Commander
- Registriert
- Dez. 2018
- Beiträge
- 2.361
240hz Samsung g7 Odyssee..
12-14 Watt im idle..
Läuft problemlos mit meiner 6800xt
12-14 Watt im idle..
Läuft problemlos mit meiner 6800xt
Asghan schrieb:dafür geht einem aber die Farbtiefe flöten...
Ich hatte den CRU Workaround benutzt, also Blanking erhöht. MIt 120Hz und dem Blanking waren nur noch 6bit Farbtiefe verfügbar. Als ich dann in CRU den Pixelclock fixiert hatte, wurden meine Hz auf 117,x gesenkt. Damit lief es dann problemlos mit 8bit und 8W Idle mit UHD@117HzEnurian schrieb:Nein, wenn du nur die blanking time erhöhst, tut es das nicht. Habe im AMD-Unterforum einen Thread dazu vor einigen Monaten erstellt, wie das beim Großteil der Monitore ohne Einbußen lösbar ist.
Das ist aber seit 21.6 nicht mehr nötig.
@bad_sign
Bei dir wurde einfach das "Kabel" knapp. Bzw. die Bandbreite des Übertragungsprotokolls. Irgendwas musste eingespart werden und offenbar fängt er dann bei der Farbtiefe an.
Die meisten haben aber nicht UHD/120 und ein Bandbreitenproblem, sondern haben verringerte Farbtiefe, weil sie im AMD-Treiber ein ganz anderes Profil einstellen.
Aber wie du sagst, sollte es nun bei vielen gar nicht mehr nötig sein. Jetzt wird es interessant, ob man mit dem Gebastel einen niedrigen Verbrauch für Multimonitor hinbekommen kann
Bei dir wurde einfach das "Kabel" knapp. Bzw. die Bandbreite des Übertragungsprotokolls. Irgendwas musste eingespart werden und offenbar fängt er dann bei der Farbtiefe an.
Die meisten haben aber nicht UHD/120 und ein Bandbreitenproblem, sondern haben verringerte Farbtiefe, weil sie im AMD-Treiber ein ganz anderes Profil einstellen.
Aber wie du sagst, sollte es nun bei vielen gar nicht mehr nötig sein. Jetzt wird es interessant, ob man mit dem Gebastel einen niedrigen Verbrauch für Multimonitor hinbekommen kann
- Registriert
- Nov. 2002
- Beiträge
- 8.966
Ist eine reduzierte Farbtiefe wirklich die Folge von dem erhöhen des Blankings?bad_sign schrieb:Ich hatte den CRU Workaround benutzt, also Blanking erhöht. MIt 120Hz und dem Blanking waren nur noch 6bit Farbtiefe verfügbar. Als ich dann in CRU den Pixelclock fixiert hatte, wurden meine Hz auf 117,x gesenkt. Damit lief es dann problemlos mit 8bit und 8W Idle mit UHD@117Hz
Das ist aber seit 21.6 nicht mehr nötig.
Das habe ich ja auch gemacht, bekomme aber nachwievor 8 Bit bei WQHD+144 Hz (mehr kann das Display nicht) und Probleme mit der Farbtiefe sehe ich jetzt auch nicht. Bei noch höheren Werten (10 Bit, UHD) kann das natürlich anders sein, das weiß ich nicht.
eastcoast_pete
Lt. Commander
- Registriert
- Juni 2020
- Beiträge
- 1.669
Woher kommt der deutliche Anstieg im Stromverbrauch bei 4K in HDR? Wird 4K in HDR nicht von dem integrierten ASIC in Navi Chips decodiert? Wenn dem so ist, wundert mich die plötzlich höhere Last nicht - wenn die Video Frames dann eben direkt auf den CU berechnet werden müssen, kostet das Strom.
Sehr schöner Test. Der Leerlaufverbrauch, bedingt durch das teils unsinnige Taktverhalten, ist bei AMD schon lange eine Schwachstelle. Bei Polaris und davor hat zB im Dual-Monitor-Betrieb der Speicher immer maximal getaktet, was um die 50 Watt Mehrverbrauch im Leerlauf (!) bedeutet hat. Um das zu umgehen musste man via diversen Tools manuell einen niedrigeren Takt setzen.
Letztendlich kann der Takt wohl nur zwischen zwei Bildern geändert werden, da ein Wechsel während der Bildübertragung wohl zu Flimmern führt. Deswegen gibt es auch die Workarounds, die Totzeit zwischen den Bildern mit Tools wie CRU zu vergrößern, die für einige Nutzer von 144 Hz Bildschirmen ein Runtertakten ermöglicht haben. Was mich an der Sache stört, ist der "Works as Intended" Standpunkt von AMD. Der erhöhte Speichertakt hebelt Zero-Fan Features aus und sorgt dafür, dass im 2D-Betrieb ständig der Lüfter anspringt. Das wiegt für mich schwerer als 20W Mehrverbrauch...DaBo87 schrieb:(...) Warum ist das so schwer, den Speichertakt da generell niedrig zu halten? (...)
Aber offensichtlich ja wohl nicht, sonst würdens das bei AMD sicher so eingebaut haben^^
Ich hab mit meiner 5700XT seit ein paar Monaten das Problem, dass immer voller Speichertakt anliegt, und zwar mit einem einzigen 1440p Monitor @ 60 Hz. (Das hat nichts mit dem Speichertakt @ 144 Hz zu tun.) Lösung war auf einen Treiber vom Vorjahr zu gehen, vor der letzen großen Treiberüberarbeitung. Irgendwas hat AMD mit dem 2021er Treiber kaputt gemacht, wundert mich also nicht, dass dadurch jetzt wieder Optimierungen möglich sind...
Ergänzung ()
Per CRU meines Wissens nur wenn man wie oben erwähnt übertreibt und die Übertragung Zwecks Fehlervermeidung runterregelt. Aber da hat man auch ganz schnell einen schwarzen Bildschirm.Wolfgang schrieb:Ist eine reduzierte Farbtiefe wirklich die Folge von dem erhöhen des Blankings?
Allerdings kursiert parallel zur CRU Lösung eine Anleitung wie man im AMD Treiber eine Custom Resolution mit einem anderen Kodierungstandard (?) anlegt, um den Problem zu lösen. Mit diesem Ansatz war bei mir die Farbtiefe immer reduziert.
Zuletzt bearbeitet:
- Registriert
- Feb. 2005
- Beiträge
- 5.502
Nicht nur dass, wenn nicht mehr die diskrete HW für die Videocodecs verwendet werden kann ist meistens auch DRM da und sagt: Nein, das wird nicht abgespielt. Deshalb gibt es z.B. für Vega Karten welche H265 teilweise über die Shader dekodieren in Netflix kein HVEC Material geliefert.eastcoast_pete schrieb:Wenn dem so ist, wundert mich die plötzlich höhere Last nicht - wenn die Video Frames dann eben direkt auf den CU berechnet werden müssen, kostet das Strom.
Asghan
Der Ranglose
- Registriert
- Mai 2004
- Beiträge
- 7.436
Danke!Enurian schrieb:
Die Excel hat 52 Blanking Lines errechnet bei mir, wirklich funkionieren tut es nun mit 54
Ähnliche Themen
- Antworten
- 262
- Aufrufe
- 30.053
- Antworten
- 468
- Aufrufe
- 62.279
- Antworten
- 93
- Aufrufe
- 28.308
- Antworten
- 32
- Aufrufe
- 7.341
- Antworten
- 34
- Aufrufe
- 5.944