News AMD Adrenalin 23.7.1: Treiber soll Desktop-Leistungsaufnahme bei RX 7000 senken

Huhu,

ein Grund warum ich wieder zurück zu nvidia gegangen bin. Es dauert einfach viel zu lange das AMD mal Bugs behebt.

Bei meiner alten 6700xt waren sogar Bugs dabei die waren schon 1.5 Jahre alt.

Sorry da bin ich raus. Eine GPU von AMD kommt mir nicht nochmals ins Haus bei dem Stand.
 
  • Gefällt mir
Reaktionen: KlaasKersting
Tech6 schrieb:
RX6800 mit 23.5.3 lag bei Dual 165hz auf knapp 2000mhz RAM und 35W.
Mit 23.7.1 genau der gleiche Takt und Verbrauch, super.
Das wird niemals behoben werden.
Die 6800 wurde auch gar nicht gepatcht...
Ergänzung ()

cupidstunt schrieb:
Es liegt einfach daran, dass die die Treiber nicht vernünftig testen und wenn Probleme auftreten, lange brauchen, um diese zu fixen. Nennen wir das Kind doch beim Namen, es ist schlechtes Q&A und schlechter Support.

Sorry aber so kann ich das nicht stehen lassen.
Punkt 1 - die Konkurrenz hat es schon fertig gebracht Treiber zu releasen die deine Hardware beschädigten!
Soll heißen - das Q&A bei einem solchen Produkt ist sehr sehr komplex. Man kann nicht alles testen. Das ist wirtschaftlich nicht abbildbar. Und die Konsumenten würden Rum jammern wieso fixes drei Jahre brauchen...

Der Support Treiberseitig ist bei AMD sehr gut geworden seid Lisa am Steuer ist (wobei eventuell Koduri die Grundlage gelegt hat).

Im jetzigen Moment vermute ich das ein Großteil der Treiberentwickler 2-4 Monate mit an der FSR 3 Implementierung mit gearbeitet hat. (Indiz - AMD hat in den letzten 6 Monaten wenig Treiber gebracht und in denen nicht so weltbewegende Features).
Jetzt wo die Ressourcen wieder da dran sind wofür sie da sind gehen sie die größte Baustelle an. (An alle 5er und 6er Besitzer - bei euch kommt in die Richtung nichts weil es Hardwareseitig eventuell nicht geht)...

Die vermutlich auch die große Testreihe durchlaufen hat - das kostet Zeit...

Wenn am Montag der CB Test zeigt was es brachte kommt bei mir in Abhängigkeit des Ergebnisses ne AMD Karte in den Rechner... Das war für mich nämlich der größte Kritik Punkt..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz, blackTEHhawk, NMA und 4 andere
cupidstunt schrieb:
Egal, welche Monitore zum Einsatz kommen, es gibt keinen zwingenden Grund für den VRAM nicht herunterzutakten. Mit einem kleinen Kniff in CRU gehts ja auch auf 15-20W herunter, nur zerschießt das dann eben die Farbtiefe und HDR, ist also keine gangbare Alternative.
Einfach mal mit dem Thema Vblanks bei Monitoren auseinandersetzen wenn man das möchte. Dann kennt man den Grund, weshalb der Vram nicht Heruntertaktet bei bestimmten Monitorkonfigurationen oder Monitoren. Mit CRU oder auch "Custom Resolution" im Treiber beeinflusst man eben genau diese Blanks des Monitors und das Verhalten der GPU. Für HDR und 8/10Bit oder auch auch hohe Hertzzahlen verändern die Schnelligkeit und Abfolge/Abfrage der Vblanks, die GPU muss auch in 2D mehr leisten auch im Idle sobald der Monitor aktiv ist, weshalb sie den Vram nicht Heruntertaktet. Es ist technisch sehr viel komplexer und nicht so einfach wie der Laie sich das vielleicht denkt. Deswegen ist es auch kein AMD only Problem.

Natürlich kann man "enttäuscht" sein aber man sollte schon sachlich an die Sache heran gehen bzw. mit auseinandersetzen.

Wenn nicht auch okay, dann ist das halt so.
Dann muss man damit leben ohne die Hintergründe zu kennen.

Wie gesagt du kannst kaufen was du möchtest, hast du eine bestimmte Monitorkonfiguration oder einen Monitor dessen ab Werk Vbank Einstellungen die Karte/Vram nicht in den Idle Vram Mode lassen, hast du schlicht Pech.
Hibbelharry schrieb:
Ich vereinfache leicht, aber das Muster sollte so klar werden:

Das Vblank oder die Austastlücke ist ein Relikt aus Zeiten von Röhrenmonitoren. Dort hat man mit der Elektronenkanone Zeile für Zeile und da Punkt für Punkt von oben nach unten auf die richtigen Phosphorpartikel geschossen und die so zum leuchten gebracht. Kam man ganz dabei unten an musste die Elektronenkanone danach wieder verdunkelt zur ersten Zeile gerichtet werden, das braucht etwas Zeit. Die Zeit zwischen Beschiessen des letzten Bildpunkts eines Bilds bis zum Erreichen des ersten Bildpunkts des nächsten Bilds ist das vblank. Real werden da auch noch ein paar Leerzeilen nach dem Ende gesendet, so funktionierte zum Beispiel Videotext anner Glotze.

Dieses Vblank gibts bis heute in der Bildübertragung.

Die meisten Grafikkarten, herstellerübergreifend, können Teile ihrer Taktdomains nur im Vblank ändern, sonst sind Artefakte da oder andere Probleme. Ist die zur Verfügung stehende Zeit dort zu kurz werden irgendwelche Takte nicht gesenkt. Hoher Takt frisst Energie, sorgt aber für eine gesichert immer brauchbare Bilddarstellung.

Wie lang in Zeit das Vblank ist, ist von mehreren Faktoren abhängig. Zunächst hat jeder moderne Monitor einen Datenkanal zur Grafikkarte und einen kleinen Speicher für Timingwerte, auch EDID genannt. Diese Informationen liest die Grafikkarte und versteht so wie sie Bildsignale timen muss, damit ein Bild herauskommt.

Ein kurzes Vblank ist nun eigentlich keine schlechte Sache, weil es Totzeiten kürzt. Es killt aber eben auch den Mechanismus zum Stromsparen. Alles hat seinen Preis.

Man hat nun folgendes Problem: Wie lang das Vblank ist wird im Kern als Anzahl von Zeilen aus dem Monitor gelesen. Je mehr Zeilen es gibt und je höher die Bildwiederholfrequenz ist desto weniger Zeit verbringt man in einer gegebenen Menge blanker Zeilen am Bildende. Man braucht aber eine bestimmte absolute Menge Zeit um den Takt ändern zu können. Das heisst nicht nur Auflösung und Bildwiederholfrequenz bestimmen wie lange ein Vblank dauert, sondern auch wieviele blinde Zeilen der Monitor für sich haben will.

Man kann also entweder die Auflösung senken, die Bildwiederholfrequenz senken oder die Anzahl der Leerzeilen erhöhen um den Vblank länger dauern zu lassen. Ein Kombination von all den Sachen führt auch zum Ziel. Ziel ist aber immer das Vblank ausreichend lang zu machen.

Es gibt Monitorhersteller, mir fällt da immer besonders LG auf, die ziemlich durch die Bank wirklich vergleichsweise kurze Vblanks in ihren EDIDs definieren. Das bedeutet dann übersetzt, dass maximales Stromsparen mit LG Monitoren besonders schlechte Chancen hat zu funktionieren.

Nervig sind auch Multimonitorkonfigurationen, weil da teilweise Vblanks geräteübergreifend in einen Einklang gebracht werden müssen damit der Takt geändert werden kann. Haben die Monitore dann unterschiedliche Eigenschaften wirds schwierig.

Das Problem ist damit wirklich komplexer als "mal eben" nen Grafiktreiber zu fixen und auf einfache allgemein bekannte Muster zu schiessen, das wird dem nicht gerecht. Klar muss das Muster dahinter sein, und wo die Stellschrauben sind: Auflösung, Bildwiederholrate, Timingparameter des Monitors oder der Monitore.

Ich fahre privat einen 4K/60Hz und einen FHD/60Hz Monitor. Mein 4K Monitor ist ein LG, mit dem gewinne ich mit Stock Konfiguration und ohne den zweiten Monitor schon keinen Blumentopf. Ich hab das Monitortiming dort händisch angepasst und einfach mehr Leerzeilen im Vblank eingefügt, bis zu einem gewissen Grad geht das immer gut. Man verlässt dabei die Spezifikation des Monitorherstellers, aber wenn ich meiner 4K Glotze meinen Modus aufzwinge macht die weiter ein sauberes Bild. Der zweite FHD Monitor ist total entspannt, der stört den Ablauf nicht, der hat da gleich genug Luft.

Grob dasselbe Spiel hab ich schon bei X anderen Kisten durchgezogen und oft gewonnen.

Und woher ich den ganzen Quatsch weiss? Ein Grundverständnis kommt aus Linuxfummeleien um die Jahrtausendwende. Damals musste man für X11 Modelines zusammenbasteln um irgendwas buntes da raus zu bekommen. Eine Modeline ist nichts anderes als die Beschreibung einer Auflösung und aller Monitortimingparameter dazu, danach weiss man was die bedeuten, inzwischen ist das wie in Windows seit vielen Jahren alles automatisch, aber ich kenns noch. Dazu hab ich den AMD Treiberentwicklern für Linux fleissig zugelesen, die das alles öfter mal erklärt haben und einige Commits im Mesa und Kernel Git durchgestöbert.
Endlich mal Jemand der es hier im Detail weiß und es niedergeschrieben hat. Danke. :) Ich konnte und wollte mir die Mühe nicht machen. :)
Ergänzung ()

cupidstunt schrieb:
Das sehe ich anders. Egal, welche Monitore zum Einsatz kommen, es gibt keinen zwingenden Grund für den VRAM nicht herunterzutakten. Mit einem kleinen Kniff in CRU gehts ja auch auf 15-20W herunter, nur zerschießt das dann eben die Farbtiefe und HDR, ist also keine gangbare Alternative.
Wenn du dich mit dem Komplexen Thema mal auseinandersetzen möchtest tatsächlich ließ den Kommentar 139 von Hibbelharry.
Das Thema sind nämlich die Vblanks von/bei Monitoren.
Mit CRU beeinflusst du diese Blanks und die Karte kann den Vram runterstellen. HDR, 8/10bit oder auch hohe Hertz beeinflussen die Schnelligkeit, Abfrage, Abfolge dieser blanks.
Und zwingen die GPU dazu aus Leistungsgründen den Vram nicht runter zu takten.

Das ist Thema ist also viel komplexer.
Unmut kann ich verstehen. Man kann sich aber trotzdem mit etwas sachlich auseinandersetzen, wenn nicht bleibt man halt unwissend. Muss jeder für sich entscheiden.
https://en.m.wikipedia.org/wiki/Vertical_blanking_interval
Ergänzung ()

Voldemordt schrieb:
Huhu,

ein Grund warum ich wieder zurück zu nvidia gegangen bin. Es dauert einfach viel zu lange das AMD mal Bugs behebt.

Bei meiner alten 6700xt waren sogar Bugs dabei die waren schon 1.5 Jahre alt.

Sorry da bin ich raus. Eine GPU von AMD kommt mir nicht nochmals ins Haus bei dem Stand.
Nur das es bei Nvidia genauso viele, oft, lange Known Issue gibt/gab und die manchmal über Monate nicht behoben wurden. Gibt hier auch zig Beispiele. Kann man im Internet auch alle nachlesen/finden. Die Argumentation stimmt also schlicht nicht nach Faken sondern ist ausschließlich subjektiv, mehr nicht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Redundanz, blackTEHhawk, timzopf und 11 andere
Ist der Verbrauch denn beim normalen Betrieb ( Fenster bewegen, surfen, ...) runter gegangen?
Da hatte ich 40-50 Watt mit meiner 7900xt.
(Ich kann's gerade noch nicht ausprobieren)
 
Wenn man sich das Ergebnis der Umfrage einmal anschaut, wird relativ schnell klar, wie sehr es auf den eigenen Monitor ankommt.

Ich gehe davon aus, dass das Problem niemals für alle Anwender gelöst sein wird.
 
  • Gefällt mir
Reaktionen: Redundanz, be_myself, NMA und eine weitere Person
Habe mich in der Umfrage enthalten, da die sich mit UHD-Monitoren befasst... bei 1440p240Hz gibt es bei meinem Setup aber ebenfalls signifikante Unterschiede mit dem neuesten Treiber. Zuvor immer um die 48W im (kurzen) Idle, mit 23.7.1 geht es bis runter auf 11W, 16W mit HDR. Eindeutige Verbesserungen mit der 7900 XT - meine 5700 XT ging runter auf 8W, kaum weniger.

Allerdings macht der neue Treiber andere Probleme, auch mit Cleanup Utility/DDU. Ein Teil der Adrenalin Software Einstellungen war nicht mehr vorhanden. Und nod.ai SHARK bspw. produziert mit dem Treiber nur Fehler (kann aber auch an der Software selber liegen). Bei 23.5.2 funktioniert alles, bis auf die Leistungsaufnahme.
 
Zuletzt bearbeitet:
Idle ~5 Watt
Jetzt hier beim lesen/schreiben ~10Watt
auf meinem Hauptsystem

also das is nen heftiger unterschied zu vorher....

Edit: und endlich wird in AMD Link auch die CPU Auslastung korrekt angezeigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und Czk666
Bin von 14-15 Watt runter auf 7-8 Watt mit 7900 XTX und 3440 x 1440 @ 165 Hz.
 
  • Gefällt mir
Reaktionen: Redundanz, blackTEHhawk, NMA und eine weitere Person
7900 XTX

32“ 2560x1440 @ 70 Hz
42“ 3840x2160 @ 120 Hz OLED HDR

Keine Veränderung beim Stromverbrauch. >100W

Aber:
32“ 2560x1440 @ 60 Hz
42“ 3840x2160 @ 120 Hz OLED HDR

Stromverbrauch halbiert. ca 56W

Wenigstens ein kleiner Fortschritt.
 
Edit: Hat sich erledigt! ;-)

Habe mit diesem Treiber Bildfehler bei Rocket League. Hat das noch jemand?
Die rot markierten Elemente sind dauerhaft sichtbar.
Zwischenablage01.jpg
 
Zuletzt bearbeitet:
Taurus104 schrieb:
die GPU muss auch in 2D mehr leisten auch im Idle sobald der Monitor aktiv ist, weshalb sie den Vram nicht Heruntertaktet. Es ist technisch sehr viel komplexer und nicht so einfach wie der Laie sich das vielleicht denkt. Deswegen ist es auch kein AMD only Problem.

Dass das Problem die VBlanks sind weiß ich, das habe ich ja mit CRU geändert.

Komisch nur, dass wenn ich „VRAM taktet nicht runter“ in Google oder SearXNG eingebe, ausschließlich diese Probleme im Zusammenhang mit Radeon-Grafikkarten diskutiert wird. Da sind Beiträge von 2018 dabei, man kann also behaupten, dass das Problem schon länger besteht. Es ist mir dann auch egal, wie komplex das ist. Ich arbeite auch in einer sehr komplexen Branche und es gehört zu meinem Job (natürlich nicht alleine) komplexe Systeme im Griff zu haben. Sollte es Limitierungen bei Hardwarekonstellationen geben, dann darf AMD die gerne auch transparent machen, dass ich verhindern kann, in diese Falle zu tappen.

Aber ehrlich gesagt habe ich nach dem VR-Debakel mit meiner 6900XT sehr viel weniger Vertrauen in die Treiberqualität von AMD. Insofern liegt es in der Natur der Sache, dass ich hier davon ausgehe, dass dem AMD-Treiberteam schlicht die Kompetenz fehlt, dieses Problem in den Griff zu bekommen. Es spricht ja auch Bände, dass es nun schon ein halbes Jahr gedauert hat die Probleme für die 7000er Karten in den Griff zu bekommen.

Da kannst du auch gerne so tun, als wären alle anderen zu blöd, die technische Komplexität zu überblicken (wobei mir nicht klar ist, ob du sie überblickst oder nur so tust), aber irgendwann ist die Schlussfolgerung der fehlenden Kompetenz zwingend.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crabman
cupidstunt schrieb:
Es spricht ja auch Bände, dass es nun schon ein halbes Jahr gedauert hat die Probleme für die 7000er Karten in den Griff zu bekommen.

Nein tut es nicht.
AMD hat nicht die Manpower. FSR 3 wird entwickelt. Zu sehen ist das auch an den Profi-Solutions. NV hat da ne ganz andere Manpower dahinter sitzen. Das muß auch entsprechend getestet werden etc. pe. pe.

Und manchmal dauert es Zeit bis überhaupt jemand ne Idee hat wie man es lösen könnte.


Gut ist schon mal das das Problem kein Problem im Silizium ist.
 
  • Gefällt mir
Reaktionen: NMA, Anon-525334 und Czk666
@cupidstunt

Bezüglich "nicht runtertaktenden VRAM":
144 Hz Verbrauch.JPG

Quelle: CB Link

Oder die RTX 2080 (TI)

tpu 2080.JPG

Neuer Treiber mit angeblichen Fix, dennoch weiterhin hoher Memory Clock bei Multi Monitor. Ob das mittlerweile behoben ist, ist fraglich, dazu konnte ich auf die schnelle nichts finden. Ein Reddit Link von 2022 zeigt, dass es wohl nie behoben wurde von NVIDIA.

Quelle: Techpowerup Link (2018)
Außerdem
Reddit Link mit hohem Idle verbrauch (65 Watt bei 2 Monitoren) RTX 2080ti (2022)
Reddit 3080ti frisst 116 Watt bei 3 Monitoren (2021)

Ich habe mich mal bis hierher auf NVIDIA Karten konzentriert.
Man sieht klar, dass NVIDIA das Thema ebenfalls betrifft.


Und vor allen Dingen das Thema schon lange problematisch ist:

Hier mal ein paar HT4U.net Links aus dem Web archive org:
Die haben sich schon viel eher mit der Thematik, inklusive 3 Monitor Setups, auseinandergesetzt.

ht4u KFA2 GTX 1070 EXOC Test (2016)
Von Geforce 600er, AMD 7000er bis Geforce 1000er, AMD RX 400er Serie

ht4u 55 DirectX Karten im Test (2013)
Von Geforce GTX 8000er, AMD HD 2000er Serie bis Geforce GTX 700er bzw. AMD 7000er Serie
Da kann man sehen, wie lange das Problem bereits existiert und Referenzkarten Tests bisweilen nichtssagend sind, sobald eine Partnerkarte mit anderem BIOS läuft.
 
  • Gefällt mir
Reaktionen: Redundanz, NMA, HierGibtsNichts und 4 andere
meisterkatzen schrieb:
Bei dem Thema dürfen gern alle nachbessern. AMD hat diese Generation zwar den Vogel abgeschossen, aber auch Nvidia genehmigt sich bei mehreren Displays gern den maximalen Ramtakt und benötigt dann im Idle sinnlose 40w.
Bei Nvidia kannst den Nvidia Inspector nehmen und da den Multi Monitor aktivieren, dann ist die Karte brav im Idle Mode unterwegs. Bei AMD weiß ich nicht ob es sowas auch gibt.
 
  • Gefällt mir
Reaktionen: NerdmitHerz
Northstar2710 schrieb:
Mich würde dazu interessieren ob der VR fix wirklich funktioniert. Hat hier jemand eine VR Brille und eine 7000er gpu?
Habe ein 7900XT mit einer Reverb G2.

Hatte aber auch schon mit den alten Treibern keine Probleme. Leider steht da ja nicht welche Spiele jetzt genau gefixt wurden.
 
Als Besitzer einer 7900XT muss ich leider feststellen, dass der Treiber KEINE Besserung bringt. Weiterhin unnötig hoher Verbrauch bei unterschiedlichen Refreshrates 144 und 60Hz. In Windows verbraucht meine Karte im Idle um die 40 und unter Linux um die 25 Watt, mit zwei Monitoren auf 60Hz. Etwas enttäuschend. Twitch kommt teilweise auf über 80 Watt in Windows mit unterschiedlichen Refreshrates.
 
Bei mir siehts mit dem Update auch soweit gut aus. Leider keine Referenz zum alten Treiber, aber ich war der Meinung es war vorher schon im guten Rahmen. (Sapphire Nitro+)

1688815003987.png
 
Sorry AMD zu spät... gibt zum Glück Hersteller die dem idle Stromverbrauch die notwendige Priorität einräumen. Zumindest meine Kaufentscheidung wurde davon beeinflusst.
 
  • Gefällt mir
Reaktionen: meisterkatzen
Tja mal gewinnst du, mal verlierst du.
Ich habe AMD vertraut und habe dafür jetzt keinen vram Krüppel. :)
 
  • Gefällt mir
Reaktionen: Eli0t, Autoquadplus, danyundsahne und 6 andere
pumuck| schrieb:
Sorry AMD zu spät... gibt zum Glück Hersteller die dem idle Stromverbrauch die notwendige Priorität einräumen. Zumindest meine Kaufentscheidung wurde davon beeinflusst.
Dann hoffe ich für dich, dass du dich für die FE entschieden hast und nicht für ein Custom-Board, sonst könnte nämlich sein, dass du von dem Regen, den du meiden wolltest, in die Traufe gekommen bist.

Ach, schade das mein Paket erst am Montag kommt, sonst könnte ich da mehr zu schreiben.
Taurus104 schrieb:
die GPU muss auch in 2D mehr leisten auch im Idle sobald der Monitor aktiv ist
Ich weigere mich weiterhin alles, bis auf den absoluten "Leerlauf" auf dem Monitor, als Idle anzusehen und zu bezeichnen. Das passt nicht zur Definition, die ich im Studium und in meinen früheren Arbeitsstellen zu dem Thema gelernt habe!

Sobald man ein Fenster bewegt, schreibt, im Browser etwas macht und Co, muss die Grafikkarte anfangen zu arbeiten, weil die Fenster, bzw. deren Inhalt neu gezeichnet werden muss. Ja es gibt Tricks, wie man das vollständige neue Zeichnen verhindert, aber es wird halt was gemacht! GDI+ und Direct2D greifen auf die GPU zu und je nachdem wie intensiv man gerade arbeitet, muss die Grafikkarte da auch richtig ran.

Ich hab es gerade mal "übertrieben" mit den Fenstern und eines richtig provokant hin und her gezogen und da spring die Leistungsaufnahme schnell auf 60 - 70 W. Im Browser beim Tippen - gerade - sind es dann gerade mal 20 W im Mittel mit kleinen Spikes.

Und wegen Gestern - du erinnerst dich: Mein Verdacht hat sich bestätigt für die 7900 XTX und RDNA3. Sobald gewisse Lasten anliegen, wird ein gewisser Verbrauch benötigt. Hab nun einen Tests mit 36 fps, 72 fps und 144 fps gemacht und das, was da für die 7900 XTX herauskommt, ist ein wenig "ernüchternd". Ich kann das durch Bekannte bereits für meine alte 5700 XT und ebenso für eine 6700 XT sogar verifizieren.

Mal sehen, was die andere GPU da macht.
 
  • Gefällt mir
Reaktionen: Redundanz, NMA, Innensechskant und 2 andere
Zurück
Oben