News AMD Adrenalin 23.7.1: Treiber soll Desktop-Leistungsaufnahme bei RX 7000 senken

Wolfgang schrieb:
Ich spoiler schon einmal folgendes:
Wir haben sogar etwas sehr großes herausgefunden, aber hier ist die Situation noch viel zu unklar, um schon genaueres berichten zu können. Das ist einfach generell eine sehr komplexe Angelegenheit.

Aber das ganze hat absolut nichts mit dem Treiber zu tun. Der Adrenalin 23.7.1 verhält sich hier bei dem eingesetzten Dell G3223Q absolut gleich zu älteren Treibern.
Das heißt wenn Ihr mehr wisst und Sachen "save" sind - bekommen wir einen Artikel? :D

Jetzt bin ich aber neugierig....
 
  • Gefällt mir
Reaktionen: Ganjafield
Wolfgang schrieb:
Aber das ganze hat absolut nichts mit dem Treiber zu tun. Der Adrenalin 23.7.1 verhält sich hier bei dem eingesetzten Dell G3223Q absolut gleich zu älteren Treibern.
Kann ich nicht nachvollziehen. 23.5.2 vs 23.7.1 ergeben bei mir völlig andere Ergebnisse - die einzige Änderung ist der Treiber.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, jlnprssnr und McTheRipper
Hibbelharry schrieb:
Den Leuten wird gesagt du kannst ein sehr schnelles (hier Bildschirm bei hoher Aktualisierungsrate) und sehr verbrauchsarmes Auto (hier Energiebedarf des Gesamtsystems) gleichzeitig haben. Beim Auto wüsste jeder, dass wenn man einen grossen Motor als solchen benutzt auch entsprechend Sprit durch die Leitungen dahin fliesst, sogar wenn man langsam fährt zum guten Teil noch. Bei Monitoren und Grafikkarten wird überhaupt gar keine Korrelation hergestellt oder scheint den meisten völlig fremd. Da fehlt den Leuten was.
Es geht schlicht besser, nur halt nicht bei der Implementierung dieser AMD Generation.
 
Mein Verbrauch liegt bei idle Desktop (Manjaro mit GNOME, UWQHD, 144Hz) bei 46W, nutze amdgpu als Treiber.
Vielleicht als Vergleichswert für Adrenalin Nutzer....
Aber ich habe auch mal ein update laufen lassen, um evtl den neuesten amdgpu zu holen, keine Veränderung zu beobachten.
Gemessen habe ich mit CoreCtrl.
 
Hibbelharry schrieb:
Ehrlich: Setups mit einem Monitor sind immernoch verdammt viele. Und auch Nvidia skaliert den Energiebedarf nicht immer brillant (hier: im Sinne von Erreichen niedrigster Verbräuche) bei Teillast, da kenne ich auch genug Ausreisser. Es kochen grundsätzlich alle mit Wasser. Hint: Sonst wäre hier auch der Nvidia Inspector im Thread nicht mehrfach hochgehalten worden.
Ja, aber die würden dann auch Energie fressen, sowohl mein 4K120-TV als auch der 3440x1440p240 Desktop Monitor würden hier sicher reinhauen.

Steile These: wer solche Highend Karten kauft hat vermutlich meistens auch einen entsprechenden Monitor zu befeuern und zockt nicht 1080p60. Dafür brauchs nämlich weder eine 7900 noch eine 4090.
 
  • Gefällt mir
Reaktionen: NerdmitHerz
Das Nervige an dem Thema ist für mich, dass einfach zu viel geredet und dabei zu wenig gesagt wird.

Es gibt wie immer das übliche "Nvidia vs. AMD-Gebashe", technische Erklärungsversuche (Thema VBLANKS), wilde Behauptungen und jede Menge blablabla.

Was ich mir wünschen würde, um ein wenig "Licht ins Dunkel" zu bringen:
Eine exemplarische Auswahl einiger gängiger Bildschirme und dann (mindestens) eine AMD und eine Nvidia-Karte der jeweils aktuellsten Generation.

Anschließend eine direkte Gegenüberstellung bei verschiedenen Auflösungen, Wiederholraten, HDR on/off.
Tests (der AMD-Karte(n)) jeweils mit dem alten und dem neuen Treiber.
 
  • Gefällt mir
Reaktionen: Inxession, Tanzmusikus, trendma und 2 andere
Ich wurde gern testen aber mein Mainboard UND 7900XT sind defekt beides in RMA :(
 
Mit meinem Setup:

Sapphire 7900XT
Asus VG259Q (FHD@144Hz)
mit Samsung U32J59x (4k@60Hz)

hat es sich nur minimal verbessert mit dem neuen Treiber. Allerdings war Idle / Desktop schon vorher gut. Von rund 20W auf 17W runter im Dual-Monitor Betrieb. Ist nur der FHD mit 144Hz an, liegen noch knapp 10W an.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Ganjafield schrieb:
Also immer noch keine Empfehlung für die 7000er Reihe. AMD macht sich nach so langer Zeit um das Problem zu fixen ziemlich lächerlich mit dieser Gen. Wahrscheinlich besteht auch einfach ein Hardwareproblem Welches sich mit dem Treiber nicht weg fixen lässt. Wenn die Karten dafür wenigstens 100,- Eur günstiger wären als jetzt.

Es betrifft meine MSI Radeon 6800 Z trio auch, gekauft Mai 2023.

Wobei ich eher das Problem am EDID der Bildschirme sehe
 
...und ich behaupte, es liegt am verwendeten Stecker! Displayport vs. HDMI vs. USB-C

duckundweg
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
  • Gefällt mir
Reaktionen: LuckyMagnum
Timmy99K schrieb:
Laut Excel-Liste dürfte eine Blanking Time ab 102 ausreichen. Bin dann einzelne Schritte hoch (103, 104, 105) für beide Monitore und von 101Hz bis 165Hz.

Ich denke, persönlicher Einzelfall Meinung, es wird oft nicht verstanden.

Bildpunkte X Bildpunkte X FPS = Gewisse Zahl.

Ich kann mir schon vorstellen das WHQD ab 100 FPS auch im Idle schnellere Taktraten benötigt. Z.B. als Core Clock und Memory Clock bezeichnet in radeon-profile. Ich denke da fehlt das technische Verständnis. Gewisse Rechenoperationen in gewisser Zeit verlangen nach gewisser Rechenleistung. Diese Rechenleistung erzwingt dann gewisse Taktraten.

bei 100 Hz (100FPS), oder mehr wird bei WHQD, Pech gehabt sein im Bezug auf den elektrischen Verbrauch.

Gerne teste ich es, wenn mir jemand einen 4k Monitor mit 300 Hz, 27" oder 32", 2 Stück für 2 Monate überlässt. Natürlich erwarte ich mir eine übliche Aufwandsentschädigung. Auch wären dann gewisse AMD Grafikkarten von Interesse um einen Querschnitt zu ziehen. Ich bin auch der Meinung eine Kurzzeitbetrachtung ist sinnlos, pro Grafikkarte sollte man den REchner zumindest eine Woche lang betreiben um Erfahrungwerte zu haben für den Alltag.
Ergänzung ()

yxman schrieb:
Und wieder ein Grund mehr warum meine nächste GPU wieder aus dem Hause Team Green kommt.

Die 14 Watt einer 960 GTX sind um das X Fache besser als meine 6Watt im Idle mit einer Radeon 6800 Non XT in WHQD@75Hz im Idle

Ich kann auch Pauschalieren.
 
  • Gefällt mir
Reaktionen: Inxession
Ayo34 schrieb:
Laut Computerbase verbraucht die:

Idle 60hz:
7900xtx: 19 Watt
4090: 20 Watt

Youtube Vid 60hz:
7900xtx: 80 Watt
4090: 32 Watt

Und das war beim Test noch das Best Szenario für AMD, weil es viele Fälle gibt mit mehr als 60hz und/oder mehreren Monitoren wo der Idle Verbrauch nicht mehr bei 19 Watt, sondern über 100 Watt beträgt! Dazu schlechte Skalierung bei Teillast, so dass fast immer max. gezogen wird, also über 350 Watt. 4090 zieht bei Valorant z.B. 100 Watt, die 7900xtx das dreifache.

Du hast schon mitbekommen worum es hier geht oder? Es gab ein Update.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts und Schinken42
Novasun schrieb:
Das heißt wenn Ihr mehr wisst und Sachen "save" sind - bekommen wir einen Artikel? :D

Jetzt bin ich aber neugierig....
Natürlich, aber da gibt es erst noch einiges zu messen :)
_roman_ schrieb:
@Creeping.Death
Computerbase wird vermutlich nach Text und Clicks bezahlt. Wirklich interessanten Content abzuliefern liegt sehr wahrscheinlich nicht im Geschäftsmodell. Cyberpunki, Star wars cpu survivor, Diabolo 4, GTA VA aufguss, irgendwelche Spekulationen von einem drittklassigen Yoiutube Kanal der Hardwari Unboxi genannt wird, Sepkulationen über angeblich zu viele defekte Grafikkarten bei einer Reparaturfirma, erziehlen viel mehr clicks als irgendein wichtiger technischer Artikel.

Für solchen Content wird man bei Computerbase an der falschen Adresse sein. Da gibt es andere bessere Bereiche im Internet. Pauschalierung!
Interessanten Content haben wir sicherlich eine ganze Menge (finde ich zumindest), aber natürlich ist es für uns auch wichtig, dass der Content gut gelesen wird. Man kann auch mal gerne einen interessanten Content machen, der auf wenig Interesse stößt (vorab schätzt man es manchmal auch einfach falsch ein), aber man macht wohl nur selten etwas, wo man im vornherein weiß, dass das eh keinen interessiert. Das ist dann alleine auch für den Redakteur nicht attraktiv, die eigene Arbeit soll ja auch gelesen werden.
 
  • Gefällt mir
Reaktionen: kat7, Cy4n1d3, Tanzmusikus und eine weitere Person
Vitche schrieb:
Artikel-Update: ComputerBase hat den Adrenalin 23.7.1 auf einer Radeon RX 7900 XTX durchgemessen und keinerlei Änderungen beim Verhalten der Leistungsaufnahme auf dem Windows-Desktop bei 144 Hz in Ultra HD feststellen können. Mit dem neuen Treiber benötigt die Grafikkarte in jedem Anwendungsszenario genau so viel Energie wie mit älteren Treibern.
Was allgemeingültig nicht seien kann. Weil alleine in diesem Thread etliche Nutzer von Verbesserungen berichten. Teils deutlich. Also muss sich hier etwas verändert haben und umsonst wird es von AMD nicht in den Fixed Issues aufgeführt sein. Man kann also davon ausgehen das der Treiber in eurem speziellen Monitor Szenario keine Änderung bewirkt hat, der Nachtest aber nicht allgemein für alle Nutzer und Monitorkonfigurationen hergenommen werden kann.
 
  • Gefällt mir
Reaktionen: Epistolarius, Perdakles, Tanzmusikus und 6 andere
Wenn es nicht gefixt ist, ist es nicht gefixt.
 
  • Gefällt mir
Reaktionen: LuckyMagnum
yxman schrieb:
Und wieder ein Grund mehr warum meine nächste GPU wieder aus dem Hause Team Green kommt.
Welche je nach Monitor Konfiguration ebenfalls mit hohem/erhöhtem Leerlaufverbrauch zutun haben. 4060 52W Idle bei vielen Testern.
 
  • Gefällt mir
Reaktionen: Epistolarius und McTheRipper
Wolfgang schrieb:
Wir haben sogar etwas sehr großes herausgefunden, aber hier ist die Situation noch viel zu unklar, um schon genaueres berichten zu können. Das ist einfach generell eine sehr komplexe Angelegenheit.
Ich habe langsam bei RDNA3 das Gefühl - gerade die Navi31 - das AMD einige Probleme sowohl mit den P, als auch C States hat und da so einiges nicht ganz so glatt läuft, wie es sollte.

ThirdLife schrieb:
Guter Punkt ! Könnte natürlich sein dass AMD hier rein von der Hardware mit den MCDs einen Nachteil hat weil diese immer voll hochgepowert werden in diesem Fall.🤔
Möglich bis zu einem gewissen Punkt. Ich schätze, dass hier eher Probleme mit den C und P-States vorhanden sind und die GPU bei gewissen Lasten die eigentlich vorgesehenen States nicht halten kann.

Hibbelharry schrieb:
Den Leuten wird gesagt du kannst ein sehr schnelles (hier Bildschirm bei hoher Aktualisierungsrate) und sehr verbrauchsarmes Auto (hier Energiebedarf des Gesamtsystems) gleichzeitig haben.
Was theoretisch auch möglich ist für eine Grafikkarte, da man - gerade auf dem Desktop - sich sogar gewisse Arbeiten sparen kann. Intelligente Systeme rendern den Desktop und ebenso die Fenster und deren Bestandteile "einmal" und legen diese dann anschließend ab und setzten diese zusammen. Nur wenn sich etwas ändert, wird ein betreffender Bereich erneut gerendert und abgelegt.

Das Problem hier ist nur, dass die ganze Sachlage viel komplexer ist - weswegen ein Autovergleich die Problematik so stark vereinfacht, dass die Probleme ausgebelendet werden.

Die Grafikkarte selbst, der Treiber vom Hersteller, der "übergeordnete" Treiber von Windows und dann Windows selbst. Ebenso die Programme, die ggf. unnötige GDI/GDI+/Direct2D-Calls absetzen, obwohl es unnötig wäre und so weiter.

Wenn man die Autoanalogie verwenden will: Du musst hier noch den Kraftstoff, den Menschen und die Steigung einkalkulieren, die hier die Verbräuche auch noch mal beinflussen können.

Novasun schrieb:
Jetzt bin ich aber neugierig....
Das sind wir wohl alle. Es gibt einige Punkte RDNA3 die bei mir aktuell ein Fragezeichen im Kopf hinterlassen. Mal sehen, was die andere Karte die Tage macht und dann wird da ein Fazit gezogen.
 
  • Gefällt mir
Reaktionen: NerdmitHerz und Schinken42
incurable schrieb:
Also soll Computerbase lieber nicht über die Probleme berichten, weil es Dich persönlich nicht betrifft?
Wieso hälst du dich nicht zurück, wenn du anscheinend nicht korrekt lesen kannst?

Viele haben schon berichtet, das bei ihnen das Problem tatsächlich behoben wurde.

CB kommt mit einem (!) Setup, welches vermutlich auch noch sehr selten verbreitet ist und behauptet pauschal: "Treiber löst Probleme nicht."
 
  • Gefällt mir
Reaktionen: Epistolarius, jo0 und Czk666
Zurück
Oben