News AMD Adrenalin 23.7.1: Treiber soll Desktop-Leistungsaufnahme bei RX 7000 senken

Taurus104 schrieb:
Welche je nach Monitor Konfiguration ebenfalls mit hohem/erhöhtem Leerlaufverbrauch zutun haben. 4060 52W Idle bei vielen Testern.
Taurus lass dich nicht provozieren. Hier gibt es genug Menschen die verstanden haben das das kein Hersteller spezifisches Problem ist.

Bin aber gespannt was CB raus gefunden haben will. Da werden wir wohl uns noch etwas gedulden müssen.
 
  • Gefällt mir
Reaktionen: McTheRipper und HierGibtsNichts
Ich persönlich finde es immer noch zu hoch aber schon mal etwas besser als vorher.
 
Vitche schrieb:
RX 7900 XTX 144 Hz UHD

hier könnte ihre Umfrage stehen

Die Kombination aus a) GPU b) Auflösung c) Framerate und ggf. d) Single- oder Multimonitor hat ggf unterschiedliche Auswirkungen, vll könnt Ihr die Umfrage entsprechend erweitern?

ggf auch, wo die entsprechenden Werte abgelesen wurden, Adrenalin, hwi, ....
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Novasun schrieb:
Bin aber gespannt was CB raus gefunden haben will. Da werden wir wohl uns noch etwas gedulden müssen.
Ich kann dir - ohne das zu wissen, was CB herausgefunden hat - zumindest einen Verdacht nennen. Ist etwas her, dass ich da mal was zu gelesen im Studium, wie auch eine minimale "Asynchronität" zwischen zwei Monitoren dazu führen kann, dass die Leistung auf einer GPU steigen lässt, weil zu unterschiedlichjen Zeiten auf das "Bild" zu geriffen wird und daher der Schreibinterval zu klein war und das entsprechend kompensiert werden muss.
 
@DevPandi Das war ja mal am Anfang die Vermutung. Aber dann müsste es ja bei keinem zu Besserung gekommen sein... Oder bei allen zur selben. Wobei ich da auch noch unterscheide.

Ein Monitor hohe Auflösung mit hohen Hz ist ein Usecase - und im Zweifel sieht AMD nur diesen gefixt.

Multimonitor ist ein anderer Usecase... Ich frag mich inzwischen auch ob die Art wie GPU und Monitor verkabelt sind eine Rolle spielt... Und @Taurus104 oder @Hibbelharry hatten ja einen NV Fall ausgegraben - da war die FE Version sauber in den Verbräuchen - das Custom Modell mit Herstellerbios nicht.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Bei den 60000ern scheint sich nichts getan zu haben, bei 4k 60fps HDR YT-Video immer noch hoher Speichertakt von knapp 2000mhz und 38Watt auf 6800...
 
  • Gefällt mir
Reaktionen: F1database
CastorTransport schrieb:
CB kommt mit einem (!) Setup, welches vermutlich auch noch sehr selten verbreitet ist und behauptet pauschal: "Treiber löst Probleme nicht."
Wenn der Treiber nichts ändert, ändert der Treiber nichts.
 
Do Berek schrieb:
Bei den 60000ern scheint sich nichts getan zu haben, bei 4k 60fps HDR YT-Video immer noch hoher Speichertakt von knapp 2000mhz und 38Watt auf 6800...

38 Watt ist doch voll ok.
 
  • Gefällt mir
Reaktionen: LukS, McTheRipper, Perdakles und 3 andere
@Czk666 - sehe ich genauso, 4K und 60fps müssen ja irgendwie "bedient" werden. Wenn jemand viel weniger Stromverbrauch fordert, sollte er vielleicht weniger als 4K Auflösung nutzen, oder die Refresh-Rate des Monitors angleichen.
 
Novasun schrieb:
Das war ja mal am Anfang die Vermutung. Aber dann müsste es ja bei keinem zu Besserung gekommen sein... Oder bei allen zur selben.
Nicht unbedingt, da hier auch die Firmware des Monitores mit rein spielt. Allgemein ein komplexes Thema. Ich bin gespannt, was da die Tage von CB kommt.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts und Tanzmusikus
Früher waren Diskussionen über neue Treiber mehr allgemeiner Art, wie gut oder schlecht der Treiber funktioniert, ob und welcher Fehler er hat, usw.
Heute dreht sich alles um den Stromverbrauch bei den 7xxx Karten.

Gibt es auch noch Leute, die sich dafür interessieren, wie der Treiber so ist?
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Czk666 schrieb:
38 Watt ist doch voll ok.
Kommt mir schon etwas hoch vor, aber im Vergleich scheint's ja ok zu sein...
Finde den VRAM-Takt von 1990-2000Mhz halt etwas komisch, aber wenn das normal ist, ist es eben so.
¯\(ツ)
 
  • Gefällt mir
Reaktionen: bit_change
6700xt mit 23.4.2 oder 23.7.1
2x 1440p DisplayPort, 1x 144hz, 1x 75hz
26 Watt, 1988 Mhz

mach ich den 75er aus
7 Watt, 22 Mhz

Vor den 6700xt (Firma) und meiner 6800xt (daheim) hatte ich eine jeweils 1080ti, die im Multimonitorbetrieb ebenso reagierten. Die gingen auch nur mit nVidia Inspector getweakt runter, bis nVidia im alten Treibermenü endlich das Power Management im Griff hatte. Hatte!
Wohl doch nicht mehr
https://forums.developer.nvidia.com...-draw-is-astronomical-with-rtx-3090/155632/44

Von daher, ja ein hoher Speichertakt ist wohl normal, ich kenn es eig auch nicht anders. GPU Mem im Multimonitorbetrieb meistens immer auf min. 95% .
Und AMD ist damit NICHT allein.

Der hohe Wattverbrauch sollte nur angeschaut werden. mMn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fresh-D, Ragnos|UTzone, Epistolarius und 4 andere
Do Berek schrieb:
Bei den 60000ern scheint sich nichts getan zu haben, bei 4k 60fps HDR YT-Video immer noch hoher Speichertakt von knapp 2000mhz und 38Watt auf 6800...
Die Improvements sind auch ausschließlich für RX7000 deklariert.
 
CastorTransport schrieb:
Wieso hälst du dich nicht zurück, wenn du anscheinend nicht korrekt lesen kannst?

Viele haben schon berichtet, das bei ihnen das Problem tatsächlich behoben wurde.

CB kommt mit einem (!) Setup, welches vermutlich auch noch sehr selten verbreitet ist und behauptet pauschal: "Treiber löst Probleme nicht."
Das ist jetzt peinlich, weil vielleicht solltest du selbst erstmal lernen korrekt zu lesen?

ComputerBase hat den Adrenalin 23.7.1 auf einer Radeon RX 7900 XTX durchgemessen und keinerlei Änderungen beim Verhalten der Leistungsaufnahme auf dem Windows-Desktop bei 144 Hz in Ultra HD feststellen können.

Wenn AMD behauptet das Problem wäre gefixt, dann sollte das Problem gefixt sein und nicht "wir haben das Problem für ein paar Nutzer gefixt" ...
 
  • Gefällt mir
Reaktionen: incurable
@Vitche ihr habt ja direkt am Board gemessen soweit ich das verstanden habe. Habt ihr auch ein Vergleich mit Gpu-z machen können?
 
  • Gefällt mir
Reaktionen: Tanzmusikus
DevPandi schrieb:
Was theoretisch auch möglich ist für eine Grafikkarte, da man - gerade auf dem Desktop - sich sogar gewisse Arbeiten sparen kann. Intelligente Systeme rendern den Desktop und ebenso die Fenster und deren Bestandteile "einmal" und legen diese dann anschließend ab und setzten diese zusammen. Nur wenn sich etwas ändert, wird ein betreffender Bereich erneut gerendert und abgelegt.

Das Problem hier ist nur, dass die ganze Sachlage viel komplexer ist - weswegen ein Autovergleich die Problematik so stark vereinfacht, dass die Probleme ausgebelendet werden.

Die Grafikkarte selbst, der Treiber vom Hersteller, der "übergeordnete" Treiber von Windows und dann Windows selbst. Ebenso die Programme, die ggf. unnötige GDI/GDI+/Direct2D-Calls absetzen, obwohl es unnötig wäre und so weiter.

Wenn man die Autoanalogie verwenden will: Du musst hier noch den Kraftstoff, den Menschen und die Steigung einkalkulieren, die hier die Verbräuche auch noch mal beinflussen können.

Tatsächlich ist das Beispiel des nur dann Bilder neu zeichnen wenn sich etwas ändert auch wieder eine Angelegenheit, bei der das Displaygerät mit reinspielt. Aktuelle Notebooks sparen zum Beispiel schon länger Strom in dem ein Feature names Panel Self Refresh für die per embedded DisplayPort angeschlossenen Panels ausgespielt wird. Das Panel kümmert sich dann um den Erhalt des Bildes, die GPU kann sich ganz schlafen legen und weckt das Panel bei Bedarf wieder.

Das gibts inzwischen auch in jungen Versionen für Subbereiche des Bilds, aber ich hab den Eindruck so richtig funktioniert der ganze Technologiestack da bislang nicht.

Und im Desktopbereich gibts das auch - zumindest für mich - nicht wahrnehmbar.

Witzig ist übrigens: Natürlich macht die Wahl des Anschlusses auch etwas aus, HDMI und Displayport sind NICHT featuregleich. Kann daher auch gut mal sein, dass es mit dem einen geht und mit dem anderen nicht, Displayport sollte da Technologievorteile haben, aber ob das die grosse Entdeckung ist die geteasert wurde? I doubt.

CiX schrieb:
AMD mal wieder 😂

Wieder ein Beitrag ganz hoher Qualität. Gelesen was du lesen wolltest, Gegenbeispiele nicht zur Kenntnis genommen, dann nochmal schnell einen rausgehauen. Hat den Thread vorangebracht, danke dafür.
 
  • Gefällt mir
Reaktionen: cbmik, Teeschlürfer, McTheRipper und 5 andere
Czk666 schrieb:
38 Watt ist doch voll ok.
Auf meiner Vega, 8W für ein 4k 60fps YT-Video und 3W im idle.
Far Cry 1 (nur ein Beispiel) in UWHD läuft mit allem auf Anschlag, mit 20W und du findest 38W für ein Video, ist ok? Für mein Empfinden etwas viel.
 
  • Gefällt mir
Reaktionen: Shy Bell und bit_change
Zurück
Oben