Test GPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein

Also meine RX 6700XT braucht im Desktop in WQHD/144 Hz gerade einmal 4-5 Watt. Also perfekt würde ich sagen.

1690827039425.png
 
  • Gefällt mir
Reaktionen: SweetOhm, Cleanor und HierGibtsNichts
Tanzmusikus schrieb:
🤩 Der Artikel ist ja von @SVΞN. Danke & Grüße! 👍
Das sind gute Neuigkeiten - auch für Linux-Nutzer.
Das kann durchaus sein. :) Ich kam auf Artikel über die Seite Phoronix im Original weil ich dieser Tage etwas im Linux Treiber von AMD selbst getestet hatte.
Ergänzung ()

Hunder schrieb:
Egal welche Kombination an VRR Schalter bei mir in Windows und im Treiber an oder aus ist, die 100W Idle Verbrauch bleiben bei meiner 7900 XTX. 4K 120Hz HDR
Dann halt den bekannten Workaround mit CRU oder "Custom Resolution" in Adrenalin Software nutzen.
 
  • Gefällt mir
Reaktionen: SweetOhm und Tanzmusikus
Tatsächlich hab ich meinen neuen Monitor, der Freesync kann, immer im Freesync-Modus betrieben.
Der Treiber hat das nicht automatisch erkannt, aber die Einstellung war relativ einfach zu finden.
Damals unter dem Zahnrad Menü Symbol - in den neueren Treibern ist unter "Gaming".

PS: Wobei es im Menü nun auch AMD-Optimiert als Auswahl gibt - ich geh mal davon aus, das der Treiber es zumindest teilweise erkennt, ob er einen Freesync-Monitor am Kabel hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
[wege]mini schrieb:
Kommt auf das Szenario an.

Wenn man das selbe Bild nur 2mal ausgibt (spiegeln) sollte nicht viel passieren. Wenn man einen großen Monitor ausgibt (erweitern) werden nun einmal mehr Pixel berechnet und wenn man echtes Dual Screen betreibt, werden nun einmal 2 Monitore berechnet.

Es sollte beim Strommessgerät zu einer Veränderung führen, was man als Szenario wählt.

Sonst baut der Treiber schon wieder Mist.

mfg

ja schon werden mehr Pixel berechnet, aber das ist ja unwesentlich mehr Rambedarf. Das sind ja nur ein paar MB (rein für Desktop) und die Berechnung dazu ist auch nur unwesentlich komplizierter. Ich glaub mit 256MB kann man locker 2 x 4k (Desktop) ausgeben in 8bit Farbetiefe

[Ergänzung] hier die Rechnung:
2 (Monitore) x 3840 x 2160 x8 (bit) =132710400 bit =126,5625 MByte
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Glaube AMD wird sich erst nach dem "Update" für Windows 11 von Microsoft äußern:

https://blogs.windows.com/windows-i...ncing-windows-11-insider-preview-build-25915/

What’s new in Build 25915

...

Changes and Improvements


[Graphics]


  • We have improved refresh rate logic to allow different refresh rates on different monitors, depending on the refresh rate for each monitor and content shown on the screen. This will help most with refresh rate-dependent multitasking, like playing a game and watching a video at the same time.
  • While a Dynamic Refresh Rate (DRR) is selected and Battery saver is also enabled, Windows will remain at the lower refresh rate and not switch to the higher rate until after Battery saver is disabled.
 
  • Gefällt mir
Reaktionen: Volvo480, Peacemaker1337, bad_sign und eine weitere Person
janeeisklar schrieb:
Nein, mein Monitor hat DSC (WQHD, 240Hz 10Bit und Radeon 6900XT) und das Verhalten ist gleich (6W Idle) bei FreeSync im Treiber an.
Schön für dich.
Ich hab leider nebenbei noch 2x FullHD 60Hz Monitore im Betrieb.
Da läuft das nicht mehr.
Wenn ich DSC abschalten sinkt der idle verbrauch von 50W auf 30W
 
rentex schrieb:
Und das über 7 Monate nach Release der Karten...
Und warum zum Teufel, hat man bis jetzt zum Benchen keinen Monitor mit VRR genutzt? Auch wenn es keinen Einfluss auf die Ergebnisse hatte, sollte man aktuelles Equipment zum Benchen auf dieser Veröffentlichungsebene nutzen.
Am falschen Ende gespart?
Das mit variabler Refreshrate als LÖSUNG in Windows als Ursache hatte ich schon vor Mai mehrfach geschrieben. 1 Bsp:

https://www.computerbase.de/forum/t...uen-testparcours.2144335/page-7#post-28216036

Und das CB besser mit einem weiteren Moni testen sollte, evtl. mit Zweitbalken. (Weil ich die Werte absolut nicht nachvolziehen konnte mit meinem System)

steht schon hier:

https://www.computerbase.de/forum/t...n-startklar-fuer-f1-23.2148275/#post-28313459

Für mich ist das nur alter Tee den ich seit Monaten ausrufe, wenigstens tut sich nun endlich was.

Ältere Threads habe ich mal nicht ausgekramt, sollte es aber auch geben.
 
  • Gefällt mir
Reaktionen: SweetOhm, Eller und rentex
johnieboy schrieb:
Bei AMD muss man die Materie quasi studiert haben um ein befriedigendes Ergebnis zu bekommen während man bei Nvidia dafür schlicht überhaupt nichts machen muss.
Nein. Man muss da nix studiert haben, sondern es zeigt sich eher, dass es Glückssache ist. Oder Pech...

Ich war von den letzten Messungen von ComputerBase komplett überrascht, weil ich mir auf die schlechten Werte bei RDNA2 keinen Reim machen konnte. Ich hatte bereits eine RX 6600, hab dann einen Monitor mit UHD@144Hz mit FreeSync-Feature gekauft, angeschlossen, und ab dann durchgehend 4-6 W auf dem Desktop gehabt. Da war absolut gar kein Zutun erforderlich. Nicht einmal den Treiber hatte ich beim Wechsel von RX 580 auf die RX 6600 aktualisiert.

Die höheren Werte aus dem letzten Bericht ergaben für mich schlichtweg keinen Sinn. Nach dem Installieren der Karte war VRR im Treiber automatisch aktiv, in Windows aus, und auch laut Monitor auf dem Desktop nicht aktiv. Ich konnte also aus meiner Perspektive nicht auf die Idee kommen, dass das nur in Spielen aktivierte VRR irgendwas damit zu tun hat. Erst jetzt mit dem neuen Bericht kommt die Erklärung, warum bei ComputerBase offenbar der Monitor für die höheren Werte verantwortlich war.

Nun kann man immer noch sagen, dass man dann halt ein Studium braucht, um nicht den falschen Monitor zu kaufen. Beim Blick in Geizhals haben allerdings von 211 Geräten mit 144 Hz nur 8 kein Adaptive Sync. Die Situation von ComputerBase vor diesem aktuellen Test war also eher Pech als der Normalfall.
 
  • Gefällt mir
Reaktionen: Volvo480, SweetOhm, HierGibtsNichts und eine weitere Person
Okay ich möchte bitte nur sichergehen, dass ich es richtig verstanden habe;

  1. Der AdaptiveSync-Switch im Treiber muss = AN sein, damit die Leistungsaufnahme sinkt?
  2. Punkt 1 bezogen auf Leistungsaufnahme funktioniert nur, wenn auch das Display AdaptiveSync beherrscht
  3. Der Windows-VRR-Switch, ob AN oder AUS hat keinen Einfluss auf 1 und 2?

Kurz: Hauptsache AdaptiveSync im Treiber = AN und der Rest ist egal?
 
  • Gefällt mir
Reaktionen: McTheRipper
hab nicht alle Kommentare gelesen, entschuldigt deswegen die Frage:
hat sich das jemand auch unter Linux angesehen, oder gibt es dieses Problem dort nicht?
 
Funktioniert das auch unter Windows 10 oder nur unter Windows 11?
Habe mir vor kurzem eine RX 6700 XT geholt, daher finde ich das recht interessant.
Nutzung wäre 2x FHD @ Freesync 48-75Hz + 1x WQHD @ Freesync 48-144Hz + ggf. FHD TV @ 60Hz.
Naja werde ich ja bald herausfinden.
 
jetzt mit bisl music (youtube, kA welche auflösung, da im hintergrund) 47w. find ich auch ned grad so geil (7900 xt @ 1440p, 144hz)
 
nitg schrieb:
youtube, kA welche auflösung, da im hintergrund
Zumindest in Firefox wird die Videodekodierung komplett abgeschaltet, wenn das Video in einem Hintergrund-Tab abgespielt wird. Da läuft dann nur der Ton weiter. Hab hier gerade drei Twitch-Streams im Hintergrund laufen, bei einem den Ton an, und die RX 6600 meldet die gleichen 4,8W wie bei ruhendem Desktop. Das sollte bei einer 7900 XT identisch funktionieren... also nicht die Wattzahl, aber keinen Unterschied zwischen Video im Hintergrund und gar keinem Video.
 
Wie reagiert den Linux mit VRR?

Wenn Linux ähnlich reagiert liegt es an der Hardware und/oder dem Kernelmodul. Wenn nicht liegt es allein am Treiber für Windows.

Hinweis: Da Mutter für Wayland (noch) kein VRR bietet, ist es sinnvoll das mit X11 zu testen.
 
Sehr interessant, Danke für den Test.

Ich frage mich jedoch, wie viele AMD User VRR im Treiber nicht aktiviert haben (entsprechenden Monitor vorausgesetzt).

Schließlich ist VRR (egal bei welchem Hersteller) imho eine der wichtigsten Technologien moderner Karten für eine korrekte Darstellung.
 
Zuletzt bearbeitet:
Ich hab mal einen Vorschlag für die Redaktion. Macht den Test auf einem 120Hz 4K OLED Fernseher.
Ich hab dasselbe Problem mit meinem LG 34GN850-b und meiner 5700XT Speichertakt immer auf Maximum. Mit meinem Asus MG279Q keine Probleme, genauso wenn ich an meinem Fernseher Spiele.
 
Das sind mal gute Neuigkeiten. Seit gut 20 Jahren bin ich das erste Mal wirklich scharf auf meine neue GPU die irgendwann kommt. (Bin noch am schauen und am überlegen ob ich auf 12GB der aktuellen Gen warte etc). Das wird nicht nur ein gewaltiger Performance Sprung, wohl auch weit effizienter als mein aktueller Nvidia uralt Schrott.
 

Anhänge

  • Screenshot 2023-08-01 013616.jpg
    Screenshot 2023-08-01 013616.jpg
    30,8 KB · Aufrufe: 178
Zurück
Oben