Test GPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein

Ich hoffe die machen endlich mal was mal DUAL-Monitor-Verbrauch, auch wenn das viele nicht betrifft, so ein hoher Verbrauch muss ja nun wirklich nicht sein.
 
  • Gefällt mir
Reaktionen: SweetOhm
SFFox schrieb:
Dass AMD mit dem Memory Chiplets überhaupt so weit kommt überrascht mich positiv. Das Design macht es nicht einfacher VRAM Takt passend zur Pixelzahl und Refresh Rate eines oder gar mehrerer Monitore zu definieren,
Kannst du erklären warum das ein Problem sein soll?

Vielen Dank
 
pacifico schrieb:
Kannst du erklären warum das ein Problem sein soll?
Das Problem ist die gestiegene Komplexität. Ich hatte das beim Treiber 23.7.1 schon mal angesprochen und bin näher darauf eingegangen:
https://www.computerbase.de/forum/t...-rx-7000-senken.2150750/page-12#post-28379886

Es ist also nicht nur der RAM Takt, der zu Load (was wird gerade dargestellt? Video, Standbild etc.), reale Auflösung und Wiederholrate skaliert werden muss, um keinen Strom zu verschwenden, sondern durch die Chiplets, die jeweils einen Teil des Speichers verwalten, muss man deren Auslastung auch noch einzeln skalieren, um am Ende die Mindestmenge an Speicher und Mindesthöhe an Takt zu jedem Zeitpunkt zu gewährleisten anstatt per default ins overprovisioning zu gehen.

Hinzu kommt noch der Absatz mit der Blanking Time, die mit jeder unterstützten Auflösung vom Monitor an die Grafikkarte kommuniziert und weit weg von einem sinnvollen Optimum von den Herstellern im Monitor hinterlegt wird.

Solche Abhängigkeiten multiplizieren die Komplexität meistens, weil sie eine weitere Dimension ins Spiel bringen, daher macht es sich AMD nicht einfacher getrennte Chiplets zu verwenden. Für die Zukunft und die Leistung ist es aber wahrscheinlich ein guter Weg 👍
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lonex88, DevPandi, SweetOhm und eine weitere Person
Bei meiner RDNA(1) / 5700 XT an Dell S2721DGF verhält es sich im idle wie folgt:

60/120/144Hz mit Windows VRR aus => 200MHz VRAM / 10W laut Treiber
60/120/144Hz mit Windows VRR an => 200MHz VRAM / 10W laut Treiber
165Hz mit Windows VRR aus => 1750MHz VRAM / 35W laut Treiber
165Hz mit Windows VRR an => 1750MHz VRAM / 35W laut Treiber

Ob ich in Windows VRR also an habe oder nicht, machte diesbzgl. exakt keinen Unterrschied.
Wohl aber ob ich die Wiederholfrequenz in Windows von 165Hz (Monitor Maximum) auf 144Hz (oder tiefer) stelle.
Das System wurde übrigens mit der GPU und dem Monitor installiert (vor längerer Zeit) und Windows VRR war standardmäßig aus.

Somit brachte der im Artikel beschriebene Sachverhalt zwar keinen Effekt auf mein Setup (was ich wg RDNA 1 auch nicht erwartet habe) aber war immerhin Anstoß mich mit der Thematik einmal auseinander zu setzen und dadurch zukünftig wohl wirklich etwas an Energie einzusparen (weil ich von 165HZ auf 144Hz runter gegangen bin)
:daumen:
 
  • Gefällt mir
Reaktionen: Cleanor und SweetOhm
TigerherzLXXXVI schrieb:
Leider ist VRR nur in den neusten und vermutlich auch höherpreisigen Monitoren zu finden, deswegen können nur die wenigsten Nutzer von diesem speziellen Umstand profitieren.
Dieser Artikel bezieht sich primär auf erhöhte Leistungsaufnahme im Idle bei Monitoren mit 120 Hz Bildfrequenz oder mehr. Sieht man in den Preisvergleich, dann unterstützen 724 der 765 Geräte in diesem Segment den benötigten VRR-Standard Adaptive Sync, also 94,6%. Die Preise für die Geräte starten bei 113€. Die Realität widerspricht also der Vermutung.

Ja, es sind tendenziell neue Geräte, die das Feature unterstützen, über 90% der Modelle entfallen auf Erscheinungsjahre ab 2020. Aber es ist inzwischen allgegenwärtig und mitnichten nur in höherpreisigen Geräten zu finden. Wer ein Gerät mit hoher Bildwiederholrate kauft, der kauft mit hoher Wahrscheinlichkeit auch eins mit Adaptive Sync, selbst wenn nicht auf das Feature geachtet wird.

Betroffen sind primär Nutzer mit älteren Bestandsgeräten ohne Adaptive Sync, die eine hohe Bildwiederholrate ermöglichen. Dazu gehören auch Käufer von G-SYNC-Modellen, die den VESA-Standard nicht unterstützen. Wer davon später auf eine Radeon gewechselt ist, der sieht jetzt die negativen Auswirkungen des Vendor-Lock-Ins.
 
  • Gefällt mir
Reaktionen: Dai6oro, wuselsurfer und SweetOhm
Nixdorf schrieb:
Sieht man in den Preisvergleich, dann unterstützen 724 der 765 Geräte in diesem Segment den benötigten VRR-Standard Adaptive Sync, also 94,6%. Die Preise für die Geräte starten bei 113€. Die Realität widerspricht also der Vermutung.
Das Problem ist, ich hatte mal ein Problem mit einen Adaptive Sync Monitor und der PS5. Im Grafikmenü der Konsole konnte ich kein VRR aktivieren, da der Bildschirm angeblich diese Funktion nicht unterstützt. Ich habe daraus geschlussfolgert, dass VRR und AS nicht dass Gleiche ist.
 
Also bei meiner 7900XTX mit dem neusten Treiber habe ich einen Idle Verbrauch von ca. 100 Watt mit 1x FHD 165Hz + 1x WQHD 165 Hz. Beide Monitore unterstützen FreeSync Premium Pro, welches im Treiber auch für beide aktiv ist. VRR ist in Windows auch aktiv.

Custom Resolution treiberseitig führt zu "Out of Range" Benachrichtigungen auf den Bildschirmen.

Bei CRU finde ich kein Szenario das meine Monitore schlucken würden. Irgend ein Wert ist immer rot, egal was ich probiere. Vielleicht weiß da jemand weiter?

Ich habe jetzt einfach mal den FHD Monitor an das Mainboard gehangen (7800X3D). Die iGPU nimmt sich 25-30 W im Idle. Vielleicht weiß jemand was man da machen kann?

Die 7900XTX läuft mit dem WQHD Monitor im Idle bei 7W. Das empfinde ich als sehr gut. Macht in Summe irgendwas zwischen 30-35 Watt.

Cooler wäre natürlich, wenn beide Monitore direkt über die Graka betrieben werden könnten und ich zumindest auch auf diesen Durchschnittsverbrauch kommen würde. Vielleicht eines Tages, man wird wohl träumen dürfen.
 
Nixdorf schrieb:
Dazu gehören auch Käufer von G-SYNC-Modellen, die den VESA-Standard nicht unterstützen. Wer davon später auf eine Radeon gewechselt ist, der sieht jetzt die negativen Auswirkungen des Vendor-Lock-Ins.
Nein. Die negativen Auswirkungen sind z.B. "kein adaptive sync". Ein erratisches Treiberverhalten hat damit jedoch absolut nichts zu tun.
 
Sky_Sk4p3r schrieb:
Also bei meiner 7900XTX mit dem neusten Treiber habe ich einen Idle Verbrauch von ca. 100 Watt mit 1x FHD 165Hz + 1x WQHD 165 Hz. Beide Monitore unterstützen FreeSync Premium Pro, welches im Treiber auch für beide aktiv ist. VRR ist in Windows auch aktiv.

Custom Resolution treiberseitig führt zu "Out of Range" Benachrichtigungen auf den Bildschirmen.

Bei CRU finde ich kein Szenario das meine Monitore schlucken würden. Irgend ein Wert ist immer rot, egal was ich probiere. Vielleicht weiß da jemand weiter?

Ich habe jetzt einfach mal den FHD Monitor an das Mainboard gehangen (7800X3D). Die iGPU nimmt sich 25-30 W im Idle. Vielleicht weiß jemand was man da machen kann?

Die 7900XTX läuft mit dem WQHD Monitor im Idle bei 7W. Das empfinde ich als sehr gut. Macht in Summe irgendwas zwischen 30-35 Watt.

Cooler wäre natürlich, wenn beide Monitore direkt über die Graka betrieben werden könnten und ich zumindest auch auf diesen Durchschnittsverbrauch kommen würde. Vielleicht eines Tages, man wird wohl träumen dürfen.
Wie ist es bei 2x 144 statt 165 bzw 1x144+1x165
Ich habe schon früh die Beobachtung gemacht, dass meine 7900 nur bei den AMD vorgegebenen Fraquenzen wenig verbraucht. (bei mir 4k@144 wenig Verbrauch, 4k@ 75, 100, 120Hz = viel verbrauch (so dumm das auch ist, da ja weniger gerefreshed wird als bei 144))

Wenig verbrauch = evtl. die richtige Kombination finden. (wobei 35W noch halbwegs gelb sind statt 100)
 
TigerherzLXXXVI schrieb:
Ich habe daraus geschlussfolgert, dass VRR und AS nicht dass Gleiche ist.
Das Thema ist kompliziert.

Der Begriff VRR (Variable Refresh Rate) ist eigentlich nur der Oberbegriff für alle diesbezüglichen Techniken.

Bei DisplayPort stimmt das auch. Adaptive Sync ist die Bezeichnung für den dazugehörigen VESA-Standard. AMDs FreeSync ist eine Implementierung dieses Standards. NVIDIAs G-SYNC hingegen ist eine proprietäre VRR-Technologie, die zumindest ursprünglich nicht dem VESA-Standard entsprach und mit spezifischen Hardware-Modulen im Monitor umgesetzt wird.

Bei HDMI kam hingegen in HDMI 2.1 ein Feature dazu, welches explizit "VRR" heißt und namentlich mit dem allgemeinen Begriff oben kollidiert. Für die Nutzung von VRR an der PS5 kommt es offenbar darauf an, dass der Monitor oder TV dieses HDMI-Feature unterstützt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ray519, Corpus Delicti und Millennial_24K
Sapphire 7900XTX und LC Power UWQHD-Monitor mit 144Hz:

Ohne Adaptive Sync 49W im Idle
Mit Adaptive Sync 8-9W im Idle

Da ich es immer an habe, hatte ich die Hysterie um die hohen Stromverbräuche von RDNA 3 auch nie nachvollziehen können.

Weltweit wird in fast allen Tests über den Idle-Verbrauch gemeckert. CB findet endlich Erklärung. Deswegen seit ihr einer meiner absoluten Favoriten, wenn´s um PCs, Hardware, Technik usw. geht!
 
  • Gefällt mir
Reaktionen: Cleanor
ZeusTheGod schrieb:
Nein. Die negativen Auswirkungen sind z.B. "kein adaptive sync". Ein erratisches Treiberverhalten hat damit jedoch absolut nichts zu tun.
Korrekt, die hohe Leistungsaufnahme ergibt sich derzeit transitiv aus der fehlenden Unterstützung für Adaptive Sync. Für die Zukunft ist natürlich wünschenswert, dass AMD auch für die immer noch betroffenen Monitore eine Lösung nachliefert.
 
blackiwid schrieb:
Das müsste man dann aber auf VRAM auch übertragen, wenn Karten mit so wenig VRAM aus gestattet sind das sie in 1-2 Jahren Sondermüll werden ist das auch nicht ökologisch (Nvidia).

Es geht darum, wie bzw. ob etwas kommuniziert wird. Der VRAM der GPU ist für den Käufer klar ersichtlich (die GTX 970 mal ausgenommen, die war ein unverschämter Sonderfall).

Die Aussage mit dem Sondermüll in halte ich für polemischen Unsinn. Meine GPU ist von 2016 und hat 8GB VRAM. Auch damit kann man heutzutage in FullHD noch fast alles Zocken, wenn man die Details etc. runterschraubt. Und niemand schmeißt eine GPU normalerweise einfach weg, die wird verkauft oder verschenkt und jemand mit noch weniger Ansprüchen hat seinen Spaß daran.
 
Banned schrieb:
Die Aussage mit dem Sondermüll in halte ich für polemischen Unsinn. Meine GPU ist von 2016 und hat 8GB VRAM. Auch damit kann man heutzutage in FullHD noch fast alles Zocken, wenn man die Details etc. runterschraubt. Und niemand schmeißt eine GPU normalerweise einfach weg, die wird verkauft oder verschenkt und jemand mit noch weniger Ansprüchen hat seinen Spaß daran.
Ja aber irgendwann landet sie auf dem Müll und wenn man heute eine mit 8gb kauft statt 16 wird sie deutlich schneller auf dem Müll landen.

Mag das erst 2018 sein und die andere machts bis 2021 mit. Das ist typische geplante Obsoleszenz. Oft lebt die Karte dann halt auch irgendwo im Keller noch ein paar Jahre.

Hab z.B. noch ne Radeon HD 7950 die noch existiert falls ich mal meine Karte wechseln sollte oder als 2. Karte oder was auch immer also selbst bei jemand wie mir der jeden Euro 2x umdreht, vergammelt ne Alte :)

Vermutlich auch weil ich low key überlege meinen Gaming PC ab zu schaffen oder zumindest die rx 5600 xt dort wieder zu verkaufen und die in PC zu packen.

Aber die Karte hat auch nur noch ne minimale Rest Relevanz nach 10 Jahren weil sie damals eben Highend war und für damalige Verhältnisse 3gb viel war. Die kriegt man wohl abwechselnd für 20 und 50 Euro bei Ebay los, versteh nicht warum die Preisspanne so hoch ist.

Gut seh auch das gtx 650 noch gut verkaufen aus irgend einem Grund vermutlich nicht zum Spielen. Vermutlich irgendwelche Leute die damit Browsen aber kein System mit IGP / APU benutzen, die gar keine Grafikkarte benutzen sollten, die aber zu Faul sind alle 10 Jahre mal ihren PC zu aktualisieren. Und dann lieber mit 80w Idle 10 Jahre arbeiten als einmal nen Minipc mit 20-30w zu kaufen der 3x so schnell ist wie ihre 20 Jahre alte Kiste...

Wie dem auch sei, es gibt eine relativ fixe Anzahl an Menschen die eine moderne Spiele Grafikkarte haben wollen, eine mit weniger Ram wird schneller aus dieser Kategorie fallen. Daher führt es zu mehr Konsum, das ist nun mal das Grundprinzip von geplanter Obsoleszenz.

Gibt ja auch Leute die 20 Jahre alte Gefrierschränke im Keller haben und sich dann wundern warum ihre Stromrechnung immer so hoch ist.
 
Zuletzt bearbeitet:
Mein 4k 144Hz Monitor benötigt mit 6900xt im Leerlauf etwa 55W total. Und bei minimaler Belastung etwa 75W. Have mich schon beim Initialtest mit dieser Karte gewundert warum zwischen nix und ein wenig bei euch quasi kein Unterschied geherrscht hat.
 
Mein Setup
  • 32" Samsung Odyssey Gaming Monitor Neo G7 165 Hz
    • 3840x2160@120
  • AMD Radeon RX 6950 XT
    • Adaptive Sync aktiviert (AMD Adrenaline 23.7.2)
  • Windows - Variable Aktualisierungsrate aktiviert
Messung

Desktop (Idle)

Stock

1690917858592.png


UV/OC
  • GPU - MinMHz 1700
  • GPU - MaxMHz 2500
  • mV - 1125
  • VRAM - Schnelles Timing
  • VRAM - MaxMHz 2350
  • PL - minus 5%

1690917928554.png
 
  • Gefällt mir
Reaktionen: Cleanor
Nur kurz Meinerseits (aus der Fraktion RDN3 Einsteigersegment)

Hab bei meiner Mom die Asus 7600 Strix OC verbaut. Messungen aus dem letzten Treiber @4k60hz

Idle (Standartbios) 11 Watt; mit Fensterbewegung geht die CPU jedoch problemlos auf bis zu 40 Watt :x

Zwischendurch gabs für die og. Ksrte ein BIOS GPU Update von Juli, was dies nochmal verschlimmert hat. Als Changelog wird "stability improvments" angegeben. Taktraten sind gleich, ebenfalls das Power-Target blieb unverändert.

Hier gehts auf 12 Watt, mit Bewegung sogar auf bis zu unsinnige 50 Watt. Und dies nur bei 60Hz, angeschlossen an einen LG TV. Kein FreeSync. Der Verbrauch dürfte e bei 144hz sicherlich nochmal höher liegen...und das bei einer Einsteiger Karte ^^ ist das mäh.

Hab dann das Quite Bios von Techpower aus der unverified Sektion) wieder zurückgeflasht (da Asus das als selber als Backup nicht auf deren Seite hat) und der Idle Verbrauch liegt bei 8Watt bzw. maximal 22 Watt (Fensterbewegung). Letzteres entspricht in etwa dem CB Test vom MBA Model. Bzw. der Powercolor Hellhound welche ich nur kurzfristig hatte & aufgrund eines Lagerschadens zurückschicken musste.

PS: Alle 3 Bios Versionen besitzen das gleiche Powertarget (181 Watt). Quite Bios unterscheidet sich nur dadurch das eine höhere Temperatur zugelassen wird/die Lüfterkurve weniger ansteigt. Im Furmark wiederum liegen das Originalbios/Quitebios bei ca. 800rpm. Das 3. "Neue" Bios aus Juli geht in Furmark bis auf 1000Umdrehungen. *Angaben nach 30 Minuten stresstesten.

Irgendwie scheint zumindest der Treiber die anderen 2 Bios Versionen was Idle, samr Fensterbewegung betrifft überhaupt nicht zu vertragen oder/und Asus hat da was versemmelt. :)
 
Zuletzt bearbeitet von einem Moderator:
Cleanor schrieb:
Wie ist es bei 2x 144 statt 165 bzw 1x144+1x165
Ich habe schon früh die Beobachtung gemacht, dass meine 7900 nur bei den AMD vorgegebenen Fraquenzen wenig verbraucht. (bei mir 4k@144 wenig Verbrauch, 4k@ 75, 100, 120Hz = viel verbrauch (so dumm das auch ist, da ja weniger gerefreshed wird als bei 144))

Wenig verbrauch = evtl. die richtige Kombination finden. (wobei 35W noch halbwegs gelb sind statt 100)
Alles an Frequenzen probiert was ging, bin bei keinem Szenario unter 70W Idle gekommen.
 
Was für eine Karte hast du denn?
Du solltest auch einfach mal alle Programme platt machen, die so im Hintergrund laufen.

Bei mir - wie ich schon geschrieben habe - haben auch Programme im Hintergrund dafür gesorgt, dass der VRAM nicht runter getaktet hat. Als Beispiel Steam ... obwohl Steam nach dem Autostart im Hintergrund blieb .. hat es den Shop geladen und ständig aktualisiert. Dadurch wollte der VRAM auch nicht runter.

Teilweise hab ich Browser Tabs die sich da quer stellen.
Interessant als Beispiel auch, ein pausiertes Video im offenen VLC Player (selbst wenn der minimiert ist) hält die GPU Spannung oben. Der VRAM Takt aber geht runter. Nur so verbrauchst auch deine 30-35w.

Idle ist also extrem auch von dem abhängig, was man im Idle so hat.
(Aber auch von der Karte - bei mir kann ich XFX mit Sapphire vergleichen. Die Sapphire ist wesentlich sparsamer)
 
  • Gefällt mir
Reaktionen: Cleanor
Nixdorf schrieb:
Das Thema ist kompliziert.

Der Begriff VRR (Variable Refresh Rate) ist eigentlich nur der Oberbegriff für alle diesbezüglichen Techniken.

Bei DisplayPort stimmt das auch. Adaptive Sync ist die Bezeichnung für den dazugehörigen VESA-Standard. AMDs FreeSync ist eine Implementierung dieses Standards. NVIDIAs G-SYNC hingegen ist eine proprietäre VRR-Technologie, die zumindest ursprünglich nicht dem VESA-Standard entsprach und mit spezifischen Hardware-Modulen im Monitor umgesetzt wird.

Bei HDMI kam hingegen in HDMI 2.1 ein Feature dazu, welches explizit "VRR" heißt und namentlich mit dem allgemeinen Begriff oben kollidiert. Für die Nutzung von VRR an der PS5 kommt es offenbar darauf an, dass der Monitor oder TV dieses HDMI-Feature unterstützt.
Was ja im Umkehrschluss bedeuten sollte, dass man möglichst auf Displayport setzen sollte, oder?
 
  • Gefällt mir
Reaktionen: Cleanor
Zurück
Oben