Test GPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein

Ayo34 schrieb:
Mein GefĂŒhl ist, AMD versteht ihren eigenen Treiber nicht...
AMD und Treiber...leider so ne GeschichteđŸ’â€â™‚ïž
 
Das Ergebnis des Tests ist definitiv ĂŒberraschend und lĂ€sst zumindest hoffen, dass das auch fĂŒr User, die keine VRR-fĂ€higen Bildschirme haben ein lösbares Problem sein könnte. Das ist aber auch der einzige positive Schimmer da dran. Mir zeigt es nur, dass die AMD-Treiber noch immer ziemlich große Baustellen haben.

So sehr ich damals auch dem RDNA3-Release entgegen gefiebert habe und auch den Live-Stream der PrĂ€sentation angeschaut habe, so sehr bin ich doch froh, dass ich mich letztlich nicht fĂŒr eine AMD-Karte entschieden habe.

Im Sinne der AMD-Kunden, die ja trotzdem alle jeweils eine ordentliche Stange Geld ausgegeben haben, hoffe ich, dass AMD diese Probleme so langsam mal auf die Reihe bekommt. An Nachstellbarkeit wird es ja nicht mangeln.

"Kauf euch neue Monitore, dann spart ihr Strom" ist jedenfalls keine Lösung.
 
1690817784993.png

Habe diese Option erst gar nicht :D
Aber mit meiner 6800XT 60Hz habe ich aber weniger verbrauch:
1690817922420.png

bei 144Hz sindÂŽs wieder erheblich mehr, fast 40W :-(
 
HÀtte ich das eher gewusst, wÀre es definitiv eine 7900 XT geworden. :(
 
Die von CB gemessenen Werte habe ich eigentlich seit ich die RX6800XT im Rechner habe - also von Anfang an. Ich konnte mir nur bisher nicht erklĂ€ren warum andere teilweise so weit darĂŒber lagen.
CyrionX schrieb:
Ich bin immer noch verdutzt wie so ein einfacher "Fix" Monate lang unbemerkt blieb
Der ist nicht unbemerkt geblieben, die Werte (meine) wurden aber immer ins Fabelreich verwiesen. Ich hatte schon seit Aufbau der Rig bei geöffnetem Browser mit 14 Tabs 11 Watt auf der Uhr (WQHD @165Hz). Bei schneller Fensterbewegung komme ich nicht ĂŒber 35Watt.
 
  • GefĂ€llt mir
Reaktionen: Tzk, Cleanor und CyrionX
Ist aber auch ganz schön von der Karte abhÀngig, wie gut das lÀuft.
Kann hier eine XFX 7900XT Back Edition und eine Sapphire 7900XT Puls vergleichen.

Wo man die XFX einfach nicht dazu bekommen hat, den Speichertakt unten zu lassen, legt sich die Sapphire schön schlafen. Die geht dann auch bei 2 Bildschirmen auf 6-8w runter. Wenn dann mal Kleinigkeiten passieren sind es um die 15-20w.

Was mir aber auch aufgefallen ist, was man nicht unterschĂ€tzen darf - wie oft Programme im Hintergrund dafĂŒr sorgen, dass der VRAM nicht ganz runtertakten kann. Ein frisch im Hintergrund gestartetes Steam, welches immer noch im Infobereich schlummert, rödelt einfach rum und lĂ€sst die Karte nicht runterfahren. Man muss es erstmal öffnen und von der Startseite weg klicken, damit das Verhalten sich Ă€ndert.

Na bin mal gespannt, was AMD da noch so am Treiber zaubert.
 
  • GefĂ€llt mir
Reaktionen: Volvo480 und Holzkerbe
Haldi schrieb:
Und dann haste nen tollen Monitor mit DSC und dann sind alle Idle Sparmassnahmen sowieso deaktiviert.
Egal ob mit 6800XT oder 4090
Nein, ein Monitor hat DSC (WQHD, 240Hz 10Bit und Radeon 6900XT) und das Verhalten ist gleich (6W Idle) bei FreeSync im Treiber an.
 
Auch ganz wichtig: Seit kurzem kann man auch die Sekunden sich anzeigen lassen im Infobereich. Dies hat Auswirkung auf den Stromverbrauch.
1690818943388.png

1690819106183.jpeg
 

AnhÀnge

  • 1690819029895.png
    1690819029895.png
    65,8 KB · Aufrufe: 104
  • GefĂ€llt mir
Reaktionen: Jan und tusen_takk
Simanova schrieb:
75 Watt fĂŒr ein Youtube Video bei der RX 7900XTX. 😅

Das entspricht etwa dem Verbrauch der Nvidia 4070Ti wenn ich ein Video mit KI Upscaler anschaue, nebenbei Captain of Industry spiele und Memes via Telegram auf dem PC verschicke.

Im Idle 6-8W fĂŒr die 4070Ti bei mir (Telemetrie hwinfo)
Es sind zwischen 40 und 60w in YT. Und wenn du ein AM5-System hĂ€ttest je 4w fĂŒr den Desktop und YT, Hybrid-Modus sei Dank!
 
johnieboy schrieb:
da fĂŒhlen sich 60Hz wie ne Ruckelorgie im Vergleich an.

Dann nimmt man 72 FPS, verdoppelt jeden Frame und gibt es mit 144 Hz aus.

Gerade die neuen Technologien wie DLSS, sind doch dafĂŒr perfekt. ;)

mfg
 
Hab vorher gerade meine sapphire 7900xt nitro eingebaut und erste kurze Tests gefahren. In kompletten idle mit neuestem Treiber 6w, mit bisschen mouse 14w, youtube HD gleich mal ca 40w, Jagged alliance 3 mit 144hz ca 320w, mit 60hz 130w. 2560x1440
 
  • GefĂ€llt mir
Reaktionen: Volvo480, Corpus Delicti und [wege]mini
Was mich aber noch immer schockiert ist ein deutlich höherer Verbrauch, sobald 2 Monitore verwendet werden. Unter dem Motto 2 Monitore, doppelter Verbrauch. Ist das eigentlich begrĂŒndbar, abgesehen von; mehr Datenleitungen, mehr Strom?

So gesehen bin ich froh, dass ich auf einen großen Monitor gewechselt bin, statt 2 kleine.

Lg
Ando
 
  • GefĂ€llt mir
Reaktionen: nitg
ando99 schrieb:
Unter dem Motto 2 Monitore, doppelter Verbrauch

Kommt auf das Szenario an.

Wenn man das selbe Bild nur 2mal ausgibt (spiegeln) sollte nicht viel passieren. Wenn man einen großen Monitor ausgibt (erweitern) werden nun einmal mehr Pixel berechnet und wenn man echtes Dual Screen betreibt, werden nun einmal 2 Monitore berechnet.

Es sollte beim StrommessgerĂ€t zu einer VerĂ€nderung fĂŒhren, was man als Szenario wĂ€hlt.

Sonst baut der Treiber schon wieder Mist.

mfg
 
Ayo34 schrieb:
Mein GefĂŒhl ist, AMD versteht ihren eigenen Treiber nicht...
Grafiktreiber gehören praktisch zur komplexesten Software ĂŒberhaupt. Es gibt einen Grund warum sich selbst bei Nvidia manchmal merkwĂŒrdige Probleme einschleusen.

Und generell ist Software-Entwicklung teilweise sehr viel (gefĂŒhlter) Vodoo. Jeder der schon mal an sehr großen Software Projekten mitgeschrieben hat, wird das bestĂ€tigen können. Man Ă€ndert eine Zeile Code und plötzlich geht was ganz unabhĂ€ngiges kaputt.
 
  • GefĂ€llt mir
Reaktionen: Piktogramm und (gelöschtes Mitglied)
janeeisklar schrieb:
zudem kann sie Hybrid-Grafik, wo du den Monitor anschießt ist volkommen egal.
Meine letzte Information war, dass der Monitor dafĂŒr an die iGPU muss, damit man wirklich Energie spart. Hat sich das geĂ€ndert?
Mircosfot schrieb:
Auch ganz wichtig: Seit kurzem kann man auch die Sekunden sich anzeigen lassen im Infobereich. Dies hat Auswirkung auf den Stromverbrauch.
Was aber in dem Fall nicht verwundert. Windows und die Grafikkarte sind heute so klug, dass sie weite Teile des Desktops nur rendern, wenn dieser sich verĂ€ndert. Bei der Sekundenanzeige ist das fĂŒr den kleinen Bereich notwendig, ansonsten bleibt das speichert und wird einfach nur erneut ausgeben.
 
DaBo87 schrieb:
Das klingt nach ein paar vermurksten AbhÀngigkeiten des AMD Treibers mit den vom OS gemeldeten gesetzten Parametern.

Abseits davon:

Meine Vermutung ist, dass ein wichtiger Baustein in dieser neverending Story die EDIDs der Monitorhersteller sind. Die Daten, die der Monitor via EDID liefert, stimmen oft nicht wirklich mit den tatsĂ€chlichen Möglichkeiten des GerĂ€tes ĂŒberein. Dann braucht man wieder CRU um das zu tweaken.

Wenn sich die GPU-Hersteller sowie das OS auf die gelieferten Daten verlassen könnten, wÀre sicherlich noch mehr drin, je nach Monitormodell eben.
EDIDs sind die Pest. Seit Jahren Probleme damit, weil ich partout nicht auf 2 Monitore und den TV mit Surroundanlage verzichten will, auch wenn Windows und die Hersteller mir das immer wieder ausreden wollen xD.
Is ĂŒbrigens unter Linux nicht besser, nur anders.

Überhaupt haben all die digitalen Protokolle mit ihren Handshakes das verbinden per Kabel nicht gerade einfacher gemacht.

Analog war so schön einfach, passt der Stecker und kommt ein Signal durch, funktioniert's. Ja gut, hatte andere UnzulÀnglichkeiten, aber das war schön...

Edit:Typo
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: DaBo87 und Tanzmusikus
Messt doch mal eine 6800 XT bei 100Hz, oder schaut was im Treiber angezeigt wird.

Bei mir:
100Hz - 31W, der VRAM taktet nicht runter
60, 85, 120Hz - 8W
 
  • GefĂ€llt mir
Reaktionen: bad_sign
ZurĂŒck
Oben