News AMD Adrenalin 23.8.1: Grafiktreiber geht erneut den Desktop-Stromverbrauch an

4nanai schrieb:
Das passt auch zu dem Umstand, dass verschiedene Display Konfigurationen und Konstellationen ständig zu anderen Ergebnissen führen.
Hört sich ziemlich glaubwürdig an. Fand es schon immer skurril, dass meine 6600 quasi zwischen keinem Takt und Max VRAM Takt bei Videowiedergabe pendelt. Dazwischen gibt es meist nichts.
 
Pesky_ schrieb:
Das kann man ja ganz nüchtern nachrechnen.
Beispiel 4080 vs 7900XTX (...) 3h Youtube + 3h zocken pro Tag, 7 Tage die Woche, alles in 4k.
Da haben wir bei der 7900XTX (...) pro Jahr 27,52€ (ohne FPS Limit), mit Limit 35,16€ pro Jahr.
Macht auf 3 Jahre 82,56 / 105,48€ an Mehrkosten.
Eine 4080 kostet ca. 200€ mehr (...)
HAHA du bist ja lustig. den verbrauch der 4080 für's gleiche szenario hast du einfach unter den tisch fallen lassen oder wie? how convenient...
 
Hallo, bei mir ist (war immer) alles in Ordnung im Idle mit den vorigen Treibern u. 23.8.1 - ist allerdings nur ein Bildschirm.
Beim Spielen oder so schaue ich jetzt nicht so auf den Verbrauch.

23.8.1_Idle.png

AMD Grafikkarten müssen wohl in Zukunft Strom produzieren damit niemand mehr von Schrotttreibern redet oder schreibt.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts, danyundsahne, spw und 3 andere
ATIst schrieb:
Vermute mal, für den Verbrauch der RX6000 Serie bei Niedriglast-Szenarien besteht keine Hoffnung mehr :(

Warum ich habe es hier dokumentiert und jemand anders auch.

Man braucht nur Reddit oder hier das Forum danach durchforsten.

eine holschuld.

Es liegt am Webseiteneigentümer wichtige Posts zu markieren. Ich bin kein Admin oder Mod hier.

Das W11Pro ein STromfressser ist mit 8 bis 11 Watt im Idle anstatt 6Watt in Gnu gentoo linux ist auch offensichtlich.

Wenn jemand der Verbrauch wichtig ist, sollte er sein ganzes Setup überdenken. Kein RGB, usw.
 
Reden wir jetzt im ernst darüber bei 1000 Euro Pixelschubsern auf 3 Jahre 80 Euro mehr Strom zu zahlen und 1 dB mehr Lautstärke zu haben?

Die Probleme möchte ich haben. Da stören mich ganz andere Sachen bei der Konkurrenz. Aber lassen wir das Thema lieber.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts und Illithide
Der Idle von meiner RX 7900 XT ist bei mir mit 4k 60hz + 1440p 144hz auf 9 Watt runter.
Mit Discord + Youtube Video schwankt es zwischen 20 Watt bis 44 Watt herum.
 
  • Gefällt mir
Reaktionen: Qyxes, Czk666, HierGibtsNichts und eine weitere Person
neuhier08 schrieb:
credits vergessen?
Danke für deinen Hinweis, aber ich wollte @Wolfgang nur darauf hinweisen, dass beim Thema des Idle-Verbrauchs wahrscheinlich wieder "Arbeit droht". ;)

Vitche schrieb:
Wir berichten über Technik, Spiele etc. und nicht Infleuencer-Beef.
Sehr lobenswerte Einstellung. Einer der Gründe, warum ich lieber CB ansteuere statt vieler anderer Seiten. :)
 
  • Gefällt mir
Reaktionen: neuhier08 und Vitche
Wer sich später darüber beschwert hat sich vorher nicht informiert.
Die Leute brauchen nicht vom Verbrauch einer Radeon 6700XT bzw. 6750XT / 6950XT reden.
Das ist die schlimmste Stromfresserkarte in dieser Generation.
 
  • Gefällt mir
Reaktionen: McTheRipper und Illithide
Ich finde solche Verbrauchsberechnungen immer etwas schwammig. Bei meiner alten RX590 hieß es auch immer STROMFRESSER!
Ich nutze den PC vielleicht 10 Stunden die Woche. Und die GPU läuft da auch nicht Nonstop Vollast. Bis sich da die Beschaffungskosten relativiert haben ist die GPU schon lange im Himmel.
Es richtet sich wirklich stark an die Anforderungen des Nutzers.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und AssembIer
Vitche schrieb:
Bei solchen Schlammschlachten machen wir nach Möglichkeit nie mit. Wir berichten über Technik, Spiele etc. und nicht Infleuencer-Beef. Sowas hätte höchstens im Podcast mal Platz.

Leider kann man nur einmal liken.
Halb YouTube ist voll mit Influenza die sich gegenseitig denn Gar ausmachen will. Man muss an jeder Ecke Appelle an die niederen Triebe in einem abwehren, weil alles nur noch auf das Primitivste in uns abzielt um irgendwie in all den Chaos unsere Aufmerksamkeit zu erregen. Aber ich - und viele andere hier bestimmt auch - will das gar nicht.
Ich möchte Fakten und sachliche Informationen über mein Hobby und mich auch auf einem semi-professionellen Niveau (das bietet PCGH z.b. auch, aber man merkt: die haben einen viel größeren Monetarisierungsdruck durch irgendeinen Verlag + Investoren) damit auseinandersetzen. Ewig lange Forumsdiskussionen mit Meinungen und Gefühlen wer da jetzt für wen und warum ist... Sind einfach niveau- und nutzlos.

Also alle Daumen hoch für die tolle Einstellung (ich hoffe der ganzen) Redaktion!
 
  • Gefällt mir
Reaktionen: Teeschlürfer, V_182, Slayn und 2 andere
Redundanz schrieb:
das heißt je nachdem ob fps limit oder nicht, hast du die 4080 mehrkosten nach 6-7 jahren wieder drin. nicht schlecht!!!
Ok ja, die vollen 200€ hätte ich bei meinem Profil tatsächlich erst nach 6 Jahren voll. Hoffen wir mal, dass der Strompreis nicht steigt :D
 
6900XT+AORUS FO48U
Chrome Browser Hardware Beschleunigung an.
GPU-Z und HWiNFO64

SDR 10bit 4K 120Hz

Der Idle Strom GPU geht Problemlos auf unter 10Watt, auch wenn im Hintergrund(nicht sichtbar) ein Video läuft. GPU Speichertakt fällt dementsprechend.

HDR 10bit 4K 120Hz

GPU frisst eiskalt 15-20Watt mehr im Idle ohne wenn und aber.
Scheinbar fressen Apps dort Leistung, Ohne Steam und Co geht auch die last runter, auch wenn es rumspringt.


Was ich nicht verstehe, das man egal im SDR oder HDR Modus die gleiche Leistung braucht um das gleiche Video anzusehen. Ein SDR 1440p60Hz YouTube Video braucht rund 40Watt, auch mit deaktivierten Apps.


Kurzer Fazit:

Unter SDR Stromspar Funktion scheinbar geben, aber mit HDR ist noch der Wurm drin?
Scheinbar fressen im Hintergrund noch Steam/EA und Co. im HDR Modus. Aber dafür kann der Treiber ja nix.
2h gerade rumgetestet.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Wechhe
Zwiegespalten ... im Vergleich zum Vorgänger verbraucht meine 7900XT nun beim 1440p Video knapp 15-20w weniger. Richtig in den Idle runter war vorher schon kein Problem.

Wo der alte Treiber bei 2x 120Hz 1440p mittelmäßig unterwegs war, dreht der Speichertakt bei der neuen Version zum Anschlag auf.
 
20 Jahre später noch immer sie selben Probleme bei AMD, unbegreiflich. Wenn die so weitermachen wird Intel sie komplett aus dem Gpu Markt verdrängen in ein paar jahren. RT ist bei Intel jetzt schon besser wenn man es in Relation setzt und XESS ebenfalls besser als FSR. So wenig Marktanteile wie jetzt hatten sie noch nie.

AMD fehlt oder will nicht in deren Gpu Sektor Budget pumpen, was die anderen beide locker können wird wohl alles für Ryzen draufgehen. Was auch gut ist nutze Ryzen seit 2017 durchgehend. Aber eine AMD Gpu würde ich nicht einmal mit der Kneifzange anfassen. Nvidia ist um Lichtjahre voraus.

https://www.mydealz.de/deals/xfx-sp...b-gddr6-hdmi-2x-dp-starfield-mindstar-2219881

Wären die Probleme nicht wäre diese Gpu schon attraktiv mit Starfield. Wenn sie auch um 650 hätte releasen müssen aber wenn man keine anteile will.
 
JulianHD schrieb:
Bei Treibern ist es genau das gleiche, betreibt eure Systeme nicht mit uralten Treibern, als Dev von Software kann man nicht alle Konfigurationen nachstellen & testen. Und gerade dann wenn man upgradet ist die Chance hoch das es eben nicht klappt weil der Sprung riesig ist.

Der Sprung bei Treibern spielt in der Regel gar keine Rolle. Auch deine Befürchtung das alte Treiber zu Problemen führen. Ich betreibe noch ne GTX 670! Dafür bekomme ich nichts neues an Treibern... Sie läuft aber ohne Probleme... Wegen der GPU hat noch kein Spiel die Zusammenarbeit verweigert (ausser VRAM zu wenig) - da ist mei alt OS zu erst zur Bremse geworden - weil es echt Games gibt die auf Win7 nicht mal mehr starten...

Und lese meinen Beitrag ganz. Bei aktueller GPU würde ich auch spätestens mal alle 6 Monate nen Treiber aktualisieren - vor allem wenn man aktuelle Spiele spielt... Und warum hab ich auch dargelegt...
 
Tiara G. schrieb:
Macht ihr generell den neuesten Treiber drauf, oder lasst ihr, sofern alles gut ist, den Treiber längere Zeit unberührt.
Meint ihr, dass noch ein Starfeld Treiber kommt, oder ist es dieser hier bereits? Erwähnt wird es ja nicht.
Ich aktualisiere den Grafiktreiber, wenn er expliziten Support für ein Spiel mitbringt, das ich spiele, ein Bug gefixt wird, der meine Hardware betrifft, oder nach ca. 3-6 Monaten.
 
  • Gefällt mir
Reaktionen: Tiara G.
Taurus104 schrieb:
Okay. Das ist schon korrekt. Man hat aber trotzdem faktisch mit 100 Euro auf 3 Jahre keinen Praxisrelevanten Vorteil durch den besseren Stromverbrauch von Ada zu RDNA3.
Theoretisch natürlich.
Ergänzung ()


Ich kann es zum Ende der Woche mal beruflich weitergeben auf dem "kurzen Dienstweg". Versprechen kann ich natürlich nix.
Das wäre super wenn AMD da mal was machen würde, Ich weiss halt nicht wie man AMD sonst kontaktieren könnte, entweder forum und/oder Bugreport. Kenne inzwischen auch einige die genau wegen diesem Bug in VRchat von AMD auf NV wechseln wollen.
 
Zurück
Oben