News AMD Adrenalin 23.7.1: Treiber soll Desktop-Leistungsaufnahme bei RX 7000 senken

IntoTheRed schrieb:
Was genau ist hier mit Idle gemeint?
Leerlauf. Desktop ohne alles. Einfach nur anstellen und zuschauen.
Kennt man auch bei Spiele auf Steam, die alleine vor sich hin laufen, ohne dass man selber daddelt.
 
Im Geiste vorheriger Zitate:

60 FPS Idle Workload?
 
NerdmitHerz schrieb:
@Blutschlumpf dem schließe ich mich an, weil:

wie hat sich der stromverbrauch im idle verbessert beim neuen treiber?

weil ich schwanke noch zwischen einer ab werk wassergekühlten rtx 4080 und einer 7900xt(x) (die ich dann selbst auf wakü umbaue)

jedoch sah ich bei CB, dass mit dem letzten treiber 86 Watt bei der 7900xt und 105 bei der 7900xtx ein nogo, bei 1080p240, 1440p240hz und 2x 1080p60hz, wenn ich die monitore auf 60hz im non-gaming-modus setzen müsste damit der stromverbrauch im idle nicht durch die decke wandert. in den pc wo die zukünftige gpu rein soll gibts zwar eh nur gamen oder nicht gamen (pc aus), jedoch hätte ich vorm spielstart gerne einen entspannten stromverbrauch
Tausende Euro für einen Computer ausgeben , aber dann im Idle Strom und Geld sparen wollen? Merkste selber, oder?
Vielleicht sollte man eher nach seinem Spielverhalten etc. gehen, welche Karte interessanter ist.
Mit den vielleicht 20 Euro Unterschied pro Jahr kannst du so oder so bei den angesetzten Kartenpreisen kein Geld sparen.
Nimm eine Kartenklasse darunter, schon sparst du durch geringere Leistungsaufnahme nicht nur stetig etwas Geld, sondern hast gleichzeitig schon vom Start weg mehr Geld eingespart, als du durch dieses ominöse Stromsparding jemals einsparen könntest.
Am meisten Strom spart man übrigens durch die Kombi AMD X3D und NVidia 4000er.
CPU bis zu 3x so effizient und GPU im Extremfall bei Raytracing auch bis zu 2x so viel FPS pro Watt.
Aber wie gesagt, wer sparen will, muss zu erst einmal Abstand von der extrem teuren Hardware nehmen udn dann vielleicht nur noch für die Hälfte im Mittelfeld was passendes suchen.
 
BxBender schrieb:
Tausende Euro für einen Computer ausgeben , aber dann im Idle Strom und Geld sparen wollen? Merkste selber, oder?
Egal ob Du mit dem Roller oder mit dem Hubschrauber unterwegs bist, sinnloser Mehrverbrauch dürfte die wenigsten erfreuen.
 
  • Gefällt mir
Reaktionen: Aekoric, NerdmitHerz, HansDetflefAndi und 4 andere
ich stimme da incurable zu. bzw die aussage bxbender ist halt einfach nicht richtig. wenn beide das gleich können und der eine nunmal mehr verbraucht, nehme ich den der "besser" ist
 
  • Gefällt mir
Reaktionen: incurable
Naja je nachdem wie man es sieht, kann man ja was das "Können" angeht ehh nicht direkt miteinander vergleichen. Da gibts ja dann noch sowas wie FG und RT Leistung, die einigen ja auch sehr wichtig ist (das soll keine Kritik sein).

Von daher kann ich das nicht nachvollziehen, wie man dieses Verbrauchsthema im idle als das ausschlaggebende Argument ansehen kann und ohne diesen Nachteil sogar eine 7900 XT oder XTX gekauft hätte.

Es gibt dann doch ein paar mehr Aspekte, die man bedenken muss. Den Kaufpreis der Hardware kann man ja auch nicht außer acht lassen.
 
Taxxor schrieb:
Frage mich wo diese Unterschiede dann noch her kommen sollen.
Naxtrumrar schrieb:
UHD 120Hz + WQHD 120HZ absolut keine Änderung. Weiterhin 120W im idle!
guggi4 schrieb:
Und dann gibt es noch den exorbitanten Verbrauch bei navi31 von teils 80W+, der nicht rein auf den VRAM Takt beschränkt sein zu scheint.
Nutzt ihr alle Windows 11?
Da soll es lt. Igor ja besonders hohe Leistungsverbräuche geben.


47x500 schrieb:
7900XTX+Dell G3223Q @UHD 144Hz =9Watt laut Treiber und GPU-Z im Idle, das waren bei Release mal 50+Watt.
FreeSync in Benutzung?


BxBender schrieb:
Leerlauf. Desktop ohne alles. Einfach nur anstellen und zuschauen.
Bei PCGH haben sie Mausbewegungen zugelassen (evtl. auch getätigt), also nicht nur reiner Idle.


og.echnaton schrieb:
wenn beide das gleich können und der eine nunmal mehr verbraucht, nehme ich den der "besser" ist
Besitzt Du eine AMD- oder eine Intel-CPU?
 
Zuletzt bearbeitet:
Tanzmusikus schrieb:
Bei PCGH haben sie Mausbewegungen zugelassen (evtl. auch getätigt), also nicht nur reiner Idle.
Auf der Liste mit Leistungsaufnahmeviren kommt mausbewegen direkt auf Rang 2 hinter Furmark.
 
  • Gefällt mir
Reaktionen: Taxxor
DevPandi schrieb:
Das merkt man ganz schnell wenn man einfach OpenGL (FurMark z.B.) bencht. Da gibt es nur eine bestimmte anzahl an "Cuts" was MHz und auch Verbrauch betrifft. Es gibt dort keine Hysterese...
Darauf hin kann man das auf DirectX/Vulkan runterbrechen (die einzelnen festen steps) und mit den Notizen (so habe ich es gemacht) gute Zwischensteps erzeugen damit man ungefähr weiss wo man wie mit der Voltage ansetzen muss für gutes UV :)

Das unterscheidet sich aber auch nach Bios Version von der Karte.
MBA, XFX und Sapphire haben da teilweise noch derbe Unterschiede untereinander... Die Sapphire hatte bei mir die größte Granulare "Einstellmöglichkeit" und war am Ende auch am effizientesten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: incurable
Relaxo32 schrieb:
Zum anderen, da die Vorgängergeneration einen guten Ruf hinsichtlich ihres Stromverbrauchs hat und diese Probleme, soweit ich weiß, dort nicht existier(t)en.

Die Kritik ist daher, in meinen Augen, valide und es sollte weiterhin erwähnt bleiben (ähnlich wie das DPC Latency Problem bei NVidia), bis es eben eine allumfassende Lösung gibt.
Boar - für dieses Problem wird es unter Umständen nie eine Lösung geben. Weil es nicht dieses Problem ist. Es sind viele Probleme.
Und wenn der Monitor Hersteller die Zeit sehr klein hält - kann da weder NV noch AMD was fixen. Dann muss der RAM hoch takten das in dem kurzen Zeitfenster sichergestellt werden kann das ein sauberes Bild ausgegeben werden kann.

Und nein auch die 6er hatten unter Dual-Monitor bereits die Problematik. Und die wurde meine ich von AMD nie als Fehler akzeptiert... Also wird es da keinen Fix geben..
Das ist auch ok. Wenn AMD damals das Produkt so definiert hat - dann ist das so.

Und noch was. Ja vielleicht bleibt zum Schluss ein Delta zu NV. Und? Eventuell ist das noch eine Schwachstelle des Chipletsesigns... Aber es ist die erste Iteration - das bekommen die bei AMD hin...
Im Chiplet Design liegt ja auch eine mögliche Lösung - Hybrid GPU Chiplets...
Ergänzung ()

JulianHD schrieb:
Aber wenn man eins sagen kann, dann definitiv nicht das AMD bei der Treiberentwicklung faul wäre und nichts voran geht. Vielleicht haben Sie den Fehler gemacht und gehen zu viele Probleme gleichzeitig an, wodurch es sich für den Endkunden so anfühlt als es passiere nichts.

Ja und was AMD macht - wissen wir - ist FSR3. Und das wird auch viele NV Kunden erfreuen - wenn AMD es hin bekommt das keine spezielle Hardware nötig ist. (Oder KI Einheiten nur einen weiteren Leistungsgewinn bringen)...
Ergänzung ()

DevPandi schrieb:
Und auch da hab ich einen Verdacht, wo das Problem liegen könnte.

Hab Takt und PowerStages bei verschieden Lasten als Daten erfasst.

Das Spoiler ich aber jetzt nicht! Morgen und übermorgen Testmarathon mit der 4090.
Bist du für CB an der Sache dran? Falls ja OMG - ich hab gehofft das wir jetzt bald mal Butter bei die Fische bekommen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
pilzsammler2002 schrieb:
Die Sapphire hatte bei mir die größte Granulare "Einstellmöglichkeit" und war am Ende auch am effizientesten.
Nur das diese Einstellmöglichkeiten am Ende nur die Symptome lindern, aber nicht das Problem beheben oder gar die Ursache verhindern.

Das Problem mit de P-States ist an der Stelle nur tiefgreifender - wie ja auch @Taurus104 bereits andeutet (nein, du musst nichts dazu schreiben!) - besser ausgedrückt: Die P-States sind ein Teil des Komplexes um RDNA3 und zwar egal ob Navi31 oder Navi33.

Bestimmte Probleme mit den P-States kann man mit weiteren Anpassungen der Firmware/VBIOS angehen und auch mit dem Treiber. Ich kann dir aber - ich Spoiler erneut etwas - jetzt schon sagen, dass alleine Verbesserungen am VBIOS oder wie bei dir mit UV - die Probleme von RDNA 3 nicht beseitigen werden.

Ich habe in den letzten Tagen 3 wichtige Sachen festgestellt, was RDNA 3 angeht - @Jan , @Wolfgang , @Vitche ich bin gerne bereit euch meine Daten auch vorher zukommen zu lassen, falls sie euch helfen.

1. Sobald die ROPs und TMUs ins Spiel kommen, wird bei RDNA 3 eine allgemeine Grundlast benötigt und es ist sehr schwer selbst mit härtesten Frame-Limits unter diese Grundlast zu kommen. Du kannst diese Problematik mit UV "mindern" aber nicht lösen!

2. Last auf den ROPs und/oder TMUs wirken sich auf den möglichen Takt der CU - spezieller VecALU und er Skalar-ALU aus.

3. RDNA3 ist ziemlich Grob, was seine Lastsprünge angeht.

Ich habe 2 Spiele - FF XIV und WoW - mit entsprechenden Framelimits getestet. Dazu kommen Tests mit FSR und RT in einem Framelimit und ohne Framelimit und auch dabei ziemlich interessante Sachen festgestellt, was RDNA3 angeht.

Und um eines klar zu stellen: Ich mag RDNA 3, immer noch, mein neues Hobby verändert nur den Blick auf die Grafikkarte und daher werkelt jetzt eine andere bei mir drin. Ich würde die Karte auch immer noch empfehlen. Nur man muss sich dieser Punkte bewusst sein und auch diese Punkte ansprechen, weil nur so AMD auch diese Punkte ggf. mit RDNA5 angeht - für RDNA4 ist es wohl zu spät, oder AMD ist es da selbst angegangen.

Und auch wenn ich es nicht "gerne" zu gebe, aber das Verhalten, so wie ich es fest gestellt habe, untermauert die Gerüchte nach einem Hardware-Issue in der Renderpipeline und ich denke sogar, dass wir die CU hier ggf. sogar rausnehmen können und uns eher die ROPs ansehen müssten.

Genug Gespoilert.
Ergänzung ()

Novasun schrieb:
Bist du für CB an der Sache dran? Falls ja OMG - ich hab gehofft das wir jetzt bald mal Butter bei die Fische bekommen...
Nein, ich hab mir die Tage eine RTX 4090 besorgt, weil ich mit KI als Hobby angefangen habe und dem entsprechend jetzt einen neue Leserintest vorbereite. Ich habe im Zuge dessen auch mal Teillast-Szenarien, Compute-Szenarien aber auch FSR/DLSS mi auf die List egeschrieben und habe dabei einige interessante Beobachtungen gemacht.

Ich werde Morgen und Übermorgen die RTX 4090 vermessen und dann entsprechend zum Sonntag - hoffentlich - alle Erkenntnisse zusammen fassen.
 
  • Gefällt mir
Reaktionen: V_182, Tanzmusikus, pilzsammler2002 und 8 andere
BxBender schrieb:
Tausende Euro für einen Computer ausgeben , aber dann im Idle Strom und Geld sparen wollen? Merkste selber, oder?
Vielleicht sollte man eher nach seinem Spielverhalten etc. gehen, welche Karte interessanter ist.
Mit den vielleicht 20 Euro Unterschied pro Jahr kannst du so oder so bei den angesetzten Kartenpreisen kein Geld sparen.
Nimm eine Kartenklasse darunter, schon sparst du durch geringere Leistungsaufnahme nicht nur stetig etwas Geld, sondern hast gleichzeitig schon vom Start weg mehr Geld eingespart, als du durch dieses ominöse Stromsparding jemals einsparen könntest.
Am meisten Strom spart man übrigens durch die Kombi AMD X3D und NVidia 4000er.
CPU bis zu 3x so effizient und GPU im Extremfall bei Raytracing auch bis zu 2x so viel FPS pro Watt.
Aber wie gesagt, wer sparen will, muss zu erst einmal Abstand von der extrem teuren Hardware nehmen udn dann vielleicht nur noch für die Hälfte im Mittelfeld was passendes suchen.

dir ist bewusst, dass man mit einem Computer nicht immer spielt. sondern auch mal im browser surft oder youtube video guckt. da will ich keinen hohen stromverbrauch haben.

nur weil du deinen pc nur zum spielen nutzt, wird das nicht jeder user so machen. tellerrand und so

zum anderen wieviel der pc wert ist, siehst du so oder so nicht und am ende ist es immer noch meine sache.

weil wenn ich wirklich strom sparen will, dann lasse ich einfach den office-pc (5600g, B550, 1 TB m2 + 64 GB DDR4-3600c16 laufen), dann kann im Gaming-pc eh stecken was will.

nur weil ich im idle strom sparen will und werde, heißt das nicht im umkehrschluss dass man sich eine kartenklasse tiefen kaufen sollte. zum anderen wird mein gaming-pc viele jahre genutzt, da will ich mir nicht in paar jahren wieder ne neue karten kaufen müssen weil diese dann nicht mehr reicht. zum anderen wenn der nachfolger der rx 6600 mir nicht mehr reichen sollte (am6 oder iwas bei intel), dann wandert die karte einfach in den render-pc und da kann ich dann von av1 profitieren.

zudem ist meine hardware nicht extrem teuer. dabei kommt es drauf an, was du als extrem teuer erachtest. für den einen user sind beispiel 1000€ extrem teuer, der nächste gibt 1000€ für nur eine gpu aus und der wieder nächste baut sich von 1000€ einen pc inklusive grafikkarte. es liegt immer im ermessen des nutzers selbst und was er mit dem pc vorhat.

so verallgemeinern kann man diese sache nicht

zu deinem

Merkste selber, oder?

geh ich mal lieber nicht drauf ein. reicht ja schon, wenn du dieses niveau bedienst
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Oudenstekelig, HansDetflefAndi und eine weitere Person
DevPandi schrieb:
Und auch wenn ich es nicht "gerne" zu gebe, aber das Verhalten, so wie ich es fest gestellt habe, untermauert die Gerüchte nach einem Hardware-Issue in der Renderpipeline und ich denke sogar, dass wir die CU hier ggf. sogar rausnehmen können und uns eher die ROPs ansehen müssten.
Falls das deferred Lighting die ROP´s unnötig in die Höhe treibt, könnte man mal Licht+Schatten von Ultra auf High runternehmen.(falls Du in einem speziellen Game das besonders auffällig findest)

weiss jetzt net ob man da einfach den alten Superposition-Benchmark schon nehmen könnte oder ein neueres Game braucht mit extrem übertriebenen Ultra-Settings

Das Ganze sollte ja schon ohne RT auffallen. in Vollast und Teillast
Teillast bitte in WQHD@60fps, wo Wolfgang so gute Watts gemessen hatte
und z.Vgl. mit 4k@FSR2quality, ... müsste die gleiche eff.Resi sein

Effizienz@60Fps.jpg


btw.
Ne XTX in FHD@60fps zu vermessen halte ich dagegen für realitätsfern.
Die Krone kann sich Jensen gerne aufsetzen.
Ob man praktisch 4k mit TAA oder FSR2 laufen lässt hängt wohl vom jeweiligen Game und der Umsetzung ab.
(TAA vermanscht halt die Texturen und man würde nachträglich mit Sharpen versuchen, wieder auf ne annehmbare
Bildqualität zu kommen)
 
Zuletzt bearbeitet:
GerryB schrieb:
Ne XTX in FHD@60fps zu vermessen halte ich dagegen für realitätsfern.
Es geht bei solchen Tests eher darum, dass man der Architektur auf den Zahn fühlen kann, wie gut die P-States sind und wie effektiv die Grafikkarte damit umgeht und ob dann auch innerhalb der P-States entsprechend der Chip auch skaliert.

Wie gut/schlecht eine Architektur ist, merkt man nur in den Extremen.
GerryB schrieb:
Falls das deferred Lighting die ROP´s unnötig in die Höhe treibt, könnte man mal Licht+Schatten von Ultra auf High runternehmen.
Licht, Schatten haben damit wenig zutun. Die ROPs sind „auch“ für das finale Bild zuständig und entsprechend kann hier auch der Grund für die hohe Leistungsaufnahme beim Desktop liegen.

Meine Vermutungen kommen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und incurable
Hallo ich habe gestern den IDLE Energieverbrauch meiner neuen Saphire Pulse RX 7600 vermessen. Treiber ist Version 23.7.1 . Gemessen habe die Differenz zuerst ohne Grafikkarte (mit interner Grafik) und dann mit Grafikkarte eingebaut. Diese Ergebnisse stimmen übrigens auch mit den Messergebnissen von GPU-Z überein. CPU-Grafik ist ein AMD Ryzen 4650G . Ich kann nur für meinen spezielle Fall reden, mit zwei Monitoren mit nur 1650x1050 bei 60Hz (das Thema ist ja sehr komplex bzw. sehr von Auflösung und Frameraten und Einstellungen abhängig.). Wegen CPU Ryzen 4650G ist bei mir aktuell nur PCI-E 3.0 aktiv. Win10. Kein Freesync.

Saphire Pulse Radeon RX 7600
IDLE
  • 1 Monitor 1650x1050@60Hz: ca. 6W
  • 2 Monitore 1650x1050@60Hz: ca. 6-7W


Desktop - Fensterbewegung
  • 1 Monitor 1650x1050@60Hz: ca. 10-14W
  • 2 Monitore 1650x1050@60Hz: ca. 11-14W

Ich selbst bin mit diesen Ergebnissen schon sehr zufrieden - interessant finde ich, dass bei mir ein zweiter Monitor fast keinen Unterscheid macht. Kann nicht sagen, ob es bei einem älteren Treiber schlechter ist.

Klar, ich verstehe, dass mein Setup nicht mehr aktuellster Stand ist, aber vielleicht sind die Ergebnisse trotzdem für manche interessant.
 
Zuletzt bearbeitet:
Mahlzeit,

ich habe eine Sapphire Nitro+ 7900 XTX und einen Idle Verbrauch bei 79w.
Monitor: LG OLED 48" @120hz/2160p
 
Wird Win11 oder/und Freesync genutzt?
 

Anhänge

  • 120 Hz optimiert 119Hz.jpg
    120 Hz optimiert 119Hz.jpg
    364,4 KB · Aufrufe: 118
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: style2k6, McTheRipper und NerdmitHerz
Zurück
Oben