News AMD Adrenalin 23.8.1: Grafiktreiber geht erneut den Desktop-Stromverbrauch an

Chismon schrieb:
Naja zum Idle Powerdraw von Intel GPUs gibt es halt auch nur einen offiziellen Workaround.
Und bei DX11 arbeitet man nun mit einer Whitelist. Es ist halt die Frage für wen so etwas wie Presentmon alles tatsächlich relevant ist.
Ich sehe es eher so, was Intel derzeit liefert ist schlicht das Pflichtprogramm wenn sie zum Kauf von zukünftigen Intel GPUs überzeugen wollen. Zudem sollte der Treiber von Battlemage von Anfang an etwas besser funktionieren.

Thema Nvidia. Die arbeiten im Moment an DLSS 3.5 mit Ray Reconstruction um ein neues Marketing Argument zu haben für RX4000.

Du hast sicherlich recht das AMD derzeit noch mit FSR3 bzw. Fluid Motion Frame Technologie bzw. HYPR-RX beschäftigt ist.
Da der Release aber nun bald ansteht denke ich das man hier bereits mehr an einer Weiterentwicklung arbeitet, nicht mehr an den Grundlagen des Features.
Ergänzung ()

Pesky_ schrieb:
Macht auf 3 Jahre 82,56 / 105,48€ an Mehrkosten.
Und das ist für dich, auf den Zeitraum gerechnet tatsächlich relevant oder ein relevanter Vorteil?

Vorallem wenn man noch einen Highend PC nutzt mit Highend CPU etc.
Wie ich es geschrieben hab, für wen dieser Euro betrag ausschlaggebend ist ob er sein hobby ausleben kann oder nicht sollte eventuell andere Sachen überdenken.

Man kann ja auch auf Sparsamere Hardware setzen.

100 Euro auf 3 Jahre ist nichts was nicht planbar ist. Meine Meinung.
Ergänzung ()

LadyAlice schrieb:
Den habe ich halt aktuell auch noch installiert (also den 23.7.1) und bin soweit zufrieden und denke die fps drops kommen eher von bg3 (akt 3 aktuell).
Schon getestet auf Vulkan als Api zu wechseln von DX11?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: C0rteX, Slayn und Chismon
Taurus104 schrieb:
Es ist halt die Frage für wen so etwas wie Presentmon alles tatsächlich relevant ist.

Naja, wohl auch für Verbraucher/Kunden, wie das Beispiel von Tom Peterson ja zeigt, dass die Leistung der Grafikkartenklasse direkt mit der Leistung der CPU-Klasse in einem Zusammenhang steht (die A750 dGPU besser mit einem Intel i5 als einem i9 Prozessor zusammenläuft, was die Abstimmung auf FrameTimes angeht), was ich sehr interessant fand.

Normalerweise kauft man ja in ähnlichen Leistungsklassen ein, aber manchmal gibt es eben wegen des Budgets auch Kompromisse beim PC Systemkauf, etwa Mittelklasse Gaming-CPU und Performance-/Oberklasse dGPU.

Bei mir sind es eben i7-12700 und RX 6800XT, welche beide zu den Kaufzeitpunkten eigentlich noch (untere) Oberklasseprodukte waren, aber es gibt auch Leute, die sich eine Mittelklasse 6 Kerne-CPU (i5/R5) kaufen und dazu eine RTX 4090 aus der Luxus-/Enthusiastenklasse, was für die Frame Times dann doch nicht so optimal sein könnte.

Taurus104 schrieb:
Zudem sollte der Treiber von Battlemage von Anfang an etwas besser funktionieren.

Ja, das wäre auch meine Hoffnung, aber die Frage ist wie sehr sich die Architektur von Battlemage im Vergleich zu Alchemist ändern wird und dann nicht wieder viel umgekrempelt werden muss, zumal Battlemage schon lange in der Entwicklung war als Alchemist dann verspätet mit den anfänglichen Treiberproblemen erschienen ist.
Bestimmt arbeitet man da bei Intel schon daran, aber zu hoch würde ich meine Erwartungen zum Marktstart diesbzgl. nicht hängen, insbesondere, wenn die Architektur von Battlemage sich sehr anders als bei Alchemist gestaltet und vieles nicht einfach, was für Alchemist optimiert wurde, einfach übernommen werden kann (im dGPU Bereich ist die Intel Abteilung immer noch um vieles kleiner als bspw. die von nVidia).

Taurus104 schrieb:
Nvidia. Die arbeiten im Moment an DLSS 3.5 mit Ray Reconstruction um ein neues Marketing Argument zu haben für RX4000.

Ja gut, stimmt, irgendein neuer Marketing-Hype muss ja von nVidia wieder gesetzt werden, wenn sich die RTX 5000er Generation (Blackwell?) angeblich verspätet, für die dann ja erst die neurale Texturkompression angesetzt ist.
Es fehlt aber eigentlich noch der Ada Lovelace ("Super") Refresh, denn ob wegen DLSS3.5 noch grossartig mehr Leute anbeissen (die RTX 4000er dGPU Spezifikationen und mieses Preis-Leistungsverhältnis bleiben ja sonst so, also unattraktiv/unangemessen wie zuvor).

Taurus104 schrieb:
FSR3 bzw. Fluid Motion Frame Technologie bzw. HYPR-RX beschäftigt ist.
Da der Release aber nun bald ansteht denke ich das man hier bereits mehr an einer Weiterentwicklung arbeitet,

Hoffen wir, dass FSR3 und HYPR-RX halbwegs gut ab Start laufen und implementiert werden (nicht nur in Starfield) und da nicht noch ewig Ressourcen zur Nachoptimieruing/Verbesserung angesetzt werden müssen im Nachhinein (was mich leider bei AMD/RTG nicht wundern würde ... "fine wine" Tradition eben ;) ).
 
Zuletzt bearbeitet:
LadyAlice schrieb:
Mit Vulkan hab ich bei bestimmten Effekten grafikfehler (Effekte leuchten pink), aber das etwas OT
Das schreibt doch aber Larian selbst auf ihrer Webseite zum Spiel: Vulkan ist noch buggy, aber teilweise performanter. Sie empfehlen deshalb Vulkan, was auch der Standard beim Starten ist. In Problemfällen gibt es dann die BG3_dx11.exe zum Starten der DirectX11-Version.

Ich nutze mittlerweile auch DX11, da damit auch Screenshots funktionieren. Mit Vulkan leider (noch) nicht.
Mittels DXVK kann man sogar das Spiel über die DX11-Api zu Vulkan übersetzen. Das könnte in einigen Fällen vielleicht sogar mehr FPS oder glattere Frameverläufe bringen. Mit meiner RX 5700 XT läuft das Spiel sehr gut.
 
Bei mir ist vom Adrenalin 23.7.2 zum 23.8.1 genau das Gegenteil der Fall.

Idle 23.7.2. ~16w.
Idle 23.8.1. ~80w.

Völlig egal ob Freesync on/off ob im Treiber/Windows.

wtf...
 
Keine weitere Verbesserung beim Idleverbrauch bei mir im Vergleich zu 23.7.2. Aber 18w - 21w im Idle mit einer 7900 XTX ist denke ich auch in Ordnung.

Hat mich aber tatsächlich ein bisschen verwundert das jetzt vor der GamesCom noch eine neue Treiberversion erschienen ist, dachte eher es folgt eine neue Version mit der Veröffentlichung für FSR 3.0. :)
 
Hatsune_Miku schrieb:
https://www.computerbase.de/forum/threads/blu-ray-wiedergabeprobleme-mit-amd-system.2123796/ das hier und das Problem das in VRchat einige Videoplayer stottern, das ist ein Decodingproblem, weil über SW also die CPU läufts einwandfrei, frisst aber leistung was nicht sein muss.
Hm. Das Problem wird halt nirgends offiziell als Bug oder technisches Problem geführt
Gab es schon Bug Reports an AMD?
Ergänzung ()

JulianHD schrieb:
Keine weitere Verbesserung beim Idleverbrauch bei mir im Vergleich zu 23.7.2. Aber 18w - 21w im Idle mit einer 7900 XTX ist denke ich auch in Ordnung.

Hat mich aber tatsächlich ein bisschen verwundert das jetzt vor der GamesCom noch eine neue Treiberversion erschienen ist, dachte eher es folgt eine neue Version mit der Veröffentlichung für FSR 3.0. :)
FSR3 erscheint erst mit dem 23.9.1 der dann auch die neuen GPUs Supported.
Ergänzung ()

lamma schrieb:
Bei mir ist vom Adrenalin 23.7.2 zum 23.8.1 genau das Gegenteil der Fall.

Idle 23.7.2. ~16w.
Idle 23.8.1. ~80w.

Völlig egal ob Freesync on/off ob im Treiber/Windows.

wtf...
Teste mal in den Windows Einstellungen VRS on/off.
 
  • Gefällt mir
Reaktionen: CheersItsJulsn
Endlich! 7900xtx von 100-112Watt (wqhd240+hd60) auf 35-56watt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czk666, C0rteX, McTheRipper und 2 andere
Macht ihr generell den neuesten Treiber drauf, oder lasst ihr, sofern alles gut ist, den Treiber längere Zeit unberührt.
Meint ihr, dass noch ein Starfeld Treiber kommt, oder ist es dieser hier bereits? Erwähnt wird es ja nicht.

Sorry für meine Fragen, bin neu bei AMD.
Treiber einfach drüberbügeln, wie ist das beste Prozedere?
 
Neodar schrieb:
Der Artikel beruft sich aber lediglich auf irgendeinen Twitter User, der da wohl Probleme hatte.

Bei nem scheiß Handhalde - sprich in ner Nische die die meisten null interessiert. Ich habe ihn als Troll gemeldet - wenn ich schreiben würde was ich von ihm halte würde mein Post im Aquarium landen...
Und der Fehler ist an sich banane - denn so schnell wie er kam wird der gefixt. Die 780m wird intern plötzlich als 760m erkannt - ja kostet Leistung aber nichts weltbewegendes... Der ganze Artikel auf den er sich bezieht ist reines Clickbait denn im Artikel selbst kommt dann- seid Jahren keine größeren Fehler mehr und wenn man im Jahr wie AMD dozen of Treiber Released kommt es dann auch mal zu so nem Fehler... Sprich doch nicht so schlimm alles... Richtig nicht wirklich der Rede wert...
 
Ich warte auf den Treiber mit dem Starfield "optimiert" wird! :D
23.8.2 wird das dann wohl sein, hoffe der Treiber erscheint nicht direkt am 1.September sondern einen Tag vorher!
 
Tiara G. schrieb:
Macht ihr generell den neuesten Treiber drauf, oder lasst ihr, sofern alles gut ist, den Treiber längere Zeit unberührt.

Never touch a running System. Ist die Grunddevise bei Treibern und Firmware. Also wenn du nichts hast was dich negativ beeinflusst musst du erstmal nicht aktiv werden.
Aber heute macht es insbesondere bei der GPU schon Sinn spätestens alle 6 Monate mal nen Update zu machen...
Gerade wenn du zockst weil halt für aktuelle Titel Performance Verbesserungen oder Bugfixes kommen. Der Treiber für Starfield wird noch kommen - das wird dann im Treiber stehen.
Solange du deine Hardware nicht wechselts einfach das Setup ausführen.. Das deinstalliert im Zweifel dann eh.. Beim wechseln von NV zu AMD wirst du externe Tools im sicheren Modus nutzen müssen oder gleich Windows neu aufsetzen...
 
  • Gefällt mir
Reaktionen: Tiara G.
Taurus104 schrieb:
Hm. Das Problem wird halt nirgends offiziell als Bug oder technisches Problem geführt
Gab es schon Bug Reports an AMD?
Ergänzung ()


FSR3 erscheint erst mit dem 23.9.1 der dann auch die neuen GPUs Supported.
Ergänzung ()


Teste mal in den Windows Einstellungen VRS on/off.
Ja habe schon mehrfach Bugreports gesendet, desweiteren auch mehrmals Threads in den AMD Foren diesbezüglich geöffnet.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Taurus104 schrieb:
Und das ist für dich, auf den Zeitraum gerechnet tatsächlich relevant oder ein relevanter Vorteil?
Darum ging es mir bei der Rechnung nicht, sondern um den Preisvorteil von AMD, welcher durch diesen Betrag größtenteils wieder zunicht gemacht wird (Bsp. 7900XTX Endkosten 1100€ zu 4080 1200€).
 
Ich nehme seit 3 Jahren jede Treiberversion ohne Werksreset oder ähnliches mit. Einfach über das Treibermenü. Man kann natürlich 1 Woche warten ob es vielleicht einen Bug gibt, aber ich würde mindestens alle 3 Monate updaten. Einmal gab's ein Problem mit HDR, aber das wurde sehr schnell gefixt.

Wenn die Architektur neu ist, würde ich jeden neuen probieren.
 
  • Gefällt mir
Reaktionen: Tiara G.
Tiara G. schrieb:
Macht ihr generell den neuesten Treiber drauf, oder lasst ihr, sofern alles gut ist, den Treiber längere Zeit unberührt.
Meint ihr, dass noch ein Starfeld Treiber kommt, oder ist es dieser hier bereits? Erwähnt wird es ja nicht.

Sorry für meine Fragen, bin neu bei AMD.
Treiber einfach drüberbügeln, wie ist das beste Prozedere?
Es ist eigentlich so gut wie in Stein gemeißelt das noch ein Starfield optimized Treiber kommt :)
Ich persönlich update eigentlich einfach immer über die AMD Software. Denke bei jedem Treiber ein DDU zu machen ist auch bisschen zu hart und nicht nötig.

Novasun schrieb:
Never touch a running System. Ist die Grunddevise bei Treibern und Firmware. Also wenn du nichts hast was dich negativ beeinflusst musst du erstmal nicht aktiv werden.

Seh ich nicht so, weil genau dadurch entstehen die Probleme erst, wenn man über lange Zeit einfach nichts macht. Wir sind mittlerweile in einer Zeit wo man die Firmware einfach updaten kann, ohne ein hohes Risiko dein Gerät zu bricken.

Bei Treibern ist es genau das gleiche, betreibt eure Systeme nicht mit uralten Treibern, als Dev von Software kann man nicht alle Konfigurationen nachstellen & testen. Und gerade dann wenn man upgradet ist die Chance hoch das es eben nicht klappt weil der Sprung riesig ist.
 
  • Gefällt mir
Reaktionen: McTheRipper und Tiara G.
Ein angeblich ehemaliger Treiber-Entwickler hatte sich zu der Problematik mal geäußert:

1692718309529.png


Das passt auch zu dem Umstand, dass verschiedene Display Konfigurationen und Konstellationen ständig zu anderen Ergebnissen führen.


Trotz allem scheint Nvidia das weitaus besser im Griff zu haben. Und so ganz befriedigend ist die Situation trotzdem nicht, wenn Laptop Chips problemlos 2 Monitore (120 Hz + 60 Hz) befeuern können und dafür nur 2W benötigen.
 
  • Gefällt mir
Reaktionen: ATIst, Hibbelharry, .fF und 3 andere
Pesky_ schrieb:
Darum ging es mir bei der Rechnung nicht, sondern um den Preisvorteil von AMD, welcher durch diesen Betrag größtenteils wieder zunicht gemacht wird (Bsp. 7900XTX Endkosten 1100€ zu 4080 1200€).
Okay. Das ist schon korrekt. Man hat aber trotzdem faktisch mit 100 Euro auf 3 Jahre keinen Praxisrelevanten Vorteil durch den besseren Stromverbrauch von Ada zu RDNA3.
Theoretisch natürlich.
Ergänzung ()

Hatsune_Miku schrieb:
Ja habe schon mehrfach Bugreports gesendet, desweiteren auch mehrmals Threads in den AMD Foren diesbezüglich geöffnet.
Ich kann es zum Ende der Woche mal beruflich weitergeben auf dem "kurzen Dienstweg". Versprechen kann ich natürlich nix.
 
Zurück
Oben