News AMD Adrenalin 23.7.1: Treiber soll Desktop-Leistungsaufnahme bei RX 7000 senken

Mrbrill schrieb:
Es spielt ja dann keine Rolle wenn ich für alle Karten das gleiche Tool nehme.

Also wenn ich zb GPU-Z nehme und da eine Karte 100W anzeigt und die andere 20W dann ist das ja durchaus aussagefähig, ob die realen Werte dann höher sind spielt denke ich dann ja erstmal keine Rolle.
Nein, weil AMD bis RDNA 2 nur den Verbrauch von Chip+Speicher angegeben hat, ohne Spannungswandler- und Platinenverluste, Lüfter, etc.
Erst mit mit RDNA3 misst man die komplette Karte, deshalb sind die Werte nicht vergleichbar.
NVidia misst schon länger die komplette Karte (außer bei der 4060, bei einer 330€ Karte war kein Budget mehr übrig für den Shuntwiderstand und den Controller 😂)
 
  • Gefällt mir
Reaktionen: NerdmitHerz, Tanzmusikus und DevPandi
Martinipi schrieb:
  • Die Problembeschreibung wurde derweil aus den Open Issues in die Liste der Fixed Issues verschoben.
Trotzdem steht da "improvement" und nicht "fixed" in der Beschreibung.
Das schliesst halt nicht aus, dass es immer noch Kombinationen gibt, bei denen es weiter höher Verbräucht gibt.

Cunhell
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Czk666
Ayo34 schrieb:
Genau, es gab sogar ein Artikel Update, dass das Update die Versprechen nicht erfüllt. Jedenfalls im Falle von Computerbase selbst und doch einigen Forenteilnehmern ebenso.

Am Ende muss man einfach festhalten, dass in vielen Konfigurationen AMD auch 8 Monate nach Release nicht abliefert und bei einem Idle Verbrauch mit 100 Watt die Karte einfach schwachsinnig ist.

Du hast trotzdem falsche Werte genommen für deine Argumentation. ;)
Ergänzung ()

C0nn3r schrieb:
Auf meiner Vega, 8W für ein 4k 60fps YT-Video und 3W im idle.
Far Cry 1 (nur ein Beispiel) in UWHD läuft mit allem auf Anschlag, mit 20W und du findest 38W für ein Video, ist ok? Für mein Empfinden etwas viel.

Du weißt aber auch dass damals die angezeigte Werte nicht der reale Verbrauch war?
 
Mrbrill schrieb:
Also wenn ich zb GPU-Z nehme und da eine Karte 100W anzeigt und die andere 20W dann ist das ja durchaus aussagefähig, ob die realen Werte dann höher sind spielt denke ich dann ja erstmal keine Rolle.
Die Aussage bleibt ja, das eine mehr verbraucht als die andere.
Im Prizip ja, es sei denn das Tool ist stark veraltet bzw. einen Bug, weshalb es teilweise falsche Ergebnisse liefert.
Dann ist dem Tool nicht zu trauen. Dies könnte bei CPUID HWMonitor der Fall sein. Hatte mehrfach davon gelesen.

Edit: Es liegt wohl an der Ausleseart. Seit RDNA3 kann wohl die Gesamtstromaufnahme (TBP) überwacht werden.
 
Zuletzt bearbeitet:
Hatten wir den schon?

 
Czk666 schrieb:
Mein idle Verbrauch ist von ca. 14 zu 8-9 verändert.
Verbrauchst aber heute viel Strom.^^
Und deshalb hat deine Grafikkarte vermutlich auch weniger abbekommen. 😄

Nee, mal im Ernst. Was für eine Grafikkarte mit welcher Monitor-Kombination meinst Du?
 
Okay. Dann ist das quasi ein positiver Seiteneffekt für dein System. :daumen:
 
  • Gefällt mir
Reaktionen: Czk666
Meine Werte mit LG34GN850B und Acer XB271Hu @144Hz.
LG Freesync an, Acer ohne Sync.

Desktop

Minimal 33.4
Maximal 51.2
Average 35.2

Browsing

Minimal 33.3
Maximal 81.1
Average 53.7

Youtube

Minimal 35.7
Maximal 82.4
Average 80.0
 

Anhänge

  • 23.7.1 dual Desktop.png
    23.7.1 dual Desktop.png
    311,4 KB · Aufrufe: 132
  • 23.7.1 dual browsing.png
    23.7.1 dual browsing.png
    326,7 KB · Aufrufe: 131
  • 23.7.1 dual Youtube.png
    23.7.1 dual Youtube.png
    317,3 KB · Aufrufe: 132
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
Sieht doch voll okay aus.
Du hast übrigens kein UHD @ 144Hz Monitor dabei. 😉

P.S.
Benutze mal [Shift]+[Win]+[ s ] für einen Screenshot. Dann brauchst Du kein Foto machen & das Bild ist schärfer.
 
  • Gefällt mir
Reaktionen: jo0 und Johaho
Czk666 schrieb:
Du weißt aber auch dass damals die angezeigte Werte nicht der reale Verbrauch war?
Sicher, Du kennst ja meine Zahlen und wie ich sie ermittelt habe.
Ich kann nur die GPU Power angeben, wenn bei Dir die 38W die gesamte Board-Power sind, sind die Zahlen natürlich nicht zu vergleichen.
Vielleicht hast Du aber vergleichbare Zahlen? Dann könntest Du etwas für Dich ableiten.
Wenn ich hier lese, welcher Verbrauch als noch als akzeptabel gilt, scheint er mir für das gebotene einfach zu hoch zu sein und ich schiele dabei mit Absicht auch auf die alten Grafikkarten. Interessant wäre es, den Realverbrauch der einzelnen Karten zu kennen, ermittelt mit externen Geräten.
 
Dann gibt es doch eber eh keine wirklich validen Aussagen, weil es am Tool liegen kann, weil es bei den Chip Generationen unterschiedlich ist, dann kann ich doch niemals AMD mit nvidia vergleichen,
und sagen Karte a (amd) verbraucht im Idle mehr wie Karte b (nvidia).
Chiparchitektur spielt eine Rolle, Raumtemperatur, Rechnerkonfig, Monitorsetup, Spannungschwankungen im Stromnetz, das ja auch von Region zu Region unterschiedlich ist,
dann müsste ein Boardpartner der beide- amd und nvidia- im Portfolio hat, das in seinem Labor ausmessen unter exat identischen Bedingungen.

Ich kann dann sagen, die 7900 verbraucht im idle zu viel, aber ich kann das dann nicht mit irgendeiner anderen Karte/Chipgeneration egal ob amd oder nvidia vergleichen bzw nicht mal mit einem Nutzer vergleichen der die gleiche 7900 Karte hat.
 
Zuletzt bearbeitet:
Casillas schrieb:
Ist das im Artikelupdate nicht mal eine Erwähnung wert, dass bei Einigen hier im Forum der Treiber den erwünschten Erfolg erzielt hat?

Hibbelharry schrieb:
Seufz. Also versteht auch Computerbase scheinbar das Thema nicht zur Gänze. Ich hätte angenommen, dass man sonst nicht so blind einzeln und losgelöst auf Refreshraten zeigen würde, um dann pauschal und uneingeordnet Mimimi zu sagen.

Casillas schrieb:
Es gibt hier ja auch den einen oder anderen, bei dem es nichts gebracht hat. Das kann ja bei CB auch der Fall sein, soweit ok. Aber ich hätte mir im Rahmen eines Updates eines Artikels eben auch einen Hinweis auf positive Erfahrungen aus dem Forum gewünscht. Gehört zur Arbeit eines guten Journalisten einfach dazu, meiner Meinung nach.
Der Autor macht schon länger gezielt Stimmung gegen AMD und hat auch bekräftigt das weiter zu tun. Möchte nicht wissen wie viele Geldkoffer von Nvidia den Besitzer gewechselt haben.
 
Solche Vorwürfe machen Radeonkarten um kein Watt stromsparender.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
12 Watt bei 3440x1600 bis hoch auf 160Hz-> für mich damit gelöst :daumen:

Von den ursprünglichen 100Watt runter auf 55W bin ich schon länger durch zufall gekommen.
Beim Monitor den OC-Modus aktivieren, damit kann man dann 160Hz bei 8bit aktivieren.
Heißt aber nicht das man dies auch machen muss :-)
Mit OC Modus EIN am Monitor konnte ich auch genauso mein 144Hz bei 10bit fahren, trotzdem ist alleine durch das aktivieren der Option im Monitor der Verbrauch bei allen HZ zahlen um 50W gefallen.
Es hatte bei mir noch nie einen Unterschied gemacht ob ich 75/120/144/160Hz mit 8/10 Bit gefahren bin, einzig bei 60Hz ging der Verbrauch runter. Der RAM hat auch schon immer runter getaktet bei mir, hoher RAM takt als Ausrede galt für mich nie, kann mir auch keiner erzählen das der da >80 Watt verbraten soll.
Auf die ganzen Anzeigen gebe ich aber auch keinen Pfifferling, 1MHZ GPU Takt ist doch genauso ein Blödsinn wie wenn der RAM auf angeblich 80Mhz runter geht.
Der einzige sichtbare Unterschied bei mir ist jetzt das die GPU Spannung runter geht in den Bereich im Schnitt von 150mV, da waren vorher dauerhaft >1000mV
Aber egal, an meiner Steckerleiste sehe ich das ich real jetzt knapp 85 Watt weniger ziehe als im Urzustand.
 
Mrbrill schrieb:
Dann gibt es doch eber eh keine wirklich validen Aussagen, weil es am Tool liegen kann, weil es bei den Chip Generationen unterschiedlich ist, dann kann ich doch niemals AMD mit nvidia vergleichen,
und sagen Karte a (amd) verbraucht im Idle mehr wie Karte b (nvidia).
Deshalb messen Tester die Karten ja auch direkt und lesen nicht die Software Werte ab.
 
RayZen schrieb:
Der Autor macht schon länger gezielt Stimmung gegen AMD und hat auch bekräftigt das weiter zu tun. Möchte nicht wissen wie viele Geldkoffer von Nvidia den Besitzer gewechselt haben.
Ach so? Wo hat er das denn direkt gesagt?
 
incurable schrieb:
Solche Vorwürfe machen Radeonkarten um kein Watt stromsparender.

Du erwartest jetzt sicher, dass Leute damit die gegenteilige Messlatte anlegen... Dann kann man nur antworten:

Richtig, aber es macht sie auch nicht durstiger als Nvidia Karten. Oder Arc Karten.

Was ist das für eine unsachgemässe und unhilfreiche, faktenfreie und argumentlose Aussage?
 
Hibbelharry schrieb:
Was ist das für eine unsachgemässe und unhilfreiche, faktenfreie und argumentlose Aussage?
Das hab ich mich auch gefragt. Aber ich bin mir sicher der unglückliche Nutzer mit den wilden Behauptungen kommt jeden Moment mit kompromitierenden Fotos von Nvidia-Geldkoffern in allen möglichen und unmöglichen Schrankregalen im Computerbasebüro um die Ecke.
 
Zuletzt bearbeitet:
Zurück
Oben