RX 7900 XT, 330W Stromverbrauch bei einem anspruchlosem Spiel?

Flaschensammler

Lt. Junior Grade
Registriert
Okt. 2023
Beiträge
370
[Bitte fülle den folgenden Fragebogen unbedingt vollständig aus, damit andere Nutzer dir effizient helfen können. Danke! :)]

1. Nenne uns bitte deine aktuelle Hardware:
(Bitte tatsächlich hier auflisten und nicht auf Signatur verweisen, da diese von einigen nicht gesehen wird und Hardware sich ändert)
  • Prozessor (CPU): i7 9700K
  • Arbeitsspeicher (RAM): 4x8GB 3200 Mhz Cl16
  • Mainboard: Z390 Gaming Pro Carbon
  • Netzteil: 1000W BQ
  • Gehäuse: …
  • Grafikkarte: 7900 XT
  • HDD / SSD: …
  • Weitere Hardware, die offensichtlich mit dem Problem zu tun hat(Monitormodell, Kühlung usw.): ...
  • Wird ein sog. "PCIe-Riserkabel" genutzt? ...

2. Beschreibe dein Problem. Je genauer und besser du dein Problem beschreibst, desto besser kann dir geholfen werden (zusätzliche Bilder könnten z. B. hilfreich sein):

Es geht um das Spiel Stacklands. Ich hatte es vor ein paar Jahren mal angetestet, damals mit meiner RX 6700 XT. Der Stromverbrauch bei 1440p und 144 Hz lag bei etwa 60 Watt (Erinnerungsprotokoll).

Jetzt eben wollte ich das Spiel nach längerer Zeit mal wieder spielen, da musste ich mit Entsetzen feststellen, dass die Lüfter meiner 7900 XT plötzlich aufdrehten. Laut CapframeX lag der Hotspot bei über 80°C. Da dachte ich noch ich spinne und der Kühler ist kaputt.

Erst im Adrenalintreiber zeigte sich, dass die GPU SAGENHAFTE 330W zieht!!
Ich verbrauche für ein Spiel, welches wohl auch meine UHD 610 iGPU stemmen könnte, doch keine 330W. Ist doch nicht normal.


3. Welche Schritte hast du bereits unternommen/versucht, um das Problem zu lösen und was hat es gebracht?
Ich habe soeben den Treiber auf 24.9.1 erneuert. Keine Besserung.
Setze ich den Framelimiter (spielintern) auf 30 FPS, verbraucht die GPU immernoch 100W.
Bei 120 FPS sind es knapp 300W, bei 144 FPS die eingangsbeschriebenen 330W.

Stelle ich auf UHD, ändert sich nichts am Verbrauch.

Klingt nach einem Treiberproblem, welches ich mit der im Ruhestand schlummernden 6700 XT mitnichten hatte.
 
Du kannst verschiedene Limits haben bei allen aktuellen GPUs.
Nimmst du ein FPS Limit wird diw W Zahl je nach SPiel eben stark unterscheidlich sein, weil die Karte nur so viel w braucht je nach Aufwand der Szene bzw. Spiel.

Also Factorio wird die Karte keine 300w brauchen.

Stacklands wird der Verbrauch entsprechend am untersten Ende zu finden sein, nahe Idle...
 
Ich tippe auf mangelhafte Unity-Optimierung.

Wird das Spiel noch aktiv entwickelt? Falls ja sind die Werte von vor ein paar Jahren nicht mehr umbedingt vergleichbar.
 
  • Gefällt mir
Reaktionen: Alexander2
Wenn du keinelei Limit gibst. könnte es sein, das die Karte 5000 FPS macht und so kommt sie doch auf 300w...
Wäre hal ultra doof von diesen Spiel, wenn es kein Limit hätte von sich aus :D
Aber man kann jederzeit eines angeben. Das ist nen Boardgame mit Karten minimalen Animationen... also Limitiere die w oder die FPS entweder im SPiel oder im Treiber für das Spiel, AMD gibt die das Tool direkt dafü schon mit.
 
  • Gefällt mir
Reaktionen: TomH22
2024-10-05.png


An ein fehlendes Limit dachte ich auch, aber es liegen 144 FPS an.
 
Ich hab bei meiner 4070 ein Framelimit im Treiber eingestellt. Müsste bei AMD auch gehen. So verbrennt man nicht unnütz Power...

Hab mal gerade geschaut. Hab bei Factorio auf meiner Map nach 261 Stunden mit ordentlicher Auslastung knapp 32 Watt auf der GPU.

Gruß
Holzinternet
 
@Alexander2 Framelimit wurde laut Eingangspost ja spielintern gesetzt. Kann aber unter Umständen eine fehlerhafte Umsetzung sein. Ggf. wäre ein Test per Treiberlimit sinnvoll.

Oder mal mit z.B. PresentMon schauen was die Engine so treibt.

Vielleicht ist es am Ende aber auch ein Bug an irgendeiner Stelle.

Edit: @Flaschensammler Ist das gezeigte nicht nur das eingestellte Limit? Das zeigt ja nicht den Momentanverbrauch (ist aber schon ne Weile her, dass ich im Windows Treiber war). Was passiert denn wenn die Karte ohne den ganzen Auto-OC-Kram läuft?
 
  • Gefällt mir
Reaktionen: Flaschensammler
Flaschensammler schrieb:
Ich habe soeben den Treiber auf 24.9.1 erneuert. Keine Besserung.
Setze ich den Framelimiter (spielintern) auf 30 FPS, verbraucht die GPU immernoch 100W.
Du könntest generell noch andere Treiber Probieren. und oder natürlich auch erstmal das als Bug melden, ob nun beim Spiel oder auch bei AMD. Am besten Beides, das geht ja auf keine Kuhhaut :-)

Was du auch tetsen könntest wäre dxvk oder sowas, ob das ne Besserung bringt.
Das Spiel und 100W ist schon übertrieben :D also mit 30FPS...

Oder ist das so ein Spiel, das dir im Hintergrund die Rechenleistung klaut und damit für die Entwickler coins Schürft?

Edit:
@Flaschensammler @SpartanerTom
Ich würde definitiv im Treiebr nen Spielprofil mal anlegen und da dann die w einstellen auf nen maximalwert, bzw nen powerstat festlegen wie desktop oder was auch immer da geht, bin ja kein Windowsnutzer mehr, die namen der Einstellungen kann ich nicht exakt vorbeten :-) aber es gibt sowas.
Und trotzdem Bug Melden an alle zwei beiden
 
  • Gefällt mir
Reaktionen: Flaschensammler
Das Spiel hat im Menü ein Limiter, der auch gut funktioniert.
Da ich im Treiber aber auch ein Limit von 144 FPS gesetzt hatte, kann das Spiel aber auch im Menüpunkt unbegrenzte FPS nur 144 darstellen.

Das musste ich mal einstellen, weil ich mal im Witcher 3 Menü ein extremes Kreischen aus meiner GPU vernahm, weil 4-stellige FPS abgerufen wurden. Daher der treiberseitige Limiter
Ergänzung ()

@SpartanerTom Das Tool PresentMon kenne ich noch gar nicht, da werde ich mich erstmal einlesen.
Danke erstmal.

Alexander2 schrieb:
Oder ist das so ein Spiel, das dir im Hintergrund die Rechenleistung klaut und damit für die Entwickler coins Schürft?
Man weiß ja nie...
 
  • Gefällt mir
Reaktionen: SpartanerTom
Power Target der GPU muss ja auch nicht zwingend auf +15%
 
  • Gefällt mir
Reaktionen: Nero FX, DannyA4 und arvan
Kleines Update:
Ich entkoppelte erstmal den zweiten Monitor von meiner GPU. Nichts gebracht.

Nun aber hatte ich vom Menü aus einen neuen Lauf gestartet... und der Verbrauch sinkt von 330W auf knapp 160W in UHD und 120 FPS.

Natürlich immernoch viel zu hoch, die 7900 XT sollte von der reinen Power her maximal 30W brauchen (naja, der Idleverbrauch liegt schon bei knapp 40W).

2024-10-05 (2).png
 
Also der sagt nicht gerade, das exakt idle bei mir ist, aber halt Desktop effekte Programme etc. einige, die auf die GPU gehen ein wenig, nen Monitor mit 1440p und 240Hz..

und 30w da würde ich mal blöd schätzen gäbe ich dem Spiel 50-60w und dann muss das mit soviel gpu klarkommen :D

Teste doch mal.
2024-10-05_11-43.png
 
Du könntest für das eine Spiel ein Profil erstellen und die Taktraten aufs absolute Minimum setzen, falls das geht.

Das wird natürlich noch ausreichen für das Spiel, aber die Karte zieht dann halt keine 300w, sondern vllt 100w.

+15% ist übrigens auch das sinnloseste was man bei einer AMD Karte machen kann, ist ja nicht so das die Karten bereits ab Werk jenseits des Sweetspots betrieben werden, und du dann noch 15% mehr Stromverbrauch draufhaust, für vllt 50Mhz mehr Takt...

Grundsätzlich sollte die Karte eher immer mit -10% laufen, und dann kannst sogar noch hingehen und den Takt auf 80% reduzieren, dann braucht die Karte eher so 200W und ist vllt 5-10% langsamer.

Schau auch mal bei den Einstellungen das bei beiden Monitore Freesync/Adaptiv Sync aktiv ist.

Ist auch der Grund warum ich meine 7900XT verkauft hab, meine aktuelle 4060Ti braucht zB in Mini Motorways 30W, eine 7800XT (hatte ich kurz da) hat da fast 90W gebraucht...

Nachtrag: 30W mit 2x UHD (60+120Hz) und Youtube auf dem 2. Monitor. So viel hat die 7900XT vorher quasi im Leerlauf aufm Desktop gebraucht...
 
  • Gefällt mir
Reaktionen: Nero FX und Flaschensammler
1728121856467.png


Wie wärs denn damit, für dieses Spiel das PowerTarget auf -10% statt +15% zu stellen?

Klar, ist nicht die beste Lösung, aber für das Game muss das OC ja nicht sein, oder?^^
 
  • Gefällt mir
Reaktionen: CaptainPicard und Nero FX
Flaschensammler schrieb:
die 7900 XT sollte von der reinen Power her maximal 30W brauchen (naja, der Idleverbrauch liegt schon bei knapp 40W).

sobald der RAM hoch taktet wirst du keine 40-60watt mehr haben. Das sind dann eher 100watt. meine 7800xt kommt auf ca 68watt wenn sie kaum ausgelastet wird.

du kannst ja mal mit den 24.8.1 gegentesten.
 
Update:
Ein Spieleprofil im Adrenalintreiber für Stacklands brachte nichts ein.

Die Leistungsgrenze hatte ich von +15% auf +0% gestellt; keine Änderung. Weiterhin 330W im Menü und 160W im Spiel selbst.

Die Leistungsgrenzenerhöhung auf +15% verstehe ich auch eher als maximaler Rahmen, in dem die GPU Strom aus meiner Steckdose nuckeln darf.
 
Northstar2710 schrieb:
meine 7800xt kommt auf ca 68watt wenn sie kaum ausgelastet wird.
Meine zieht im Idle 13-15 Watt. Wie schaffst du das?

Flaschensammler schrieb:
Die Leistungsgrenzenerhöhung auf +15% verstehe ich auch eher als maximaler Rahmen, in dem die GPU Strom aus meiner Steckdose nuckeln darf.
Die 15% sind eine Anhebung vom Standardverbrauch. Du kannst das PT senken und trotzdem OCen.

1728122411180.png
 
Menü 1.png
Menü 2.png
Ingame 1.png
Ingame 2.png
 
coxon schrieb:
Meine zieht im Idle 13-15 Watt. Wie schaffst du das?

Vermutlich 2 Monitore und/oder kein aktives Freesync / Adaptiv Sync. AMD Karten reagieren da super empfindlich.
 
  • Gefällt mir
Reaktionen: Schwobaseggl und Skudrinka
Zurück
Oben