Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ich habe Asus 6700 XT Dual und CPU AMD 5600. Ich spielte mit GPU Undervolting AMD Software Adrenaline Edition und FurMark (Preset 1080 FHD, fullscreen, AA 0xMSAA, 10000ms).
Mir ist es gelungen, Verbrauch zu senken, ohne zu hohem FPS Verlust.
urspruenglich:
FPS 209
temp 64
max frequency 2689
voltage mV 1200
213w
nach undervolting:
FPS 198 (-5%)
max frequency 2300
voltage mV 1100
137w (-26%)
< voltage 1010 war wohl net stabil?
Sind das die maxGFX-Volt im MPT oder im Treiberpaneel?
Kannst dann ja kleinere Schritte machen, ... 1006, 1000, 993mV.
Der Verbrauch sinkt dann erst mit weniger maxTakt.
k.A. ob Dir 2500 oder 2300MHz reichen
ansonsten in Games ein Fps-Limit verwenden
Habe jetzt bei meiner 6950XT auch nochmal was rum gespielt.
Im Treiber jetzt 2400MHZ und 1080 MV, PowerTarget auf 250W limitiert.
TimeSpy Punkte ungefähr bei Stock und kratzt dann auch an den 250W.
Bei Diablo 4 / 4K Ultra DLSS Quality und 60FPS -> ca. 170-180w Verbrauch
Ohne FPS Limit sind es so 115-135 FPS und da gehts dann richtung 250W.
Damit bin ich echt super zufrieden.
Krass finde ich deine 1025mv bei 2480MHZ, da komme ich bei weitem nicht hin.
Edit://
Was mich allerdings etwas wundert, wenn ich die 1080MV einstelle - diese werden so gut wie nie gebraucht (laut HWinfo).. Wenn ich jedoch weiter runter gehe, läuft TS nicht mehr durch..
Im Treiber stellst du keinen absoluten Wert ein, sondern die Kurve bekommt ein Offset.
Im Treiber -100 ist = alle Werte 100 niedriger
Aber die ganze Kurve ist noch nutzbar.
Bei mir sind es ungefähr 140 Watt mit der 4090 bei deinen Einstellungen aber Limit 100 FPS. Ohne DLSS ca. 100 Watt mehr.
Komme von ner RTX2080 da konnte ich per Curve im MSI das ja schön einstellen.
Bei der Vega56 seiner Zeit ging das auch mit den "harten-Werten".
Ich werde da definitiv noch was rum testen und optimieren. Aktuell ist es wieder so warm in der Bude (28/29°C kotz), das ich bei Wassertemperatur ca. 42-43° beim zocken liege und die GPU dann bei 60°C ist und Hotspot bis zu 80°C (jeweils im max/bei 250w Verbrauch).
Habe jetzt bei meiner 6950XT auch nochmal was rum gespielt.
Im Treiber jetzt 2400MHZ und 1080 MV, PowerTarget auf 250W limitiert.
TimeSpy Punkte ungefähr bei Stock und kratzt dann auch an den 250W.
Bei Diablo 4 / 4K Ultra DLSS Quality und 60FPS -> ca. 170-180w Verbrauch
Ohne FPS Limit sind es so 115-135 FPS und da gehts dann richtung 250W.
Damit bin ich echt super zufrieden.
Krass finde ich deine 1025mv bei 2480MHZ, da komme ich bei weitem nicht hin.
Edit://
Was mich allerdings etwas wundert, wenn ich die 1080MV einstelle - diese werden so gut wie nie gebraucht (laut HWinfo).. Wenn ich jedoch weiter runter gehe, läuft TS nicht mehr durch..
Es sind reale 1050mv die Anliegen bei 2480mhz im Treiber eingestellt. Ich habe ein offset von 25mv . Im Treiber stelle ich immer 25mv weniger ein. Zb ich habe nun 100% Save folgende Werte: 2400mhz im Treiber eingestellt , real anliegend ca 2330 bis 2360mhz bei eingestellten 1000mv im MPT und im Treiber 975mv. Dieses sind real aber 1000mv. Habe gestern Abend über 3 Stunden RDR2 gezockt und zum Schluß ein Screenshot davon gemacht , wegen max Temperaturen....Poste ich morgen...liege schon🥱
Also bei mir erreichen die eff.Volt in HWinfo nie den maxGFX-Wert.
Das ist auch Stock net anders, da waren es 1002mV von 1025mV = 23mV Differenz und wird auch mit
Cappen per MPT eigentlich bei Allen ähnlich sein, bei den 6800xt und 6900 evtl. ne größere Differenz.
... durchs Cappen hat sich nur die Differenz von 18mV auf 15....14mV verkleinert, aber "0mV" gabs nie
862-847(848)=15(14)mV (das sind dann schon gerundete mV-Werte bei HWinfo)
Das müsste dann schon ein seeeehr kurzer Spike bei den Volt sein.
Ob man Das "zufällig" messen könnte im kleinstmöglichen HWinfo-Intervall, who knows.
edit: in SB@RT-light sinds ungefähr 2100MHz@843mV in nur 900p, damits mal booooostet (siehe Anhang)
JwH ist der Luxxer Jacke wie Hose = XTXH@h2o
gutes Binning und PCB bei der OCF
@Evgasüchtiger
Effektiv: ca. 2350MHz bei ca. 950mV klingt schon besser (mal ein paar kleine Spitzen weggerundet)
Da liest HWinfo doch sinnvollere Werte aus als MSi, was evtl. nur einfach die maxGFX vom MPT angibt.
Um besser beobachten zu können, hab nur ein Monitor angeschlossen, stehn aber noch zwei rum, hab ich kurz Furmark laufen lassen.
Während der AB und GPUZ gleich 0,91V anzeigen, zeigt HWinfo64 (0,87V) weniger GPU Vcore an.
Wem sollte man eher misstrauen?
GPU Treiber Takt 2100Mhz. Spannung im MPT und im Treiber unangetastet (1,20V).
Was verändert sich alles, wenn ich den GPU-Takt senke? Die Werte für die Takt-Spannungs Kopplung müssen hinterlegt sein. Weil zufällig passiert das ja nicht, dass wenn ich den GPU-Takt senke, die GPU-Spannung automatisch mit runtergeht. Is natürlich toll, dass sie das macht, muss man schon selber nichts dran machen.
0,87V für 2030MHz klingt plausibel
(interessant finde ich ja die zusätzliche Angabe GPU-Takt effektiv = 2019MHz)
Also mit etwas Offset sollten bei Dir dann reale 2000MHz@0,85V als Messwert in HWinfo drin sein.
btw.
Bitte nicht nachmachen für 24/7, .... nur bei Interesse kurz testen!
Man kann im MPT-FeatureControl ds gfxclk deaktivieren, dann sind effektiv und normal GPUtakt nah beinander.
Macht doch mal nen Vorschlag, welches Game am schlechtesten bzgl. Offset stabil zu bekommen ist.
(ideal wäre ein Game aus dem Gamepass oder ne Steamdemo)
Da könnte dann Jeder sein 24/7-Setting+Watt zeigen.(mit oder ohne Fps-Limit je nach Resi/Moni sinnvoll)
Aus praktischen Gründen vllt. 1x Game@Raster-only und 1x Game@RT.(net Jeder nutzt RT)
btw. TiaraG hat bisher nur FH5 gezeigt, was eigentlich kaum Probleme macht.
Da gibts bestimmt zickigere Kandidaten.
Gurdi(pcgh) meinte mal, das schon Dirt5 mehr Probleme bei Ihm macht.
Andere haben auch in Warzone die Probleme mit zuviel Offset.
edit: bei mir 24/7 läuft FH5-4k@FSR2perf gechilled@57fps total sparsam ohne RT mit CustomPresets
Muss ich nun extra auf FSR2 und Fps-Limit verzichten und MAXED+RT einstellen, um irgendwas zu beweisen,
= macht mich net schlauer.
Dirt5 kostet dann bei mir durch das RT gleich ein paar W mehr!
Soll doch Jeder so spielen, wie Er denkt, es von der Optik her zu brauchen. ... kann mir net vorstellen, das Jeder
in HogwartsLegacy maxed mit RT spielt.(in HL geht Das netmal sinnvoll mit den 7000ern)