[Work-Log] Aufrüsten auf einen 5800X3D! Was ist an Leistung möglich!

@Verangry
Warum ist die "SoC Current/CPU SoC Power" Rückmeldung so niedrig ?
5W bei IF2000 und SoC@1v+ kann doch niemals sein :daumen:
 
Mal was anderes. Es gibt einen Update auf AGESA Combo V2 PI 1.2.0.B. Kann aber keinen changelog finden. Kennt jemand die Änderungen?
 
  • Gefällt mir
Reaktionen: BreadPit
Verangry schrieb:
[IMG]https://www.computerbase.de/forum/attachments/1694904932473-png.1398806/[/IMG]

Aber irgendwie fühle ich mich (das System) mit 4000 CL16 (1.42v Dimm) "fluffiger".
Soll heißen, es ist reaktiver, kA ob das nur Einbildung ist aber ich denke 4000/2000 ist bei mir das Optimum.
Ich denke es ist eine Kombi aus beidem. Da man die (ns) u. Speicher Durchsatz messen kann u. die bei 4000/2000 deutlich günstiger sind, kann sich das schon im System aufschaukeln u. Spürbar werden.
Dazu kommt dann sicher auch noch eine Portion Einbildung "das es ja besser sein muss" die den Unterschied dann noch größer erscheinen lässt.

Deine Speicherwerte sind schon recht weit am unteren Limit was die Spannungen angeht. Ich habe damit schon viel experimentiert u. kann sagen das man mit wenig Spannung bis zu (5ns) im AIDA Test verlieren kann.
So wie es ausschaut können meine gammel SKHynix wenn es um niedrige Spannungen geht recht gut mithalten mit den B-Die´s :)
Ich gebe zu bedenken das es sich um 4 Module handelt unfassbar das es doch noch was gibt worin mein Ram gut zu sein scheint außer im langsam sein :D

ZenTimings_Screenshot.png


@Creekground
Scheint wieder der Übliche Security Rotz zu sein man will es schon gar nimmer hören.

"This attack is similar to previous branch prediction-based attacks like Spectrev2 and Branch Type Confusion (BTC)/RetBleed"

"new speculative side channel attack."

Immer wenn es um die "speculative prediction" geht sind Fixes dafür meist mit Leistungsverlust verbunden denn die speculative predictions sind es nun mal die einen erheblichen Anteil an der Leistung moderner CPU´s haben.


Wie will man den Müll überhaupt jemals in den Griff bekommen?
Man baut eine Einheit in eine CPU ein die gewisse Operationen die anstehen könnten voraus sehen kann damit sie diese schon im Vorfeld abarbeitet um das Ergebnis schon bei Anforderung Präsentieren zu können.
Genau diese Vorhersehbarkeit das diese Einheit genau das tut wenn sie ein bestimmtes Szenario vorher sieht macht sie aber auch angreifbar.
 
  • Gefällt mir
Reaktionen: Fas7play und Creekground
Alle paar Wochen schau ich mir den Stromverbrauch über TP-Link – Tapo P110 an... daher langweile ich euch mit meinem Template.

System: Siehe Signatur // LG 27 GP850-B 165Hz + Benq 24 BL2411 60Hz
Grundsätzlich: "Man Cave" Steckdose mit Alexa, Switch, D5next,.. von den gezeigten Werten kann mal also immer 4-5W pauschal abziehen. (Meinem Energieanbieter sollte ich das auch mal sagen :p)
Dabei ist mir natürlich bewusst, dass MoBo+CPU nur minimal (bezüglich Stromsparen) zu optimieren sind.
Watt Verbrauch
Rechner (Aus)3
S3 (Energie sparen)13
24"(60Hz) + 27"(60Hz)65
24"(60Hz) + 27"(165Hz)104
Youtube 1080p (auf 24")121
24"(60Hz) + 27"(Aus)51
27"(165Hz) + 24"(Aus)56

Leider habe ich den "Hz-Bug"(AMD 6900XT)! Werden beide Monitore auf 60Hz gestellt.. hätte ich 65W im IDLE, stellt man den 27" auf 100/120/144/165Hz steigt der Verbrauch im IDLE auf 104W.
1695726035274.png


Optimierungen:
D5 Next Pumpe von 100% auf 28% (2800 rpm) -war schon so- bringt 14W
ASPM bringt weitere 10W im IDLE
WW currentW saved
Pumpe D5 next20 (100%)6 (28%)14
ASPM114 (IDLE)104 (IDLE)10

Kaum messbare Werte/Resultate, aus folgenden Settings:
(4x Noctua NF-A20 PWM ebenfalls mal abgesteckt.. war lediglich ~1W)
CPU VDD181.801.60
VDIMM1.371.36
SOC950900

Obviously:
Verbrauch Steckdose in Spielen wie Path of Exile! Zwischen 120Hz (kein Spulenfiepen als netter Nebeneffekt) und 165Hz liegen satte +100W verbrauch! (FPS Cap/Fixed)
FPS W
POE 60171
POE 120217
POE 144237
POE 165313
Werde mich mal wieder mal an die GPU (derzeit stock) setzen und per UV optimieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, 4BitDitherBayer, Creekground und 2 andere
Was ich nicht verstehe an dem "Hz-Bug" Es wird doch nur die Bild Wiederholrate erhöht, die FPS bleiben doch gleich warum also dieser enorme Energie Verbrauch Anstieg?
Angenommen du schaust ein YT Video 1080P60 auf nem 120Hz Monitor. Dan muss die Graka doch einfach nur 2 Mal den selben Frame an den Monitor Schicken u. gut is. Da muss nicht mal was berechnet werden oder lieg ich da falsch?

Was man auch noch machen kann wenn man eine kleinere Graka hat so wie ich z.B.
Man kann den PCIe Bus X16@4.0 auf X8@4.0 stellen, so wie es bei einer 4060 ab Werk jetzt ja verbaut wird.
Bei meiner 3060 konnte ich damit 4 Watt einsparen ohne an Leistung zu verlieren, k.A. warum das so ist vielleicht wird dann durch ASPM überflüssiges Zeugs schlafen gelegt.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Fas7play und Creekground
Da gibt es doch einen Trick mit den blanking lines im Treiber oder mit dem CRU Tool.

1695760139494.png


Einfach eine benutzerdefinierte Auflösung mit reduzierter blanking anlegen.
 
nein leider, GPU-Speicher taktet auch mit CVT Reduced Blanking time nicht runter. (CRU klappte auch nicht)
 
fas7play schrieb:
CRU klappte auch nicht
Auch nicht mit erhöhten "Vertical Blanking Lines"?
Das ist nämlich oft der CRU-"Trick".

Ansonsten könntest 144Hz oder 120Hz für den Hauptmonitor probieren, ob das etwas Verlustleistung verringert.
 
Tanzmusikus schrieb:
Auch nicht mit erhöhten "Vertical Blanking Lines"?
Das ist nämlich oft der CRU-"Trick".
puh ist wochen her, aber habe mich an den guide (hier) im forum gehalten

Tanzmusikus schrieb:
Ansonsten könntest 144Hz oder 120Hz für den Hauptmonitor probieren, ob das etwas Verlustleistung verringert.
klar, ohnehin gemacht :-)
 
GPU nun in UV gehoben. Neben bereits existierenden Power-Limit-Profilen wie 150W, 200W hab ich mir auch ein 225W Profil erstellt, dies ist für mich die beste Mischung aus Leistung <-> Verbrauch.

Resultate:
GPUPLmVGPU ClockMEM Clock3D Mark 13D Mark 2GPU.SCORE
6900 XTXH332W120025542000148.82 fps128.22 fps22.581
6900 XTXH225W925(!)24542100 (fast)143.71 fps123.25 fps21.753
(Achtung: Nicht jeder wird eine 6900XT Karte um satte ~300mV in UV heben können, schon gar nicht eine "normale XT"! Dazu musste ich via MPT ein 6950.Bios laden (nicht flashen! Bios-Chip wird nicht beschrieben!) da diese eine besser "curve" haben und man so "mehr UV" rausholen kann.)
UV ist ohnehin ein Thema mit dem man Bücher füllen könnte, bin da auch nur am Rande unterwegs... mir geht es nur darum was die Steckdose zuzelt (zuzelt wird a weißwurscht, zefix!).

Im Screenshot sieht man jedenfalls nun was mir 3D Mark: Stock bzw./vs. "UV" aus der Dose zieht!
1696327487582.png



Als kleiner Nebeneffekt, hatte das UV auch etwas Impact auf die IDLE Werte (es gibt in MPT ein paar Parameter dazu)

Watt Verbrauch
Rechner (Aus)3
24"(60Hz) + 27"(60Hz)61
24"(60Hz) + 27"(165Hz)96
Youtube 1080p (auf 24")114

//OT Ende.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Guphoff, Tanzmusikus und Garrus
Schön zu sehen mit wie wenig mV die Karte auf 2454 MHz boostet. Zum Vergleich meine 3060 ist ja die gleiche Chip Generation als die AMD 6000 Reihe schafft mit mit 925 mV nur knapp 1800 MHz dann gibt's Schwarze Artefakte im Bild. Sicher die beiden Karten Spielen nicht in der Selben Liga was die Leistungsklasse angeht.

Verbessert mich wenn ich das falsch interpretiere aber für mich schaut es aus als ob die Karte beim YT schauen eines 1080P Videos 50 Watt benötigt. So dass, das eigentlich Sparsame System dann 114Watt beim schauen benötigt. Ich kann das nicht so recht glauben falls dem doch so ist kann ich nur sagen.

WTF. AMD ist das euer Ernst!
Jeder poplige Smart TV kann das mit einem Bruchteil der Energie die eure Karten dafür vergeuden.
Wenn ihr das nicht gebacken bekommt dann lötet diese ARM SoC´s die in den Smart TV´s verbaut sind zusätzlich auf eure Platinen u. lasst den dann die Videos Decoden.

Bei einem 5800X3D ist es dann ja effizienter die GPU Beschleunigung im Browser zu deaktivieren u. das Video über die CPU zu dekodieren.

Ich kann mir auch nicht vorstellen das eine CPU aus der Ryzen 7000 Reihe die ja auch alle eine GPU verbaut haben. Plötzlich 50 Watt mehr ziehen wenn man ein 1080P Video damit schaut.

@fas7play Das ist nicht gegen dich oder deine Kaufentscheidung zu einer 6900 XTXH im Gegenteil Preisleistung ist wirklich gut. Wenn man die dann noch fürs Gaming undervoltet so wie du das gemacht hast ist die auch im Gaming recht sparsam. Ich hätte auch nichts gesagt wenn die Karte bei 4K Videos 50 Watt Extra zieht aber so. . .
Bei den Intel ARC Karten ist es übrigens genau das gleiche Trauerspiel nur das die wesentlich weniger Gaming Leistung haben als eine 6900 XTXH.
Wenn man da eine INTEL CPU hat schalten die ARC automatisch auf die IGPU wenn man ein Video schaut u. die eigentliche GPU schaltet in den Idle Modus was bei ARC aber nicht viel heißt, die ziehen im Idle nicht weniger als 50 Watt. Bei einem 1080P Video kommt man dann auch nicht unter 75 Watt damit weg.
 
  • Gefällt mir
Reaktionen: Fas7play und Serandi
@MehlstaubtheCat
Hallo Meister!
fürs Gaming only wäre L1 & L2 HW prefetcher enabled besser oder?
 
Nicht unbedingt. Gibt solche & solche Szenarios.
Deshalb hab ich die HW-Prefetcher wieder zurück auf "Auto" gestellt.
 
  • Gefällt mir
Reaktionen: Fas7play und Serandi
Werde ich dann wohl auch so machen, danke! Hatte das bisher auch meist an. Nur gerade mit R23 getestet und Off mehr Punkte gehabt, über 15100. Mit on knapp 15000. Naja Gaming ist bei mir Priorität deshalb dann an.
 
@MehlstaubtheCat
Und wie sieht's den BIOS Einstellungen aus, wenn einen möglichst niedrigen Input Lag möchte, statt den letzten FPS rauszuquetschen?
Ist da überhaupt übers BIOS großartig was rauszuholen?
 
-Spread Spectrum Control - Disabled
-AMD Cool'n'Quiet function aka PSS - Disabled
-Global C-state control - Disabled
-CPPC - Disabled
-CPPC Preferred Cores - Disabled
-TSME - Disabled + Data Scramble Disabled
-Global C-States - Disabled
-DF C-States - Disabled
-SoC/Uncore OC Mode - Enabled

-L1 Stream HW Prefetcher - Enabled
-L2 Stream HW Prefetcher - Enabled

Ist dann Alles auf Multicore Leistung.

Ich hab für Starfield und CP2077 ein reine Multi Config, da nicht eine Sekunde ein Kern in Single-Boost geht.
Daher kann man hier auch bequem den -CO auf Multicore Leistung einstellen.

Hab noch paar andere Dinge "Disabled" aber da kann ich nichts dazu sagen ob das was "bringt".
Aber "Aus" stört schonmal nicht einfach, so meine Meinung.

-IOMMU - Disabled
-LN2 Mode - Disabled
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zotho, 4BitDitherBayer und Serandi
Hammer, Meister! Vielen Dank werds mal testen!🙌
 
  • Gefällt mir
Reaktionen: MehlstaubtheCat
Zurück
Oben