Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
[Work-Log] Aufrüsten auf einen 5800X3D! Was ist an Leistung möglich!
Wenn Du's bereits getestet hattest, dann passt's wohl.
Höher als 3600 MT/s schafft mein System nicht (stabil).
Mit 3600 CL 15 hatte ich noch kein Erfolg trotz VDDP-Erhöhung (sowie tCWL 14).
Auch mit höherer VDDG und vSOC gab's Fehler.
<Edit: Enthusiast und 32GB ? Bissi herablassend, ohne auf meine eigentliche Aussage eingegangen zu sein, aber wenn dass Dein Stil ist, muss ich mich wohl dran gewöhnen wenn ich im Dialog bleiben will Zum Inhalt:>
Yep - mit den 2x32 = 64GB 3200-C16 komm ich auf 3800-C18 max, und C19 ist eben gleich "schnell", bzw schneller und das mit weniger Spannung. Btw bei den Riegeln ist bei 3800 mehr Spannung kontraproduktiv, mit weniger laufen sie stabiler. Bis 3600 gehen 1,46V ohne Probleme und sind auch nötig für C16, bei 3800 no way, ab 1,34 abwärts stabil mit GDM off / <1,37 mit GDM on und das bei C18.
Verangry schrieb:
Dicke GPU im Rechner die mit 200 - 400w läuft, aber auf 1.5w beim RAM OC verzichten wollen
Erstens unter 200W weil auch auf FPS/W optimiert, zweitens: darum gehts nicht Es geht darum, dass ich ein besseres Ergebnis mit weniger Spannung bei mehr CL (!) erziele. Ist in jeder Hinsicht besser, und einfach interessant - nicht mehr, nicht weniger.
Verangry schrieb:
Nur Mal so als Info für mich, was hast du denn an Latenzen, die du mit deinen ausoptimierten Settings herausbekommst?
Das hier - und "merken" ist echt nicht das Thema beim Grenzen ausloten:
Mit SVM / VBS on, und allen Background Tasks. Find ich schwer OK für 64GB, bei den 16GBit ICs limitiert tRFC und tRCDRD - sind halt keine S8B. (PS: im abgesicherten Modus gehen so ~62,7ns, weniger nicht)
Verangry schrieb:
Ich bin bei 51.5ns im Aida Benchmark und merke keinen Unterschied zu 55.1 oder gar 60ns.
Messen kann ich es aber und zwar mit Benchmarks von Games die stark positiv auf Ramdurchsatz und Latenzen ansprechen.
Es gibt spiele die sind enorm RAM und latenzabhängig und es gibt welche die interessiert das eben weniger weil nicht so viel hin und her geschrieben werden muss.
Ein gutes Beispiel ist da SotTR oder CP2077
Da liegen zwischen 51.5ns und 60ns ganze 15 FPS (geschätzt und je nach Szene).
Man muss aber bedenken, diese massive Reduzierung der Latenzen geht eben nur durch sehr starkes OC mit den entsprechend fähigen ICs.
Mit 64GB B-Dies war ich ebenfalls bei CL16 und 4000 allerdings noch mit meinem 5900X, nun hab ich eben zwei Rechner und in dem zweiten arbeitet der besagte 5900X mit ebenfalls 32GB (habe also gesplittet)
Was andere mit CPU OC dann versuchen auszugleichen, mache ich halt über den RAM (in den Spielen die davon profitieren).
Dabei ist es mit RAM und dem Verbrauch aber weniger, als wenn ich z.B. meine CPU übertakten müsste um 15 FPS gain zu bekommen (aus energetischer Sichtweise ist also RAM OC wesentlich effizienter als CPU OC).
Nachtrag:
Muss meine Schätzung etwas reduzieren, sind keine 15 FPS sondern in SotTR "nur" 9 FPS AVG mehr, während es bei CP2077 dann 4 FPS sind.
Dafür, dass ich aber außer den Timings nichts am Takt geändert habe (beide male 4000) ist das schon okay.
4000 CL19 = 60ns
4000 CL15 = 51.5ns
PCGH Benchmark Szene + Settings - bei beiden Games (CP2077 mit RT -> SotTR ohne)
Und auch im "Photoworxx" Benchmark von AIDA64 sieht man entsprechende Veränderungen.
Merke ich davon was auf dem Desktop? Nö..
Merke ich das in Spielen in denen ich nicht ins CPU Limit renne? Nö.
Merke ich das aber in CP2077 wenn ich in manchnen Szenen eigentlich mehr FPS erwartet hätte? Vermutlich.
Würde ich eine halbe oder eine ganze Nanosekunde merken? Nein absolut nicht!
Also nicht nur einfach den Takt hoch ziehen, sondern auch die Timings straffen! (kostet auch weniger Energie als man denkt!)
Danke, Also 3-4%, das ist schon was, würd ich mir auch holen, auch mit 1,55V wenn nötig Wir sind uns eh einig - könnte ich die Timings noch mehr anziehen, würde ich es tun. 3800 C18 ist bei meinen 64Gb / 16Gbit ICs wie gesagt das Maximum, nur C19 liefert sogar bessere (Bench) Ergebnisse, und das entspannter - weil tRFC und tRCDRD einfach am unteren Anschlag sind, da ist´s egal was ich mit den Primärtimings mache. Und 3800 C19 ist deutlich flotter als 3600 C16 "straff", weil IF / Takt halt mehr ausmacht als Timings.
Ich könnte nochmal C18 2T gegen C19 1T in InGame Benches antreten lassen, das würd mich jetzt auch interessieren. Mal sehen, grad etwas wenig Zeit für Experimente, bin froh dass CO / Stabilität jetzt wieder passt
Ergänzung ()
Übrigens: 1.2.0.A braucht bei mir tatsächlich ~25mV mehr auf Core 0, 1, 2, 4, 6. Bei den anderen keine Änderung bei CO, sehr wohl aber in der gemessenen VID.
Core 0+1 gehen ev 1-2 niedriger, ich hab die Baseline aber jetzt bei 1145mV eingezogen.
1.2.0.8
CO
1.2.0.A
CO
1.2.0.8
mV
1.2.0.A
mV
-28
-26
1116
1147
-30
-27
1116
1147
-17
-16
1195
1210
-25
-25
1130
1145
-19
-18
1140
1185
-30
-30
1166
1190
-29
-28
1124
1145
-22
-22
1140
1163
Edit: S3UV Bug weiterhin vorhanden, die Werte sind nach S3.
vSOC, VDDP, CCD, IOD brauchen auch 0,01V mehr um wieder WHEA-frei zu sein.
Das neu ausloten mit meinem "Y-Cruncher Schnelltest" ja zum Glück flott - werd ich bei jeder neuen AGESA mal durchlaufen lassen in Zukunft.
Genau so hatte ichs vorher. Hab jetzt beides 3nabl3d wegen Dir, und wegen @Verangry versuch ich grad PSS on auch 🙈 Aber noch nicht gezockt. Ich berichte, aber viel mehr als bissi OW2 schaff ich zur Zeit nicht.
Spannend - beides auf Enabled, also CPPC und CPPC Preferred Cores? Mit Preferred Cores haben ja einige von schlechterer Performance bis hin zu Rucklern berichtet, du aber von besserer. Gemessen also besser bei Dir - gefühlt auch? Stichwort Ruckler etc weil die 2 besten Cores überladen werden?
Genau dieser Frage bin ich schon einmal nach gegangen die Antwort darauf mag etwas unbefriedigend sein denn die ist nicht ganz eindeutig. Es gibt die Leute unter uns die genau dieses von dir beschriebene Problem der Kernüberlastung haben.
Schuld dabei ist Windows bzw, AMD genauer gesagt deren Chip Binning kannst dir also einen schuldigen heraus picken oder auch beide
Das Problem:
In Windows gibt es einige wenige Prozesse die zwingend auf dem Ersten Logischen Core ausgeführt werden müssen. Das sind wohl Altlasten die mitgeschleppt wurden aus einer Zeit wo Windows noch nicht so sehr auf Multi Core Betrieb optimiert war.
So da ist auch schon das Problem, sollte man das Pech haben u. einen Chip erwischen dessen Core 0 als bester bzw. zweit bester Core durch das Binning läuft. Kann es eben dazu kommen das laufende Prozesse aus dem Kern ausgelagert werden müssen da sich ein Windows Prozess der zwingend Kern 0 Benötigt angemeldet hat.
Darum halte ich es auch für wenig sinnvoll das AMD Core 0 überhaupt als best Core in ihre Binning Liste mit aufnimmt, core 0 sollte eigentlich nie niedriger als 3 bewertet sein um eben solche Probleme zu vermeiden
Für Leute die solch einen Chip haben kann es durchaus Vorteile bringen CPPC Preferred Cores zu deaktivieren. Ansonsten hab ich mit CPPC Preferred Cores recht gute Erfahrungen gemacht es gibt nämlich
auch den umgekehrten Fall.
Wenn ein Game nicht sonderlich gut auf Multicore optimiert ist, kann es vorkommen das es wildes Kern hopping betreibt. Dadurch entstehen Latenzen da ständig Last auf unterschiedliche Kerne verteilt wird sowas kann CPPC Preferred Cores dann auf die Zwei besten Kerne bündeln.
Es gibt also nicht die Eine Antwort die richtig ist ob man nun CPPC Preferred Cores verwenden sollte oder nicht. Ein weiterer Aspekt ist auch das man sein System mit CPPC Preferred Cores weiter ans Undervolting Limit bringen kann als ohne. Man muss ja nur zwei Kerne 4550Ghz "stabil" bekommen.
Ergänzung ()
BreadPit schrieb:
Können WHEA 19 nicht nur von vSOC / CCD / IOD , sondern auch von zu niedriger CO bei RAM-OC kommen?
PS: Interessant ist auch, dass ich (mit der alten vSOC / CCD / IOD Spannung) vermehrt WHEA 19 provozieren konnte, indem ich vDIMM, ProcODT, RttPark und CAD erhöht habe.
Das ist sehr interessant ich hab seit ca. 3 Wochen mit ähnlichen Problemen zu kämpfern dabei hab ich seit Monaten das Bios nicht mehr angerührt. Bin mir nicht sicher ob es an den gestiegenen Temperaturen draußen liegt oder mein RAM/CPU langsam degenerieren.
Jedenfalls hab ich den schuldigen mittlerweile identifiziert es ist die VDDG IOD Spannung die nun wohl mittlerweile zu niedrig ist. ich musste sie um 0,0050 V erhöhen jetzt läuft wieder alles tadellos.
Schon komisch das System lief fast 2 Monate ohne den geringsten Fehler zu verursachen, dann plötzlich zack ca. alle 30 Min tauchen Fehler auf immer mal wieder vereinzelt. Ich musste die Spannung auch nur ganz geringfügig anheben um das wieder zu fixen. Es hat sich also definitiv was verändert, ich scheine wohl nicht der Einzige zu sein der langsam vor sich hin altert
Ich möchte an die Temps glauben denn ich bin im Winter auch leistungsfähiger u. schwitze weniger. Das würde nämlich heißen ich werde nicht langsam alt, die Sommer werden nur heißer das würde sich auch mit der Klima Forschung decken
Bei mir kann es die AGESA definitiv nicht sein @Verangry hat mir damals die 1.2.0.A aufgebohrt damit auch ASMP u. viele andere dinge damit möglich ist. Ich hab also nicht die aller neuste AGESA drauf da sie mir keinerlei Vorteile bringt.
AMI-BIOS-7C56vAD-2023-05-08
Seit damals hab ich nichts mehr im Bios gemacht u. bis vor 3 Wochen lief alles ohne Fehler.
Verangry schrieb:
Im ernst? Du redest von einer halben, vielleicht einer ganzen Nanosekunde besserer Latenz?
Wann bitte würdest du sowas merken?
Hehe. . . wie Heißt es nochmal?
Wer die Nanosekunde nicht ehrt ist hohe FPS nicht wert
Verangry schrieb:
Sorry aber da hörts dann auf.
Strom beim RAM OC sparen ist wirklich lächerlich und ich bin normal ein großer Befürworter vom einsparen (wenn es Sinn macht).
ich sehe das ähnlich bin ja sonst auch so ein low Volt Juncky wobei mir geht's da eher um die Temps. u. damit verbunden die Lautstärke des Rechners.
Schlimmer finde ich das noch bei Netzteilen da gibt's Leute die kaufen sich ein Platinum Netzteil das 300€ Teurer ist als ein vergleichbare in Gold. Wegen 2-4% besserem Wirkungsgrad. Um die 300€ Aufpreis wieder an Stromkosten herein zu bekommen (ja nach Strompreis) müsste der Rechner im schnitt 5 Jahre ohne Unterbrechung auf Volllast laufen.
Nochmal zur Sicherheit - wir sind hier alle der gleichen Meinung - wär auch OK wenn's nicht so wär, is aber ned so 😉. Würde ich nur 1% mehr rausholen können, würde ich 1,55V anlegen.
Aber wenn ihr mehr Leistung mit 1,28V erhaltet als mit 1,33V, welche Spannung stellt ihr dann ein? Eben 😉
Die B-Die verwöhnten hier kennen offenbar die speziell 16Gbit IC bedingten tRCDRD- / tRFC-Limit Eigenheiten nicht, was Primärtimings betrifft - nämlich dass die wenig Auswirkung auf die Leistung haben, und auch bauartbedingt kaum weniger als tCL = tRCDRD-4 geht, egal wie viel vDIMM.
Zahlen tun wir alle das gleiche - die einen für die doppelte Speichermenge und ca 3% weniger Leistung, die anderen für 3% Mehrleistung bei halb so viel Speicher. Wer hat Recht? Keiner, weil es Enthusiastenkram ist, den kaum einer wirklich "merkt". Weder die 64GB, noch die 1-2 CL weniger - oder? Also fühlen tu ich das "lokale Optimum" schon, nur merken halt nicht 😉
Bei mir kann es die AGESA definitiv nicht sein. @Verangry hat mir damals die 1.2.0.A aufgebohrt, damit auch ASPM u. viele andere Dinge damit möglich sind. Ich hab also nicht die allerneuste AGESA drauf, da sie mir keinerlei Vorteile bringt.
Mit AGESA 1.2.0.A würde dein Board allerdings die neueste momentan verfügbare Version für AM4 innehaben.
AGESA 1.2.0.B soll erst in den nächsten Monaten von AMD fertig werden & dann bei den Boardpartnern erscheinen.
P.S.
Hab mir mal erlaubt, das Zitat deines Beitrags in die deutsche (Rechtschreib-)Sprache zu konvertieren.
@Tanzmusikus kein Ding nach dem Gendern hab ich eh jegliche Zuversicht in die Deutsche Sprache verloren. Wobei ich sagen muss das meine Rechtschreibung noch nie die Beste war.
Mittlerweile muss ich sagen das mein Englisch besser ist als mein Deutsch wobei ich eigentlich ein "nativer" deutsch bin, soll heißen mein Großvater hat auch schon hier gelebt u. gekämpft. Bin ja diesen Sommer auch schon 50 Geworden" Ich finde die Deutsche Sprache ist zu bürokratisch es gibt zufiele Regelungen u. ausnahmen wie in vielen anderen Bereichen unseres Lebens ja auch, na ja egal.
Tanzmusikus schrieb:
Mit AGESA 1.2.0.A würde dein Board allerdings die neueste momentan verfügbare Version für AM4 innehaben.
AGESA 1.2.0.B soll erst in den nächsten Monaten von AMD fertig werden & dann bei den Boardpartnern erscheinen.
Ernsthaft was soll da noch kommen?
AM4 wurde schon längst aufgegeben ich erwarte keine großen Sprünge von AMD, da wird sich keiner mehr hinsetzen u. Speicher Profile erstellen wie früher.
Die Sicherheits Updates sind für Privatleute eh meist irrelevant aus dem Grund werd ich da auch nicht mehr tätig werden u. was neues aufspielen.
Ein fiktives Windows 12 wird auch keine Option mehr sein für ein Bios update denn solch ein Windows wird eh nur noch in der Cloud stattfinden, ein Client dafür könnte schon meine Kaffeemaschine abgeben also was solls^^
Bin bei dir. Wie oft habe ich das jetzt schon on/off gestellt und gedacht das es besser ist als andersrum. Ich belasse das nun auf Auto und fertig. Bei mir ist Kern 1 der Beste und Kern 0 der Zweitbeste. Je nach Powerplan kommen dann auch noch Unterschiede raus.
Genau so ist es. Sind große fette Sicherheitslücken. Ob man diese ignoriert, ist nicht meine Verantwortung.
Das Stopfen der Sicherheitslücke(n) kann/soll einiges an Performance kosten.
Hab ich auch schon gehört zumindest bei INTEL, bei CPU´s niedriger als 12 Gen sind es bis zu 40% Leistung Verlust. Leider hüllt sich AMD da ja mal wieder in schweigen zumindest hab ich bis Donnerstag Abend noch nichts vernommen gehabt was davon betroffen ist u. welche CPU Gen´s
Im Prinzip ist es auch egal für den Normal Gamer da ja AVX, AVX2 u. AVX512 davon betroffen sind.
AVX512 scheidet für uns 5800X3D Nutzer schon mal aus.
AVX u. AVX2 kann man zur Not über die Windows Konsole deaktivieren zumindest konnte das mein Windows 7 noch.
Die Meisten vernünftig programmierten Programme haben ja noch einen Fall Back auf SSE4.1 das sollte also auch kein Problem sein.
Da ich weder einen Cloud Service noch ein Datacenter betreibe ist mir das ziemlich egal.
Auf meinem Rechner wird nur gezockt u. ab u. an gerendert.
Alles andere läuft über´s Smartphone wobei das keinen Deut sicherer ist als mein PC mit all den App´s die da drauf sind
Dann musst du aber auch den Rechner vom Netz trennen, denn überall wo Daten heruntergeladen werden könnte solcher Schadcode enthalten sein, der Aufwand ist den meisten nur zu groß um so Zugriff zu erlangen.
Möglich ist es aber wie gesagt immer sobald man irgendwas herunterlädt.
Ich mache mir da aber auch keine plete drum, wichtige Daten sind auf der Zockerkiste nicht mehr drauf, einzig der Verlust der ganzen Games durch gehackte Accounts wäre nervig.
Ich bin gerade wieder an meinem eigenen 5800X3D am "werkeln" und bin am ausprobieren!
Die 1.8V PLL ist ja die "Eingangsspannung" in die Spannungswandler.
Bei den 5600X, 5900X, ..... und so weiter hat das reduzieren dieser Spannung auch eine besser Temp,
der CPU bewirkt.
Jetzt bin ich gerade dran, ob mein PBO auch mit weniger als den aktuellen 1,92V PLL die ich eingestellt habe, stabil zum laufen bekomme.
Und vor allen was es an den Temps verändert!
Ist nur mal ein Experiment, eine Theorie nichts weiter!
Wenn aber der Boost besser gehalten werden kann, dank weniger Temp,
wäre das vielleicht auch ein brauchbarer Ansatz!
Ich habe es mit 1,64V laufen, aber konnte nie einen Temperaturunterschied zu 1.8V messen
Dafür läuft die Kiste aktuell mit VDDP 800mV / CCD 780mV / IOD 900mV
Ich habe keine Infos bekommen bezüglich eines fixes, da müsste man Jan ggf nach fragen.
Und wenn bereits dran gearbeitet wurde dürfte er es vermutlich nicht sagen wegen irgendwelcher NDAs oder sowas..
Mein Wissensstand ist jedenfalls der, dass sich keiner gemeldet hat.