Ryzen 7 5800X3D Undervolten!


Eno77 schrieb:
Mal auf -25 All Core erhöht, Spannung geht auch etwas herunter (im Vergleich zu -20), aber Leistung bleibt bei ~105W (+-2)vorher mit KS auf 3 u. später auf 2 war die Leistung afair bei unter 100W und das Ergebnis auch höher.
Und vor allem ging es nicht bis auf 90 grad hoch.

Irgendwas ist da noch komisch - aber ich wills jetzt auch nicht mit KS versuchen, wenn es da zu viel Spannung anlegt und man es zurücksetzen muss, dass es wieder unfixed wird / ist.
Das klingt jetzt hart aber eigentlich ist der CO einfach nur ein Armutszeugnis seitens AMD´s. Damit soll man selbst irgendwie einstellen das die CPU den Maximalen Boost Clock erreicht den AMD uns eigentlich beim Kauf dieser CPU verspricht. Anfangs hat man uns 5800X3D Besitzern den sogar vorenthalten was eine Frechheit war.
Wenn man also ein Bord hat das generell der CPU wenig Spannung gibt kann es vorkommen das der Boost Offset. . ähm ich meinem natürlich Curve Optimizer die Spannung der CPU zu weit absinken lässt. Was die CPU instabil werden lässt u. sie deshalb nicht mehr auf Max Boost, Boosten kann.

Dann hilft dir nur noch ein positiver CPU Offset den du aber zumindest bei MSI nicht bekommen wirst außer du nutzt ein Mod Bios danke nochmal an Verangry für deine Zeit :)

INTEL braucht sowas offenbar nicht um ihre CPUs ans Limit bringen zu können, auch wenn ich den blauen Verein absolut nicht mag muss ich denen das zugestehen.
 
4BitDitherBayer schrieb:
Damit soll man selbst irgendwie einstellen das die CPU den Maximalen Boost Clock erreicht den AMD uns eigentlich beim Kauf dieser CPU verspricht.
Stimmt so aber nicht, wenn die Kühlung stimmt bekommst ja deinen max. Boost, so wie auch bei Intel, nur muss die Kühlung halt potent sein.

4BitDitherBayer schrieb:
Wenn man also ein Bord hat das generell der CPU wenig Spannung gibt kann es vorkommen das der Boost Offset. . ähm ich meinem natürlich Curve Optimizer die Spannung der CPU zu weit absinken lässt.
Dafür gibt es aber die VID, ich hab bisher noch nie erlebt das ein Board weniger als die VID geliefert hat, vorausgesetzt es war nicht defekt oder hatte ein minderwertiges oder defektes NT vorgeschaltet.
 
@4BitDitherBayer

Du bringst da irgendwie was durcheinander.

Der "max. Boost" ist offiziell 4500MHz. Das gilt für einen Kern. Ansonsten ist nur der Basistakt spezifiziert.

Der "Curve Optimizer" ist doch nur ein Undervolten bezogen auf die V/F-Curve. Das kann man bei Intel auch so machen um CPUs zu optimieren. Dafür ist es gedacht. Am Ende gehört das aber auch zur Kategorie "Overclocking", da die CPU damit außerhalb ihrer Spezifikationen betrieben wird.

Der 5800X3D ist einfach die falsche CPU, um sie "ans Limit" zu bringen.

Ich mag den "blauen Verein" übrigens. Aber in dem von dir genannten Zusammenhang gibt es zwischen Rot und Blau keinen Unterschied. Auch mein 13900KS erreicht seinen "max. Boost" nur innerhalb einer gewissen Temperatur/Auslastung. So wie auch der 5800X3D.

Das Getweake am 5800X3D ist doch eher Hobby und macht Spaß. Wirklich nötig ist das (bis auf eine gewisse Effizienzsteigerung) am Ende eigentlich nicht.
 
  • Gefällt mir
Reaktionen: Fas7play, Guphoff, Baal Netbeck und 2 andere
4BitDitherBayer schrieb:
Dann hilft dir nur noch ein positiver CPU Offset den du aber zumindest bei MSI nicht bekommen wirst außer du nutzt ein Mod Bios danke nochmal an Verangry für deine Zeit :)
Warum nutzt du nicht LLC? Höherer LLC + negativer Offset ist ein Kombination die gut funktionieren kann.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Sorry für den Sarkasmus gestern der gehört eigentlich nicht hier hin ich war nur etwas gefrustet u. enttäuscht.
Ich habe in den letzten 2 Wochen Intensivst probiert u. getestet über 3 verschiedene AGESA hinweg um mein System einigermaßen vernünftig in Spielen nutzen zu können. Anfangs hatte ich mit massiven Mikro Rucklern zu kämpfen das ist jetzt besser geworden u. mit den verbliebenen werde ich jetzt einfach leben. Ich werde keine Zeit mehr in das "optimieren" dieses Systems vergeuden sondern einfach nur noch damit zocken so gut es geht :)

Adonay schrieb:
Stimmt so aber nicht, wenn die Kühlung stimmt bekommst ja deinen max. Boost, so wie auch bei Intel, nur muss die Kühlung halt potent sein.

Bei mir ist das aber so wie du in diesem Beitrag hier sehen kannst https://www.computerbase.de/forum/t...urve-optimizer-30-all-core-so-geht-s.2134475/
Wenn du dir da mal die 2 Ersten Bilder anschaust.
Da siehst du ganz deutlich das mein System schon "out of the box" u. auch nicht mit dem CO -30 Max Boosten kann. Weder die Spannungen noch die Temperaturen sind ein Limitierender Faktor also warum kein Max Boost (4450MHz all Core)?

Adonay schrieb:
Dafür gibt es aber die VID, ich hab bisher noch nie erlebt das ein Board weniger als die VID geliefert hat, vorausgesetzt es war nicht defekt oder hatte ein minderwertiges oder defektes NT vorgeschaltet.
Ein Defekt kann natürlich immer vorliegen da kann ich nicht viel zu sagen. An sich läuft das System ordentlich stabil wenn nur nicht diese Mikro Ruckler in Games währen. Ich hab auch schon die Graka gewechselt zum testen das hat aber auch nichts gebracht.
Jedenfalls wenn ich nen Dicken Spannungs Offset von + 0,0500V anlege sind die Ruckler fast weg. Die Spannungsversorgung scheint also in der Lage zu sein das zu Stämmen nur wird das irgendwie nicht automatisch abgerufen Siehe Bild 4 in meinem Beitrag.

Dome87 schrieb:
Du bringst da irgendwie was durcheinander.

Der "max. Boost" ist offiziell 4500MHz. Das gilt für einen Kern. Ansonsten ist nur der Basistakt spezifiziert.

Der "Curve Optimizer" ist doch nur ein Undervolten bezogen auf die V/F-Curve. Das kann man bei Intel auch so machen um CPUs zu optimieren. Dafür ist es gedacht. Am Ende gehört das aber auch zur Kategorie "Overclocking", da die CPU damit außerhalb ihrer Spezifikationen betrieben wird.
Das "Max Boost" sollte sich natürlich auf (all Core beziehen) also 4450MHz.
Ich kenne nur noch 2 weitere Intel Systeme das von meinem Bruder u. meinem Neffen ein 12600 u. ein 13900. Die Boosten "out of the Box" immer so hoch bis sie in ein Limit laufen meist ist es die Temp. Mag sein das es bei Intel auch ein Äquivalent zum Curve Optimizer gibt, jedenfalls haben die das nicht benötigt.

Dome87 schrieb:
Der 5800X3D ist einfach die falsche CPU, um sie "ans Limit" zu bringen.

Ich mag den "blauen Verein" übrigens. Aber in dem von dir genannten Zusammenhang gibt es zwischen Rot und Blau keinen Unterschied. Auch mein 13900KS erreicht seinen "max. Boost" nur innerhalb einer gewissen Temperatur/Auslastung. So wie auch der 5800X3D.

Das Getweake am 5800X3D ist doch eher Hobby und macht Spaß. Wirklich nötig ist das (bis auf eine gewisse Effizienzsteigerung) am Ende eigentlich nicht.
Der Blaue Verein :) Ist in meinem Ansehen in den Letzten Monaten auch wieder stark gestiegen vor allem die ARC Karten sind für mich wirklich interessant.
Das mag auch daran liegen das der Rote Verein :D mich nach dem Lunch des 5800X3D eigentlich nur noch enttäuscht hat. RDNA 3, AM5, u. nicht zuletzt der 7000X3D Lunch wo eigentlich nur der 7900X3D vom Start weg erhältlich ist haben zumindest "MICH" nicht überzeugt.

Das schöne ist das AMD, INTEL so richtig in den Allerwertesten gekickt hat damals mit Ryzen.
Sie haben ihnen aufgezeigt das es nicht damit getan ist jedes Jahr die gleiche CPU heraus zu bringen unter einem anderen "LAKE" Nahmen :D
Intel hat verstanden u. ist nun wieder dabei Echte Neuerungen in ihre CPUs zu Packen selbst ein Chiplet Designe ist nicht mehr tabu, das klang vor einigen Jahren noch ganz änderst

Nun ist es eben AMD die alle paar Jahre die selbe Ryzen CPU nur eben mit größerer Nummer heraus bringt.
Gut den 3D V-Cache muss ich ihnen zu gute halten das wars dann aber auch schon an Innovation. Wenn ich dann aber sehe wie man das umsetzt, der 7800X3D kommt erst min April u. der 7950X3D ist nicht verfügbar beim Lunch so das viele jetzt die 7900X3D Gurke völlig überteuert gekauft haben.
Das hinterlässt keinen guten Geschmack bei mir.

So ich werd mich jetzt hier ausklinken u. die Dinge einfach so akzeptieren wie sie sind oder wie der "Cracky von Rawiioli" immer sagt "Nichts mehr Machen" :D
 
4BitDitherBayer schrieb:
nur nicht diese Mikro Ruckler in Games währen
Gibt es bestimmte Spiele, die das betrifft?
Manchmal kann sowas auch am Spiel selbst liegen. (Online Spiele z.b. oder je nach der Engine, die das Spiel nutzt)
Ich habe mit dem Upgrade vom 3800X auf den 5800X3D ein smootheres Erlebnis / dämpfung solcher Ruckler bekommen, aber keine vollständige Befreiung davon.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
@4BitDitherBayer
Horizon Zero Dawn hatte bei mir mit der RX 5700 XT oft wahrnehmbare Mikroruckler.
Ich konnte die aber durch spezielle Einstellungen oder Tools (DXVK, SpecialK) minimieren.
S.A.M. half zusätzlich.
 
4BitDitherBayer schrieb:
Ich werde keine Zeit mehr in das "optimieren" dieses Systems vergeuden sondern einfach nur noch damit zocken so gut es geht
Hast du schon mal das BCLK untertakten, auf z.B 98,3125 MHz probiert? Das bringt mir (Asus Dark Hero) in Far Cry 6 mehr Durchschnitts FPS.
 

Anhänge

  • Far Cry® CPU Stock RAM 3800MHz.jpg
    Far Cry® CPU Stock RAM 3800MHz.jpg
    939,3 KB · Aufrufe: 122
  • Far Cry® CPU BCLK 101MHz PBO2 -27 -29 -29 -27 -29 -29 -27 -29 RAM 3771MHz CL16.jpg
    Far Cry® CPU BCLK 101MHz PBO2 -27 -29 -29 -27 -29 -29 -27 -29 RAM 3771MHz CL16.jpg
    1,3 MB · Aufrufe: 123
  • Far Cry® CPU BCLK 98,3125 PBO2 -29 -30 -30 -29 -30 -30 -29 -30 RAM 3800MHz.jpg
    Far Cry® CPU BCLK 98,3125 PBO2 -29 -30 -30 -29 -30 -30 -29 -30 RAM 3800MHz.jpg
    1,3 MB · Aufrufe: 121
4BitDitherBayer schrieb:
Weder die Spannungen noch die Temperaturen sind ein Limitierender Faktor also warum kein Max Boost (4450MHz all Core)?
Guten Frage, auf jeden Fall finde ich die Vcore bei -30 ohne Offset ziemlich niedrig, bei mir ist der Durchschnitt in CB 1,16 und max. (vom Start abgesehen) so bei 1,18v

Falls auf Bild 3 die >1,2v nicht vom CB Start sind finde ich die wiederum recht hoch.
Sicher das es nicht am Board liegt?
4BitDitherBayer schrieb:
wenn nur nicht diese Mikro Ruckler in Games währen. Ich hab auch schon die Graka gewechselt zum testen das hat aber auch nichts gebracht
Dafür kann dein Rechner nichts, ich habe deswegen ALLE Komponenten (außer Gehäuse und AiO) getauscht und es hat nichts geändert, als einzige noch geblieben ist meine 6900 XT aber die hat zwischenzeitlich als alles ausgetauscht war mal kurz einer 3090 Platz gemacht und mit der nVidia war es ebenfalls reproduzierbar.

Welche Games?

Kannst dir ja mal den Thread hier geben:
https://www.computerbase.de/forum/threads/rx-6900-xt-micro-ruckler-stuttering-bei-spielen.2017834/
 
Guphoff schrieb:
Hast du schon mal das BCLK untertakten, auf z.B 98,3125 MHz probiert? Das bringt mir (Asus Dark Hero) in Far Cry 6 mehr Durchschnitts FPS.
Rein mathematisch ist das auch logisch: Geringerer Basis-Takt = höhere FPS.
Ist halt eine indirekte Proportionalität zwischen den beiden Werten.

Beispiel: Wenn der Basis-Takt auf 50% sinkt, steigen die FPS auf 200% ... bis die CPU voll ausgelastet ist.
Letztlich wären die berechneten Bilder dann im Durchschnitt wieder die gleichen.

Die 50% sind dabei vermutlich unrealistisch. 200% sind es dann vielleicht nicht ganz genau.
Könnte auch sein, dass durch den zu niedrigen Basistakt -> RAM & andere Komponenten geringer takten.
Dann würden die Durchschnitts-FPS sinken. Aber bei den 2% Abweichung fällt das wohl nicht ins Gewicht.



Kann aber auch einfach an der Test-Szene liegen. Je heller das Bild, desto höher die Performance (FPS).



M.E.n. kann man Mikroruckler auch gezielt durch ein bestimmtes FPS-Limit mindern/verhindern.
Bei z.B. 144Hz-Monitoren sollte das Limit maximal 141/142 FPS ... und idealerweise im Bereich unter den durchschnittlichen (also den "immer" erreichbaren) FPS sein.
 
Zuletzt bearbeitet:
Eno77 schrieb:
Gibt es bestimmte Spiele, die das betrifft?
Manchmal kann sowas auch am Spiel selbst liegen. (Online Spiele z.b. oder je nach der Engine, die das Spiel nutzt)
Ich habe mit dem Upgrade vom 3800X auf den 5800X3D ein smootheres Erlebnis / dämpfung solcher Ruckler bekommen, aber keine vollständige Befreiung davon.
Das ist querbeet bei den Spieletiteln mal stärker, mal weniger stark selbst in CSGO Das eigentlich überall läuft ok ich glaub Intel ARC hat damit Probleme. Ich hab die Spiele getestet mit einer GTX 960 4GB und der RTX 3060 12GB, vielleicht wäre es ja mit AMD Karten besser wer weiß.
Manche behaupten ja es liegt am Chiplet Designe von AMD CPUs das da Latenzen auftreten usw. was ich nicht glauben kann das ist doch alles so minimal im nano sec. Bereich.

Tanzmusikus schrieb:
Horizon Zero Dawn hatte bei mir mit der RX 5700 XT oft wahrnehmbare Mikroruckler.
Ich konnte die aber durch spezielle Einstellungen oder Tools (DXVK, SpecialK) minimieren.
S.A.M. half zusätzlich.

DXVK ist richtig gut gerade auch wenn du ältere Sachen hast die noch DX9 verwänden.
dgVoodooCpl kannst du da auch verwenden wenn du lieber DX12 versuchen magst anstelle von Vulkan.
Das macht manche Spiele schneller aber gegen die Ruckler hilft es jetzt nicht so wirklich bei mir.

Guphoff schrieb:
Hast du schon mal das BCLK untertakten, auf z.B 98,3125 MHz probiert? Das bringt mir (Asus Dark Hero) in Far Cry 6 mehr Durchschnitts FPS
Nein das hab ich nicht versucht aber wie schon geschrieben werd ich an der Kiste nichts mehr machen, ich habe damit am Sontag Abend ein für alle mal abgeschlossen. Ich werd mich einfach mit den Rucklern abfinden ist zum glück nicht so schlimm wie Screen Tearing, das hasse ich wie die Pest u. wäre für mich ein No Go.

Adonay schrieb:
Falls auf Bild 3 die >1,2v nicht vom CB Start sind finde ich die wiederum recht hoch.
Sicher das es nicht am Board liegt?
Bild 3 ist ja schon mit CPU Offset von + 0,0625V darum ist es so hoch.
Der ist aber definitiv zu hoch + 0,0500V mit einem EDC von 85 ist bei mir das Optimum so wie im Bild 4. Damit hab ich 700 Punkte mehr im CB23 Erreicht wie wenn er Stock läuft.
Das ist auch der Grund weshalb ich die neuen Biose von MSI nicht nutzen kann denn da kann man garkeinen Positiven CPU Offset mehr einstellen, damit hab ich dann noch knapp 14500 Punkte im CB23. Ohne Mod Bios kann ich meine Kiste in die Tonne kloppen!

Ich werd jetzt erst mal schauen was der April so bringt wie die Tests zum 7800X3D so ausfallen werden u. vor allem auch was der Preis sagen wird.
Ansonsten auch mal abwarten was das Blaue Lager so zeigen wird am Ende wird es die Preisleistung richten :)
 
4BitDitherBayer schrieb:
DXVK ist richtig gut gerade auch wenn du ältere Sachen hast die noch DX9 verwänden.
dgVoodooCpl kannst du da auch verwenden wenn du lieber DX12 versuchen magst anstelle von Vulkan.
dgVoodoo2 für DX1-9 (zu DX10-12), ... DXVK ist für DX9-11 (zu Vulkan) ... & VKD3D für DX12 (zu Vulkan) geeignet.

dgVoodooCpl ist die entsprechende Windows-Binärdatei zu dgVoodoo2.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 4BitDitherBayer
Ja das schon nice was man damit heutzutage alles machen kann vor allem auch fürs Linux Gaming. Ich hab es schon für RaceRoom genutzt u, damit teilweise mehr FPS als mit der originalen DX9 API erzielt, was ich dann schon recht Crazy fand.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
@4BitDitherBayer soll man bei CSGO nicht SMT ausschalten damit es besser läuft? Mit Process Lasso lassen sich die Kerne an der game.exe zuweisen. Teste das doch mal.
Bei Apex Legends zum Beispiel bring das SMT OFF was.
 
Guten Morgen in die Runde, ich muss mich nochmal melden. Mein 5800x3d wird seid dem Upgrade von der 1080ti auf 4090 nun doch deutlich wärmer (ca. 10C° mehr) und ich wollte mal fragen, ob ihr noch einen Ratschlag für mich habt.

Gekühlt wird die CPU immer noch von einem Scythe Fuma 2 mit einer recht aggressiven Lüfterkurve (min. 70%, ab 65°C = 85% und ab 75°C = 100%). Gehäuse ist das Pure Base 500dx mit 3x 120er Lüfter in der Front sowie 2x 140er Lüfter (hinten + hinten/oben).

In Games wie zum Beispiel Battlefield 2042 ist laut MSI Afterburner die Temperatur von vorher Max. 72°C auf 82°C gestiegen. Auch in Sons of the Forest pegelt er sich dort ein. Da die CPU den Takt dann nicht mehr sauber bei 4450MHz hält, sondern dann auch mal auf 4325MHz fällt, wollte ich euch mal Fragen ob der Grafikkartentausch sowas überhaubt bewirken kann.

Mein MSI Tomahawk b450 MAX läuft mit dem aktuellen Bios und auch Kombo Strike "3" ist aktiviert. Könnte das Gewicht der 4090 eventuell das Mainboard etwas mehr biegen, das der Lüfter nicht mehr so gut aufliegt wie vorher, oder ist die Auslast bei der CPU jetzt einfach um so viel mehr, das die höhere Temp entsteht?

Ich würde sonst als nächstes mal den Lüfter demontieren und nochmal mit einem neuen Klex (Mittig) Arctic MX4 installieren. Bin dankbar für jeden Ratschlag und schöne Woche euch Allen.
 
könnte es sein, dass die 1080 immer am Limit war und die CPU dadurch entspannt laufen konnte? Du warst wohl immer im GPU Limit und jetzt ist die 4090 geisteskrank schnell und der Prozessor kommt gar nicht mehr hinterher und läuft immer im Limit und wird dadurch viel heißer. Das ist die für mich einzig sinnvolle Erklärung.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Creekground
Mach doch Mal einen 720p Test.
 
waldi2_ger schrieb:
Gekühlt wird die CPU immer noch von einem Scythe Fuma 2 mit einer recht aggressiven Lüfterkurve (min. 70%, ab 65°C = 85% und ab 75°C = 100%). Gehäuse ist das Pure Base 500dx mit 3x 120er Lüfter in der Front sowie 2x 140er Lüfter (hinten + hinten/oben).
Ich würde früher anfangen zu kühlen, (bei mir) so Niedrig 40°C Mittel 45°C Hoch 55°C.
 
Danke schon mal für eure Infos dazu. Den CPU Lüfter schon zeitiger bei 100% laufen zu lassen denke ich wird nichts bringen, da auch bei ständigen 100% diese Temperaturen erreicht werden.

Ich werde nochmal einen Cinebench machen, da hat die 4090 ja eigentlich keinen Einfluß. Beim letzten Test mit Kombo Strike 3 waren es dann 82°C mal sehen ob ich da derzeit noch lande oder doch mit der Wäremleitpaste oder dem Sitz des Lüfters was nicht stimmt.
 
Zurück
Oben