I5 13600k core voltage

Vaizon12

Cadet 2nd Year
Registriert
Nov. 2022
Beiträge
29
Hallo erneut. Ich habe überall gelesen das man den i5 13600k mit 1.100 volt betreiben soll um zusätzliche Temperaturen zu vermeiden. Kann ich im Bios einfach die core voltage überschreiben ohne dass eventuell schädigende Konsequenzen daraus folgen?
Beste Grüße Vaizon
 
Musste schauen bzw dich im Netz mal informieren wie man das bei deinem Mainboard (Bios)
am besten so macht.
Vaizon12 schrieb:
schädigende Konsequenzen
Mehr wie Bluescreens, freeze wird nicht passieren.
Kaputt geht da nichts.
Viel Erfolg.
 
  • Gefällt mir
Reaktionen: Vaizon12
Musste ausprobieren. Bei mir waren 1.1v zu wenig, kamen auch 20-30mV weniger an lt CPU-Z. 1.11v reichte für WoW aber intensivere Aufgaben haben mich auf 1.15v gebracht.

Wenn das Ding instabil wird merkste das zügig wie oben bereits genannt. Evt. schmiert auch einfach nur das Programm ab. Daher sollte man was nehmen was Bugfrei ist zum Testen, damit das nachvollziehbar bleibt und auch tatsächlich aufs UV zurückzuführen ist.

1.1V is auf jeden Fall n guter Punkt von dem man ausprobieren kann.
 
  • Gefällt mir
Reaktionen: Vaizon12
Hab 1.1v eingestellt reicht für meine Games läuft auch sonst alles stabil.
Danke für eure Antworten!
 
Ich habe eher die Erfahrung gemacht das die Leistung abnimmt als das hier was abschmiert. Kann man ganz einfach mit Cinebench testen.
 
Fixed VCore würde ich eh nicht nehmen, sondern immer Offset
und da muss man ein wenig tüfteln je nachdem.
Möchte wenn ich nicht zocke (Idle, Web, ..), nicht die VCore haben
die das System unter Last braucht.
Und darauf bezog ich mich eigtl. auch oben mit "Bluescreens u.. freeze",
die kann es dann eben eher im Idle geben bei Offset.
Kriegt man aber schon hin, wenn man sich etwas Zeit nimmt dafür.
 
schkai schrieb:
Ich habe eher die Erfahrung gemacht das die Leistung abnimmt als das hier was abschmiert.
Habe mit einer non-K CPU und H670 dieselben Erfahrungen gemacht.

Beim neuen 13700K und Z690 Board jedoch lässt sich die Spannung ohne Leistungsverlust absenken. Vorzugsweise aber lieber mit Offset, LLC, Lite Load (MSI) oder SVID Behavior (Asus).
 
LLC meiden wenn möglich und wenn, mit Vorsicht genießen.
Ich hab's am liebsten bisher, wenn ich LLC aus lassen kann.
 
@Nickel
Mit LLC ist natürlich eines mit einem hohen vDroop gemeint. Sprich die Spannung sollte wenn möglich drastisch sinken, so wie von Intel vorgesehen. Oder was meinst du mit meiden?
 
Wenn möglich ohne LLC (off), weil das Feature auch nicht ungefährlich ist.
Lieber Offset und "Additional Turbo Voltage".
Ergänzung ()

OZZHI schrieb:
so wie von Intel vorgesehen
LLC ist nicht wirklich von Intel vorgesehen und der Standard ist "Aus",
bzw Intel CPUs brauchen kein LLC. Das ist ein Mainboard/Bios Feature.
Und eigtl. eher fürs OC gedacht als nur für UV.
 
Nickel schrieb:
LLC ist nicht wirklich von Intel vorgesehen und der Standard ist "Aus",
LLC nicht aber der normalerweise entstehende Vdroop unter Last schon. Um dem entgegen zu wirken wurde ja LLC programmiert. Je nach Motherboard muss man eben vom Standardwert abweichen und die LLC hoch oder runterstellen, damit man auf deinen empfohlenen „Off“ Wert kommt. Ein Off Setting habe ich noch nie gesehen.
 
OZZHI schrieb:
damit man auf deinen empfohlenen „Off“ Wert kommt. Ein Off Setting habe ich noch nie gesehen.

Einer der Einstellungen die für LLC geboten werden ist immer Off
ASRock als Beispiel: LLC einstellbar von LLC 1-5 , 5 ist hier - LLC Off (aus).
 
Wir meinen dasselbe, Kommunizieren jedoch in anderen Wellenlängen. Ich bleib dabei: LCC runter-/hochstellen bzw. so einstellen, dass die Spannung gemäss Intel Vorgaben unter Last sinkt. :D
 
Bei Gigabyte zB heißt es dann "normal", das schließt weitgehend Verwechslungen aus.
 
schkai schrieb:
Ich habe eher die Erfahrung gemacht das die Leistung abnimmt als das hier was abschmiert. Kann man ganz einfach mit Cinebench testen.
Und was nimmt man als Referenz in einem Benchmark? Für mich ist da nicht ersichtlich ob Jemand die Powerstage mit 285 oder 150 Watt betreibt. Bei CPU Z hab ich gesehen, von einem Sample jedenfalls, Multithread soll bei 10k und Single bei 830 Points liegen, ja aber mit welchem Ram, welche Bios Settings? Benchmark ist dahingehend für mich keine Referenz was die Leistungen angeht.
Meine CPU wäre im Vergleich zum Intel Sample damals wohl mit 9700 MT Punkten und 815 ST angeblich langsamer aber nachvollziehbar ist das dennoch nicht.
Mich juckt der Benchmark dahingehend also wirklich nicht, für mich zählt hier nur die 99% GPU Auslastung in realen Anwendungen.

Nach aktueller Lage muss ich bspw. froh sein, wenn diese Auslesetools überhaupt korrekt auslesen.
Hwmonitor zeigt mir bspw falsche Taktraten an, im Idle 5100MHz und der Taskmanager sagt aber 3.5 oder 4.5 etc. , Intel XTU kann die Spannung nicht auslesen und so zieht sich das durch, mit sowas ist das Benchmarken nicht möglich.
Zumal auch klar sein muss, dass diese PL Phasen nur dazu da sind um Benchmarks schön aussehen zu lassen, Niemand will mit den kommenden Strompreisen eine CPU werkeln lassen, die 285Watt oder mehr ertränkt für 2% mehr Leistung in einem Benchmark. Ist ja schließlich eher eine Gaming CPU.

Genauso wenig sind in der kalten Jahreszeit jetzt Temps von 85°C oder mehr nicht schön anzusehen, im Sommer dann die Notabschaltung oder wie ? 😅

Bei meinem Bruder seiner 13700K CPU werden Spannungen bis 1.4v ausgerufen, beim zocken sogar die 90°C erreicht trotz 360er AiO. Damit kann man nichts anfangen, alleine schon aufgrund der Lautstärke die sich entwickelt und der angezeigte Verbrauch dabei ist der reinste Abturn wenn die Kilowattstunde bald 40 Cent aufwärts kostet.

Ich gucke auch nebensächlich hin und wieder ob und wo es Refernzen zum vergleichen gibt aber mit diesen Powerphasen und wenn diese nicht eingetragen sind, fällt schonmal viel nichtssagender Kram raus.

Edit: Ich hab mal die ganzen Computerbase Tests mit deren Limits (181 Watt) und sonst allem bei belassenen Default Settings gelassen mit Ausnahme des XMP Profils, deren Ergebnisse sind für mich nicht nachvollziehbar.
Weder in Cinebench noch sonst irgendwo komme ich an deren Punktzahl und liege darunter.
Zeitgleich idled die CPU jetzt bei 1,22v aufm Desktop und verbläst 1,34v unter Benchmark Last, mit UV exakt die gleichen Werte wie ohne.
BenchR20.JPGTestCPU2.JPG
Das zweite Bild ist bei mir z.B. mit/ohne Undervolting, mit UV sind die Points höher weil ich nicht in die 181 Watt Limit rein renne.

CPUZ2.JPGTestCPU1.JPG

Links ohne HWMonitor geöffnet (macht paar Punkte platt).
Den einzigen Unterschied den ich mit und ohne UV vernehmen kann ist der höhere Stromverbrauch und die lächerliche Temperaturen (bis 30°C Unterschied) was maximal die Sinnlosigkeit erreicht ohne im entferntesten einen Nutzen zu besitzen.
 
Zuletzt bearbeitet:
eax1990 schrieb:
Benchmark ist dahingehend für mich keine Referenz was die Leistungen angeht.
Wie willst du sonst Leistung messen?
eax1990 schrieb:
Mich juckt der Benchmark dahingehend also wirklich nicht, für mich zählt hier nur die 99% GPU Auslastung in realen Anwendungen.
Dann hättest du dir den 13600k auch sparen können wenn du die Leistung nicht brauchst.
eax1990 schrieb:
Hwmonitor zeigt mir bspw falsche Taktraten an, im Idle 5100MHz und der Taskmanager sagt aber 3.5 oder 4.5 etc
Doch, die Taktraten Stimmen. Der Taskmanager zeigt dir die "falschen" Taktraten an. Liegt einfach daran das er das mittel von den Ecores und Pcores anzeigt.
eax1990 schrieb:
Weder in Cinebench noch sonst irgendwo komme ich an deren Punktzahl und liege darunter.
Weil es von deiner Kühlung und deinem restlichen Setup abhängt. Dies kann dann zu Abweichungen führen. Um die gleichen Ergebnisse zu erhalten brauchst du auch 1:1 das gleiche Setup.

Wenn ich es bei mir mit dem UV übertreibe, laufen bei mir selbst die Ecores nur noch mit halben Takt und meine CB Punkte liegen dann bei ca 14.000. Jedes bisschen UV mehr lässt die Leistung schmelzen. Es verhält sich fast wie ein Powerlimit. Dann kann ich auch gleich ein PL bei X Watt setzen, damit habe ich das gleiche Ergebnis.
 
Hab meinen 13600k auch etwas undervoltet. Bin -0.090v im offset gegangen. Ergebnisse sind gut. Lüfter drehen nicht mehr so hoch, weniger Watt und Hitze bei "gleichbleibenden" Punkte.
 

Anhänge

  • b.uv.png
    b.uv.png
    695,6 KB · Aufrufe: 489
  • -0.090.png
    -0.090.png
    505,5 KB · Aufrufe: 489
Zuletzt bearbeitet:
@schkai
So einfach wie du dir das ausmalst sind Computer eben doch nicht.
Rein von der Leistung her müsste ich ja im Cinebench am Test vorbei ziehen allein schon weil ich eben nicht den mittelmäßigen Speicher des CB Testsetups habe.
Meine Werte decken sich eher mit dem was Guru3D ermittelt hat.
Stellt sich die Frage ob die Ergebnisse falsch sind oder Asus im Hintergrund automatisch manipuliert um schicker auszusehen, deswegen sind Benchmarks in meinen Augen nicht nachvollziehbar aktuell.

So wie die Software sich im Augenblick preisgibt würde ich das bestenfalls noch als Beta beschreiben. Beim MSI Afterburner fehlen mir auch nötige Anzeigen im Overlay. Normalerweise kann man den Takt der Kerne anzeigen lassen, fehlt aber aktuell.
Meine Vermutung dahinter ist eher dass die Software erst noch reifen muss und mit Z790 nicht gänzlich umgehen kann.
Wenn sogar Intel XTU nicht sauber funktioniert ist das Thema erstmal gegessen.

Der 13600k tut übrigens exakt das was ich bzgl Leistung erwartet habe, ich hab auf den 700 oder gar 900K verzichtet weil diese ganzen Ecores absolut nutzlos sind im Augenblick beim Zocken und an dem Tag wo die Software davon nutzen erzielt, sind diese Prozessoren wieder von Mittelklasse eingestampft und überholt worden.
Genau das ist nämlich die aktuelle Entwicklung seit Ryzen, man stelle sich vor, man hätte nen Threadripper damals gekauft zum zocken, ders jetzt fast schon obsolet bzgl Gamingleistung bzw. wars schon seit Release und kommt bis zum heutigen Tag nicht dazu seine gesamte Multithreadleistung auszutoben. Gleicht so ein bisschen der Bulldozer Vishera Architektur, war auch schwach pro Kern und damit trotz 8 Threads nie brauchbar beim zocken, aber sah toll aus in Benchmarks die man eben nicht spielen kann.

Macht aktuell keinen Sinn die Highend CPUs zu kaufen, die Zeiten wo ein 2500K mal Ewigkeiten hielt sind ja auch vorbei seitdem Ryzen da ist.
Der für mich perfekte Prozessor hätte 10 Pcores, (davon 2 nur als reinster Puffer) gehabt ohne Hyperthreading und 0 Ecores, gibts aber nicht. Blieb der 13600K übrig mit nem vernünftigen Preis und wäre relativ gut zu übertakten um dann beim Gaming mit dem 13900K gleichziehen zu dürfen für viel weniger Geld.
Die Realität in der Zukunft wird aber wohl wieder so sein, zu dem Zeitpunkt wo der i5 zu langsam wird ists der i7 und i9 ebenfalls und wird wieder von Mittelklasse abgezogen.
Ist doch beim 12900K auch so aktuell, was bringt der beim Zocken an Mehrleistung? Nix.

Mein 9900k, der 6800K... die waren schneller unbrauchbar als erwartet, hat sich ja in der Software nie was geändert, ein Kern limitiert die ganze Anwendung und den Rest des Prozessors wegen zu wenig Singlethreadleistung (Softwareoverhead) und schon darfste eh wieder in 2-4 Generationen neu kaufen.
Schaut man sich das aktuelle Warzone an, dann sieht mans dort auch 1-2 CPU Kerne laufen im Anschlag, der Rest des Prozessors ist purer Ballast und die Threads wo alles machen bestimmen die FPS aufgrund der Singlethreadleistung.

Im dortigen Benchmark aber ein ähnliches Bild, der Benchmark entspricht nicht dem realen Anwendungsfall, jegliche Rechenleistung die vom Netzwerkchip über die CPU laufen sind dort auch nicht enthalten, folglich besseres Ergebnis als die Realität im Multiplayer. Benchmark Top, Realität Flop.
 
  • Gefällt mir
Reaktionen: schnälli
Ich habe nun auch mein komplettes System zusammengesteckt.

Der Rechner besteht aus folgenden Komponenten.

Prozessor: i5 13600k
Mainboard: ASROCK Z790 STEEL LEGEND WiFi
Kühler: be quiet! Pure Loop 2 FX 360mm
Speicher: 32GB Kit G.Skill Trident Z5 RGB DDR5-6400 CL32
Grafikkarte: ZOTAC RTX 3070 OC
Gehäusebe: quiet! Pure Base 500 FX
Netzteil: Corsair HX850i
Betriebssystem: Windows11 Pro

Gibt es irgend wo eine genaue Anleitung zum undervolten mit diesem Motherboard & CPU?
Im Moment habe ich Offset -100 eingestellt und mehr geht auch nicht. Was kann man noch optimieren? Anbei mal ein Screenshot von heute Morgen. CPU & GPU 10 Minuten Stresstest mit AIDA64 EXTREME.

10Min_Stresstest.jpg
 
Zurück
Oben