9900K Undervolt

eRacoon schrieb:
Das klingt aber auch nach einer ziemlichen Milchmädchen Rechnung, was machst du denn am PC um 100 Watt im Schnitt durch UV zu sparen? Der synthetische avx2 Wert ist da ja kein Maß, beim Gaming macht UV doch fast nichts aus, wenn du außerhalb des CPU Limit bist ist das fast irrelevant, da reden wir hier eher von einem Gesamt CPU Verbrauch von <60W auch bei einer CPU auf 5Ghz Boost Stock.

Also bin voll bei dir was UV angeht, ist schon nice to have und renne ja auch selbst im UV bei starken RAM OC, aber die Leistung der CPU so massiv einzuschränken und da irgendwie sich 100€ im Jahr Stromersparnis vorzugaukeln halte ich für ziemlich unwirtschaftlich. Dann hätte eine kleine CPU es auch getan mit weniger Leistung, da hätte man das Geld von vornherein gespart.

"indiskutabel" wie du es nennst ist eigentlich nur das viele Mainboards die CPUs als "Stock" fernab von den Referenzwerten betreiben und mit vollkommen absurden unnötigen hohen Spannungen Stromverbauch erzeugen.
Daher musst du dein UV eher mit den realen "Stock" Werten vergleichen und nicht was Asus, Asrock und co. da auf die CPU knallen wenn man alles auf "Default" lässt.
hab ich wohl etwas schwammig geschrieben was ich da gegenüberstelle:
1. UV bei 4Ghz
2. OC mit OV bei 5Ghz
beides im systhentischen benchmark mit und ohne avx2 und unter gaminglast (da hab ich mehrere titel genommen die cpu fressen) die drei sachen in einen topf geworfen und den durchschnitt gebildet. macht bei mir ziemlich genau 100watt unterschied aus.
klar hab ich beim gaming teils nur 65 watt und wenn ich ans äußerste gehe, habe ich auch 220watt geschafft...
 
Genau deshalb ist OC auch Quatsch .
Habe auch mal 5Ghz eingestellt wegen neuer GPU (RTX3090)

Der Unterschied zwischen 4700Mhz und 5000Mhz sind an der GPU im Schnitt 2% mehr FPS.
Alles mit Max Setting ohne RT mit 2560x1080 /21zu9

Deshab bin ich wieder auf Undervolt und 4700Mhz zurück.
 
Berserkervmax schrieb:
Habe auch mal 5Ghz eingestellt wegen neuer GPU (RTX3090)

Der Unterschied zwischen 4700Mhz und 5000Mhz sind an der GPU im Schnitt 2% mehr FPS.

Es gibt Leute die geben für ~15% mehr Performance 1000€ mehr aus... ist dann auch "Quatsch".
Und das hier teils zwischen einer guten OC CPU mit starkem RAM OC + Cache OC durchaus auch mal 7-9% mehr Performance liegen, hatten wir doch schon einige Seiten vorher durchgekaut dachte ich.

Ja UV ist cool und hat absolut seine Berechtigung aber verstehe das OC gehate hier nicht...
 
Zuletzt bearbeitet:
Das mag sein.
Trotdem stehen dann bei dem 9900k Verbrauch und Leistungsteigerung unter keinem guten Stern.

Und ja auch ich bin bekloppt eine RTX 3090 zu kaufen.
Es gibt dafür wenig Argumente außer " Will ich haben"

Ähnlich sehe ich es mit Übertakten des 9900K und dafür gibt es wie im ersten Post schon beschrieben genung andere Beträge in Foren aber nicht diesen hier.
 
eRacoon schrieb:
verstehe das OC gehate hier nicht...
Also von "OC gehate" habe ich noch nichts hier gelesen. Das war nur seine persönliche Meinung dass OC bei ihm keinen Sinn gemacht hat. Das wird er doch wohl sagen dürfen, oder?
 
Mittelwert aus 3 Bechmarks
2560x1080
MSI RTX 3090 mit Undervolt bei 1800Mhz @0,812volt ( spart 100Watt)

Borderlands 3 - In Game Beschmark Maxed out

4700Mhz / CPU 65Watt 122,7 FPS
5000Mhz / CPU 87Watt 124,7 FPS

Red DRD2 - InGame Bechmark Setting PCGH Hoch noch nicht mal Maxed Out
https://www.pcgames.de/Red-Dead-Red...ng-Einstellungen-Systemanforderungen-1339319/
4700Mhz 132,5 FPS
5000Mhz 133 FPS

Shadow of the Tombraider Trail mit RT on ohne DLSS Maxed out In Game Bench
4700Mhz 87 FPS
5000Mhz 89 FPS

BF5 64 Mann Karte Zerstörung Startpunkt Flagge A und B RT on Mittelwert aus 120 sec.
4700Mhz 132FPS CPU 100Watt
5000Mhz 138FPS CPU 142Watt

Cyberpunk 2077 Max Out RT Psyco DLSS Qualiti / Arpatment Fenster Blick auf die Stadt
4700Mhz 79FPS bei 98Watt CPU
5000Mhz 79FPS bei 123Watt CPU

Ja ich weiß die Position stimmt nicht ganz. Mach aber keinen Unterschied.

Also stelle ich fest das sich OC selbst mit einer RTX3090 bei meinen Grafiksettings irgentwie nicht lohnt die CPU zu Übertakten weil die GPU immer noch zu stark ausgelastet ist.
 

Anhänge

  • 4700.png
    4700.png
    5,7 MB · Aufrufe: 322
  • 5000.png
    5000.png
    5,3 MB · Aufrufe: 331
Zuletzt bearbeitet:
Recht ernüchternde Ergebnisse, aber kommt halt auch auf die anderen Settings an.
Ohne Anpassung von Cache und RAM macht das wenig Sinn die 4,7Ghz gegen die 5Ghz zu benchen, bei der benötigten mehr Power geht jedenfalls deutlich mehr wie diverse OC Ergebnisse zeigen.

Daher ja bin bei dir, einfach nur 5Ghz zu setzen ohne sich weitere Gedanken über OC zu machen ist recht sinnlos bei der Platform.
Die 5Ghz bekommt der 9900k ja eh fast von Haus aus durch den SingleCore Boost bei einigen Games auf die Straße.
 
CPU 4700Mhz / System Agent (SA) 1000Mhz /Ring Bus (RB) 4300 Mhz
CPU 5000/ SA 1000Mhz /RB 4600Mhz
DDR 32GB 3200er Cl16 1t (4x8 SR) bei beiden.

Also ist mein 5Ghz Setting mit Bus Erhöhung usw.

Trotzdem bringt es sehr wenig und außer außer 30Watt Mehrverbrauch in zb. Cyberpunk nicht viel.

Wenn du die Grafik auf Maximum stellt ist die GPU das was bremst und nicht die 9900K mit 4700Mhz !
Wie gesagt mit einer RTX3090 und ich Spiele in 2560x1080. Nicht oder 1440P !

Klar haste in irgentwelchen CPU lastigen Syntetischen Benches mehr Punkte.

Aber im großen und ganzen lohnt es eben bei mir eben nicht so wirklich
 
Zuletzt bearbeitet:
Update: Habe den Fehler gefunden: Hatte vergessen den Turbomodus für alle Kerne zu deaktivieren. Jetzt läuft er auch konstant auf 5 GHz bei 1.21 V. Werde jetzt noch mal versuchen das Offset zu reduzieren. Scheint ne gute CPU zu sein dieses Mal.


Moin zusammen,

erstmal vielen Dank an Berserkervmax für die hilfreichen Antworten. Ich habe mich an dem folgenden Guide orientiert:
Overclocking - 9900K @ 5GHz 1.2V guide Gigabyte Z390 Master + 5.2GHz 1.28v guide pg2) | bit-tech.net Forums (bit-tech.net)

Mit diesen Settings liege ich nun im Bios und auch im Cinebench bei 5Ghz mit 1.24 V 1.20V Normalspannung, plus 0,04 V Offset ) absolut stabil. Jetzt aber mal etwas lustiges: Unter Windows liegen nur 4,7 GHz an und auch wenn ich Cyberpunk spiele läuft die CPU entspannt auf 4,7GHz bei der Spannung. Wenn ich nun aber Cinebench anwerfe, dann laufen alle Kerne auf 5 GHz. Die Temperaturen liegen bei der CPU um und bei 64 Grad und die VRMs sehe keine 60 Grad.
ICh verstehe nur absolut nicht warum er nur beim Cinebench dann die 5 GHz anlegt. Das AVX Offset liegt bei 3. Daher liegt im Cinebench R23 auch nur 4,7 GHz vermute ich.
Aber warum nutzt er in Spielen dann nicht die 5? Auch unter Windows Last nur die 4,7? HAt da jemand eine IDee?
 
Zuletzt bearbeitet:
Bios einstellung ?
Schütz sich irgentwas selber im Dauerbetrieb ?
Spannungswandler evtl. zu Warm?

und alle C-bench haben AVX zumindes 20und 23 ganz sicher .

Aber wie gesagt .
Undervolt steht hier im Vordergrund

Erzähl doch mal was 4700Mhz all Core brauchen ?
Kommste unter 1,1Volt?
 
So, da mein Ziel tatsächlich die 5 GHz bei möglichst geringer VCore zu haben läuft das System nun wie folgt:
5GHz Allcore mit HT und AVX Offset von 3 total stabil bei 1.235V. Denke das kann man so stehen lassen.
Mit stabil meine ich nun, dass ich beim spielen und auch beim rendern meiner Musik und meinen täglichen arbeiten keinerlei Abstürze oder sonstiges habe. Vermutlich würde ich bei 4.7 noch weiter runterkommen aber das werde ich so erstmal nicht machen, da gerade bei meinen Anwendungen die ich nutze sich die 300 MHz auf allen Kernen doch sehr gut bemerkbar macht.
 
Weitere CPU Overclock Test

Shadow of the Tombraider @2560x1080 Maxed Out
Steam Trail Version


In Game Benchmark
Asrock Z390 Extrem 4 mit Bios 4.30
CPU : Intel 9900K HT on
RAM : DDR4 3200 4x8GB Cl16 1t
GPU : RTX3090 @1965Mhz konstant - Powerlimit begrenzt nicht

Undervolt @1,152Volt CPU 4700Mhz / Uncore 4300 / FLCK 1000
RTXon 15505Frames
RTXoff 22548Frames

1,264Volt @ CPU5000Mhz/ Uncore 4700Mhz / FLCK 1000
RTXon 15810Frames (+2%)
RTXoff 23072 Frames (+2,3%)

Durch die Übertaktung braucht die CPU ca. 30% mehr Strom für ca. 2 bis 2,3% mehr FPS

Habe mir DDR4400Cl16 bestellt und werde damit nochmal nachtesten.
Aber zur Zeit macht CPU Overclocking trotz RTX3090 und 2560x1080 Punkten Display zum Gaming wenig Sinn

Da die Demo kostenlos ist kann jeder gerne nachtesten
https://store.steampowered.com/app/750920/Shadow_of_the_Tomb_Raider_Definitive_Edition/
 
Zuletzt bearbeitet:
Bin gespannt wie hoch du den RAM mit UV bekommst... bei mir war kein >4000 möglich mit starkem UV.
Musste die Spannung schon deutlich anheben dafür + nochmal mehr um den CPU Cache Takt zu erhöhen.

Effektiv ist mit meiner CPU und RAM OC das CPU UV deutlich eingeschränkter.
Hab aber auch Vollbestückung auf einem T Topology Board und jeder RAM ist ja generell anders.

Zum Benchmark, naja TB war schon immer eher ziemlich GPU lastig wenn ich mich nicht täusche?
Wundert mich fast schon dass es überhaupt 2% Unterschied macht, vor allem mit RTX eingeschaltet.
Das könnten schon fast eher normale Messungenauigkeiten sein.

Viel Spaß beim RAM OC, daran kann man sich deutlich mehr die Zähne ausbeißen als am CPU UV.
Aber zur aktuellen Zeit ja genau das richtige. :schluck:
 
Deshalb auch sehr guten RAM.
Runter Takten geht immer ;)
und RAM OC hat wenig mit Vcore zu tun
VCCIO
VCCST
VCCSA

Sind dafür der Schlüssel.
Deshalb werden die auch teilweise Extrem erhöht bei XMP Profil Benutzung
(Siehe Post Uno)

Im Übrigen ist die GPU Last Ohne RTX bei Tomb Raider bei 45-55%.
Mit RTX >90%
 
Berserkervmax schrieb:
und RAM OC hat wenig mit Vcore zu tun
Kommt auf den spezifischen Anwendungsfall an. Mit schnellerem Speicher verringerst du überall dort wo die CPU auf Daten aus dem Speicher warten muss ihre Leerlaufzeiten. Also kann sie in solchen Situationen bei gleichem Kerntakt mehr Arbeit verrichten, wofür wiederum mehr Spannung erforderlich sein kann.
 
Ram OC von 3200 CL16 18 38 1t auf 3500 CL17 20 40 2t bringt in SoTR 1,7% mehr FPS !
In BF5 64Mann Multiplayer von 185-190FPS auf 195-198FPS (Ohne RTX)

Daher erhoffe ich mir von 4400Cl16 , wenn er den läuft , sehr viel .
Aber wie viele andere Sachen zur Zeit nicht lieferbar...bzw. meine Liefertermin ist auf unbekannt verschoben worden.

☹️

Also heist es warten....
 
Habe 4400Ram gekauft
Der läuft jetzt 4000 CL16 16 34 2t weil über 4000 irgentwie mein Board die Timings schlechter macht.

Tombraider von oben mal ohne RTX
DDR3200 Cl16 18 38 FPS vergessen / 22548 Punkte
DDR3500 Cl 17 17 34 148FPS / 23295Punkte
DDR4000 CL16 16 34 157FPS / 24528Punkte
DDR4000 CL16 16 34 Mit Subtimig Optimierung 163FPS / 25541 Punkte


Nur durch den RAM! Gleicher CPU Takt.

Ein Übertakten der CPU auf 5000Core /4700uncore mit DDR3200 bringt 2FPS
159FPS / 25057Punkte
mit DDR4000 Cl16 und Sub Timimgs
169FPS / 26560 Punkte
 

Anhänge

  • 4000Cl16 Scharf Optimum Max stabil .jpg
    4000Cl16 Scharf Optimum Max stabil .jpg
    146,5 KB · Aufrufe: 286
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
Jop und damit dreht der 9900k auch absolut Kreise um alle Ryzen 3xxx CPUs, in den Benches wird die Gen9 von Intel leider immer auf Stock RAM Takt betrieben.
Aber gab dazu ja mal einen seperaten Test hier auf CB der zeigte was in den CPUs steckt mit dem passendem RAM.

Auch mal ein Bench gemacht mit RAM OC + 5Ghz + Cache Takt auf 4,7 oder 4,8?
Da sollte eigentlich noch mehr gehen als nur die 2 FPS.

Auch könnte man mal versuchen 4400 mit CL17 oder 18 zu erreichen, könnte im Schnitt noch was flotter sein.
Aber mit 4000 ist man schon mal gut dabei gegen "Standard" RAM. :)
 
Alles über 4000 geht nicht mit vier Modulen.
über 4000 starte zwar aber ist nicht stabil max. Bootfähig mit 4 Modulen ist 4300
Das ist meine aktuellem RAM Timings

https://www.computerbase.de/forum/t...auswirkungen-auf-spiele.1849970/post-25333199

Fakt ist jedenfalls das schneller RAM mit optimierten Subtimings deutlich mehr bringt als übertakten der CPU.
In Verbindung mit optimiertem Takt der CPU+Cache-Uncoreclocks lohnt das mit großer GPU sehrwohl.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eRacoon
Zurück
Oben