Leserartikel Intel Core i-Serie - RAM Overclocking (Auswirkungen auf Spiele)

Amok1968 schrieb:
Hallo an alle CB User,vielleicht könnt ihr mir weiter helfen? Ich bin vor kurzen von Corsair Vengeance RGB Pro 3600 Mhz 32GB(4x8GB) auf Crucial Ballistix DDR4-3600 Mhz 32GB (2x16GB) um gestiegen.Und jetzt das Problem,ich habe die Speicher auf 16-16-16-38-1T 3700Mhz am laufen.Aber AIDA64 und CPU-Z zeigen 1775 Mhz (3550Mhz) wo kann da der Wurm begraben sein? Hardware ist in der Signatur,und Bios ist Up to Date (1502) Die Corsair hatten das immer genau angezeigt.
BCLK manuell auf 100.00 fixiert oder zumindest geprüft ob er auch bei 100 liegt?
 
iGameKudan schrieb:
@PhoenixMDA Das prime-Thema hat sich zwar für mich soweit gegessen, aber eine Sache noch: Prime 8K ist tatsächlich Bullshit. Das ist wirklich nur für nutzlos viel Abwärme nützlich (und zwar so viel, dass AVX/FMA untern Tisch fällt).

Für die VCore empfiehlt sich 1344K... Macht nicht so viel Hitze und reagiert stärker auf VCore-Probleme.

@meckswell Turbo schön und gut... Aber von den 5,3GHz sieht man schlicht nicht viel.
  • 5,3GHz ist Singlecore mit TVB
  • 5,2GHz ist Singlecore (mit Turbo inklusive 3.0)
  • 4,9GHz ist Allcore ohne TVB

Wo genau da der Gewinn durch den Turbo 3.0 liegt weiß ich jetzt gerade nicht (zwischen dem Allcore-Turbo und Turbo 3.0 wird ja nochmal nach Kernen abgestuft), aber der ist am Ende nicht die Rede wert.

Und bei Per Core-OC habe ich nunmal die klassische Denkweise: Die CPU hat X Kerne mit Y Features, also hat die auch mit X Kernen und Y Features das OC zu wuchten. Ob ich jetzt am Ende nochmal 100-200MHz mehr Takt auf einzelnen Kernen durch PerCore-OC raushole macht den Kohl nicht fett. Tut Allcore-OC in den Regionen wo wir uns mittlerweile ab Werk befinden zwar auch nicht mehr so viel, aber dann hat man in MT-Szenarien eben die geringe Mehrleistung über alle Kerne.

Und in weniger MT-lastigen Szenarien taktet die CPU die Kerne eh nur nach Bedarf hoch. Vorausgesetzt, man nagelt nicht den Takt fest.

Ich finde das auch bei Extrem-OC immer recht lächerlich, wenn dort mit Taktraten geprahlt wird, die nur unter Zuhilfenahme der Abschaltung von Kernen oder CPU-Features erreicht wurden.
Die LLC macht ne Menge aus grade bei sowas wie 8k Test, bei passender LLC und manueller VCore solltest du die Temps drücken können, dazu kommt natürlich die Güte der Chips.
5,1-5,2Ghz NonAvx sollte aber mit guten Chips machbar sein bei passender Kühlung.

Ich würde erstmal deine CB20 VCore Ausloten bei 5Ghz.
 
R1c3 schrieb:
BCLK manuell auf 100.00 fixiert oder zumindest geprüft ob er auch bei 100 liegt?
Das ist ja auch das Phänomen im Bios ist 100.00 eingestellt aber AIDA64 zeigt 096.00,also müsste ich wohl 104.00 einstellen.Sowas habe ich noch nie gehabt,die Crucial Ballistix sind auf jeden Fall Top.
 
Per Core hat ja nichts mit schummeln oder abschalten von Kernen zu tun. Per Core ist der Auslieferungszustand und nicht Allcore. Und die einzelnen Taktstufen kann man bearbeiten.

Das hat ja sogar Intel erkannt und beim 9900K erstmals den Dualcoreturbo eingeführt, das ist auch richtig so. Denn bei nur Singlecoreturbo wird auch mit dem saubersten Windows der Singletubotakt seltens erreicht.

Beim 8700K hab ich jetzt einfach den zweiten Kern auch auf 47 gestellt, was zur Folge hat das der Turbo jetzt sauber auf 4700 geht. Auch wenn z.B. bei R15 SC HWinfo64 mitläuft, was tatsächlich was ausmacht, geht der Turbo sauber auf 4,7 hoch und das ist gut so.

Mit Per Core hat man eine deutlich effizientere CPU Ausnutzung als mit Allcore. Die meiste Zeit ist eh Idle und Teillast, für was sollen wenn ich Firefox öffne nur als Beispiel alle Kerne auf 5Ghz hoch?
Das is doch Krampf.

Es gibt noch Specific Per Core, das ist nicht zu empfehlen, weil es da immer der gleiche Kern ist der hochtaktet. Bei Per Core ist es abwechselnd und jeder geht mal auf 4,7Ghz.
Ergänzung ()

Falls ihr euch nicht vorstellen könnt, wie das im Bios aussieht, habe ich es für euch im Bild festgehalten. Man kann ja exerimentieren, niemand zwingt einen nur stupides Allcore OC zu betreiben.
Bin jetzt mal auf 48 hoch mit dem Dualcoreturbo. Windows wechselt die Kerne ab, so dass alle mal auf 48 kommen.
per core 48.png
 
Zuletzt bearbeitet von einem Moderator:
@PhoenixMDA Seit meinem Vorfall mit dem 2500K bin ich was LLC und dem daraus resultierenden Voltage Overshoot bei Lastwechseln eher etwas vorsichtig.

@meckswell Keine Sorge, ich weiß wie das aussieht. Aber nochmal die Frage: Wieso sollte ich nur Per Core übertakten, wenn wegen den Stromsparmechanismen eh nur so viele Kerne wie nötig so hoch wie nötig takten?

Da würde ich tatsächlich sogar Per Core Specific übertakten, um die Mehrleistung auf den Kernen mitzunehmen, die mehr Takt vertragen.
 
Deswegen ja auch de passende LLC, also je nach Board brauch man halt ein ordentlichen Drop das es keinen drastischen Overshoot gibt, das war bei meinen 2600K noch nicht so relevant.

@Pjack
Ich hab mal kurz daddeln lassen etwas, also bei 208W laut Asus Auslesung kam nen WHEA bei Prime da mein Long Therm auf 210W steht, würde ich das passend einstellen hätte er runtergedrosselt vom Takt.
Er drosselt aber nach der Package Power also müsste ich 185W nehmen.
Das sind ca. 15A mehr als Prime NonAVX.
Aber hey für 5,24Ghz AVX^^, klar mehr VCore oder LLC4 wären da dann angebracht, aber das ist nun wirklich kein Usecase von daher.

Das zu testen macht auch echt keine Freude da der Rechner da echt steht, wortwörtlich^^.
Also so würde ich meinen Rechner nicht nutzen wollen bzw. auch eigtl. nicht mehr möglich.

Die Drops sind wesentlich heftiger als bei NonAVX wenn du 100% Prime stable haben willst wäre da bei mir LLC4 wohl sinnvoll.
1.jpg
 
Zuletzt bearbeitet:
iGameKudan schrieb:
@PhoenixMDA Seit meinem Vorfall mit dem 2500K bin ich was LLC und dem daraus resultierenden Voltage Overshoot bei Lastwechseln eher etwas vorsichtig.

Ich weiß zwar nicht, was vorgefallen ist, aber z.B. hardwareLUXX warnt auch schon länger vor zu scharfer bzw. falsch verstandener LCC:

https://www.hardwareluxx.de/index.p...0-coffee-lake-overclocking-check.html?start=1

Von vielen Nutzern wird die LLC gerne bzw. aus Unwissenheit genutzt, da man mit aktiver LLC im UEFI z.B. nur 1,3 V einstellen muss, um unter Last im Betriebssystem auch wirklich 1,3 V zu erreichen, anstelle der sonst nötigen 1,4 V im UEFI (bei normaler Intel Loadline). Dennoch sollte nicht vergessen werden, dass es bei Nutzung der LLC zu Spannungsspitzen beim Lastenwechsel kommen kann, die deutlich über die im UEFI eingestellte Spannung hinausgehen können. Diese sind tendenziell sogar noch schädlicher, als die im UEFI vermeintlich zu hoch eingestellte Spannung (mit Intels Loadline).
 
  • Gefällt mir
Reaktionen: iGameKudan
Die LLC muss der Last angepasst sein, sprich der Drop muss je nach Board und Watt Zahl passen, auf nen Apex XI brauchst du z.B. weniger da das VRM wesentlich stärker ist.
Bei meinen Setting ist LLC5 mit ca. 150mV das Optimum, das muss man ausloten genauso wie die VRM Frequenz.

"Zuviel" Drop ist nicht schlimm, zu wenig dagegen ist sehr schlecht.

Da muss ich sagen ist der Support von Asrock NL echt Top, die haben mir damals für das Asrock Z370 Extrem4 beim 8700K extra nen Bios mit angepasster LLC nach meinen Wunsch in Taiwan gemacht.👌
Mehr kann man echt nicht erwarten.

Was mit seinen 2500K war weiß ich nicht, aber meiner war nicht so die Perle, da war bei 5,2Ghz schluss beim benchen mit Wakü.Da gab es bessere.
Unbenannt.jpg
 
Zuletzt bearbeitet:
@CiTay Ich vermute ganz stark, dass LLC mit eine Rolle gespielt hat, weswegen mir der 2500K (+ das Board, ASRock Z68 Pro3) verreckt sind. Gleiches beim 5650...

Meine Lehren aus den beiden Defekten ist jedenfalls dass, wenn ich eh schon mit der Spannung im Grenzbereich arbeite, auch mit der LLC entsprechend vorsichtig bin.

@PhoenixMDA Naja, was LLC angeht ist ja eher der Voltage Overshoot bei Lastwechseln das heikle Thema.
https://en.wikichip.org/w/images/th...px-cpu_load_voltage_and_droop_and_llc.svg.png

Da kann der Overshoot je nach LLC-Stärke so extrem sein, dass die CPU mit mehr Spannung bei einer geringeren LLC-Einstellung vermutlich gesünder rechnet.

Wobei ich da nicht so ganz hasenfußmäßig drauf bin wie ich es hier vielleicht darstelle - nur mehr wie ne mittlere LLC würde ich auf keinen Fall nutzen.

@snakeeyes Ich wünsche viel Spaß. :heilig:
 
  • Gefällt mir
Reaktionen: snakeeyes
Ich will ja nicht zu weit die Fresse aufreißen, aber trainieren tuts problemlos. :daumen: BC47234F-8EB8-413A-84BC-A4C29877BCB0.jpeg

Nur mit dem Takt wirds wieder haarig, 4133MHz gehen, allerdings spielen da schon die RTLs und IO-Ls Scheibe. Alles mehr an Takt bootet nicht mehr.
 
  • Gefällt mir
Reaktionen: PhoenixMDA
Du kannst ja die RTL fixen und GSat checken wenn das läuft ist es Safe, hast du mal mit mehr IO/SA getestet ob du dann höher kommst?

Wieviel Beim Drop beim MSI du benötigst must du mal gucken, ich weiß nicht welche LLC du bei MSI brauchst.

Das VRM ist ja ziemlich fett, das sollte gut "Puffer'n" können, hast ja auch nen Haufen Spulen drauf, die vermindern sozusagen die Lastspitzen.
 
Zuletzt bearbeitet:
@Esenel
Ich bin am Überlegen ob 360er AiO (Freezer II/Alphacool Eisbaer) oder NH-D15 Chromax für meinen 10900K. Kommt leider erst morgen an. Wie ist deine Einschätzung?
 
Runter mit der Mütze... bei hwl hat es 7 Grad gebracht.
 
Er hat doch glaube 3 Stück bestellt, da muss er ja erstmal gucken, es werden ja auch noch DirectDie Frames bestimmt kommen, hoffentlich dann auch von Rocket.
Das sollte bei der CPU richtig was bringen.
 
CiTay schrieb:
hardwareLUXX warnt auch schon länger vor zu scharfer bzw. falsch verstandener LCC:

https://www.hardwareluxx.de/index.p...0-coffee-lake-overclocking-check.html?start=1
Interessant ist wieder, dass dort max. 1.2 V IO und SA empfohlen werden, während hier scheinbar bedenkenlos mit 1,3 und auch schon mal 1,35 gefahren wird. Bei mir sieht's nicht viel besser aus mit ca. 1,272 IO und 1,288 SA.
Ergänzung ()

CiTay schrieb:
Andere Sache, bei meinem Board mit dem RAM haben tWTR_L / tWTR_S Priorität, d.h. man kann bei tWRRD_sg / tWRRD_dg einstellen was man will, es wird immer ausgehend von tWTR_L / tWTR_S berechnet.

[...]

Sind das im ASRock-Tool jetzt Auslesefehler, dass er mir tWTR und tWTR_L mit um 1 abweichenden Werten anzeigt? Jedoch stimmen tWRRD_sg / tWRRD_dg ja mit den "falsch ausgelesenen" Werten überein?
Ist zwar schon ein bisschen "outdated", trotzdem: Könnte eine MSI-Eigenheit sein, denn ich bestätige dieses Verhalten.
 
Zuletzt bearbeitet:
Zurück
Oben