So, ich will euch mal ein paar meiner Testergebnisse von den Auswirkungen diverser Subtimings zeigen. Ich weiß, dass bei mehr Spannung natürlich noch ein höherer Takt drin wäre bei Samsung B-Die, aber darum geht es nicht. Ich wollte sowohl sehen, was einzelne Settings ausmachen, als auch, welcher Benchmark darauf anspringt oder auch nicht.
Das System selber steht in der Signatur (MSI Z390, 9600KF). Es liegen Daten von vier verschiedenen Speicherkits vor, jeweils optimiert auf die niedrigstmögliche DRAM-Spannung, bei der noch mindestens die auf der Packung angegeben Primärtimings laufen, dazu VCCSA 1.05V und VCCIO 0.95V.
Kingston HyperX Fury DDR4-2666 2x8GB, CL15-17-17 (HX426C15FBK2/16), Dual-Rank
Kingston HyperX Fury DDR4-3200 2x8GB, CL18-21-21 (HX432C18FB2K2/16), Hynix JJR @ 17-19-19-39
Crucial Ballistix Sport LT DDR4-3200 2x8GB, CL16-18-18, Micron Rev. E @ 15-17-17-39
G.Skill Trident Z 2x8GB, DDR4-3600, CL16-16-16-36 (F4-3600C16D-16GTZKW), Samsung B-Die
Es wird von links nach rechts gegangen. Verbesserungen zur vorigen Spalte sind grün hinterlegt und Verschlechterungen orange. Wenn bei den Benchmarks nur Veränderungen im Rahmen der Messungenauigkeit vorkommen, sind sie nicht farbig hinterlegt. Die Timings sind in der Reihenfolge, wie sie im MSI-BIOS aufgelistet sind. Tertiäre Timings wurden bei allen Konfigurationen vom BIOS optimiert (Timing Optimization enabled).
Die Spalten B bis E sind die vier verschiedenen RAM-Kits. Man sieht direkt, dass quasi jeder Benchmark darauf anspringt. Takt von 2666 auf 3200 hoch bringt überall was, obwohl von Dual-Rank auf Single-Rank gegangen wurde und die Timings schlechter sind.
Bei 3200 mit Micron Rev. E die Timings alle wieder schärfer zu bekommen, bringt auch wieder einen recht großen Vorteil. Und dann natürlich ein ziemlich großer Sprung bei 3200->3600.
Cinebench R15 fällt schon beim Sprung von 2666 auf 3200 dadurch auf, eine kleine Verschlechterung zu bemerken, komplett gegensätzlich zu den anderen Benchmarks. Wie sich im weiteren Verlauf zeigt, scheint das zu 99,9% die CPU-Leistung zu bewerten, die Werte sind fast immer ähnlich, wahrscheinlich nur davon abhängig, was Windows gerade im Hintergrund noch macht. Natürlich waren keine anderen Programme aktiv, aber Windows macht selber andauernd Wartungsarbeiten etc., die kurzzeitig ein paar Prozent CPU schlucken.
Dann schauen wir weiter. In Spalte F habe ich nur tFAW von 20 auf das Minimum von 16 gesenkt. Die meisten Ergebnisse bleiben ähnlich, aber der AIDA64 Copy-Wert sinkt. Dass dies kein Ausreißer ist, belegt der Gegentest in Spalte M, wo ich tFAW von 16 auf 20 anhebe, und der AIDA64 Copy-Wert steigt. Da aber die restlichen Ergebnisse im Rahmen der Messungenauigkeit ähnlich bleiben, belasse ich es jetzt bei tFAW 16.
Kleiner Exkurs zu tRRD und tFAW (habe recherchiert, was es genau damit auf sich hat): Wie viele hier wissen, hängen tRRD und tFAW zusammen. tRRD ist min. 4, tFAW ist min. 4x tRRD, somit min. 16.
Aber warum gibt es diese Optionen? tRRD (Row-To-Row Activation Delay) und tFAW (Four Activate Window) wurden eingeführt, um die maximale Stromaufnahme sowie die Temperatur eines Speicherriegels zu begrenzen. Denn die Row Activation, also das Aktivieren einer Speicherbank, verbraucht mit den meisten Strom, viel mehr als das eigentliche Lesen der Daten. Für ein Row ACT springen Tausende Transistoren in Aktion, es gibt jedesmal einen "Spike", eine Spitze in der Stromaufnahme, die dann absinkt. Nur ein REF (Refresh Cycle) verbraucht nochmal weit mehr Strom als ein ACT, darum sind während eines Refresh Cycles auch keine ACT erlaubt.
Würde man keine Minimalverzögerung (Delay) zwischen den Row Activations haben, würden sich diese Spitzen in der Stromaufnahme direkt nacheinander überlagern. Die Gesamtstromaufnahme des Speicherriegels würde weit über das hinausschießen, wofür DDR4 spezifiziert wurde, und die Spannung könnte instabil werden. Deswegen gibt es als erste Maßnahme das RRD, welches die Mindestzeit zwischen zwei aufeinanderfolgenden ACT definiert.
Mit tFAW wird zusätzlich ein Zeitfenster festgelegt, innerhalb dessen vier ACT-Vorgänge ausgeführt werden dürfen. Stellt man tFAW auf 4x tRRD, wird keine weitere Verzögerung implementiert. Hebt man tFAW weiter an, wird nach vier ACT den Rest der Zeit Däumchen gedreht, bis tFAW vergangen ist.
Mit tRRD und tFAW wird also primär die Stromaufnahme begrenzt. Ist aber z.B. tFAW unnötig hoch eingestellt, leidet die Bandbreite, da immer wieder eine Wartezeit eingehalten wird, in der nichts passiert.
Warum sich die Copy-Werte verschlechtern, wenn ich tFAW von 20 auf 16 reduziere, kann ich mir nur damit erklären, dass im RAM ein sehr komplexes Zusammenspiel an Kommandos und Timings vonstatten geht. Einige Kommandos haben Vorrang vor anderen, und so weiter. Es kann sein, dass mit etwas höheren tFAW bestimmte andere Vorgänge etwas schneller innerhalb der zusätzlichen Wartezeit ausgeführt werden können. Denn es wird ja nicht nur geschrieben oder nur gelesen, sondern hin und her kopiert. Aber wie gesagt, scheint bei anderen Benchmarks kaum was auszumachen.
Weitere Beobachtungen: In Spalte I bin ich auf tCR 2T heruntergegangen, weil ich das krumme Training der tIOLs/tRTLs bemerkte. Es bewirkt natürlich eine Verschlechterung, die ich jedoch mit anderen Timings kompensieren konnte. Alleine tRTP 10 auf 8 brachte relativ viel, habe ich aber nicht seperat drin.
Cinebench R15, Geekbench 3 und 5 "Single" sprechen nur auf sehr große Änderungen bei der RAM-Performance an und sind daher untauglich, um kleinere Änderungen zu beurteilen.
Der integrierte WinRAR-Benchmark (ALT+B) ist sehr sensibel für alle Timing-Änderungen. Zudem hat man sehr schnell ein Ergebnis, keine Minute dauert das. Leider verhageln auch jegliche Hintergrundaktivitäten von Windows schnell das Ergebnis (ähnlich wie bei AIDA64 Memory). Man muss dann den Benchmark teils zwei, drei Mal neu starten, bis man sieht, dass die Zahl relativ konstant bleibt am Anfang. Ich habe auch den integrierten Bench von 7-zip probiert, aber der geht nach dem Mond, mehrmals gestartet und mehrmals weit unterschiedliche Resultate.
In Spalte N habe ich schließlich noch alle Sekundärtimings auf AUTO gestellt. Endlich mal springen fast alle Benchmarks darauf an, nur Cinebench 15 absolut minimal (wie gesagt fast nur CPU-Performance bewertet), und Geekbench Single-Core schlägt auch kaum an, ist wenig auf den RAM angewiesen.
Wollte dies nur mal posten, vielleicht ist es ja interessant für jemanden. Ich habe mit dem WinRAR-Benchmark einen Lieblings-Schnellcheck, ob eine Änderung was bringt oder nicht. Er spricht sehr sensibel an, ist aber auch empfindlich für Hintergrundprozesse. Trotzdem hat man spätestens nach zwei Minuten ein belastbares Ergebnis. Andere Dinge wie Cinebench 15 und Geekbench 3 werde ich nicht mehr nutzen, Zeitverschwendung.
Ich habe mit Handbrake experimentiert und eine Batch-Datei für die Konvertierung von Videos geschrieben, aber dort zählt auch hauptsächlich die CPU-Leistung. Ich schaue gerade, dass ich einen guten Spielebenchmark finde, der auch auf RAM anspricht.
Aktuelle Timings, dabei werden WTR und WTR_L ggf. nicht zuverlässig ausgelesen. Bei MSI muss man WTR und WTR_L direkt vorgeben, und nicht über WRRD_sg und _dg wie bei ASUS. Jedenfalls ist WTR 3 und WTR_L 8 im BIOS eingestellt, die Werte sind aber teils unterschiedlich nach jedem Boot. 3/7, 2/9, alles schon gesehen.