Die LatenzZEIT ist tatsächlich bei allen RAMs relativ gleich, egal ob SDRAM, DDR1, DDR2, DDR3 oder DDR4.
Denn grundsätzlich bestehen sie alle aus dem gleichen "Array von Speicherzellen". Nur das bei DDR1 zwei Arrays, bei DDR2 gleich 4, bei DDR3 8 und bei DDR4 16 Arrays angesprochen werden.
Das Array selbst benötigt typischerweise um die 15ns, bis die Daten anliegen. Bis etwa 12ns sind die offiziell von den Herstellern angegebenen Werte, alles darunter gehört schon in den Bereich des Overclocking.
Beispiel:
SDRAM 133MHz hat 7.5ns pro Clock-Cycle. CAS-Latency = 2 , also 2 x 7.5 = 15ns
DDR400 (200MHz Clock) hat 5ns pro Clock-Cycle. Angegebene CAS-Latency laut Datenblatt 3, daher 3 x 5 = 15ns
DDR2-800 (400MHz Clock) hat 2.5ns pro Clock-Cycle. Anfangs war CL6 der Standard, also 6 x 2.5 = wieder 15ns. Später kamen dann DDR2-800 CL5 raus, die bei 12.5ns noch gut Schritt halten konnten.
DDR3-1600 (800MHz Clock) hat 1.25ns pro Clock-Cycle. Standard Latenz sind 11 Cycles und 11 x 1.25ns sind 13.75ns
und so weiter...
Und wenn jemand sowas wie 11-11-11 sieht, dann ist das CAS-Latency, tRP und tRCD, die alle laut Datenblatt einen minimum-Wert von 12-15ns haben bei allen Herstellern.
Die Chip Hersteller wollen eine gute Ausbeute haben bei der Produktion. Einzelne Chips würden wahrscheinlich auch bei 10ns noch mitspielen, aber wenn man Millionen ICs fertigt, dann will man nicht mit viel Aufwand die 5% Chips rauspicken, die das können, um die Gamer zu befriedigen. Also gibt es offiziell von den RAM-Chip Herstellern auch keine Garantie für Werte, die unterhalb von 12ns liegen.
Dann gibt es die Modulhersteller, die diese Chips nehmen, ein Modul draus bauen und durch Senkung der Latenz-Cycle-Anzahl "raustesten, wann es ausfällt". Viel Aufwand...und natürlich garantiert der Chip-Hersteller dafür keinesfalls, sondern nur der Anbieter dieser Module.
Andererseits gebe ich zu Bedenken, dass die Latenzzeit nur zum "Suchen der Daten an einer bestimmten Adresse" anfällt, anschließend werden pro Cycle zwei Daten übertragen. Also wie oben geschrieben ist die Cycle-Time bei DDR3-1600 (weil 800MHz Clock) genau 1.25ns und in diese 1.25ns werden zwei mal Daten übertragen.
Und nun wird es interessant: Wenn nun einfach in der nächst folgenden Adresse weiter gelesen wird, so spricht man vom "Burst". Es fällt kein weiterer Latenzschritt an, sondern er liest durchgehend weiter in voller Speed, solange man nicht in eine andere "Bank" oder Adresse springt.
Will heißen: Eine Grafik von z.B. 2MB liegt typischerweise in einem Block im Speicher, also nicht Byte-weise im RAM verstreut. Folglich würden 2MB (2 Millionen Byte) im Burst gelesen und nur ganz am Anfang wird einmal die Latenzzeit benötigt.
Sagen wir mal, es wären 2 Millionen Datenübertragungen, jede davon dauert die Hälfte von 1.25ns = 0.625ns. Das sind 1.25 Millionen Nanosekunden PLUS am Anfang sind 12ns Latenzzeit nötig. Diese 12ns tangieren bei insgesamt 1.25 Mio ns aber überhaupt nicht, auch wenn es 15ns oder mehr wären.
Die Latenzzeit dürfte somit für die meisten Anwender völlig unerheblich sein, denn kaum eine Software verteilt ihre Daten in lauter Einzel-Bytes an unterschiedlichen Adressen im RAM.
DDR4 ist auch nicht besser, dafür aber noch erheblich teurer als DDR3.
Das höhere Speed des RAMs einen Rechner schneller machen, sehe ich "relativ". Bei einem Spiel, in dem große Mengen RAM geschoben werden, mag die RAM Speed auch erkennbar sein. In den meisten anderen Anwendungen wird die meiste Zeit aber von der CPU, Logik und I/O Bausteinen verbraten, so dass die Speichergeschwindigkeit kaum noch einen Einfluss hat.
Und ein Rechner wird durch "mehr RAM" fast immer schneller, weil das Betriebssystem die Eigenschaft hat, ständig irgendwas auf die Platte auszulagern und wieder nachzuladen. Das lässt sich nur durch reichlich RAM vermeiden.