Hier tummeln sich ein paar Experten...
GDDR1/2 --> DDR1 (2-Fach Prefetch)
GDDR3 --> DDR2 (4-Fach Prefetch)
GDDR4/5 --> DDR3/4 (8-Fach Prefetch)
GDDR5X/6 -->DDR5 (16-Fach Prefetch
GDDR für Grafikarten basiert immer auf einer Generation des normalen RAM, was das Prefetch und andere Technologien angeht, macht aber deutlich höhere Taktraten bei teils geringerer Spannung. Zum Vergleich:
GDDR1: 950 MHz, GeForce FX 5950 Ultra, spezifiziert bis 1GHz (500MHz real)
GDDR2: 1GHz, Geforce FX 5800 Ultra, Speicher war ein Fehlschlag (500MHz real)
DDR1: DDR-400 Jedec, DDR-600 OC-Speicher (300MHz real)
GDDR3: 2.484MHz, Geforce GTX 285, spezifiziert bis 2,6GHz (650MHz real)
DDR2: DDR2-1066 Jedec, DDR2-1300 OC (325MHz real), zu GDDR3-Zeiten auch bis DDR2-1000 auf billigen Grafikkarten verwendet
GDDR4: 2.252MHz, Radeon HD 3870, spezifiziert bis 2,5GHz (312,5MHz real), nur von ATI verwendet
GDDR5: 9GHz, GeForce GTX 1060 6GB 9Gbps (1,125MHz real)
DDR3: DDR3-2133 Jedec, DDR3-3200 OC (400MHz real), zu GDDR5-Zeiten auch bis DDR3-2000 auf billigen Grafikkarten verwendet
DDR4: DDR4-3200 Jedec, aktuell DDR4-4800 OC (600MHz real), bisher AFAIK kein Einsatz auf Grafikkarten
GDDR5X: 11GHz, GeForce GTX 1080 11Gbps, 1080Ti (687,5MHz real), nur auf Nvidia-Karten mit GP104, GP102
GDDR6: momentan bis 16GHz auf RTX 2080 Super, RTX 2080Ti (1GHz real)
DDR5: soll bis DDR5-8400 gehen (525MHz real)
Man sieht also, wieviel höher die realen Taktraten bei GDDR oft sind als bei normalem DDR. Die realen Taktraten haben sich dabei deutlich langsamer weiterentwickelt, der Prefetch bringt den eigentlichen Fortschritt. V.a. die Jedec-Spezifikation bleibt sehr konservativ. Man beachte, dass die höchsten auf OC-Modulen erhältlichen Taktraten, die ich gefunden habe, oft nur auf einzelnen Modellen erhältlich war und die höchste von mehreren Herstellern angebotene Taktrate oft noch niedriger war.
Zur News: Schon etwas Klickbait. Das Nvidia bei den noch immer Pascal-basierten MX-Grafikkarten nicht einfach GDDR6 einsetzen kann, weil das erst Turing unterstützt, sollte klar sein.
Andererseits finde ich es interessant, dass GDDR5 so schnell ausläuft und Nvidia zum vollständigen Umstieg auf Turing gezwungen wird. Früher hat man deshalb bei günstigen Chips auf den gängigen DDR-Standard gesetzt, zuletzt DDR3-2000 bei Karten mit GK208 und GM108. Warum soll das hier nicht gehen?