KurzGedacht schrieb:
Im Prinzip würden man so einen L4 Cache dann "einfach" an den I/O Die packen und alle CCDs darauf zugreifen lassen. Allerdings sind die Latenzen mehr als nur minimal höher
Ne, nicht unterm IO-Die. Das macht auch gar keinen Sinn, da dann ja wieder ein längerer Weg über den Infinity Fabric gegangen werden muss. Da sind höhere Latenzen noch das kleinere Problem. Ich meinte schon direkt unter den CCDs, eingebettet in/auf die Platine und mit den Durchkontaktierungen zu den CCDs, damit die Wege kurz bleiben, die Datenraten hoch und die Latenzen niedrig.
KurzGedacht schrieb:
Also Games die tatsächlich mehr Kerne sinnvoll verwenden können, als ein CCD hergibt, würden profitieren.... alle anderen wären aber im Vergleich zur aktuellen X3D Lösung im Nachteil.
Ja das kommt dann halt auf die Höhe der Zusatzlatenz an. Wie gesagt, ein bisschen mehr könnte so eine Konstruktion schon erfordern. Aber ich könnte mir naiv vorstellen, dass es nicht mehr als 10-20% wären. Und dafür haben dann alle Kerne Zugriff auf den L4-Cache.
Aber ja, die etwas höhere Latenz würde aktuell bei den meisten Spielen die Performance (gegenüber den aktuellen X3D-CPUs) etwas mildern. Und bei Spielen, die mit mehr als 8 Kernen was anfangen können, führt das auch noch nicht zwangsläufig zu einer Performancesteigerung, wenn Berechnungen Abhängigkeiten bedingen und wieder Inter-CCD Kommunikation stattfinden muss.
Um das Problem zu beheben, müssten die CCD selber nochmal mit einem Hochgeschwindigkeits-Bus verbunden sein (könnte man theoretisch auch 3D stacken). Dann wirds wahrscheinlich richtig teuer. Und der ursächliche Grund des Chiplet-Designs war ja eigentlich eine Abwägung aus Chipgröße, Performance, Flexibilität und vor allem Herstellungskosten. Den Vorteil der Wirtschaftlichkeit wieder durch teures/kompliziertes Packaging zunichte zu machen, ist halt auch quatsch. Dann könnte man auch gleich einen monolithischen XXL-16-Kern-256MB Cache-Monster-Chip bauen^^.
Edit: Wobei als Halo-Enthusiasten-CPU, die vlt. 1.5k kostet. Ich weiß nur nicht, ob sich das wirklich lohnen würde. Anscheinend werden ja Halo-Produkte durchaus gekauft (siehe Nvidia RTX xx90-Karten). Man hat halt auf jeden Fall erstmal Mehrkosten, weils ein anderer Chip ist und die Yieldrate wird durch die Größe schlecht sein. So ein großer Chip wär auf jeden Fall risikoreicher.