Matthias B. V. schrieb:
Mehr Cache sollte nicht nur die Leistung aber auch die Effizienz erhöhen da es viel Leistung / Energie kosten Daten aus dem Chip zu befördern. Diese Zugriffe werden massiv reduziert. Würde mich nicht wundern wenn wir hier irgendwann von GB sprechen.
Der Gewinn steigt aber nicht mehr linear mit mehr Cache. Schon heute übliche Caches haben ja Hitraten von weit über 90%, und mehr als 100% gibt nicht. 192MB ist für einen Desktop CPU schon extrem viel, spontan hätte ich gesagt, das bringt nichts mehr. Ich bin wirklich mal auf Real World Ergebnisse mit verschiedenen Anwendungen gespannt.
Der L3 Cache dient eigentlich hauptsächlich dazu, Kontextwechsel (also Wechsel zwischen verschiedenen Prozessen) abzufangen. Daher haben Server CPUs große L3 Caches. Natürlich profitieren auch Workloads mit großen Datenmengen und geringer Lokalität der Zugriffe davon.
Ob ein Programm überhaupt profitiert hängt ganz stark am darin verwendeten Algorithmus. Dieser und vor allem die Implementierung sind ja erstmal unbekannt. Dass heißt es kann 2 Programme mit für den Endanwender selber Funktion geben, und dass eine profitiert stark von mehr L3 und dass andere nur sehr wenig.
0x7c9aa894 schrieb:
Die Idee mit der Kupferschift zwischen den Chiplets ist interessant, wenn sie denn wirklich funktioniert...
Die Technik (TSV) gibt es schon länger, setzt zum Beispiel Xilinx bei seinen großen FPGAs ein, ebenfalls gefertigt bei TSMC. Auf dem Slide von AMD sieht es jetzt allerdings so aus, als würde der Cache tatsächlich auf das CPU Die montiert sein, das wäre schon recht neu. Bei den Xilinx FPGAs hat man mehrere Chiplets (Tiles) die auf einem "passiven" Die, dem "Interposer" sitzen, dass nur die Interconnects bildet:
https://forums.xilinx.com/t5/image/...301A6A1169294/image-size/original?v=1.0&px=-1
HanneloreHorst schrieb:
Sind so Sachen wie Stacking egal in welcher Form nicht immer auch ein Flaschenhals für das Produkt?
Schließlich muss eine Verbindung geschaffen werden, die in der Regel immer weniger Durchsatz an Informationen hat, im Gegensatz zu einem Chipdesign, wo alles in einen SOC gepackt wurde und auch dafür designed wurde.
Natürlich. Am Ende geht es immer darum, das man technisch und wirtschaftlich keine beliebig großen Dies fertigen kann. Also bei den oben erwähnten Xilinx FPGAs gehen die Latenzen auch massiv hoch, wenn man über eine Chiplet Grenze springt. Aber eben viel weniger als bei einem MCM (Multi Chip Module).
Die Stapellei lässt sich mit Sicherheit auch nicht ohne Verluste beliebig skalieren:
Wenn man die Cache Dies als "shared Bus" zusammenschaltet erhöht man den Fan-Out der Verbindung zwischen CPU und Cache und muss mit dem Takt runter.
Aber sicher gibt es irgendwo demnächst z.B. bei Aanandtech eine genauere Beschreibung wie die das machen.
HanneloreHorst schrieb:
Sowas wirkt für mich immer nach Behilfslösungen um irgendwie was zu präsentieren.
Behelfslösung würde ich das nicht nennen. Techniken Chips aus mehreren Dies zusammenzusetzen gibt es schon lange in verschiedenen Formen (MCM, SiP, Interposer, usw.).
AMDs Chiplet Design seit Zen2 ist ja auch nichts anderes. Hatte übrigens Intel schon vor langer Zeit beim Pentium Pro. Alle diese Techniken machen das Packaging teurer und kosten Leistung. Sie haben immer nur so lange Bestand, wie es technisch und oder wirtschaftlich nicht möglich ist, das gleiche monolithisch zu erreichen.
Wir werden es aber in Zukunft viel mehr sehen, denn die Verkleinerung von Strukturbreiten wird immer schwieriger. Wie sehen ja momentan, das eigentlich nur noch Samsung und TSMC die kleinsten Nodes hinbekommen, alle anderen hängen hinterher. Wir sehen aber auch gerade, dass diese beiden Firmen den Bedarf an High-End Chips alleine nicht befriedigen können, außerdem stoßen die auch irgendwann mal an Grenzen. Man sieht ja auch, das der Schritt von Zen3 nach Zen4 deutlich länger dauert, als von Zen2 nach Zen3.
HanneloreHorst schrieb:
Wir merken ja zurzeit ganz stark, dass andere Player im Game, vor allem die, die auf ARM setzen, eine extreme Performance pro Watt Leistung haben, das einzige was Intel und AMD dagegen tun, ist noch mehr auf die Chips packen,
Bei ARM gibt es eigentlich nur einen Player, der das x86 Lager überholt hat.
HanneloreHorst schrieb:
Das wirkt alles auf Seiten von AMD und Intel alles nach Paniklösungen um im Gespräch zu bleiben.
Vor allem weil AMDs Big.Little noch deutlich länger auf sich warten lassen wird.
Wenn ich mir die Design Entscheidungen und auch die Computex Keynotes von AMD und Intel so ansehe, gehen beide mittlerweile sehr unterschiedliche Wege:
Intel nutzt Techniken aus dem Mobilbereich (wie eben Big/Little ) und bleibt ansonsten dem Konzept treu für mobil und Desktop das gleiche Design mit integrierter GPU, aber flexibler Konfigurationsmöglichkeit zu nutzen. Das ist aus Intels Sicht folgerichtig, sie wollen ihre Position im Corporate- und Mainstream Retail Markt halten. Da ist CPU Leistung nur ein Faktor von vielen. Im Segment "Ultra Portable Performance" (siehe "Evo") wird Alder Lake seine Stärken ausspielen.
AMD fokussiert sich weiterhin ganz klar auf den Enthusiast-, Gaming und HEDT Bereich und bringt Server Eigenschaften (viele Kerne, große Caches) auf den Desktop.
Natürlich will Intel auch die Gamer nicht verlieren und AMD will auch Lösungen für Laptops anbieten.
Vermutlich wird ein Alder-Lake Desktop ein ganz anderes Leistungsverhalten als ein Zen4 Desktop an den Tag legen. Das werden sehr interessante Benchmarks.
Draco Nobilis schrieb:
Welchen Grund sollte AMD haben, irgendetwas günstig anzubieten?
Wer günstig will nimmt halt den i5-11400 von intel, aka den "Säufer".
Das ist nicht schlimm, aber AMD braucht und kann sich nicht damit messen wenn Sie nicht das Volumen dazu haben.
Genau. Im Grunde genommen macht es für AMD gar keinen Sinn auf Teufel komm raus mit Intel in allen Marktsegmenten konkurrieren zu wollen. Dafür fehlt ihnen Größe und Power. Intel hat sehr etablierte Vertriebs-, Support und Marketing Kanäle. Nur ein Beispiel: Habe eben "Intel Evo" bei Google eingegeben, topp Suchergebnis ist eine Landing Page vom Media Markt für Intel Evo Produkte. Das muss AMD erst mal schaffen (ich wüsste noch nicht mal einen griffigen Suchbegriff den ich dafür eingeben könnte...).
Im Mainstream hat die ohne Zweifel vorhandene technische Überlegenheit von AMD keine Bedeutung.
Also fokussiert man sich lieber auf die Segmente wo die AMD Stärken Bedeutung haben.
Im Prinzip ist das genau die Strategie mit der Apple gegen das "Wintel" Lager überlebt hat, wenn auch mit ganz anderen Schwerpunkten als AMD.
Allerdings hat eine Hochpreis Strategie auch Risiken: Man muss die Erwartungen der zahlungsbereiten Kunden auch erfüllen. Hier sehe ich bei AMD nach wie vor das Risiko der Lieferfähigkeit.
Ein anderes Risiko für AMD sehe ich darin, das ein Teil Ihrer bisherige Kundschaft, speziell die, die ihnen auch in vor-Zen Zeiten die Treue gehalten haben, AMD auch wegen der günstigen Preise gekauft hat.