catch 22 schrieb:
Der Punkt ist, dass mehr Cache mit einem proportional höherem Verbrauch bei weitem die intelligentere Lösung ist, als einer CPU mit eh bereits zu hohem Takt, der auf den letzten MHz unproportioniert mehr Energie benötigt, noch mal weitere 300Mhz zu spendieren.
Cache vergrößern gehört, genau wie Taktfrequenz erhöhnen, eher zu den "Brute Force" Methoden.
Man erkauft sich das als Hersteller mit erheblich erhöhten Fertigungskosten, weil man eben mehr Chipfläche braucht (das gilt auch wenn man Dies übeinanderstapelt...).
Warten wir mal die AMD Präsentation ab, auch bezüglich Preis und Verfügbarkeit.
Von sehr großen 3d Level Caches profitiert auch eben nur ein kleiner Teil der Anwendungen.
ExigeS2 schrieb:
Es spitzt sich langsam zu wie zu Pentium Zeiten bevor die core2 Technologie kam.
Der Vergleich mit dem Pentium Zeiten mag sich zwar oberflächlich aufdrängen, aber die Situation damals und heute ist sehr unterschiedlich.
Beim Pentium 4 ist Intel voll vom "Ende des Dennard Scalings" getroffen worden (
https://en.wikipedia.org/wiki/Dennard_scaling):
In den 90ern waren durch besagtes Dennard Scaling extreme Steigerungen der Taktfrequenz von anfangs <100Mhz bis in den Ghz Bereich möglich. Jährlich verdoppelten sich die Taktfrequenzen, ohne das sich der Energieverbrauch erhöhte, bzw. die Verbrauchserhöhungen waren linear durch die Vergrößerung der Chipfläche. Diese Effekt kam aber ab einen bestimmten Punkt zum Ende.
Seitdem stagniert die Entwicklung der Taktfrequenzen. Um trotzdem die Leistung zu steigern, fing man an die Ausführung parallelisieren, zum einen durch mehrere Prozessorkerne, zum anderen eben dadurch dass die Prozessoren mehrere Befehle parallel abarbeiten können ("Multi-Issue").
Die Kernanzahl zu steigern macht im Client Bereich irgendwann keinen Sinn mehr, da eben viele Anwendungen nicht gut auf mehrere Kerne skalierbar sind. Das liegt nicht unbedingt daran, dass die Programmierer zu "blöd" sind, sondern das es sich eben nicht für jeden Algorithmus durchführen lässt.
Bei der Steigerung der IPC Rate hingegen ist das Ende wohl noch nicht erreicht, aber es wird immer schwieriger weitere Verbesserungen zu erreichen. Momentan an der Spitze ist vermutlich Apple mit dem M1, da haben Intel und AMD wohl noch etwas Luft nach oben.
AMD kam bezüglich IPC "aus dem Keller", und haben mit Zen- Zen3 eine beeindruckende Aufholjagd hingelegt und dabei Intel überholt. Mit Alder Lake scheint jetzt erst mal Intel wieder leicht vorne zu liegen.
Der nächste Schritt zu Zen4 scheint nun schon bedeutend schwerer zu sein.
ExigeS2 schrieb:
Hoffentlich haut Intel da bald Mal eine neue Architektur raus
So was "Revolutionäres" wie beim Wechsel von Netburst zu Core wird es nicht mehr geben. Wenn man heutige CPU Designs vergleicht, egal ob ARM, Apple, Intel oder AMD, sieht man dass die alle ungefähr gleich aufgebaut sind: Viele "Execution Ports", aufwändige Sprungvorhersage, komplexe L1 Caches (e.g. "Trace Cache, etc.)
Das ist alles Feintuning, was die Hersteller von einer Generation zur nächsten machen, Revolution gibt es da nicht.
Ein anderer Punkt ist die Fertigung. Was Energieeffizienz angeht, hat TSMC momentan scheinbar die Nase vorn, da kann Intel nicht mithalten. Dafür sind mit Intel eben hohe Taktfrequenzen möglich, sicher mit der "Brechstange", aber es geht. Vermutlich bekommt man einen Ryzen auch nicht mit Gewalt auf 5,5Ghz.