DerRico schrieb:
Das wird in der Tat interessant. Ich vermute aber, dass die vielen E-Cores weiterhin nicht wirklich gebraucht werden.
Intel hat im 14900er auch "nur" 32 Threads. Das sind die gleichen 32 Threads, die man belasten würde auf einem 16C Ryzen 7950X(3D).
Nicht wirklich gebraucht ist da das falsche Wort.
Am Ende ist es eine Effizienz Thematik. Die alten E-Cores lagen bei 1/4 von der Flächeneffizienz. Also ein 4C E-Core Cluster passte in die Größe eines P-Cores. Also wären bei 16 E-Cores sozusagen 4 P-Cores gegangen. Intel wäre also von der Fläche bei einem 12C/24T Modell rausgekommen. Aber -> die P-Cores wären technisch schneller, dafür vom Takt dann bei Volllast so niedrig, dass die Leistung nicht mehr groß mit skaliert.
Das gehen die E-Cores an. Aktuell brauchen die alten E-Cores ca. 2-3 Stück um an die Leistung eines P-Cores mit SMT zu kommen. Je nach Takt halt. Und die alten E-Cores habe eine durchschnittliche pro Takt Performance ähnlich Skylake. Also quasi dem Vor-Vorgänger. Eingeführt mit Alder Lakes Golden Cove Kernen, welche im Schnitt 19% * 18% so schnell waren. Also ~40% drauf pro Takt. Das passt auch rechnerisch mit den gezeigten Dingen überein. Denn die INT Teile sollen bis 38% und die FP Teile bis 68% zulegen ggü. Crestmont (was wiederum ~4% über den alten E-Cores lag)
Jetzt sind wir bei ~14%. Das ist zwar viel - aber sooooooo viel jetzt auch nicht. Wir reden da nicht über Faktor 2 und mehr. Am Ende entscheidet die Anzahl der E-Cores wie das tut.
Sie gehen ohne SMT ins Rennen, wenn man das richtig deutet. Das heißt, angenommen es gibt 8C P-Cores und 16 E-Cores, dann sind wir "erst" bei 24 Threads.
Rechnerisch wäre also der 8C P-Core Bereich ungefähr 14% schneller bei gleichem Takt, verliert aber ~15-25% wegen keinem SMT.
Der E-Core Bereich müsste um die ~45% zulegen, wenn der Takt ähnlich hoch ausfällt.
DerRico schrieb:
Geht man im x86-Bereich den Weg wie bei ARM: Je eine Kerngrösse für hohe Last, mittlere aber Dauerlast, leichte Hintergrundlast und Spezialkerne für alles mögliche?
Ergibt das Sinn?
MMn nicht. Denn im Smartphone bzw. bei den M CPUs bei Apple ist das ne andere Maßgabe.
Diese verschieden großen Cores sind ja nicht deswegen gebaut, weil es toll ist, sondern weil die Software immer bescheidener wird und immer mehr Ballast mitliefert. "Brauchen" tut das kein Mensch.
Vor allem im PC Umfeld ist das unlängst schwieriger. Weil der Scheduler nicht wissen kann ob die angeforderten Berechnungen jetzt von der Performance her so irrelevant sind, dass sie auch auf nem Low Power Kern ausgeführt werden könnten oder der User das as fast as possible will.
Das geht nur mit manuellen Listen bzw. dem Pflegen solcher. Ala Xbox Gamebar für die X3D CPUs.
Was vielleicht funktionieren würde wäre eine Art Livemessung der Ausführgeschwindigkeit und dann entscheiden, ob es sinn machen würde, das Thema auf nächst größere Cores zu schieben. Vollautomatisch. Der P-Core macht es einfach schneller. Das ist auch bei ARM so. Aber dort stört es mich bspw. im Smartphone wenig, weil nichts gemacht wird, was die Power wirklich braucht. Auf dem Desktop oder im Notebook hingegen?