News Intel-CPU-Gerüchte: Alder Lake-S mit 16 Kernen nach big.LITTLE-Prinzip

DarkerThanBlack schrieb:
Big-Little? Dieses Prinzip hat doch AMD schon mit Bulldozer versucht. ...

:confused_alt: :confused_alt: :confused_alt:
Ergänzung ()

0xffffffff schrieb:
...Außerdem sehe ich keinen Vorteil darin normale Anwendungen auf einem Little-Kern laufen zu lassen...

  • Surfen
  • Word
  • leichte Bildbearbeitung/Bilder betrachten
  • Minecraft for Windows läuft auch auf einem Atom
  • Videotelefonie
  • etc.
 
  • Gefällt mir
Reaktionen: Knaecketoast und adny
DarkerThanBlack schrieb:
Big-Little? Dieses Prinzip hat doch AMD schon mit Bulldozer versucht. Wie gut das funktioniert hat, haben wir ja gesehen.

Bulldozer hatte einen komplett anderen Ansatz. Bei Bulldozer sind je Modl einige einheiten einfach und einige Einheiten doppelt vorhanden. Ein Modul ist also weder eine echte Dualcore CPU noch ein Single Core. Deshalb war Bulldozer auch nur in manchen Bereichen wirklich schnell.

Bei Big.Little kommen zwei verschiedene, aber vollwertige kerne zum Einsatz. Eine auf Effizienz getrimmte CPU und eine auf Leistung optimierte Architektur. Nicht jede Architektur muss jede Befehlssatzerweiterung und jede Funktion bieten, aber jeder Kern ist ein vollwertiger x86 Kern, der sich nicht wie bei Bulldozer zwangsweise Ressourcen teilen muss.

Bulldozer war eher SMT+ Im Grunde Hyperthreading mit zusätzlicher Hardware.

DarkerThanBlack schrieb:
Der eigentliche Grund ist eher, Intel spart dadurch Chipfläche, da sie eben nicht wie AMD in Chipletten fertigen und somit extreme Probleme mit der Ausbeute bekommen würden, wenn sie einen echten 16-Kerner produzieren müssten, vorallem bei ihrem wackeligen 10nm Prozess und somit dank Marketing trotzdem 16-Kerner verkauft können.

Reine Spekulation. Mittelfristig wird Intel wohl ohne Probleme Chips in der Größe fertigen können. Sie wollen ja auch komplexe GPUs damit fertigen und auch riesige monolitische Server CPUs

Das hat aber deutliche Effizienzvorteile. Man muss keinen Allround Kern konzipieren, sondern kann sowohl voll auf Leistung gehen, als auch auf Effizienz.

bensen schrieb:
Tun sie das? Mit den ganzen Shrinks habe ich eher das Gefühl, dass die immer kleiner werden.

Vielleicht sollten wir statt größer und kleiner lieber komplexer sagen. Du brauchst deutlich mehr Transistoren für geringe Leistungssteigerungen. Du kannst einen nur etwas langsameren Kern mit deutlich weniger Transistoren bauen. Dieses freigewordene Transistorbudget kannst du dann unterschiedlich nutzen.

Zum einen könntest du die Gesamtchipfläche verkleinern, egal in welcher Fertigung die CPU gebaut wird. Du könntest das Budget aber auch in die großen kerne investieren und diese deutlich ausbauen.

Sieht man sehr gut bei den Apple SOCs. Im Singlecorebereich sind sie ja immer ziemlich der Konkurrenz voraus. Die großen Kerne sind aber auch deutlich komplexer und bei gleicher Fertigung größer, als beispielsweise die Kerne bei einem Qualcomm Prozessor.

bensen schrieb:
Im Desktop sehe ich das auch nicht sonderlich vielversprechend.

Wie gesagt, man kann damit nicht nur die Leistungsaufnahme senken, sondern auch unter Umständen deutlich komplexere große Kerne bauen, die deutlich leistungsfähiger sind.

0xffffffff schrieb:
Naja, viele Entwickler sind schon mit mehr als einer CPU überfordert, denen traue ich das ehrlichgesagt nicht zu. Außerdem sehe ich keinen Vorteil darin normale Anwendungen auf einem Little-Kern laufen zu lassen, die gehört immer auf die schnellen Cores um schnell die Arbeit zu erledigen um sich dann wieder ASAP schlafen zu legen.

Im Bereich der Multithreadoptimierung hat sich in den letzten ~5 Jahren schon sehr viel getan. Viel komplexe Software wurde da mittlerweile schon nicht schlecht optimiert. Sicher, hier gibt es noch genug Baustellen, aber gerade die Großen der Branche machen da vernünftige Fortschritte.

Intel arbeitet zudem ja auch eng mit der Softwareindustrie zusammen und unterstützt bei Optimierung. Das Konzept ist ja nicht ganz neu. Im Mobilemarkt ist das seit Jahren Standard und hat sich sicherlich nicht ganz ohne Grund durchgesetzt.

Es gibt ja durchaus einige dauerhafte Anwendungen, die nicht nur schnellst möglich abgearbeitet werden sollen. Die gesamten systemprozesse dürften hier profitieren, aber auch eher leichte Themen wie Streaming etc. Man könnte die großen kerne auch als eine Art Hardware Boost nutzen. Man könnte die kleinen Kerne theoretisch auf einen sehr effizienten Takt- und Spannungsbereich trimmen. kurzzeitige Spitzenlasten gleicht man dann nicht durch höhere Frequenz aus, sondern durch die großen kerne.

Ein Beispiel wäre hier der klassische Internetbrowser. Der Seitenaufbau kann schnellstmöglich durch die großen Kerne erfolgen, um sich das geöffnete Youtubevideo anzuschauen, braucht es dann nicht die großen kerne.

Theoretisch ist da viel möglich. Natürlich ist es naiv zu glauben, dass sowas schnell geht. Natürlich ist das erst mal in der Software eine riesige Hürde und wird wahrscheinlich einiges an optimierungszeit benötigen. Aber hier gibts durchaus einiges an Potential.

Sagen wir so. Intel steht mit so ziemlich allen großen Softwareunternehmen im direkten Austausch. Sie werden da ziemlich Sicher reichlich Feedback gesammelt haben, bevor sie entsprechende Überlegungen angestellt haben. Aber sicher wird es mehrere generationen brauchen, bis sich bei dem Ansatz das volle potential zeigen kann.
 
  • Gefällt mir
Reaktionen: Transistor 22
andi_sco schrieb:

Es ist idR. energieeffizienter auch in den Fällen möglichst viel CPU auf das Problem zu werfen, damit die CPU so schnell wie möglich mit ihrer Aufgabe fertig ist um wieder in einen Sleep-State zu wechseln.

Das Stcihwort dazu ist "race to sleep" oder auch "race to idle" etc...

Shoryuken94 schrieb:
Ein Beispiel wäre hier der klassische Internetbrowser. Der Seitenaufbau kann schnellstmöglich durch die großen Kerne erfolgen, um sich das geöffnete Youtubevideo anzuschauen, braucht es dann nicht die großen kerne.

Hier kommt die große Stromersparnis durch spezielle ICs für die Dekodierung von Audio/Video, auch heute schon. Das Zeug willst Du nicht in Software auf der CPU laufen lassen. Ansonsten siehe oben, die CPU will immer so schnell wie möglich wieder in den Schlafmodus. Das ist heutzutage effizienter als ein sparsamer "Dauerläufer", denn auch so eine "kleine" CPU ist nicht wirklich klein, da sie als "general purpose cpu" doch recht viel können muss.
 
Zuletzt bearbeitet:
0xffffffff schrieb:
Es ist idR. energieeffizienter ... fertig ist um wieder in einen Sleep-State zu wechseln.

Das Stcihwort dazu ist "race to sleep" oder auch "race to idle" etc...

Ich surfe gerade mit einer 6W CPU und nebenbei läuft noch Boinc auf drei Kernen + GPU, und es läuft flüssig.
Ob diese Kombi jetzt sinnvoll ist, sei mal dahin gestellt.
 
Sorry, aber jetzt bringt Intel den neuen Sockel 1200 welchen die mainboard-Hersteller quasi future-proof bewerben - nachdem PCIe 4 ja noch nicht mit den CPUs geht - und in ein zwei Jahren ist schon der komplette Sockel obsolet weil es auf 1700 geht? Alder Lake kann ja mit dem Effizienz-Ansatz nicht nur für HEDT gedacht sein, Effizienz braucht es ja vor allem im Performance-Bereich da damit auch Notebooks abgedeckt werden. Demzufolge würde eine zweiteilung 1200 für Performance, 1700 für HEDT, wenig Sinn ergeben. Es sei denn Intel kastriert den Performance-Bereich wieder mutwillig um PCIe 5...
 
@andi_sco

Wenn Du dich auf die "[...] möglichst viel CPU auf das Problem zu werfen [...]"-Aussage beziehst, damit ist die Leistung der zur verfügung stehenden CPU gemeint.

Stark vereinfachtes Beispiel: Du hast eine CPU die wahlweise mit 1 oder 2 GHz laufen kann. Dann ist es idR. stromsparender wenn deine Excel-Berechnung 500ms auf 2 GHz berechnet wird anstatt 1000ms auf 1 GHz zu laufen.

Ein Auto verbraucht auch nicht beliebig wenig auf 100km, indem ich einfach beliebig langsamer fahre. :)
 
  • Gefällt mir
Reaktionen: derSafran
Shoryuken94 schrieb:
Bulldozer war eher SMT+ Im Grunde Hyperthreading mit zusätzlicher Hardware.
Ich sehe das Modul quasi als das inverse Vorgehen zu SMT: bei SMT will man einen Kern durch Hinzugabe weniger doppelter Einheiten beser auslasten und Mehrleistung generieren, beim Modul wurde versucht vom DualCore ausgehend so viel wie mögliche an doppelten Einheiten einzusparen ohne dabei zu viel Leistung zu verlieren. So wurde das ganze auch damals von AMD vorgestellt.
 
  • Gefällt mir
Reaktionen: derSafran, Transistor 22 und Shoryuken94
Aggressives Abschalten von Kernen dürfte trotzdem mehr bringen. Mal sehen was nach Marketing und Mehrkosten auf der Hab en-Seite bleibt.
 
0xffffffff schrieb:
Ein Auto verbraucht auch nicht beliebig wenig auf 100km, indem ich einfach beliebig langsamer fahre.

Wenn du schon ein Auto ansprichst, dann nimm einfach gleich ein Hybrid, um von der Ampel zur Ampel zu tuckern, reicht der Elektromotor voll aus und du sparst einiges an Verbrauch, ohne auf der Autobahn auf etwas verzichten zu müssen.
 
  • Gefällt mir
Reaktionen: Transistor 22, Knaecketoast, WinnieW2 und eine weitere Person
Ihr diskutiert über eine CPU, die vor vermutlich 4 Jahren designt wurde und das noch Pre-Ryzen Ära.

Blendet man Ryzen und aktuelle Coffee-Lake und Comet-Lake CPUs aus und betrachtet noch die Ära, wo Intel einen Quadcore nach dem anderen geliefert hatte, wären Nachfolger im Desktop auf Basis von Icy Lake für den Desktop denkbar gewesen, wenn auch, wie bekannt, nur als 65 Watt TDP CPUs.

Auf dieser Basis hätte Alder Lake ein großer Meilenstein werden können. Nicht nur durch seine 8-16 Cores und 16 Threads (wenn man von keinem SMT ausgeht) sondern der wichtigste Bereich ist für Intel Notebooks und dafür dürfte der Big-Littel Ansatz gedacht sein. Die Technik wurde ja nicht nur für Alder Lake entworfen sondern scheint im Fokus zu sein. Sieht man ja bereits durch Lakefiled.
Auf alle Fälle wird Intel sicherlich kein fertiges Design streichen.
 
Zuletzt bearbeitet:
TenDance schrieb:
Sorry, aber jetzt bringt Intel den neuen Sockel 1200 welchen die mainboard-Hersteller quasi future-proof bewerben - nachdem PCIe 4 ja noch nicht mit den CPUs geht - und in ein zwei Jahren ist schon der komplette Sockel obsolet weil es auf 1700 geht? Alder Lake kann ja mit dem Effizienz-Ansatz nicht nur für HEDT gedacht sein, Effizienz braucht es ja vor allem im Performance-Bereich da damit auch Notebooks abgedeckt werden. Demzufolge würde eine zweiteilung 1200 für Performance, 1700 für HEDT, wenig Sinn ergeben

Tst doch nichts neues. Eigentlich gab es in den letzten Jahren immer zwei Generationen pro Plattform. Also ist das wenig überraschend. Der 1200er Sockel ist ja auch nur ein leicht abgewandelter LGA 1151v2 Sockel.

1700 Pins wären für HEDT deutlich zu wenig. Darin würden man nicht genügend Ressourcen für die benötigen PCIe Lanes und mindestens Quadchannel unterbekommen.

@Jesterfox Im Grunde waren die Module ein Hybrid. Weder Singlecore, noch Dualcore. Aber im Grunde hast du recht. Es sind Dualcores die so möglichst reduziert wurden. Je nach Berechnung verhält sich ein Modul mal mehr und mal weniger wie ein Dualcoreprozessor.
 
Desktop-CPUs sind für Intel ein Abfallprodukt bei der CPU-Entwicklung für Notebooks und Server.

Anscheinend glaubt doch der eine oder andere hier tatsächlich, sein Lieblingsspielzeug hätte für Intel Priorität...
 
  • Gefällt mir
Reaktionen: Transistor 22 und tom77
xexex schrieb:
Wenn du schon ein Auto ansprichst, dann nimm einfach gleich ein Hybrid, um von der Ampel zur Ampel zu tuckern, reicht der Elektromotor voll aus

Naja, das wäre in meinen Augen eher ARM vs. x86 da unterschiedliche Systeme/Konzepte. :p
 
0xffffffff schrieb:
Naja, das wäre in meinen Augen eher ARM vs. x86 da unterschiedliche Systeme/Konzepte.

ARM ist nicht big.LITTLE und nicht alle Chips setzen auf diese Technik.
https://en.wikipedia.org/wiki/ARM_big.LITTLE

Der Gedanke dahinter ist einfach, aber dazu habe ich schon als der Artikel rauskam genug geschrieben. Man verzichtet auf HT was noch immer ein Sicherheitsproblem darstellt und in einigen Szenarien Leistung kostet und setzt stattdessen auf kleine Kerne die zwar etwas mehr Platz kosten aber auf jeden Fall für zusätzliche Leistung sorgen ohne die Nachteile von HT.

Man muss sich ja letztendlich die Größenverhältnisse anschauen.
1588588718919.png


Auf der Chipfläche die für einen großen Kern benötigt wird, nehmen vier kleine Kerne Platz. Dabei erreicht ein kleiner Kern aber nicht nur 25% der Leistung eines großen, dann hätte man auch bei HT bleiben können, sondern knapp 60%.

So spart man Fläche, Kosten und Energie ohne bei Spitzenlasten auf Leistung verzichten zu müssen und man kann je nach Implementierung auf alle Kerne gleichzeitig die Last verteilen oder die kleinen nur zum Stromsparen nutzen.

Da wo AMD heute 64 Kerne auf einen riesigen Chip unterbringt, könnte Intel irgendwann 256 kleine Kerne gepaart mit ein paar großen auf einem Die unterbringen und das ganze mit EMIB zu einer Einheit verbinden. Aber wir werden sehen wohin die Richtung geht, wenn es mal nähere Informationen dazu gibt.

Die Technik dazu hat Intel jedenfalls bereits.
1588589584986.png

https://www.intel.com/content/www/us/en/foundry/emib.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Transistor 22, andi_sco, Onkel Föhn und eine weitere Person
Alder Verwalder. Mal schauen wie weit die damit kommen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Ich sehs kommen.. Marketing sei dank Ende 2022 hier auf CB:


"warum ist meine 16 core CPU so langsam im Vergleich zu anderen 16 core CPUs? "
 
PS828 schrieb:
Ich sehs kommen.. Marketing sei dank Ende 2022 hier auf CB:

Kommt eben drauf an wie es vermarktet wird. Bei HT ist den meisten heute auch klar, dass es 8C/16T sind und so wie es in der Grafik gezeigt wird, kann man es machen.

1588593148671.png


Man sollte nur die Lehren aus der Klage gegen AMD ziehen und es nicht versuchen als 16C CPU zu verkaufen, wobei genau das bei den ARM CPUs (leider) gemacht wird.
 
  • Gefällt mir
Reaktionen: Transistor 22
Zurück
Oben