News Hot Chips 33: Intel Alder Lake steht und fällt mit dem Thread Director

BetaHydri schrieb:
Hi,
das Thema ist super interessant. Welchen Vorteil allerdings bringt das big-little Prinzip bei stationären Systemen? Da sind die diversen Wattunterschiede nicht direkt relevant da die Rechner nicht auf Batterie laufen. Liege ich da falsch, aber es wird ordentlich "multithreaded" Software ausbremsen, wenn z.B. Cinebench gleichberechtigte Threads losschickt, da werden die Threads die auf den "little" Cores laufen massiv hintendran bleiben.

Es ist eher anders herum. Ein Cluster aus 4 Gracemont-Kernen benötigt ungefähr so viel Platz wie ein Golden Cove-Kern, aber hat mehr Leistung. Du hast also 8 Kerne für Anwendungen, die hohe Single-Thread-Performance benötigen (wie zum Beispiel Spiele) und für Multicore-Anwendungen springen dann zusätzlich die vielen kleinen E-Cores ein. Das 8+8 Design ist also unterm Strich schneller als ein hypothetisches 10+0 Design bei identischer Die-Fläche.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP..., jusaca, konkretor und 8 andere
Das Prinzip von big.LITTLE halte ich persönlich für die Zukunft, sowohl im mobilen, als auch im Desktop/HEDT- und Server-Bereich. Letztendlich geht es doch immer um 2 Dinge:
  • so viel ST-Performance wie möglich
  • so viel MT-Performance wie möglich
Die ST-Performance wird zweifelsohne von den (wenigen) Performance-Kernen bereitgestellt, während für MT-Aufgaben die kleinen Kerne weitaus effizienter sind, da diese einen höheren "Performance pro Fläche"-Quotienten haben und in sehr hoher (4-facher) Anzahl verbaut werden können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CDLABSRadonP..., whynot?, //differentRob und 3 andere
Flare schrieb:
Ich finde erschreckend wie viele Extradaten Microsoft anscheinend braucht um die Threads richtig zu positionieren. Ich wette auf Linux geht es auch gut ohne die Softwarestützräder von Intel.
Wenn man sich an das Core Parking Desaster erinnert, dann ist die Erkenntnis ja nicht neu, dass die CPU selbst schneller und besser auswerten kann welche Cores welche Last aufnehmen können. Core Parking hat ja nie korrekt mit HT CPUs über den Scheduler funktioniert und wurde schließlich 2012 für Desktop und Server CPUs mit HT deaktiviert. Zwei Jahre später hat Intel das Problem dann mit Speed Shift in der CPU gelöst. Wenn man die maximale Leistung herausholen will, ist der Thread Director sicher der richtige Weg.
 
  • Gefällt mir
Reaktionen: gesperrter_User, Chief Gewickelt, whynot? und 6 andere
Ich halte diese Abhängigkeit für keine gute Entwicklung.
Für Linux und Debian Server nicht zu empfehlen.
Ergänzung ()

Blumentopf1989 schrieb:
Ich habe immer wieder das Gefühl, als ob man das Big-Little-Prinzip aus der Not heraus geboren hat.
Sehe ich auch so. Sie waren nicht fähig 16 gleichwertige Kerne auf das Die zu bringen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Salutos und StefanSch87
silentdragon95 schrieb:
Ich halte den Nutzen von BIG.little im Desktop zwar immer noch für fragwürdig
Ich nicht. Intel hat sicher seine Zielgruppen im Blick. Und das sind nicht die Privatanwender oder Gamer. Nicht in der Masse jedenfalls.
Etliche (ich würde schätzen 75% oder mehr) der durchschnittlichen User kaufen mittlerweile Notebooks oder gleich Chromebooks.
Wer kauft Desktop PCs? Firmen. Und die wollen für 99% der Einsatzszenarien kleine Desktops Minis von HP, Lenovo oder Fujitsu, die man hinter den Bildschirm montieren kann.
Dieses Forum spiegelt nicht die Realität des Marktes wieder. Klar werden hier Intel i9 oder Ryzen 9 gekauft, aber verglichen mit dem gesamten PC Markt ist das dermaßen gering, dass AMD wie Intel hier mMn nur in der Oberklasse CPUs entwickeln, um die Leistungskrone zu haben oder um neue Technologien zu testen.
Dann kommt noch der Server und HEDT Bereich, wo ohnehin stark auf Kundenwunsch produziert wird.
Media Markt, Saturn, Aldi etc. haben ebenfalls fast nur Notebooks im Angebot...
 
  • Gefällt mir
Reaktionen: manfredham und StefanSch87
Die größte Überraschung ist für mich nachwievor das Zurückrudern bzgl. AVX-512.
Plötzlich nicht mehr relevant, wow. Bitte bis zum Herbst entsprechende Benchmarks streichen.

@ Topic
Habe erst Thread Dictator gelesen... muss der Zeitgeist sein.
 
  • Gefällt mir
Reaktionen: loser, Sennox, Colindo und 3 andere
Die Leistung (Performance) wird schon da sein.

Die Frage ist nur: Läuft es rund?

Fazit:
Erst einmal abwarten. Ryzen 1xxx hat den Windows-Scheduler vor Probleme gestellt (zB: RAM-Anbindung, Threads zwischen Chiplets wechseln), 2xxx hat ua Latenzen und Ram-Kompatibilität verbessert, gut wurde es mit 3xxx.

Dennoch braucht' s noch den Ryzen-Energiesparplan in Windows und wird bei mehreren Chiplets 'unrund'.

Ähnlich sehe ich das bei Alder-Lake. Ab der 3ten Auflage der Technik sind Hard- und Software vllt. ausgereift genug für einen guten Betrieb.
Hinzu kommen werden DDR5 'Anlaufschwierigkeiten', welches Ram-Kit für welches Board...
 
  • Gefällt mir
Reaktionen: StefanSch87
mcsteph schrieb:
Sehe ich auch so. Sie waren nicht fähig 16 gleichwertige Kerne auf das Die zu bringen.
äh?

Intel Xeon Platinum 8380, 40C/80T​

Ergänzung ()

mcsteph schrieb:
Ich halte diese Abhängigkeit für keine gute Entwicklung.
Für Linux und Debian Server nicht zu empfehlen.
Warum? Die werden das auch unterstützen!
 
  • Gefällt mir
Reaktionen: squadric
mcsteph schrieb:
Sehe ich auch so. Sie waren nicht fähig 16 gleichwertige Kerne auf das Die zu bringen.
Die E-Kerne fressen lediglich ein Viertel der Fläche der P-Kerne. Wäre Intel in der Lage, 16 P-Kerne auf einen Die zu bringen, könnten sie stattdessen auch 8 P-Kerne + 32 E-Kerne auf einen Die bringen. Jetzt rate mal, was schneller ist.
 
  • Gefällt mir
Reaktionen: //differentRob
Ich habe das so verstanden, dass der Thread Director dem Scheduler sagen muss was er als "besser" ansieht und da fangen die Problemchen an
  • der Scheduler muss darauf hören (ab Win11)
  • der Scheduler muss das möglichst schnell umsetzten
  • ob die zum Zeitpunkt noch "laufenden" Aufgaben sofort verschoben werden können und was das bedeutet ist auch so eine Sache
  • ...

Bin aber auch neugierig wie das ausgeht.
 
  • Gefällt mir
Reaktionen: Salutos und Fritzler
Fighter1993 schrieb:
Na irgendeinen Grund wird das Konzept ja haben.

Mich lässt allerdings das Gefühl nicht los das Intel sich im Multithread geschlagen gibt.


Naja, man kann halt so Dinge wie 16 Kerne draufschreiben, was wohl sonst nicht ginge, weil man wohl kaum 16 der dicken Dinger unterbringen könnte. Im Desktop reines Marketing.

Wenn es ums reine Stromsparen ginge, was zumindest ein Grund wäre, würden auch z.B. 12+2 ausreichen, so eine Lösung könnte ich mir vorstellen. Mir erschließt sich nicht ganz, welche Software auf viele Threads optimiert sein soll, aber gleichzeitig wenig CPU-Leistung braucht. Und für reine Office-Anwendungen usw. reicht sogar mein alter i5 6200U im Laptop auch noch, und von den kleinen Kernen darf man doch mehr erwarten als von alten Ultrabook-Skylakes, da brauchts für den Alltag auch keine 8 von. Aber man kann halt viele Kerne aufs Datenblatt schreiben...

Naja, bin zumindest gespannt, ob Intel wieder aufschließen kann. Entscheidend wird auch sein, wie Zen3+ den riesigen Cache nutzen kann und wann Zen4 kommt... das Fenster zwischen Alder Lake und Zen4 sollte für Intel schon groß sein, sonst hat man am Ende auch wieder nichts gewonnen.
 
  • Gefällt mir
Reaktionen: Anon-525334
brabe schrieb:
Aktuell verteilt das BS die Threads. Man muss dem Betriebssystem nur sagen, dass es das nun nicht mehr machen soll. Das wird wohl nicht so schwer zu implementieren sein.
Also doch, nur Windows 11 kann das. Alle anderen Betriebssysteme können das nicht.
Da wird es wohl ordentliche Fesseln für die Tester geben.
 
mcsteph schrieb:

Soll das ein Witz sein? Das Ding wandert mit derselben Architektur auch in Server. Jetzt guck mal nach dem Windows-Marktanteil im Server-Bereich.

Edit: Der Windows-Share ist erstaunlich hoch. >70%. Ändet nix daran, dass andere OS da schnell mit Support nachziehen werden.
 
  • Gefällt mir
Reaktionen: iron-man, Chief Gewickelt und brabe
Im Desktop hat das Konzept wohl den Sinn, möglichst viele Kerne und möglichst viel Multithreading-Leistung auf möglichst wenig Chipfläche zu bekommen, zwecks Kosteneffizienz. Im Notebook wird dann der mutmaßlich verringerte Stromverbrauch relevant.
 
mcsteph schrieb:
Es geht nicht um die Größe. Es geht um Verbrauch und Kommunikation zw. Den Kernen.
Der Verbrauch der E-Kerne hat ja ebenfalls einen sehr guten Quotienten gegenüber den P-Kernen. Und die Kommunikation wird sich zeigen. Die mag sich in den Anfängen jetzt möglicherweise als etwas schwierig gestalten, solange die Software noch nicht explizit dafür ausgelegt ist, aber unterm Strich und vor allem langfristig gesehen bin ich davon überzeugt, dass es sich bewähren wird. Wenn es bei Smartphones schon seit mehr als einer halben Dekade funktioniert, warum sollte das dann hier zum Problem werden? Auch bei Apples M1 scheint es ja ziemlich gut zu funktionieren.
 
Summerbreeze schrieb:
Aber für die Büro-Bitches ist das auch super. Die Idlen doch eh die meiste Zeit vor sich hin. Oder?
das Stimme ich dir zu 🤣 🤣 .
 
  • Gefällt mir
Reaktionen: Inxession
Zurück
Oben