News Alder Lake-S: Erste 16-Kern-CPU-Muster laut Benchmarks im Umlauf

S.Kara schrieb:
Gerade bei Gaming macht das sehr viel Sinn da oft wenige Threads einen hohen Takt benötigen weil sich einige Aufgaben nicht parallelisieren lassen. Um die ganzen kleingehackten Threads können sich dann die kleinen Kerne vergleichsweise effizient kümmern.

Aber ist es nicht auch heute schon so, dass die CPUs die Taktraten ihrer Kerne einzeln anpassen? Somit würde ein Spiel, welches beispielsweise nur 4 Threads stark belastet, den Prozessor veranlassen eben genau diese 4 Kerne hochzutakten, der Rest läuft weiter effizient bei reduzierter Kernspannung und Taktrate.

Bierliebhaber schrieb:
Ich bekomme auf jeden Fall Bulldozer-Vibes. Mit weniger Fail-Potential und weniger Komplex, dafür aber teilweise mit ähnlichen Problemen. Windows muss man auch erst mal beibringen, welche Kerne wie viel können, oder?

Ja, das ist so das größte potentielle Problem das ich hier sehe, wie gut das letztlich funktioniert hängt vollständig davon ab, wie schlau der Scheduler des Betriebssystems ist. Das Hintergrundprozesse mit ohnehin niedriger Priorität auf den kleinen Kernen laufen, geschenkt, das bekommt Windows hin. Wirklich einen Unterschied wird das aber nur im Laptop machen, wo 2 Watt Einsparung einen großen Unterschied machen - es ist ja so, dass im normalen Office- oder Desktopbetrieb die CPU ohnehin die meiste Zeit schläft, und mit einem kleinen Kern an deren Seite müsste der große natürlich nochmal viel seltener aufwachen.

Am Desktop, gerade für Spiele oder andere leistungsintensive Anwendungen, habe ich aber meine Zweifel. Wir haben ja aktuell schon das Problem, dass viele Anwendungen und insbesondere Spiele oberhalb von 8 Threads nur schlecht oder gar nicht skalieren. Hier jetzt noch langsamere Kerne einzumischen könnte für die Leistung daher sogar eher kontraproduktiv sein (oder der Scheduler nutzt sie dann eben nicht, was aber wiederum das ganze Konzept ad absurdum führt).

Naja, jedenfalls ist das Thema durchaus spannend. Gut möglich, dass Intel hier auf einen Bulldozer-Moment zusteuert, andererseits könnte sich das Konzept in der Praxis auch besser bewähren als angenommen - ich beobachte gespannt.
 
Also ich finde das Konzept eigentlich ganz interessant.

Meine Vermutung ist eigentlich, dass die kleinen Kerne SMT ersetzen und dabei leistungsstärker (vor allem in Spielen, wo SMT häufig eher bremst gegenüber richtigen Kernen) sind und ähnlich effizient.

Außerdem hat man doch schon bei Tiger Lake im Notebook eine IPC-Steigerung von über 20 Prozent gesehen. Und auch der Takt stimmt jetzt halbwegs. Eine 4C/8T-Tiger-Lake-CPU ist nicht erheblich langsamer als ein 4900HS (Zen 3) mit 8C/16T. Verglichen an der Kernzahl gleichauf bis deutlich besser:

https://www.computerbase.de/2020-09...#abschnitt_multicoreleistung_amd_bleibt_vorne

Wenn man die Ausbeute in den Griff kriegt, können das doch echt gute CPUs werden.

Für mehr Kerne müsste man dann eventuell "kleben".


Bierliebhaber schrieb:
Ich bekomme auf jeden Fall Bulldozer-Vibes. Mit weniger Fail-Potential und weniger Komplex, dafür aber teilweise mit ähnlichen Problemen. Windows muss man auch erst mal beibringen, welche Kerne wie viel können, oder?

Das sehe ich ähnlich.

Wobei Intel wohl schon irgendwie dafür sorgen wird, dass Windows vernünftig damit umgehen können wird.
Ich glaube auch kaum, dass sie sich da so in's Blaue stürzen werden wie AMD damals.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mar1u5, or2k und estros
Berserkerbase schrieb:
Ich frage mich, was das im Desktopbereich bringen soll. Wahrscheinlich genauso viel wie ein Hybridauto im Straßenverkehr...nix 🤷‍♂️
Naja, so ganz stimmt das nicht, der Bedarf an mehr Cores steigt stetig. Das gibt ja Intel mit dieser Architektur quasi zu, auch wenn Intel noch immer davon redet 4 Kerne würden ausreichen.

Die Argumente von big.LITTLE sind grob, bei steigender Anzahl Cores den Energieverbrauch im Griff zu behalten.

Für mich wird die Herausforderung darin bestehen den "Gammelprozessen" die leistungsschwachen Cores und dort wo der Nutzer die Leistung "spürt" die leistungsstarken Cores zur Verfügung zu stellen.
Spannend wird es auch beim Umschalten von big zu LITTLE und umgekehrt. Bremst häufiges Umschalten hier eher das System aus oder eben nicht.
 
  • Gefällt mir
Reaktionen: noxcivi
Richy1981 schrieb:
Macht man das jetzt um mehr Kerne vorweisen zu können und gleichzeitig nicht die abwärme zu sprengen?

Sieht so aus.

S.Kara schrieb:
Gerade bei Gaming macht das sehr viel Sinn da oft wenige Threads einen hohen Takt benötigen weil sich einige Aufgaben nicht parallelisieren lassen.

Das macht überhaupt keinen Sinn. Wenn das Game die Kerne nicht nutzt, braucht es auch keine. Im Gegensatz dazu, wenn Du Aufgaben hast, die sich sehr gut parallelisieren lassen, verlierst Du mit deinen kleinen niedrig taktenden Kernen - also gegen reale 16-Kerner.
 
Heschel schrieb:
Das macht überhaupt keinen Sinn. Wenn das Game die Kerne nicht nutzt, braucht es auch keine.

Also baut man auch keine....Verschwendetes Silizium.

Heschel schrieb:
wenn Du Aufgaben hast, die sich sehr gut parallelisieren lassen

Dann kauf eine CPU, die dafür gebaut wurde.

btt:

Das Big.Little Konzept ist im Desktop Markt (vor allem für Gamer) überfällig und ich hoffe, Intel fährt es nicht gegen die Wand.

mfg
 
der_infant schrieb:
Verteilt Windows die Aufgaben an große und kleine Kerne oder passiert dass CPU intern?
S.Kara schrieb:
Das übernimmt das Betriebssystem.
Nur übernimmt Windows diese Aufgabe so noch nicht. Schon die verschieden stark boostenden Zen2-Kerne von AMD an den Scheduler von Win10 zu kommunizieren, hat einiges an Entwicklung gebraucht. CPU-Kerne mit verschiedenen Funktionalitäten sind eine noch größere Herausforderung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: c9hris, Fritzler, Rockstar85 und 2 andere
der_infant schrieb:
Verteilt Windows die Aufgaben an große und kleine Kerne oder passiert dass CPU intern?
noxcivi schrieb:
Nur übernimmt Windows diese Aufgabe so noch nicht. Schon die verschieden stark boostenden Zen2-Kerne von AMD ans den Scheduler von Win10 zu kommunizieren, hat einiges an Entwicklung gebraucht. CPU-Kerne mit verschiedenen Funktionalitäten sind eine noch größere Herausforderung.
Nicht zu vergessen, dass AMD am Anfang ja spezielle Energiesparpläne gebraucht hat, weil neben der Aufgabenverteilung auch die Kerne falsch schlafen gelegt wurden bzw. das Aufwecken viel zu lange gedauert hat.
Ist leider ein sehr komplexes Thema, bei dem es auch längere Zeit (oder immer noch?) viel Verwirrung gab.
 
  • Gefällt mir
Reaktionen: noxcivi
noxcivi schrieb:
ans den Scheduler von Win10 zu kommunizieren

Hier muss Intel liefern.

Die kleinen Kerne müssen bei Games (oder anderen "minderwertigen" Anwendungen) die Nebenlast stemmen und die Hauptlast muss von den großen kommen.

Das ganze über Hardware so einfach zu gestalten, dass der böse August nicht wieder bei MS liegt, muss Intel jetzt bringen.

Für Hardcore Render Anwendungen oder wirklich gut parallelisierte Programme, ist dieses Konzept natürlich nichts.

mfg
 
  • Gefällt mir
Reaktionen: noxcivi und Makso
[wege]mini schrieb:
Also baut man auch keine....Verschwendetes Silizium.

Merkst nichtmal, dass Du dich hier selbst widersprichst.....

[wege]mini schrieb:
Dann kauf eine CPU, die dafür gebaut wurde.

Wenn ich so viel mit bestimmten Programmen zu tun hätte, die sich gut parallelisieren lassen könnten, hätte ich einen TR und keinen 3700X im System. Aber anscheinend hast Du Null Argumente hier. Das sieht man ganz besonders an deinem nächsten Zitat:

[wege]mini schrieb:
Das Big.Little Konzept ist im Desktop Markt (vor allem für Gamer) überfällig und ich hoffe, Intel fährt es nicht gegen die Wand.

Du kannst nicht mal die Vorteile davon aufzählen. Fanboy wohl.
 
  • Gefällt mir
Reaktionen: Makso
@Rockstar85 bis H2. Ab H2 hat AMD Apple seine 7nm Kapazitäten übernommen da Apple auf 5nm umgestiegen sind. Weiters hat AMD Huawei 5nm Kapazitäten für das Jahr 2021 übernommen.
 
Heschel schrieb:
Du kannst nicht mal die Vorteile davon aufzählen.

Wenn es gut gebaut ist, ist ein kleiner Kern schneller und verbraucht weniger Silizium, als die Version von SMT, die aktuell von fast allen gebaut wird.

Du sparst Transistoren und hast trotzdem mehr Leistung, da dein Fred schneller ist, als ein virtueller.

Wie Intel dieses Konzept umsetzt, wird man abwarten müssen. Gut ist auf jeden Fall, dass sie sich darauf einlassen und dies auch Dank AMD.

Fanboy bin ich nur von Fortschritt.

mfg
 
  • Gefällt mir
Reaktionen: andi_sco und LamaMitHut
Ov3rDriv3r schrieb:
Ich sehe in dem Big-Little Ansatz überhaupt keine Vorteile. Ob ich jetzt große Kerne niedrig takten lasse oder ganz bzw. teilweise in Schlaf versetze oder aber zusätzlich noch kleine Kerne dazu packe... In meinen Augen macht das im Desktop keinen Sinn.
Der Sinn wird sein, dass sie mit der Fertigungstechnik nicht hinterher kommen und kleinere Kerne schon mal einfacher und günstiger sind und höhere Ausbeuten ermöglichen. Und ohne bei der Verlustleistung all zu weit gehen zu müssen können sie mehr Kerne pro CPU bieten um einerseits etwas mehr Multithreading Performance raus zu hohlen und andererseits besseres Marketing zu machen. Mehr Kerne und höhere Taktraten lesen sich in Aldi und Mediamarkt Prospekten halt einfach besser als weniger und niedriger getaktete große Kerne.
 
Wartet mal ab, das ist ein weiterer Baustein, um die Leistungsaufnahme in Zukunft rapide zu senken und zeitgleich die Aufgabenverarbeitung effizienter zu gestalten.
 
  • Gefällt mir
Reaktionen: andi_sco und [wege]mini
[wege]mini schrieb:
Wenn es gut gebaut ist, ist ein kleiner Kern schneller und verbraucht weniger Silizium, als die Version von SMT, die aktuell von fast allen gebaut wird.

Deine kleinen Kerne können bei einer gut parallelisierenden Aufgabe überhaupt keine Vorteile bieten. Da sind 16 vollwärtige Kerne besser, als deine 8 großen Kerne + die "Minies" - wenn das Programm mit 16 Kernen umgehen kann.

Und wenn das Programm nur 4 Kerne nutzt, ist dein Vorteil bei einem 8 Kerner mit 8 mini-Kernen auch dahin.
 
Berserkerbase schrieb:
Ich frage mich, was das im Desktopbereich bringen soll. Wahrscheinlich genauso viel wie ein Hybridauto im Straßenverkehr...nix 🤷‍♂️

vorsicht! hybrid bringt sehr wohl etwas... nur nicht besonders viel (sag ich als noch prius 2 fahrer).
 
estros schrieb:
die Aufgabenverarbeitung effizienter zu gestalten.

Es ist halt auch schwer zu vermitteln, warum AVX-512 extrem viel Platz verbraucht und dann auch noch den Takt massiv senkt, wenn man es denn dann benutzt.

Für Gamer sind das verschwendete Einheiten, die den Chip nur sinnlos aufblähen und den Preis erhöhen.

Hier hat/musste man halt bei den Handyboys lernen. Niemand würde da auf die Idee kommen, die High-Performens Kerne für Office zu verwenden.

mfg

p.s.

Heschel schrieb:
Da sind 16 vollwärtige Kerne besser, als deine 8 großen Kerne + die "Minies" - wenn das Programm mit 16 Kernen umgehen kann.

völlig richtig. Wenn du aber einen 8 Kern SMT Prozzi neben einen 8+8 Kern Prozzi legst, der 8+8 Kern kleiner ist und noch mehr Leistung hat, geht es nicht mehr um 16 vollwertige Kerne.

Die werden immer schneller sein. Dafür aber auch größer.

Es geht immer nur um die Fläche an verkauftem Silizium. Alles andere ist Marketing. (wenn du es baust)
 
  • Gefällt mir
Reaktionen: andi_sco
Bei dem kompletten Kauderwelsch an möglichen Hardwareprodukten von Intel sehe ich aus Sicht der Softwareprogrammierer und Spielentwickler schon einmal völlig Schwarz.
Was im Smartphone aus Stromsparsicht und der wenigen Hardwarekonstellationen und der geringen Leistungsbeanspruchung als sinnvoll erachte, ist spätestens im Desktopsegment, wo fortlaufend Strom über die Dose gezogen wird, als extrem nachteilig.
Da werden dann demnächst über Mediamarktanzeigen in Funk udn Fernsehen 16 Kerner an gutgläubige Menschen verkauft, udn dann stellt sich heraus, dass sie lediglich einen echten 8 Kerner gekauft haben.
Was bei AMD mit 4-8 fast vollständig vorhandenen CPU-Kernen zu einer Klage im Amerika führte, wird hier sicherlich dann gekonnt ausgehebelt, da man wie jetzt bei NVidia trotz einer klaren Fehlinformation vor Gericht nicht dafür belangt werden kann.
nVidia mit ihren 4GB, die iN Wahrheit nur 3,5GB mit vollem Speed laufen udn die anderen 0,5GB absurd stark ausbremsen.
nVidia mit ihren 10000 Shadern, wovon aber nur 5000 vollständig genutzt werden können, die andere Hälfte nur auf gut Glück bei spezieller angepasster Programmierung Verwendung finden.
Und da auch Smartphonewerbung mit ihrer falschen 8 Kern-Bauernfängerlüge durchkommt (4+4 wäre richtig!), wird also auch Intel mit der kompletten Werbeindustrie ohne weitere Konsequenzen damit durchkommen.
 
  • Gefällt mir
Reaktionen: Kodak
Banned schrieb:
Meine Vermutung ist eigentlich, dass die kleinen Kerne SMT ersetzen und dabei leistungsstärker (vor allem in Spielen, wo SMT häufig eher bremst gegenüber richtigen Kernen) sind und ähnlich effizient.


Das war mal vor einigen Jahren. SMT ist mittlerweile kein Problem in Spielen mehr und viele Spiele können mit SMT die höhere Threadzahl auch in Leistung umsetzen. Deaktiviertes SMT kostet hingegen in vielen aktuellen Spielen Leistung.

SMT durch mehr Kerne zu ersetzen macht relativ wenig Sinn, da SMT eine tolle Art der Effizienzsteigerung der Kerne ist. Sich SMT als zusätzliche Kerne vorzustellen ist sowieso eigentlich falsch, denn SMT bietet nicht wirklich mehr (virtuelle Kerne) es optimiert viel die Bearbeitungsfolge der anstehenden Tasks und bietet die Funktion, dass ein Kern während der Bearbeitung bereits den nächsten Tasks vorbereiten kann. Theoretisch lastet SMT die vorhandenen kerne unterm Strich deutlich besser aus und kann gewisse Teile parallel abarbeiten. Die reinen Recheneinheiten können trotzdem pro Zyklus nur eine Berechnung ausführen. Daher ist mit aktivem SMT der Leistungssprung auch deutlich geringer, als wenn man wirklich mehr Kerne hat. Das ganze kostet kaum Transistoren. SMT durch mehr Kerne zu ersetzen, macht wenig sinn, da mehr Kerne deutlich mehr Transistoren benötigen und man ohne SMT die vorhandenen Kerne weniger effizient ausgelastet bekommt.

SMT ist viel mehr eine Technik die Einfluss auf die Organisationslogik hat, als auf die wirklichen Recheneinheiten. Die können am Ende auch nur das berechnen, was die Hardware halt hergibt. Mittels SMT kann man hier die effektive Auslastung aber steigern.

Einfaches Beispiel. Ein Chef kann 100 Dokumente in der Stunde unterschreiben. Nur er kann das und kein anderer. Wenn er sich nun jedes einzelne Dokument aus dem Aktenschrank raussuchen muss, dann schafft er von den theoretisch 100 Unterschriften nur 70 in der Stunde. Wenn er aber eine Sekretärin (SMT) hat, die ihm die Arbeit des Raussuchens abnimmt und ihm ein Dokument nach dem anderen vorlegt, dann kann er auch seine 100 Unterschriften in der Stunde leisten. Ganz vereinfacht gesagt ist SMT nichts anderes als die Sekretärin, die sich um die Organisation kümmert, damit der eigentliche Rechenkern stets ausgelastet bleibt. Das Betriebssystem kann mehrere Aufgaben parallel vergeben und SMT organisiert diese Tasks, dass sie möglichst Effizienz von den vorhandenen Rechenwerken bearbeitet werden können.

Daher macht es wenig Sinn auf SMT zu verzichten. Es steigert die Effizienz vorhandener Ressourcen für einen sehr geringen Preis. Natürlich sind mehr Recheneinheiten irgendwann schneller, aber kosten auch mehr. SMT braucht nur wenig Transistoren. Bei modernen CPUs dürften es unter 5% mehr Transistoren sein. Ohne großen Energieaufwand hat man am Ende aber oftmals um die 30% mehr Leistung.


Gedankenexperiment, wenn SMT 5% Mehr Transistoren / Fläche benötigt und 30% Leistung bringt

1 Kern = 1 Flächeneinheit = 1 Performanceeinheit
12 Kerne = 12 Flächeneinheiten = 12 Performanceeinheiten
12 Kerne + SMT (x 1,05) = 12,6 Flächeneinheiten = 12 +SMT (x1,3) -> 15,6 Performanceeinheiten
16 Kerne = 16 Flächeneinheiten = 16 Performanceeinheiten.

Man erreicht also mit deutlich weniger Fläche unterm Strich das gleiche / ähnliche wie ansonsten nur mit deutlich mehr Einsatz.

Das ist nur stark vereinfacht und mit abstrakten, aber halbwegs realistischen zahlen dargestellt. Aber auf SMT zu verzichten macht bei den geringen Mehrkosten nicht wirklich Sinn. Mehr kerne machen Sinn, aber weniger als SMT Ersatz, sondern zur weiteren Steigerung der Leistung. Der asymmetrische Kernaufbau kann die Vorteile mehrerer Architekturen verbinden.
 
  • Gefällt mir
Reaktionen: derSafran, KlaraElfer, thuNDa und 3 andere
Zurück
Oben