News Alder Lake im Notebook: Intels Hybrid-CPU mit 5 bis 55 Watt in 19 Varianten

bad_sign schrieb:
Ich kann den kleinen nicht mehr als Idle Background Worker abgewinnen. Mit großen homogenen Kernen ist man einfach besser aufgestellt.
Ich weiß nicht... Das sehen viele Hersteller aktuell anders da diese großen homogenen Kerne verdammt viel Fläche brauchen für etwas mehr IPC.
Nimm nur Mal den Cache. Verdoppeln für vllt 5% mehr IPC. Ob das effizienter ist, fraglich.

Apples M1 ist sehr interessant und dürfte Intel auch verdrängen aus den eigenen Geräten.

Das Swapen zwischen Kernen geht heute ja so schnell dass du das gar nicht mitbekommst, denke schon allein das Browsen im Netz lastet schnell 8 Kerne zeitweise aus und selbst das ist ggf auf small Cores effizienter und wirtschaftlicher, Tasks im Background, andere Dinge die limitieren.

Die Frage ist aktuell ja eher so man bei einzelnen Aufgaben Mal abgesehen vom CPU Bound Gaming noch den Performances Unterschied zwischen Zen 2 und Zen 3 zb wirklich spüren würde. Selbst bei Applikationsstart kaum noch. Alte PCs mit halber IPC und schneller SSD sind noch gut flott unterwegs. Da kann man schon überlegen ob es nicht mehr Sinn macht 4x so viele Kerne mit 30% weniger IPC drauf zu basteln die für quasi fast alles herhalten können, ohne merklich langsamer zu sein - dafür aber die Laufzeit positiv beeinflussen oder im Rudel dann doch schneller sind.

Denke es wird eher hin zu wenig großen Fat Cores und vielen kleinen gehen. Sofern das Konzept Softwareseitig auch aufgeht und wie gesagt das Endprodukt nicht langsamer bedienbar ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi
Für mich ergibt das kein Sinn.
Gebe ich mich mit der schwachen Leistung zufrieden, dann kann man auch einen 2 Kerner kaufen. Kauf man die CPU viel zu stark (zb 16Kerner für Starcraft mit max 2 Threads), kauft man falsch. Kauft man sie zu schwach, kauft man falsch.
Möchte man ein Polster, kauft man keine kleinen Cores.

Denke es wird eher hin zu wenig großen Fat Cores und vielen kleinen gehen.
Das sehe ich aber mit Alderlake nicht kommen.
 
@bensen das war ein Beispiel. Unterschiede im Featureset wird's schon geben.. sonst sind die Kerne ja nicht wirklich mehr verschieden
 
Oben wurde ja schon gefragt, warum Intel ein Jahr zu früh, und noch vor Rocket Lake, bereits über Alder Lake spricht.

Und siehe da, Rocket Lake schneidet wohl (unter anderem bei Spielen) erstaunlich schlecht ab, wie das 3DCenter berichtet. Dazu kommen Probleme beim Stromverbrauch (bis zu 290 W), weil die CPU auf zu viel Takt geprügelt wurde. Bevor das also ans Licht kommt, kommt von Intel (mal wieder) eine Ankündigung, um die Leute vom Problem abzulenken:

3DCenter schrieb:
So sieht es leider danach aus, als dass Intel bei Rocket Lake trotz neuer CPU-Architektur doch wieder nur eine weitere "Zwischen-Generation" liefern kann, bei welcher man hofft, dass jene schnellstmöglich von etwas "richtigem" ersetzt wird.

https://www.3dcenter.org/news/weite...eine-gewisse-spiele-schwaeche-bei-rocket-lake
 
Zuletzt bearbeitet:
Was für eine seltsame Prozessorentwicklung von Intel.
Da kann man echt nur mit dem Kopf schütteln und einen großen Bogen drum machen.
Aber leider wird ja jeder noch so unsinnige Prozessor in den Großmarktprospekten gewinnbringend an den Laien vertickt.
Wer mir auf einen Schlag sagen kann, wo diese 19 Prozessortypen wirklich sinnvoll eingesetzt werden sollen, her damit. Mir fällt bei den Meisten davon einfach nichts ein.
Ergänzung ()

SaschaHa schrieb:
Ich halte von diesem Prinzip sehr viel und bin sehr gespannt, wie performant und sparsam das finale Produkt dann aussehen wird! Allerdings bezweifle ich etwas, dass aus dem 10 nm-Verfahren noch viel herauszuholen ist. Vermutlich überholen sie Cezanne dann leicht, aber es dürfte mehr Evolution als Revolution sein. So richtig spannend wird es bei Intel wohl erst wieder, wenn deren 7 nm-Fertigung (vernünftig) läuft.
Kennst du die Atomprozessoren überhaupt?
Ich habe so ein Ding mit 4 Kernen in meinem Server.
Das System lahmt trotz SSD nur so vor sich hin, sobald man mehr als nur den Browser auf hat und irgendetwas noch dazu nebenher erledigen lassen möchte.
Mein Android Smartphone macht schließlich auch nichts mit 4 Kernen und ist ständig nur am Stottern.
Ich halte also gar nichts davon, wenn man damit arbeiten können will.
Man bräuchte von den 19 Varianten also vielleicht nur eine handvoll, um damit ein sinnvolles Portfolio für den Mobilsektor aufzustellen, damit man zumindest gut surfen kann.
Zum Arbeiten kauft man sich dann halt ein leistungsstarkes AMD System mit einem vollwertigen 8 Kerner.
 
Flatsteff schrieb:
Irgendwie habe ich nicht das gefühl, dass das die Antwort ist, die X86 auf die ARM Hardware brauchen würde :o
Da gebe ich dir recht. Aber hey, genau wissen wir es erst wenn es released ist und es passende Software gibt.
Entweder es wird gut aufgebommen, oder ein flopp 🤷‍♂️
 
Convert schrieb:
Problem ist auch, dass der Ryzen bei 16 Thread-Last ja von den 15W eingeschränkt wird. Am Ende kommt es in diesem Corset gar nicht auf die absolute Threadanzahl an, sondern darauf, ob bei 15 Watt-Corset die 16 SMT-Threads effizienter sind oder die 4-SMT-Threads+8 Small Cores von Alder Lake...


Wieso wird der von 15W eingeschränkt? Das einzige 8/16 SMT ULV Gerät im Markt (Lenovo Yoga Slim) läuft bei 26+W Watt Dauerlast im Extreme Performance Modus. Übrigens sieht man an Zen 3 mobile auch den Effekt der größeren Kerne: Bei der gleichen Leistungsaufnahme geht die Taktfrequenz von Zen 3 zurück im Vergleich zu Zen 2. Das ist vielleicht mit ein Grund, weswegen bei Cezanne-U die meisten Modelle weiterhin aus Zen2 bestehen.


Convert schrieb:
Hier ist also schon die kleinste Kofiguration der höhsten Konfiguration von Ryzen mit 16 Threads von der Threadanzahl ebenbürdig... Da wird Ryzen bei Multithreading wohl nicht mehr so einfach haben...

Du darfst dir nicht nur die Threadanzahl ansehen, weil die Hälfte der threads von den big cores nur so 25% Leistung eines kompletten cores bringen.
Ergänzung ()

BxBender schrieb:
Kennst du die Atomprozessoren überhaupt?
Ich habe so ein Ding mit 4 Kernen in meinem Server.

Du scheinst die nicht zu kennen. Alleine einfach nur von Atom zu sprechen, hat null Aussagekraft. Als erstes solltest du mitteilen, von welcher Atom Generation die Rede ist.
 
PS828 schrieb:
@bensen das war ein Beispiel. Unterschiede im Featureset wird's schon geben.. sonst sind die Kerne ja nicht wirklich mehr verschieden
Also deinen letzten Satz verstehe ich nicht. Warum sollen die sonst nicht mehr verschieden sein?
Was definierst du denn als Featureset?

Wenn ich ein Design viel schmaler mache kann er doch trotzdem das gleiche Featureset haben.
Ergänzung ()

BxBender schrieb:
Kennst du die Atomprozessoren überhaupt?
Sch, du hast schon Gracemont verbaut? Interessant.
BxBender schrieb:
Ich habe so ein Ding mit 4 Kernen in meinem Server.
Das System lahmt trotz SSD nur so vor sich hin, sobald man mehr als nur den Browser auf hat und irgendetwas noch dazu nebenher erledigen lassen möchte.
Mal davon ab, dass du einen uralten Atom hast oder mit dem Gerät sonst irgendwas nicht stimmt, kommt Alder Lake ja eben auch mit großen Kernen.
 
Zuletzt bearbeitet:
@bensen ich weiß nicht ob ich dich jetzt richtig verstehe aber wenn ich die Architektur Wechsel und diese dann noch beschneide hab ich ja noch weniger oder irre ich mich? :D

Golden cove muss doch theoretisch Sachen können die Skylake nicht kann. Woher sonst der IPC Sprung Abseits von Caches etc. Da muss es mehr geben.

Meines Wissens nach war es zum Beispiel bei Lakefield so dass Funktionen wie AVX von Programmen garnicht genutzt werden konnten einfach weil einige Kerne es konnten (die großen) die kleinen aber nicht.
 
  • Gefällt mir
Reaktionen: [wege]mini
Deswegen frage ich dich ja was du unter Featureset verstehst.
Warum muss der neue Sachen können? Der macht die Sachen wie bisher einfach nur schneller.
Tiger Lake ist doch nicht nur schneller als Skylake wegen AVX512. Das Design ist einfach insgesamt deutlich breiter.


AVX512 wird Alder Lake wahrscheinlich nicht können. Sonst wüsste ich nichts was da fehlen sollte.
 
Krautmaster schrieb:
Wenn die kleinen Kerne Effizienter sind dann kann man unter Volllast natürlich bei gleicher TDP mehr Performance rauskitzeln.
Das ist aus meiner Sicht zu pauschal gedacht. Wäre es so einfach, dann könnte man die großen Kerne weitestgehend (ja, nicht völlig - eingeschränkte Parallelisierung blablub...) gleich weglassen und käme wieder dem "die kleinen Kerne sind nur eine Erweiterung nach unten" gleich. Wirklich clever wird der Ansatz (gerade im Desktop) nur, wenn hier Kollaborationsszenarien entstehen.

Meint im Bezugsfall z.B.: Einer von vier großen Kernen ist heute in Ermangelung kleiner Kerne dazu gezwungen, ineffizient Aufgaben abzuarbeiten, die ein kleiner Kern effizienter abarbeiten kann. Dann könnte ein kleine Kern dieselbe Arbeit arbeit verrichten, aber gleichzeitig mit weniger TDP-Budget auskommen und ein großer Kern "schlafen". Der resultierende "TDP-Überhang" kann dann wiederum den großen Kernen zugestanden werden, um diese zu beschleunigen.

Wie beschrieben muss man dafür aber erstmal in der Lage sein, solche Szenarien zu erkennen und die Arbeit entsprechend zu verteilen.

Von daher aktuell eher eine Randbetrachtung, die jedoch für den langfristigen Erfolg des eigentlichen Ansatzes entscheidend sein dürfte. Nur dann zahlt der sich auch aus - da muss einfach eine Mehrleistung bei rumkommen; bloße Energieeffizienz im Idle interessiert hier weitestgehend nicht und dürfte ebensowenig den Aufwand rechtfertigen. Aber: ein Schritt nach dem anderen... :)
 
cb-leser schrieb:
Wäre es so einfach, dann könnte man die großen Kerne weitestgehend (ja, nicht völlig - eingeschränkte Parallelisierung blablub...) gleich weglassen und käme wieder dem "die kleinen Kerne sind nur eine Erweiterung nach unten" gleich.
Das was du da in der Klammer kurz anhandelst ist in Wirklichkeit ein sehr großer Punkt. Es wird immer Probleme geben, wo single Thread Performance gefragt ist. Und Stand heute gibt es massig Software die nicht mit 16 Threads skaliert. Da würde man doch ohne Big Cores keinen Blumentopf gewinnen.
Ergänzung ()

cb-leser schrieb:
Nur dann zahlt der sich auch aus - da muss einfach eine Mehrleistung bei rumkommen; bloße Energieeffizienz im Idle interessiert hier weitestgehend nicht und dürfte ebensowenig den Aufwand rechtfertigen.
Er hat nicht von Idle gesprochen. Die Mehrleistung kommt durch höhere Energie- und Flächeneffizienz.
Wie gut das gelingt werden wir erst sehen, wenn das Ding ausgiebig getestet wird.
 
[wege]mini schrieb:
Kommt immer auf die "Last" an.

Selbst Intel hat eine TDP von 6 Watt angegeben.
Sobald der Cinebench R10 läuft, bei vollem Turbotakt, zieht das Teil 3-4W. Die 6W sind die TDP, 4,8W sind die SDP. Richtung 6W wird es gehen, wenn die GPU noch gefordert wird.

Klick
 
Es gibt leider noch keine Atom in 10SF oder 10ESF, außerdem wäre eh höchstens Tremont interessant. Die älteren Atom sind zu alt, es hat sich ja auch bei der IPC sehr viel geändert. Tremont Tests gibt es glaube nur von Lakefield. Bei Lakfield konnten die 4 Tremont Kerne auf 1.9 Ghz takten (POV-Ray) - bei einer PL1 Limitierung von nur 5 Watt für den ganzen Soc. Wenn man bedenkt, dass das der miese 10nm von Icelake ist, kann sich das mehr als sehen lassen. Mit 5 Watt kommt man mit Sunny/Willow in 10nm nicht sehr weit.

Unser Core i5-L16G7 ist auf 5 Watt (PL1) und 9,5 Watt (PL2) eingestellt, erst ein Firmware-Update soll das PL1 auf 7 Watt anheben.

Sobald Raytracing via POV-Ray ansteht, wird er hingegen abgeschaltet und die vier Tremont-Kerne takten konstant mit 1,9 GHz - ebenfalls wie vorgesehen. In der Spitze sahen wir über 2,9 GHz (SNC) respektive über 2,7 GHz (TNT), was unter Berücksichtigung der C-States für die spezifizierten 3 GHz und 2,8 GHz spricht.
https://www.golem.de/news/core-i5-l...-x86-hybrid-cpu-analysiert-2007-149385-4.html
 
bensen schrieb:
Er hat nicht von Idle gesprochen.
Stimmt, aber ich. Denn das wäre (wie beschrieben) so ungefähr der einzige verbleibende Vorteil, wenn man sich nicht um eine gewisse funktionale Integration der andersartigen Kerne kümmern würde. Ich stimme ja grundsätzlich zu, dass das auch unter Volllast so klappen kann - etwas Leistung auf großem Kern opfern, um die konvexe Energieverbrauchskurve entsprechend zurückzuwandern und dabei ausreichend Budget zu bekommen, um die kleinen Kerne bei Parallelbearbeitung zu befeuern - alles schick. Das muss aber nicht zwangsläufig klappen ("oh - schnell rechnen geht nur mit Befehlserweiterung xyz, die kleinen Kerne müssen leider den Umweg nehmen") und ist auch sicherlich der absolut billigste (i.S.v. einfachste) Usecase - "rechne mit, wer kann" und alles, was nicht bei drei auf den Bäumen ist rennt wild drauf los. Wenn unter Volllast sowieso mehr der großen Kernen helfen würden, hätte man aber auch schlicht ein paar weniger mehr davon (inkl. HT) statt der vielen kleinen "draufpacken" können - ich meine mal (überspitzt - Besonderheit "Foveros" ist bekannt) gehört zu haben, dass die Konkurrenz das so ähnlich macht. :D Ganz zu schweigen davon, dass der Vorteil einer Auslastung von "groß + klein" bei sehr beschränktem Leistungsbudget extrem überschaubar sein kann, weil besagte Energieverbrauchskurve dann ggf. doch noch sehr flach verläuft für die großen Kerne.

Ich meine, dass es langfristig mehr bzw. deutlich andersartige Vorteile geben sollte / muss, damit dieser Aufwand (in vielerlei Hinsicht) wirklich nennenswert lohnt und im Großen und Ganzen nicht nur ein Niederlast-Verbrauchsvorteil bleibt. Das sieht man übrigens auch am unterstellten "Volllast-Szenario" - wer Vielkern-CPUs auslasten will, wird sicherlich nicht zu 8+8-CPUs greifen, wenn er bei AMD 16 dicke Kerne kriegen kann. Auch wäre (zur Veranschaulichung) eine hypothetische 2c+16C-CPU von Intel nicht der Rede wert, wenn man hier nur zwei kleine Kerne "extra" beaufschlagen könnte und auf den 16 Kernen minimal Leistung verliert - so ein marginaler Vorteil (Edit: so es da überhaupt einen gibt) verpufft schnell. Interessant wird's dann, wenn die zwei angenommenen kleinen Intel-Kerne als "Vorarbeiter" dafür sorgen können, dass die 16 großen Intel-Kerne deutlich effizienter rechnen als die 16 Kerne bei AMD, die alles selber machen und vielleicht manche ihrer Taktzyklen (am Ende) halb leer durchlaufen (müssen). :)
 
Zuletzt bearbeitet:
cb-leser schrieb:
Das muss aber nicht zwangsläufig klappen


Du musst auch nicht zwangsläufig recht haben. Du hast null Ahnung über die Leistungsfähigkeit und den Strombedarf der einzelnen Gracemont und Golden Cove Kerne, willst aber alles schon vorher wissen.
 
schmalband schrieb:
Dann, polterte jemand: 7nm Prozess-Bla Bla und sagte etwas ohne etwas zu sagen.
Also zunächst einmal habe ich mich zuvor sehr wohl an der Thematik "big.LITTLE" beteiligt, was du scheinbar übersehen hast und auch nicht weiter schlimm ist. Aber: Dieses "7nm-Bla Bla", wie du es ja mit deiner Hochnäsigkeit wieder betitelst, ist nicht nur aus dem Kontext gerissen, sondern du scheinst da auch Dinge hineinzuinterpretieren, die in keinem Zusammenhang zu meiner Aussage stehen. Da du ja leider noch kein Gegenargument in diesem Zusammenhang gebracht, sondern stattdessen von ganz anderen Dingen gefaselt hast, kann ich leider nur Vermutungen anstellen, was du fälschlicherweise in meine Aussage hineininterpretierst und woraus du dir deine Strohmänner baust.
SaschaHa schrieb:
So richtig spannend wird es bei Intel wohl erst wieder, wenn deren 7 nm-Fertigung (vernünftig) läuft.
Das hier ist mein aus dem Kontext gegriffenes "Bla-Bla". Ich nehme an, du interpretierst in diese Aussage, dass ich Intel's 7nm-Verfahren mit TSMC's 7nm-Verfahren auf eine Ebene stelle. Das habe ich in keiner Weise getan. Mir ist durchaus bewusst, dass Intel's 7nm-Verfahren eher mit TSMC's 5nm-Verfahren konkurriert, und Intel's 10nm aktuell der direkte Konkurrent zu TSMC's 7nm-Verfahren ist - wenn man das so sagen kann. Das geht auch aus dem Kontext hervor, bei dem ich Alder-Lake ja bereits knapp vor Cezanne und nicht etwa - aufgrund der Zahl in der Namensgebung der Herstellungsverfahren - dahinter. Zitat:
SaschaHa schrieb:
Vermutlich überholen sie Cezanne dann leicht, aber es dürfte mehr Evolution als Revolution sein.
Würde ich Intels 10nm-Verfahren nicht auf einer Ebene mit TSMC's 7nm-Verfahren sehen, wäre dies - auch mit "big.LITTLE" - nur schwer möglich. Dennoch ist es ein offenes Geheimnis, dass Intels 10nm bisher eher schlecht als recht liefen.

schmalband schrieb:
Mein Gedanke, war: Heute haben die Kids von Mama das Internet zum Sonntag aktiviert bekommen.
Bisher hast du weder auch nur ein einziges Gegenargument zu meinen tatsächlichen Aussagen gebracht, noch bist du auf meine anschließenden Ausführungen eingegangen. Du ziehst meine Kommentare aus dem Kontext, interpretierst dort irgendeinen Schachsinn rein und baust dir daraus dann deine Strohmann-Argumente, die in ihrer Aussage ja richtig sind, aber leider in keinem Zusammenhang zu dem stehen, was ich gesagt habe. An keiner Stelle habe ich dir widersprochen, was du hier aber mit allen Mitteln versuchst so aussehen zu lassen. Meiner Meinung nach willst du einfach nur provozieren, das geht ja bereits aus deinen zahlreichen Beleidigungen hervor.

schmalband schrieb:
Darauf hin habe ich gefragt ob man keine Ahnung hat, weil das "Argument" kein Argument ist.
Dann wurde es absurd.
Man könnte auch einfach sagen, ich präferiere AMD. Mit oder ohne Begründung.
Wenn du mir noch sagen würdest, welches Argument ich denn überhaupt gebracht haben soll, wären wir schon einen gewaltigen Schritt weiter :) Aber scheinbar weißt du das selbst nicht so recht, da dieses scheinbare Argument lediglich eine Fehlinterpretation von dir war. Übrigens präferiere ich nicht AMD, sondern ich setze mich sachlich mit der Thematik auseinander. Das solltest du auch mal probieren ;)

schmalband schrieb:
Aber ein Argumente bringen, was kein Argument ist und dann mit Vergleichen hantieren die Arschbacken und Kuchenbacken vergleichen...
Ja welches Argument denn nun? :D Bisher hast du noch kein tatsächliches Argument von mir genannt, sondern immer nur auf irgendwelche zusammenhanglose Worte geschossen und mit Provokationen um dich geworfen. Leider gehe ich nicht davon aus, dass du auf meine einzelnen Punkte hier eingehen wirst, sondern (wieder) nur einzelne Sachen zitieren und aus dem Kontext ziehen wirst, aus denen du dir dann neue Strohmann-Argumente bauen kannst. Dir scheint es nicht um eine sachliche Diskussion zu gehen, sondern um ein Überlegenheitsgefühl, indem du andere Menschen korrigierst und heruntermachst. In diesem Sinne erübrigt sich eigentlich jede weitere Diskussion mit dir.
 
mkl1 schrieb:
Was meinst du mit viel kommen? Ich sehe das komplett anders, ich sehe TGL-U sehr schlecht aufgestellt. Wie gesagt, bei wirklich nur 15W takten 4 TGL-U Kerne nur mit 2.5-2.6 Ghz.

Gracemont soll ja Skylake IPC erreichen und 2-2.5 Ghz erreichen Intels little cores bestimmt auch, sogar Tremont im schlechten 10nm Icelake Prozess kann über 3 Ghz boosten bei den mobilen. Es treten 2 TGL-U cores gegen 8 Gracemont an. Die 2 TGL Kerne hätten dann noch 1.2 IPC und SMT von *20-25%, dennoch ein sehr schlechtes Verhältnis.




Ich glaube er trollt nur rum, wenn er nicht wirklich so verpeilt ist.

Ich meinte: Da müssten schon echt heftige Kerne kommen, wenn Intel mit 2 "großen" Kernen irgendwas reißen will. Also surreal groß. Alternativ müssten ja 8 kleine Kerne gegen Zen 3 ankämpfen, was ebenso unrealistisch scheint. Das ganze Konzept ist für mich Müll.
Ergänzung ()

bensen schrieb:
Nur bei Szenarien wo man nur > 2 aber <6 Threads auslasten kann. Bei mehr schlagen die mehr Kerne die wenigen.
Und wenn die Anwendung 6 oder 8 Threads auslastet soll das Konzept gut sein?
Der Gegenspieler ist hier ja klar Ryzen 5xx0. Ich sehe nicht wie Intel hier irgendwo einen Stich bekommt.
 
Nagilum99 schrieb:
Und wenn die Anwendung 6 oder 8 Threads auslastet soll das Konzept gut sein?
Der Gegenspieler ist hier ja klar Ryzen 5xx0. Ich sehe nicht wie Intel hier irgendwo einen Stich bekommt.
Hä? Es ging dort um den Vergleich zu TGL-U.


Das 2+8 gegen 8 große Kerne Probleme haben, liegt auf der Hand. Allerdings ist auch die Die-size sicherlich eine andere. Das Konzept kann taugen, wenn es optimal umgesetzt wird. Wir wissen rein gar nicht was die einzelnen Kerne leisten werden, noch was die verbrauchen. Ob Intel damit konkurrenzfähig wird kann man heute gar nicht beantworten. Auch der TDP-Bereich ist völlig unklar. Die Zahlen sind Schall und Rauch. Die Frage ist wo die real liegen.
 
  • Gefällt mir
Reaktionen: v_ossi
Zurück
Oben