News Alder Lake: Unzählige Varianten von Intels big.LITTLE-Prozessor gesichtet

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.714
  • Gefällt mir
Reaktionen: [wege]mini
Bin echt gespannt was das an Stromersparnis für mobile Geräte bringt.
Könnte seit Jahren endlich mal wieder eine echte neue Idee in den x86 Markt bringen.
Auch wenn die Funktionsweise bei ARM natürlich schon Alltag ist.
 
  • Gefällt mir
Reaktionen: Brian.Griffin, Zockmock, Chismon und eine weitere Person
Intel setzt scheinbar alles auf Alder Lake. Zumindest was Mobile und (Entry/OEM)Desktop betrifft. Ob Renoir dran schuld ist?

Wie dem auch sei, ich bin gespannt wie die modernen Betriebssysteme mit big.LITTLE zurechtkommen. Vielleicht wird es bei Windows wieder so ein Debakel wie bei TR? big.LITTE sieht eigentlich keinen gemeinsamen Betrieb eines Paares vor, das wäre bei MC-Anwendungen allerdings schade. Dann läge bei Volllast ein Teil des Prozessors brach. Aber vllt kann man big.LITTLE wie HT deaktivieren und hat dann zwei 8-Kerner?
We will see.
 
  • Gefällt mir
Reaktionen: flo.murr
ghecko schrieb:
ich bin gespannt wie die modernen Betriebssysteme mit big.LITTLE zurechtkommen.

Ich sehe da keine Probleme.

Grundsätzlich ist das mit so wenigen Kernen nicht schwer zu lösen.
Sobald Last ansteht, immer zuerst die dicken auslasten.

Bei Ryzen z.B. werden bei Teillast auch die schnellsten Kerne zuerst gefahren.
 
  • Gefällt mir
Reaktionen: Krautmaster
Ein spannendes Konzept, muss ich mir das vorstellen wie im ARM-Bereich? Da gibts ja auch mehrere hochgetaktete leistungsstarke Kerne im Cluster für anspruchsvolle Aufgaben und dann nochmal ein Stromsparcluster, wenn man nur wenig Leistung benötigt? Und wie ist das in Windows 10 umgesetzt? unterstützt das OS dieses „Feature“ überhaupt?
 
ghecko schrieb:
Intel setzt scheinbar alles auf Alder Lake. Zumindest was Mobile und (Entry/OEM)Desktop betrifft.
Mobile ergibt das alles ja auch Sinn, aber was soll ich mit 8+2 aufm Desktop? Die ganzen Stromsparmodi werden doch von den anderen Komponenten wieder aufgefressen?
 
  • Gefällt mir
Reaktionen: Nagilum99, jemandanders, PS828 und eine weitere Person
Irgendwo muss man ja anfangen Strom zu sparen :D
Und warum auch nicht? 8 Kerne mit integrierter Grafik reicht vielen. Renoir ist auch schon verkauft bevor er vom Band läuft, so groß ist die Nachfrage.
 
  • Gefällt mir
Reaktionen: Augen1337, Fritzler, jemandanders und eine weitere Person
IBISXI schrieb:
Bei Ryzen z.B. werden bei Teillast auch die schnellsten Kerne zuerst gefahren.

Daran musste ich auch denken. AMD wird einfach nachziehen, wenn es denn bei Intel läuft, vorher denke ich weniger.

yummycandy schrieb:
Mobile ergibt das alles ja auch Sinn, aber was soll ich mit 8+2 aufm Desktop? Die ganzen Stromsparmodi werden doch von den anderen Komponenten wieder aufgefressen?

Wie meinst du das? Ne Grafikkarte verbraucht aufm Desktop nix mehr.
 
  • Gefällt mir
Reaktionen: Makso
yummycandy schrieb:
Die ganzen Stromsparmodi werden doch von den anderen Komponenten wieder aufgefressen?

Kommt sehr darauf an, wo dein Schwerpunkt liegt. Moderne Grafikkarten kommen teilweise auf einen sehr geringen Verbrauch, gerade wenn man als Gelegenheitsspieler zB eine GTX 1650ti einsetzt.

Dann nur eine 1 TB SSD dazu und du hast ein gerät, das im Idle/browsen auf das komplette system gesehen vielleicht auf 25-35w kommt. Und office Rechner ohne dedizierte Grafikkarte könnten das noch unterbieten. Gerade in großen Büros kann das den Stromverbrauch stark verringern, wenn da 30 Kisten stehen. Pro Stunde 300-600 Watt sind sicher drin.
 
Typischer Sales-Dominierter Launch. Hier werden mal gefühlt alle technisch möglichen Varianten auf den Markt geworfen. Das macht doch wenig Sinn. Schaut euch Apple an, die machens genau umgekehrt - aus gutem Grund: Auf lange Sicht ist man besser dran.
 
Ich bin da noch immer sehr skeptisch was den Nutzen für den PC betrifft. Da erwarte ich eigentlich ziemliche Priorisierungsprobleme der einzelnen Tasks. Gerade bei Windows erwarte ich da Probleme. Es gibt ja auch genug Anwendungen die mit HT/SMT Probleme haben. Das wird da mit unterschiedlich schnellen Kernen nicht anders sein.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus und GINAC
Enigma schrieb:
Schaut euch Apple an, die machens genau umgekehrt

Hm schwerer Vergleich, man bietet hier eine sehr breite Palette an damit Hersteller wie Apple sich genau das passende raus suchen können. Macht ARM und co. ja nicht anders, du als Enduser wirst ja niemals so einen Chip kaufen können im Einzelhandel.
 
ghecko schrieb:
big.LITTE sieht eigentlich keinen gemeinsamen Betrieb eines Paares vor, das wäre bei MC-Anwendungen allerdings schade. Dann läge bei Volllast ein Teil des Prozessors brach. Aber vllt kann man big.LITTLE wie HT deaktivieren und hat dann zwei 8-Kerner?

Im ARM Bereich können beide Cluster (gibt auch ARM CPUs mit 3 Clustern) seit Jahren ohne Probleme gleichzeitig arbeiten. Diese Einschränkung gab es nur bei den CPUs der ersten big.LITTLE Generation. Alle ARM CPUs der letzten jahre können gleichzeitig alle Cluster auslasten und in Multicore Anwendungen ausreizen.

Wie es Intel löst, wissen wir nicht. Würde mich aber stark wundern, wenn es da anders ist.
Enigma schrieb:
Hier werden mal gefühlt alle technisch möglichen Varianten auf den Markt geworfen. Das macht doch wenig Sinn. Schaut euch Apple an, die machens genau umgekehrt - aus gutem Grund: Auf lange Sicht ist man besser dran.

Wie möchte man Apple und Intel denn in dem Punkt vergleichen? Apple baut eigene hardware und kauft ggf. Komponenten nach Wahl zu. Intel ist eben Anbieter genau solcher Komponenten. Aus dem breiten Spektrum können dann Hersteller von Endgeräten auswählen, was Sie möchten. Diese Aufteilung erlaubt Intel sehr flexibel auf Kundenanforderungen einzugehen und auch mehr Spielraum bei der Preisgestaltung.

Die Produktvielfalt ist bei Intel nicht mit vielen Mehrkosten verbunden, da man ausgehend vom großen Ausbau einfach nach unten skalieren kann. Wenn man andere Anbieter wie Intel vergleicht, dann fahren die auch genau diese Strategie. Man sollte schon Unternehmen im selben bereich vergleichen.
 
  • Gefällt mir
Reaktionen: xexex und ghecko
eRacoon schrieb:
man bietet hier eine sehr breite Palette an damit Hersteller wie Apple sich genau das passende raus suchen können

Das ging mir auch durch den Kopf. Aber es macht keinen Sinn ;-) Folgender Gedankengang: 8x8x1 oder 8x6x1 oder 6x8x1. Em Ende werden alle die gleiche TDP haben (müssen). Folglich sind alle bis auf kleine, einstellige Prozentpunkte gleich schnell und vermutlich nahezu gleich effizient.

Auf der anderen Seite: Hast du Bock dich mit einer Technik zu beschäftigen, bei der du zwischen einem 8x6x1 oder einem 6x8x1 Design wählen müsst? Hast du als Entwickler bock das zu programmieren oder zu optimieren?

Edit: Apple wurde am Anfang verspottet. Ich hab Apple gehasst und mich jahrelang dagegen gewehrt, bis mein Chef mir ein iPhone gegeben hat, nach dem Motto: Nimm, fresse halten. Heute kaufe ich meiner Mutter ohne Wimpernzucken ein iPhone, weil jemand zwei Schritte weitergedacht hat und am Ende ein sinnvolles Produkt rauskommt. Das vermisse ich hier, weil die Produkte NICHT sinnvoll sind, wenn man mehrere Aspekte zusammenlegt.
 
IBISXI schrieb:
Ich sehe da keine Probleme.

Grundsätzlich ist das mit so wenigen Kernen nicht schwer zu lösen.
Sobald Last ansteht, immer zuerst die dicken auslasten.

Bei Ryzen z.B. werden bei Teillast auch die schnellsten Kerne zuerst gefahren.

Ne, bei big+little ist das komplizierter. Im Desktop kann man es so machen wie du sagst, weil da nur max. Leistung zählt und Verbrauch egal ist. Da kann man die kleinen Kerne als MT-Boost verwenden. In Notebooks hast du aber einen Tradeoff zwischen Leistung und Effizienz. Wenn da einfach immer die dicken Kerne zuerst rechnen und die kleinen schlafen, hast du unterm Strich gegenüber jetzt vermutlich nichts gewonnen, weil die kleinen Kerne dann nie arbeiten. Es muss pro Anwendung/Prozess entschieden werden, ob dieser jetzt latenzkritisch ist und schnell abgearbeitet sein muss (z.B. User-Eingaben) oder ob man den auf die kleinen effizienten Kerne schieben kann, weil es egal ist, ob das ein bisschen länger dauert (Hintergrundtasks, Video-Konvertierung).

Enigma schrieb:
Typischer Sales-Dominierter Launch. Hier werden mal gefühlt alle technisch möglichen Varianten auf den Markt geworfen. Das macht doch wenig Sinn. Schaut euch Apple an, die machens genau umgekehrt - aus gutem Grund: Auf lange Sicht ist man besser dran.

Daran musste ich auch denken. 8+8 macht ja vielleicht noch irgendwo Sinn, wobei das vermutlich 16 große Kerne von AMD nicht reichen wird. Aber dieses Kleinklein mit 2, 4 und 6 kleinen Kernen ist albern.
 
  • Gefällt mir
Reaktionen: stevefrogs
Alderlake wird das schlimmste Produkt, was Intel jemals fabriziert hat.
Ein totel undurchsichtiger Dschungel an möglichen Konstellationen, wo niemand beim Kauf sagen kann,w as man da jetzt überhaupt bekommt, und welche Leistung man wann und wo abrufen kann.
Wozu braucht man so viel Blödsinn überhaupt?
Mit 5 oder 6 Chips kann man doch eigentlich alle Käuferschichten abdecken.
Meinetwegen 3 Performance-Stufen, dazu 3 besonders stromsparende Chips, fertig.
Ist ja fast so, als würde man Smartphones demnächst nicht mehr nur in 3 Farben, sondern gleich auch noch in je 5 Unterfarben kaufen können. "Ja, ne, Schatz, da sist mir jetzt ein wenig zu sehr Rot, versuch mal das Kaminrot..."?
Und für den Desktop ist das zum Glück(?) so oder so keine Technologie.
Wenn da nur Platz für 16 Kerne ist, will man natürlich 16 mal die volle Power, und nicht so einen halben Kram, der im Idle Modus dann nur halb so viel Strom braucht, aber in Spielen und Anwendungen sowas von am A... ist, da reichen vernünftige Stromsparmechanismen also doch völlig aus.
Da sehe ich insgesamt also Schwarz bei Intel, das will ich mir nicht antun.
Dann bleibe ich jetzt einfach bei AMD, da kann ich auch gut damit leben, dass ich bei Mobilprozessoren und Desktop-APU's eine Nummer abziehen muss.
 
  • Gefällt mir
Reaktionen: Ralf74
Ich freu mich auf neue Ideen, aber ich hab bei Intel angst, das sie viel zu viele Varianten rausbringen können, 6+2,7+1, 6+1+1, 5+1+2 usw. usf.
 
IBISXI schrieb:
Ich sehe da keine Probleme.
Windows.
Wird ja heute schon in den Tests mit mehr Kernen direkt eingestampft.
w0nd4bra schrieb:
Ne Grafikkarte verbraucht aufm Desktop nix mehr.
Nutzt dir nichts wenn die Stromversorgung total überdimensioniert ist. 15 bis 500W Realverbrauch lassen sich nicht vernünftig erzeugen. Dafür wären komplett neue Ansätze bei der Stromversorgung nötig. Für 10W+- X brechen sich die Hersteller aber keinen ab.
 
Zuletzt bearbeitet:
Es werden bestimmt drei Chips sein.

1) 8 Big 8 Small und Gt1
2) 6 Big 8 Small und GT2 für Notebooks
3) 2 Big 8 Small für low power.

Man sollt dabei bedenken, dass 4 Small Cores so groß ist wie ein Big.
Deshalb idt der dritte Chip sinnvoll. Effektiv so groß wie ein quadcore Big

@BxBender
Ja bin auch gespannt, wie das vermarktet wird. Bei ARM sagt man oft, Octa Core. Am Ende sind es aber dann 4 kleibere, 3 Perfirmance und an "Champion" Core.
Unter Volllast lassen sich dann alle Cores nutzen.
Aber man sieht schon wie schwer es AMD mit Bulldozer hatte. Die hatten verloren, weil der Kunde eine andere Vorstellung von 8 Cores auf der Verpackung haben. Wenn die das nicht ordentlich vermarkten, angeben, sehe ich in Amerika schon eine Anzeige.
 
Zurück
Oben