DarkerThanBlack schrieb:
Big-Little? Dieses Prinzip hat doch AMD schon mit Bulldozer versucht. Wie gut das funktioniert hat, haben wir ja gesehen.
Bulldozer hatte einen komplett anderen Ansatz. Bei Bulldozer sind je Modl einige einheiten einfach und einige Einheiten doppelt vorhanden. Ein Modul ist also weder eine echte Dualcore CPU noch ein Single Core. Deshalb war Bulldozer auch nur in manchen Bereichen wirklich schnell.
Bei Big.Little kommen zwei verschiedene, aber vollwertige kerne zum Einsatz. Eine auf Effizienz getrimmte CPU und eine auf Leistung optimierte Architektur. Nicht jede Architektur muss jede Befehlssatzerweiterung und jede Funktion bieten, aber jeder Kern ist ein vollwertiger x86 Kern, der sich nicht wie bei Bulldozer zwangsweise Ressourcen teilen muss.
Bulldozer war eher SMT+ Im Grunde Hyperthreading mit zusätzlicher Hardware.
DarkerThanBlack schrieb:
Der eigentliche Grund ist eher, Intel spart dadurch Chipfläche, da sie eben nicht wie AMD in Chipletten fertigen und somit extreme Probleme mit der Ausbeute bekommen würden, wenn sie einen echten 16-Kerner produzieren müssten, vorallem bei ihrem wackeligen 10nm Prozess und somit dank Marketing trotzdem 16-Kerner verkauft können.
Reine Spekulation. Mittelfristig wird Intel wohl ohne Probleme Chips in der Größe fertigen können. Sie wollen ja auch komplexe GPUs damit fertigen und auch riesige monolitische Server CPUs
Das hat aber deutliche Effizienzvorteile. Man muss keinen Allround Kern konzipieren, sondern kann sowohl voll auf Leistung gehen, als auch auf Effizienz.
bensen schrieb:
Tun sie das? Mit den ganzen Shrinks habe ich eher das Gefühl, dass die immer kleiner werden.
Vielleicht sollten wir statt größer und kleiner lieber komplexer sagen. Du brauchst deutlich mehr Transistoren für geringe Leistungssteigerungen. Du kannst einen nur etwas langsameren Kern mit deutlich weniger Transistoren bauen. Dieses freigewordene Transistorbudget kannst du dann unterschiedlich nutzen.
Zum einen könntest du die Gesamtchipfläche verkleinern, egal in welcher Fertigung die CPU gebaut wird. Du könntest das Budget aber auch in die großen kerne investieren und diese deutlich ausbauen.
Sieht man sehr gut bei den Apple SOCs. Im Singlecorebereich sind sie ja immer ziemlich der Konkurrenz voraus. Die großen Kerne sind aber auch deutlich komplexer und bei gleicher Fertigung größer, als beispielsweise die Kerne bei einem Qualcomm Prozessor.
bensen schrieb:
Im Desktop sehe ich das auch nicht sonderlich vielversprechend.
Wie gesagt, man kann damit nicht nur die Leistungsaufnahme senken, sondern auch unter Umständen deutlich komplexere große Kerne bauen, die deutlich leistungsfähiger sind.
0xffffffff schrieb:
Naja, viele Entwickler sind schon mit mehr als einer CPU überfordert, denen traue ich das ehrlichgesagt nicht zu. Außerdem sehe ich keinen Vorteil darin normale Anwendungen auf einem Little-Kern laufen zu lassen, die gehört immer auf die schnellen Cores um schnell die Arbeit zu erledigen um sich dann wieder ASAP schlafen zu legen.
Im Bereich der Multithreadoptimierung hat sich in den letzten ~5 Jahren schon sehr viel getan. Viel komplexe Software wurde da mittlerweile schon nicht schlecht optimiert. Sicher, hier gibt es noch genug Baustellen, aber gerade die Großen der Branche machen da vernünftige Fortschritte.
Intel arbeitet zudem ja auch eng mit der Softwareindustrie zusammen und unterstützt bei Optimierung. Das Konzept ist ja nicht ganz neu. Im Mobilemarkt ist das seit Jahren Standard und hat sich sicherlich nicht ganz ohne Grund durchgesetzt.
Es gibt ja durchaus einige dauerhafte Anwendungen, die nicht nur schnellst möglich abgearbeitet werden sollen. Die gesamten systemprozesse dürften hier profitieren, aber auch eher leichte Themen wie Streaming etc. Man könnte die großen kerne auch als eine Art Hardware Boost nutzen. Man könnte die kleinen Kerne theoretisch auf einen sehr effizienten Takt- und Spannungsbereich trimmen. kurzzeitige Spitzenlasten gleicht man dann nicht durch höhere Frequenz aus, sondern durch die großen kerne.
Ein Beispiel wäre hier der klassische Internetbrowser. Der Seitenaufbau kann schnellstmöglich durch die großen Kerne erfolgen, um sich das geöffnete Youtubevideo anzuschauen, braucht es dann nicht die großen kerne.
Theoretisch ist da viel möglich. Natürlich ist es naiv zu glauben, dass sowas schnell geht. Natürlich ist das erst mal in der Software eine riesige Hürde und wird wahrscheinlich einiges an optimierungszeit benötigen. Aber hier gibts durchaus einiges an Potential.
Sagen wir so. Intel steht mit so ziemlich allen großen Softwareunternehmen im direkten Austausch. Sie werden da ziemlich Sicher reichlich Feedback gesammelt haben, bevor sie entsprechende Überlegungen angestellt haben. Aber sicher wird es mehrere generationen brauchen, bis sich bei dem Ansatz das volle potential zeigen kann.