Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel-CPU-Gerüchte: Alder Lake-S mit 16 Kernen nach big.LITTLE-Prinzip
Bei Handys funktioniert das seit Jahren wunderbar. Sobald eine Anwendung Leistung braucht wird sie in den großen Kern verschoben und ab gehts. Warum sollte das im Desktop keinen Sinn machen?
KlaraElfer schrieb:
Rein logisch ist der Versuch zum Scheitern verurteilt.
Ich kaufe aber kein Handy, sondern einen Desktopprozessor.
Und dort ist so eine Herangehensweise zum Scheitern verurteillt.
Kurz gesagt power und clock domains verdoppelt, unterschiedliche Leistungsfähigkeit der Cores usw.
Handy, low power notebooks ganz geil, für leistungsfähige Systeme das fünfte Rad am Wagen, denn hier gibt es bereits genügend Sparpotenzial durch power gating usw.usf.
Wir reden hier von "S" CPUs für den Desktop! Wieso macht man es bei den Smartphones seit Jahren? Um Energie zu sparen! Wie relevant ist das bei einer Desktop-CPU?
Windows für ARM mit Linux zu vergleichen, welches ARM seit Jahrzehnten den produktiven Einsatz ermöglicht, ist witzig. Windows stolpert gegenwärtig über SMT, zu viele Cores und NUMA. Ganz zu schweigen davon, dass die ARM-Unterstützung gerade mal erste Gehversuche ohne gegenwärtig realen Nutzen sind.
xexex schrieb:
Wieso macht man es bei den Smartphones seit Jahren? Um Energie zu sparen! Wie relevant ist das bei einer Desktop-CPU?
Frag mal Intel weshalb Skylake Probleme hat, 28 Kerne zu boosten. Stromsparen macht nicht nur in Handys Sinn und ist auf allen Plattformen seit Jahren gängige Praxis.
Weil der Verbrauchsvorteil minimal ist und das Umschalten es nicht wert ist. Schon alleine die Stromversorgung mit ihren drölf Phasen für 200W Spitze macht das schon absurd. Da ist an anderen Punkten viiiiieeeeel mehr zu holen als bei den Kernen.
Lakefield ist für lowpower total geil aber nicht in meiner Hauptmaschine.
Das ‚nahtlos‘ ist imho Augenwischerei. So ein Switch ist immer mit Latenzen verbunden. Gab mal auf Anandtech eine Analyse von diversen Phone SOCs wenn ich mich recht erinnere.
Gut im Phone mögen die Vorteile überwiegen. Auf dem Desktop will ich aber maximale Performance und Responsiveness. Da bin ich gespannt wie sich das in der Praxis schlägt.
Du weiss aber schon seit wie vielen Jahren Windows CE und Windows mit ARM CPUs funktioniert oder? Auch Turbo Boost 3.0 funktioniert nach dem gleichen Prinzip und letztendlich HT ebenfalls.
Mit dem Big.little Prinzip wird man diese Problematik kaum lösen können.
Das hört sich schon fast nach Verzweiflungstat von Intel an.
Man weiß, man kann nicht konkurrieren und versucht es nun im Desktop über die Effizienz im Teillastbereich, fängt sich aber gleichzeitig wieder Nachteile ein.
Bei Handys funktioniert das seit Jahren wunderbar. Sobald eine Anwendung Leistung braucht wird sie in den großen Kern verschoben und ab gehts. Warum sollte das im Desktop keinen Sinn machen?
Weil im Desktop andere Dinge wichtiger sind? So zB. die volle Leistung bei Spielen oder Berechnungen. Und wird die nicht gebraucht, taktet man die Kerne runter oder schaltet sie ganz ab. Ich denke nicht, daß das Big-Little-Prinzip hier im Idle so große Vorteile hätte. Dafür hätte es große Nachteile unter Vollast.
Allerdings kann es sich Intel (wieder mal) leisten, mehrere Architekturen parallel zu entwickeln, und zu schauen, was das in der Praxis bringt. Für die laufzeit von Mobilgeräten (jnd da knmmt das Prinzip ja her), kann sich das positiv auswirken. Aber im Desktop sehe ich keinen Sinn.
Ich rede von Windows 10 on ARM. Das hat mit Windows CE und Windows Phone nicht viel gemein.
Und wir wissen ja alle wie erfolgreich die Lovestory Windows/ARM bisher verlaufen ist.
Bei Handys funktioniert das seit Jahren wunderbar. Sobald eine Anwendung Leistung braucht wird sie in den großen Kern verschoben und ab gehts. Warum sollte das im Desktop keinen Sinn machen?
Weil bisherige CPU-Kerne in den unteren Power-States bereits extrem effizient sind und man dann vielleicht ein paar Watt einspart.
Für ein Notebook oder ein Smartphone mit begrenzter Akkulaufzeit und Always-On-Betrieb ist das natürlich sinnvoll, aber in einem Desktop?
2 Jahre weiter, 2 volle Node-Shrinks weiter und die Effizienz wird noch mal deutlich höher liegen. Dieser Vorteil wird immer unattraktiver, AMD macht jedoch an der Leistungsfront massiv Druck. 8 große Kerne und 8 kleine Atom-Verschnitte im Flaggschiff mit 125-150 Watt wirken da irgendwie deplatziert. Die Die-Fläche sollte man besser in Performance investieren.
Weil im Desktop andere Dinge wichtiger sind? So zB. die volle Leistung bei Spielen oder Berechnungen. Und wird die nicht gebraucht, taktet man die Kerne runter oder schaltet sie ganz ab. Ich denke nicht, daß das Big-Little-Prinzip hier im Idle so große Vorteile hätte. Dafür hätte es große Nachteile unter Vollast.
Eigentlich gibst du dir aber selbst die Antwort, wieso die Lösung von Intel einen Sinn ergibt! Wenn du heute eine 16 Kern CPU nimmst und sie unter Vollast setzt, takten alle Kerne herunter!
Was wäre wenn stattdessen 8 Kerne weiterhin mit vollen Geschwindigkeit laufen würden und durch weitere (langsamere) Kerne ebenfalls unter Vollast ergänzt würden? Werden wir sehen! Abwegig ist die Lösung jedenfalls nicht!
Das ‚nahtlos‘ ist imho Augenwischerei. So ein Switch ist immer mit Latenzen verbunden. Gab mal auf Anandtech eine Analyse von diversen Phone SOCs wenn ich mich recht erinnere.
Gut im Phone mögen die Vorteile überwiegen. Auf dem Desktop will ich aber maximale Performance und Responsiveness. Da bin ich gespannt wie sich das in der Praxis schlägt.
Da braucht das Scheduling auch lernende Intelligenz ... zB wissen dass sich Task X von Anfang an besser auf die High Performance Kerne legen lässt. Außerdem findet so ein Switch vermutlich nur selten statt, nicht fortlaufend. Wenn die Last anhält ist die Sache ja klar.
Das Scheduling von dem Ryzen / TR 1 Konzept dürfte deutlich komplexere sein. Bei Big little kann man eig nach wenigen ms Last auf den Performance Core legen... Bei Epyc TR Gen 1 ist es schwer zu sagen ob eher Ram Latenz oder Ram Bandbreite wichtiger ist.
Im Prinzip kommt man aber mit doofen Round Robin nicht mehr hin.
Weil im Desktop andere Dinge wichtiger sind? So zB. die volle Leistung bei Spielen oder Berechnungen. Und wird die nicht gebraucht, taktet man die Kerne runter oder schaltet sie ganz ab. Ich denke nicht, daß das Big-Little-Prinzip hier im Idle so große Vorteile hätte. Dafür hätte es große Nachteile unter Vollast.
Kommt ganz drauf an wie man es implementiert. Ich hätte statt SMT-Logic lieber einen low power core der die Hausmeistertätigkeiten übernimmt, damit der große core nicht dauernd Laufzeit für Prozesse mit weniger prio abgeben muss.
Dazu müssen wir von den aktuellen Goldmont nur hochrechnen. Selbst vollkommen unrealistische 10W lassen sich am Desktop einfach an anderer Stelle raus optimieren.
Eigentlich gibst du dir aber selbst die Antwort, wieso die Lösung von Intel einen Sinn ergibt! Wenn du heute eine 16 Kern CPU nimmst und sie unter Vollast setzt, takten alle Kerne herunter!
Was wäre wenn stattdessen 8 Kerne weiterhin mit vollen Geschwindigkeit laufen würden und durch weitere (langsamere) Kerne ebenfalls unter Vollast ergänzt würden? Werden wir sehen!
Das Szenario, das du beschreibst, gilt im Notebook mit seinen beschränkten Kühlmöglichgkeiten! Im Desktop ist Kühlung normalerweise kein Problem! Ich hab selbst eine 12-Kern-CPU, und da taktet unter Vollast KEIN Kern runter!