Woher weißt du das?Neodar schrieb:Im Desktop macht Alder Lake schlicht keinen Sinn. Die Stromsparmechanismen der CPUs sind bereits so gut entwickelt, dass man auch auf einer klassischen CPU ohne "Effizienzkerne" nur wenig Verbrauch verzeichnet, wenn man nur leichte Aufgaben erledigt.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel Alder-Lake-CPU: Im Notebook mit 15 bis 215 Watt Powerlimit unterwegs
- Ersteller Volker
- Erstellt am
- Zur News: Intel Alder-Lake-CPU: Im Notebook mit 15 bis 215 Watt Powerlimit unterwegs
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Hm also die PL4 hören sich vielleicht nach höheren Anforderungen für die Hauptplatine / Kondensatoren und Leitungen an.
Kann weiterhin nicht sehen wieso Alderlake viel besser mit BIG.little fahren soll, selbst im Notebookbereich.
Es wird wohl eher vermarktetes totes Silizium sein, damit die BIG cores länger boosten können und um der Hitze pro Fläche Problematik Einhalt zu gebieten.
Siehe bsp. hier intels sehr alte Folie dazu:
https://www.anandtech.com/show/15877/intel-hybrid-cpu-lakefield-all-you-need-to-know
(klein wenig scrollen, Deep Links sind einfach unhöflich, daher sorum)
Kann weiterhin nicht sehen wieso Alderlake viel besser mit BIG.little fahren soll, selbst im Notebookbereich.
Es wird wohl eher vermarktetes totes Silizium sein, damit die BIG cores länger boosten können und um der Hitze pro Fläche Problematik Einhalt zu gebieten.
Siehe bsp. hier intels sehr alte Folie dazu:
https://www.anandtech.com/show/15877/intel-hybrid-cpu-lakefield-all-you-need-to-know
(klein wenig scrollen, Deep Links sind einfach unhöflich, daher sorum)
Ned Flanders
Fleet Admiral
- Registriert
- Aug. 2004
- Beiträge
- 11.689
Das stimmt schon... mit Powergating werden sich die Kerne beim Nichtstun wenig schenken. Das ist sicherlich nicht die Motivation hinter dem bL Prinzipgaelic schrieb:Woher weißt du das?
Majestro1337 schrieb:Lieber startet meine Applikation auf dem Notebook in 4 statt 2 Sekunden und ich hab dafür nur 35 statt 50 mWh verbraucht. Der Sinn von "immer schneller" erschließt sich mir nicht ganz...
Das ist ja der Witz die CPU verbraucht dann halt statt 35 W eben 50 W, aber nur für eine kurze Zeit,
ist schneller fertig, schläft schneller wieder und brauch für die ganze Aufgabe weniger Strom.
Bei 4 VS 2 Sekunden wie in deinem Beispiel haben wir komplett wenn nicht geboostet wird
140 Ws und wenn geboostet wird 100 Ws gebraucht, also für die Ganze Operation waren
wir mit Boost sparsamer und schneller.
jusaca
Commander
- Registriert
- Apr. 2008
- Beiträge
- 2.230
So ganz stimmt das ja nicht. Cores, die auf hohe Taktraten optimiert sind, werden auch trotz Powergating bei geringer Last noch deutlich höhere Leckströme aufweisen als entsprechend auf geringen Takt optimierte Cores.Ned Flanders schrieb:Das stimmt schon... mit Powergating werden sich die Kerne beim Nichtstun wenig schenken. Das ist sicherlich nicht die Motivation hinter dem bL Prinzip
Kleine Cores mit dickeren Isolationsschichten (und entsprechend niedrigerem Maximaltakt) könnten somit potentiell in Niedriglastszenarien (also pdf lesen, surfen, mails checken, ...) schon deutlich Strom sparen.
AMD scheint das Konzept bei
Ich bin in jedem Fall sehr gespannt, ob das Konzept aufgeht und wir längere Laufzeiten bekommen.
Zuletzt bearbeitet:
Draco Nobilis schrieb:Hm also die PL4 hören sich vielleicht nach höheren Anforderungen für die Hauptplatine / Kondensatoren und Leitungen an.
Kann weiterhin nicht sehen wieso Alderlake viel besser mit BIG.little fahren soll, selbst im Notebookbereich.
Es wird wohl eher vermarktetes totes Silizium sein, damit die BIG cores länger boosten können und um der Hitze pro Fläche Problematik Einhalt zu gebieten.
Siehe bsp. hier intels sehr alte Folie dazu:
https://www.anandtech.com/show/15877/intel-hybrid-cpu-lakefield-all-you-need-to-know
(klein wenig scrollen, Deep Links sind einfach unhöflich, daher sorum)
Es bringt Leistung bei überschaubaren Flächenaufwand. 2 Gracemont Cluster mit insgesamt 8 Kernen sind so groß wie 2 Golden Cove Kerne.
Irgendeine Quelle, außer "stimmt schon"?Ned Flanders schrieb:Das stimmt schon...
Warum soll es im mobilen Bereich Sinn machen und plötzlich beim Desktop nicht?
Ned Flanders
Fleet Admiral
- Registriert
- Aug. 2004
- Beiträge
- 11.689
Weil eine 14nm Intel Desktop CPU im Idle vieleicht noch 5-10W zieht. Wenn man das per bL auf 1-6W drücken kann, kräht da nach den Wanderverlusten doch kein Hahn mehr nach.gaelic schrieb:Warum soll es im mobilen Bereich Sinn machen und plötzlich beim Desktop nicht?
Das ist nice to have, aber wohl kaum die Motivation sowas aufzulegen. Bei mobilen Endgeräten ist das was anderes.
Dittsche
Lt. Commander
- Registriert
- Feb. 2011
- Beiträge
- 1.125
Enigma schrieb:Ja das ist echt übel. Also kauft euch kein Latitude 7400! Das Kühlkonzept ist ein Desaster.
Anhang anzeigen 1091828
So sieht es während eines einfachen Teams-Calls aus: 100 Grad und Thermal-Thotteling sobald ich im Browser klicke. Treiber gestern auf den neuesten Stand gezogen.
auf meinem Dell 5490 Arbeitslaptop führt ein Teams Call und ein paar Programme offen auch unweigerlich zur Kernschmelze. Ich habe keine Daten aber das Gerät wird sehr heiß, Windows sehr unresponsive und es war im Hochsommer im Home Office einfach nur eine Katastrophe. Ich denke Teams haut hier ordentlich sustained load auf die cpu/igp und da haben alte wie auch neuere Intel CPUs ordentlich mit zu kämpfen.
Da hilft der 3 nanosekunden Boost-Pups nicht.
Also stimmt es nicht, daß es kein Einsparungspotential gibt ... dir ist es nur egal. Danke.Ned Flanders schrieb:... Wenn man das per bL auf 1-6W drücken kann, kräht da nach den Wanderverlusten doch kein Hahn mehr nach.
Und zu den Wandlerverlusten, bzw. Gesamtsystemverbräuchen gibt es ganz gute Threads hier im Forum:
https://www.computerbase.de/forum/threads/selbstbau-nas-im-10-zoll-rack.1932675/
https://www.computerbase.de/forum/threads/renoir-und-b550-die-idle-kuenstler.1967755/
Gesamtsysteme mit einem Idle Verbrauch unter 10W ... Das noch weiter zu drücken ist eine schöne Sache.
Majestro1337
Commander
- Registriert
- Sep. 2008
- Beiträge
- 2.913
Das ist Unfug - der sweet spot aus Leistungsaufnahme und Performance ist immer niedriger als bei dem Takt, zu dem das Produkt verkauft wird. Sonst würden die ganzen miner die Grafikkarten nicht untertakten.modena.ch schrieb:Das ist ja der Witz die CPU verbraucht dann halt statt 35 W eben 50 W, aber nur für eine kurze Zeit,
ist schneller fertig, schläft schneller wieder und brauch für die ganze Aufgabe weniger Strom.
Bei 4 VS 2 Sekunden wie in deinem Beispiel haben wir komplett wenn nicht geboostet wird
140 Ws und wenn geboostet wird 100 Ws gebraucht, also für die Ganze Operation waren
wir mit Boost sparsamer und schneller.
Ich weiß dass das die These von Intel ist, dass man so spart, aber es geht nicht auf...
Das ist sicher kein Unfung, Verbrauch enthält immer eine Zeiteinheit. KW/h, W/s
Wenn ich kurz mehr brauche und dafür mit derselben Aufgabe deutlich schneller fertig bin, habe ich in dem Fall am Ende Energie gespart. Wir müssen immer schauen, was hat die Aufgabe als Ganzes an Energie gebraucht.
Die Miner untertakten um weniger zu verbrauchen um ihren Gewinn zu maximieren
und weil ihnen die Karten mit hoher Dauerlast bei hohem Verbrauch alle verrecken würden.
Gamerkarten sind für sowas einfach nicht gemacht,
Sie übertakten ja auch den Speicher, weil dort Speicherdurchsatz deutlich mehr bringt.
Ausserdem ist es eine ganz andere Last und somit gar nicht zu vergleichen.
Minen ist eine lang anhaltende Vollast auf allen Kernen oder Shadern,
Browser starten ist eine kurze Singlecore Spitzenlast.
Das sind zwei paar Schuhe.
Wenn ich kurz mehr brauche und dafür mit derselben Aufgabe deutlich schneller fertig bin, habe ich in dem Fall am Ende Energie gespart. Wir müssen immer schauen, was hat die Aufgabe als Ganzes an Energie gebraucht.
Die Miner untertakten um weniger zu verbrauchen um ihren Gewinn zu maximieren
und weil ihnen die Karten mit hoher Dauerlast bei hohem Verbrauch alle verrecken würden.
Gamerkarten sind für sowas einfach nicht gemacht,
Sie übertakten ja auch den Speicher, weil dort Speicherdurchsatz deutlich mehr bringt.
Ausserdem ist es eine ganz andere Last und somit gar nicht zu vergleichen.
Minen ist eine lang anhaltende Vollast auf allen Kernen oder Shadern,
Browser starten ist eine kurze Singlecore Spitzenlast.
Das sind zwei paar Schuhe.
Zuletzt bearbeitet:
Ned Flanders schrieb:Weil eine 14nm Intel Desktop CPU im Idle vieleicht noch 5-10W zieht. Wenn man das per bL auf 1-6W drücken kann, kräht da nach den Wanderverlusten doch kein Hahn mehr nach.
Das ist nice to have, aber wohl kaum die Motivation sowas aufzulegen. Bei mobilen Endgeräten ist das was anderes.
Es geht nicht nur um irgendwelche Idle Verbräuche, davon müsst ihr euch mal verabschieden. Davon abzuleiten, ob etwas Sinn macht, ist daher auch ein Fehler.
Blende Up
Commander
- Registriert
- Okt. 2020
- Beiträge
- 2.286
Aber vielleicht greift cb diesen Sinneswandel ja mal auf und testet nicht nur FPS und Watt, sondern auch mal Effizienz?Volker schrieb:So viel Fortschritt hat die Fertigung nicht gemacht, größereres Package erlaubt aber auch größere TDP
Mich interessiert das zumindest brennend.
Piktogramm
Admiral
- Registriert
- Okt. 2008
- Beiträge
- 9.247
kWhmodena.ch schrieb:Das ist sicher kein Unfung, Verbrauch enthält immer eine Zeiteinheit. KW/h, W/s
Also kleines k für "kilo" und dann ist es für Energie eine Multiplikation aus Leistung und Zeit.
Majestro1337
Commander
- Registriert
- Sep. 2008
- Beiträge
- 2.913
modena.ch schrieb:Das ist sicher kein Unfung, Verbrauch enthält immer eine Zeiteinheit. KW/h, W/s
Ne. Schau dir einfach an, was eine beliebige cpu oder gpu, die sich nur durch den Takt (und dabei zb. X fps benötigt) unterscheidet an unterschieden im Verbrauch (der in Watt, also joule pro Sekunde angegeben ist) hat. Die Zeit kürzt sich raus!
Der Verbrauch steigt überproportional mit der Leistung an.
Würde er proportional steigen, dann ist es egal ob ich es schnell oder langsam mache. Würde er entgegengesetzt proportional steigen wäre es sinnvoll die Aufgabe schneller auszuführen.
Das machte damals Sinn, um überhaupt zu bewerben das CPUs herunter takten. Heute wird das hochtakten vor allem mit einer maximal schnellen reaktionszeit begründet. Länger und in Summe mehr arbeiten kann ich aber, wenn ich niedriger takte.
Wir wollen ja den Verbrauch für eine gewisse Aufgabe kennen. (wir starten den Browser z.B.)Majestro1337 schrieb:Ne. Schau dir einfach an, was eine beliebige cpu oder gpu, die sich nur durch den Takt (und dabei zb. X fps benötigt) unterscheidet an unterschieden im Verbrauch (der in Watt, also joule pro Sekunde angegeben ist) hat. Die Zeit kürzt sich raus!
Und damit müssen wir wissen wie lange man mit jeder Variante dafür braucht. (einmal mit einmal ohne Boost)
Der Verbrauch pro Sekunde ist daher nur die halbe Wahrheit, wenn ich am Ende nur die halbe Zeit für dieselbe
Aufgabe benötige, kann der Verbrauch in der Zeit in der gearbeitet wird ruhig höher sein. Es ist am Ende trotzdem sparsamer.
Also solange es sich lohnt zu boosten und man damit länger idlen kann ist man am Ende für die gleiche Aufgabe schneller und sparsamer. Es ergibt also schon Sinn!
Ich verbrauche ja nicht gleich lange mehr Energie....
Der Miner hat keine Idle Phasen, sondern Dauerlast.Majestro1337 schrieb:Das ist Unfug - der sweet spot aus Leistungsaufnahme und Performance ist immer niedriger als bei dem Takt, zu dem das Produkt verkauft wird. Sonst würden die ganzen miner die Grafikkarten nicht untertakten.
Ich weiß dass das die These von Intel ist, dass man so spart, aber es geht nicht auf...
Natürlich ist eine höher getaktete CPU ineffizienter. Bei einer Dauerbelastung macht das keinen Sinn.
Race to Idle bezieht sich auf kurze Lasten und kleinere Aufgaben. Da kann es schon Sinn machen kurz zu boosten um dann das ganze System wieder schlafen zu legen, als in einem längeren Zeitraum das ganze System wach zu halten, auch wenn die CPU selber vielleicht mehr verbrät.
Ergänzung ()
Warum totes Silizium? Ein kleiner Kern wird vielleicht 50% der Performance eines großen Kerns haben. Warum soll das Tot sein? Solange man genug Threads auslasten kann sind die hilfreich.Draco Nobilis schrieb:Es wird wohl eher vermarktetes totes Silizium sein, damit die BIG cores länger boosten können und um der Hitze pro Fläche Problematik Einhalt zu gebieten.
Ähnliche Themen
- Antworten
- 26
- Aufrufe
- 9.690
- Antworten
- 145
- Aufrufe
- 21.053
- Antworten
- 19
- Aufrufe
- 5.969