News Alder Lake: Unzählige Varianten von Intels big.LITTLE-Prozessor gesichtet

tidus1979 schrieb:
Muss ja nicht zwangsläufig innerhalb der CPU sein. Beispiele sind Quick Sync von Intel, CUDA von Nvidia, der T2 Chip von Apple oder die MPX Module im Mac Pro (speziell Afterburner). Gut vorstellbar, dass man Fixed Function Module zukünftig auch für PCs kaufen kann.
Quick Sync ist keine fixed function unit, CUDA ist ne API (grob gesagt) der T2 ist ein ARM. Bleibt noch Afterburner, welcher ein FPGA ist. Klar, sie haben Altera. Nur kostet so ein Chip viel mehr, als daß man den kostengünstig als CoPro integrieren kann. MobilEye kann ASICs herstellen, nur leider ein komplett anderes Gebiet. Bliebe nur übrig, sich IP einzukaufen oder fertige Chips zu bestellen, denn die einzig kleinen X86 die sie haben, sind schon in der CPU integriert. Und alles nur, damit man Goldmond-Kerne integrieren kann? Wäre eine äußerst schlechte Designentscheidung. Übrigens müsste man verschiedene FPGAs integrieren, denn die sind keine all purpose Chips.
Ergänzung ()

tidus1979 schrieb:
Auch nur da, wo eine App alle Kerne zu 100% auslastet. Wann passiert das denn schon mal?

Ich habe lediglich MC und ST gegenübergestellt. Daß es zwischendrin Lastzustände geben mag, die passen, streite ich nicht ab. Allerdings gibts verschiedene Konfigs und der optimale Bereich würde sich je nach Konfig wieder verschieben.

tidus1979 schrieb:
Selbst Apps mit Multicoreoptimierung verteilen einen Großteil der Last doch oft auf ein paar Kerne und der Rest macht nur Unterstützungsarbeit.
Davon kannst du aber beim Chipdesign nicht ausgehen. "Wir entwickeln einen Chip, aber der ist nur bei mittlerer Auslastung effizient?
Ergänzung ()

ghecko schrieb:
Irgendwo muss man ja anfangen Strom zu sparen :D
Und warum auch nicht? 8 Kerne mit integrierter Grafik reicht vielen. Renoir ist auch schon verkauft bevor er vom Band läuft, so groß ist die Nachfrage.
Ich hatte mich versehen und die falsche Konfig gewählt. Du meinst ja den 8+0+2. Ich könnte mir auch 6+4+2 oder sonstwas raussuchen. Der 8+0+2 ergibt tatsächlich einen Sinn.
 
Zuletzt bearbeitet:
Im mobile Bereich sicherlich Super oder zumindest mal einen Blick wert. Aber im Desktop will ich Leistung und keine CPU mit vielen Kernen die so tut als hätte sie welche aber dann gegen einen nativen corecount komplett unter geht.

Das Forum und das Internet wird wahrscheinlich voll sein von "Warum ist mein 16 Kerner so viel langsamer als andere 16 Kerner" Threads (Kernzahlen können Variieren) :D
 
C.J. schrieb:
Ne, bei big+little ist das komplizierter. Im Desktop kann man es so machen wie du sagst, weil da nur max. Leistung zählt und Verbrauch egal ist. Da kann man die kleinen Kerne als MT-Boost verwenden. In Notebooks hast du aber einen Tradeoff zwischen Leistung und Effizienz. Wenn da einfach immer die dicken Kerne zuerst rechnen und die kleinen schlafen, hast du unterm Strich gegenüber jetzt vermutlich nichts gewonnen, weil die kleinen Kerne dann nie arbeiten. Es muss pro Anwendung/Prozess entschieden werden, ob dieser jetzt latenzkritisch ist und schnell abgearbeitet sein muss (z.B. User-Eingaben) oder ob man den auf die kleinen effizienten Kerne schieben kann, weil es egal ist, ob das ein bisschen länger dauert (Hintergrundtasks, Video-Konvertierung).

Kann das nicht auf Kernel-level geregelt werden? Dass im Stromsparmodus Threads erst auf die kleinen Kerne verteilt werden und ab einer gewissen Auslastung auf die großen Kerne? Oder ist das technisch nicht so einfach möglich?

Edit: Ich merk schon, das würde nicht funktionieren, wenn man einen Prozess unbedingt auf den kleinen Kernen abarbeiten will, auch wenn er diese voll auslastet.
 
@yummycandy Du kennst dich offensichtlich deutlich besser aus als ich mit meinem Laienwissen. Es bleibt aber doch, dass man Operationen wie Encoding von der CPU auslagern kann, egal ob mit APIs, Fixed Function Chips oder anderen Mitteln.

Ich habe nicht angenommen, dass big.LITTLE CPUs nur bei mittlerer Auslastung effizient sind. Ich sehe nur, dass sie bei einem Großteil der Anwendungsgebiete effizienter sein können bei vermutlich minimalem Verlust der Effizienz bei voller Auslastung.

Dabei könnten die Anwendungsgebiete, die heute volle Auslastung erfordern, in Zukunft außerhalb der reinen CPU erledigt werden, um die Effizienz weiter zu erhöhen.

Die Begriffe mittlere und volle Auslastung finde ich hier aber sowieso irreführend, da die Leistung in Anwendungen meist limitiert, bevor volle Auslastung erreicht ist. Es liegt viel Rohleistung brach. Die CPUs sind heute wenig angepasst auf die Anforderungen der Anwendungen, man ist den umgekehrten Weg gegangen – Die Anwendungen passen sich an die CPU an. Offensichtlich hat das nicht mehr wirklich optimal funktioniert, seitdem die Rohleistung sich vor allem durch den Core Count erhöht und nicht mehr durch die Singlecore-Leistung. Das sieht man, wenn man sich anschaut, wie gut Anwendungen die CPU auslasten. Vielleicht ist es jetzt Zeit, den umgekehrten Weg zu versuchen, oder gar einfach beide Wege zu gehen.
 
@xexex Danke, hatte vergessen, daß es da ein Update gab. Hab allerdings gelesen, daß ADL noch mehr Energiesparlogik schon aufm Chip mitbekommt. Wenn ich die Quelle finde, reiche ich sie nach.
 
yummycandy schrieb:
Mobile ergibt das alles ja auch Sinn, aber was soll ich mit 8+2 aufm Desktop? Die ganzen Stromsparmodi werden doch von den anderen Komponenten wieder aufgefressen?
Eben, da brauchst nur eine der üblichen möglichst billigen Netzteilgurken. Die verbrennen schon von allein 20W+ für Nüppes.
ghecko schrieb:
Irgendwo muss man ja anfangen Strom zu sparen :D
Und warum auch nicht? 8 Kerne mit integrierter Grafik reicht vielen. Renoir ist auch schon verkauft bevor er vom Band läuft, so groß ist die Nachfrage.
Jepp. :)
Der 4650G läuft 1. Sahne. Den kann man auch locker Lautlos in ein 2-3 Liter? Gehäuse packen.
Wenn man jetzt keine großen Spiele zockt und Animationen rendert, wüsste ich gerade nicht, was man am normalen Desktop mehr an Leistung braucht.

P.S. Die Tage hatte ich den versehentlich auf 35W TDP am laufen und habe es nicht gemerkt. Erst als ich nochmal einen Bench gemacht habe, hab ich mich etwas gewundert. :)
w0nd4bra schrieb:
Wie meinst du das? Ne Grafikkarte verbraucht aufm Desktop nix mehr.
Oh doch. Leider muss ich dich deinen Träumen entreißen.
Ich habe es hier die letzten Tage mal mit dem 4650G ausprobiert.
Das System mit APU only zieht an der Steckdose zwischen 18-20W und ~80-85W.
Mit einer 5700XT drin steigt der Verbauch im Idle auf ~33-35W.
Nix sieht anders aus. ;)

Wenn ich mal davon ausgehe, das eine Alder Lake CPU im Idle besonders sparsam ist und nur die hälfte oder 1/3 von Desktop Renoir braucht, dann werden maximal 2-3 W, wenn überhaupt gespart.
Da müsste eher an anderen Stellschrauben gedreht werden.
Für den Desktop finde ich das Konzept etwas Sinnbefreit.
Ich lasse mich aber gern eines besseren belehren.
 
Zuletzt bearbeitet: (Ergänzt + Korrigiert)
@yummycandy
Der Test bei Luxx ist natürlich mit Vorsicht zu genießen, man hätte die CPU besser gegen einen 8cx testen sollen. Es lassen sich aber zumindest beim Scheduler Rückschlüsse auf Alder Lake ziehen und es scheint zu funktionieren.
Wir hatten eigentlich nicht erwartet, dass alle fünf Kerne derart zusammenarbeiten. Wir hatten eigentlich damit gerechnet, dass zum Beispiel für ein Rendering ausschließlich die vier Tremont-Kerne verwendet werden. Aber in fast allen Multi-Threaded-Anwendungen arbeiten auch alle fünf Kerne.
Die Leistung der unterschiedlichen Kerne können wir beispielsweise über eine Zuweisung der Kerne ermessen. So haben wir dem Cinebench R20 jeweils einen Tremont- und einen Sunny-Cove-Kern zugewiesen. Der einzelne Sunny-Cove-Kern ist in etwa 40 % schneller als ein Tremont-Kern. Arbeiten die fünf Kerne zusammen skaliert die Leistung natürlich nicht 1:1, da die Kerne den Takt, den sie im Single-Threaded-Betrieb erreichen, dann nicht mehr einhalten können.

Überträgt man das Ergebnis frei nach Schnauze auf einer Desktop-CPU mit höheren TDP, würde sich dabei 100% Leistung für die großen und 60% Leistung für die kleinen Kerne ergeben. Das ist auf jeden Fall mehr als mit HT möglich ist und man entledigt sich der aktuellen Sicherheitsproblematik.

Wenn man dann noch die Größe der Kerne berücksichtigt (vier kleine Kerne sind ungefähr so groß wie ein großer) ist das durchaus eine beachtliche Leistung.
1596712903481.png

Richtig interessant in meinen Augen werden vor allem CPUs, die dann 4-8 große mit 8-64 kleinen Kernen kombinieren, das dürfte dann der nächste Schritt und ein kleiner Revival der Phi Architektur sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: yummycandy
xexex schrieb:
Überträgt man das Ergebnis frei nach Schnauze auf einer Desktop-CPU mit höheren TDP, würde sich dabei 100% Leistung für die großen und 60% Leistung für die kleinen Kerne ergeben. Das ist auf jeden Fall mehr als mit HT möglich ist und man entledigt sich der aktuellen Sicherheitsproblematik.
Liegt auch daran, daß die kleinen Goldmond AVX mitbekommen haben. Sonst wäre das wohl mit tricky geworden.
 
Also einer hat zu mir mal gesagt wenn die CPU auf 100 % auslastung gehen würde,würde sie kaputt gehen.Stimmt allerdings nicht.ALso ich hatte den Quadcore damals bei 100 % Auslastung gehabt.
Wenn ich mir das ganze so ansehe.Ich habe den i9 9980xe trotz zwei Anwendung bei 80 % auslastung.Beim Ryzen 9 3950x sind es mit seinen 16 Kernen 85 % Auslastung.Rein Theretisch müsste ich wenn Intel so einen 14 Kerner ordentlich Optmiert und so.Dann ja bei 90 % Kernauslastung rauskommen und bei AMD mit seinen 12 Kernen wohl bei 95 oder sogar 100 % an Auslastung hinbekommen.
Man komme ich da ganz schön nahe in Richtung 8 Kerne zu.Ist denn echt ne 100 % auslastung echt möglich?
Achja kann der intel Big Little ansatz mit 8+8 Kernen mit einem 12 Kerner gleichziehen oder wird dann der 12 Kerner trotz dessen den Intels neuen Ansatz etwa dennoch schlagen?
 
latiose88 schrieb:
Ist denn echt ne 100 % auslastung echt möglich?
Auslastung ist so ne Sache. Im Taskmanager wird in der Regel die reine Kernauslastung angezeigt. (Ist wie bei GPU, die kann bei 60% stehen und trotzdem am Limit sein.)

Sei es weil ständig Locking statffindet, oder Daten nachgeladen werden müssen. Die Gesamtheit der Auslastung wird (afaik) nirgendwo direkt im Taskamanger angezeigt. I/O z.B., also nicht nur der Datenträger sondern auch RAM und die ganzen Bussysteme, werden nirgendwo angezeigt. In der CPU widerum können Frontend oder Backend limitieren und das ganze bevor die Kerne überhaupt komplett gefüttert werden können. Ein Vergleich ist also schwierig. Allerdings sind diese Richtwerte übern Daumen gepeilt ok. Und je nach Workload weiß man, wo es gerade haken könnte. Bei Datenbanken fällt in der Regel mehr I/O Last an, aber das führt wohl langsam zu weit. :)
ichziehen oder wird dann der 12 Kerner trotz dessen den Intels neuen Ansatz etwa dennoch schlagen?


Zu der Sache mit dem 8+8 und 12Kerner. Intel zielt bei dem Ansatz nicht nur auf Energiesparen ab, sondern auf ST-Leistung. Daher befreit man das Energiebudget soweit, daß einzelne Kerne hohe Leistungen erbringen können, aber man gleichzeitig durch die kleineren Kerne noch Silizium spart. Man kann also in (fiktives Beispiel) 35W 6+6 Kerne stopfen, statt vorher nur 8. Zusätzlich bläst man die großen Kerne noch soweit auf, wie der Dieplatz das zuläßt und voila, fertig ist die Big.little CPU.
[/QUOTE]
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
yummycandy schrieb:


Ok nehmen wir mal an,das es so wie bei mir unter idealen bedingungen sind.Bei mir limitiert keine Festplatte,kein Ram.Das netzteil ohnehin nicht.Betriebsystem scheint ebenfalls nur ne minimale Rolle zu spielen.
Da mit dem 2 Programmen gleichzeitig VIdeos umgewandelt werden,besteht somit ebenfalls beste bedingungen um mehr als 8 Kerne zu belasten.Ich habe sogar mehrere CPUs getestet gehabt.Wenn der rest ja eben echt keine Auswirkung bewirkt hat,kann man somit echt am besten Testen.Auch mit dem selben Takt und so.Ohne AVX.
Ich weis zwar nicht was ihr alle mit dem Frontend sowie Backend immer haben,Das kann doch in dem Falle doch garnicht limitieren.Da limitiert doch vorher was anderes,bevor das limitiert.Klar gibt es halt immer ein Limit,den erkennt man auch wenn man unterschiedliche CPUs testet,schon sehr gut,wie ich finde.Was kann ich denn noch testen um gewissheit zu haben,was denn da so limiteren kann.Ich selbst bin kein Programierer,sondern eher ein leie,der mal kurz Programiersprache C mal gemacht hatte.Ich habe es allerdings nur teilweise verstanden,trotz mehreren Monaten des Lesens und lernen.Ist halt eben doch weit komplexer als ich gedacht hatte.Da ist halt die gute Frage ob das ganze ws Intel da macht,wirklich aufgehen wird oder ob die Leistung dann stark einbricht.
Ich weis nur das die beiden Anwendung 32 Threads auslasten können.Zwar nicht zu 100 % aber in die RIchtung sehr wohl.
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
lnnz schrieb:
Kann das nicht auf Kernel-level geregelt werden? Dass im Stromsparmodus Threads erst auf die kleinen Kerne verteilt werden und ab einer gewissen Auslastung auf die großen Kerne? Oder ist das technisch nicht so einfach möglich?

Edit: Ich merk schon, das würde nicht funktionieren, wenn man einen Prozess unbedingt auf den kleinen Kernen abarbeiten will, auch wenn er diese voll auslastet.

Prozesse, die einen Kern nicht voll auslasten, kann man sicherlich ohne Probleme auf einen kleinen Kern verschieben. Das Problem ist halt wie du schon sagst, dass du bei einer starken MT-Last trotz 100% Auslastung lieber (auch) auf den kleinen Kernen bleiben willst, weil das in der Regel keine echtzeitkritischen Anwendungen sind und die kleinen Kerne durch die höhere Effizienz schneller fertig sind als die großen bei gleichem Verbrauch. Wobei das bei den hier beschriebenen Modellen wahrscheinlich eh nicht viel ausmacht. Der 8+8-Kerner soll angeblich mit 125-150W TDP kommen in 10nm. Da sollte also genug Ressourcen für alle Kerne gleichzeitig vorhanden sein. Interessant ist eher ein Verhältnis von 1:4 (big vs little) wie bei Lakefield. Da geht wirklich die Leistung nach unten, wenn die großen Kerne den Kleinen den Strom klauen.

latiose88 schrieb:
Also einer hat zu mir mal gesagt wenn die CPU auf 100 % auslastung gehen würde,würde sie kaputt gehen.Stimmt allerdings nicht.ALso ich hatte den Quadcore damals bei 100 % Auslastung gehabt.

Ich glaube dass damit eine andere Art von Auslastung gemeint ist. Mikrochips besitzen heute eine große Menge von "dark silicon", d.h. zu einem beliebigem Zeitpunkt ist der größte Teil des Chips aus, weil er nichts zu tun hat. Das gilt auch für einen 10900K, der 250W wegheizt. 100% Auslastung auf Transistorebene würden also eine solche CPU zum schmelzen bringen. Diese Auslastung ist aber nahezu unmöglich zu bestimmen und eigentlich ist es auch nicht beabsichtigt auf 100% zu kommen. Die Transistoren werden zwar immer kleiner, d.h. man kriegt immer mehr Schaltlogik auf der selben Fläche unter, aber der Verbrauch sinkt nicht im gleichen Maße, weswegen zwangsläufig mehr Teile davon inaktiv bleiben (es sind natürlich nicht immer die selben Teile inaktiv, sonst könnte man sie ja einfach weglassen), damit die Wärmedichte nicht steigt.

100% Auslastung im Taskmanager heißt übrigens nur, dass der Kern die Aufgabe, an der er gerade arbeitet, nicht schneller erledigen kann, d.h. er trödelt nicht, aber es müssen bei weitem nicht alle Teile des Kerns ausgelastet sein. Wenn du ein Programm startest, das nur Integer-Berechnungen macht und in den L1-Cache passt, ist die Auslastung der Fließkomma-Einheit und des L2-Caches natürlich 0%, weil sie für das Programm nicht benötigt werden. Ein Programm so zu schreiben, dass wirklich alles im Kern arbeitet, ist schwierig. Tools wie Prime95 versuchen das und schaffen es in der Regel auch eine CPU bei Takt X deutlich heißer zu bekommen als eine "reale" Anwendung.

latiose88 schrieb:
Wenn ich mir das ganze so ansehe.Ich habe den i9 9980xe trotz zwei Anwendung bei 80 % auslastung.Beim Ryzen 9 3950x sind es mit seinen 16 Kernen 85 % Auslastung.Rein Theretisch müsste ich wenn Intel so einen 14 Kerner ordentlich Optmiert und so.Dann ja bei 90 % Kernauslastung rauskommen und bei AMD mit seinen 12 Kernen wohl bei 95 oder sogar 100 % an Auslastung hinbekommen.
Man komme ich da ganz schön nahe in Richtung 8 Kerne zu.Ist denn echt ne 100 % auslastung echt möglich?
Achja kann der intel Big Little ansatz mit 8+8 Kernen mit einem 12 Kerner gleichziehen oder wird dann der 12 Kerner trotz dessen den Intels neuen Ansatz etwa dennoch schlagen?

Diese Rechnung verstehe ich nicht. Wenn der 18-Kerner auf 80% Auslastung bei einem perfekt parallelisierten Programm kommt, dann ist Arbeit für 14,4 Kerne da. Der 16-Kerner müsste dann bei 90% liegen und alles mit <=14 Kernen bei 100%. Ist dies bspw. bei 12 Kernen trotzdem nicht der Fall, dann beinhaltet das Programm vermutlich Teile, die nicht vollständig parallelisiert sind. Deswegen erreicht keine CPU mit mehr als einem Kern dort 100%, denn der serielle Teil muss ja irgendwann abgearbeitet werden.

Ob 8+8 schneller als 12+0 ist, kann man überhaupt nicht sagen, wenn man nicht weiß wie schnell genau die kleinen Kerne sind im Verhältnis zu den großen. Intel wird das sicher nicht aus Spaß machen, also kann man davon ausgehen, dass big+little langfristig besser in ihre Strategie passen. Imho ist es so, dass die meisten Anwendungen, die viel Singlethread-Leistung brauchen, sich mit 6-8 Kernen zufrieden geben. Alles was darüber hinausgeht, ist leicht parallelisierbar, d.h. man kann es theoretisch auch auf 64 Kernen rechnen. Also verbaut man in den CPUs zwei Sorten Kerne: Kleine und super effiziente Kerne, damit man möglichst viele davon in den Chip bekommt, und große, die nur auf maximale Singlethread-Leistung getrimmt sind und wo die Effizienz auch grottenschlecht sein darf.
 
  • Gefällt mir
Reaktionen: xexex
Bin sehr gespannt auf die Prozessoren. Mein Favorit für das nächte Notebook.
 
Shoryuken94 schrieb:
Du kannst auch eine Titan RTX auf 10 Watt limitieren, trotzdem hat Nvidia dann noch keine ultra effiziente Notebook GPU.

Der Ansatz ist ja ein völlig anderer bei big.Little. Du hast dort verschiedene Architekturen mit verschiedenen Auslegungen. Ein Zen kern bleibt von seiner Effizienz und Auslegung ein Zenkern. Ob du ihm jetzt mit 6,15 oder 200 Watt betreibst ändert nichts an den Möglichkeiten der Architektur. Alternative chips zu diesen 6 Watt ryzens hat Intel schon seit Jahren. Sind die Core Y modelle. Aber auch die brauchen den selben Platz auf dem Chip und haben die gleichen Möglichkeiten. Mit einer angepassten low Power Architektur kann man aber deutlich mehr aus dem Transistorbudget rausholen.

Natürlich hast du recht, gar keine Frage. Diesen Weg sollte AMD aber auf keinen Fall gehen!

Es ging doch darum, wie die Antwort von AMD ausfallen könnte.

Zen 4 Kerne ("5nm") müssen nicht auf diesen Bereich optimiert werden, um gegen "10nm" Produke mithaten zu können. Und genau die werden im Regal gegeneinander antreten.

Da steckt man doch lieber die begrenzten Mittel in die Arbeit an Zen5 und Produkte in "3nm"
 
C.J. schrieb:
Wow du hast es aber ausführlich formuliert,dennoch sind weitere Fragen übrig geblieben.
Woran merkt man denn das ein Programm nur Integer Berechnung macht und es in den L1 Cache Passt und wann es auch Fließkomme Einheit benützt.

Kannst du denn dazu was sagen,also ich verwende garkeine AVX,denn egal ob an oder aus,es gibt da keinen Leistungsunterschied bei mir.Habe sogar beim 3950x sogar SMT abgeschaltet,dann war er mit seinen 4 ghz sogar so schnell dann wie der i9 9980xe mit HT und 3,8 ghz.Zuvor waren es 1:42,nach der Abschaltung 1:56.Also echt unglaublich.ALso ein 12+16 Kerner also 28 Threads besiegen 36 Threads.Habe ich darum gemacht,da die 4 Kerne ein Game simulieren.

Beim Thema auslastung,wie gehabt beim 9980xe ja 80 %,manchmal auch nur 75 %.Beim 3950x die hälfte der Kerne bei 90 und die andere bei 80 % und welche sogar in Richtung 75 %.Also selbst zwei dieser Videoumwandlungs Programme können nicht mal einen 16 Kerner auf mindestens konstant 90 % auslastung heran reichen. Selbst der i7 6950x hat ebenso keine 100 % auslastung gehabt,aber zumindest konstant 90 - 95 %.Somit ist ein teil davon eher schlecht ausnutzbar.Wie du ja schon sagtest.Allerdings beim 4700hq meines Laptops hat 100 % auslastung,genau wie der 3770k.Um die Leistung des 4700hq zu übertrumpfen braucht es schon mehr Takt beim 3770k,darum habe ich den ja auf 4,3 ghz am laufen.Wie kommt es das diese CPU bei einem einzelnen dieser CPU nur bei einem,immer zu 100 % auslastung zu erreichen.Achja freilich wird das Betriebsystem und so dann träge.Aber wIe gibt es das,Ne Kernschmelze habe ich nicht gehabt.Klar hat der Laptop hohe Temperatur und drosselt sogar die Leistung beim Umwandeln.Erst als ich dann auf 3 ghz herunter geregelt hatte,konnte die CPU ihre ganze Leistung ausschöpfen.

Also noch ne frage,also ab 10 Kernen,zeigt mir es nach dem Umwandeln immer 18 Threads an.Bei 2 Anwendung müsste es 36 Threads ja doch eigentlich rein theroretisch doch automatisch den i9 9980xe ganz auslasten.Tut es allerdings nicht.Somit sagt die Threadzahl wohl echt nichts über die Auslastung aus.Ich bin somit dem irrtum auf dem leim gegangen.Nun weis ich ja das das nichts aussagt.Wie kommt das ,das dies nichts aussagt?

Achja habe beim i7 6950x neben 2x VIdeoumwandlung noch ein Game gestatet.Das allerdings dann weil es ja schlecht Optimiert gewesen war das Game,dann auch abgestürzt gehabt.

Nun weist du ja die Fragen,die noch entstanden sind.
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Also ich habe ja keine Ahnung wie das Ding performen wird aber Sinn sehe ich nicht darin die Anzahl der kleinen Cores zu reduzieren. Was sollen dies Varianten?

3dCenter hat das imo schön zusammengefasst

134.PNG


Ich werd da nicht schlau draus.
 
wenn man AMD wirklich auch bei vielen Kernen Konkurrenz machen will braucht es schon mehr als 8+8. Eher 8+32
 
  • Gefällt mir
Reaktionen: yummycandy, PS828 und xexex
Ich weiß nicht, dieses Big.little hat für mich immer auch was mit Kundenverarsche zu tun. Ich bin noch skeptisch was das angeht.
Wenn man sich die Werbung anguckt die es in der Vergangenheit gab, dann wird salopp mit einer 8-Kern-CPU mit 3 GHz Takt geworben, obwohl es eigentlich nur 2 Kerne sind die überhaupt so hoch takten können und der Rest sich dann in 4 Mittelklasse-Kerne mit 2 GHz und 2 Low-End-Kerne mit 1,4 GHz aufteilt. Da kaufen dann alle, vor allen Dingen die welche sich gar nicht auskennen, noch mehr die Katze im Sack als es heutzutage schon mit den ganzen Boost-/Turbotaktraten der Fall ist. (bis zu = 🤮)
Das Stromspar-Argument ist für mich zumindest auf dem Desktop nicht relevant, da wird glaube ich ATX12V mehr bewegen. Weil die meiste Zeit langweilt sich die Hardware am PC sowieso, da wird schon nicht viel verbraucht, wobei ich RGB und sämtliche Zusatzbeleuchtung jetzt mal ausklammere. Die aktuellen 12V ATX Netzteile sind leider viel ineffizienter als sie sein könnten.

Ich glaube das ganze passiert auch, weil Intel mit ihren Fertigungsprozessen nicht das liefern kann was sie wollen bzw. was man heute schon mit 7 nm erreicht wird und da sind sie dann nicht mehr attraktiv genug für den Kunden. ("altes" Fertigungsverfahren/"alte" Technik, zu hoher Stromverbrauch etc.)
Deshalb versuchen sie mit sowas entgegen zuwirken.
 
  • Gefällt mir
Reaktionen: PS828
Zurück
Oben