News Arrow Lake: Ein Überblick der Gerüchte zu Intels Next-Gen-CPUs

iSight2TheBlind schrieb:
Zwei Buchstaben: „KS“

Der 13900KS existiert nur um gegenüber den X3D-Ryzen vorne zu liegen, egal was es (an Stromverbrauch) kostet.
In Spielen ist der Stromverbrauch ja relativ nebensächlich, gab es ja erst einen Leserartikel, in dem man auf 0,008€ (!!!) Differenz die Stunde zwischen den beiden beim Gaming kam …

Dazu liegen Intels 13. Generation und die 7000X3D laut CB Gesamtrating 3% auseinander - da ist es relativ egal wer vorne ist. Ein anderes Spiel und schon sieht es wieder anders aus … das ist einfach zu wenig Differenz um danach zu entscheiden.
Bei mir war der ausschlaggebende Punkt dann eher die 50% höhere Leistung des 13700K (16 Kerne) gegen den damals (vor wenigen Monaten) noch etwas teureren 7800X3D (8 Kerne), siehe bspw. Cinebench.

Erst bei großem Anteil Prime95 oder ähnlichem in produktiver Form fällt der Stromverbrauch wirklich ins Gewicht, das betrifft in einem Ausmaß von mehreren Stunden Volllast allerdings im Desktop sehr, sehr wenige. Da gehen wir dann eher Richtung Workstation.
Ergänzung ()

SweetOhm schrieb:
Und dann immer nur noch 8 (P) Cores. Bereits 2020 hatte der 10900K "schon" 10 Cores (20 Threads).
Nochmal, was willst du mit mehr als 8-Cores? 4 E-Cores bringen mehr als 1 P-Core in jeder Anwendung die von mehr als 8 Kernen profitiert.

Der alte 10900K kommt Multicore nicht einmal auf die Hälfte im Cinebench R23 verglichen zum 13900K - kein Wunder bei 10 vs 24 Kernen:
IMG_1067.jpeg


Selbst die Singlecore Leistung hat sich fast verdoppelt:
IMG_1068.jpeg


Und ja das aktuelle Windows 11 kommt selbstverständlich einwandfrei mit den CPUs zurecht, keine Ahnung wie das für ewig Gestrige ist, die noch bei XP hängen, dürfte aber für die Masse recht irrelevant sein.
Ergänzung ()

midwed schrieb:
Zen5 wird's (im Bereich Gaming) schon richten :D
Dann aber hoffentlich mehr als die aktuellen 3% Abstand … etwas mehr dürfen sich die beiden zumindest nach mir schon geben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
ok ja klar beim 10 Kerner mag das so sein,aber teste es mal gegen den i9 9980xe mit seinen 18 Kernen mit Ht 36 Threads.Da sieht die Sache bestimmt anderst aus.Wenn die E kernen da so viel rausreisen müsste es ja besser sein,aber tut es ja nicht.Da braucht der 18 Kerner kein so hohen Allcore Takt um hier gut mit zu mischen.Von daher braucht es da schon deutlich höhere Takt um den zu schlagen.Wenn gleich viel Takt dann sähe es halt anderst aus.Die 13900k Profitiert bzw lebt von den hohen Allcore Takt.Aber wehe es sind nur 4 Ghz,dann gewinnt der 18 Kerner weil die E kerne hier nicht wirklich davon ziehen können.Ich rede hier von Vollast.Da verliert dann der 13900k bei 4 ghz Allcore Vollast dann gegen einen 18 Kerner.
Das ist auch klar oder kann man den Test so nicht machen?
 
latiose88 schrieb:
ok ja klar beim 10 Kerner mag das so sein,aber teste es mal gegen den i9 9980xe mit seinen 18 Kernen mit Ht 36 Threads.Da sieht die Sache bestimmt anderst aus.Wenn die E kernen da so viel rausreisen müsste es ja besser sein,aber tut es ja nicht.Da braucht der 18 Kerner kein so hohen Allcore Takt um hier gut mit zu mischen.
Klingt irgendwie, als hättest du etwas anderes erwartet (Cinebench R20 Multicore):
IMG_1069.jpeg


Wo mischt hier der 9980XE (den identischen 7980XE hatte ich mal selbst) gut mit? Das ist die halbe (!) Leistung …

Woher kommt immer der völlig naive Glaube die E-Cores würden keine Leistung bringen?
Gerade die sollen laut Berichten in der Vergangenheit gleichauf mit Skylake-X sein.
Ohne die P-Cores wäre man ja immer noch vorne.
 
  • Gefällt mir
Reaktionen: bensen
Ja gut du Vergleichst hier echt 5,5 ghz gegen 4 ghz.Na dann senke doch den Takt auf 4 ghz.Wie sieht es denn dann für den 13900k an Leistung aus?
 
latiose88 schrieb:
Ja gut du Vergleichst hier echt 5,5 ghz gegen 4 ghz.Na dann senke doch den Takt auf 4 ghz.Wie sieht es denn dann für den 13900k an Leistung aus?
Warum sollten wir das tun?
Nur damit du in irgendeinem unrealistischen Szenario weit weg von den Werkseinstellungen dennoch unrecht hast? :rolleyes:

1. Takten die Masse an Kernen nicht mit 5,GHz, sondern mit 4,3GHz.

2. Bereits ohne die P-Cores liegt der 13900K vorne:
Ein 12900K E-Cores only (8 E-Cores) kommt auf knapp so viel Punkte im Cinebench R23 wie ein 11600K:
IMG_1071.jpeg

Ein 9980XE bzw. der identische 10980XE kommt hier aber „gerade einmal“ auf ~17.400 Punkte - dementsprechend liegt ein 9980XE/10980XE hinter den 16 E-Cores des 13900K.

3. Bei über 4GHz steigt der Verbrauch des 9980XE ins unermessliche für die gebotene Leistung:
1696948465277.png


Dennoch hat der 13900K die doppelte Leistung:
IMG_1069.jpeg
 

Anhänge

  • IMG_1069.jpeg
    IMG_1069.jpeg
    153,6 KB · Aufrufe: 107
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bensen
@latiose88 Die 16 E-Cores takten mit max. 4.3 GHz…
 
  • Gefällt mir
Reaktionen: MalWiederIch
Naja wollte nur damit einen Faieren Vergleich damit erreichen.
Na und die 8 Kernen sind dennoch mit ihren 1,5 ghz Takt deutlich im Vorteil.Das macht auch einen wesentlichen Teil der Leistung aus.Und die e Kernen mit 600 mhz mehr Takt sind auch nicht ohne,so ist das ja nicht.
Und ja mit 4,5 ghz frisst der 18 Kerner Ordentlich an Watt.Damit könnte ich ja 3 Pcs damit betreiben gleichzeitg.So viel frisst der PC mit den 18 Kernen.
Beim 13900k sind es nur 2 Pcs wo ich so betreibe.
Ich selbst betreibe meinen 5950x auch nur mit 3,8 ghz.Leistung kommt auch an.Ne gute CPU kann auch mit deutlich weniger Takt seine Rohleistung auf der Straße bringen.Ne schlechte CPU kann nur mit dem Takthammer an Leistung liefern.So ist das halt.Das ist fakt.
Ohne den hohen Takt sähe es mit dem 13900k an Leistung doch eher mies oder bescheiden aus,kann man so sagen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Kann mal bitte ein stolzer Besitzer jeweils einen Cinebench mit deaktivierten und einmal mit E-Cores machen.

Dann wird man sehen, dass ~65% der MC Leistung von den E-Cores kommt.
 
  • Gefällt mir
Reaktionen: MalWiederIch
latiose88 schrieb:
Naja wollte nur damit einen Faieren Vergleich damit erreichen.
Na und die 8 Kernen sind dennoch mit ihren 1,5 ghz Takt deutlich im Vorteil.Das macht auch einen wesentlichen Teil der Leistung aus.
Macht es nicht, habe ich dir auch im letzten Kommentar belegt - warum behauptet man einfach irgendwas sinnfreies ohne Belege :p

Bereits beim 12900K waren die E-Cores kaum schwächer als die P-Cores:
IMG_1072.jpeg

Wer da glaubt 16 E-cores wären schwächer als 8 P-Cores behauptet einfach gerne irgendwas :rolleyes:
latiose88 schrieb:
Ne gute CPU kann auch mit deutlich weniger Takt seine Rohleistung auf der Straße bringen.
Nein, bei derselben Leistung kann das weder eine AMD noch Intel CPU.
latiose88 schrieb:
Ne schlechte CPU kann nur mit dem Takthammer an Leistung liefern.So ist das halt.Das ist fakt.
Klingt halt nach der typischen Fanboy-Brille ohne wirkliche sinnvolle Argumente - und gerade waren wir doch noch bei Intel vs Intel ... „Brechstange“ die für die meisten dann nachher in 0,008€ die Stunde an Mehrkosten für wenige Stunden im Monat bei Last bei einem 600€+ CPU resultiert - so etwas juckt die Masse eben nicht :rolleyes:
Solche Unterschiede schon eher:
IMG_1069.jpeg

latiose88 schrieb:
Ohne den hohen Takt sähe es mit dem 13900k an Leistung doch eher mies oder bescheiden aus,kann man so sagen.
Ebenso bei der Konkurrenz, siehe erste Generationen Ryzen - na und?
Der 9980XE kann jedenfalls unter keinen Umständen mithalten, obwohl du das anfangs eindeutig behauptet hast:
latiose88 schrieb:
ok ja klar beim 10 Kerner mag das so sein,aber teste es mal gegen den i9 9980xe mit seinen 18 Kernen mit Ht 36 Threads.Da sieht die Sache bestimmt anderst aus.Wenn die E kernen da so viel rausreisen müsste es ja besser sein,aber tut es ja nicht.
Ergänzung ()

'Xander schrieb:
Kann mal bitte ein stolzer Besitzer jeweils einen Cinebench mit deaktivierten und einmal mit E-Cores machen.

Dann wird man sehen, dass ~65% der MC Leistung von den E-Cores kommt.
Habe leider auch nur zum 12900K (8 E-Cores) etwas gefunden:

IMG_1072.jpeg

https://www.techpowerup.com/review/intel-core-i9-12900k-e-cores-only-performance/2.html

Selbstverständlich sollten es dann beim 13900K (16 E-Cores) in die Richtung der von dir genannten ~65% sein.
Aber die schaffen das ja nur wegen dem hohen Takt … :rolleyes::p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 'Xander
ja gut anderst sieht es dann wohl aus wenn die Software zwar gut mit mehreren Kernen umgehen kann aber nicht bei den E kernen sinnvoll oder Optimal umgehen kann.Dann könnte unter den Umständen wohl die P Kernen klar den Sieg bringen gegenüber den e Kernen.Es gibt ja nicht nur Spiele wo die nicht optimal mit den e Kernen umgehen sondern auch anderweitige Software ebenso.
Mir fällt nun keine wirklich ein ,nur die ich halt so verwende.Klar ist es bei Software die mit den E kernen nicht umgehen können dann ganz klar das Ergebnis.
 
latiose88 schrieb:
ja gut anderst sieht es dann wohl aus wenn die Software zwar gut mit mehreren Kernen umgehen kann aber nicht bei den E kernen sinnvoll oder Optimal umgehen kann.
Wer Windows XP nutzt hat es wohl nicht anders verdient. Aber man kann auch immer weiter Probleme suchen anstatt zuzugeben, dass man einfach unrecht hatte :rolleyes:
 
  • Gefällt mir
Reaktionen: YY247
MalWiederIch schrieb:
in 0,008€ die Stunde an Mehrkosten
Wo kommt denn diese pauschale Zahl her, wenn ich fragen darf ? :confused_alt:
 
Nun ja ich selbst habe bei wem auch den 13900k mit 4 ghz getestet und da sah die Leistung beim Videoumwandeln nicht mehr so gut aus.Anders sah es bei AMD aus.Da waren bei 3,9 ghz Allcore Takt wesenlich mehr Leistung dabei rum gekommen.Also liegt das Problem bei Intel.Meine Software und die Testumgebung war das selbe gewesen.Der Ryzen 9 7950x wurde sogar mit nur 90 Watt und 3,9 ghz getestet.War wesentlich schneller als bei Intel gewesen.Bei einfach mal durchziehen einfach mal volle Pulle da war Intel dann vorne.Man darf dann nur nicht auf die Wattanzeige mehr schauen,denn dann wird einem schlecht.
Verstehe mich nicht falsch Intel hat auch seine Stärken aber in meinem Fall brachte es der Intel CPU nur sehr wenig.
Cinchebench mag Intel mehr liegen.Die Software die ich so verwende ist nicht expliziet an einen CPU Hersteller extra Optimiert.VIelleicht sind ja auch Einstellung dabei wo Intel nicht so schmeckt oder die Settings sind so klein das Intel da Probleme bekommt,wer weis das schon.Wollte nur meine Kernaussage sagen das Intel CPUS von den hohen Allcore Takt leben ,was ja auch stimmt.
Aber klar macht das keiner,sich einen 13900k kaufen und ihn dann gleich auf 3,9 ghz bzw 4 ghz herunter zu drosseln.
Das ist nen wiederspruch an sich.Und da konnte halt leider die Intel CPU nicht mehr so klar kommen.

PS: der 18 Kerner wird ebenso von einem 16 Kerner von AMD geschlagen und das ganz schön.Und das merkwürdigerweise im gleichen Allcore Takt von 3,8 ghz.Der Intel 16 Kerner war nicht mal ansatzweise dazu in der Lage in der richtigen Liga mitzuspielen. Mit weniger e kernen habe ich das bisher noch nicht getestet.Zuvor war es auch bei der Person ein 12900k gewesen.Also darum ist ja auch ein Vergleich vorhanden.
 
TomH22 schrieb:
Momentan setzt in meinen Augen Apple den Benchmark bezüglich Effizienz und Performance. Ein M2 Pro hat 6-8 P Kerne und 4 E.
Apple setzt also eher auf P und nimmt die E Kerne als "Ergänzung". Intel scheint eher den umgekehrten Weg zu gehen.

Und die Frage nach dem "warum" fuehrt uns wieder zur urspruenglichen These: Um in Benchmarks im Vergleich zum 7950X gut dazustehen, ohne die Flaeche fuer 16 P-Cores investieren zu muessen.

Ich weiß nicht, warum immer alle so auf den Idle Verbrauch abzielen.

Weil die Benchmarks fuer Akkulaufzeit ziehmlich viel Idle-Anteil haben. Und dieser Wert steht dann in den Tests.

Mein Dell Precision mit Core i7-12800H ist sowieso kein Akku-Wunder. Aber während ich mit bei geringer Last immerhin 5 Stunden Laufzeit erreichen kann, bin ich mit Teams Konferenz froh, wenn er zwei Stunden schafft. Und wenn ich mal ein paar YouTube Videos schaue, sieht es ähnlich schlecht aus.

Da kannst Du ja wunderbar vergleichen, ob die P-Kerne oder die E-Kerne bei dieser Last effizienter sind, indem Du Teams bzw. den fuer Youtube verwendeten Browser auf die P-Kerne oder E-Kerne einschraenkst.

Wobei mich der hohe Verbrauch bei Youtube wundert; ich lese immer wieder, dass die Hardware-Decoder beim Video-Schauen praktisch die ganze Arbeit uebernehmen und dabei sehr effizient sind.

Wenn ich das mit einem Macbook Pro mit M1 Pro vergleiche ist das wirklich traurig.

Das deutet darauf hin, dass man keine grosse Menge an E-Cores fuer Teams oder Youtube braucht.
 
iSight2TheBlind schrieb:
Zwei Buchstaben: „KS“

Der 13900KS existiert nur um gegenüber den X3D-Ryzen vorne zu liegen, egal was es (an Stromverbrauch) kostet.
Nö, das liegt nicht primär da dran. Es gibt genügend Abnehmer, die bereit sind für ein paarProzent mehr mit selektierten Chips, noch mehr Geld über die Ladentheke zu schmeißen. Schöner Nebeneffekt ist dann auch der Balken… Wenns kein Geld bringen würde, wäre es nicht auf dem Markt…
 
-=[CrysiS]=- schrieb:
Wenn es nichts zu berichten gibt, streut man Gerüchte.
Damit lassen sich auch Seiten an weiteren Spekulationen generieren. ;):daumen:

Man kann auch Umfragen machen wie weit die AfD aktuell vorne liegt, wie beliebt welcher Clown aus der Bundestags-manege gerade bei den Zuschauern ist oder Studien darüber machen wie die Jugend angeblich tickt obwohl in der Studie steht sie sei statistisch nicht signifikant 😅
Da sind mir als Gerücht gekennzeichnete Gerüchte schon viel lieber.
 
latiose88 schrieb:
Gillt Diese settingungs Punkt auch bei l1 und l2 cache oder bezog sich das nur auf den l3 cache?
Ja klar. Wobei ich sagen muss, dass ich das Wort "Sättigungspunkt" nur zur Vereinfachung der Diskussion benutzt habe, normalerweise nutzt man es im Zusammenhang mit Caches nicht, und es ist auch streng genommen falsch. Caches haben eine Hit Rate, diese ist aber auch nicht absolut, sondern immer nur für einen bestimmten Workload gültig. Ein kurzes Stück Code, was nur wenige Daten anspricht, kann auch 100% Hitrate erreichen. Also nimmt man eine Testsuite (z.B. sowas wie SPECInt ) und misst die Hitrate der Suite oder einzelner Tests daraus.
In der Regel haben selbst die recht kleinen L1 Caches bei solchen Messungen Hitraten von weit über 90%. Warum macht man dann überhaupt einen L2 und gar L3 Cache? Der Grund ist einfach die "Miss-Penalty", also die Kosten für einen Cache Miss.
Eine kompletter Miss (also die angeforderte Adresse ist weder im L1 noch im L2 oder L3 enthalten) kann locker viele hundert Taktzyklen kosten, denn selbst das schnellste, übertaktete DDR5 DRAM ist ungeheuer langsam im Vergleich zur CPU.


latiose88 schrieb:
Und wie kann man die Ipc Steigerung erhöhen in dem man noch mehr Einheiten in die CPU steckt so das die CPU noch mehr Befehle abarbeiten kann und so oder auch nur durch den blosen Takt Erhöhung?
Das ist in der Tat die Herausforderung bei Superskalaren CPUs:

Aus Softwaresicht arbeitet eine CPU streng sequenziell, d.h. wenn Du sowas schreibst wie

Code:
LI a0, 5
LI a1, 10
ADD a3,a0,a1
(Das ist jetzt RISC-V Assemblercode, aber das sieht bei Intel oder ARM sinngemäß genauso aus) dann muss natürlich bei dem ADD Befehl a0 den Wert 5 und a1 den Wert 10 enthalten.

Eine Superskalare CPU kann die beiden LI Befehle parallel ausführen, aber mit dem ADD muss sie warten.

Das Beispiel ist jetzt super-praxisfremd, denn natürlich würde ein Compiler gleich
Code:
LI a3, 15
generieren, anstatt zwei konstante Werte zu addieren.

"Echter" Code holt üblicherweise Werte aus dem Arbeitsspeicher in CPU Register.

Die Prozessoren treiben nun einen ziemlich großen Aufwand, um die Befehle in voneinander unabhängige Sequenzen zu sortieren. Und diese unabhängigen Sequenzen kann man ggf. parallel ausführen.

Nehmen wir mal folgenden C-Code an:

C:
forI(i=0;i<100;i++) {
    c[i]=a[i]+b[i]
}

und ignorieren mal das moderne CPUs sowas über ihre Vector Befehle (also Intel AVX) machen können:
Der erzeugte Maschinencode würde für den Schleifenrumpf Code erzeugen der a und b in jeweils ein Register lädt, diese dann addiert und dann das Ergebnis nach c schreibt. Also ähnlich wie der Code oben.

Die benutzten Register in den Maschinenbefehlen sind für jeden Schleifendurchlauf die Gleichen. Eine einfache CPU müsste daher jeden Schleifendurchlauf nacheinander abarbeiten.
In Wirklichkeit ist aber jeder Durchlauf für sich unabhängig. Denn z.B. c[0]=a[0]+b[0] ist komplett unabhängig von c[1]=a[1]+b[1], denn sie nutzen komplett unterschiedliche Daten.

Moderne "Out-of-Order" Prozessoren machen sich das zu nutze und nutzen einen Trick namens "Register Renaming": Jeder Schleifendurchlauf bekommt in der CPU drei eigene Register zugewiesen. Dadurch halt man man lauter unabhängige Sequenzen von Befehlen die man dann auf die parallelen Einheiten verteilen kann. Allerdings erhöht das den "Druck" auf z.B. die Caches, die z.B. mehrere parallele Anfragen zum Laden der Operanden (also die a und b gleichzeitig bekommen. Der L1 Cache von Zen3 kann zB. 3 Memory Ops per Cycle, davon maximal 3 loads und 2 Stores.

Moderne CPUs können daher mehrere hundert Befehle "in Flight" halten, die z.B. auf die Memory Operanden warten und dann ausgeführt werden, wenn die Daten verfügbar sind. Der Aufwand für diese gesamte Logik ist halt extrem.
Außerdem muss man dieses Potential auch "mit Arbeit" füttern. Hier kommt eben denn Hyperthreading ins Spiel, damit verdoppelt man quasi den Arbeitsvorrat, aus dem der Befehls-Scheduler sich bedienen kann.

Und man kann sich gut vorstellen, dass es wenn ein Prozessor schon sehr gut ist, es immer schwieriger wird, sich zu steigern. Das sieht man schön bei AMD: Von Zen1 bis Zen3 ging der Innovationszyklus relativ schnell, nun wird es langsamer. Bei Apple und Intel ist es ähnlich.
 
Ah cool es gibt ja da noch ein programm zur Messung der missrate. Ab wann hat denn der Cache keine Wirkung mehr bei der missrate und so. Und das gesamte RAM Inhalt wird ja wohl niemals die CPU ganz in den Cache laden. Das tut ja die Anwendung nie oder doch? Also sprich wenn der RAM mit als Beispiel 300 MB bei zwei gleichen Anwendung insgesammt dann 600 MB RAM belegt dann braucht die CPU in den Cache nicht alles rein zu laden oder ist das manchmal der Fall und so?

Und wird die missrate bei Cache jemals bei 0 sein oder geht sowas niemals?
 
MalWiederIch schrieb:
Welchen Vorteil würden denn mehr P-Cores bringen? Wenn eine Anwendung von vielen Kernen profitiert,
dann mehr von 4 E-Cores als von einem P-Core.
Aber überlege einmal was das im Umkehrschluss bedeutet wenn ein Spiel bis zu 16 Kerne nutzt
aber nur 8 P-Cores zur Verfügung stehen. Dann brauchst du bereits 16 E-Cores für die Leistung
von 12 P-Cores und lustige 32 E-Cores für die Leistung von 16 P-Cores + fähige Programmierer,
die dafür sorgen, dass die Software dann irgendwie 8+32=40 Kerne statt 16 Kerne verwaltet. :evillol:
 
Ja anderst sieht es aus wenn das Programm nur 24 p Kerne nutzen kann. Dann packen die e Kerne halt etwas weniger. Die Anwendung oder sagen wir mal bei Nutzung von 2 gleichen sieht es ja dann anderst aus. Wenn man nun ergeht und sagt jede Anwendung nutzt 12 threads aus. Aber kein smt oder ht sondern ohne dem. Mal sehen wie es dann mit 32 e kernen aussehen. Das wird ja dann der Fall sein bei der kommenden Desktop CPU. Ob die dann besser als smt bzw ht sein werden. Denn diese habe ich ja mit 50 % eines ohne simultan gerechnet gehabt.
 
Zurück
Oben