News Intel Core i5-13600K: Raptor Lake im Benchmark von CPU-Z und Cinebench R23

Wieder mal ein nutzloser Benchmark mit einem engineering sample. Hat schon die letzten 20 male keine Aussagekraft gehabt.
 
  • Gefällt mir
Reaktionen: neuhier08
Caramelito schrieb:
Setzt du P + E Cores einfach gleich?
Nein aber ich denke ein 13600K 6P+8E wird in zukünftigen Spielen so schnell wie ein 12700K 8P+4E
aber kostet halt 100€ weniger. 13700K wird der neuer 12900K und 13900K wird keine Gaming CPU.
 
0ssi schrieb:
Da ging es um einen 12900K(F) und dessen 16 Kerne sind halt noch zu viel für Gaming und 560€ ist zu teuer.
Der 12600KF mit 10 Kernen für 275€ ist gut aber um für die Zukunft gerüstet zu sein, wären 12 Kerne besser.
Der 12700KF mit 12 Kernen für 400€ ist mir zu teuer also wäre ein 13600KF mit 14 Kernen für 299€ optimal.
Du argumentierst über den Preis und eine fiktive Zukunftssicherheit. Du lässt dich davon ins Boxhorn jagen. Der Unterschied zwischen den ganzen 12er CPU's ist primär die Leistungsaufnahme die wie folgt gestaffelt ist:
Core i9-12900K: 241 Watt
Core i9-12700K: 190 Watt
Core i9-12600K: 150 Watt

In Gaming-Benchmarks siehst du, dass die E-Cores in Spielen gar nicht zum Zuge kommen - und das ist auch gut so. P- und E-Cores sind zwei komplett unterschiedliche Architekturen auf einem DIE. Man kann keinen Thread einfach so dazwischen Shiften. Dir fliegt der Cache um die Ohren. Ergo sind rein die P-Cores und die TDP fürs Gaming relevant - nicht die 2,4 oder 8 mehr E-Cores.
 
@Caramelito das sprichst du gegen eine Wand und wie @GeleeBlau schon sagt, wir wissen erst was Sache ist, wenn wir die Umstände des Tests wissen und einheitliche, unabhängige Benchmarks da sind, mit dem fertigen Produkt.
 
Also ich möchte @SVΞN an dieser Stelle mal auch abseits des Technischen dafür loben, dass das Bild zur News einen - nach derzeitigen wissenschaftlichen Stand - korrekt abgebildeten (Velocir-) Raptor darstellt. :)

So waren diese Tiere weit farbenfroher, als man bis vor einigen Jahren noch angenommen hat. Zudem hatten sie auch durchaus ein Gefieder.
 
  • Gefällt mir
Reaktionen: iron_monkey und SVΞN
Schade, da hätte ich gleich ein 12700 non k nehmen können, jedoch muss man noch die unabhängigen Tests abwarten. Obwohl in diese Richtung es mit ziemlicher Sicherheit gehen wird.
Der 13700 wird anscheinend wie der Rest der Serie eine teure Angelegenheit!
Abwarten und Tee trinken!
 
Rios schrieb:
dass ich mich wundere, dass sie nicht vorher drauf gekommen sind
Es ist halt schon eine "massive" Veränderung der CPU-Architektur, die zudem noch "kooperierende" Betriebssysteme und - je nach Einzelfall - Anwendungen erfordert. D.h., es kann dauern, bis der Alltagsnutzen problemlos in der Breite der Anwendungsfälle vorhanden ist.
Ich denke ebenso, dass dieser Ansatz die mittelfristige Zukunft bei den general purpose CPUs definiert (ich weiß, das ist jetzt keine gewagte These). AMD wird ihn ja ebenso implementieren.

Ich persönlich hätte noch gerne die zusätzliche Option, die automatisierten Kernverteilungsroutinen - seien sie in Hardware gegossen oder in Software implementiert - per Software-Schalter aus dem laufenden OS übersteuern zu können. Welche Fallstricke da im Detail lauern könnten, vermag ich allerdings nicht zu erahnen.
 
  • Gefällt mir
Reaktionen: Rios
ComputerJunge schrieb:
AMD wird ihn ja ebenso implementieren.
Das galt doch nur für die (Cloud-)Server CPUs, oder? Und die Zen 4c bzw. 5c Kerne sollen den gleichen Instruktionssatz können, wie die dicken Kerne. Also mehr als die E Kerne bei Intel.
 
0ssi schrieb:
Nein aber ich denke ein 13600K 6P+8E wird in zukünftigen Spielen so schnell wie ein 12700K 8P+4E
aber kostet halt 100€ weniger. 13700K wird der neuer 12900K und 13900K wird keine Gaming CPU.

Jo es gab aber schon erste Games hier, wo 6p Cores schon 20% langsamer waren als 8p (i5 vs i7)

Glaube "The Ascent" war es hier auf CB.

Da bin ich gespannt, ob die E-Cores da etwas rausholen.

Vieles muss sicher auch von Windows kommen.
 
Cr4y schrieb:
Naja, im Vergleich zu den P-Cores sind se halt deutlich schlechter. Konnte mich bisher nicht mit dem Big.Little-Konzept anfreunden. Im Smartphone mag das für die absoluten Basis-Anforderungen noch Sinn ergeben.
Warum stören sich so viele an de E-Cores? Intels big.LITTLE vereint starke ST Performance mit guter MT Performance.
Wen interessiert denn, ob es ein P oder E-Core ist, der die gelieferte Leistung bringt? Wenn der 13900K im ST und MT King ist, passts doch.
 
  • Gefällt mir
Reaktionen: Rios
Enigma schrieb:
Für Gaming-PCs ist das leider Quatsch. Für Laptops geht das Konzept offensichtlich auch nicht auf.
Das stimmt nicht. Mein alder lake System lässt dir spiele auf den o Cores, Discord und Aufnahme Programm auf e Cores laufen. Das ist effizient und ich hab viel Leistung.
 
  • Gefällt mir
Reaktionen: Rios
Enigma schrieb:
In Gaming-Benchmarks siehst du, dass die E-Cores in Spielen gar nicht zum Zuge kommen - und das ist auch gut so. P- und E-Cores sind zwei komplett unterschiedliche Architekturen auf einem DIE. Man kann keinen Thread einfach so dazwischen Shiften. Dir fliegt der Cache um die Ohren. Ergo sind rein die P-Cores und die TDP fürs Gaming relevant - nicht die 2,4 oder 8 mehr E-Cores.
Kann dir aus erster Hand sagen, dass deine Aussage falsch ist. Die Priorisierung sieht wie folgt aus: P-Core > E-Core > HT Thread. In Battlefield 2042 werden so gut wie alle P-Cores und mehr als die Hälfte der E-Cores belastet. Die HT Threads werden am wenigsten bis gar nicht belastet.
Battlefield 2042 Screenshot 2022.07.18 - 23.23.57.62.png


Hätte ich die E-Cores nicht, müssten die P-Cores bzw. HT-Threads den Workload abarbeiten und die Leistung würde sinken.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Rios und Zer0Strat
owned139 schrieb:
Kann dir aus erster Hand sagen, dass deine Aussage falsch ist. Die Priorisierung sieht wie folgt aus: P-Core > E-Core > HT Thread. In Battlefield 2042 werden so gut wie alle P und E-Cores ausgelastet. Die HT Threads werden am wenigsten bis gar nicht belastet.
Ich nutze ein Programm das der 8auer mal vorgestellt hat, da kannst du einstellen auf welchem Core ein Programm läuft wenn du es startest.
 
owned139 schrieb:
Kann dir aus erster Hand sagen, dass deine Aussage falsch ist. Die Priorisierung sieht wie folgt aus: P-Core > E-Core > HT Thread. In Battlefield 2042 werden so gut wie alle P-Cores und mehr als die Hälfte der E-Cores belastet. Die HT Threads werden am wenigsten bis gar nicht belastet.
Was passiert denn, wenn du die E-Cores im BIOS deaktivierst? Kannst du mal die AVG + 1% Low FPS messen?
 
Enigma schrieb:
Was passiert denn, wenn du die E-Cores im BIOS deaktivierst? Kannst du mal die AVG + 1% Low FPS messen?
Keine Lust, aber andere habens getestet:
Fazit des Videos: "Should you disable the E-Cores? We put simply: NO"

Das Video ist auch interessant:
 
Passt schon. Dann lass sie an, wenn du glaubst diese Videos sind Aussagekräftig genug ;)
 
Ich zocke 4K und hab meinen 12600K noch nie groß über ~80/100W gesehen.. Hab mal ihn Spaßeshalber mal getaktet und er geht ohne Schwierigkeit auf AllCore P-Boost auf 5.1 GHz und E Core auf 4.0 GHz - mehr also richtig Spaß. Ist aber absolut Sinnfrei im GPU Limit (RTX3080), daher läuft er bei mir Stock..
 
trifft das Thema zwar nicht 100%, aber ich muss doch fragen: blickt bei den ganzen "irgendwas-lake" noch irgendwer durch? irgendwie werden die Bezeichnungen immer absurder... AMD hat zumindest individuelle Künstler die man mit irgendwas assoziieren kann, aber wo ist denn bitte der "raptor lake"? Es sind inzwischen so viele "lakes", da sticht eigentlich keiner mehr hervor. Find ich eher schwach von deren marketing department.
 
Cr4y schrieb:
Und die Zen 4c bzw. 5c Kerne sollen den gleichen Instruktionssatz können, wie die dicken Kerne. Also mehr als die E Kerne bei Intel
Bei Gerüchten bin ich eher schlecht auf dem Laufenden. In der Theorie sollte das dann Einiges bei der Lastverteilung vereinfachen.
 
Zurück
Oben