News Intel Core i5-13600K: Raptor Lake im Benchmark von CPU-Z und Cinebench R23

Cr4y schrieb:
Konnte mich bisher nicht mit dem Big.Little-Konzept anfreunden.
Ich finde, das ist für die Zukunft genau das richtige. Der Trend zu mehr Kernen wird weiter anhalten, die CPUs werden aber weiterhin sowohl mit Software konfrontiert werden, die praktisch unbegrenzt skalierbar ist als auch solcher, die auf genau einem einzigen Thread läuft und fertig.

Das Big.Little-Prinzip wird dieser Realität gerecht. Wir brauchen keine 64 Kerne in einem Desktop-PC, die alle gleich stark sind. Und ich gehe davon aus, dass wir irgendwann 64 Kerne im heimischen PC haben werden.
 
  • Gefällt mir
Reaktionen: Kandalfus, Gast12345, Innocience und 3 andere
T3rm1 schrieb:
Evtl. 420 Watt für den 13900K. Ich find das einfach nur krank.
Ja mei, dann dreh halt das Powerlimit runter. Ging mit Alder Lake auch schon und brachte bei erheblich gesenktem Stromverbrauch kaum Leistungsverlust. Ja, ist keine tolle Lösung, aber klappt. Mir wären effiziente Cpus ab Werk auch lieber, keine Frage ;)

0ssi schrieb:
Also wenn ein Spiel mit mehr als 10 Kernen skaliert
Viel interessanter wird die gesteigerte IPC der Big Cores und der gesteigerte Takt. Normalerweise skalieren Spiele kaum bis auf die Little Cores.
 
All Core P Boost

12600K 4,5Ghz
12700K 4,7Ghz
12900K 4,9Ghz

13600K
13700K
13900K

Füll mal aus :D
 
0ssi schrieb:

Ich sehe da max. 130W und dann gleich mal 20FPS schneller als ein 5800X3D also liegst zu total falsch.
Sehr eigenartiges YT Video.
Eigentlich verbraucht ein 5800X3D in Games eher 60-70W, nicht plötzlich über 100W.
Welche Powerlimits wurden eingestellt (oder nicht eingestellt)?

Die Games wurden zudem in 1080p gebencht, weshalb auch die 15-30% Auslastung in einigen der Titel dort nicht mehr wundert.
Warum ist ein 5800X3D im CB-Bench nur 2% langsamer als ein 12900K der im Schnitt 80% mehr Strom verbraucht aber ein 12700K ist im YT Video schneller? Hat das was mit den dort ausgesuchten Games zu tun? Wieviel Benchdurchläufe gab es?
Fragen über Fragen und Ungereimtheiten.

Mir scheint es der 5800X3D wurde im Bios "hochgetuned" um das maximum an Leistung rauszudrücken, worunter die Effizient aber massiv leidet.
Dann wäre ein 5800X3D vs 12700K vs 13600K Vergleich Im Kontext von Leistung/Verbrauch auch nicht mehr sinnvoll.

YT Videos sind aus dem grund einfach das, nett anzuschauen aber für seriöse Tests unbrauchbar.
 
@0ssi nur funktionieren die E Kerne nicht in den Spielen!
 
Syrato schrieb:
@0ssi nur funktionieren die E Kerne nicht in den Spielen!
Selbst ein Krüppel Game wie BF2042 kann offensichtlich damit umgehen:


Und eigentlich funktionieren sie in allen Spielen wenn zu wenig P Cores ;)

 
  • Gefällt mir
Reaktionen: Innocience, owned139, Wubziz und eine weitere Person
Beitrag schrieb:
Ich finde, das ist für die Zukunft genau das richtige. Der Trend zu mehr Kernen wird weiter anhalten, die CPUs werden aber weiterhin sowohl mit Software konfrontiert werden, die praktisch unbegrenzt skalierbar ist als auch solcher, die auf genau einem einzigen Thread läuft und fertig.
Gibts für unbegrenzt skalierbare Aufgaben nicht GPUs bzw. Speziallösungen? Ich glaube nicht, dass wir sehr bald (in den nächsten 10 Jahren) 64 Kerne im Mainstream der Desktop-CPUs sehen werden.
 
Cr4y schrieb:
Naja, im Vergleich zu den P-Cores sind se halt deutlich schlechter. Konnte mich bisher nicht mit dem Big.Little-Konzept anfreunden. Im Smartphone mag das für die absoluten Basis-Anforderungen noch Sinn ergeben.
Gerade in Anbetracht der immer höheren Leistungsaufnahme in Desktop-PCs halte ich die E-Cores für ein richtig gutes Konzept. Im Idle und im Teillast Bereich ist ADL sehr effizient - Auch dank der E-Cores.
Ich finde es sogar so gut, dass ich mich wundere, dass sie nicht vorher drauf gekommen sind :D

Voll-Last, bei der ADL unverhältnismäßig viel schluckt, liegt bei den meisten sowieso fast nie an.
Und wenn doch, kann man die Powerlimits runtersetzen, hat kaum Leistungsverlust mit viel besserer Effizienz.
 
0ssi schrieb:
Ich sehe da max. 130W und dann gleich mal 20FPS schneller als ein 5800X3D also liegst zu total falsch.
Also ich glaube da eher einer ganzen Batterie verschiedener Testmagazine/Webseiten.
3DCenter

Wie ich schon mal sagte, nicht nur einer Quelle glauben, die noch dazu nichts an Settings und Aufbau erklärt, sondern lieber völlig verschiedene prüfen um dann zu schauen wo Median und Mittelwert liegen.
Das gilt für absolut jedes Thema.
Kann sein das da auch einige Mist testen.
Aber so fallen Ausreißer auf und die kann man sich dann genauer ansehen.
Zuallermeist ist es dann Bockmist, manchmal aber auch nicht. Hier halte ich es für Bockmist.

Computerbase und PCGamesHardware hat sich bei mir die vielen Jahre bewährt, Perfekt sind diese sicherlich nicht. Beide leisten sich auch mal Schnitzer. Beide sind aber Meilenweit besser in Methodik als Youtube "Tests".
 
  • Gefällt mir
Reaktionen: iron_monkey, owned139, Col.Maybourne und eine weitere Person
Cr4y schrieb:
Gibts für unbegrenzt skalierbare Aufgaben nicht GPUs bzw. Speziallösungen? Ich glaube nicht, dass wir sehr bald (in den nächsten 10 Jahren) 64 Kerne im Mainstream der Desktop-CPUs sehen werden.
Klar, aber das ist oft auch eine Softwarefrage. Es ist idR wesentlich einfacher den Spaß auf die CPU zu schmeißen und es gibt genug Software, die nicht auf der GPU läuft.

Davon abgesehen werden auch AMD und Intel das Kernerennen selbst vorantreiben. Man will sich ja von der Konkurrenz abheben und mehr Kerne sind viel einfacher umzusetzen als mehr IPC. Und wenn die Hardware dann da ist, wird sie früher oder später auch von mancher Software genutzt.

Wenn Big.Little auch bei AMD kommt und sich entsprechend durchsetzt, würde es mich überhaupt nicht wundern, wenn wir in 10 Jahren bei 64 Kernen im Desktop angekommen sind. Überleg mal. Wir sind in den letzten 5 Jahren von 4 Kernen im Desktop zu 16 Kernen gekommen, eine Vervierfachung. Hin zu 64 wäre nur eine weitere Vervierfachung und damit imo absolut realistisch, wenn man es nach dem Big-Little Prinzip umsetzt und entsprechen viele E-Cores hat, die nur wenig Chipfläche brauchen. 3D Stacking kommt auch noch...

Joar, also ich gehe auf jeden Fall davon aus, dass wir die 64 knacken werden.
 
Draco Nobilis schrieb:
Also ich glaube da eher einer ganzen Batterie verschiedener Testmagazine/Webseiten. 3DCenter
Ok aber bei gemittelter Gaming Verbrauch steht dort: 12600K nix und 12700K ~89W. :daumen:
Ich orientiere mich gerne an den 130W von CP2077 weil das sind die TW3 Programmierer
und die wissen offensichtlich wie man Last verteilt also das wird in Zukunft überall so sein.
 
Nach all dem was man so liest, tut sich Intel keinen Gefallen, wenn die 13er Generation für den Desktop/Laptop als "besser" vermarktet wird. Das wird ein ganz lauwarmer Refresh.

MeisterOek schrieb:
Die E-Cores haben etwa die Leistung eines 7700K Cores bei deutlich geringerem Verbrauch und Größe. Sooo langsam sind die jetzt auch nicht. Da sie so klein sind, kann man davon einige unterbringen. Ich hab da schon etwas mehr Vertrauen in die Ingenieure.

Intel recycled dir Technik aus 2014, die eigentlich nur auf eine aktuelle Fertigungstechnologie portiert wurde. Natürlich sind die Cores "kleiner" und effizienter. Dieses many-core Design kann für Workstations/Server von Vorteil sein. Für Gaming-PCs ist das leider Quatsch. Für Laptops geht das Konzept offensichtlich auch nicht auf.
 
  • Gefällt mir
Reaktionen: LamaMitHut
@0ssi und ich dachte, dass BF 42 nur 8 Kerne benutzt wie die Konsolen.... bin ich da falsch informiert oder sind deine E Cores im Video zufällig mit anderen Programmen im Hintergrund beschäftigt, wofür sie ja eigentlich gedacht sind?

War PCGH, also bitte nicht immer alles falsch behaupten bitte.
 
0ssi schrieb:
Also wenn ein Spiel mit mehr als 10 Kernen skaliert dann wird der 13600K mit 14 Kernen (6P+8E)
schon einige FPS mehr liefern als der 12600K mit 10 Kernen (6P+4E). Mal den Aufpreis anschauen.
0ssi schrieb:
Selbst ein Krüppel Game wie BF2042 kann offensichtlich damit umgehen:

Und eigentlich funktionieren sie in allen Spielen wenn zu wenig P Cores ;)
Bitte die Argumentationsbasis nochmal darlegen. Das ist genau anders herum.
Und du schreibst das auch noch:
0ssi schrieb:
Irgendwie ist dieser ganze Alder Lake Hype für Gaming totaler Quatsch, vor allem mit überteuertem DDR5.
 
  • Gefällt mir
Reaktionen: Rockstar85
Syrato schrieb:
oder sind deine E Cores im Video zufällig mit anderen Programmen im Hintergrund beschäftigt
Wenn 12600K und 13600K nur 6 P Cores haben aber ein Spiel 8, 10 oder 12 Kerne nutzt was passiert dann ?
Die Software sieht da einfach nur Kerne und verteilt die Last. Darum 12600K fast so schnell wie 10900K ! :o
 
...und vermutlich wird mind. W11 vorausgesetzt, damit man fuer Kumpel MS schoen Druck aufbauen kann,
wenn die Leute schon nicht freiwillig wechseln wollen.
 
Was auch immer selbst mit nem 12600k hast bei BF 2042 keine konstante GPU Auslastung (dropt immer wieder unter 70%). Wenn die Software Schrott ist kann die Hardware auch nix machen.
 
Enigma schrieb:
Und du schreibst das auch noch:
Da ging es um einen 12900K(F) und dessen 16 Kerne sind halt noch zu viel für Gaming und 560€ ist zu teuer.
Der 12600KF mit 10 Kernen für 275€ ist gut aber um für die Zukunft gerüstet zu sein, wären 12 Kerne besser.
Der 12700KF mit 12 Kernen für 400€ ist mir zu teuer also wäre ein 13600KF mit 14 Kernen für 299€ optimal.
 
Intel 19600k, 6p + 48e Cores :D

Erinnert mich an Sandy Bridge bis Skylake.
Damals mehr Takt, nun mehr E Cores für Multicore Benchmarks 😅
Ergänzung ()

0ssi schrieb:
Da ging es um einen 12900K(F) und dessen 16 Kerne sind halt noch zu viel für Gaming und 560€ ist zu teuer.
Der 12600KF mit 10 Kernen für 275€ ist gut aber um für die Zukunft gerüstet zu sein, wären 12 Kerne besser.
Der 12700KF mit 12 Kernen für 400€ ist mir zu teuer also wäre ein 13600KF mit 14 Kernen für 299€ optimal.
Setzt du P + E Cores einfach gleich?
Gerade in Spielen würde ich das nicht tun. Siehst ja bei 12700k vs 12900k. Da gewinnt nur der Takt vom i9, nicht die E-Cores.
 
Zurück
Oben