News Core Ultra 9 285K im Benchmark: Die schnellen P-Kerne von Intel Arrow Lake zeigen sich

Slayn schrieb:
Das war schon immer so, dass das teuerste Modell den höchstens Takt hat.
Weiß ich und ändert nix an meiner Aussage.
Ist aber auch egal, da es nicht so wichtig ist.
 
Ich würde das nicht als gutes Zeichen sehen synthetische bench sagen nix spiele sind primär Latenz affin =Takt sekundär ipc mit cache
Angeblich soll der tsmc n3e node hier bis zu 5,7ghz ermöglichen woran ich zweifle die nxe node ist für perfekten sweetspot ausgelegt was bei x86 grob 5,0ghz sind. (1,1v)
Alles darüber wird teuer in tdp womit die chips extrem heiß werden.
Also muss die ipc mit cache das auffangen und da ist bekannt das es keinen riesigen L4 cache gibt wie einst broadwell (2014 broadwell desktop) hatte
Folglich kann man froh sein wenn die gaming perf. um 5% steigt und vs amd x3d sogar verliert da hier der cache fehlt.
ich wäre ja mal froh bei nenn CPU test die gpu load werte mit tbp Werte angegeben würden das klärt einiges auf.
Die spiele wird es schwieriger mangels fehlender rtx4090 nur soviel sicher weis ich das farcry 6 definitiv selbst in 2160p in cpu limits kommt das spiel hat dxr und bevorzugt nicht nvidia.
Dann noch cyberpunk 2077 das kann cpu limitierend sein in normalen dxr Pt modus ist selbst ne rtx4090 zu langsam
Und als letztes und mit den engines ne alltags engine zu nutzen ein ue5 spiel wie manor lords

Nun wenn intel neuer sockel der sowieso EOL ist müssen die preise sehr aggressiv sein. Sonst wird das nix.
 
Haben die Passmark Entwickler endlich ihre Software so angepasst, dass auch die neue Intel Generation gut darsteht. Dagegen ist Geekbench ja seriös.
 
  • Gefällt mir
Reaktionen: iron_monkey, Viper816, Dittsche und eine weitere Person
RogueSix schrieb:
@phanter

Es ging mir dabei vor allem um den Node-Sprung. AMD haben gemäß Eigenwerbung und in Teilen durch die Reviews bestätigt einen 16% Zuwachs von Zen 4 auf Zen 5 hingelegt und dies auf der "gleichen" (nicht selben!) Node (5nm), wenn auch der Zen 5 5nm Prozess namens "4nm" mit Optimierungen gegenüber dem Zen 4 5nm Prozess ausgestattet ist.

In Anbetracht dessen muten die je nach Leak übrigens teils nur einstelligen Zuwächse bei Arrow Lake (gegenüber Raptor Lake) relativ bescheiden an, wenn wir berücksichtigen, dass wir nominell einen Mega-Satz hinlegen von Intel 10nm auf TSMC 3nm.

Wenn man dem für Intel irgendwie einen positiven Spin abgewinnen wollte, dann könnte man vielleicht sagen, dass Intel 10nm wohl doch gar nicht sooo weit hinter TSMC 3nm liegt wie man es annehmen sollte, aber ich glaube das Problem liegt an anderer Stelle, nämlich unter anderem daran, dass die CPU ursprünglich für Intel 20A geplant war und es da "Portierungsverluste" gegeben hat.
Naja eine Node-Wechsel an sich bringt ja keinen IPC Gewinn oder Verlust. Das ist ja Blödsinn.
Die IPC Entwicklung ist Hauptsächlich von der Architektur abhängig.

Fortgeschrittene Nodes machen ja nur andere (breitere) Architekturen möglich auf der selben Fläche, durch die erhöhte Transistordichte. Der Sprung von 20A auf 3nm hat da gar nichts geändert außer die maximal möglichen Taktraten.

Zen 3 auf 3nm hätte die selbe IPC wie Zen 3 auf 7nm
Zen 5 auf 7nm hätte die selbe IPC wie auf 4nm nur halt bei doppelter Die size

Klar werden immer größere Architekturen unpraktikabel auf alten Nodes. Aber da erhoffst du dir einfach unrealistische Dinge
 
  • Gefällt mir
Reaktionen: TomH22
stefan92x schrieb:
Warum sollte man im Test eine CPU künstlich limitieren?
In dem Fall um zu sehen, ob die neuen nativen Kerne auch im MC besser sind als die alten Kerne. Also ich hätte das gerne zusätzlich gesehen, nicht stattdessen. Zudem gab es je nach Anwendungsgebiet die Aufforderung wegen Meltdown und Spectre auch die HT im BIOS / UEFI abzuschalten. Das war z.B. am Anfang im VMware ESXi Umfeld der Fall, als es noch keine Patche gab.
 
  • Gefällt mir
Reaktionen: stefan92x und Gee858eeG
der 10.10 wird definitiv ein Interessanter Tag, kann mir gut vorstellen das AMD Intel noch die Show versaut und zusammen mit Turin/Instruct auch noch zumindest den 9800x3d teasert.
werde mir den Do abend definitiv frei halten :)
 
Icke-ffm schrieb:
der 10.10 wird definitiv ein Interessanter Tag, kann mir gut vorstellen das AMD Intel noch die Show versaut und zusammen mit Turin/Instruct auch noch zumindest den 9800x3d teasert.
Vielleicht nicht direkt, aber es ist ja absolut denkbar, dass AMD auch direkt Turin-X mit vorstellt oder zumindest anteasert (also den Epyc mit X3D) - dann dürfte man grundsätzlich schon einiges über die Umsetzung erfahren, selbst wenn von Ryzen 9000 überhaupt keine Rede sein sollte (wovon ich eigentlich eher ausgehe)
 
spfccmtftat schrieb:
Intels TDP bezieht sich auf den Basistakt.
wieso geben sie den überhaupt an?
der hat mir der Realität 0.0 gar nix zu tun

da könnte ich genauso schreiben, mein Porsche verbraucht bergab mit rückenwind nur 1 Liter
 
  • Gefällt mir
Reaktionen: iron_monkey
5,5 GHz Taktfrequenz scheint die physikalische Grenze für aktuelle CPUs zu sein, mehr geht nicht?!
 
Ja weil je höher desto heißer und stromhungriger. Bei AMD ist der sweet put bei 4,8 GHz. Alles drüber kostet mehr Strom als es Leistung liefert. Bei Intel wird es da wohl auch einen Punkt geben wo es mehr kostet als es die mehrleistung wert wäre.
 
  • Gefällt mir
Reaktionen: blende11
Wir werden sehen wie die neuen Intel-CPU's gegenüber den AMD's schlagen in Leistung und Verbrauch, wenn die Modelle verfübar sind und in den Redaktionen getestet werden können.
Bis dahin ist das alles Spekulatius.
 
  • Gefällt mir
Reaktionen: 0Problemo und Jack3ss
Ich werde mir eine CPU aus den Aktiengewinnen von Intel gönnen.... Oh mist, bleibe wohl beim 13700K ;)

Aber ohne Witz, schlecht sehen die CPUs nicht aus, bin sehr gespannt auf die Benchmarks - vor allem Gaming.
 
Bei dem Umstieg ist keine Eile notwendig. Wahrscheinlich wird der erste Refresh alles besser machen wie diese Generation hier.
Und wenn der Verbrauch unter dem eines 12900KS liegt ist das völlig ok. Weil er liefert ja scheinbar mehr.

Haben zwar alle Lust den auszuprobieren aber gerade bei den Mainboards ist das wieder ein technisches Fragezeichen, BIOSfehler und Co.
Da die Preise auch überzogen sein werden gibts noch weniger Grund für den Umstieg.
DDR5 legt auch gerade enorm zu, wahrscheinlich lohnt der richtige "Reset" erst wenn wir bei DDR5-9600+ angekommen sind. Jetzt DDR5-6000 kaufen ist wieder reines Mittelmaß.

Und Singlecore Performance finde ich sehr wichtig. Managerspiele freuen sich, Racinggames auch. Die unoptimierten Releases legen dann auch zu.
 
  • Gefällt mir
Reaktionen: Gee858eeG
Habe ich das richtig verstanden. Man bietet beim Topmodell eine Multicore Leistung auf Niveau eines Ryzen 9900X an? Das mit komplett neuer Architektur und TSMCs derzeit bestem und teuerstem Massen-Fertigungsprozess (3nm)?
 
Lutscher schrieb:
Intel würde mal ein nativer 16 Kerner mit moderatem Stromverbrauch gut zu Gesicht stehen.
Auf den warte ich seit der 78xx X Serie (hatte den 7820X), nur leider wurde die HEDT Serie ja eingestampft, finde ich bis heute schade.
 
nebukadnezar.ll schrieb:
Wer spielt das schon? Außer Dir? 🤣🤣🤣🤣 Das wird doch nie fertig, kostet am Ende 3 Mrd.$, wird seit 2010 entwickelt und am Ende macht sich Chris mit 1 Mrd. $ auf und davon. 2 Mrd. $ hat er vorher für Drogen und schnelle Autos ausgegben, den Rest verprasst.

Die neuen intels würden mich interessieren, will mein 12900K als WohnzimmerMediaPC in Rente schicken.

Kommt eigentlich bald ein 295K Spitzenmodell? Ähnlich wie bei den KS-Modellen? Also nach Marktstart der 285k etc.
Ich hoffe auch das noch ein höheres Model kommt, der 285k ist mir zu Lame :D...
 
  • Gefällt mir
Reaktionen: nebukadnezar.ll
@0Problemo in dem eine richtige Last herscht wo die CPU so richtig ausgelastet wird.Ich habe ein Video beweis wo man sieht wo da 270 Watt von einem 9950x anliegt.Sparsam ist das ja nicht.Ich habe ja sowas wie beim Vorgänger mit 200 Watt anliegend vorgestellt gehabt.Aber das scheint bei AMD eben doch nicht so zu sein.Dafür liegt mehr allcore Takt an als beim Vorgänger.Ob es 5,4 oder 5,1 oder gleich viel aber dafür durch die größere Breite mehr Strom verbraucht kann ich nicht sagen.Oder weil die CPU etwas kühler ist,kann dieser mehr Luft beim Allcore Takt anliegen und so mehr Strom verbrauchen.So die Theorie.War aber vor dem Code Anpassung durch AMD und Windows gewesen.
 
Zurück
Oben