News Intel Arrow Lake: Händler bestätigt Startaufgebot und nennt erste Preise

Quidproquo77 schrieb:
Das ist allerdings keine Eigenschaft der CPU, das ist einfach nur ein anderer Formfaktor für bekannten RAM. Es kann aber sein, dass CAMM2-Module bessere Signaleigenschaften (und damit Übertaktbarkeit) als DIMM bieten, aber das ist dann eben unabhängig von der CPU, sondern hängt vom Board ab..
 
mscn schrieb:
ich freu mich drauf und bin gespannt!
Geht mir auch so. Nicht weil es Hersteller XY ist, sondern einfach weil ich neue Produkte im Hardwarebereich immer interessant finde.
 
Quidproquo77 schrieb:
Um jetzt mal zu spekulieren. Es ist wohl eine Mischung aus mehreren Dingen. Zum einen ist es der Wegfall von SMT, der ein paar Prozent mehr Leistung einbringt, zum anderen die gestiegene IPC und der höhere Takt des Arbeitsspeichers und CAMM2 Support.
Der Wegfall von SMT bringt an Sich überhaupt keine "Leistung". Wie soll das auch gehen? Der Wegfall kann höchstens dazu führen, dass man mehr Transistoren für andere Sachen spendieren kann (dann steigt evtl. die IPC) oder man kann bei gleicher Fläche die Transistordichte reduzieren (dann steigt evtl. der Takt).
Der "Benefit" des Wegfalls von SMT steckt also schon in den 14% IPC bzw. in dem 5,7 GHz hohen Takt drin. Da kommt nichts oben drauf.

Selbst bei perfekter Skalierung der IPC in Gaming, kommen da rechnerisch also nur 5% mehr Leistung raus im Vergleich zum 14900KS:

(5,7 / 6,2) * 1,14 = 1,05

Evtl. stapelt Intel da irgendwo noch tief, aber da die sooooo ruhig sind was Arrow Lake angeht glaube ich nicht, dass das viel mehr wird.
 
  • Gefällt mir
Reaktionen: craxity, PulsarS, Rockstar85 und eine weitere Person
Perdakles schrieb:
Der Wegfall von SMT bringt an Sich überhaupt keine "Leistung". Wie soll das auch gehen?
SMT bedeutet ja, dass ein Kern zwei Threads abarbeitet, die sich die Ressourcen des Kerns teilen. Wenn ein Thread einen Kern exklusiv nutzen kann, kann dieser Thread schneller sein, weil er sich nichts teilen muss, es keine Kontext-Switches im Kern gibt etc.

Das ist ein altbekanntes Phänomen, und lässt sich einfach runterbrechen auf die Formel: Sobald ich genug Kerne für alle aktiven Threads habe, kann ich SMT abschalten um schneller zu werden. Ist gerade beim Gaming ja seit vielen Jahren bekannt, dass es sinnvoll sein kann, SMT abzuschalten (gerade auf den Spitzenmodellen mit vielen Kernen - kleine Modelle mit Kernmangel profitieren eher). Das wird bei Arrow Lake einfach der Standardfall.

Oder anders gesagt ist die Frage: Optimiere ich meinen Chip auf "Multi Thread" (=SMT off) oder "Many Thread" (=SMT on)?

Gaming ist in dem Sinne halt Multi-Thread
 
  • Gefällt mir
Reaktionen: Brrr, Quidproquo77 und franzerich
franzerich schrieb:
will jetzt nachträglich ein Produkt rausbringen (Arrow Lake), das noch Xe1 Grafik hat.
Weil die Grafik in solchen CPUs schon immer völlig irrelevant war. Intel hat Lunar Lake CPUs für Notebooks und Handhelds ohne dGPU und Arrow Lake bedient primär Office-PCs und Geräte mit dGPU, da wäre Xe2 Perlen vor die Säue.
 
Ich hätte schon Interesse an einer neuen cpu. Inzwischen arbeite ich öfters mit Bild und Videobearbeitung. Da schneidet Intel wegen den vielen Kernen immer recht gut ab. Dennoch ist die Gaming-Performance für mich am wichtigsten.
 
scryed schrieb:
Waren die aktuellen auch schon , wo kommt nur dieses denken her das die e cores nichts könnten bzw übermäßig langsam waren ?
Das sage ich dpchh gar nicht!
Ich habe nur gefragt, ob die neue E Cores zum Spielen genutzt werden können. Weil es die jetzigen nicht können. Egal ob sie Windows oder Programm xyz, ich würde es gerne für Spiele wissen.
In TWW3 nutzt 8/16 oder noch besser 12/24 oder 16/32. Bei Intel werden nur die P Kerne genutzt und alle E Kerne bringen fürs Spiel nichts.
Ich hoffe Jan und Volker testen das.
 
Zuletzt bearbeitet:
xexex schrieb:
Weil die Grafik in solchen CPUs schon immer völlig irrelevant war.
Ist das so? Dachte die Media Engine / Quick Snyc ist dort verortet. Sprich: mit Xe2 gäbes ggf. mehr Unterstützung bei Decode/Encode divererser Codecs wie AV1, H266, ...
 
dernettehans schrieb:
Tut mir leid, da war in der Tat ein Fehler in dem Satz. Grad nachgesehn. Es sind 270W bei Intel als 250W beim 13900K.
Das hört sich schon besser an. Bissl mehr geht sicher noch:evillol:
 
  • Gefällt mir
Reaktionen: M11E und Quidproquo77
ich glaube diejenigen die es gewohnt sind mit intel zu hantieren werden weiterhin intel hardware nutzen, weitestgehend ungeachtet dessen ob die cpu's mehr verbrauchen oder an der "kotzgrenze" betrieben werden - jedenfalls scheint das für die interessenten bisher auch nicht der dealbreker gewesen zu sein.
wenn, dann wird ein anteil in dieser runde die frage der plattformkosten sein; wenn die direkten konkurenten bei den cpu-modellen 20-30 euro auseinanderliegen, wird das wohl auch kaum entscheidend sein.
wenn aber dann noch die board kosten dazukommen wird es schon interessanter...
 
dernettehans schrieb:
Gibt es eigentlich irgend einen Grund, wieso Intel bisher keine CPUs mit größetem Cache rausgebracht hat wie den 3dcache von AMD? Ich hatte mein ich mal vor 2 Jahren gelesen, dass Intel das eigentlich machen wollte.
Sie hatten den 5775c - der war richtig geil, keine Ahnung, warum das nicht weiterverfolgt wurde. Ansonsten hat die 13. ggü. der 12. Generation genau mit dem Cache die grossen Sprünge im Gaming gemacht: 13900k hat 32 + 36MB, 12900k noch 14 + 30MB.
 
  • Gefällt mir
Reaktionen: dernettehans
Der Puritaner schrieb:
Ich denke mal, wenn ihr die echten Herstellungspreise wissen würdet, würde sich der ein oder andere ganz schön wundern. Habe neulich, ein Papier gelesen, wo die echten Herstellungspreise von NVIDIA zu lesen waren, da wurde mir auch ganz anders.
Wo haste denn das gelesen? TSMC ist doch bekanntlich sehr verschlossen wenn es um die Waferpreise ihrer Kunden geht. Zumal sie ja Kunden noch nicht mal unbedingt gleich behandeln und man aus Interviews herauslesen kann, dass Nvidia KI Chips nochmal anders behandelt werden. Ein paper zu dem Thema würde mich aber durchaus interessieren.
 
  • Gefällt mir
Reaktionen: Rockstar85
DerRico schrieb:
Sie hatten den 5775c - der war richtig geil, keine Ahnung, warum das nicht weiterverfolgt wurde.
Ich vermute, dass hier die BWLer das Sagen hatten.. Broadwell war sehr teuer in der Fertigung und die Übertaktbarkeit war ja eher Semi.. Daher vermute ich, dass es eine hohe Ausfallquote gab.
 
  • Gefällt mir
Reaktionen: Smartbomb, craxity und dernettehans
Ganjaware schrieb:
"Core Ultra 9 285T ... Graphics 64EU integrated graphics solution."
Weiß man schon, wie potent die iGPU im Vergleich zu einer AMD 890M ist...?
Bruhtang schrieb:
Mit 64 EUs wäre die GPU bei 512 Shadern und damit nur bei halb so vielen wie die 890M oder die Lunar Lake IGPU.

Man könnte die praktische Leistung grob einschätzen, z.B. bei Notebookcheck:

Vergleich von Graphics 4-cores, Arc-8 Cores, Radeon 890m

Average Gaming Intel Graphics 4-Cores iGPU → 100%
Average Gaming Intel Arc 8-Core iGPU → 160%
Average Gaming AMD Radeon 890M → 202%

"Intel Graphics 4-Cores" = 4 Xe1 Einheiten = jene Grafikausstattung, die auch Arrow Lake bekommen soll.

Im Vergleich zur Notebook-Variante mit 4 Xe1-Einheiten könnte die Desktop-Variante mit 4 Xe1-Einheiten jedoch ein bisschen schneller sein. Denn bei der Notebook-Variante ist stets nur ein Prozessor mit 2 P-Kernen verbaut. Ein Arrow Lake 245K hat hingegen schon 6 P-Kerne. Und mehr P-Kerne bringen meist auch Performance (auch beim Gaming).

Meine Einschätzung ist, dass die Xe1 Grafik von Arrow Lake dieselbe Performance haben wird wie ein AMD 5700G - bestenfalls eines 8500G. Wäre es hingegen eine Xe2 Grafik, könnte es sich einem 8600G annähern - was ziemlich stark wäre. Aber wie gesagt, ich glaube nicht dass Arrow Lake eine Xe2 Grafik bekommt.

xexex schrieb:
Weil die Grafik in solchen CPUs schon immer völlig irrelevant war. Intel hat Lunar Lake CPUs für Notebooks und Handhelds ohne dGPU und Arrow Lake bedient primär Office-PCs und Geräte mit dGPU, da wäre Xe2 Perlen vor die Säue.
Seit APUs mehr Bedeutung erlangt haben, ist es nicht mehr irrelevant. Und es ist auch nicht irrelevant für Leute mit gemäßigten Multimedia- und Gaming-Ansprüchen. Ist doch toll, wenn man sich nicht extra eine Grafikkarte besorgen muss? Und wenn Intel eine gute iGPU liefert, hätte man auch eine Alternative zu AMDs 8000G-Serie. Außerdem soll Arrow Lake laut Intel das ganze Spektrum bedienen von Desktop bis Notebook. Deswegen spielt die iGPU auch eine größere Rolle.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ganjaware
mscn schrieb:
Möglicherweise unpopuläre Meinung aber: ich freu mich drauf und bin gespannt!
Eigentlich ist es schade, wenn man das schon so schreiben muss 😕

Ich würde aktuell zu AMD tendieren und freue mich trotzdem auf einen guten Intel Chip. Konkurrenz ist doch für alle gut. Dann purzeln die Preise und keiner ruht sich aus.
 
  • Gefällt mir
Reaktionen: Perdakles, 7H0M45, ComputerJunge und 3 andere
franzerich schrieb:
Und es ist auch nicht irrelevant für Leute mit gemäßigten Multimedia- und eingeschränkten Gaming-Ansprüchen.
Dann kauf dir einen Lunar Lake NUC, der sollte perfekt passen. Es ist nichts neues, dass Intel grundsätzlich die "stärksten" Grafikeinheiten nur in CPUs verbaut die für den Mobilbereich vorgesehen sind und es hätte mich gewundert wenn es diesmal anders wäre.
 
@xexex Wenn es die Möglichkeit gibt eine APU in modularer Form zu erhalten (aka gesockelt), und in einen modularen PC einzubauen, ist diese Möglichkeit meines Erachtens nach deutlich vorzuziehen gegenüber einer "Fix-und-Fertig-Box".
 
Hallo,

und wieder müsste ein neues MB her. Nachhaltig ist Intel nicht.

Da bleib ich doch lieber bei AMD. Die Zeiten das ich eine Intel CPU gekauft habe, sind erstmal vorbei.
 
DFFVB schrieb:
Bisschen teuer, dafür dass Intel gerade eh nicht so gut dasteht?
Ich denke die meisten 0815 Nutzer wissen nichts von dem Debakel - schade eigentlich.
 
Zurück
Oben