News Intel Arrow Lake: Händler bestätigt Startaufgebot und nennt erste Preise

Ich weiß nicht warum hier einige über Intels Preise meckern - denn AMD ist bei gleicher Leistung durch die Bank weg teurer.

Erscheinungspreise (extra Ryzen 7000 vs 14 gen):

1725972873929.png


Bei aktuellen Straßenpreisen ist auch Intel besser. Will die jetzt nicht verteidigen oder so aber euer Gefühl trügt.
 
  • Gefällt mir
Reaktionen: Brrr und Frantik54
@StefanDW vor allem sind das für Arrow Lake vorab geleakte Preise, bei denen niemand weiß, ob die wirklich so ausfallen werden, oder noch nicht endgültig festgelegt sind. Ebenso weiß noch niemand, wie die tatsächliche Leistung aussehen wird. Leuten, die jetzt schon über die Preise meckern, kann man einfach nicht mehr helfen.
 
Ganjaware schrieb:
Weiß man schon, wie potent die iGPU im Vergleich zu einer AMD 890M ist, über Google konnte ich nichts finden?
Mit 64 EUs wäre die GPU bei 512 Shadern und damit nur bei halb so vielen wie die 890M oder die Lunar Lake IGPU.

Größere iGPUs wird es bei Intel sicherlich wieder primär für die mobilen Ableger geben.

Allgemein soll Battlemage als Architektur viel an den Auslastungsproblemen der GPU in Spielen tun und damit näher an die theoretische Leistung in Benchmarks rücken. Gerade mit dem Fertigungsvorteil (3nm gegen gereiften 5nm TSMC Node) kann es da für AMD gefährlich werden.
 
Tatsächlich bin ich schon gespannt wie lange nicht mehr bei Intel.
Seit dem letzten echten 10-Kerner (10900) und den neuen ewigen Pseudo 8-Kernern mit P/E-Core-Käse hat mich kein Release mehr so interessiert.
 
  • Gefällt mir
Reaktionen: craxity
duskstalker schrieb:
bevor man sich über die preise beschwert, würde ich erst einmal den launch mit den offiziellen preisen abwarten.
Die Preise in GB werden höher sein als in Deutschland. Die Plattform kosten sind das spannende.

Es steht und fällt mit den Plattform kosten. Wie immer halt
 
  • Gefällt mir
Reaktionen: duskstalker
Die Frage bei der iGPU ist einfach was können die Treiber. Sieht halt immer noch nicht so gut aus bei den GPUs. Wie immer ECC nur auf dem Workstation Chipsatz. Die Namen sind einfach überall bescheuert. Sei es AMD, Intel, Nvidia.
 
Syrato schrieb:
ind die neue E Cores dieses Mal zum Zocken geeignet
Waren die aktuellen auch schon , wo kommt nur dieses denken her das die e cores nichts könnten bzw übermäßig langsam waren ? Da sollte Intel Mal ihre Werbeabteilung ransetzen

Wenn man Mal überlegt was die e Kerne als machen könnten oder tun vielleicht mehr Wunschvorstellung

Die e Kerne könnten während des zocken Windows stemmen ... Die Anti-Cheat Programme der Spiele und sonstiges nebenher laufen lassen so das die p Kerne rein das Spiel antreiben
 
  • Gefällt mir
Reaktionen: TechFunk
scryed schrieb:
Waren die aktuellen auch schon , wo kommt nur dieses denken her das die e cores nichts könnten bzw übermäßig langsam waren ? Da sollte Intel Mal ihre Werbeabteilung ransetzen
Die Leute wollen Performance, und Intel war doof genug, die großen Kerne "Performance-Cores" zu nennen. Logischerweise bringt alles andere also keine Performance. Die Benennung P/E war von daher von Beginn an für die Tonne und rächt sich seitdem durchgehend im Marketing.
 
  • Gefällt mir
Reaktionen: Alesis
hab das jetzt nicht so akribisch verfolgt, aber sollten die nicht ohne e-cores kommen ?
 
@DeVIce Nein, sollten sie nicht. Aber die E-Cores sind massiv aufgebohrt worden und sollen jetzt ungefähr auf dem Niveau der P-Cores von Raptor-Lake sein. Der Unterschied zwischen P/E-Cores ist also deutlich geringer.

Wirklich "nur P-Cores" soll Bartlett Lake bekommen, aber den wird man als PC-Kunde nicht zu sehen kriegen, das wird im Prinzip eine Embedded/Server-Lösung werden.
 
StefanDW schrieb:
Ich weiß nicht warum hier einige über Intels Preise meckern
Geekbench ist mit Verlaub, die schlechte Vergleichsmöglichkeit. Das ist wie, wenn wir Userbenchmark nehmen.
Geekbench sagt am Ende nichts aus, daher kann man nur die Vergleichbarkeit wie es CB macht, über einen Parkours oder meinetwegen noch PCmark machen...Aber auch hier wird es schwer.

Dieser Vergleich ist am Ende Äpfel mit Birnen. Das ist wie, wenn ich MSRP eines 9700X mit Abverkaufspreisen eines 5800X3D vergleiche..

Ach ja der 14900 kostete als MSRP 699,99$ ;)

Also Stefan, ich hoffe du hast verstanden, worauf ich hinaus will.
 
  • Gefällt mir
Reaktionen: craxity, In_Sanity und Alesis
Weiß man, ob dann auch direkt schon Boards mit CAMM2 an den Start gehen? Oder kommt das erst später?
 
Ripcord schrieb:
Hätte schon mal wieder Lust auf einen Intel, vor allem wegen Ram-OC. Das bleibt bei AMD abgesehen von den Latenzen völlig auf der Strecke
Das stimmt aber so nicht. Du kannst Dir mit RAM-OC einen echten Killer 7800x3d basteln, siehe Testreihen in der PCGH.
Und: Der Speichercontroller in den ZEN 5 aber auch schon bei den bei den 8000er APUs frisst RAM so schnell wie Du ihn bringen kannst, ohne Gezicke. Da ist - siehe auch Test hier auf CB - mehr möglich als bei Intel.

Ob das ein Kaufgrund ist, ist ein anderes Thema.
 
Quidproquo77 schrieb:
ist die Spieleperformance etwa 15% über einem 7800X3D/14900KS.
Woher soll die zusätzliche Spiele Performance kommen? Intel verspricht 14% IPC, aber bei gleichzeitig reduziertem Takt (-8%), da wird nicht all zu viel übrig bleiben. Beim Cache hat man im Prinzip eine zusätzliche Ebene mit 192kb eingezogen, aber sonst?
 
  • Gefällt mir
Reaktionen: craxity, Quidproquo77 und dernettehans
@DerRico Hätten die 8000er nicht den L3 Cache halbiert bekommen wäre solch eine CPU eine Überlegung wert. So macht es aber nicht wirklich Sinn eine kastrierte CPU zu kaufen nur um den Ram weit übertakten zu können. Wirklich schade eigentlich.
 
Gibt es eigentlich irgend einen Grund, wieso Intel bisher keine CPUs mit größetem Cache rausgebracht hat wie den 3dcache von AMD? Ich hatte mein ich mal vor 2 Jahren gelesen, dass Intel das eigentlich machen wollte. Das ist wohl auch wieder eingestampft worden.
Ergänzung ()

Quidproquo77 schrieb:
ist die Spieleperformance etwa 15% über einem 7800X3D/14900KS.
Ohne größeren Cache dann auch mit 10x mehr Stromverbrauch. Da bleib ich lieber beim 7800x3d der 35w verbraucht in Games, als 250w.
 
No 6 Ghz, no buy.
 
dernettehans schrieb:
Da bleib ich lieber beim 7800x3d der 35w verbraucht in Games, als 250w.
Mehr konntest du wohl nicht übertreiben? Trollst du nur oder stellt du nur deine Ahnungslosigkeit zur Show?
 
  • Gefällt mir
Reaktionen: M11E und Der_Rolf
guggi4 schrieb:
Woher soll die zusätzliche Spiele Performance kommen? Intel verspricht 14% IPC, aber bei gleichzeitig reduziertem Takt (-8%), da wird nicht all zu viel übrig bleiben. Beim Cache hat man im Prinzip eine zusätzliche Ebene mit 192kb eingezogen, aber sonst?
Um jetzt mal zu spekulieren. Es ist wohl eine Mischung aus mehreren Dingen. Zum einen ist es der Wegfall von SMT, der ein paar Prozent mehr Leistung einbringt, zum anderen die gestiegene IPC und der höhere Takt des Arbeitsspeichers und CAMM2 Support.

Jetzt wird zwar gesagt der Ring taktet nur mit 3,5 Ghz, was ich für falsch halte, aber das wäre im Grunde eine Bremse für mehr Spieleleistung, da die Latenz so erheblich steigen würde. Dann wäre es natürlich nichts mit 15%, sondern eher keine Steigerung.

Da Intel allerdings schon seit 2022 von AMD´s 3DCache weiß, sollte Intel die Cache-Struktur so geschaffen haben, dass die Latenzen nur gerinfügig oder besser gar nicht ansteigen.
guggi4 schrieb:
Beim Cache hat man im Prinzip eine zusätzliche Ebene mit 192kb eingezogen, aber sonst?
Ja und die 192kb 12-fach assoziativ, sollte die Umstellung auf Chiplets und zusätzlicher Latenzen entgegenwirken bzw. ausgleichen. So genau kann das aber keiner sagen. Da hilft nur abwarten.
 
Zuletzt bearbeitet:
Zurück
Oben