News Intel Arrow Lake: Händler bestätigt Startaufgebot und nennt erste Preise

Das wird ganz interessant, freue mich auf die Tests. 245K(F) und 265K(F) könnten sowohl für Gaming als auch produktive Arbeiten von der Preis-Leistung her an AMD vorbei ziehen. Der Herbst wird wenigstens bei den CPUs richtig spannend.
Hoffentlich gibt es auch noch was bei den GPUs.
 
franzerich schrieb:
ist diese Möglichkeit meines Erachtens nach deutlich vorzuziehen gegenüber einer "Fix-und-Fertig-Box".
Also haben wir jetzt eine Schnittmenge!

Leute die einen PC statt eines Notebooks vorziehen, die lieber selbst bauen statt fertig kaufen und die laut deiner Aussage trotzdem keine Ansprüche an Gaming oder Multimedia haben. Wie groß mag da der Markt sein? Natürlich könnte man eine solche Nische zu bedienen versuchen, macht AMD seit längerem, aber mit Erfolg?

Die Aussage war jedoch, wie kann es denn sein, Alder Lake würde mit Xe1 kommen. Wenn man sich die Geschichte der Intel CPUs anschaut, wäre alles andere mehr als verwunderlich.
https://en.wikipedia.org/wiki/Intel_Graphics_Technology
 
mscn schrieb:
Möglicherweise unpopuläre Meinung aber: ich freu mich drauf und bin gespannt!
Ich freu mich auch riesig drauf!
 
  • Gefällt mir
Reaktionen: mscn
@Brrr na so optimistisch wäre ich da nicht bei der Betrachtung der Specs werden beide doch langsamer sein müssen da ihnen deutlich takt fehlt wenn sie sich an die 125Watt halten werden.
 
Also die Einschätzung, dass erste Benchmarks "vielversprechend" aussehen, kann ich überhaupt nicht teilen. Das ist maßlos enttäuschend dafür, dass wir von Raptor Lake in 10nm auf die teure TSMC N3B Node springen, um nicht das Wort "katapultieren" zu benutzen, denn rein auf dem Papier geht es ja richtig vorwärts.

Dass es dann aller Voraussicht nach lediglich so ein mickriges, erbärmliches Leistungsplus geben wird, ist schon hochgradig armselig von Intel.
Immerhin könnte sich als Trostpflaster aber das Performance- vs. Effizienzverhältnis deutlich verbessern. Man muss bei Intel auch in 2024 schon mit den kleinen Dingen zufrieden sein...

Trotz dessen werde ich meinen degradierten Raptor Lake Müll wohl tatsächlich gegen ein Arrow Lake System eintauschen.
Was AMD da (nicht) abgeliefert hat, ist ja noch enttäuschender. Vor allem haben sie X870E ja völlig versemmelt. So ein Board kann ich unmöglich kaufen. Wegen des USB 4.0 Zwangs haben wir da Lane-Sharing aus der Hölle. Ich möchte gerne drei M.2 SSDs in vernünftig platzierten Slots verbauen. Das ist bei sämtlichen bisher vorgestellten Boards (mein Favorit ist und bleibt ASUS) nicht möglich.

Dazu sind auf den Boards dieselben alten Promontory 21 Chips. Diese werden mit an Sicherheit grenzender Wahrscheinlichkeit also keine Verbesserungen zum Beispiel beim Idle-Betrieb erhalten haben.
Das ist schon sehr enttäuschend. In den zwei Jahren hätte AMD mMn definitiv neue Promontory Revisionen auflegen müssen (ebenso wie einen neuen IOD bei den CPUs selbst).
Es gab von AMD mal eine vollmundige Folie beim... ich glaube Zen 3 Release, wo sie von "relentless innovation" gesprochen hatten. Das war dann wohl mal der berühmte Satz mit "x".

Was bleibt? Ich könnte mir jetzt ein über zwei Jahre altes X670E Board holen und da erst mal den derzeit um gut €70 zu teuren 7800X3D rein stöpseln, um diesen dann später gegen 9800X3D zu tauschen.
Das würde sich aber irgendwie echt doof anfühlen. X670E ist nun mal bald 2+ Jahre alt. Och nööö...

Daher werde ich mir wohl tatsächlich Anfang November eine Arrow Lake Möhre zulegen "müssen". Da bekommt man dann wenigstens aktuelle Hardware, mehr Lanes ohne Sharing (hoffentlich macht ASUS das ordentlich bei den Z890 Boards) und da Intel nicht selbst fertigt, können sie auch hoffentlich nix kaputtmachen :D .

Mein degradierter Raptor geht dann in die RMA. Es zeichnet sich inzwischen deutlicher ab, dass der Fritte ist. Zwar laufen die meisten Spiele und Shader Compilation noch stabil, aber mit Skull & Bones habe ich nun "endlich" ein Spiel gefunden, das regelmäßig abschmiert, was gemäß meiner Nachfrage in den Foren wohl bei anderen Leuten nicht der Fall ist.
Meine 13900K CPU könnte auch aus einer frühen Charge mit Oxidationsproblemen stammen. Intel hat da ja leider mWn keine Chargen-Nummern veröffentlicht, aber ich habe die CPU Ende 2022 gekauft, also könnte schon sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M11E, digitalfrost und DerBaronTV
RealGsus schrieb:
Bin auf die Tests gespannt und vor allem wie sich die neuen CPUs dann im Duell gegen einen Ryzen 9000 X3D schlagen bezüglich Leistung und Effizienz.

Vielleicht ist ja dann ein würdiger Nachfolger für meinen 9900k dabei, Zeit wird's 🤓
Ich warte auch noch diesen Launch ab und werde dann Preis/Leistung vergleichen. Meinem 10900k geht langsam die Puste aus.
 
2026/2027 mit Einführung von „Beast Lake“ werde ich wahrscheinlich einen neuen PC zusammenstellen, obwohl ich diese CPU Leistung eigentlich gar nicht wirklich brauchen würde, da sie für den privaten Gamer und Heimanwender völlig überdimensioniert ist.
Bis dahin bleibe ich bei meiner Intel Alder Lake CPU mit Sockel 1700.
„Arrow Lake“ lass ich unbeachtet an mir vorüberziehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tso
xexex schrieb:
Leute die einen PC statt eines Notebooks vorziehen, die lieber selbst bauen statt fertig kaufen und die laut deiner Aussage trotzdem keine Ansprüche an Gaming oder Multimedia haben. Wie groß mag da der Markt sein? Natürlich könnte man eine solche Nische zu bedienen versuchen, macht AMD seit längerem, aber mit Erfolg?

Da gibts schon einige Leute die das wollen. Und die Hardware dafür wäre auch schon längst vorhanden.

Beispiele: Asrock Deskmini, AsRock Jupiter, Minisforum MS01, Msi Pro DP21, sämtliche "Business Thin-PCs" von HP, Dell, Lenovo die denselben Formfaktor wie der Jupiter haben. Die einfach aufgebaut, mit austauschbaren Komponenten, und gesockelter CPU. Das einzige was dort noch selten modular angeboten wird, ist das Motherboard. Aber generell gibts von dieser Art Computer schon eine Menge.
Und bei diesen Geräten könnte man problemlos APUs für anspruchsvollere oder anspruchslose Kunden anbieten. Die anspruchsvolleren Kunden kaufen sich z.B. schnelleren RAM, SSD, APU, und die anspruchslosen Kunden (reine Office-Worddokument-PCs) nehmen billige Komponenten von der Stange. Da würde praktisch mit 0 Mehraufwand sämtliche Sparten bedient werden.

Diese Art von Computer wäre auch deutlich besser als ein starrer, festgelöteter NUC. Der NUC ist einfach zu klein für Modularität, hat eine scheiss Wartbarkeit, und eine scheiss Anschlussausstattung. Dass der Markt sich so auf NUCs fokussiert ist einfach nur Scheisse. Meines Erachtens nach wird so ein NUC als "Wegwerfgerät" vermarktet. Wenn irgendwas kaputt geht, soll sich der Kunde ein komplett neues Gerät kaufen...
Aber das bedeutet nicht, dass es nicht besser sein könnte. Deswegen empfinde ich es auch als positive Entwicklung, wenn Intel und AMD in ihrem Portfolio auch "gesockelte CPUs mit anspruchsvollerer iGPU" anbieten. Damit man nicht abhängig von den Unzulänglichkeiten der NUCs ist.
 
Zuletzt bearbeitet:
franzerich schrieb:
Beispiele: Asrock Deskmini, AsRock Jupiter, Minisforum MS01, Msi Pro DP21, sämtliche "Business Thin-PCs" von HP, Dell, Lenovo die denselben Formfaktor wie der Jupiter haben.
Welcher "Business Thin-PC" verlangt nach einer möglichst potenten iGPU? Du konstruierst einen Markt wo kein Markt ist, dein "Minisforum MS01" wird zum Beispiel mit einer RTXA2000 als Option vermarktet, daran würde auch die potenteste iGPU nichts ändern.
Ergänzung ()

franzerich schrieb:
Meines Erachtens nach wird so ein NUC als "Wegwerfgerät" vermarktet.
Alle OEM PCs sind als "Wegwerfgeräte" gebaut, weil sie schlichtweg von 99,999% der Nutzer nach der Nutzung weggeworfen werden. Kein Mensch würde heutzutage im Business Bereich daran auch nur im Ansatz denken, irgendwelche Geräte auf- oder umzurüsten.
 
Zuletzt bearbeitet:
xexex schrieb:
Welcher "Business Thin-PC" verlangt nach einer möglichst potenten iGPU?
Business-PCs wo Grafikarbeiten erledigt werden müssen? Medienverlage, Zeitungen? Auch Photoshop, einfacher Videobearbeitung usw. profitieren von einer besseren iGPU, während eine dGPU meist Overkill wäre.

Die Nische, die du einer APU unterstellen willst, ist in Wirklichkeit gar keine Nische. Es wurde bisher nur immer so gehandhabt, dass man für "grafisches Zeug" eine dGPU kaufen muss, weil "das macht man halt so, haben wir vor 20 Jahren gelernt, und iGPUs scheisse sind" (damals wirklich). Aber inzwischen sind viele Jahre vergangen, und es zeigt sich immer mehr, dass viele grafische Tätigkeiten auch nur mit der iGPU allein erledigt werden können, und keine dGPU mehr benötigt wird.
 
  • Gefällt mir
Reaktionen: Corpus Delicti
  • Gefällt mir
Reaktionen: E1M1:Hangar
Jasmin83 schrieb:
also kann man sagen Intel verkauft weiterhin 8 Core CPUs, das als 24 Core mit den 16E Cores zu verkaufen ist dann am Ende auch wieder nur etikettenschwindel
Schau Dir mal die neuen E-cores an. Die sind nahezu auf dem Niveau der bisherigen P-cores.

Ausschlaggebend wird hier der scheduler sein bei ~20 threads+
Ansonsten: ist ja made by TSMC, insofern könnte das ein teurer Spaß werden, aber zum ersten Mal seit Skylake vermutlich wieder SPAß - ohne Abstriche wie bisher der Sorte "ach hätte Intel nur eine vernünftige Fertigung..."

Bin auf die Preisgestaltung gespannt und natürlich das Duell mit den neuen Ryzen X3D.
 
franzerich schrieb:
Business-PCs wo Grafikarbeiten erledigt werden müssen? Medienverlage, Zeitungen? Auch Photoshop, einfacher Videobearbeitung usw. profitieren von einer besseren iGPU, während eine dGPU meist Overkill wäre.
Sie ist kein "Overkill", denn überall wo Grafikleistung benötigt wird, nutzt man auch die Fähigkeiten einer dGPU. Was hätte denn Xe2 gegenüber Xe1 zu bieten? Entweder benötige ich GPU Leistung, da brauchst du mit einer iGPU nicht zu kommen oder ich benötige keine. Wenn du glaubst es besser als Intel zu wissen, dann von mir aus.
Ergänzung ()

franzerich schrieb:
ber inzwischen sind viele Jahre vergangen, und es zeigt sich immer mehr, dass viele grafische Tätigkeiten auch nur mit der iGPU allein erledigt werden können, und keine dGPU mehr benötigt wird.
1726046688227.png

https://www.computerbase.de/2024-01/amd-ryzen-8700g-8600g-test/

Selbst die kleinsten dGPUs schlagen noch immer die intergierten Grafiklösungen. Vielleicht vergisst du in deinen "Überlegungen", in den letzten Jahren hat sich auch die Monitorauflösung mal eben vervierfacht. Es macht Sinn potente Grafiklösungen für Ultranotebooks und Handhelds herzustellen, die auf möglichst niedrigen Energieverbrauch getrimmt sind (Lunar Lake). Es macht hingegen nur wenig Sinn Chipfläche für eine starke iGPU zu verschwenden, in Geräten in denen man eine richtige Grafikkarte verbauen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
xexex schrieb:
Sie ist kein "Overkill", denn überall wo Grafikleistung benötigt wird, nutzt man auch die Fähigkeiten einer dGPU.
Es gibt einen sehr großes Spektrum an Anwendungen wo eine potente iGPU ausreichen würde, und eine dGPU unnötig ist.

xexex schrieb:
Was hätte denn Xe2 gegenüber Xe1 zu bieten?
Mehr Grafikleistung für alle möglichen Grafikanwendungen. Hab ich doch schon gesagt. Außerdem hat Intel selber erst vor kurzem ein Video gezeigt, dass mit einer Xe2 iGPU erstmals 8k Video Editing möglich ist.

xexex schrieb:
Entweder benötige ich GPU Leistung, da brauchst du mit einer iGPU nicht zu kommen oder ich benötige keine.
Wenn es nach dieser Argumentation ginge, bräuchte man niemals die iGPU verbessern. Wenn es danach ginge, könnte Intel nur 2 Xe-Einheiten verbauen statt 4 Xe Einheiten. Dann wäre es auf demselben Stand wie bei der UHD770. Trotzdem hat sich Intel entschieden die iGPU zu verdoppeln.

xexex schrieb:
Wenn du glaubst es besser als Intel zu wissen, dann von mir aus.
Ganz im Gegenteil. Du bist es, der glaubt es besser zu wissen als Intel. Du findest ja, man bräuchte keine potentere iGPU. Dabei zeigt dir Intel ja, dass es doch gebraucht wird. Also haben sie wohl gesehen, dass es doch Sinn macht. Das ändert allerdings nichts daran, dass es weiterhin einen schlechten Beigeschmack hat, wenn sie nach monatelangem Hype für die Xe2 iGPU nur Xe1 verbauen.

xexex schrieb:
Selbst die kleinsten dGPUs schlagen noch immer die intergierten Grafiklösungen.
Und brauchen sperrigere, kompliziertere Geräte, sowie Umstände beim Zusammenbau. Für eine Mehrleistung die für viele Nutzungszwecke irrelevant sind.

xexex schrieb:
Vielleicht vergisst du in deinen "Überlegungen", in den letzten Jahren hat sich auch die Monitorauflösung mal eben vervierfacht. Es macht Sinn potente Grafiklösungen für Ultranotebooks und Handhelds herzustellen, die auf möglichst niedrigen Energieverbrauch getrimmt sind (Lunar Lake). Es macht hingegen nur wenig Sinn Chipfläche für eine starke iGPU zu verschwenden, in Geräten in denen man eine richtige Grafikkarte verbauen kann.
Ich habe es nicht vergessen - du hast es vergessen! Potentere iGPUs werden ja auch genau wegen den höheren Monitorauflösungen gebraucht. Auch bei Desktop-Prozessoren ist das notwendig, nicht nur bei Notebooks. Und komm mir nicht mit Chipfläche, weil da ist genug Platz vorhanden, insbesondere beim neuen Kachelsystem von Intel.
 
franzerich schrieb:
Außerdem hat Intel selber erst vor kurzem ein Video gezeigt, dass mit einer Xe2 iGPU erstmals 8k Video Editing möglich ist.
Nochmal! WER bitteschön würde an sowas zwingend eine iGPU nehmen? Was ist mit CUDA? Was ist mit Grafikbeschleunigung? Du suchst dir jetzt seit zwei Seiten Fallbeispiele aus, die schlichtweg keine sind, aber wenn du der Meinung bist sowas hätte einen Markt, dann ist es halt so. Ich sehe es anders, Intel auch und AMD bedient diesen Markt immerhin halbwegs.
Ergänzung ()

franzerich schrieb:
Dabei zeigt dir Intel ja, dass es doch gebraucht wird.
Intel verbaut seit 10 Jahren leistungsstärkere iGPUs in ihren CPUs für Ultranotebooks. Ja Intel (und AMD) zeigt wo solche Lösungen gebraucht werden, weil dort eine dGPU nicht infrage kommt.
 
Zuletzt bearbeitet:
xexex schrieb:
Nochmal! WER bitteschön würde an sowas zwingend eine iGPU nehmen?
Wer bitteschön würde zwingend eine dGPU dazukaufen, wenn die iGPU für denselben Zweck ausreicht?

xexex schrieb:
Was ist mit CUDA?
Es werden meist auch alternative APIs unterstützt.

xexex schrieb:
Was ist mit Grafikbeschleunigung?
Wofür glaubst du, dass eine iGPU da ist?

xexex schrieb:
Entweder benötige ich GPU Leistung, da brauchst du mit einer iGPU nicht zu kommen
Siehst du, das ist das Problem. Es interessiert dich eigentlich gar nicht. Du lehnst iGPUs einfach so schon kategorisch ab. Du ignorierst auch, dass das Spektrum für "benötigte GPU Leistung" sehr breit ist. Man braucht für viele Grafikanwendungen keinen High-End Grafikchip, noch nicht mal einen Mid-End Grafikchip. Aber ein ganz beschissener Grafikchip darfs halt auch nicht sein.

xexex schrieb:
Intel verbaut seit 10 Jahren leistungsstärkere iGPUs in ihren CPUs für Ultranotebooks. Ja Intel (und AMD) zeigt wo solche Lösungen gebraucht werden, weil dort eine dGPU nicht infrage kommt.
Das stimmt doch gar nicht. Das beste was ihre Notebooks gekriegt haben, war eine Intel Iris Xe (in Vollausstattung) vor etwa 3 Jahren. Alles davor war leistungsmäßig deutlich darunter. Davor wurden überwiegend HD620 und UHD730 verbaut, sowohl bei Notebooks als auch Desktops. Und weil sie so schlecht waren, wurden die Notebooks fast immer mit (verlöteten) dGPUs kombiniert (z.B. MX150, MX940, gtx 1050m). Ein deutlicher Sprung zu besseren iGPUs hat erst mit der Iris Xe (seitens Intel) und Vega 8/5700G (seitens AMD) begonnen vor etwa 3-4 Jahren.
 
Hauptsache Intel hat aus seinen schwerwiegenden Fehler bei der 13. und 14. Core-Generation gelernt und wählt stattdessen bei Arrow Lake (wieder) eine gemäßigtere Übertaktung. Andernfalls würde es wohl gewaltige wirtschaftliche Konsequenzen nach sich ziehen. Ich hoffe daher das Beste.
 
Zurück
Oben