Test Intel Arrow Lake mit MCU 114 im Test: Mehr Leistung durch Microcode-, Windows- & Spiele-Updates

@OiOlli du verschwendest da gerade deine Zeit. Natürlich sind CPUs seit vielen Jahren gut genug für alles was so ansteht, nein, man benötigt keinen Supercomputer um Bilder/Videos zu bearbeiten. Der 9800X3D ist mit seinem Multicore komplett über dem, was bei den Meisten im Alltag so ansteht.

Don't feed the Troll. Spätestens wenn AMD in dem Bereich wieder unangefochten ist, ist der Multicore laut den fanboys wieder absolute Nische. ;-)
 
  • Gefällt mir
Reaktionen: Dittsche und Sinatra81
In meinem Augen sollte sich Intel in Punkto Kommunikation und Marketing an einigen Stellen bremsen (Produktankündigung) und an anderer Stelle dringl. an sich arbeiten (Art- und Kommunikation bei der 13th/14th Misere). Bspw. Interview mit u.a. Der 8uer und Intel - sie (Intel) lernen es einfach nicht. Es gab ebenfalls ein US -Interview, was ähnlich verlief. Vielleicht ist ja die neue Intel Gen. wie ein guter Wein, welcher (Plattform) erst reifen muss. Vllt. sollte Intel, wie CoD, von den jährlichen Drops absehen und mal auf Ausreifung und Forschung setzen.

Gleiches gilt für die Boards, vor allem Asus, mit ihren "Augenwischerrei" u.a. MCE 3.0, XMP Tweak etc. -> Intel Default Settings + alten 12th Gen ausgegraben - und gut ist für mich (... aktuell).
 
mscn schrieb:
Eine auf Spiele optimierte CPU ist nicht rund, sondern hat die Form einer Gurke.
Deine persönliche Wertanschauung als Maß zu setzen, ist bedeutungslos. Denn für mich ist ein 7600 inkl AM5 ein rundes Paket, weil ich auf deine Anschauung pfeife. :daumen:
Nicht böse gemeint :)

Es braucht schon mehr als nur die eigene Wahrnehmung um zB eine CPU als rundes Produkt, oder als überall einsetzbar zu bezeichnen. Dabei beschränkt sich die Definition nicht nur darauf, was ich damit mache, sondern auch unter welchen Bedingungen ich Anforderungen an eine zentrale Recheneinheit stelle.
Und da bei mir alles über einen 7600 und einer 6700 XT nutzlos ist, zudem ich auch noch gerne den langen Support begrüße, ist einzig und allein meine Entscheidung das perfekte Paket.

Obendrauf kann mir ein 7600 auch noch deutlich mehr bieten, als eine 6700 XT entfalten könnte.
Rundes Paket, allround CPU sind nur emotionale Beschreibungen, derer aber auch Definitionen vorangegangen sind.
 
LamaMitHut schrieb:
Der 9800X3D ist mit seinem Multicore komplett über dem, was bei den Meisten im Alltag so ansteht.
Und der 285K ist mit seiner Spieleleistung "komplett über dem" was für die meisten im Alltag so ansteht.
Könnte man nun auch sagen, wenn man wollte.
Der 285K ist beleibe keine schlechte CPU und meines Erachtens auch in Spielen etwas stärker als der 9950X, sofern das Spiel die Kerne richtig ordnet und beide CPUs mit optimierten RAM laufen. Aber sei es drum.

Für Gaming ist der 285K nicht sonderlich "rund" und der 9800X3D ist in Anwendungen auch nicht besonders "rund".
Ergänzung ()

mscn schrieb:
Das sieht im MSFS 2024 schon wieder ganz anders aus...
Ich habe noch keine Benchmarks des MSFS 2024 gesehen, die zeigen würden, dass man mehr als 8 Kerne braucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gesperrter_User
Alesis schrieb:
Deine persönliche Wertanschauung als Maß zu setzen, ist bedeutungslos.
Alesis schrieb:
Es braucht schon mehr als nur die eigene Wahrnehmung
Ok, aber:
Alesis schrieb:
Denn für mich ist ein 7600 inkl AM5
Doch wieder nur einer, der im Intel-Beitrag damit werben möchte, wieviel "besser" die AMD's sind (in jeder Hinsicht!). 🥱

Alesis schrieb:
weil ich auf deine Anschauung pfeife
Ich pfeife auf AMD-Gesülze in einem Intel-Beitrag. Nicht böse gemeint. 💪
Ergänzung ()

LamaMitHut schrieb:
Spätestens wenn AMD
🙄 Auch für dich nochmal: Hier geht es nicht um AMD, nicht einmal um einen Vergleich zwischen CPUs dieser Hersteller.

LamaMitHut schrieb:
- ein neutraler Beobachter in "Intel Arrow Lake mit MCU 114 im Test", 28.12.2024

Genau mein Humor.

LamaMitHut schrieb:
Natürlich sind CPUs seit vielen Jahren gut genug für alles was so ansteht
Aber für Spiele muss es - für knapp 600€ - ein 8-Kern-9800X3D sein, alles andere ist 100% L. Natürlich. 😂

LamaMitHut schrieb:
man benötigt keinen Supercomputer um Bilder/Videos zu bearbeiten
Aber für Spiele reicht ein 14600k/14700k oder 245k/265k natürlich nicht aus?

LamaMitHut schrieb:
was bei den Meisten im Alltag so ansteht
Die "Meisten" müssen für Spiele unbedingt einen 8-Kern-9800X3D für knapp 600€ haben, selbstverständlich. "Die Verkaufszahlen" (aber nicht Steam) beweisen das schließlich. 🤡

TL;DR: Im Prinzip stimmst du mir also zu, dass aktuelle CPUs für alles ausreichend sind. 💪

LamaMitHut schrieb:
Don't feed the Troll
LamaMitHut schrieb:
Spätestens wenn AMD in dem Bereich wieder unangefochten ist
Jaja. 🥱
Ergänzung ()

Quidproquo77 schrieb:
Und der 285K ist mit seiner Spieleleistung "komplett über dem" was für die meisten im Alltag so ansteht.
Könnte man nun auch sagen, wenn man wollte.
Wird nicht passieren, so wie man nie einen Intel-Beitrag haben wird, in dem nicht irgendwelche Leute damit werben, wie großartig sie die AMD-Produktpalette finden und Intel 100% Trash ist.

Offtopic ist in manchen Beiträgen scheinbar kein Problem.
Ergänzung ()

Quidproquo77 schrieb:
Ich habe noch keine Benchmarks des MSFS 2024 gesehen
Ich auch nicht (sogar noch gar keinen Test), falls sich das auf meine Beobachtung bezieht: dann war es meine Beobachtung (deswegen habe ich es auch so genannt).
 
Zuletzt bearbeitet:
Ich schätze mal nicht das der 285k hier besser abschneiden würde als der 13900k.
1735385231189.png
 
  • Gefällt mir
Reaktionen: TechFA und OiOlli
Quidproquo77 schrieb:
Und der 285K ist mit seiner Spieleleistung "komplett über dem" was für die meisten im Alltag so ansteht.
Die Frage ist doch, ob man selbst eher Spieleleistung oder Anwendungsleistung priorisiert.

Ich verzichte gerne auf etwas Anwendungsleistung, wenn Spiele dafür besser laufen. "Zu viel" Spieleleistung kann man eigentlich nie haben.
Bei Anwendungen kommt es halt drauf an. Wenn ich nur im Internet surfe und Videos/Streams schaue, macht es absolut keinen Unterschied, ob ich einen 285K oder einen 9800X3D habe.
 
  • Gefällt mir
Reaktionen: Sinatra81
  • Gefällt mir
Reaktionen: TechFA
Mag für den Einen oder Anderen hier durchaus kontrovers erscheinen, aber was solche Dinge betrifft, bin ich eben einfach direkt und unverblühmt …

Und meiner zugegebenermaßen unmaßgeblichen Meinung nach, versucht Intel hier nur verzweifelt, mit augenscheinlichen Märchen (über einen vorgeblich demnächst realisierenden üppigen Leistungszugewinn bei den betroffenen Intel-Usern) die Hoffnung für die viel gescholtenen Intel-Jünger mit den besagten Core Ultra hoch zu halten, nur um höchst eigennützig hoffentlich doch noch irgendwie ihre eigenen dringend benötigten Umsatzprognosen für die nächsten Quartalsergebnisse jetzt im Januar zu retten.

Zum Verständnis (soweit ich es denn selbst verstanden habe): Arrow Lake ist vom Design her ohne Frage desolat und schlicht im Ar— und das war von Anfang an so erkennbar – Intel wußte das!

Alle zu verarbeitenden Daten im RAM müssen von Richtung des RAM über den suboptimal platzieren integrierten Speicher-Controller (IMC) her 1.) erst die I/O-Kachel des SoC durchqueren, um überhaupt 2.) auf der Compute-Tile zuerst verteilt und dann verarbeitet und schlußendlich berechnet werden zu können, nur um dann wiederum 3.) zeitintensiv den selben Weg noch einmal zurück zu legen.

Das führt naheliegenderweise zu einer extrem erhöhten Latenz und damit Leistungseinbuße – Teils doppelte RAM-Latenzen sind die Folge, die rechen- und Speicher-intensive Prozesse wie Spiele (welche große Volumina an Daten zu bewegen/berechnen haben) unweigerlich deutlich abstürzen lassen.


Wer weiß, was die sich dabei gedacht haben...
Wahrscheinlich spekulierte Intel da einfach wieder einmal auf die Unzahl ahnungsloser Käufer, welche (selbst für sich persönlich genommen) versuchten, ihre eigenen Hoffnungen auf zukünftige, bald erscheinende Fixes hoch zu halten und Arrow Lake trotz des miserablen Abschneidens einen Vertrauensvorschuß zu gewähren.

Intel's insgeheim unterschwellig non-verbale Vorwegnahme und immer wieder lamentierte Inaussichtstellung einer möglichen vergleichbaren Leistungsverbesserung wie bei den kürzlichen doch tatsächlich signifikanten Ryzen-Sprüngen, dürfte nicht wenige ARL-Käufer dazu bewogen haben, Ryzen zu verschmähen und stattdessen wieder mal Intel die Stange zu halten, in Treu und gutem Glauben, daß zukünftige Intel-Patches und Scheduler-Updates ja ohnehin sicherlich noch einmal eine gute Schippe würden drauflegen werden.

Nur sind diese von Intel immer wieder seit Oktober in Aussicht gestellten Leistungsverbesserung niemals wirklich zustande gekommen, und sie hätten zuvörderst gar nicht erst erreicht werden können.
Intel war sich darüber aber zu jedem Zeitpunkt absolut im klaren, weil sie wußten, was die wahren Gründe für die mangelnde Leistung waren – Intel hat ihre Kunden einfach mal wieder nach Strich und Faden verarscht!

Wie auch immer, in dem Moment, in dem Robert Hallok behauptete, daß es signifikante Geschwindigkeitssteigerungen durch Code-Optimierungen und Scheduler-Anpassungen zu erzielen möglich gewesen wäre und diese Leistungssteigerungen in Aussicht stellte, haben viele Informierte solche zukünftigen Leistungssprünge à la Ryzen zu Recht als völligen Blödsinn bezeichnet, denn genau das war es immer, schon seit Oktober.

Mit diesen scheinheiligen und verlogenen Ankündigungen über Arrow Lake, hat Intel etliche seiner Kunden effektiv zum Kauf getrickst, indem es über kommende Leistungsverbesserungen fabuliert hat, bei dem sich die Käufer selbst eingebildet haben, es gäbe eine Software-Lösung für ein fehlerhaftes Hardware-Design.
Das war von Anfang an seitens Intel, alles von vorne bis hinten nichts als feinstes Gaslighting!

Das Layout/Design von Arrow Lake selbst, ist physikalisch gesehen äußerst defizitär.
Dafür gibt es keine andere Lösung, als ein neues Design. Intel aber wußte das von Anfang, sogar lange vor der Auslieferung! Trotzdem haben sie die Leute ganz gezielt und bewußt monatelang an der Nase herum geführt…
chrisde schrieb:
In meinem Augen sollte sich Intel in Punkto Kommunikation und Marketing an einigen Stellen bremsen (Produktankündigung) und an anderer Stelle dringl. an sich arbeiten (Art- und Kommunikation bei der 13th/14th Misere).
Das ist leider nach all den Jahren seit 2017 und AMD's Ryzen das einzige, was sich wie ein roter Faden durch Intel's Marketing zieht. Das klassische FUD (Fear, uncertainty, and doubt) ist das Einzige, was Intel wirklich immer beherrscht wie kein Zweiter. Selbst das designen von CPUs ist mittlerweile nicht mehr ihre Stärke.

chrisde schrieb:
Vielleicht ist ja die neue Intel Gen. wie ein guter Wein, welcher (Plattform) erst reifen muss.
Das wäre es jetzt, daß Intel nach den Chiplets jetzt auch noch AMD's FineWine kopieren! 😅
 
Zuletzt bearbeitet:
TechFA schrieb:
Das führt naheliegenderweise zu einer extrem erhöhten Latenz und damit Leistungseinbuße – Teils doppelte RAM-Latenzen sind die Folge, die rechen- und Speicher-intensive Prozesse wie Spiele (welche große Volumina an Daten zu bewegen/berechnen haben) unweigerlich deutlich abstürzen lassen.
Nur zur Ergänzung: Arrow Lake hat auch ein (kleines) Thema mit Latenzen zwischen den P-Cores. Denn während die Vorgänger alle P-Cores nebeneinander positioniert haben, liegen bei Arrow Lake die E-Core Cluster dazwischen verteilt. Das hat thermische Vorteile und macht es einfacher, aus dem großen ein kleines Design abzuleiten, aber es bedeutet eben auch längere (logische) Distanzen auf dem Ringbus zwischen den P-Cores.

Diese andere Aufteilung ist ja gleichzeitig mit ein Grund für die Hoffnung auf besseres Scheduling, da die Annahme war, dass bestehende Scheduler damit nicht richtig umgehen können.
 
  • Gefällt mir
Reaktionen: TechFA
stefan92x schrieb:
Nur zur Ergänzung: Arrow Lake hat auch ein (kleines) Thema mit Latenzen zwischen den P-Cores
Ich kann deinem "Deep-Dive" (Architektur ist mir grob bekannt) nur bedingt folgen aber es ist doch offensichtlich, dass nur die X3D Chips dramatisch schneller sind. Insofern ist es doch trotzdem ein gutes (Spiele-)Ergebnis, wie ich finde (gemessen an den Charts hier in der CPU Rangliste). Denn Multi-Core nehmen sich 9950X und 285k nicht viel.

Hat jemand erwartet, Intel würde die X3D-Ryzen schlagen, ohne selbst einen Cache zu verwenden oder bezieht sich die Kritik im Kern nur darauf, dass sie sich vom eigenen Vorgänger nicht absetzen konnten (außer beim Verbrauch)?

Einfach gesagt: für mich sind sie erwartbar langsamer (als die X3D), weil sie eben den Cache nicht haben und ansonsten nahezu gleichauf mit den Non-X3D von AMD sind (von denen niemand behauptet, die wären nicht spieletauglich).

1735465942880.png


@TechFA wilde Geschichte!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA
mscn schrieb:
bezieht sich die Kritik im Kern nur darauf, dass sie sich vom eigenen Vorgänger nicht absetzen konnten (außer beim Verbrauch)?
Also mir letztlich ja. Arrow Lake hat im Vergleich zum Vorgänger deutliche Schwächen in Sachen Latenzen, aber den Durchsatz an sich halt trotzdem gesteigert. Entsprechend schwach ist er im Vergleich zu Raptor Lake bei allem was latenzkritisch ist (was Spiele ja ganz besonders sind), aber eben trotzdem stark bei allem, was da nicht so empfindlich ist. Da stellt sich halt jetzt die Frage, ob Intel aus technischen Gründen dazu gezwungen war (z.B. um Kühlungsprobleme zu vermeiden), oder ob es allein um die günstigere Entwicklung ging (man kann den 6+8 Die einfach aus dem 8+16 Layout ausschneiden, muss nur den "unteren" Teil weglassen).

Ersteres wäre dann einfach nur eine Abwägung, was einem wichtiger ist (die völlig legitim ist), letzteres wäre fürs Produkt eher traurig. Aber bevor das falsch verstanden wird, ich will hier nicht als Intel-Fundamentalkritiker dastehen. Auch AMD hat sich Aufwand aus Kostengünden gespart und damit suboptimale Produkte gebaut (Stichwort alter IOD für Ryzen 9000).
 
stefan92x schrieb:
Entsprechend schwach ist er im Vergleich zu Raptor Lake bei allem was latenzkritisch ist (was Spiele ja ganz besonders sind)
Inwiefern geht das aus den Spiele-Benchmarks hervor?

Nachvollziehbar wäre es für mich, wenn sie - aus den von dir genannten Gründen - deswegen nicht schneller geworden sind aber nach einem Rückschritt sieht das Chart (1-2%) für mich nicht aus (auch wenn es gemittelt ist, es gibt nach oben und unten deutlich Ausreißer).

Hätte ich mehr erwartet? Ja. Aber die X3D Leistung als Maßstab anzunehmen wäre unrealistisch, denn das schaffen die hauseigenen AMD CPUs auch nicht (mit dem gleichen Abstand).

Mein persönliches Fazit: mein 285k ist ein 14900K v2, nur würde ich das so nicht sagen, weil mir der 14900k als ungehemmter Säufer in Erinnerung bleibt (aber keine Low-End CPU ist oder gar war).
Ergänzung ()

stefan92x schrieb:
ich will hier nicht als Intel-Fundamentalkritiker dastehen
Du musst dich nicht erklären, Meinungen müssen nicht erklärt werden oder rational sein.
Ich wollte nur verstehen, warum so ein Aufriss um Intel gemacht wird wegen CPUs, die in Spielen (im Mittel) so schnell sind, wie die non-X3D von AMD (und die eigenen Vorgänger bei weniger Verbrauch) - eben alle ohne Cache.
 
mscn schrieb:
Hat jemand erwartet, Intel würde die X3D-Ryzen schlagen, ohne selbst einen Cache zu verwenden oder bezieht sich die Kritik im Kern nur darauf, dass sie sich vom eigenen Vorgänger nicht absetzen konnten (außer beim Verbrauch)?
Die Situation für Intel ist hier etwas komplexer und letztlich eine Art Bumerang, weil die meisten User/Consumer mehr Erkenntnisgewinn haben als es Intel(Anhänger) vielleicht lieb ist.

Intel hat seit mindestens Raptor Lake von irre hohen Limits (bis zur CPUs-Zerstörung) und dem Windows 11 Fuck-up (faktische Ryzen-Bremse), den Microsoft mit seiner Fixierung auf Big-Little-Architekturen (ab Alder Lake) auslöste, profitiert.

Nun hat Mircosoft Win 11 mittlerweile für Ryzen gefixt und mit verträglichen Limits werden Raptor Lake High-End-Modelle (13900K/13900KS/14900K/14900KS) jetzt derart stark ausgebremst, dass selbst das darunter liegende Perfomance-Modell (14700K) gleichschnell oder schneller in Games ist. Letzterer Umstand könnte Intel auf dem ersten (simplen) Blick nutzen, weil dadurch Arrow Lake nicht zu stark abgehängt von Top-Raptor Lakes in Games erscheint.

Aber wie oben schon gesagt, die Leute sind nicht dumm. Es zeigt sich nun schonungslos, dass selbst der alte 7800X3D eigentlich schon immer rund 15-20% vor dem 14900K in Games lag und eben nicht nur 5% bzw. etwa gleichauf (z. B. PCGH) wie lange Zeit (un)freiwillig dargestellt. Oder anders gesagt, Intel fälllt das verlogene und nicht nachhaltige Handeln geballt auf die Füße. Und den Retail-Mobo-Herstellern mit ihren ca. 60 verschiedenen Z890-Board-Modellen, die nun wie Blei im Regal liegen, gleich dazu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, LamaMitHut und TechFA
Freiheraus schrieb:
7800X3D eigentlich schon immer 20% vor dem 14900K(S)
Wie sollte Intel ohne Cache eine CPU mit Cache schlagen und warum wird das erwartet?

Und was ändert deine lange Erklärung am Status Quo (den ich oben siehe Frametimes sehe):
AMD CPU == Intel CPU beide < AMD X3D. Übersehe ich was?

Ich sehe das Drama/Versagen noch immer nicht und auch nicht, inwiefern eine Intel CPU nicht zum Spielen taugen soll? Ist ein 9800X auch eine Krücke in Spielen? Oder ein 9950X?
 
  • Gefällt mir
Reaktionen: firewheels
Was du und andere übersehen wenn sie den 9900X oder andere Ryzen 9000 non-X3D Modelle ins Feld führen: sie sind irrelevant (für die meisten User hier). Daher bleibt auch Arrow Lake vergleichbar irrelevant.

Ein 9700X ist sicherlich auch kein Liebling bei Konsumenten, aber er ist immerhin bei 88W gecapt und zieht bei Volllast keine 150 Watt+ durch (245K).
 
  • Gefällt mir
Reaktionen: LamaMitHut und TechFA
Freiheraus schrieb:
ca. 60 verschiedenen Z890-Board-Modellen, die nun wie Blei im Regal liegen, gleich dazu.
Und die X870 Boards verkaufen sich wie geschnitten Brot? Willst du hier sachlich diskutieren oder nur für Stimmung sorgen?
Ergänzung ()

Freiheraus schrieb:
Was du und andere übersehen wenn sie den 9900X oder andere Ryzen 9000 non-X3D Modelle ins Feld führen: sie sind irrelevant (für die meisten User hier).
Ist das so? Ich dachte immer, die X3D seien die Nischenmodelle, gerade bei den Preisen.

Steam Hardware Survey sagt, dass auch die alten X3D nicht die Verbreitung haben, die du hier vermuten lässt (weil Intel dort 60% Anteil hat).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: firewheels
@Freiheraus warum so unhöflich? Du hast mich zitiert und ich habe geantwortet.
Und was davon ist denn "Quatsch"?

Ein Addendum noch zu deinem vorherigen Beitrag:
Freiheraus schrieb:
Was du und andere übersehen wenn sie den 9900X oder andere Ryzen 9000 non-X3D Modelle ins Feld führen: sie sind irrelevant (für die meisten User hier).
Die RTX 4090 ist auch das nonplus-ultra an Grafikkarte, interessiert das außerhalb von Benchmarks jemanden hier? 5 Leute? (die Untertreibung ist ein Stilmittel)

Zweifelsohne sind die X3D Speerspitze beim Spielen, degradieren aber weder einen 9900X, noch einen 265k zu Schrott.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: firewheels
Zurück
Oben