Test Intel Arrow Lake mit MCU 114 im Test: Mehr Leistung durch Microcode-, Windows- & Spiele-Updates

TechFA schrieb:
Und meiner zugegebenermaßen unmaßgeblichen Meinung nach, versucht Intel hier nur verzweifelt, mit augenscheinlichen Märchen...
6% mehr bei der ST Leistung ist ein Märchen? Schön erstaunlich wie hoch der Wille zu sein scheint agitatorisch gegen einen Hersteller anzuschreiben.
TechFA schrieb:
Zum Verständnis (soweit ich es denn selbst verstanden habe): Arrow Lake ist vom Design her ohne Frage desolat und schlicht im Ar— und das war von Anfang an so erkennbar – Intel wußte das!
Desolat ist in der Spieleleistung 1:1 da wo der 9950X steht und im Anwendungsindex MT wie ST 3% vor dem 9950X. Mit weiteren Reserven für Spiele was Thread Management und Speicher OC betrifft.
TechFA schrieb:
Das führt naheliegenderweise zu einer extrem erhöhten Latenz und damit Leistungseinbuße – Teils doppelte RAM-Latenzen sind die Folge, die rechen- und Speicher-intensive Prozesse wie Spiele (welche große Volumina an Daten zu bewegen/berechnen haben) unweigerlich deutlich abstürzen lassen.
Die Latenzen ist nur geringfügig höher als bei der Konkurrenz. Wovon du wohl sprichst ist Meteor Lake.
TechFA schrieb:

Wer weiß, was die sich dabei gedacht haben...
Wahrscheinlich spekulierte Intel da einfach wieder einmal auf die Unzahl ahnungsloser Käufer,
Käufer die nach der Latenz schauen und nicht prinär nach der gemessenen Leistung die durchaus gut ist?
Solche Leute gibt's nicht.
TechFA schrieb:
welche (selbst für sich persönlich genommen) versuchten, ihre eigenen Hoffnungen auf zukünftige, bald erscheinende Fixes hoch zu halten und Arrow Lake trotz des miserablen Abschneidens einen Vertrauensvorschuß zu gewähren.
Ist ja klar, wenn die CPU teils immer noch wegen falscher Kernbelastung 20% hinter dem 14900K hängt, dass da auch weiterhin was im Argen liegt.
TechFA schrieb:
Intel's insgeheim unterschwellig non-verbale Vorwegnahme und immer wieder lamentierte Inaussichtstellung einer möglichen vergleichbaren Leistungsverbesserung wie bei den kürzlichen doch tatsächlich signifikanten Ryzen-Sprüngen,
Die Ryzen Sprünge betrafen alle CPUs ab Zen 3 und keine Sprünge für Zen 5 im Speziellen. Hardware Unboxed ermittelte 1% Steigerung.
TechFA schrieb:
dürfte nicht wenige ARL-Käufer dazu bewogen haben, Ryzen zu verschmähen und stattdessen wieder mal Intel die Stange zu halten, in Treu und gutem Glauben, daß zukünftige Intel-Patches und Scheduler-Updates ja ohnehin sicherlich noch einmal eine gute Schippe würden drauflegen werden.
Auch das nicht, weil man nach aktueller bewerteter Leistung läuft und nicht nach Wunschdenken. 9950X und 285K sind für den Preis keine Gaming-Empfehlungen und werden es auch nie.
Ansonsten klingt dein Beitrag so als wäre er von einer KI geschrieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schattenspender und mscn
mscn schrieb:
Die RTX 4090 ist auch das nonplus-ultra an Grafikkarte, interessiert das außerhalb von Benchmarks jemanden hier? 5 Leute? (die Untertreibung ist ein Stilmittel)

Also wenn wir schon bei den Steam Hardwareumfragen sind, da kommt eine 4090 auf 1,01% der Gesamtnutzer, was eine beachtliche menge für so eine Karte ist, wenn der Spitzenreiter nicht mal die 4,9% packt. High end Grafikkarten sind nicht so irrelevant, wie hier immer viele tun, besonders im globalen markt. natürlich sind das nicht die Megamassen ist aber sehr weit von einer unterstellten irrelevanz entfernt.
 
DevPandi schrieb:
Oder um das ganze mal diplomatischer zu verfassen: Egal ob Zen 5 oder ArrowLake, man macht nicht grundlegend falsch, wenn man zu diesen Prozessoren greift. Wer lieber ein Zen 5 will, kauft den, wer Arrow Lake will, kuft den und wenn man sich nicht entscheiden kann: Würfeln. ;)
Nach dem lesen im entsprechenden Bereich bei hardwareluxx könnte ich es mir tatsächlich vorstellen mir arrow Lake im kommenden Jahr zuzulegen. Ich hoffe noch auf fallende Preise der CPU.
Dabei springt mir der 285 und der 265 ins Auge.
Als Board habe ich asrock auserkoren.
Das z890 taichi ocf. Soll sich gut für ram oc nutzen lassen weil es nur zwei ram Bänke und sechs voll nutzbare m2.nvme Plätze.
Also das wäre die grobe marsch Richtung. Wäre toll wenn die Preise im nächsten Jahr noch nachgeben würden.
 
  • Gefällt mir
Reaktionen: mscn
mscn schrieb:
Nachvollziehbar wäre es für mich, wenn sie - aus den von dir genannten Gründen - deswegen nicht schneller geworden sind aber nach einem Rückschritt sieht das Chart (1-2%) für mich nicht aus (auch wenn es gemittelt ist, es gibt nach oben und unten deutlich Ausreißer).
Arrow Lake hat zu Raptor Lake halt in Teilbereichen Fortschritte erzielt und in anderen Rückschritte. Im Mittel landet man damit halt wie du sagst nahe Null und je nach Benchmark deutlich im Plus oder Minus
Ergänzung ()

mscn schrieb:
Wie sollte Intel ohne Cache eine CPU mit Cache schlagen und warum wird das erwartet?
Auch die Intel-CPUs haben Cache, es ist nur weniger. Und warum sollte man es nicht erwarten? Das Gesamtprodukt zählt und Cache ist nur einer von vielen Punkten. AMD hat mehr Cache, Intel die bessere Fertigung und das bessere Packaging.
 
Zuletzt bearbeitet:
stefan92x schrieb:
Und warum sollte man es nicht erwarten?
Weil die eigenen AMD Prozessoren ohne/mit weniger Cache auch nicht an die X3D heranreichen (und zwar mit dem gleichen Abstand, vermutlich aber ohne Ausreißer - die wohl, so bei CB2077 geschehen, auch softwareseitig noch einfangen werden können/sollten). "Mal eben so" wird man die fast 30% zum 9800X3D nicht mit ein paar Tweaks/Fertigung ausgleichen.
Ergänzung ()

cosamed schrieb:
Dabei springt mir der 285 und der 265 ins Auge.
Ich habe seit Veröffentlichung den 285k und bin sehr zufrieden. Der 265k reicht in den meisten Szenarien aber ganz sicher auch, zumal sich in Spielen bei den Core Ultra 5/7/9 kaum Mehrleistung einstellt (265k zu 285k sind 3% in den Frametimes hier im CPU-Vergleich). Dazu ist der 265k aber deutlich billiger und vor allem: verfügbar!

Edit: Das bereits 2x zurückgezogene BIOS Update 2.23.AS03 [Beta] ist nun für mein ASRock Z890I WIFI wieder verfügbar, mit dem Datum, an dem es auch erschienen ist (26.12.).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cosamed
mscn schrieb:
"Mal eben so" wird man die fast 30% zum 9800X3D nicht mit ein paar Tweaks/Fertigung ausgleichen.
Ja, das ist das Ergebnis, das wir sehen. Aber das ist eben keine Selbstverständlichkeit. Denn AMD profitiert so stark vom größeren Cache, weil der Aufbau einfach Schwächen hat, die Intel nicht auch haben muss/sollte.

Und demnach hätte es bei einem guten Design für Intel reichen sollen, auf Augenhöhe zu landen, wenn nicht sogar davor.

AMD hat mit Zen 5 eine offene Flanke geschaffen, die Intel nicht ausnutzen konnte. Das finde ich technisch enttäuschend.
 
Ich begrüße es einfach das es mit intel auch noch jemanden gibt, dessen CPUs auch gutes leistungspotenzial haben auch wenn der 98x3d in Spielen vorne liegt.
Man wird ja schon fast gesteinigt von der community wenn man statt amd einen Intel empfiehlt.
geht es um die eigenen Gewohnheiten und kommt es nicht auf das letzte Quäntchen Leistung an, kann sugj arrow Lake gut mithalten. Dann hat man eben weniger Leistung und weniger frames in Spielen. Das Spiel wird ja dennoch laufen und in 4k ist die CPU bis auf wenige Ausnahmen eh nicht mehr so wichtig sondern nur die gpu.
 
  • Gefällt mir
Reaktionen: Melmoth
mscn schrieb:
Ich habe seit Veröffentlichung den 285k und bin sehr zufrieden. Der 265k reicht in den meisten Szenarien aber ganz sicher auch
Ich bin vom 9900k bewusst auf den 265k umgestiegen, da er für mich und meine Anwendungen mehr als ausreichend Leistung hat. Ich wüsste adhoc nicht wo ich die (Mehr)Leistung eines 285k vermissen würde. Für meine Bildbearbeitung mit PS oder an und ab Video konvertieren bin ich ausreichend flott aufgestellt. Sollte gespielt werden, nimmt man (Frau 😁) eher die Konsole.
 
  • Gefällt mir
Reaktionen: mscn und cosamed
Hört sich echt gut an. Mit anderen Worten es muss nicht immer ein amd unter der Haube stecken.
Gerade persönliche Erfahrungen interessieren mich sehr in dieser Hinsicht .
Ergänzung ()

takeiteasy schrieb:
Ich bin vom 9900k bewusst auf den 265k umgestiegen, da er für mich und meine Anwendungen mehr als ausreichend Leistung hat. Ich wüsste adhoc nicht wo ich die (Mehr)Leistung eines 285k vermissen würde. Für meine Bildbearbeitung mit PS oder an und ab Video konvertieren bin ich ausreichend flott aufgestellt. Sollte gespielt werden, nimmt man (Frau 😁) eher die Konsole.
Wäre denn ein AMD nicht ebenfalls in Frage gekommen?
Zumal der doch bestimmt etwas günstiger gewesen wäre oder?
 
Zuletzt bearbeitet:
Gibt es am Ende wirklich mehr Leistung durch Microcode-, Windows- & Spiele-Updates?

Intels neuester Mikrocode „0x114“ kann angeblich „Arrow Lake-S“-CPU-Probleme nicht lösen und führt nun zu einem Leistungsabfall von bis zu 18%​

https://wccftech.com/intel-newest-0...dly-fails-to-resolve-arrow-lake-s-cpu-issues/
1735592772803.png
 
  • Gefällt mir
Reaktionen: danyundsahne
@ArrakisSand Habs vorhin auch gelesen und dachte mir da gibt's sicher nen Artikel Update.
Ist der Kollege von CapFrameX nicht auch auch hier auf CB unterwegs??
Vielleicht gibt's dazu eine Einschätzung, @Volker ?
 
Ein einzelnes Chart ohne Details .. und der User merkt davon .. nichts. 😂

Gab es nicht bereits Tests, die gezeigt haben, dass 0x114 scheinbar NICHTS bringt und nun kommt einer und stellt fest, dass es angeblich langsamer wird? Und das ist niemandem sonst aufgefallen?

MSI scheint das Problem nicht zu haben (und von ASUS gibt es scheinbar schon einen Fix)

1735633333985.png
https://x.com/unikoshardware/status/1873773006503501973

Scheinbar kein Intel Problem (und ein Grund, warum ASRock das Update für mein Board schon 3x zurückgezogen hat)?

Bei CapFrameX scheint man im Bench auch ein ASRock Board (mit BETA Bios) zu verwenden und wenn ich mich daran erinnere, dass das Bios 3x zurückgezogen wurde, würde ich damit wohl keinen Benchmark laufen lassen (und noch veröffentlichen).
 
Zuletzt bearbeitet:
danyundsahne schrieb:
@ArrakisSand Habs vorhin auch gelesen und dachte mir da gibt's sicher nen Artikel Update.
Ist der Kollege von CapFrameX nicht auch auch hier auf CB unterwegs??
Vielleicht gibt's dazu eine Einschätzung, @Volker ?
Das ist halt typischer clickbaitin shit.
Es wird nicht krass schlechter oder so, aber eben auch nicht besser.

Man sollte sich einfach damit anfreunden, dass es so bleibt, wie es jetzt ist. Auch 2, 3 Prozent mehr Leistung ändern daran nichts. Und wenn man 20 bis 30 Tests macht kommt im Mittel auch garantiert nicht mehr raus.

First Gen überzeugt nicht, das ist nun keine neue Erkenntnis.
 
  • Gefällt mir
Reaktionen: TechFA, danyundsahne und mscn
Volker schrieb:
First Gen überzeugt nicht, das ist nun keine neue Erkenntnis.
Aber sie funktioniert dennoch, verglichen mit den non-X3D und zwar bei Spielen, wie auch in Anwendungen.
Die Probleme drumherum sind unnötig, keine Frage aber davon merkt der normale Nutzer nichts.
 
  • Gefällt mir
Reaktionen: planet456234
mscn schrieb:
Aber sie funktioniert dennoch
Ich wüsste nicht, dass @Volker irgendetwas anderes geschrieben hätte. Es ist auch nicht Volkers Aufgabe, dein Gefühlsleben bezüglich Arrow zu beachten. Es werden Messungen gemacht und nachdem schon Meteor plötzlich doch nicht kam, konnte ein Jahr später auch Arrow nicht glänzen.
Und da du zum Glück nicht das Maß der Dinge bist, werden auch Probleme rund um das Produkt benannt. Es ist schließlich ein Test.
 
Alesis schrieb:
Ich wüsste nicht, dass Volker irgendetwas anderes geschrieben hätte
Ich wüsste nicht, wo ich das unterstellt haben sollte.

Alesis schrieb:
Es ist auch nicht Volkers Aufgabe, dein Gefühlsleben bezüglich Arrow zu beachten
Edit: da du dich so für mein Gefühlsleben interessierst: Beim Lesen deines Beitrags habe ich drei neue Gesichtszüge freigeschaltet und dann gelacht - danke dafür!

Alesis schrieb:
Und da du zum Glück nicht das Maß der Dinge bist
Was du so alles aus meinem Text herausliest, erstaunlich!😂

Alesis schrieb:
werden auch Probleme rund um das Produkt benannt
Niemand hier sagt, dass das was schlechtes ist? Was ist dein Punkt?

Dass es Leute auf der Plattform gibt und keine Probleme haben, darf wohl erwähnt werden?
Und dass Jane Doe beim Verbauen und Spielen - von ein paar % rauf oder runter - nichts merken wird, auch?
 
Zuletzt bearbeitet:
cosamed schrieb:
Hört sich echt gut an. Mit anderen Worten es muss nicht immer ein amd unter der Haube stecken.
Gerade persönliche Erfahrungen interessieren mich sehr in dieser Hinsicht .
Ergänzung ()


Wäre denn ein AMD nicht ebenfalls in Frage gekommen?
Zumal der doch bestimmt etwas günstiger gewesen wäre oder?

Möglicherweise, ich hatte vor vielen Jahren schon mal AMD in Verwendung. Keine Ahnung, ob er billiger gewesen wäre, der 265k hat mich 420€ gekostet. Es war auch keine wirkliche Geldfrage, welches System ich mir da nun zusammenstelle, ich hätte auch den 285k nehmen können. Ich bin aber keine Gamer, daher benötige ich die Gamingvorteile eines AMD nicht. In Anwendungen könnten mehr Kerne zukünftig vielleicht ihren (Leistungs)Vorteil haben. Jedenfalls, im Alltag gib es für mich kein Grund zur Beschwerde, das es ein Intel wurde und kein AMD X3D.
 
  • Gefällt mir
Reaktionen: cosamed und mscn
@danyundsahne Schon gelesen? Info an Redaktion bringt eh heut nix.
https://winfuture.de/news,147865.html

Patch-Fiasko: Intel-BIOS-Update macht Core-Ultra-CPUs noch langsamer

Um mehr aus seinen neuesten Prozessoren herauszuholen, hatte der Chiphersteller vor einigen Tagen ein neues Microcode-Update veröffentlicht. Wie Tests jetzt aber zeigen, macht das die CPUs nicht unbedingt schneller. Ganz im Gegenteil.
 
  • Gefällt mir
Reaktionen: danyundsahne
PegasusHunter schrieb:
Die News hier lesen hätte auch schon geholfen. Winfuture hatte da mal wieder ein Echo wiedergegeben, welches ohnehin schon an Informationsarmut litt und dann auch noch verfälscht wurde. Es ist daher nicht nur dämlich, es ist tasächlich gelogen.

Hier ist der zugrundeliegende schon wenig geistreicher Tweet:
https://x.com/CapFrameX/status/1873698469724209485?mx=2
Da waren es noch 69ns, nicht 62ns. Kein Wort vom Zusammenhang, der wird nur impliziert. Der Informationsgehalt der dazu gelieferten Worte ist eigenltich nicht vorhanden, also brauchen wir nicht darauf eingehen.

Nebenbei bemerkt, die Latenz ändert sich auch bei verschiedenen Speicherkonfigurationen, und von 5600MT/s auf über 8200MT/s ausführlich gebencht worden. "Runs on my System" sollte ein Softwerker kennen, aber was solls.

Cyberpunk war auch erst in Zusammenhang mit Arrow Lake den Schlagzeilen. Da waren die Balken der Benchmarks etwa genauso verteilt, nur in anderer Reihenfolge und mit anderen Untertiteln. Da kann doch jeder 1 und 1 zusammenzählen. Einem Softwerker unterstelle ich das auch mal.

Ergo ist dieser Tweet Vorsatz oder Inkompetenz. Und ein Beispiel, schließlich könnte man das der wiedergebenden Presse auch vorwerfen. Cyberpunk wird mit dem nächsten Patch wieder so laufen wie mit Patch 2.2, das ist eigentlich sicher. Also die Möglichkeit, nicht der Patch. Was die Latenz angehen, das waren knapp 10ns in dem AIDA Benchmark, schlimmstenfalls müssen wir uns noch schnellern Speicher kaufen. Oder da war etwas mit der einzigen Hardware aus Mainboard und Speicherriegeln, bei der das bisher moniert wurde. Selbige Hardware hatte gerade einen UEFI Flash bekommen, man munkelt schon eine zurückgezogene Beta Version, aber das wieder nur am Rande, bei dem auch alles Mögliche geschehen kann. Nicht nur User Error.

Was Intel und 0x114 angeht, nun das sind sicher keine Idioten. War lange genug unter Verschluß. Was für einen Kuhhandel man da eingegangen ist oder ob das ein sauberer Patch ist, das können wir nicht beurteilen. Aber uns über das Ergebnis informieren, z.B. hier auf Computerbase. Und das sieht jetzt weder schlechter noch besser aus.
Wird wohl die náchste Gen mit Gaming wieder mehr anfangen können, bei Intel hat man sicher auch etwas gelernt dabei. Oder nicht, aber auch das wissen wir nicht.

Was nicht stimmt, und diese Meldung klar impliziert, auch in der ursprünglichen Version, es gibt keinen Zusammenhang zwischen möglichem Verlust an Speicherlatenz, für den es bisher keinerlei Indikation gab, und dem nun wieder auf Pre-2.2 befindlichen Leistung von Arrow Lake in Cyberpunk 2077. Und diese lässt keine Rückschlüsse auf die Leistung in anderen Spieletiteln zu, sondern deutet daruaf hin, dass ein Workaround einer einzelnen Software nun gegen den Patch beim Microcode arbeitet und deshalb alles wie zuvor ist. Übrigens auch ein Klassiker.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mscn
Zurück
Oben