Test Intel Arrow Lake mit MCU 114 im Test: Mehr Leistung durch Microcode-, Windows- & Spiele-Updates

Wow. 3% mehr Leistung, erkauft durch 5% mehr Leistungsaufnahme. Die Intel Brechstange wirkt wieder. Mal sehen wann die ersten instabilen CPU Meldungen kommen.

Das Teil ist wirklich schlimmer als Bulldozer. Bulldozer war wenigstens in Multicore einiges stärker als Phenom.
Ergänzung ()

Faust2011 schrieb:
, jetzt muss man auch noch wissen, was MCU 114 ist 🤷‍♂️
Natürlich Marvel Cinematic Universe 114!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TasmTeufel, .fF, boypac007 und eine weitere Person
@Volker
Die Leistung wird dabei nach wie vor bei nahezu halbiertem Verbrauch bereitgestellt. Der Effizienzsprung in Spielen bleibt mit Arrow Lake gegenüber Raptor Lake mehr als gewaltig.

die Behauptung aufzustellen ohne den 14900k einfach Powerlimits zu geben ist auch nicht wirklich passend.

ich verweise mal auf Techpowerup die zeigen das man selbst bei 90 Watt auf dem 14900k nicht so viel Leistung verliert.

https://www.techpowerup.com/review/...ke-tested-at-power-limits-down-to-35-w/3.html

Der Test zeigt auch Effektiv wie Intel mit der Brechstange versucht vorne zu sein .. und sich nicht Intel(ligent) darstellt.
 
  • Gefällt mir
Reaktionen: Taxxor und incurable
vander schrieb:
Da die GPU bei Games die primäre Rolle spielt, verstehe ich das gewurstel um die CPU Krone immer weniger. Besser man achtet da auf Effizienz.
Effizienz hat noch nie einen interessiert. Als der i9 geschluckt hat ohne Ende haben alle nach Effizienz gerufen und als dann Effizienz kam wollte es keiner und alle ruften nach maximalen fps.
 
  • Gefällt mir
Reaktionen: inge70, floTTes, dergraf1 und eine weitere Person
Sehr schön/gut !
7% mehr bei nur noch halben Verbrauch :daumen:
 
SVΞN schrieb:
Intel hat jetzt eine deutlich effizientere Grundlage geschaffen, auf der sich aufbauen lässt.
Wie denn? Mit dieser Architektur sind Speicher Zugriffszeiten ja schnarchlangsam, was sich nicht einfach so beheben lässt.
Die Architektur ist schlecht, da wird (mindestens!) die nächsten drei Jahre nichts gescheites kommen.

Und ich rede hier nicht nur von Spielen.
 
  • Gefällt mir
Reaktionen: ArrakisSand
Also auch wenn Windows gerne mal in die Performance von Spielen eingegriffen hat, gefällt mir der Trend bei Windows 11 nicht. Wer soll da noch durchblicken, welcher Microcode und welches Update nun optimal sind?
 
  • Gefällt mir
Reaktionen: Quidproquo77, KlaasKersting und Viper80511
Cr4y schrieb:
Flop ist was anderes für mich.
Für mich auch !
Die Formulierung ist etwas zu "hart".
Anstatt "Anwendung Top, Gaming Flop!"
Hätte ich eher gesagt : Anwendungen laufen wie Sau, Games eher Mau ... :cool_alt:
 
Gullveig schrieb:
Wie denn? Mit dieser Architektur sind Speicher Zugriffszeiten ja schnarchlangsam, was sich nicht einfach so beheben lässt.
Die Architektur ist schlecht, da wird (mindestens!) die nächsten drei Jahre nichts gescheites kommen.
Die Speicherlatenz ist wie bei AMD die Folge der separaten Nordbrücke.

Die haben das wo möglich mit mehr Zwischenspeicher gelöst, eine Alternative wird es auch bei Intel nicht geben, wenn man beim Plättchenaufbau in seiner aktuellen Form bleibt.
 
  • Gefällt mir
Reaktionen: N0Thing
SVΞN schrieb:
Im DIY-Markt dominiert AMD
Im Steam Hardware Survey dominiert mit 60% klar Intel. https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

Der DIY Anteil dürfte bei AMD und Intel nicht wesentlich zum Betriebsergebnis beitragen und der sicher größere Teil guckt auch eher aufs Budget, als nach dem letzten 0.001% FPS zu lechzen. 😂

Calid schrieb:
aber für eine workstation
Da Tests nicht standardisiert sind, wirst du immer irgendeinen Graphen finden, der das Verhältnis ändert.

Wenn ich aus den Spiele-Benches die rausnehme, die besonders mit dem Cache abgehen (und ich NICHT spiele), dann ist der X3D Vorteil dahin und die 500€-600€ dann ganz sicher nicht mehr wert, schon gar nicht für 8 Kerne.

Ein 12400F boxed kostet rund 110€, mit dem kommt man beim Spielen sicher auch aus. Die gesparten 400€ (zum 7800X3D) dann in die Grafikkarte stecken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gesperrter_User und incurable
Oh war das noch schön früher, man hat sich etwas gekauft, sagen wir eine CPU und ein Mainboard und gut war es und da konnte man auch gar keine neuen Versionen irgendwo her bekommen. Es musste einfach laufen.
 
Tulol schrieb:
Und die x3D?
So gesehen sind die AMD R7 und R9 ohne x3D alle im Gaming ein Flop, so wie die neuen Intel Core..
Wenn du es nur relativ betrachtest natürlich. Aber absolut gesehen ist die Leistung in Spielen solide. Es gibt kein Spiel, was auf Arrow Lake kaum spielbar wäre. Das wäre für mich das Kriterium für einen Flop.
 
  • Gefällt mir
Reaktionen: Brrr
Zwei Dinge, die unterm Radar fliegen:
  1. Die CPUs werden auch in Notebooks zum Einsatz kommen und zwar bald. Die Desktopableger sind in erster Linie das Testbett dafür --- ähnlich, wie GraniteRidge dafür gesorgt hat, dass GraniteRidge-X mit dem 9800X3D einen famosen Start hinlegen konnte.
  2. Ohne Adamantine-Cache (oder eine andere Form von 3D-Cache) gibt es keine realistische Chance, dass Intel nochmals konkurrenzfähige Gaming-CPUs baut.
 
incurable schrieb:
Auch hier gilt: Es gibt keinen größeren Quatsch als einen Durchschnitt bei Tests die abhängig von der Applikation und Last massive Vorteile für die eine oder andere Mikroarchitektur zeigen.
Du meinst also, sämtliche Grafikkartentests und CPU Tests sind Quatsch?^^ Kann es sein, dass dir allmählich die Argumente ausgehen?

mscn schrieb:
und halte - gerade für den "ersten Wurf" - den 285K für durchaus gelungen. Gerade hinsichtlich Verbrauch und der damit verbundenen Abwärme sind das WELTEN.
Wenn du auf einen aktuellen X3D umsteigst, sind das dann aber auch wieder WELTEN.

mscn schrieb:
Er darf auch gerne verfügbar werden, um den 9800X3D sieht es nicht so gut aus.
Den 285K kauft ja keiner^^
Ergänzung ()

CDLABSRadonP... schrieb:
Ohne Adamantine-Cache (oder eine andere Form von 3D-Cache) gibt es keine realistische Chance, dass Intel nochmals konkurrenzfähige Gaming-CPUs baut.
Aber der wird wohl nicht (so bald) kommen.
 
Palomino schrieb:
Ich sehe hier keinen Flop, oder gibt es irgendein Spiel, dass mit dieser CPU nicht gespielt werden kann? Sonst müsste man gleich alle nicht X3D GPUs in die Kiste Gaming Flop werfen.
Preis!!!
 
MIGGEL schrieb:
Wenn man ne ordentliche Grafikkarte hat, dann brauche ich kein Gaming CPU. GPU für Gaming und CPU für Anwendungen. Hatte vorher den 7800 x3d drin. Vorher hatte ich einen I7 9.Generation.
War total enttäuscht von AMD, da im gesamten alles schlechter geworden ist. Auch im Gaming.
Bin dann auf Core Ultra umgestiegen und Alles ist wieder besser geworden. Gaming und vor allem die Anwendungen.
Habe eine RTX4080 Super als GPU.
Da muss man ja schon Zaubern damit man das schaffen kann oder schaffen will :-)
 
  • Gefällt mir
Reaktionen: C16+4 und eXe777
Da wurde doch einfach das Power Limit erhöht. 4,6% mehr Verbrauch für 3,6% mehr Leistung.
Es gibt an den Dingern nichts zu verbessern.
Die CPU ist einfach nicht für diese Leistung konstruiert.
 
  • Gefällt mir
Reaktionen: boypac007, dergraf1 und Gullveig
Abrexxes schrieb:
Von daher eine gute erste Generation
mscn schrieb:
Ich habe den 285K seit einigen Wochen schon und ich bin äußerst beeindruckt, und halte - gerade für den "ersten Wurf" - den 285K für durchaus gelungen.
Ich hab euch beide mal stellvertretend zitiert, weil man es hier immer wieder liest, dass Arrow Lake ein erster Wurf sei, erste Generation, wie auch immer. Aber in welcher Hinsicht soll es das sein? Es ist Intels zweite Generation einer Chiplet-CPU nach Meteor Lake (sogar die dritte, wenn man Lakefield mitzählt).

Bezieht ihr euch wirklich darauf, dass es die erste Generation aus TSMC-Fertigung ist und haltet das für irgendwie positiv für Intel?
 
  • Gefällt mir
Reaktionen: bad_sign, incurable, Dai6oro und eine weitere Person
2 Dinge würden mich interessieren:

1. Beim 14900K ist wohl bei DDR5 7600 Schluss. Wieviel Mhz wird der 285K verkraften?

2. Phanter Lake scheint ja gestrichen zu sein, also wird es für den Sockel noch eine weitere Generation geben?
 
Zurück
Oben