Test Intel Arrow Lake mit MCU 114 im Test: Mehr Leistung durch Microcode-, Windows- & Spiele-Updates

"Dann schreibe dazu das die Verkaufszahlen ein Flop sind. Denn die Hardware selbst ist kein Flop."

LOL meinst du das ernst? (alles was du da oben geschrieben hast)

außer: ja die RDNA3 sehe ich auch als ziemlichen flopp.
 
  • Gefällt mir
Reaktionen: dergraf1
Calid schrieb:
außer: ja die RDNA3 sehe ich auch als ziemlichen flopp.
Nach deiner Definition eines Flops sind AMD Karten dann seit mindestens 10 Jahren ein Flop, denn die Konkurrenz hat sich deutlich öfter verkauft. Das ergibt keinen Sinn.

Leider merkt man das du nicht objektiv an die Sache rangehst, schade.
 
ja passt schon, hast schon ganz recht. mit jemandem wie dir zu diskutieren ist leider nicht möglich. du verdrehst und verbiegst tatsachen damit es deiner komischen vorstellung entspricht.

"Nach deiner Definition eines Flops sind AMD Karten dann seit mindestens 10 Jahren ein Flop"

Du vermischt Verkaufszahlen von NV und AMD und schmeißt alles in einen Topf.

RDNA3 war definitiv ein flopp - schau dir die verkaufszahlen und den marktanzeil von AMD im dGPU segment an. Katastophe. Das war mit RDNA2 noch anders. zumal hier NV bei weitem nicht so stark war wie mit Ada Lovelace Genration. RDNA2 war für AMD Verhältnise kein Flop.
 
  • Gefällt mir
Reaktionen: eXe777 und Dai6oro
@Quidproquo77

Die Verkaufszahlen bei Amazon und eBay bestätigen es aber!
 
  • Gefällt mir
Reaktionen: gesperrter_User, eXe777 und Calid
SSD960 schrieb:
Ein Fehler von Intel keine Cache zu verwenden wie AMD das macht.

Das hat nicht all zu viel mit dem 3D Cache zu tun. Die AMD 9000 Serie ist in vielen Belangen auch ohne 3D Cache schneller als Intel. Für AMD ist es von Vorteil das sie die Server CPUs, für die der spezielle Cache ja eigentlich gedacht war, auch noch an die Gamer verkaufen können.
 
Quidproquo77 schrieb:
Einen Flop messe ich natürlich an Verkäufen von Mindfactory, logisch.
wenn du ernsthaft glaubst, dass es irgendwo auf der welt anders aussieht, dann hast du mehr als eine schraube locker.
hmmmm... schon komisch siehst du hier in den top 10 irgendwo eine intel CPU. warum ist das wohl so?
zu bolldozer-zeiten war das exakt anders herum. und ja, ich weiß das noch SEHR genau!
1734933687081.png
 
  • Gefällt mir
Reaktionen: TechFA
"Final upgrade requires: Intel Microcode 0x114, Intel CSME Firmware Kit 19.0.0.1854v2.2, and Windows 11 26100.2314+ (or newer)"
 
  • Gefällt mir
Reaktionen: TechFA
Chaz schrieb:
Also nen manuell optimierter 285K mit 8200er-RAM gegen nen Standard-9800X3D mit 5200er RAM (obwohl der auch mit 6000/6400 läuft) sind dann also für dich die objektiven Werte? Interessante Sichtweise.^^
Nein, ich würde mit dem vergleichen was die Hersteller als Sweetspot sehen, also imo 6000er bei amd und 8xxx bei Intel. Bei AMD x3d macht das halt so gut wie nix aus, da gabs ja hier schon einige tests auch mit scchnellerem ram beim x3d ?
 
incurable schrieb:
"Final upgrade requires: Intel Microcode 0x114, Intel CSME Firmware Kit 19.0.0.1854v2.2, and Windows 11 26100.2314+ (or newer)"
Tja... damit stellt sich dann die Frage, war Linux von Anfang an richtig, oder muss Intel auch da noch einen Patch nachreichen? Ich tendiere zu ersterer Annahme, da die Linux-Benchmarks von Anfang an nicht schlecht waren.
 
Ich tippe, dass Intel bei Linux in der Vorbereitung der Veröffentlichung schon fleissig Hand angelegt hat, falls es dort irgendwo gehakt haben sollte, und daher die ersten Ergebnisse näher am Optimum waren als unter Windows.
 
mscn schrieb:
Nein, ist es nicht. Schau dir mal den Steam Hardware Survey an, was die breitere Masse kauft/nutzt und nicht ein paar FPS-Nerds. Die aktuellen X3D sind durch ihren Preis alles andere als eine "Brot und Butter" CPU, das war/ist das 12400F schon eher.

Du verstehst mich nicht. Leute, die einen 7800X3D oder einen 9800X3D in Betracht ziehen, werden mit Sicherheit eine ordentliche Grafikkarte damit befeuern wollen, da eine solche CPU ansonsten tatsächlich rausgeschmissenes Geld wäre. Sollte ich jedoch eine CPU für eine Highend Grafikkarte suchen (wo halt oft zu X3D gegriffen wird), brauch ich nicht an der CPU sparen, weil die GPU mit einem 12400F dann ausgebremst werden würde. Deswegen steht deine Aussage, einfach einen 12400F einem X3D vorzuziehen und mit den gesparten 400€ eine bessere GPU zu kaufen, auf wackeligen Beinen. Es kommt halt auf den konkreten Fall an, in welchem GPU-Bereich wir uns befinden.
Will ich mit einer Mittelklasse-GPU zocken, die dann sowieso der Bottleneck sein wird, kann ich natürlich auch zum 12400F greifen und das Geld für einen overpowerten 7800X3D/9800X3D sparen. Gehe ich in die GPU-Oberklasse, brauch ich mir dazu keinen 12400F reinpacken, weil ich dann wieder in der Mittelklasse ende.
 
Chaz schrieb:
Deswegen steht deine Aussage, einfach einen 12400F einem X3D vorzuziehen und mit den gesparten 400€ eine bessere GPU zu kaufen, auf wackeligen Beinen.
Das war keine Kaufempfehlung, vielmehr eine nüchterne Zusammenfassung meinerseits.
Viele (Steam Hardware Survey) scheinen das genau so zu machen.

Da ich selber drei Kinder im Teenager-Alter habe: das ist denen sowas von Bumms, inwiefern die Frametimes besser sein könnten (oder was das überhaupt ist) - es soll einfach flüssig laufen und nicht wie auf der Switch aussehen, nebenbei muss Discord laufen für Voice mit Freunden Und: die wollen nicht viel (Taschen-)Geld ausgeben. Maximal WQHD, maximal 100Hz Bildschirm. Dafür braucht es weder eine RTX 4080, noch einen 9800X3D.

Chaz schrieb:
Es kommt halt auf den konkreten Fall an, in welchem GPU-Bereich wir uns befinden.
👍

Chaz schrieb:
Will ich mit einer Mittelklasse-GPU zocken, die dann sowieso der Bottleneck sein wird
Außer uns hier kann sowas kaum jemand beurteilen. Ob ein Bottleneck auftritt und was dafür verantwortlich ist, wissen auch hier längst nicht alle (schon gar nicht, wie man dem nachgeht). Genau das also, was ich mit meinem ersten Absatz meinte. Dementsprechend entscheidet sich der Großteil der Käufer auch nicht nach diesen Kriterien. Dazu kommt: nicht jeder spielt 24/7 anspruchsvolle AAA-Spiele, wenn überhaupt.

TL;DR: ich bin ganz bei dir aber wir reden aneinander vorbei.

Während du die Zusammenhänge richtig darstellst, welche die Grundlage für eine Kaufberatung sind, versuche ich zu sagen, was aus meiner Erfahrung und ohne solche Foren hier passiert: es wird von der Stange gekauft und man endet trotzdem mit einem brauchbaren Spielerlebnis.

Ist der 9800X3d zum Zocken das Beste? Ohne Frage. Geht es auch für deutlich weniger Geld, ohne "Schmerzen" beim Spielen? JA! Und das sollte mein 12400f-Beispiel zeigen.
 
  • Gefällt mir
Reaktionen: janer77
Dessi schrieb:
Das geht wohl nicht - ich will erst mal 60ns Latenz sehen, dann reden wir weiter...
Ist doch easy. Cacheline Size 32 byte, Testsize 1 GiB pro Thread, sequentieller Zugriff mit 20er Stride und abfahrt.
Dann haste bestimmt 20ns oder weniger
 
Lars_SHG schrieb:
Dank der geringeren Energieaufnahme endlich eine runde CPU, die zwar in Games hier und da von dem Spitzenmodell von AMD geschlagen wird, aber dennoch für viele Anwendungen am geeignetsten ist!
Allrounder sagte man früher.....


Hier und da? Der 7800X3D schlägt die CPU so gut wie immer. Vom 9800X3D reden wir gar nicht erst.

Ja, wenn ich nur mit dem Teil arbeite und nur Anwendungen nehme, die mehr als 8 Kerne gut auslasten können, dann....

Oder wenn ich darauf hoffe, dass Spiele mal mehr als 8 Kerne nutzen. Tun leider nicht viele. Selbst Anno zieht mit einem 9800 X3D davon, obwohl es viele Kerne nutzen kann (aber nicht komplett auslasten).
 
OiOlli schrieb:
Oder wenn ich darauf hoffe, dass Spiele mal mehr als 8 Kerne nutzen
Das sieht im MSFS 2024 schon wieder ganz anders aus und im "Game Mode" wird der 9800X3D zur Multi-Core Gurke. Falls du Erweiterungen oder gar einen Stream planst, vergiss das.

Mein 285K hat 24 ECHTE Kerne, die im MSFS 2024 ausnahmslos alle (teils aber nur leicht) belastet werden.
Unter einem 9950X3D ginge für mich gar nichts und der war noch nicht verfügbar.

Wir sind übrigens immernoch im Beitrag "Intel Arrow Lake mit MCU 114 im Test: Mehr Leistung durch Microcode-, Windows- & Spiele-Updates". Warum AMD für reine Spielerechner oft die bessere Wahl ist, wird in anderen Beiträgen ausreichend erklärt (meine Meinung: außer Spiele kann der von dir genannte 9800X3D sehr wenig fürs Geld).

Zum Thema: für mein Z890I Nova wurde gestern wieder eine Beta mit neuem Microcode veröffentlicht, heute aber erneut zurückgezogen. Schade, dass es dazu keine Details gibt.
 
Die Aussage war, es sei die rundere CPU. Was nur gilt wenn man entweder nicht spielt, oder neben dem spielen noch haufenweise Software nutzt, die nutzen aus vielen Kernen ziehen. Bei mir ist das nicht der Fall. Selbst wenn ich mal ein Video umwandele, ist der Zeitgewinn die Mehrkosten nicht wert.

Dein 285K kostet übrigens noch mal 250 € mehr, als ein 9800X3D und die Plattform ist laut Gerüchten schon wieder EOL.

Der Game Mode ist für Spiele gedacht, die von SMT nicht profitieren. Und das ist leider immer noch die Mehrheit.

Zum MSFS 2024 hab ich nur einen Benchmark gefunden und da wurde von Toms Hardware maximal ein 13900K getestet. Der hielt zwar mit dem 9800X3D mit, hat ihn aber nicht überholt. Ich nutz noch den MSFS 2020. Da liegt ein 14900K unter dem 7900X3D.
 
OiOlli schrieb:
Die Aussage war, es sei die rundere CPU
Eine auf Spiele optimierte CPU ist nicht rund, sondern hat die Form einer Gurke.
AllROUNDer wären "runde CPUs" aber zu dieser gehört ein 9800X3D für mich sicher nicht.

Das ist übrigens nicht die Frage, die der Beitrag zu klären versucht - denn es geht hier um Intel.
 
Artikel-Update: Gigabyte und MSI verteilen für erste Z890-Mainboards inzwischen die von Intel für Januar in Aussicht gestellte Kombination aus Microcode Update 0x114 (MCU 114) und Intel Management Engine (ME) Firmware 1854 v2.2 direkt in einem Paket. Bei Asus wird diese Variante als Beta verteilt. Der Artikel enthält bereits Benchmarks mit dieser Kombination, wenngleich die Installation der Intel Management Engine (ME) Firmware 1854 vor dem Fest noch separat erfolgt war.
 
  • Gefällt mir
Reaktionen: TechFA, Quidproquo77, mscn und eine weitere Person
Zurück
Oben