Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

ich muss dieses Jahr noch einen neuen PC haben. Erster Gedanke war eindeutig AMD. Dann gesehen, was AMD für einen Mist bei den Chipsätzen gemacht hat (X870E: kein 1xPCIe x16 + 2x M2; wie supporten die Hersteller X670E). Freudig gesehen, dass Intel mit 1x PCIe x16 plus 2 volle M2-Anschlüsse bietet. Dazu eigentlich die Gewissheit, dass Intel Treiber, Microcodes und Windowsoptimierungen im Griff hat. Also die Tests abwarten.
In gewisser Weise hätte sich dann auch ein Kreis geschlossen: vom 6700K kommend wären die E-Cores schon performanter und bei 265K auch direkt eine Verdreifachung. Von den P-Cores wollen wir nicht dazu. Dazu eine Generation, die neue Wege geht. Hach, wie schön könnte die Welt sein. Und dann kamen die Tests!

Schön zu sehen, dass man bei Intel erkannt hat, dass es ohne Effizienz nicht mehr geht. In Anwendungen ist das ein Monster und AMD muss sich strecken. Dafür dreht sich das Bild dann in Spielen. Von 14900KS-Leistung mit deutlichen geringerem Verbrauch bis vom Vorgänger demontiert ist alles dabei. der8auer hat Intel auf diese Ausreißer angesprochen und die Antwort war quasi: Stand der Technik. Damit hat Intel seine Vormachtstellung auf dem Gebiet Optimierung aufgebraucht.
Steve von GN hat am Ende seines Reviews einen interessanten Satz gesagt: Intel hat eine gute Rohleistung, kriegt es aber nicht auf die Straße. Er sieht Arrow Lake als gute Basis, die sich entwickeln muss, quasi wie Zen 1. Golem titelt in seinem Test dazu passend "Intel hat einen Zen-Moment".

Sollte Intel es nicht gelingen über Updates die Performance konstant zu halten, bleibe ich bei meinem ersten Gedanken.
Was sowohl bei Zen5 als auch Arrow Lake auffällt ist, wie unfertig die Produkte vom Hersteller auf den Markt kommen bzw. erst durch nachträgliche Mikrocodes- und Windows-Updates ihre Leistung entfalten.
 
  • Gefällt mir
Reaktionen: Cr4y und DerFahnder
Wenn überhaupt, wird Intel bei Gamern nur über den Preis etwas reißen können. So sehe ich das. Aber zu den aktuellen UVP-Preisen wird das sicherlich gar nichts werden. Im Frühjahr/Sommer 2025 plane ich mein derzeitiges AM4-Hauptsystem durch ein Neues zu ersetzen. Eine kleine Chance hat Intel aber dennoch bei mir, da mein Fokus halt nicht nur beim Gaming liegt. Und in Anwendungen machen die neuen Intel-CPUs ja eine gute Figur. Aber wie gesagt, da müsste es mit den Preisen deutlich nach unten gehen. Der 245k wäre mir aktuell gut 100€ zu teuer. Und der neue 1851'er Sockel müsste zudem mindestens noch die nächsten zwei weiteren kommenden CPU-Generationen mit abdecken. Bei Intel ja meist ein Pokerspiel. Aber ich würde gern mal wieder ein Intel-System haben. Ist schon eine Ewigkeit bei mir her. Nur, so nicht.

Vielen Dank, für diesen Test, CB! Meine vorherigen Vermutungen zu Intel Core Ultra wurden nahezu zu 100 Prozent bestätigt.:)

Mr. Edit. Ich sehe gerade, der 245K wäre sogar noch zu klein für meine aktuellen Ansprüche. Dann würde das ganz ja noch viel teurer werden. Nö, dann werde ich mit großer Wahrscheinlichkeit auf AM5 gehen. Evtl. dann mit einem Ryzen 7700/7900X. Letzterer hat mittlerweile wirklich ein gutes P/L-Verhältnis, wie ich finde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche
ElliotAlderson schrieb:
Was AMD mit 3N reißt, kann man nur spekulieren oder hast du Insiderinfos?


600€ sind alles andere als geschenkt und das sage ich als 4090 Besitzer.
600€ für eine cpu ist wirklich fast geschenkt für einen 4090 Besitzer der über 1500 für die gpu investiert hat
 
  • Gefällt mir
Reaktionen: JarlBallin
Für mich bleibt ein positives Fazit:

Endlich schaut Intel mal in Richtung Effizienz und "Komplettpaket". Denn das ist ein riesen!!! Sprung zu den Vorgängern und der Vorgehensweise der letzten Jahre, wo Intel nur Brechstange gemacht hat.
Von daher schaue ich mal hoffnungsvoll in die Zukunft, dass wir nicht nur wieder Konkurrenz in allen Bereichen bei CPUs bekommen werden, sondern sich das Mindset auch weg von "längster Balken in einem Szenario" hin zu "gutes und effizientes Gesamtpaket" entwickelt.
 
  • Gefällt mir
Reaktionen: K3ks
ElliotAlderson schrieb:
Was AMD mit 3N reißt, kann man nur spekulieren oder hast du Insiderinfos?
Man kann ja einfach das nehmen, was TSMC angibt:
"In summary, TSMC’s 3nm technology offers roughly a 10-15% performance boost, up to 30% better power efficiency, and a 60% improvement in transistor density over 4nm, positioning it as a significant leap forward for premium and performance-oriented chips. However, the high cost and complexity might restrict its initial use to high-margin products."

Da liegt eine Welt zwischen den beiden Nodes. Und natürlich gäbe es bei einem einfach node-switch keine 10-15% - wo sollten die den herkommen ausser dem Takt? Und der steigt ja bekanntlich zumindest bei Intel nicht an, mit dem Wechsel auf TSMC.
Die Effizienz - der grosse Vorteil von Intels neuer Generation - würde aber sicher massiv steigen. Vielleicht nicht um die vollen 30%, aber doch erheblich. Dazu gibt die höhere Transistordichte wieder Möglichkeiten ein paar Dinge mehr reinzupacken wie z.B. grössere Caches, siehe RL, was das bringen kann.

Ich habe natürlich auch keine "echten" Daten, aber angeblich kostet der gleiche Chip zwischen 20 und 40% mehr auf 3NM. selbst wenn es nur die Hälfte wäre, ist es mehr. Der 3NM ist hart umkämpft, die Preise, die TSMC für die neuen Prozesse nehmen kann fast egal - Apple und NV sei dank. Entsprechend machen sie da den verrückten Gewinn, was man tatsächlich dann auch faktenbasiert im Geschäftsbericht prüfen kann.
 
HAse_ONE schrieb:
Das ist viel zu pauschal schon wieder. Das ist EIN Vergleich in Cinebench, in anderen Anwendungen kann es auch anders aussehen und in Gaming ist er nicht Effizienter als die x3D Chips von AMD.
Immer diese Extreme "nass machen" "sieht kein Land mehr" ...
Ich kann nur bewerten was ich sehe und die Effizienz in anderen Anwendungen ist hier nicht ersichtlich.
Kann es sein, dass für dich nicht sein kann, was nicht sein darf? ;)
 
nuestra schrieb:
600€ für eine cpu ist wirklich fast geschenkt für einen 4090 Besitzer der über 1500 für die gpu investiert hat

Gibt solche und solche 4090 Besitzer. Kenne genug Leute mit 4090s Builds, bei denen die GPU 65-70% des Gesamtbudgets ausmachte.
 
HerrRossi schrieb:
Wie ist das gemeint? 2x M.2 5.0 x4?
1x PCIe 5.0 x16, 1x M.2 5.0 x4, 1x PCIe 4.0 x4 direkt und ohne Lane-Sharing an die CPU. Bei AMD bei X870E wegen dem USB-Zusatzchipsatz nur 1x PCIe 5.0 x16 und 1x M.2 5.0 x4. Eine weitere M.2 bedeutet GPU dann nur noch x8 oder es geht über den PCH.
 
an sich ist arrow lake genau richtig designt worden
moderner node tiles und moderne ram Unterstützung. (cudimm)
Es fehlt quasi ein heftiger rutsch bei der ipc
Der plan von keller war es die e-cores mit den p core zu vereinen und quasi ein cpu kern zu haben der nach bedarf thread splitten kann und ohne split die maxed ipc für singlecore zu haben.
Das wurde begraben, leider. Somit muss intel den Takt Weg gehen mit n2 node oder eigener Fertigung bei den p-core da diese aber ab nova lake wegfallen sollen dürfte arrow lake die letzte gen sein mit p-e core design.
Panther lake soll folgen aber es ist unklar ob dies überhaupt am desktop kommt. Daher ist der desktop Fahrplan komplett im Dunkeln.
beast lake wurde begraben was bleibt ist ein refresh von arrow lake mit n2 cpu tiles die etwas mehr Takt erlauben 2026.
Danach ist offen was kommt.

Sofern die preise sich anpassen, aktuell gehen die gar nicht insbesondere bei den mainboards, ist arrow lake ne option.
 
  • Gefällt mir
Reaktionen: Chocobo und Javeran
Ja, genau. Wird eigentlich nur noch mit Windows 11 getestet? Wie sieht der Vergleich zu Windows 10 und Linux aus?
 
Dass die Leistungsaufnahme runter gegangen ist, ist definitiv gut. Ich hätte mir nicht vorstellen können wo das sonst Enden sollte und wie man das noch kühlen soll wenn man keine Wasserkühlung einbauen möchte. Leistung leidet dadurch aber mal sehen wohin sich Intel die nächsten Jahre entwickelt. Mit dieser CPU sind sie erstmal keine große Alternative.

Ende 90er bis mitte 2000er AMD gehabt (erster war der AMD K6-3D 450Mhz), dann auf Intel gewechselt und jetzt, nach 20 Jahren, gehts wieder zurück zu AMD mit dem 9800X3D. Es fühlt ein wenig an wie "nach Hause kommen". Ich bin schon bisschen hyped muss ich sagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche
Freiheraus schrieb:
Es geht mir um die Blender Render-Messungen wo Volllast anliegt.
Dann liegt Arrow Lake bei 9,60 @ stock und der 9950X @ stock bei 8,51.
So machts Sinn, denn Zen 5 hat @ 200W PPT eine etwas bessere Effizienz als Arrow Lake mit 250W PPT, wenn die CPUs durchgehend Last haben. Mit niedrigeren Powerlimits kehrt sich das dann langsam um.
ElliotAlderson schrieb:
Igor hat so viel Mist gebaut in der Vergangenheit. Wundert mich, dass dem überhaupt noch irgendwer glaubt.
Naja, es steht im Test zumindest im Fließtext aber nicht in der Systemkonfiguration, wo es eigentlich rein gehört. Mit PBO wird der Zen leider unnötig ineffizient. So ein Powerlimit von 250 Watt ist für diese CPUs kompletter Unfug und weit vom Sweetspot entfernt. Der liegt bei Intel irgendwo bei 70-100W und bei AMD Zen 5 so bei ~150.
 
@digdib Phoronix testet halt sehr anwendungslastig. Auch hier bei CB sehen beide in Anwendungen gut aus, aber weniger im Gaming. Windows bringt sicher seine eigenen Probleme mit, aber den unterschiedlichen Fokus muss man halt auch mit einbeziehen.
 
ThirdLife schrieb:
Der 5950X hat 969€ bei Release gekostet
Kurzer Einwand zur Korrektur: Der hat zu Release offiziell 799,- Euro gekostet und lag damit 20,- Euro unter den 819,- Euro des 3950x
 
  • Gefällt mir
Reaktionen: JarlBallin, Dittsche und ThirdLife
INTEL ULTRA 9 285K vs INTEL i7-13700K | Test in 6 Games


285K ist doch wesentlich schneller als z.B. 13700K? Krass. Also ist die CPU doch brauchbar?
 
Puh, erstmal 31 Seiten durchgescrollt....

Eli0t schrieb:
CB hat nur EPS12V gemessen und den Mehrverbrauch über den ATX-Stecker vergessen,
Ist das denn bestätigt? Oder ein Board genutzt, dass die CPU nicht über 24Pin mit versorgt.
Aber ja, ich sehe deine Bedenken bezüglich der Genauigkeit der CB Messungen.
Volker schrieb:
Wir nehmen hwinfo letzte beta und loggen all Power in mit. Sieht nicht so aus als würden da 100 Watt fehlen oder woanders herkommen.
Ist "All Power in" eine Angabe von Intel Mainboards? Bei meinem AM4 System bekomme ich die zumindest nicht angezeigt.

Ich denke auch nicht, dass es da um 100W geht, denn es sind ja nur zwei +12V Adern und es ist schon bedenklich, dass sich Grafikkarten darüber 75W ziehen dürfen....zusätzlich zu den Lüftern, Chipsatz und was das Mainboard da noch alles dran klemmt.

Aber wenn es z.B. 5-20W sind, ist das schon ein Einfluss außerhalb der Messtoleranz und es wäre durchaus in eurem Sinne, keine Zweifel an euren Messungen aufkommen zu lassen.

Früher hat CB ja auch das Gesamtsystem gemessen, was natürlich seine Nachteile hat bezüglich der Vergleichbarkeit der Mainboards.
In diesem Fall hätte ich mir diesen Wert als Ergänzung zurück gewünscht.

Das Fazit wird es nicht ändern, aber eure Glaubwürdigkeit wird gestärkt.
piccolo85 schrieb:
PU XY muss dabei aber weder eine hochauflösende BVH berechnen, noch 4k Texturen entpacken.
Ich weiß nicht ob du trollst, aber es wurde dir ja später schon öfter ausführlich geantwortet.

Die "4K Texturen" gibt es nicht. Wenn im Grafikmenü "Ultra Texturen" ausgewählt ist, dann sind die auch in 720p die gleichen Dateien und die gleiche Arbeit für CPU und GPU.
piccolo85 schrieb:
Ob die CPU also auf 4k meine 4090 nicht doch irgendwann verhungern lässt erfahre ich nicht, wenn auf 720p getestet wird.
Doch, da du sehen kannst, was die CPU(mit Einstellungen XYZ) an Frames ausspucken kann und das ist unabhängig davon ob du da eine 2060, eine 4090 oder irgendwann eine 6090 benutzt.

Etwas Eigeninitiative muss man mitbringen, wenn man die reviews auf das eigene System übertragen möchte.
Und das bedeutet, dass man sich überlegt, ob man von z.B. 120 möglichen "CPU Frames pro Sekunde" in Spiel XY einen Nutzen hat, oder ob man eh mit 70 FPS im GPU Limit hängen wird(Eigene Erfahrung oder Einschätzung über GPU Reviews)
Das eine höhere Auflösung die "CPU Frames pro Sekunde" normalerweise nicht beeinflusst, ist oft genug bewiesen worden...z.B. hat HWunboxed ein paar Videos dazu.
Das mag theoretisch mit speziellen Raytracing Spielen anders ein, aber da kannst du gerne mal ein Beispiel raussuchen, wo sowas auftritt und du in 4K im vollen CPU Limit, schlechter bist als in 720p.
RobinSword schrieb:
Das alles ist in den 720p-Tests auf low details mit alle Features off gar nicht berücksichtigt.
Daher testen die allermeisten Reviewer auch mit maximalen Details und optional mit Raytracing.
Wie du das hier anprangerst ist es ein Strohman Argument, da du einen Unstand angreifst, der zu 99% nicht zutrifft.

Ich könnte eher verstehen, wenn sich Leute mehr Daten mit angepassten Details wünschen, da es selten sinnvoll ist alle Settings auf Ultra zu nutzen.
---------------------------------

Zu den Arrow lake CPUs:
Wirtschaftlich wird das ein Flopp für Intel.

Es gibt keinen guten Grund für Intels-Produktiv-Nutzer zu wechseln, da sich die Investition über den gesparten Strom selbst in Deutschland nicht amortisieren wird....die Leistung ist schwankend, ohne deutlich schlechter oder deutlich besser zu sein.
Die Preise sind im Moment auch nicht attraktiv und selbst der AMD-Flopp mit Ryzen 9000 steht aus meiner Sicht besser da...auch ein Flopp von AMD aber ein kleinerer als Intels. ;)

Und für reine Spieler geht es ja zu 95% nur rückwärts und vermutlich bei AMD mit dem 9800X3D zumindest minimal vorwärts....7800X3D dominiert bis dahin....selbst kleinere AMD Modelle schlagen teilweise die Core Ultra CPUs zu viel günstigeren Preisen.

Was die Neuentwicklung angeht ist ist es ein Schritt in Richtung Zukunft. Viele neue Ideen und endlich ein gebändigter Stromverbrauch und Multichip Design.
Darauf kann Intel aufbauen und ich bin zuversichtlich, dass sie zumindest in der übernächsten Desktop Generation wieder gut da stehen.

Im Notebook Bereich bringt es sie vermutlich bald schon in eine gute Sitation, auch wenn es absurd ist, dass die Gerüchte für die kleineren Modele eine Raptor lake refresh prognostizieren. Das wäre ja grausig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: G00fY und Shio
Zurück
Oben