Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

K3ks schrieb:
Du willst von einem 13900k wechseln? :freak:
Ja, die minfps werden mit dem 9800x3D deutlich höher liegen bei einer RTX 5090 als mit meinem 13900K.

Eine 4090 wird im unteren Framekorrdior mit den neuen x3D ebenfalls wieder etwas schneller werden, auch unter 4K.
Selbst wenn es nicht spürbar sein sollte, sondern nur messbar.
Da gehts um mein "Enthusiasten Prinzip" ;-) Die schnellste CPU für die schnellste GPU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche und Sherman789
Quidproquo77 schrieb:
Die aus dem Test?

Aso dann sieh dir mal den hier an:

Wenn man alle Rails nicht extra ausmisst ist da nix mehr mit Verbrauchs-Aussagen.
Der Verbrauch bzw. die Effizienz ist klar ein Fortschritt, aber weit geringer als hier bei CB zu lesen.
 
  • Gefällt mir
Reaktionen: Rodogir, Booby, eXe777 und 2 andere
Pisaro schrieb:
Echt? Man kann ohne Prozessor zocken? :p
Gemeint war: mein 3900X tut es immer noch, die FPS kommen bei 4K über die Grafikkarte. Oder anders: wer spielt in 720p?
 
  • Gefällt mir
Reaktionen: Framue_
Bierliebhaber schrieb:
Laut HardwareUnboxed ist der 285K völlig am Ende, wenn in Spielen die CPU mehr gefordert wird, und bricht dann auf das Niveau des 12600K ein
Ja, das Video hab ich gesehen und das sagt mir, dass da doch noch was drin sein muss. Auch deren Zahlen zu CS2 und die vom Bauer,die ja die Aussage stützen durch die schlechten 1% lows, dass Roman die da hatte und die anderen nicht. Wie immer wiegelt Intel wohl erstmal ab, der Microcode ist final, aber das können die intern doch niemals so stehen lassen, da muss doch noch was gehen.

Man wird sehen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und bad_sign
Es ist ein geoßer Sprung. Aber weniger als erhofft. Irgendwie schade.

Das Gute ist aber dass mein Ryzen 5600G immer noch recht aktuell ist. Insbesondere wenn ich im 50W Limit bleibe. Da sind die neuen CPUs auch nicht erheblich besser. So spare ich Geld.
 
Finde das Ergebnis kann sich eigentlich ganz gut sehen lassen. Gerade wenn man eine Effizienz um 120W betrachtet dann ist in Apps, Gaming und vor allem auch Leerlauf die Sache wirklich nicht schlecht - dann auch vor der Konferenz.

Ich denke im gemischten Alltag braucht die Intel CPU deutlich weniger Saft als die Konkurrenz intern und extern, hat nen guten schnellen Encoder an Bord, ne GPU, deutlich besseren low Load Verbrauch und ist meine ich auch günstiger.
 
Cameron schrieb:
Gemeint war: mein 3900X tut es immer noch, die FPS kommen bei 4K über die Grafikkarte. Oder anders: wer spielt in 720p?
Den Sinn von CPU-Tests nicht verstanden. Setzen, 6!
 
  • Gefällt mir
Reaktionen: nuestra, MehlstaubtheCat, arvan und 3 andere
Quidproquo77 schrieb:
Installier doch einfach das Microcode Update, bzw. tausche die CPU, sollte sie degeneriert sein. ;)

Jede betroffene RPL CPU ist laut Intel's eigenem Eingeständnis irreversibel degeneriert. Der einzige Unterschied ist der, ob die individuelle CPU so degeneriert ist, dass schon Fehler im Betrieb zu verzeichnen gewesen sind oder nicht.
Wer "Glück" hatte, hat vielleicht im Betrieb davon noch nichts gemerkt, aber das ändert nichts daran, dass die CPU durch Vmin Shift irreversiblen Schaden genommen hat.

Meine CPU hatte Auffälligkeiten im Betrieb. Ich habe selbstredend alle drei Vmin Shift betreffenden Microcode bzw. BIOS Updates noch am Tag ihres Erscheinens eingespielt.

Interessanterweise ist dadurch eine Auffälligkeit tatsächlich verschwunden, weshalb ich Intel's Aussagen immer noch nicht ganz über den Weg traue.
Das betrifft bei mir die nVidia Treiberinstallation, die bis zum Microcode Update im August seit Anfang diesen Jahres regelmäßig (mit einer Ausnahme) mit einem relativ nichtssagenden "nVidia installer failed" Error an unterschiedlichsten Stellen der Installation fehlgeschlagen war.

Das wurde komischerweise durch das Microcode Update behoben. Ich konnte seit August alle Treiberversionen problemlos installieren.
In Anbetracht der Aussage Intel's hinsichtlich irreversibler Schäden wundert mich das etwas, aber die müssen in der Entwicklungsabteilung da wohl irgendwelche Workarounds/Tricks gefunden haben, um solche Crashes softwareseitig abzufedern.

Naja, egal und Haken dran... die degenerierte Müll-CPU liegt hier neben mir auf dem Schreibtisch und wird die Tage dem Intel RMA Prozess zugeführt. Die Austausch CPU wandert auf eBay. Und tschüss, Intel.
Fortan erfreue ich mich eines stabilen AMD 9700X Systems, das bei guter Verfügbarkeit des 9800X3D direkt noch mal ein Upgrade erfahren wird. Bisher bin ich mit dem Wechsel exorbitant zufrieden :) .
 
  • Gefällt mir
Reaktionen: Luxmanl525
Im Kopf klingelt irgendwas.
Gefühlt ist das der Pentium-M-Moment, aus dem Core2Duo hervorstieg.
Die Älteren werden sich vielleicht erinnern.
Also vielleicht ein guter Start.
Aktuell aber unkaufbar, bei dem Preis für die Plattform.
 
  • Gefällt mir
Reaktionen: gustlegga, nuestra und Luxmanl525
Wieso wird hier der AM5 so verteufelt? Ich finde den besser als den AM4. Wenn ich noch an die Probleme beim Launch von AM4 denke, auch danach, diese Ram Zickigkeit, dann zig AGESA Patches von AMD. Dann die Wärme, da wurde schon ein Midrange 3600 heiß, obwohl nur in normaler Gaming Umgebung.

Wie angenehm entspannt war da der AM5 Launch. B650 Board mit 7500f und EXPO Ram von Kingston, da brauchte es nichts, kein Bios Update, kein AGESA rumprobieren, lief auf Anhieb bis heute problemlos.
 
  • Gefällt mir
Reaktionen: Raidiri und Luxmanl525
Eli0t schrieb:
Die muß nicht unbedingt teurer sein, ..., was den Preis pro Chip dann verteuert.
Du widersprichst dir. Der Yield eines Prozesses ist Teil der Kalkulation hinter den Gestehungskosten pro Stück, und mithin das Maß der Wirtschaftlichkeit. Buchaltärische Taschenspielertricks ignorierend.
 
Intel wollte hier nur mal den Beweis antreten, dass AMD eben nicht über alle Maßen von der besseren Fertigung profitiert hat. AMD hat einfach eine gute Architektur. Gut dass das mal von Intel klargestellt wurde.

Noch ein paar Gedanken:

- Bitte hört auf von " ich spiel aber nur auf 4k" irgendwas zu rechtfertigen. In den meisten Games müsst ihr jetzt schon auf 4k auf DLSS und Konsorten zurückgreifen und da ist die Renderauflösung eben nicht 4k. Ein schnellerer Prozessor hält zudem länger (für wen das ein Faktor ist).

- Tragisch an der Ganze Geschichte ist zudem: Intel hat Arrow Lake refresh gecancelled, da.h. Arrow lake wird evtl. die einzige CPU für diesen Sockel bleiben (Gabs das schonmal?). Würde mich nicht wundern, wenn Zen6 noch vor Nova Lake kommt. Das wird ein bitteres Jahr für Intel.

- Dazu ist das alles sehr teuer. Wenn ich mir vorstelle was der schnellere RAM (+ evtl. teures Board) noch kostet damit Intel überhaupt noch in die Nähe des Vorgängers kommt. Ich frage mich ob ein Raptor Lake refresh refresh auf TSMC portiert nicht besser gewesen wäre.

- @Volker Ich finds nicht gut für die Leistung das Leistungsprofil zu nutzen für den Verbrauch dann plötzlich ein anderes. Für mich ist das Cherry Picking. Auch weiß ich nicht was Intel mit OC Ram in der Liste zu suchen hat. Macht nen neuen Artikel für RAM OC + OC wie früher auch (oder wie bei AMD). Gleiches Recht für alle.
 
  • Gefällt mir
Reaktionen: nuestra, FaYaJaH, catch 22 und 5 andere
@Neronomicon
Säufer ist übertrieben, sie sind klar deutlich effizienter als Raptor, aber wenn man nicht bei
allen Rails nachmisst, kann man keine Effizienz Aussagen mehr treffen.
Weil sonst sieht er schlicht viel besser aus als er ist.
 
Hallo zusammen,

@Dai6oro
Dai6oro schrieb:
Für mich ist das Cherry Picking.
Jep. Dem kann ich mich nur voll umfänglich anschließen. Deshalb habe ich dieses Mal auch mehr Gewicht auf den Test einer anderen Seite gelegt - Stichwort "Igor" -.

Das einzige was wirklich in jeder Weise positiv ist an der Intel-Generation, ist die thermische Unauffälligkeit, sozusagen. Vor allem in Relation zu den beiden vorhergehenden Intel-Generationen. Die neuen sind total Easy zu Kühlen.

Aber was mir zusätzlich dazu auffällt ist der Fakt, daß AMD in genau dem Bereich bei Zen5 auch thermisch viel getan hat. Und ich halte das mittlerweile für keinen Zufall mehr.

So long...
 
Youngtimer schrieb:
Vielleicht will er ja nur Spielen und nicht in theoretischen Auflösungen Benchmarken?
dann soll er sich Grafikkartentests anschauen
 
  • Gefällt mir
Reaktionen: McFritte, thom_cat und arvan
Zurück
Oben