Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

Capthowdy schrieb:
Uff, das ist wirklich enttäuschend!
Naja habe ich nicht anders erwartet genau deswegen ist auch der Deal mit MS nicht zustande gekommen für eine Xbox Pro 😉
 
Ich bin überrascht, welch zweischneidiges Schwert der ganze Spannungsversorgungskram mit DLVR bei Arrow Lake ist. Habe gestern Abend Romans Video gesehen und sehe die Volllasteffizienz jetzt mit anderen Augen. Aber einen Dauerlösung ist das nicht, vielleicht bekommt man es in Zukunft hin, dass je nach Lastsituation automatisch zwischen DLVR und Bypass umgeschaltet werden kann?
 
@thom_cat Was definitiv seltsam ist. Aber generell krass, wenn man bedenkt, dass bei einem 285K unter Volllast von den 240W ca. 60W komplett unnötig durch zusätzliche Spannungswandler verbraten werden. Aber damit ist auch klar, warum die erst jetzt zum Einsatz kommen. Raptor Lake hatte sie ja gerüchtehalber auch schon, nur eben deaktiviert. Dann hätte ein stock 13900K eher 320W unter Volllast gezogen
 
  • Gefällt mir
Reaktionen: thom_cat und Mcr-King
Die DLVR wandlerverluste unter volllast sind echt ein Problem. Mich hat es überrascht, wie viel Energie da einfach verpufft. Ich denke dynamisch zwischen DLVR und Bypass zu wechseln wird nicht so einfach gehen, weil das jeweils einen ziemlichen rattenschwanz nach sich zieht.

was aber bestimmt geht, ist, den Spannungsunterschied zwischen Vin und nutzspannung zu reduzieren - weil das verursacht ja erst die Wandlerverluste.

im wesentlichen hat man am unteren Ende die Spannung für den Bus bei ca 1v und die p cores bei 1,25-1,3v und input mit vdroop etc von ca 1,4 bis 1,5v.

Wenn alles bei ca 1,1v liegen würde und Vin ist 1,2v, wären die wandlerverluste wohl deutlich niedriger. Ich denke das könnte aber auf die Stabilität gehen, wenn der Puffer zu klein ist.

OC geht bei den p cores offensichtlich nicht so gut, aber undervolt geht anscheinend ziemlich gut. Vielleicht bekommt man so das delta zwischen ein und Ausgangsspannung runter. UV hat noch einen Vorteil. Mit der reduzierten Spannung reduziert sich auch der Strom generell, was ebenfalls die Wandlerverluste reduziert.

Ich denke da kann man mit tuning die ca 40-50w Wandlerverluste bei volllast auf 10-20w reduzieren - reines Bauchgefühl.
 
Verak Drezzt schrieb:
@HerrRossi es geht ja nicht nur darum die Konkurrenz dahingehend mit einer neuen Generation leistungsmäßig zuschlagen, sondern Intel schafft es noch nicht mal die eigene alte zu überholen und noch knapp 10% dahinter zu liegen
Im Kontext ging es um den Text von Phoronix, da ist die neue CPU schon schneller als die alten Intel CPUs.

Dass hier zum Teil haarsträubend Rosinen gepickt werden, darüber brauchen wir nicht zu diskutieren ;)
 
  • Gefällt mir
Reaktionen: Mcr-King, Dittsche und Verak Drezzt
modena.ch schrieb:
Also da wolln wir doch mal etwas berichtigen, Raptor war bei über 160-180W in Anwendungen "relativ effizient", nicht so effizient wie AMD und darunter ein Totalausfall.
Ich habe auch nicht behauptet er wäre so effizient wie AMD gewesen. Ja, die Raptoren waren in Awendungen 10-15% ineffizienter. Das ist aber für mich kein Grund irdendetwas übers Knie zu brechen, es gab ja auch Vorteile, zum Beispiel die Singlethreadleistung, die bei Raptor Lake höher war.

Und was heißt schon "darunter". Darunter limitiert AMD´s Chipletansatz, der einfach eine gewissen Grundverbrauch hat.
qrfqrf.JPG

modena.ch schrieb:
In Game 2-3X Verbrauch für weniger Leistung-Das läuft bei mir unter komplettes Versagen.
Gegenüber den niedrig taktenden X3D Modellen braucht der Stock 14900K die dreifache Wattage um halbwegs aufzuschließen, korrekt.
modena.ch schrieb:
Eingeholt ist hier gar nicht.
Habe ich in Punkte Spieleeffizienz gegenüber den X3D Modellen auch gar nie behauptet, also was ist dein Punkt?
modena.ch schrieb:
Der 9950X ist Stock in Anwendungen, die man nunmal Vollast auf allen Kernen bedeuten, 30-50W sparsamer als der 285K bei ziemlich identischer Leistung.
Das ist nicht ganz so einfach zu bestimmen, weil der 285K die maximale Stromaufnahme nicht so häufig ausschöpft. Bei 30 Watt Vollast, wenn er ausgelastet wird, würde ich aber mitgehen.
Techpowerup hat das gut herausgearbeitet, in deutlich mehr Anwendungen.

Gaming.JPG


Der Durchschnittsverbrauch hat sich in 47 Anwendungen deutlich reduziert und ein bisschen schneller als der Vorgänger ist er auch, somit ist das schon ganz ok. Und ja er liegt dort auch unterhalb des 9950X.
modena.ch schrieb:
In Games ist der 285K in dem Vergleich etwa 20-30W sparsamer als der 9950X, aber auch ein Stück langsamer.
2% bei Computerbase, respektive auch 2% bei Techpowerup.
PCGH hat einen Gleichstand erzielt. Weiß nicht ob das ein Stück ist, ich würde sagen Messungenauigkeit. Mit den offensichtlichen Problemen mit P und E Kernen und Windows 24/H2 das häufig benutzt wurde, sollte die CPU noch ein paar Prozent gewinnen, aber für den Moment ist es so wie es ist.
modena.ch schrieb:
Wenn wir jetzt noch nen 7800X3D Stock in Games heranziehen ist der 285K meist viel langsamer und verbraucht das Doppelte.
Natürlich gegenüber dem 7800X3D ist man laut CB 38% weniger effizient , bzw. 59% effizienter.
3D Cache schlägt eben voll durch.
modena.ch schrieb:
Der 285K hat seine Momente, gerade was die Effizienz im Vergleich zum Vorgänger angeht, aber nur da.
Naja, die Leistung ist schon auch noch ein bisschen höher, zumindest in Anwendungen.
modena.ch schrieb:
Die Konkurrenz ist nach wie vor effizienter und das in einem unterlegenen Fertigungsprozess.
Kommt darauf an welche Metrik man vergleicht, da sollte man durchaus differenzieren.
 

Anhänge

  • wfujwgh.JPG
    wfujwgh.JPG
    92,4 KB · Aufrufe: 21
  • wfujwgh.JPG
    wfujwgh.JPG
    92,4 KB · Aufrufe: 19
Zuletzt bearbeitet:
Fauler_Hund schrieb:
Bei Autoroute stellt es mir als jemanden, der das Programm fast täglich nutzt, die Haare auf. Daher finde ich den "Test" gar nicht mal so gut.
Ich kenn die Software nicht, daher sagt mir das jetzt nix ;) Der 285k schneidet da aber leider auch nicht wirklich gut ab, liegt noch hinter dem 265k, während die AMD CPUs mit vielen Kernen besser abschneiden.
Dennoch zeigt der recht schön, dass die Unterschiede gering sind.
Die Unterschiede sind überall relativ gering, wenn man nicht gerade Geld mit so einem Kasten verdient oder kompetitiv zockt, reicht eigentlich jede CPU ab 6 Kernen und 4GHz Boost für alles, was Otto Normaluser so macht. Trotzdem kauft man meistens dann doch schnellere Hardware.
 
Das "schwache" Abschneiden des neuen Core Ultra 9 285K bei Spielen im Vergleich zum Core i9 14900K zeigt nur, wie sehr Intel zuvor sein Flaggschiff übertaktet hat. Und was dies für Folgen hatte, brauche ich wohl nicht zu erwähnen...

Die Wahrheit ist: der Benchmarkvergleich mit den alten Intel-Core-Generationen hinkt gewaltig, da die CPUs ab Werk "gegrillt" wurden. Normalerweise müssten 14900K & Co. noch einmal alle mit den neuen gemäßigten Intel UEFI-Settings getestet werden, um einen wirklich aussagekräftigen Vergleich ziehen zu können. Ein Benchmarkergebnis, bei dem die CPU durch extreme Übertaktung nach nur wenigen Monat kaputt geht, kann man wohl kaum als valide bezeichnen.
 
TigerherzLXXXVI schrieb:
Die Wahrheit ist: der Benchmarkvergleich mit den alten Intel-Core-Generationen hinkt gewaltig, da die CPUs ab Werk "gegrillt" wurden. Normalerweise müssten 14900K & Co. noch einmal alle mit den neuen gemäßigten Intel UEFI-Settings getestet werden
Wurden sie doch.
 
  • Gefällt mir
Reaktionen: Volvo480, Pisaro, Rockstar85 und 8 andere
nuestra schrieb:
Hier sind manche echt gutmütig.
Müsste der 9950X nicht dann auch auf 200 Euro runter? (13600KF)
Ich meine, dass du alle CPUs nur noch nach der Spieleperformance bewertest, entbehrt nicht einer gewissen Komik.
nuestra schrieb:
Alle Tests weltweit zeigen das die CPUs im gaming statt schneller zu sein 1- 2 Generationen zurück gefallen ist. Genauso liegt die Effizienz hinten..
Es bestreitet doch niemand, dass diese CPU in Gaming etwas langsamer oder "noch" etwas langsamer ist als der Vorgänger.
nuestra schrieb:
Wer kauft so etwas ?
Jemand der sich diese CPU primär für einen Arbeitsrechner kauft?
Wofür hat man einen 3950X gekauft, wenn dieser in Games nicht schneller als ein 3600x war?
 
HerrRossi schrieb:
Naja, dass die brandneue, stärkste CPU von Intel es ohne RAM OC nicht schafft, den mittlerweile über zwei Jahre alten 7950X @stock settings zu schlagen, ist schon bemerkenswert und selbst mit RAM OC ist es denkbar knapp.
Ok, über die Wortwahl kann man streiten, aber das Ergebnis ist wirklich nicht gut.
Darum geht's nicht, sondern um die Art und Weise wie geflamed wird. Ja die CPU ist nicht der burner, würde mir in einem techforum aber mehr inhaltliche Kritik, als bloßes Fan geflame wünschen. Das ist doch nicht FB oder Insta
 
  • Gefällt mir
Reaktionen: iceshield und K3ks
@Jan oder @CB
Besteht Interesse an mehr Benchmarks aus dem professionellen Bereich? Oder sind die Tester mit der aktuellen Sammlung bereits gut ausgelastet?
 
DeltaPee schrieb:
Darum geht's nicht, sondern um die Art und Weise wie geflamed wird.
Das war früher, als AMD hinterher hinkte, auch nicht anders, nur eben mit vertauschten Rollen. Ich weiß aber, was du meinst, mir wäre ein sachlicher Austausch auch lieber, aber dazu ist das Forum hier wohl auch zu groß und einige Gräben zu tief.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, Pisaro, Quidproquo77 und eine weitere Person
@boika
Volker schrieb:
Es gab nicht eine Instabilität hier, 2 Wochen Alder Lake ohne Bluescreen (außer wenn mans beim Speicher-OC drauf anlegt, aber das killt jedes System^^)
Nicht auf jedes shice Gerücht hören.
Volker schrieb:
Und ich hatte nicht einen einzigen Absturz oder Bluescreen in 2 Wochen testen.
Andere Kuriositäten ja, aber stabil ist die Plattform.
E:
boika schrieb:
Die Gamer schalten die ganzen Intel E-Kerne im Bios aus, weil diese Freezes verursachen
oder wurde das schon gefixt ? Bitte klärt mich auf

Ich will aber Intel, weil ich AMD noch nie gekauft habe
🥴
EE: Nach einer sehr kurzen Recherche: It's &%$ing nothing. Wir werden sehen ob die nächsten Monate oder Wochen noch was kommt, ich denke nicht.
E3:
The scheister running MLID is a known paid AMD schill and has been for years. Why XDA would run articles from this scheister is beyond me.
Kekd😆, aber ja, MLID ist leider Mist und verbreitet jeden Schmarn für Klicks.
 
Zuletzt bearbeitet:
Fauler_Hund schrieb:
Ich lese hier ständig den Begriff "Abwendungsleistung"
Deswegen guckt man sich immer die Einzelwerte an.
Ergänzung ()

Philste schrieb:
Ich bin überrascht, welch zweischneidiges Schwert der ganze Spannungsversorgungskram mit DLVR bei Arrow Lake ist. Habe gestern Abend Romans Video gesehen und sehe die Volllasteffizienz jetzt mit anderen Augen.
Aber hat er da nicht die Sache vereinfacht dargestellt? Ich kann mir kaum vorstellen, dass die Spannung von Mainboard zur CPU fix bei 1,5v klebt. Wird das ebenfalls an die Last angepasst, reduziert sich der zusätzliche Verbrauch ja wieder. Was hatte er im Beispiel unter Volllast? 88watt zusätzlich? Kann ich mir kaum vorstellen, dass es SO krass ist.
Ergänzung ()

TigerherzLXXXVI schrieb:
der Benchmarkvergleich mit den alten Intel-Core-Generationen hinkt gewaltig, da die CPUs ab Werk "gegrillt" wurden.
Der Performanceverlust durch die Microcode-Updates gelten als vernachlässigbar. Gegrillt wurden die CPUs auch nicht unter Volllast sondern Idle bis Teillast, weil dort zu hohe Spannungen angelegt wurden.
Ergänzung ()

DeltaPee schrieb:
Das ist doch nicht FB oder Insta
Guck mal bei wccftech vorbei. Dagegen sind wir hier eine solide Truppe. Nicht, das es noch besser gehen würde. Aber in so Diskussionen übernimmt gerne das Ego.
 
Zuletzt bearbeitet:
Zurück
Oben