Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

scotch.ofp schrieb:
Wer braucht idle Effizienz?
Naja, 15W mehr für genau gar nichts verbrauchen ist jetzt auch kein Zeichen von Top Technik. Ich finde das darf sich AMD schon vorwerfen lassen. Da sind sie nämlich schon eine Weile nicht top.
 
  • Gefällt mir
Reaktionen: dernettehans, K3ks und mscn
@Cameron

Schau Dir mal dieses Video zum Thema CPU Bottleneck an. Fand ich sehr aufschlussreich.

 
Cameron schrieb:
mein 3900X tut es immer noch, die FPS kommen bei 4K über die Grafikkarte. Oder anders: wer spielt in 720p?
Ich habe einen 5900X. Ergebnis: Je nach Spiel DEUTLICH zu langsam. 3440x1440. Damit meine ich: Unter 60 - 70 FPS. Kommt es wirklich hart auf hart 40 - 45 FPS. Auflösung ist egal, es kommt auf die Spiele an!
 
Dome87 schrieb:
wie kann man sich nur so für jede weitere Diskussion disqualifizieren? Naja, mir soll's egal sein.

@scotch.ofp
Jeder, der am PC auch im Internet unterwegs ist, Filme schaut, Emails schreibt usw. braucht genau diese IDLE-Effizenz.
Irgendwie haben wir eine andere Definition von IDLE.
 
  • Gefällt mir
Reaktionen: McFritte, FaYaJaH und MehlstaubtheCat
Cavaille schrieb:
Und der 285K schlägt den 5800X3D in Anwendungen. Deutlich. Das ist für mich ein mehr als lohnender Austausch. Der 285K ist ja nicht wirklich langsam im Gaming. Viele tun hier so, als wäre er da 'ne Schnecke, das ist ja nun wirklich nicht der Fall.
Wieso vergleichst du jetzt ne 200-300 Euro CPU von AMD mit biligerem Speichen und Ram mit ner 600 Euro Intel CPU?
 
  • Gefällt mir
Reaktionen: FaYaJaH, eXe777, nyster und eine weitere Person
Kenjy schrieb:
Den Sinn von CPU-Tests nicht verstanden. Setzen, 6!

Den Unsinn von sinnlosen CPU-Tests nicht verstanden. Setzen, 6!

Als Ingenieur führe ich auch BMs durch, halt für Lasersinteranlagen, aber wenn ich da meine Zeit verschwenden würde mit Tests, deren Aussage unseren Kunden bei ihrer Investitionsentscheidung null hilft, dann würde ich keinen guten Job machen.
 
  • Gefällt mir
Reaktionen: Youngtimer
Cameron schrieb:
Gemeint war: mein 3900X tut es immer noch, die FPS kommen bei 4K über die Grafikkarte. Oder anders: wer spielt in 720p?

Hm komisch. Meine 4090 langweiligt sich in 4k weil mein 5900x nicht hinterher kommt.
Und das idR. bei unter 100fps.

@topic

Immer wieder erstaunlich das es immernoch Leute gibt die CPU Tests nicht verstehen.
Dachte eigentlich das wurde in den letzten Jahren oft genug erklärt...
 
  • Gefällt mir
Reaktionen: McFritte
Ich glaube, dass das hier die Basis für ein paar gute CPU Generationen von Intel ist. Die erste Ryzen Generation hatte auch noch Schwächen. Gebt Intel mal noch ein Jahr Zeit.
 
@cfreak84 Arrow Lake entspricht aber sozusagen schon Zen 2, Meteor Lake war eher mit Zen 1 vergleichbar. Und dabei so schlecht, dass es nie für den Desktop erschienen ist. Der Vergleich mit Zen ist nicht verkehrt, aber wenn man sieht wie Zen 2 im Vergleich abgeschnitten hat, ist Arrow Lake halt nicht überzeugend.
 
Die KiTa ist bereits seit Seite 1 geöffnet und die Sprösslinge sind auf Hochtouren^^
Liebes CB-Team, bitte aufräumen:)'
Lg
 
@cfreak84

Tja nur hat Intel damals AMD unterschätzt, sind quasi stehen geblieben und es mit immer mehr Takt geregelt. AMD wird mit Zen6 16Kerne auf einen CCD packen auf eine nochmals bessere Fertigung. Bis dahin muss Intel Nova Lake fertig haben und der 18A Prozess muss laufen und mit TSMC konkurrieren können. Ob das alles eintreffen wird ist fraglich und ich denke das wird mehr als nur 1 Jahr dauern.
 
Framue_ schrieb:
Den Unsinn von sinnlosen CPU-Tests nicht verstanden.
Es ist rein gar nichts unsinnig daran, eine CPU im CPU-Limit zu testen. Genauso wie man GPUs mit der schnellsten CPU im GPU-Limit testet und nicht mit einem Pentium oder Athlon.
 
  • Gefällt mir
Reaktionen: McFritte, nyster, Verak Drezzt und 2 andere
Quidproquo77 schrieb:
Einige Spiele laufen auch richtig flott, andere brechen komplett ein. Dass Intel das so veröffentlicht ist nicht gut fürs Image. Katastrophe mal wieder.

Wenn man nach dem geht, was öffentlich bekannt ist, muss es bei Intel chaotisch zugegangen sein. Es ist gerade mal ein Jahr her als Gelsinger noch stolz einen Intel 20A Arrow Lake Wafer in die Kameras gehalten und etwas von "on track" gefaselt hat.

Es ist gemeinhin bekannt, dass man eine über Jahre entwickelte CPU (Architektur) nicht einfach mal "eben so" auf einen anderen Herstellungsprozess portieren kann. Jedenfalls nicht ohne erhebliche Reibungsverluste, wenn die Zeit knapp ist und ich vermute, dass genau das das Problem bei Intel gewesen sein dürfte.

Irgendwann nach dem letzten Innovation-Event (dieser Zeitpunkt ist AFAIK bisher weder geleakt noch öffentlich bekannt gegeben worden) müssen Intel realisiert haben, dass das mit Arrow Lake in 20A nix wird bzw. dass 20A an sich nix mehr wird, sondern es sinnvoller ist, die Ressourcen für 18A zu bündeln.

Ich wage jetzt mal eine Vermutung, dass das Anfang des Jahres gewesen sein könnte, weil Gelsinger im Februar die Aussage getätigt hat, dass er die komplette Firma auf das Gelingen des 18A Prozesses gesetzt hat.

Wenn das so sein sollte, ist die Zeit für den TSMC "Port" extrem knapp bemessen gewesen, es sei denn Intel hatten schon immer TSMC als Plan B in der Hinterhand und haben parallel bereits vorher entsprechende Vorbereitungen getroffen.
Eigentlich kann ich mir das nur exakt so vorstellen, denn sonst geht das in der kurzen Zeit nicht. Und Gelsinger ist definitiv ein Freund davon immer mehrere Alternativpläne zu verfolgen, wie er in Interviews verlautbart hat.

Trotzdem -Plan B hin oder her- dürfte der Fokus auf 20A gelegen haben und als es dann doch TSMC werden musste, wird die Hütte gebrannt haben.

Entsprechend würde ich es schon fast als ein kleines Wunder ansehen, dass ARL nicht direkt mit dem 20A Prozess komplett eingestampft wurde, sondern dass es die CPU dank TSMC nun überhaupt gibt.

Dass dieses Desktop-"Erstlingswerk" von TSMC in Anbetracht des mutmaßlichen Chaos und Zeitdrucks bei Intel noch hier und da kränkelt und schwächelt, ist nicht verwunderlich.
Ich denke die Ingenieure auf beiden Seiten (Intel und TSMC) werden da getan haben, was sie in der knapp bemessenen Zeit konnten, aber mehr war halt nicht drin...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Hallo zusammen,

@cfreak84
cfreak84 schrieb:
Die erste Ryzen Generation hatte auch noch Schwächen.
Die erste Ryzen Generation hatte aber eine ganz andere Vor-Generation als die, von welcher Intel jetzt kommt. Und das ist nun einmal ein mehr als gewaltiger Unterschied. Der Unterschied von Ryzen zu der vorhergehenden AMD Generation war in nahezu allen Belangen gewaltig und das ist nicht einmal Übertrieben.

Dann schau dir mal an, von wo Intel kommt. Bis auf Teile bei der Effizienz ist nur die Thermik zu Nennen, die sich wirklich zum besseren gewendet hat. Und wieviel von alledem da der Fertigung bei TSMC geschuldet ist, kann überhaupt noch nicht beantwortet werden.

So long....
 
  • Gefällt mir
Reaktionen: nyster
Framue_ schrieb:
deren Aussage unseren Kunden bei ihrer Investitionsentscheidung null hilft, dann würde ich keinen guten Job machen.
Dann bist du vielleicht kein Gamer? Ich bin Gamer, die CPU Tests sind für mich sehr wichtig. Genauso wie GPU Tests.
Würde ich beim CPU Kauf nur auf die avg FPS in 4K schauen wäre ich schon in vielen Games auf die Schnauze gefallen.

Fakt ist, die CPU Tests sind so wie auf CB zu 100% korrekt. Alles andere ergibt logischerweise keinen Sinn.
 
  • Gefällt mir
Reaktionen: HerrRossi
Framue_ schrieb:
Den Unsinn von sinnlosen CPU-Tests nicht verstanden. Setzen, 6!
was bringt dir ein "CPU" Test, mit einer 4090 in 4K und WQHD, wenn ein 5600, 7600, 7800X3D, 12400, 14600K, 14700K oder dem neuen 265K bei 4K in ultra Details alle bei 80FPS und bei WQHD bei 120FPS ins GPU-Limit rennen und du die Rohleistung der CPU's deshalb nicht miteinander vergleichen kannst

deshalb werden CPU Tests in 720P gemacht, damit die Grafikkarte so gut es geht nicht ins GPU Limit rennt bei ultra Details, du könntest natürlich auch CPU Tests in low Details und dafür in FullHD oder WQHD machen, aber ist dann auch nicht wirklich Aussage kräftig, da kaum einer da draußen in low Details zockt und man dann eher in ultra Details ableiten kann, wie viele FPS ich in meinem gewünschten Games dann noch in high Details raus bekomme und was ich an CPU Leistung benötige um ansatzweise meine 140+ FPS in Spiel XYZ raus zu bekommen

das geht und sieht man halt nicht wenn man CPU's im GPU Limit bei besagten Beispiel oben nimmt, wenn Grafikkarten mal so stark sind dass sie bei ultra Details dann auch nicht in FullHD oder WQHD limitieren, kann man dann natürlich auch in höherer Auflösung testen, aber das ist im Grunde auch wumpe,

da die CPU in jeder Auflösung die selben FPS generiert und nur die Grafikkarte dafür verantwortlich ist was diese an den gelieferten FPS der CPU sowie dem Ram, an die Grafikkarte weitergeben und diese in Auflösung sowie Details umwandeln kann

hoffe ich habe es für dich und alle anderen hier, die vom Verständnis her nen Problem damit haben weshalb in 720P getestet wird, einigermaßen verständlich rüber gebracht, ist keine Raketenwissenschaft, im Vergleich zu deinem Job anscheind
 
  • Gefällt mir
Reaktionen: HerrRossi
Zurück
Oben