Bericht Intel Core Ultra 200S: Alle Details zu Intels Ryzen-9000(X3D)-Gegner Arrow Lake-S

Quidproquo77 schrieb:
Es steht Intel doch frei ihr Patent zu nutzen und auch so eine Lösung auf den Markt zu bringen.
Intel hat es bisher ohne den zusätzlichen Cache geschafft mit AMD bis auf wenige Prozentpünktchen gleichzuziehen, das geht mit einem Tiled-Base Ansatz wohl nicht mehr so leicht.
Wenn ich mir überlege, wie (verdient) herablassend die Intelianer jahrelang über die miese Effiziens bei AMD (vor Ryzen) gelacht haben, scheint es seit Ryzen kein Thema mehr zu sein, dass ein Intel einem die Steckdose aufweicht?

TDP von 125W und Peaks bis 250W? Hallo? Ist da jemand?

"Auf Prozentpünktchen herankommt..." - das ist dann Cherrypicking und eigentlich peinlich, wenn man da den Verbrauch dazu noch hinterherschiebt.

Lassen wir die ganzen Nebenthemen mal bei Seite was "Kernalterung" und "Securityprobleme" bei beiden Lagern angeht, so hat Intel vielleicht über die Jahre aufgeholt - aber eingeholt noch lange nicht.

Ich fand den Devilscanyon damals schon "am Rande des Sinnvollen"... Was danach kam im "Highend" war nie wirklich besser im Gesamtpaket.
 
Theoretisch sollte der Intel auch AV1 als decode/encode in Hardware haben, finde ich schon als Vorteil. Wenn man noch ne alte brauchbare GPU ala RTX 3XXX oder so hat. Finde ich das schon gut.

Hoffe mal das die neuen N150/250 Prozessoren bald kommen und auch mit der XE GPU und AV1 (mit NPU wäre krass, wird aber vermutlich nix). Das wäre wirklich mal ein Upgrade in Lowbudget. Da hat AMD nix.
 
//differentRob schrieb:
@Jan @Volker
Ich weiss ihr habt in den nächsten 2 Wochen irre viel zu tun und dafür gebührt euch schon mal wieder ein herzliches Dankeschön.
Danke!

Das wird wirklich übel. Damit sich sowas lohnt, denkt immer daran: Ohne ComputerBase Pro und aktivem AdBlocker freuen wir uns auch über euren Besuch und euer Feedback, aber damit unser Leben bestreiten können wir nicht.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und SirKhan
stefan92x schrieb:
Tatsächlich besagte das Gerücht, dass der zusätzliche Cache im Base Die sein sollte - was der eine Die ist, den Intel selber fertigt, nicht TSMC.
Interessant. Hast du da für ne Quelle (ich zweifle nicht, ich will nur Details).
Aber dann muss das ja ne andere Cache Stufe sein oder (wäre ja auch okay).
L3 Cache mit so anderen Latenzen Stelle ich mir schwierig vor.
 
pero.s schrieb:
Das erste, was mir gestern auffiel ist, dass Intel das Wort "Effizienz" ins Zentrum rückt. Intel und Effizienz? Echt jetzt? Das ist schon lange her, dass Intel die Effizienz wichtig war. Unabhängig vom Ergebnis finde ich die Tendenz, auf Effizienz zu achten, sehr richtig und begrüßenswert.
...
Ich könnte diesen Kommentar endlos so weiter schreiben, komme aber zum Schluss und sage, dass die Vernachlässigung oder gar Geringschätzung der Effizienz in so ziemlich jeder Dimension, die mir gerade einfällt, völlig deplatziert ist. Sorry wegen meiner deutlichen Worte, aber das musste gerade raus.

Ich glaube du hast meinen Kommentar nicht verstanden. Ich habe davon gesprochen, dass ein Upgrade von 14900 auf 285k keinen Sinn macht. Keine Mehrleistung und man bekommt durch den geringen Stromverbrauch auch nicht die Kosten wieder rein. Ebenso kostet eine neue CPU/PC zu produzieren jede Menge Energie, daher ist es auch kein Umweltschutz.

Gleichzeitig ist es natürlich gut, wenn CPUs effizienter werden. Leute die von einem älteren System upgraden oder einfach einen neuen PC brauchen, dem würde ich IMMER einen 285 empfehlen und natürlich kein 14900 mehr. Genauso wie ich eine effizientere 4000er GPU empfehle und keine sehr viel wenigere effiziente 3000er GPU.

Wenn ich jetzt mein 5800x kaputt gehen würde, dann würde ich auch auf 265 oder 9900x setzen, je nach Effizienz und hier sehe ich sogar Intel vorne, wenn die Effizienz wirklich stimmt. Multicore und Effizienz scheinen zu stimmen. Als Spiele PC sehe ich aber wegen der Effizienz dann 7800x3d/9800x3d weiterhin vorne.
 
  • Gefällt mir
Reaktionen: pero.s
Moritz Velten schrieb:
Ich denke, dass Ryzen auch hier die Nase vorne hat.
Jap, Intel trickst im Moment wo es nur geht um nicht ganz unter zu gehen. Der 9950X wird den 285K schlagen in Games. Gegen den 9800X3D wird Intel dann keine Schnitte haben.
 
  • Gefällt mir
Reaktionen: Dai6oro
SavageSkull schrieb:
Abwarten auf den Realtest, was wirklich verbraucht wird. Diese theoretischen Angaben, was eine CPU verbrauchen "könnte" und die zig Turbo Stufen bei denen die CPU für Zeitraum X mehr verbrauchen "darf" sind doch mittlerweile keine Angabe mehr, mit denen man irgendwie den realen Verbrauch in seinem einzelnen Szenario ableiten kann.
Vergleiche zwischen AMDs theoretischen Angaben und Intels theoretischen Angaben funktionieren schon gleich dreimal nicht.
Also ich verstehe nicht ganz was du mir damit jetzt sagen möchtest....

Ich rede nicht von ARL, ich schreibe doch deutlich von Zen5 und seinem maximalen Verbrauch (Stock), weil @Corpus Delicti diesen fälschlicherweise auf 230W bezifferte.
Stimmt aber nicht, der 9950W ist standardmäßig auf 200W begrenzt. Das ist kein theoretischer Wert, das ist getesteter Fakt. Daher auch meine Verlinkung zum CB Test.

Und ich vergleiche doch weder mit ARL Lake, noch spreche ich von theoretischen AMD Werten.

Was allerdings ARL verbraucht und wie seine Grenzen sind, sehen wir erst im noch nicht veröffentlichten Test.
 
pipip schrieb:
Das würde ich so nicht unterschreiben.
Warum denn nicht? Der Ringbus ist langsamer, die Kommunikationswege länger, das verheißt normalerweise nichts gutes für die Gamingperformance und genau das sehen wir doch nun.
Intel kann das vielleicht mit einem überarbeiteten Nachfolger etwas angehen.
pipip schrieb:
AMD hat die Design Entscheidung getroffen auf so eine x3d Cache zu setzen. Intel hat das nicht gemacht.
Ja, habe ich was anderes gesagt?
 
  • Gefällt mir
Reaktionen: pipip
Jan schrieb:
Ohne ComputerBase Pro
Noch nutze ich Pro.

Bedankt euch bei euren Mods, die einen als "Verschwörungs-Theorie-Schwurbler" (es fehlte nur noch der Vorwurf "rechtsradikal" für die Schublade ;) ) bezeichnen und Beiträge löschen, wenn dem bald nicht mehr so ist, bloß weil man Musk und andere einzelne stinkreiche Leute, als Eliten bezeichnet, die der Gesellschaft nicht unbedingt immer gut tun.

Da hat man doch immer weniger Lust sich zu beteiligen, wenn man weiß, in was für Vorurteils-Schubladen man von den Mods schon gesteckt wird, inkl. Verschieben ins Aquarium.

Zum Thema:

Ich finde, das sieht gar nicht mal so gut aus, falls es leistungstechnisch so kommt, wie ich vermute.
Die Tests werden es wohl zeigen.

Mein optimierter i9 9900K gefällt mir mittlerweile immer besser. :D
Schön zu sehen, wie der mit bis zu 1,2v (max.) arbeitet.

edit:
RDR2 i9 9900K und 3090 TUF OC 80 FPS lock.jpg
Die letzten 3 Werte von der CPU.
Wie immer alles rein luftgekühlt.

edit: Zocke grad noch mal Teil 2 (RDR) durch, bevor ich mir bald zum ersten Mal Teil1 für PC hole. :daumen:
Hab Teil 1 auf Konsole nie gezockt.

Ich würde aber gern bald mal wechseln. Aber wohl eher zu AMD, als zu Intel.
Schaue mir da lieber die neuen X3Ds an, als Core Ultra.
 
Zuletzt bearbeitet: (Nachtrag + Typos)
  • Gefällt mir
Reaktionen: xXDariusXx
boika schrieb:
Wozu braucht ihr eine neue CPU ?? Es gibt momentan keine Spiele welche solche starke CPU,s brauchen.
Die Grafikkarten bringen viel mehr FPS als die CPU,s besonders bei 2560x1440 und 3840x2160 je größer die Auflösung desto weniger CPU Leistung braucht man, weil die ganze Last auf eine Grafikkarte liegt.

klar können spiele besonders welche mit RT ordentliche cpu leistung brauchen, besonders wenn du hohe fps erreichen willst. Du vergisst das Gamer unterschiedlich spielen, dazu die upscaler. Manch einem reichen 60fps max. settings. ein anderer spielt aber lieber mit 120fps mid settings oder noch mehr FPS. Viele spielen nunmal mit upscaler, da werden schnell aus 4k native(render) 4k+dlss performance (FHD) , oder wqhd+dlss Q(960p).
 
  • Gefällt mir
Reaktionen: Quidproquo77
  • Gefällt mir
Reaktionen: KurzGedacht
danyundsahne schrieb:
Stimmt aber nicht, der 9950W ist standardmäßig auf 200W begrenzt. Das ist kein theoretischer Wert, das ist getesteter Fakt.
Und das wird verglichen mit einer theoretischen TDP aus Gerüchten.
Ist doch völliger Quatsch.
Den getesteten Verbrauch der AMD CPU sollte man NACH einem Test der neuen Intel CPUs mit dem dort getesteten realen Verbrauch vergleichen.
 
  • Gefällt mir
Reaktionen: Innocience und danyundsahne
SavageSkull schrieb:
Den getesteten Verbrauch der AMD CPU sollte man NACH einem Test der neuen Intel CPUs mit dem dort getesteten realen Verbrauch vergleichen.
Ja absolut, sehe ich ja genauso.

Daher halte ich mich in diesen Diskussionen zur Leistung und Verbrauchsangaben von ARL im Vergleich zu Zen5 eh fast komplett raus. :D
Bringt ja nix, sofern nix handfestes zum Diskutieren vorhanden ist. Aber am 24.10. gehts ab :D ;)
 
@Volker
Ist denn schon näheres zur Cache-Größe der einzelnen Prozessoren bekannt? Mich würde insbesondere der Unterschied zwischen den drei nun zu erst erscheinenden Prozessoren interessieren.

Takt und Kernzahl ist ja nicht unbedingt so ausschlaggebend unterschiedlich, als dass es in Spielen oder auch in normalen Anwendungen auffallen würde. Der Cache hingegen kann hier schon wieder einen deutlich spürbaren Mehrwert bringen.

EDIT:
@Volker
In der Preistabelle steht zweimal der Core Ultra 7 265K, der untere soll sicherlich der 5er 245K sein.

EDIT2:
In der TDP-Tabelle auch ^^ Eiei :)
 
Zuletzt bearbeitet:
@Bunhy habe Ich mir auch gedacht, krass der Kontrast der Berichterstattung !
 
  • Gefällt mir
Reaktionen: Bunhy
Ayo34 schrieb:
Ich habe davon gesprochen, dass ein Upgrade von 14900 auf 285k keinen Sinn macht. Keine Mehrleistung und man bekommt durch den geringen Stromverbrauch auch nicht die Kosten wieder rein.
Es ist generell einfach kompletter Unsinn von der aktuellen auf die nächste Gen zu wechseln. Es gab in den letzten Jahren so gut wie keine so erheblichen Leistungssprünge zwischen zwei Generationen, dass ein Upgrade wirklich Sinn gemacht hat. (Mit Ausnahme von den 3000er auf die 5000er Ryzen, weil selbe Plattform und X3D)
Weder von einem 5800X3D auf einen 7800X3D (Preis), noch von einem 13900k auf einen 14900k (Leistung). Ein 14700k hatte zwar bspw. 20% mehr Multicore Leistung als ein 13700k, dafür aber auch 25%+ mehr Verbrauch und läuft an der Kotzgrenze.

Von daher hast du ganz klar Recht, aber wer überhaupt in Erwägung zieht von einem 14900KS "zu upgraden" handelt eh nicht rational. Da geht es dann nur darum das Neueste zu haben.
 
CastorTransport schrieb:
Wenn ich mir überlege, wie (verdient) herablassend die Intelianer jahrelang über die miese Effiziens bei AMD (vor Ryzen) gelacht haben, scheint es seit Ryzen kein Thema mehr zu sein, dass ein Intel einem die Steckdose aufweicht?
Man muss glaub ich nicht großartig darüber diskutieren, dass es den Fans des einen oder anderen Lagers häufig darum geht möglichst negativ und polemisch Sachverhalte verkürzend darzustellen.
Alleine die Effizienz-Diskussion zu Raptor Lake geht ja lediglich nur von K CPUs und deren Extremeprofil Betriebseinstellung aus, sprich von PL1=PL2 253W. Das ist halt eine zugespitzte, unvollständige Sicht.

Mit der Performanceeinstellung wie PCGH die CPUs aktuell vermisst, sieht das so aus.


Anwendungslast.JPG

Das ist der Anwendungsdurchschnitt und hier sieht man etwas geringere Verbräuche bei den Intel CPUs.
Von der Applikationseffizienz ist Intel auch weit vorne mit dabei.

Beispielsweise liegt der 9950X @200Watt nur 10% in der Effizienz vor dem 14900K mit Performance Profil.
Es gibt doch genügend Tests mit verschiedenen Powertargets, auch hier.
Daran sieht man Effizienz-Unterschiede von 0-15% je nach Powertarget
Unbenannt.JPG

Beispielhaft CB23, das sind doch keine großen Effizienzunterschiede. Also wenn du sagst bei Intel weicht einem die Steckdose auf, dann ist das zum einen falsch und zum anderen eine völlige Zuspitzung des Produktportfolios auf ein Modell und ein Extreme Profil.
CastorTransport schrieb:
"Auf Prozentpünktchen herankommt..." - das ist dann Cherrypicking und eigentlich peinlich, wenn man da den Verbrauch dazu noch hinterherschiebt.
Nein, das ist kein Cherrypicking, sondern die aktuelle Gamingleistung der Raptoren vs. der X3D CPUs.

wfgeqrwg.JPG

Ich habe ja dort auch von Gamingleistung im Kontext von diesem Beitrag und dem nachfolgenden von @nuestra gesprochen. Und nein, auch der Verbrauch ist nicht zwingend peinlich, denn der liegt auch größenteils an dem PPT, was du nicht zu kapieren scheinst.

Gaming.JPG

Klar, das reicht @88W oder @65W nicht leistungsmäßig für die X3D Modelle, weil Cache im Sonderfall Spiele nun einem Trumpf ist. Aber ineffizient ist es gegenüber den Modellen ohne Cache und Taktregression auch nicht.
CastorTransport schrieb:
Lassen wir die ganzen Nebenthemen mal bei Seite was "Kernalterung" und "Securityprobleme" bei beiden Lagern angeht, so hat Intel vielleicht über die Jahre aufgeholt - aber eingeholt noch lange nicht.
Ob man im Anwendungsbereich den 9950X "einholen" kann was die verschiedenen Metriken betrifft, wird sich erst zeigen. Man muss die Werte in den Folien ja nicht für voll nehmen. Angesichts der nur kleinen Steigerung von Zen 5 wäre es mit N3B und neuen E-Cores aber auch keine Überraschung.

Jan schrieb:
Danke!

Das wird wirklich übel. Damit sich sowas lohnt, denkt immer daran: Ohne ComputerBase Pro und aktivem AdBlocker freuen wir uns auch über euren Besuch und euer Feedback, aber damit unser Leben bestreiten können wir nicht.
Adblocker ist natürlich immer ausgeschaltet.
Ich hoffe es bleibt Zeit für Tests mit unterschiedlichen Powertargets.
Was mich interessieren würde, wäre die 35Watt CPU.
 
  • Gefällt mir
Reaktionen: Jan und Innocience
Bunhy schrieb:
Herrlich, wie Golem und Ihr solche Dinge oft vollkommen anders beurteilt. Dabei müsste man meinen, Hardware wäre kein esoterisches Thema mit allzu großen Grauzonen für Meinungen ;D
Esoterisch ist es nicht, aber es gibt halt viele Metriken, die man betrachten kann.

CB schaut auf die Leistung und ist eher enttäuscht
Golem schaut auf die Effizienz und freut sich darüber.
 
  • Gefällt mir
Reaktionen: Bunhy
Zurück
Oben