Bericht Intel Core Ultra 200S: Alle Details zu Intels Ryzen-9000(X3D)-Gegner Arrow Lake-S

pas06 schrieb:
Lunar Lake ist ebenso ein Chiplet-Design
Da ist, wie @Northstar2710 schon schreibt, alles auf niedrigen Verbrauch hin optimiert.

Entscheidend für die Idle-Package-Power ist außerdem nicht nur die CPU selbst, sondern immer die gesamte Plattform. Ein ganz normaler 7950X kann im Idle weniger als 9 Watt aufnehmen, aber halt nicht in einem typischen Desktop-System.
 
@rg88 Haha :)

5080 zu 4090
 

Anhänge

  • Screenshot_20241012_202858_WhatsApp.jpg
    Screenshot_20241012_202858_WhatsApp.jpg
    127,2 KB · Aufrufe: 33
AI-Beschleunigung ist mir egal, aber erst mal nur 125W-CPUs?

Ich warte auf die 65W bevor ich da überhaupt was in Erwägung ziehe
 
Intel macht keine große Schritte mehr wie damals,
vermutlich braucht man eine neue Technologie um weiter zu machen.
 
die Plattform wirrkt noch etwas wie ein erster Feldversuch. Man hat es nicht geschafft, die aktuellen Techstacks zu implementieren.

  • Aktueller CPU-Tile
  • 2 Generatinen veraltete GPU-Tile
  • 2 Generationen veralteter und beschnittener SOC-Tile, der weder Fisch noch Fleisch ist. Man hat eine übertaktete, aber alte NPU aus Meteor Lake, aber es fehlen die LPE-Cores von Meteor Lake, I/O ist ebenfalls noch Meteor Lake. Von den Lunar Lake Neuerungen scheint jede Spur zu fehlen. Stichwort Wifi7 und besserer RAM-Support.
Gerade der fehlende Wifi7 Support ist regelrecht peinlich, nachdem man schon vor 1.5 Jahren auf der Computex so die Werbetrommel damit gerührt hat.

Immerhin sind die Aussichten auf einen Refresh für nächstes Jahr damit ganz gut. Es gibt ja vor allem jede Menge Potenzial beim SOC-Tile mit potenter NPU, LPE-Cores und Wifi7.

Also ich denke dieses Experiment sollte man ignorieren und entspannt aufs nächste Jahr warten.
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Vor allem ist Intel seit Ewigkeiten auf 8C, weil der ringbus nicht für 10C mit der Latenz reicht
Ein 8+16 Design ist für den Ringbus dasselbe wie ein 12 P-Design. Es gibt aber halt einfach keinen Sinn. Die CPU wird davon im ST nicht schneller, nur im MT langsamer.
pas06 schrieb:
Lunar Lake ist ebenso ein Chiplet-Design
Nicht wirklich, auch wenn Intel es immer so klingen lässt. Lunar Lake ist im Prinzip ein Monolith, der über Foveros mit einem zusätzlichen IO-Die verbunden ist, der nur noch etwas zusätzliche Konnektivität bietet.

Das Design (ohne Foveros natürlich) haben seit 10 Jahren alle Intel CPUs, auch Raptor Lake, Ice Lake und wie auch immer sie heißen. Immer 2 Dies, nur halt bis Raptor Lake immer mit ganz normaler Verbindung über das Substrat. Lunar Lake holt die Effizienz gerade dadurch, dass im Normalbetrieb keine Die to Die Kommunikation nötig ist.
 
Warum wird soviel Hype um die Single-Core-Leistung gemacht?

Letztlich ist die abrufbare Leistung plus Verbrauch bei dieser Leistung interessant.
 
Cr4y schrieb:
Es geht nicht direkt um den praktischen Nutzen im Gaming, sondern darum die sinnvollste Kaufentscheidung zu treffen. Warum sollte ich 450eur für ne CPU ausgeben, die im Gaming schwächer ist, als ein Konkurrenzprodukt für das selbe Geld?
Das sollte jedem klar sein.
Aber die Leute sollten sich nicht von 1-2 % mehr fps im Gaming blenden lassen, da diese Werte sogar meist in 720p/1080p getestet werden und niemand überhaupt blind den Unterschied feststellen können wird.
Da finde ich die Effizienz im Gaming und unter Teillast (surfen, Office-Anwendungen...) deutlich interessanter und wirtschaftlicher für den eigenen Geldbeutel :).

Aber diese Kriterien muss natürlich jeder für sich selbst festlegen. Manche wollen natürlich auf Biegen und brechen "die schnellste Gaming CPU" haben, auch wenn diese ansonsten überhaupt keinen Sinn ergibt.
 
iWeaPonZ schrieb:
Da finde ich die Effizienz im Gaming und unter Teillast (surfen, Office-Anwendungen...) deutlich interessanter und wirtschaftlicher für den eigenen Geldbeutel
geld zum (energie-)sparen ausgeben ist eher nicht wirtschaftlich.
 
  • Gefällt mir
Reaktionen: Rockstar85
@thom_cat Logisch, aber wenn man eh eine CPU benötigt, ist das ein netter Nebeneffekt.
Rechnerisch über die nächsten Jahre könnte man so sehr viel Strom sparen, wenn man statt einem 12900K o.ä. diese neue Intel CPU nutzt.
 
Staubwedel schrieb:
AI-Beschleunigung ist mir egal, aber erst mal nur 125W-CPUs?
Das ist schon seit viele Generationen so. Erst kommen im Herbst die K-Modelle, dann folgt zur CES der Rest des Portfolios. Im Übrigen kann man natürlich die 125W-Modelle auch selber auf 65W umstellen.
 
Philste schrieb:
Ein 8+16 Design ist für den Ringbus dasselbe wie ein 12 P-Design. Es gibt aber halt einfach keinen Sinn. Die CPU wird davon im ST nicht schneller, nur im MT langsamer.
Das gilt aber auch erst wieder mit ADL, da wir bei den Vorgängern ja eben einen 10C hatten, inklusive die Versuche eines Meshnetz. Warum ADL keinen 10C bekam, lag damals an dem 10NM Prozess und der Latenzproblematik. Dass BigLittle immer noch kein Desktop Standard ist, ist auf Grund der ungleichen Verteilung der Rechenleistung logisch. Das sieht im mobile natürlich anders aus, aber auch hier muss ich klar sagen, dass es mich nur von der Akkuleistung überzeugt. Sonst hast du aber natürlich recht, mit der Aussage des Monolithischem Design, denn Intel nutzt schlicht die Vorteile ihres neuem Interposers nicht. Das könnte sich mit dem Nachfolger aber ändern.

Ach und wegen der Effizienz, wird der neue Intel lineare Spannungsregler auch sehr viel dazu beitragen, das ist sicher. Und das könnte für Teillast spannend werden

Allen einen schönen Sonntag
 
Staubwedel schrieb:
Letztlich ist die abrufbare Leistung plus Verbrauch bei dieser Leistung interessant.
Das stimmt nur für Anwender, die ständig Anwendungen laufen lassen, die beliebig viele Kerne voll auslasten können. Ein sehr großer Teil der Anwendungen kann das aber nicht, und viele Anwendungsfälle sind auch durch die konkrete Situation nach oben begrenzt. Letztlich ist also der Verbrauch bei den tatsächlich ausgeführten Anwendungen interessant.

Ein Teams-Anruf mit 12 Teilnehmern ist genau das. Den Anwender interessiert nicht, wie viel die CPU bei 500 Teilnehmern verbraucht, weil das nicht der Anwendungsfall ist. Wenn die CPU bei den 12 Teilnehmern aber nur noch halb so viel wie vorher verbraucht, dann ist das interessant. Bei Spielen ist es genau so. Da interessiert die Leistungsaufnahme, wenn man eines spielt, und nicht wie viel vier gleichzeitig gestartete Spiele aufnehmen, weil man so viel braucht um die CPU voll auszulasten.

Deswegen sind die -42% Leistungsaufnahme im Cinebench 1T wichtig. Das heißt, dass ein voll ausgelasteter P-Core entsprechend weniger auf nimmt, und diese prozentuale Reduktion bei der Leistungsaufnahme wird man vermutlich in ähnlicher Höhe auch bei allen Anwendungen sehen, die nur acht oder weniger Threads auslasten, also zum Beispiel die meisten Spiele. Das passt zum Beispiel zu meiner Prognose hier, denn das sind -40%.
 
iWeaPonZ schrieb:
@thom_cat Logisch, aber wenn man eh eine CPU benötigt, ist das ein netter Nebeneffekt.
Rechnerisch über die nächsten Jahre könnte man so sehr viel Strom sparen, wenn man statt einem 12900K o.ä. diese neue Intel CPU nutzt.
rechnet sich selten, aber gut, je nach nutzungszeit und auch szenario mag ich es nicht grundsätzlich ausschliessen.
 
Nixdorf schrieb:
Das stimmt nur für Anwender, die ständig Anwendungen laufen lassen, die beliebig viele Kerne voll auslasten können. Ein sehr großer Teil der Anwendungen kann das aber nicht

Schreibst du jetzt von Uralt-Anwendungen?

Mit Turbo und der heutigen CPU-Leistung sollte doch jeder halbwegs moderne CPU sowas stemmen können
 
Staubwedel schrieb:
Schreibst du jetzt von Uralt-Anwendungen?
Nein, es geht um eine große Zahl aktueller Anwendungen. Hast du den Rest des Beitrags überhaupt gelesen? Nochmal:
Staubwedel schrieb:
Letztlich ist die abrufbare Leistung plus Verbrauch bei dieser Leistung interessant.
Das impliziert, dass die maximal verfügbare Leistung des Prozessors und der Verbrauch in dieser Situation interessant ist. Ich hab daraufhin entgegnet, dass das nur dann gilt, wenn der Nutzer primär Anwendungen laufen lässt, die die maximal verfügbare Leistung auch abrufen. In diesem Fall dürfte ein 285K in etwa gleich viel verbrauchen wie ein 14900K, weil bei beiden das Power Limit von um die 250W erreicht wird. Die neue CPU ist dann immer noch sparsamer, weil sie die gleiche Arbeit in weniger Zeit erledigt.

Bei vielen Nutzern ist das aber eben nicht das typische Anwendungsszenario. Ein gutes Beispiel dafür sind Spiele. Nur sehr wenige – selbst brandneue – Spiele können 24 Kerne voll auslasten, die Mehrheit nutzt nicht mehr als 8 Kerne. In Spielen liegt der Verbrauch des 285K daher um gut 40% niedriger als beim 14900K.

Und ähnliche Situationen gibt es auch außerhalb von Spielen zuhauf, wo reale Rahmenbedingungen das, was man an Leistung benötigt, nach oben begrenzen. Und das liegt dann meist weit unterhalb der vollen Auslastung eines 24-Kerners.

Staubwedel schrieb:
Mit Turbo und der heutigen CPU-Leistung sollte doch jeder halbwegs moderne CPU sowas stemmen können
Was hat "stemmen können" damit zu tun? Es ging doch um die Leistungsaufnahme. Wenn eine neuere CPU die gleiche Aufgabe bei stark reduzierter Leistungsaufnahme erledigt, dann ist das interessant.
 
Rockstar85 schrieb:
da wir bei den Vorgängern ja eben einen 10C hatten, inklusive die Versuche eines Meshnetz
Hatte der 10900K ein Mesh? Weiß ich jetzt nicht.
Rockstar85 schrieb:
Warum ADL keinen 10C bekam, lag damals an dem 10NM Prozess und der Latenzproblematik.
Wie gesagt, für den Ringbus ist es wurscht ob 10P oder 8P+8E, das ist die selbe Zahl an Ringstops. Eher eine bewusste Entscheidung, um die MT Performance zu steigern ohne dass das Ding gleich verglüht.
Rockstar85 schrieb:
Sonst hast du aber natürlich recht, mit der Aussage des Monolithischem Design, denn Intel nutzt schlicht die Vorteile ihres neuem Interposers nicht. Das könnte sich mit dem Nachfolger aber ändern.
Der Interposer ist halt auch noch nicht fortschrittlich genug, um vernünftig zu funktionieren. Das ist ja auch eines der Probleme von Meteor Lake. Das Datengeschiebe braucht soviel Energie, dass die Low Power Island wieder komplett negiert wird. Dazu kommt, dass die Latenzen zu Cache und Speicher so im Eimer sind, dass es der Performance schadet. Lunar Lake umgeht all das wieder.

Es ist eigentlich wie bei RDNA3: Zu früh auf Chiplets gegangen. Permanent 5.3TB Infinity Cache Bandbreite über einen Interposer zu jagen, kostet Energie ohne Ende.

Momentan sieht es so aus, als würden die nachfolgenden CPUs von Intel auf den Weg von Lunar Lake setzen: Alle Kerne und Speichercontroller auf einen Die, damit das Ding erstmal effizient läuft ohne Daten hin und her schieben zu müssen. Dann IO Die für erweiterte Konnektivität und GPU Tile.
 
Philste schrieb:
Hatte der 10900K ein Mesh? Weiß ich jetzt nicht.
Ich meine der 10900K nicht, aber die HPC Modelle. Und wir hatten dazu auch Tests.. Ich meine sogar bei CB selbst
 
Zurück
Oben