Bericht Intel Core Ultra 200S: Alle Details zu Intels Ryzen-9000(X3D)-Gegner Arrow Lake-S

Redirion schrieb:
mmerhin sind die Aussichten auf einen Refresh für nächstes Jahr damit ganz gut. Es gibt ja vor allem jede Menge Potenzial beim SOC-Tile mit potenter NPU, LPE-Cores und Wifi7.
Was willst du mit LP Kernen oder WiFi7 in einer Desktop-CPU? Thunderbolt, WiFi oder andere Sperenzien, rein für den Mobilmarkt, waren noch nie Bestandteil der Desktop-CPUs. Stattdessen setzt man auf Chipsätze und Schnittstellen wie CNVi.
 
Zuletzt bearbeitet:
@xexex wenn man hier die Kommentare liest, und ich habe sie am Wochenende alle gelesen, scheinen sehr viele Leute hohen Wert auf niedrigen Idle-Verbrauch zu legen. Was wäre da geeigneter als der Ansatz mit dem LPE-Dualcore im SOC von Lunar Lake?

Und dass nun Wifi6E und Thunderbold dabei sind, bewirbt Intel doch selbst. Das sind alles Features, die natürlich aus dem Mobilen Bereich kommen, von Meteor Lake. Intel hat sich aber offenbar bewusst (oder eher notgedrungen, weil sie nichts besseres hatten) dafür entschieden, die Features zu übernehmen.

Und wenn man auch bei den Mainboards von Sockel 1700 schaut:
1728894442348.png


noch eindrucksvoller ist es beim neuen Sockel 1851, auch wenn wir da bisher nur den Z890 bisher haben:
1728894518007.png


Wifi ist da fester Bestandteil. Und leider müssen die Mainboardhersteller gerade beim Z890 ausschließlich teure Wifi7-Lösungen verbauen, weil man bei Arrow Lake leider kein Wifi7 von Haus mitbringt. Das wäre auch etwas, wo uns Kunden theoretisch ein Kostenvorteil duchgereicht werden könnte.
 
Redirion schrieb:
leider müssen die Mainboardhersteller gerade beim Z890 ausschließlich teure Wifi7-Lösungen verbauen, weil man bei Arrow Lake leider kein Wifi7 von Haus mitbringt
Auch bei Lunar Lake ist kein WiFi integriert, es wäre schlichtweg Humbug.
1728896527562.png
 
Zuletzt bearbeitet:
nach erneutem Drüberschauen werden wir vom gleichen gesprochen haben, aber es unterschiedlich ausgedrückt haben:

CNVi ist bei Lunar Lake Wifi7 und bei Meteor Lake und Arrow Lake S nur Wifi6E. Deswegen können dann keine preiswerten Module angebunden werden.
 
Redirion schrieb:
CNVi ist bei Lunar Lake Wifi7 und bei Meteor Lake und Arrow Lake S nur Wifi6E. Deswegen können dann keine preiswerten Module angebunden werden.
CNVi Module waren noch nie "preiswert", weshalb du vor allem auf günstigeren Boards, meist Realtek Chips vorfinden wirst. Ich sehe da auf jeden Fall keinen wirklichen Verlust.
 
Redirion schrieb:
scheinen sehr viele Leute hohen Wert auf niedrigen Idle-Verbrauch zu legen

*Unterschreib"

Nicht jeder boinct 24/7, die meiste Zeit laufen auch meine Desktops im Idle oder mit geringer Belastung.
 
  • Gefällt mir
Reaktionen: Eno77
Nixdorf schrieb:
Ob Intel-Systeme weiterhin niedrigere Idle-Werte erzielen, das wird sich erst noch zeigen müssen. Arrow Lake ist immerhin deren erste Desktop-Generation, bei der ebenfalls Chiplets (bzw. Tiles) zum Einsatz kommen. Ob das ohne Aufschlag bei der Idle-Leistungsaufnahme gelungen ist, das wissen wir noch nicht.
Heute gibt es die Antwort: Die Tiles mit dem Interposer führen zu einer etwas höheren Leistungsaufnahme im Idle, die mit um die 2W aber sehr moderat ausfällt. Da kann man nur hoffen, dass das mit dem vermuteten Umstieg auf neue Packaging-Techniken ab Zen 6 auch bei AMD ankommt.

Da die Leistungsaufnahme unter Last im Schnitt ebenfalls deutlich geringer als bei den Vorgängern ist, dürften Intel-Systeme mit Arrow Lake am Ende eine niedrigere Stromrechnung als welche mit Zen5 aufweisen. Wie deutlich der Unterschied ist, das hängt natürlich von den konkreten Anwendungen und Spielen ab.
 
@Volker Die Folie Nummer 27 (27/38) des Chipsatzes ist fehlerhaft und stellt bezüglich USB ein Irrtum dar.
Das ist aber keineswegs Euch anzulasten, sondern war wohl ein Fehler des Intel-Marketing.

Grund: Der Chipsatz bietet lediglich 10 statt der beworbenen vorgeblichen 32 USB 3.2-Anschlüsse!

Das hat Intel nicht nur gegenüber Steve Burke von Gamers Nexus direkt bestätigt, sondern wird auch durch die Einträge in ihrer eigenen Datenbank Intel ARK untermauert.

Das hat seinerzeit @UNIKO's Hardware auf Twitter herausgefunden.
 

Anhänge

  • GZluEV3aAAAEp9o.png
    GZluEV3aAAAEp9o.png
    598,2 KB · Aufrufe: 13

Intel Z890 motherboards facing crashes and reboots when upgrading to Win11 24H2, BIOS updated required​

Z890 motherboards may experience crashes or random reboots when updating Windows 11 to version 24H2. This issue reportedly affects the Core Ultra 200S series and its integrated Xe-LPG graphics. Apparently, a conflict between the discrete GPU and integrated GPU may occur with this Windows update.

https://videocardz.com/newz/intel-z...upgrading-to-win11-24h2-bios-updated-required
 
  • Gefällt mir
Reaktionen: TechFA
Ich denke jetzt hier nochmal laut nach: wäre ein Monolith mit 8 oder 16 P Kernen in einem modernen Prozess nicht besser gewesen? Wie groß ist der 8P Teil, wie viel Energie könnte man sparen und wie viel geringer wär die Latenz, wie hoch die Spiele Performance...
 
@BAR86 Eine Single-Die-CPU wird immer die bessere Wahl sein. Nur ist das auch schweineteuer. Man macht den Aufwand mit dem Interposer und der extra Arbeit sicherlich nicht, weil mans einfacher billiger hinbekommt.
Diese hochmodernen Prozesse haben irgendwo ihr Maximum was die Yields angeht. Kommst darüber steigt die Anzahl an teildefekten Chips wohl ziemlich an. Mit dem zusammenkleben kannst verschiedene Teile unterschiedlich teuer oder billig produzieren und kannst auch "beliebig" (in der Theorie) skalieren.
Die Latenzen sind natürlich dadurch schlechter, aber Intel hat bereits in der Vergangenheit gezeigt, dass man auch mit Single-Die ziemlich miese CPUs konstruieren kann. Siehe die X-Reihe mit 8 Kernen und dem langsamen Ringbus, die mit dem ersten Ryzen eigentlich weg vom Fenster war.
oder noch schlimmer Itanium, aber das hat wieder andere Gründe.

Es ist immer ein Zusammenspiel aus Fertigung und Architektur. Und Intel hat zuerst ersteres vernachlässigt, weil man sich 10 Jahre auf den Lorbeeren ausgeruht hat und dann noch die Architektur genauso schleifen lassen.
 
rg88 schrieb:
@BAR86 Eine Single-Die-CPU wird immer die bessere Wahl sein. Nur ist das auch schweineteuer.
letzteres stimmt pauschal einfach so nicht. Intel hat oftmals Prozessoren unter 40€ angeboten, das macht man ja nicht (da sind 5 Händler dazwischen) weil es "schweineteuer" ist.
Beim Chiplet Design verliert man halt auch Leistung. Wäre es also möglich die Leistungskrone zu holen , sprechen wir von über 600€ Verkaufswert, da sind die paar Euro mehr für die reine Produktion. Was teuer wäre, wäre nun die gesamte Umstellung des Entstehungsprozesses.

rg88 schrieb:
Es ist immer ein Zusammenspiel aus Fertigung und Architektur. Und Intel hat zuerst ersteres vernachlässigt, weil man sich 10 Jahre auf den Lorbeeren ausgeruht hat und dann noch die Architektur genauso schleifen lassen.
Das ja, man ist zumindest bei der Architektur nun hinten dran.
Dass die Fertigung gar nicht so weit weg vom Fenster ist wie man vermuten würde hat sich nun aber auch gezeigt. Schließlich ist der Spring von Intel 7 auf TSMC N3 gar nicht so überragend wie erhofft.

Hier ist eher die Frage: wo verliert man noch so viel Energie... ist es Foveros/EMIB oder was anderes?
 
BAR86 schrieb:
Dass die Fertigung gar nicht so weit weg vom Fenster ist wie man vermuten würde hat sich nun aber auch gezeigt. Schließlich ist der Spring von Intel 7 auf TSMC N3 gar nicht so überragend wie erhofft.

Hier ist eher die Frage: wo verliert man noch so viel Energie... ist es Foveros/EMIB oder was anderes?
Die Fertigung von Intel ist aktuell hoffnungslos hinten dran. Intel würde nicht bei TSMC proudzieren, wenn sie mit der eigenen konkurrenzfähig wären.
Die Architektur ist doch jetzt effizient geworden, wahrscheinlich durch die Fertigung. Die Leistung selbst kommt vom Aufbau also auch der Architektur.
Da stand halt jetzt was anderes im Lastenheft aber die Umsetzung war nicht wirklich berauschend. Mit Intels eigener Fertigung hätte man das sehr wahrscheinlich nicht im Ansatz geschafft, sonst hätte man nicht diesen Aufwand betrieben.
Man hat sich davor schlicht total verrannt und gemeint, dass man mit immer mehr Strom auch immer mehr Leistung holen kann. Bis eben das ganze mal am Limit war. Mehr Strom kostet in der Herstellung kein Geld. Das zahlt dann nur der Endbenutzer. Eine bessere Fertigung und Architektur zahlt der Hersteller.


BAR86 schrieb:
letzteres stimmt pauschal einfach so nicht. Intel hat oftmals Prozessoren unter 40€ angeboten, das macht man ja nicht (da sind 5 Händler dazwischen) weil es "schweineteuer" ist.
Natürlich ist die schweineteuer.
Deine 40 euro CPU existiert so nicht. Zumindest nicht mit 16-24 Kernen. Solche CPUs sind Ramsch-Ware und wird oft aus teildefekten Dies hergestellt. Kaum eine Reihe lohnt sich, dass man dafür eine eigene Maske aufsetzt, zumindest nicht mit dem Ziel eine 40 Euro VK CPU zu erstellen und wenn, dann ist der Die sehr klein und hat eine hohe Ausbeute bei alter Fertigung.
Ich würde also schon sagen, dass meine Aussage stimmt. Du musst halt auch den Kontext deiner Frage dabei berücksichtigen und nicht einfach von Äpfeln zu Aprikosen springen und das als das selbe hinstellen.
Ergänzung ()

BAR86 schrieb:
Beim Chiplet Design verliert man halt auch Leistung.
Jepp, das hast bei allem was die Wege länger macht. Liegt in der Physik der Dinge.
Ergänzung ()

BAR86 schrieb:
Wäre es also möglich die Leistungskrone zu holen , sprechen wir von über 600€ Verkaufswert, da sind die paar Euro mehr für die reine Produktion. Was teuer wäre, wäre nun die gesamte Umstellung des Entstehungsprozesses.
Den Teil verstehe ich nicht. Also inhaltlich ergibt das für mich nicht wirklich Sinn oder hier fehlt was am Worten. Das ist für mich kein logischer Satz
 
rg88 schrieb:
Die Fertigung von Intel ist aktuell hoffnungslos hinten dran. Intel würde nicht bei TSMC proudzieren, wenn sie mit der eigenen konkurrenzfähig wären.
Das ist so nicht richtig.
Intel 3 ist nicht so weit weg, ebenso ist 18A nicht "hoffnungslos".
Der Grund warum Intel bei TSMC produziert ist, weil man als Plan B enorme Wafermengen bestellt hat und selbst wenn man die nicht verwendet, man strafe zahlen müsste, also warum nicht etwas verwenden, wenn man es ohnehin schon bezahlt hat.
Derweil kann man in-house einige Altlasten loswerden, etwa 20A.
rg88 schrieb:
Die Architektur ist doch jetzt effizient geworden, wahrscheinlich durch die Fertigung.
Dann ist nicht die Architektur effizient geworden
rg88 schrieb:
Die Leistung selbst kommt vom Aufbau also auch der Architektur.
Da stand halt jetzt was anderes im Lastenheft aber die Umsetzung war nicht wirklich berauschend. Mit Intels eigener Fertigung hätte man das sehr wahrscheinlich nicht im Ansatz geschafft, sonst hätte man nicht diesen Aufwand betrieben.
Na klar hätte man diese kleinen Chiplets - zumindest die CPU Tiles - auch selbst herstellen können. Allerdings ist diese Entscheidung schon vor 2 Jahren gefallen und man geht nun mit der sicheren Lösung
rg88 schrieb:
Man hat sich davor schlicht total verrannt und gemeint, dass man mit immer mehr Strom auch immer mehr Leistung holen kann. Bis eben das ganze mal am Limit war. Mehr Strom kostet in der Herstellung kein Geld. Das zahlt dann nur der Endbenutzer. Eine bessere Fertigung und Architektur zahlt der Hersteller.
Das ist so nur halb richtig.
Mehr Takt(barkeit) zahlt auch der Hersteller. Weil du mehr Massetransistoren benötigst. Dann kommt hinzu, dass die Yieldrate auch ein Faktor ist. Und zum Dritten hast du einen schlechteren Stand im Verkauf wenn deine 350W CPU nicht das Leistet, was die Konkurrenz mit 65W kann, also verkaufst du weniger oder zu einem geringeren Preis = kostet Geld/verliert Geld.
rg88 schrieb:
Natürlich ist die schweineteuer.
Deine 40 euro CPU existiert so nicht. Zumindest nicht mit 16-24 Kernen. Solche CPUs sind Ramsch-Ware und wird oft aus teildefekten Dies hergestellt.
was völlig irrelevant ist ob sie nun teildefekt sind oder nicht. Es gibt auch Leute die kaufen eine 1500€ teildefekte Grafikkarte denn die 4090 kam nie mit einem voll aktivierten Chip auf den Markt.

rg88 schrieb:
Kaum eine Reihe lohnt sich, dass man dafür eine eigene Maske aufsetzt, zumindest nicht mit dem Ziel eine 40 Euro VK CPU zu erstellen und wenn, dann ist der Die sehr klein und hat eine hohe Ausbeute bei alter Fertigung.3
Richtig, Intel hat bei ihrer 80% Marktanteil durchaus sehr kleine Dies extra aufgelegt, einfach weil man davon dann viele um wenig Geld produzieren kann. Jetzt sieht das Ganze natürlich inzwischen anders aus, das heißt aber dennoc nicht, dass nicht ein einzelner Monolith unter Umständen oft günstiger sein kann als mehrere Chiplets.
rg88 schrieb:
Ich würde also schon sagen, dass meine Aussage stimmt. Du musst halt auch den Kontext deiner Frage dabei berücksichtigen und nicht einfach von Äpfeln zu Aprikosen springen und das als das selbe hinstellen.
nein stimmt sie pauschal eben nicht und das habe ich korrekt ergänzt.
rg88 schrieb:
Den Teil verstehe ich nicht. Also inhaltlich ergibt das für mich nicht wirklich Sinn oder hier fehlt was am Worten. Das ist für mich kein logischer Satz
MARGE fehlt vielleicht.
Wenn du etwas mehr in der Produktion zahlst, dafür aber deutlich teurer verkaufen kannst weil du damit ein besseres oder gar überlegenes Produkt lieferst, ist es recht wenig relevant, ob du ein paar Kreuzer mehr ausgibst in der Produktion weil dafür die Marge steigen kann.
 
Zurück
Oben