Donnidonis schrieb:
Wie genau unterscheidet sich denn ein C Kern von einem nicht C Kern? Wenn er so viel kleiner ist, was fehlt denn dann? Oder beherrscht er das gleiche Instruction Set wie die großen, hat nur weniger Takt etc? Ist es ein ähnlicher Ansatz wie Intel E Kerne, oder ist es was ganz anderes?
Es ist derselbe Kern aber anders layoutet. Bei Zen 4c war IMO das Ziel das Layout auf geringe Fläche und geringe Power zu optimieren, beim Zen 4 war das Ziel auf hohe Performance und geringe Power zu optimieren.
Zen 4c sollte so ungefähr dieselbe IPC wie Zen 4 haben. Der halbe L3-Cache je Kern und das kompakte Design sorgen für Abweichungen. Sobald ausgiebige unabhängige Benchmarks vorliegen wissen wir es genau.
Ein einzelnes Zen 4c CCD wird deutlich niedriger takten als ein einzelnes Zen 4 CCD. Ich würde jetzt Mal keine Frequenzen erwarten die viel höher als 3,2 GHz sind.
Der Eypc 9754 mit 128 Zen 4 Kernen hat einen Basistakt von 2,05 GHz und einen Turbo von 3,2 Ghz bei einer TDP von 360 Watt. Der Basistakt liegt mit den 64 Kern-Varianten von Genoa so ziemlich gleich auf, liegt aber beim Turbo um 500 bzw. 600 MHz niedriger als bei Genoa.
[wege]mini schrieb:
Wenn der Takt komplett abkackt, braucht das nicht einmal der Servermarkt.
Der Takt wird im Vergleich zu Zen 4 im Desktop komplett abkacken.
Aber beim Server kann Zen 4 auch keinen hohen Takt fahren.
Donnidonis schrieb:
Das TSMC die restlichen Mittel liefert in den Kern so zu bekommen wie er ist hab ich gelesen.
Bei SRAM gibt es viele verschiedene Zell-Designs, es hängt eben von den Anforderungen ab, was man wählt. Dass TSMC hier eine neue SRAM-Zelle bereitstellt ist nur eine Nuance.
[wege]mini schrieb:
Der Unterschied ist nur der Cache. Man könnte sagen, die Zen4c Kerne sind explizit entwickelte Celerons.
Der Unterschied ist weit mehr als nur der Cache. Wenn die Benchmarks draußen sind wissen wir für welche Lasten sich Zen 4c lohnt.
[wege]mini schrieb:
Der Stromverbrauch wird (bei gleichem Takt) nicht signifikant sinken und ob man diesen Takt bei höherer Dichte der Transistoren überhaupt erreicht, weiß aktuell nur AMD.
Das werden wir bald wissen. Beim gleichen Takt muss die Power je Kern deutlich sinken. Sonst AMD könnte nicht 33 % mehr Kerne im selben Power-Budget und selben Frequenzbereich betreiben.
ThePlayer schrieb:
Naja seit RDNA ist es deutlich besser geworden. RDNA2 war bis auf Raytracing richtig gut. Und RDNA3 ist irgendwie ein griff ins Klo. Die Frage ist nur ob da ein Fehler im Design von RDNA3 ist.
Wir kennen 3 Chip-Designs von RDNA3 und keines überzeugt.
- Navi 31 mit 5 nm
- Navi 33 mit 7 nm
- Phoenix mit 4 nm
Ich habe große Zweifel dass es ausschließlich am Chip-Design liegt.
ThePlayer schrieb:
Und sie die GPUs nicht so hoch Takten lassen können wie gedacht. Mal sehen wie es in 1,5 Jahren aussieht.
IMO ist ein Teil des Problems, dass die reale IPC des neuen Shaders zu klein ist. Dass ein sehr kompaktes Chip-Design nicht extrem hoch taktet, kann nicht überraschen. Der überraschend hohe Verbrauch von Navi 31 kommt IMO daher, dass AMD die Taktschraube überdrehen musste, um trotz zu geringer IPC eine halbwegs akzeptable Performance zu erreichen.
Bei Navi 33 wird offensichtlich, dass die IPC verfehlt wurde. AMD packt dieselbe Anzahl der Shader auf eine kleinere Fläche und fertigt das ganze im selben Node. Wo sollen hier großartige Taktsteigerungen herkommen? RDNA und vor allem RDNA 2 haben schon einen hohen Takt erreicht. Eine deutliche Perfoermancesteigerung wäre nur mit bessere IPC drin gewesen.
Novasun schrieb:
Mit einem 16er CCD kann man faktisch alles was für Desktop benötigt wird abdecken. Maximal einen zweiten dazu und gut.
Ich sehe bei den Desktop-Ryzen die Zen 4c bestenfalls als zweites CCD. Also als Teil einer Hybridlösung
Aber das ist auch nur dann realistisch, wenn Zen 4c eine deutlich höhere Taktfrequenz als bei Bergamo erreicht sollte.
Northstar2710 schrieb:
im Endeffekt ist ein 4c ein Phoenix wenn man die caches betrachtet. Die Monolitischen mobil\desktop apus hatten bei AMD immer den halbierten L3 cache gegenüber den normalen Ryzen cpus.
Der L3-Cache ist aber nur ein Aspekt der ganzen Geschichte. Bei den CCD-Lösungen muss der L3-Cache auch die höheren Latenzen kompensieren. Die monolitischen APUs haben bessere Latenzen und deshalb wirkt sich der kleinere L3-Cache nicht so stark aus.
Der Zen 4c-Kern ist ein Design das auf kleine Fläche und geringe Power optimiert ist. Die Dieshots der Kerne unterscheiden sich erheblich. Man kommt anhand der Dieshots nicht auf die Idee, dass beide Kerne dieselbe Architektur haben.
Bisher sind zwei Anwendungen von Zen 4c bekannt:
- Zen 4c CCD für Bergamo
- Phoenix 2 Hybrid APU
- zwei Zen 4 Kerne mit zusammen 2 MB-L2 und 4 MByte L3-Cache
- vier Zen 4c Kerne mit zusammen 2 MB-L2 und 2 MByte L3-Cache
ThePlayer schrieb:
Aber ich denke das der AM5 Sockel mit Zen CPUs mit mehr als 16 Kernen geplannt worden ist. Kann mir gut vorstellen das wir da in den nächsten Jahren dann Ryzen CPUs mit 32 und 64 Kernen sehen werden.
Von der TDP her gesehen würde ich Dir mit den 32 Kernen voll zustimmen. Auch mit der Speicherbandbreite sollte es genügen. 64 Kerne halte ich für unrealistisch.
Vom Platz auf dem Substrat her gesehen wird es IMO nicht funktionieren. Richtig klar wird es wenn man sich die Sache im
Heatspreader anschaut. Der Abstand zwischen IOD und den CCD ist für das Routing im Substrat erforderlich. Und mit diesem Abstand ist kein Platz für zusätzliche CCDs. Eine CPU mit 2 Zen 5c CCDs wird im Desktop nicht funktionieren.
Die einzige Option für mehr Kerne wäre, dass AMD das Substrat durch eine kompaktere Technik ersetzt.
ThePlayer schrieb:
Zu der News selbst "WOW"! Erstaunlich was so eine kleine Klitsche wie AMD da abliefert.
Ich finde es eine coole Lösung und bin auf die Benchmarks gespannt. Ich habe lange gerätselt was AMD mit Zen 4c machen wird. Dass nur den L3-Cache zu halbieren nicht genügt war klar. Es war ausgerechnet Tom von MLID der diese Lösung erwähnt hat. Dass es so gut funktioniert hat mich aber überrascht.
Du hast bei "kleine Klitsche" die Anführungszeichen vergessen.
AMD ist keine kleine Klische mehr.
Vom Financial Analyst Day im Juni 2022:
Tatsächlich hat AMD im Jahr 2022 5 Mrd USD für Forschung und Entwicklung ausgegeben. Also das 5-fache wie 2017
Der Umsatz von AMD im Jahr 2017 war ca 5,2 Mrd USD.
jotecklen schrieb:
Das liegt aber mehr an nVidia und Intel als an AMD
Richtig Nvidia ist nicht Intel.
Dass Nvidia ein anderes Kaliber als Intel ist, war sicher auch ein Aspekt, bei der Entscheidung von AMD sich zuerst auf die CPUs zu konzentrieren.
mae schrieb:
Taktfrequenz auch, und die wird bei Zen4c und Zen5c nicht so prickelnd sein. Aber fuer das zweite Chiplet waere das fuer Leute, die viele Kerne brauchen, schon cool.
Das hängt aber auch ganz stark davon ab, welche Taktfrequenz tatsächlich erreicht wird.
Wenn es bei 3,2 GHz oder 3,5 GHz bleibt wird es auf dem Desktop nicht viel bringen. Wenn es 4 GHz werden sollten, wird's interessant.
Ich sehe viele Anwendungsgebiete für diesen Kern, auch wenn es bei 3 GHz bleibt.
mae schrieb:
Was 3D-cache bei Zen4c und Zen5c betrifft, der L3-cache kommt bei Zen4c in zwei Teilen daher, was den Aufbau von 3D-cache noch arbeitsaufwaendiger machen wuerde (und wohl auch den Yield ein bisschen druecken wuerde).
Das ist ein Aspekt.
Der andere ist, bei Zen 3 und Zen 4 ist die zusätzliche Fläche für die Einbindung des optionalen L3-caches viel leichter zu verschmerzen als bei einem sehr kompakten Kern.
ThePlayer schrieb:
Gut Griff ins Klo ist vielleicht etwas übertrieben.
nein, das trifft es ganz gut.
Den Vollausbau der Navi 33 muss AMD als RX7600 verkaufen. Nur so kann AMD so etwas wie einen Fortschritt suggerieren.
ThePlayer schrieb:
Aber enttäuscht war ich schon als ich die ersten Tests und Benchmarks gesehen. Ich habe da mehr erwartet.
AMD hat bei der offiziellen Vorstellung erheblich mehr angekündigt als sie schließlich geliefert haben.
Als ich die unabhängigen Benchmarks gesehen habe, war ich fassungslos. Da kamen ganz starke Vega-Feelings auf.
ThePlayer schrieb:
Vor allem bei RT hatte ich einen größeren Sprung erwartet.
Der Witz ist doch, dass der Zuwachs bei RT so ziemlich der Ankündigung von AMD entspricht. Bei RT ist die Lücke zu Nvidia kleiner geworden. Bei der Rasterperformance ist die Lücke zu Nvidia wieder größer geworden.
LEDs schrieb:
Also bei der für HPC wichtigen FP64 Performance ist die mi250x vor der H100 und die mi300 APU kommt schon nächste Woche.
Das klassische HPC wird immer mehr zu einem Nischenmarkt. Hier war die MI250X sicher ein Prestigeerfolg. Aber für AI, den eigentlich relevanten Markt, muss AMD in der Hardware und Software nachlegen.
Die MI300 ist für Ende diesen Jahres angekündigt. Natürlich wird AMD wegen des aktuelle AI-Hypes versuchen das zu beschleunigen, aber Wunder wird es keine geben.
Ich finde die MI300 vor allem wegen dem Advanced Packaging spannend. Aber für den Markt ist nur relevant was tatsächlich an Performance kommt. Und hier sind die Angaben von AMD sehr vage.
Wenn im Faktor 8 das Unterstützen neuer Formate schon mit eingerechnet ist, wird es nicht reichen.
Taurus104 schrieb:
Schon eine etwas übertriebene Aussage.
Nein ist es nicht.
Dass AMD in der Performance mit RDNA 3 hinterläuft, kannst Du in jedem Vergleich der Grafikkarten sehen.
Und wie gesagt der Abstand zu Nvidia ist mit RDNA 3 wieder deutlich größer geworden.
Dass AMD das Performance-Defizit durch niedrigere Preise kompensieren will, ist auch klar.