News Preis und Benchmarks: AMD stellt den Ryzen 7 9800X3D mit 104 MB Cache offiziell vor

Ich weiß auch nicht was daran so schlimm ist, wenn AMD wirklich die Produktion reduziert oder gestoppt hätte. Das ist doch ganz normal. Ein neues Produkt ersetzt das ältere. Der Vergleich mit dem 5800x3D passt auch nicht so ganz. Ryzen 5000 war die letzte Gen auf dem TSMC 7nm Prozess und auf AM4. Lässt man das weiterlaufen nimmt man sich keine Kapazitäten vom neuen Prozess, die man für die neuen Produkte braucht. Und man nimmt noch Kunden mit die auf AM4 sind und aufrüsten wollen, der Sockel war zu der Zeit immerhin schon lange auf dem Markt und damit viele potentielle Kunden die gerne nochmal "günstig" aufrüsten wollen.

Wenn man jetzt 7800x3D noch weiter auf Hochtouren produziert nimmt man sich doch selbst die Kapazitäten von der neuen CPU weg. Beide laufen auf dem gleichen Prozess. Das würde doch jeder normal denkende Mensch so machen.
 
  • Gefällt mir
Reaktionen: catch 22, Dai6oro und stefan92x
Mein Intel I7 8700K wird in Rente gehen und durch einen 9800X3D ersetzt werden. Freu mich schon auf das gute Stück. :)
 
  • Gefällt mir
Reaktionen: Knecht_Ruprecht, JohnathanSeagul, Markenbutter und 2 andere
mscn schrieb:
Edit: der 9800X3D wird noch teurer, der 7800X3D ist teuer - was kauft man denn dann jetzt zum Spielen? Den 7600X3D? Monatelang warten, um vielleicht 50€ zu sparen?

Der 7800X3D lag beim Marktstart bei 600€ aufgrund der Liefersituation. Ob der 9800X3D auch in diese Preisregion fallen wird - wahrscheinlich wird das der Fall sein - bleibt abzuwarten. Ob Granite Ridge den Preis wert ist, werden Tests am 6. November zeigen. Wenn die Aussage von AMD zu den min. FPS zutreffend sein sollte (+30% zu Intel), wird die CPU ein Nobrainer für Highend-Systeme - auch für 600 €. Wer mehr Wert auf Preis/Leistung legt, wird sich die CPU, zumindest zum Start, sowieso nicht kaufen. Da bieten andere AMD-CPUs mehr für das Geld, erst recht, wenn noch eine AM4-Plattform vorhanden ist.

Die Preisdiskussionen sind aber immer müßig, denn schon zu FX64 oder Intel Extreme Zeiten mit den symbolischen 1.000 DM für die beste CPU haben gezeigt, dass die Hersteller für das beste Produkt auch immer einen Aufschlag fordern.

AMD wird mit dem 9800X3D die beste Gaming-CPU auf dem Markt haben und das wird entsprechend kosten. Es ist halt eine Enthusiasten CPU und die geben in der Regel wesentlich mehr Geld für Hardware aus als der Normaluser. Das wissen auch die Hersteller. Rational betrachtet reicht auch ein 9600X für 250€ für das Gaming. Und ganz streng genommen lohnt sich für Gaming nicht einmal der Umstieg von Vermeer auf Raphael, denn selbst die Ryzen 5000 liefern selbst in CPU intensiven Games für die meisten immer noch ausreichend FPS.
 
Calid schrieb:
AMD könnte dem typen zumindest ein neues Hemd anziehen... den Fetzen den der Typ da an hat - etwas peinlich
Lass dem Mann doch sein lieblings T-Shirt tragen, wo ist das Problem? 🤷

Bin sehr gespannt auf den Release, vor allem ob es OC geben wird und wenn ja, wie viel 🤓
 
BlackhandTV schrieb:
Das Ding ist ja das der CPU oft der Flaschenhals ist und es im Grunde somit mehr als 8% sind UND man kann den alten 7800x3d ja verkaufen
das ist sich selbst in die tasche lügen um einen haben-wollen-drang zu rechtfertigen..
die 7800x3d ist immernoch eine der besten cpu's die man haben kann - unter höheren auflösungen schiftet der flaschenhals immer mehr zur gpu hin.
ja, man kann den 7800x3d ja verkaufen - nur was bekommt man auf dem gerbrauchtmarkt noch dafür wenn der 9800er launcht? 250€? 300? sind immernoch 200-250€ die man drauflegen muss.
 
Nach längerem Nachdenken warum ich mich geirrt habe, kommt auch ins Spiel, dass ich nie hinterfragt habe ob das was High Yield als TSVs identifiziert hatte, wirklich TSVs sind. Die Strukturen waren anders.

Wenn man sicher ist, dass im CCD weiterhin die TSVs sind, dann ist auch klar, dass CCD unten sein muss. Eine falsche Annahme kann eine ganze Argumentationskette wertlos machen.

Und nicht zu beachten, dass die Überlappung von Kern Cache ein Gamechanger ist, war wie gesagt der zweite Fehler. Hans de Fries hatte gesagt, da wäre praktisch nur SRAM. Ich habe mir extra den annotierten Die Shot des CCD angesehen, es waren bestenfalls 50 % SRAM und direkt neben den Strukturen sind die Integer Execution Units. Also eigentlich, ...

CDLABSRadonP... schrieb:
Bzgl. Nachfragen:
  • Hältst Du es für möglich, dass der Raum neben dem Cache noch eine weitere Funktion zufällt, nämlich der, die V-Caches zweier CCDs miteinander zu verbinden? Also so, dass der V-Cache von CCD0 durch CCD1 als H-Cache verwendet werden kann, ohne Umweg über das IO-DIE... (habe da persönlich Zweifel bzgl. des Packagings)
Du stellst sehr viele Fragen auf einmal. Und die Antworten ergeben nur mit Kontext einen Sinn

Also fangen wir Mal damit an wie Ryzen und Epyc aufgebaut sind.

Anmerkung: Ich bin Laie und alles was ich hier wiedergebe, basiert auf meinem Verständnis der Unterlagen die ich im Web gefunden habe, auf Artikeln, auf Präsentationen und auf Fachbüchern. Das ist zwar meine tägliche Arbeit in anderen Fachgebieten, aber auf Arbeit sind die Unterlagen vollständiger und ich kann die Ingenieure selbst fragen.

Wenn etwas unklar ist, bitte fragen.

Einleitung​

Warum wurde bei EPYC Substrat gewählt​


Ryzen und Epyc bestehen aus aus einem IOD und CCDs. Verbunden werden IOD und CCDs über das Substrat. Das ist klassische Technik und schlechter als die Advanced Packaging Optionen.

Sam Naffiziger hat 2021 in seinem Vortag beim 48th Annual International Symposium on Computer Architecture (ISCA) begründet warum AMD bei Zen 2 die Lösung das "schlechte" Substrat gewählt hat.
  • Die IF-Links über das Substrat hatten bei Zen 2 eine Bandbreite von 55 GB/s, was einerseits vollkommen ausreichend für die CPU ist andererseits mit dem Substrat ohne Probleme bewältigt werden kann.
  • Silizium Interposer und Silizium Brücken bieten eine enorme Edge-to-Edge Bandbreite.
    • Die 665 GByte/s die ein HBM Stack der MI300 liefert, können momentan nur durch Silizium Interposer oder Silitium Brücken beherrscht werden.
    • Aber die Signale von Silizium Interposer und Silizium Brücken haben eine geringe Reichweite. Sam Naffziger über Zen 2 "Die Einschränkung der Edge-to-Edge-Fähigkeit würde die Architektur auf nur vier CCDs*) beschränken, wodurch das Produktkonzept weit weniger überzeugend wäre"
  • Silizium Interposer sind zu teuer.
*) Sam Naffziger nennt als Gründe gegen CCD mit 16 Kerne: Geringere Ausbeute und weniger Konfigurationen. Die CCDs mit 8 Kernen waren für Ryzen notwenig. Und AMD hatte was die Kerne angeht schon weiter geplant.


Aus dem Konferenzband das Blockdiagramm des IOD von Rome (Zen 2) mit den Latenzen für den Speicherzugriff eines CCDs:
1730556714329.png

Die 8 hellblauen Kästen sind die IF-Links zu den einzelnen CCD. Alles ist am Ringbus angeschlossen. Und so läuft der ganze Datenverkehr eines CCD über diesen Ringbus, mit anderen CCDs, Memory Controllern oder IO (hauptsächlich PCIe)

Durch den Ringbus im IOD haben alle CCD einen vergleichbaren Zugang zu den Memory Controllern und der IO. Auf der anderen Seite muss die Bandbreite des Ringbusses einsprechend groß sein um die Leistung nicht zu begrenzen.

Kurzer Vergleich mit MI300​

1730635338043.png

Aggregate bedeutet die Werte beziehen sich auf die gesamte MI300 und nicht nur das gezeigte Viertel mit IOD, 2 XCD und 2 HBM Stacks. Natürlich sind das die Maximalwerte.

Zum Vergleich die maximale Speicherbandbreite von Turin über alle 12 DDR5 Kanäle mit DDR5-6000 beträgt 576 GB/s

1730641002634.png

MI300 Architecture Briefing, das nächste Bild ebenso

Der Aufwand im Vergleich​

Wenn man sich die MI300 anschaut, dann sieht man, dass die 4 IODs unmittelbar nebeneinander liegen und dasselbe gilt für die HBM Stacks. Die Hohe Bandbreite der HBM impliziert dass auch die IODs mit hoher Bandbreite gekoppelt werden müssen.

Die geringe Bandbreite der Kopplung über Fanout bei der MI250X verursacht, dass die MI250X aus 2 logischen GPUs besteht.

Den Aufwand den AMD bei der MI300 betreibt um diese Bandbreite zu ermöglchen ist enorm:
1730641196501.png

Auf der linken Seite ist ein Schnitt durch die MI300 zu sehen.

Ein paar Anmerkungen:
  • Sowohl Dies und Silizium Interposer sind aus Silizium und haben somit denselben Wärmneausdehnungskoeffizienten. Also ist diese Kombination ideal.
  • Problematisch ist bei Silizium Interposer die Verbindung zum Substrat. Kunststoff und Silizium abweichende Wärmeausdehungskoeffizieneten. Durch die Größe die die Interposer inzwischen erreicht haben, könne beträchtliche Spannungen entstehen.
  • Je dicker man den Interposer macht, desto aufwändiger, wird als Anlegen der TSVs.
  • Die kleineren Kontakte erfordern bei der Montage eine hohe Präzession. Damit steigt der Aufwand.

EYPC ist bisher klassisches Flip-Chip auf einem Substrat. John Lau, "Recent Advances and Trends in Advanced Packaging":
1730641790546.png

Hier dargestellt mit einem Chip, bei Ryzen sind es bis zu 3 und bei Eypc bis zu 17 Dies auf dem Substrat. Natürlich ist es mit 3D-VCache komplexer, aber das lässt sich AMD auch zusätzlich bezahlen.

Man sieht die MI300 ist erheblich aufwändiger als es bisher EPYC ist. Was sich in zusätzlichen Komponenten und vor allem in zusätzlichen Prozessschritten äußert. Bei jedem einzelnen dieser Schritte kann etwas schiefgehen.

Bei der letzten Quartalskonferenz hat AMD gesagt, dass die MI300 unterdurchschnittliche Margen bringt.


1. Teilfrage: Koppeln zweier CCDs über den V-Cache​

IMO ergibt das direkte Koppeln von zwei CCDs bei EPYC und Ryzen über den Cache Die keinen Sinn, solange man einen zentralen IOD hat.

Aber selbst wenn man den zentralen IOD auflöst wäre die Kopplung direkt über ein IOD die viel sinnvollere Lösung. Bei Ryzen könnte man alles bei einem IOD belassen. Bei EPYC müsste man die zusätzlich die IOD koppeln.

Falls AMD den zentralen IOD auflöst, ergäbe sich IMO eine vollkommen neue Architektur. Eine Lösung wie bei der MI300 wäre sehr aufwändig und teuer. Macht AMD so etwas tatsächlich bei EPYC?

Man ändert gewöhnlich aus zwei Gründen
  • Entweder stößt das bisherige Konzept an die Grenzen und kann nicht weiter skalieren, z. B. mehr Chiplet oder den Ringbus aufweiten
  • Oder andere Konzepte versprechen eine bessere Performance, ...

Zen 6​

Zen 6 wird gewaltige Änderungen bringen.
  • MLID erzählt, dass AMD bei EPYC auf einen modularen IOD wechselt. Schauen wir Mal.
  • AMD soll auch bei Ryzen und EPYC auf eine Lösung mit Advanced Packaging wechseln.
    • dazu gibt es viele Quellen, also ist es relativ sicher
    • Über die gewählte Technologie gibt es noch keine Aussage sondern nur Spekulationen.
    • Im Rennen sind:
      • Silizium Interposer
      • Silizium Brücken
      • Fanout, organisches Substrat mit Dünnschicht Technik
      • Glas Interposer
  • Es wird CCDs mit mehr Kernen geben.
    • Das bedeutet, dass die CCDs mit einer höheren Bandbreite angeschlossen werden müssen.
    • Aber sind die CCDs wirklich der Grund aus dem AMD vom Substrat auf eine Advanced Packaging Lösung wechselt?
Ich erwarte eher dass sich am Katalog der Chiplets etwas ändert. Montan ist er bei Zen 5 erschreckend klein:
  • Zen 5 classic CCD mit 8 Kernen
  • Cache Chiplet für Zen 5 classic CCD
  • Zen 5 dense CCD mit 16 Kernen
  • server IOD neu um 16 CCD anschließen zu können
  • client IOD (wurde von Zen 4 übernommen)
Was könnte hinzukommen? Mal wild geraten
  • XDNA Chiplet
  • SmartNIC Chiplet
  • Co-Packed Optics

Strix Halo als Vorgeschmack auf Zen 6​

Es gibt das Gerücht, dass Strix Halo auf Advanced Packaging setzt.
Allein aus diesem Grund könnte Strix Halo sehr interssant sein.

2. Teilfrage: Den Raum neben dem Cache Chiplet für Schaltungen nutzen​

AMD kann keine essentielle Funktionen des CCDs auf ein optionales Cache Chiplet verlagern. Deshalb fällt es AMD bei einem optionalen Cache Chiplet schwer, diesen Raum zu nutzen. AMD würde die dort umgesetzten Funktionen an das Cache Chiplet binden.

Sobald Hybrid Bonding so kostengünstig wird, dass es als Standardlösung für Ryzen und EPYC taugt, wird AMD den Aufbau des bisherigen Chiplets überdenken.
Optionen sind, wieder wild geraten:
  • PHY und Logik der IF-Links auf das Cache Chiplet
  • L3-cache komplett auf das Cache Chiplet.
  • Kern neu ordnen, so dass Logik auf dem CCD ist und SRAM auf dem Cache Chiplet ist.
Natürlich hängt die Frage, wann es sich lohnt auch davon, ab wie viel Funktion vom Chiplet im teuren Node auf das Chiplet im billigen Node verschoben werden kann.

CDLABSRadonP... schrieb:
  • Bzgl. Wafer-On-Wafer: Ist dort nicht der Hauptgedanke der, dass man die Yields durch Flächenreduktion massiv erhöht?
Mehrere kleine Dies anstatt einem großen Die zu verwenden, und damit einen höheren Yield zu erreichen, ist ein Grundkonzept, warum es sich überhaupt lohnt Chiplets zu machen.

Dies illustriert eine Folie von AMD zu diesem Thema (Cross-Disciplinary Innovations Required for the Future of Computing", Sam Naffziger, AMD, SkyTalk, DAC 2021 ):
1730580176775.png

Der zweite dargestellte Vorteil ist, dass man die zusammen passende Chiplets (rot) kombinieren um SoCs mit besonderer Charaktersitik (4 x rot) herzustellen.

Wafer on Wafer bezieht sich nur auf den Hybrid Bonding Prozess:
1730580418054.png

Bei diesem Prozess hat man keine Kontrolle über die Güte der einzelnen Dies, so dass die Ausbeute der beiden Wafer voll in die Gesamtausbeute eingeht. Außerdem entfällt die Option zusammen passende Die zu verbinden

Aber dies ist trotzdem sehr interessant. Mit Zen 5 könnte man in einem Schritt mehr als 800 CCD gleichzeitig auf den 3D V-Cache setzen.
CDLABSRadonP... schrieb:
  • Also jetzt ganz simpel gesprochen: Man bekommt es hin, so viel aus dem Einzeldie rauszuschmeißen, dass die Fläche einer einzigen Ebene einen Perfektions-Yield von 99% hat, dann liegt der Gesamtyield selbst bei zehn Ebenen übereinander immer noch bei ~90,043%.
Rauschmeissen geht nicht da man die Funktionen benötigt. Die Funktionen werden auf mehrere Dies verteilt. Dadurch werden die Dies kleiner und dadurch steigt der Yield. Aber das verkleinern hat Grenzen:
  • Mit zu vielen Dies steigt der Integrationsaufwand stark an.
  • AMD versucht mit den CCD im Bereich von 70 bis 80 mm² zu bleiben. Warum hat AMD erst bei Zen 5 den L3 Cache kompakter gemacht und damit totes Silizium elimiert? Hat AMD die Fläche zum Kühlen gebraucht?

99 % Yield ist allenfalls mit Chips von ca 5 mm² möglich. Das Zen 5 CCD oder der Cache Die liegen so bei 93 % bis 95 %.

10 Layer mit Logik ist aus thermischen Gründen wohl noch eine Weile nicht möglich.
CDLABSRadonP... schrieb:
  • Und das ist dann bloß der Yield für einen perfekten Chipstapel, zusätzlich erhält man ja auch noch die Stapel mit einer Imperfektion auf einer der zehn Ebenen, mit zwei Imperfektionen, ... (die man oftmals immer noch binnen könnte)
Das Problem ist, das die Fehlern beim Stacking sich stärker auswirken, weil sie ja Powerzufuhr oder Kommunikation von zwei Ebenen betreffem.

Deshalb gibt es auch Bestrebungen hier Redundanzen einzubauen.

Aktive Brücken Dies/ Active Interconncet Dies​

Wenn man sas Cache Chip verwendet zwei CCDs zu verbinden, dann dient das Cache Chiplet als aktives Brücken Die.

Zu Aktiven Brücken Dies hat sich AMD einige Gedanken gemacht und dazu mehrere Patente eingereicht. Üblicher Weise hat AMD explizit Hybrid Bonding als Verbindungstechnik genannt.

Beispiel: US 2022/0051985 A1 CREATING INTERCONNECTS BETWEEN DIES USING A CROSS -OVER DIE AND THROUGH - DIE VIAS

Daraus die erste beiden Bilder


1730679738372.png



1730679807147.png

Das Beispiel hat 2 Base Dies und 3 Interconnect (Bücken Dies). Die Brückendies on Top ergeben eigentlcih nur einen Sinn, wenn sie aktive sind.


1730679750699.png


1730679915652.png


Diese Darstellung im Schnitt zeigt einen SoC mit 2 Brücken Dies und 3 Base Dies.

Als ich das Patent zum ersten Mal gesehen habe, war ich sehr begeistert. Ich dachte es wäre eine Option eine Multi Chiplet GPU mit die über den L3 Cache gekoppelt ist zu bauen.

Allerdings so cool wie das ganze aussieht es ist mit Hybrid Bonding nicht so einfach zusammensetzen wie Lego Steine. Die große Stärke von Hybrid Bonding der feine Pitch erzwingt auch eine hohe Präzession bei der Platzierung der Dies.

Die Base Dies müssen exakt auf einen Carrier Wafer ausgerichtet werden und fixiert werden. Dann müssen die Brücken Dies exakt auf den Base Dies plaziert werden. Wenn bei diesem gebilde eine winzige Verschiebung eines Dies ergibt, ...

Als die MI300 kam wusste ich wie die Multi Chiplet GPU, die über den L3 Cache gekoppelt ist, gebaut wird. Hier ist die Brücke (IOD) unten und so groß, dass beide XCDs auf das IOD passen.

Will sagen, die Idee mit der Brücke hat AMD umgesetzt, aber ganz anders als in diesem Patentantrag beschrieben. Inspfern zeigen Patentanträhe und Patente über was ein Unternehmen nachdenkt. Aber eben nicht was tatsächlich umgesetzt wird. Das weiß man erst hinterher.

Der Vorteil beim tatsächlichen Viorgehen ist, dass jeder Stack getestet werden kann, bevor die Know Good Stacks auf dem Silizium Interposer platziert werden.

Zwar ist der Pitch beim Interposer höher als bei Hybrid Bonding, Aber das Platzieren der Stacks auf dem Interposer ist nicht trivial.

Die zweite Überraschung bei der MI300 war für mich dass AMD das erst mit der MI250X eingeführte Elevated Fanout Bridge Verfahren wieder aufgegeben hat.

Ich denke die Antwort ist hier, dass die Montage der Stacks auf eine starren Interposer einfacher ist als mehr als 16 Silizium Brücken*, 8 HBM Stack und 4 Logik Stacks zu verbinden. Mit Silizium Brücken sind mehr Prozessschritte erforderlich als bei einem Interposer.

*) Annahme je 2 Silizium Brücken zwischen den Logic Stacks, mit jeweils einem wären es ingesamt 12

und noch Mal die Größe der Silizium Brücken an einem Beispiel:
1730709260610.png

Hot Chip 33, Advanced Packaging Tutorial, Abschlussvortrag von Techsight International

Und AMD hatte nicht vor so etwas komplexes wie Ponte Vecchio oder Sapphire Rapids zu machen:
1730709448388.png


Unten rechts zeigt der Schnitt die Platzierung der Silizium Brücke (EMIB).
Bitte beachten, sowohl der Base Die als auch der HBM Stack sind nur Teilweise abgedeckt

Betrachtet man die ganze Fläche, dann nehmen die 11 Siliziumbrücken nur einen sehr kleinen Teil der Fläche ein. Sie überbrücken den Spalt zwischen den Dies und überdecken die Dies jeweils nur so weit wie sie es für die Kontakte benötigen.

Damit bleibt unter den Dies genügend Raum um die Dies mit dem Substrat zu verbinden. Deshalb benötigen die Silizium Brücken im Gegensatz zu den Silizium Interposern keine TSVs. Und da sie so klein sind, ist kein Platz für zusätzliche Logik.

Wenn man sie größer macht um Logik zu platzieren, blockieren sie mehr Raum unter die Dies.


1730709483576.png


Beide Folien: Hot Chip 33, Advanced Packaging Tutorial, Aus dem Doppelvortrag von Intel

Zen 6, Zen7​

Habe ich schon gesagt, dass Zen 6 interessant wird? bei Zen 7 ist es nicht anders.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut, Rockstar85, Kommando und 5 andere
ETI1120 schrieb:
Warum hat AMD erst bei Zen 5 den L3 Cache kompakter gemacht und damit totes Silizium elimiert? Hat AMD die Fläche zum Kühlen gebraucht?
Eine andere mögliche Erklärung wäre, dass bislang mehr Ebenen V-Cache unterstützt wurden (aber nie als Produkt umgesetzt wurden). Wir wissen aus BIOS-Optionen der Epyc-Referenzplattform für Zen 3, dass AMD mindestens darüber nachgedacht hat bis zu "4-High Vcache" zu stapeln. Da das Cache-Chiplet für Zen 3/4 nur SRAM enthält, musste die gesamte Kontrollogik für den L3 in der maximal unterstützten Größe auf dem CCD vorhanden sein.

Wir haben aber nie Produkte mit mehr als einem Cache-Die pro CCD gesehen und ich vermute stark, dass das jetzt gewählte Packaging bei Zen 5 das auch gar nicht mehr unterstützen würde. Denn dann müsste man alle Signale und Stromversorgung per TSV durch mehrere Dies übereinander schicken - das könnte vielleicht doch ein paar Verluste zu viel an den Übergängen verursachen. Wenn AMD Zen 5 also im Gegensatz zu Zen 3/4 auf deutlich weniger maximalen L3-Cache auslegt, dann kann AMD eben auch viel dieser Logik rund um den Cache streichen.

AMD hätte demnach also mittlerweile erkannt, dass Produkte mit noch mehr Cache entweder nicht nachgefragt werden, nicht technisch umgesetzt werden können (thermische Probleme wären da wohl am ehesten zu vermuten), oder einfach keinen weiteren Mehrwert bringen, der sich wirtschaftlich rechtfertigen lässt.
 
Ich denke weitere Erklärung passt besser. Es ist immer die Summe der Vor und Nachteile die entscheidet.

Die alte Methode war besser wenn man mehrere Ebenen V-Cache haben will.

Ganz abschreiben würde ich das jedoch nicht. Ich kann mir schon vorstellen dass es für eine Custom EPYC CPU interessant wäre. Und angesichts der niedrigen Taktfrequenzen der Server ist es hier nicht so problematisch erst 2 Etagen zu passieren.
 
ETI1120 schrieb:
Ich kann mir schon vorstellen dass es für eine Custom EPYC CPU interessant wäre.
Vorstellen kann ich mir auch viel. Aber nimmt der Markt das an?

Im Moment gibt es keine heißen Gerüchte zu Turin-X, noch zu einem Nachfolger für Intels Xeon Max (mit HBM). Bei Vorstellung von MI300 wurde ja auch spekuliert, ob AMD eine "MI300C" als CPU mit HBM bringen könnte, das scheint aber auch nie wirklich in Erwägung gezogen worden zu sein.

Aktuell habe ich da persönlich den Eindruck, dass V-Cache im Moment (!) für AMD bei Gamern am besten platziert ist und für den Rest eher später kommt. Das finde ich ein bisschen überraschend und vielleicht täuscht mich dieser Eindruck ja auch, aber es würde erklären, wieso AMD den Platz im CCD reduziert, der für die Unterstützung von V-Cache nötig ist, bis eben zu diesem Minimum was wir jetzt bei Zen 5 sehen.
 
mscn schrieb:
Aber für den BESTEN Gaming Prozessor aller Zeiten!11elf
Das ist wirklich sehr fair und wer das Beste will, muss das Beste geben - sein Geld!
Und fünf FPS weniger für -200€ weniger ist so "Geringverdiener", das geht gar nicht!
Sieh es mal so, im Sozialismus gäbe es den 7800X3D gar nicht.
 
mscn schrieb:
x86 ist in ein paar wenigen Jahren Kreisliga gegen die ARM Konkurrenz, spätestens, wenn NVIDIA mit dabei ist.
Aber lass dich nicht beim Feiern stören!

mscn schrieb:
Sollte eine ARM-CPU (Mediatek) mit einer brauchbaren GPU (NVIDIA) kommen, wird es spannend.
Da muss ich mich doch selbst zitieren, obwohl es erst am Samstag war.

https://www.techpowerup.com/328422/nvidia-cpus-not-gpus-coming-in-2025

"According to DigiTimes, NVIDIA is reportedly targeting the high-end segment for its first consumer CPU attempt. Slated to arrive in 2025, NVIDIA is partnering with MediaTek to break into the AI PC market, currently being popularized by Qualcomm, Intel, and AMD."
 
ETI1120 schrieb:
Nach längerem Nachdenken warum ich mich geirrt habe, kommt auch ins Spiel, dass ich nie hinterfragt habe ob das was High Yield als TSVs identifiziert hatte, wirklich TSVs sind. Die Strukturen waren anders.
Großes THX und danke für die Einblicke in die Prozessorarchitektur..
Dafür liebe ich dich ja mein Freund ;)
Und bitte mach das noch viele viele Jahre weiter :D


Ich geb dir nen Virtuelles Bier aus🍻

Wie immer hatte meine Nase Recht.. Zen 4 und Zen 6 werden am Ende die Spannendsten Produkte auf AM5 sein.. Aus Strix Halo bin ich heiß wie Frittenfett
Ergänzung ()

Debian User schrieb:
Sieh es mal so, im Sozialismus gäbe es den 7800X3D gar nicht.
Wir bauchen doch nur Hochfrequenzkerne! Mehr braucht es nicht.
 
stefan92x schrieb:
Vorstellen kann ich mir auch viel. Aber nimmt der Markt das an?
Eine Custom CPU kommt nicht auf den Markt, sie wird im Auftrag für einen Kunden gefertigt. Ein großen Teil des Servergeschäfts läuft über Custom CPUs. Falls ein 2-lagiger Cache möglich sein sollte und ein Kunde eine ausreichende Stückzahl bestellt, ...

Wir sind uns einig als SKU auf der offiziellen Preisliste sind mehrlagige Caches durch diese Änderung noch unwahrscheinlicher geworden.

stefan92x schrieb:
Im Moment gibt es keine heißen Gerüchte zu Turin-X,
Dan McNamarra hat die Frage nach Turin-X ziemlich barsch weggebügelt.

Aber über die Gründe, kann nur spekuliert werden.
stefan92x schrieb:
Bei Vorstellung von MI300 wurde ja auch spekuliert, ob AMD eine "MI300C" als CPU mit HBM bringen könnte, das scheint aber auch nie wirklich in Erwägung gezogen worden zu sein.
Diese Spekulationen kamen wegen Intel Xeon Max auf.

AMD hat Milan-X und Genoa-X im Programm, IMO war schon immer klar, dass diese Nur CPU-Variante der MI300 für AMD kein großes Thema ist.

Hinzu kommt, dass HBM und CoWoS aktuell begrenzt sind, jede CPU wäre eine MI300X weniger.
stefan92x schrieb:
Aktuell habe ich da persönlich den Eindruck, dass V-Cache im Moment (!) für AMD bei Gamern am besten platziert ist und für den Rest eher später kommt. Das finde ich ein bisschen überraschend und vielleicht täuscht mich dieser Eindruck ja auch, aber es würde erklären, wieso AMD den Platz im CCD reduziert, der für die Unterstützung von V-Cache nötig ist, bis eben zu diesem Minimum was wir jetzt bei Zen 5 sehen.

AMD kann nicht alles gleichzeitig releasen. Also gibt es Prioritäten. Im DIY-Markt wird 9800X3D die Zen 5 CPU mit dem höchsten Ansatz sein. Die Validierung bei Servern dauert länger. Milan-X und Genoa-X waren Lösungen für spezielle Märkte. Sie kamen auch deutlich nach Milan bzw. Genoa auf den Markt. Genoa-X wurde im Juni 2023 released.

Also ich denke Turin-X kommt wenn AMD soweit ist. Dasselbe gilt für den Siena-Nachfolger und Threadripper 9000.
 
Weis jemand, ob heute bereits schon die ganzen Tester, ihre Benchmarks raushauen dürfen? Ist ja manchmal so, dass es einen Tag vorher schon Tests gibt.
 
Irgendjemand hatte gepostet NDA geht bis 07.11. 15:00 Uhr. Wir werden Morgen um 15:01 sehen, ob das gestimmt hat.
 
  • Gefällt mir
Reaktionen: Asghan und Croftout90
dachte Heute Tests und Morgen verkauf?
 
Heute 15 Uhr ist Ende des NDAs für Tests.
Morgen ab 15 Uhr Verkaufsstart.
 
  • Gefällt mir
Reaktionen: Gortha, msv und Knecht_Ruprecht
Zurück
Oben