News AMD-Prozessoren: Zen 5 und Zen 6 brutzeln in der Gerüchteküche

Also mau sahen die 5 jahre Intel zuvor aus mit Takt (AMD lass ich mal außen vor). Seit Zen released wurde und auch Intel sich wieder strecken muss, haben wir einen enormen Fortschritt in der Leistungsfähigkeit der CPUs der letzten Jahre gesehen. Mau ist was anderes:

Das war mau:
1681566514362.png
 
  • Gefällt mir
Reaktionen: xXDariusXx, Piecemaker, ThirdLife und eine weitere Person
Volker schrieb:
Najaaaaaaa, die Vergleiche hinken halt deutlich. Die AMD-Architektur war bei Bulldozer quasi 3 Gen das die gleiche, groß IPC stieg da nicht. Das war wie Skylake KablyLake Coffee Lake und Comet Lake - auch quasi kein IPC-Wachstum.
Also Bulldozer, Piledriver, Steamroller und Excavator gleichzusetzen mit den SkyLake, KabyLake, CoffeLake und CometLake ist da nicht so fair.

Zwischen Bulldozer, Piledriver, Steamroller (der zweite Decoder) und Excavator hat sich schon etwas getan, auch wenn der IPC-Anstieg nicht riesig war. Bei den *Lakes hat sich beim Kern ja wirklich nichts getan, wenn man sich die Informationen und Co ansieht.
Volker schrieb:
Und genau deshalb soltle man die Kirche im Dorf lassen, 30 Prozent IPC sind einfach unrealistisch in einer Gen wenn man nicht 2 überspringt oder die davor gar gar nix brachte.
Kommt darauf an. Ich bitte an der Stelle aber mal - und das erwarte ich von einem Journalisten wie dir - den ganzen Text zu lesen, ich begründe meine Aussage und gebe auch an, dass die 30 % bei 1T nicht unrealistisch sind und das AMD diese 30 % ja bereits selbst erreicht hat bei Zen zu Zen2 - das habt ihr getestet. Hier ist damals die IPC -19 % waren es glaub ich - sowie der Takt gesteigert worden. Also eine Verbindung aus beiden.

Ich danke dir an der Stelle für die Erklärung, aber ich habe den Punkt, den du mir hier erklären willst selbst bereits angedeutet:
DevPandi schrieb:
30 % für 1T sind kein unrealistischer und auch kein alberner Wert. Selbst wenn Zen 5 nicht stark an der Taktschraube drehen würde, wäre eine Verbindung aus 20 - 25 % IPC (nicht unrealitisch) und 5 % Takt ausreichend, damit man zwischen zwischen 25 - 30 % im 1T-Benchmark kommt.
Ich habe also genau das auch bereits selbst kommuniziert. Ich emfinde deinen Beitrag an der Stelle ein Stückweit übergriffig.

Volker schrieb:
Also Nein, es wird eher nicht 30 Prozent mehr IPC geben. Je eher man sich damit anfreundet, desto geringer ist die Enttäuschung.
Warum denkst du, habe ich den Beitrag wohl so eingeleitet?
DevPandi schrieb:
Direkt vorweg als Vorsorge: Ich schreibe jetzt nicht, dass Zen 5 30 % IPC bringen wird und alles was ich schreibe sind Hypothesen und Theorien.
Und auch am Ende schreibe ich nicht, dass es 30 % IPC sind, sonder wieder allgemein. Genauso aber auch eben:
DevPandi schrieb:
Klar, die 30 % sind schon hoch gegriffen, aber eben nicht so hoch, dass es unrealistisch oder albern wird.
Nur dass diese 30 % eben nicht so hoch - als ganzes - dass es unrealistisch oder albern ist. Natürlich hast du recht, wir werden mit hoher Wahrscheinlichkeit keine 30 % IPC sehen, dafür wäre wohl eher eine vollständig überarbeitet Architektur notwendig und ich denke nicht, das Zen 5 das sein wird. Eine starke Überarbeitung, die im Mittel ca. 15 - 20 % IPC erreicht.

Bei Bulldozer - Familie - zur Zen-Familie ist halt eine grundlegend überarbeitete µArch an dem starken IPC-Impact verantwortlich.
 
DevPandi schrieb:
AMD hat bei Zen 5 einige "Schritte" offen - ob sie bereits kommen, keine Ahnung - die alleine theoretisch die Leistung schon um 25% bei der IPC steigen lassen können. Die 5 INT-ALU z.B. Die Verbreiterung des Decoders auf 5 oder 6 Befehle. Intel hat mit GoldenCove den Decoder auf 6 erweitert, dazu die 5 INT-Alu eingeführt.
Eine der wenigen Aussagen von AMD zu Zen 5 ist "wider issue". Aber was genau AMD vor hat sagen sie natürlich nicht. Deshalb ist es vollkommen unklar was daraus an Performancesteigerung zu erwarten ist.

DevPandi schrieb:
Du weißt schon, dass Zen 4 und Zen 4c weitgehend die gleiche Kern-Architektur verwenden, nur dass Zen 4c - aktueller Stand - im L3-Cache gestutzt wird und an anderen Stellen bei der Effizienz angepasst wird?
Das wird bei Zen 4 und Zen 4c wahrscheinlich so sein.

Aber bei Zen 5 und Zen 5c sind deutlich mehr Unterschiede möglich, da bei Zen 5 die Architektur neu aufgesetzt wird.
  • Wenn man es sich ein bisschen weiter ausmalt könnte Zen 5 auf Performance und Effizienz optimiert werden und Zen 5c auf Effizienz und Kompaktheit.
  • Aber AMD könnte auch in Zukunft bei den C-Kernen auf ein bisschen Cache verzichten und die Taktfrequenz etwas niedriger ansetzen. Was ich persönlich als enttäuschend empfinden würde.
Zumindest was Zen 4c angeht werden wir bald mehr wissen.

DevPandi schrieb:
In AVX-Szenarien könnten wir sogar Sprünge auf 100 % sehen in 1T und nT-Szenarien. Aktuell - Zen 4 - verschaltet AMD die beiden AVX256-ALUs zu einer AVX512. Wenn AMD hier in Zen 5 die beiden AVX256 auf AVX512 erweitert, dann haben wir hier theoretisch 100 % IPC-Gain in bestimmten Szenarien.
Die Erweiterungen der Floating Point Units haben sich recht wenig auf die im Desktop üblichen Benchmarks ausgewirkt. So ist es ein Gag, dass AMD auf dem Desktop AVX-512 unterstützt, während es die aktuellen Intel-Prozessoren nicht unterstützen. Aber wirkliche Auswirkungen hat es eben nicht. Zu wenig Software verwendet AVX-512.

Auf dem Server hingegen, gibt es Anwendungen die viel Floating Point Berechnungen haben.

DevPandi schrieb:
Wenn AMD hier in Zen 5 die beiden AVX256 auf AVX512 erweitert, dann haben wir hier theoretisch 100 % IPC-Gain in bestimmten Szenarien.
Es wurde viel Wind um AVX-512 gemacht, aber lohnt sich der Aufwand für ein paar Sonderfälle einer nicht häufig verwendeten Befehlserweiterung?
mae schrieb:
Wuerde ich aber nicht erwarten, sondern dass sie den Aufwand in Sachen investieren, die bei vielen Szenarien etwas bringen (wenn auch keine 100%). Eigentlich stehen die jetzt bei AVX-512 eh ganz gut da (v.a. im Vergleich zu Alder/Raptor Lake:-).
Sehe ich genau so.

Zen 5 bekommt die AIE. Die AIE wird eine deutliche Leistungsteigerung bei ML-Inferencing ermöglichen.
Aber es ist vollkommen unklar wie AMD die AIE unterbringt (on Die oder eigener Die) und wie viele AIE-Tiles AMD unterbringt.

DevPandi schrieb:
Wenn Zen 4c und Zen 4 sich die gleiche Architektur teilen im Kern, also gleiche L1-Caches, gleicher L2-Cache, gleiche Prefetch-Tables, LTB-Buffer und Co, dass beide Kerne sich in einem 1T-Test, der nicht Speicherlimitiert ist, weitgehend gleichwertig verhalten beim gleichen Takt?
Ian Cutress führt die Teils erheblichen Performancesteigerungen von Zen 3 gegenüber Zen 2 bei SPEC 2017 INT auf den veränderten Cache zurück.

Es spielt, für das was Jim Keller zeigen wollte, keine Rolle ob Zen 4c langsamer oder gleich schnell wie Zen 4 ist. Er wollte sagen, dass ihr Prozessor gut positioniert ist. Was tatsächlich dabei rauskommt werden wir sehen

DevPandi schrieb:
Klar, die 30 % sind schon hoch gegriffen, aber eben nicht so hoch, dass es unrealistisch oder albern wird.
Da wir alle nicht wissen was AMD tatsächlich vorhat, bleibt nichts anderes übrig, als uns überraschen zu lassen.

Aber bitte beachten die von Jim Keller projezierten 30 % sind keine IPC-Steigerung
  • Sie beziehen sich auf "Spec2K17Int"
    IPC und SpecInt können wie bei Zen 2 auf zen 3 relativ ähnlich sein, müssen es aber nicht.
  • In der Projektion ist auch eine Taktsteigerung enthalten.
    AMD wird bei den CCDs wohl 3nm einsetzen, also ist eine Steigerung der Frequenz eine realistische Annahme.
Auch hier gilt, Jim Keller wollte Performanceprognose für Zen 5 abgeben, sondern zeigen wie er die Tenstorrent Kerne einordnet. Für diesen Zweck spielt es keine Rolle ob er 5% daneben liegt oder nicht.

Mike Clark hat den Namen "Zen" mit Absicht gewählt.
Bei der Bulldozer-Architektur habe ich in all den Jahren wohl gelernt, dass es bei der Entwicklung von x86-Cores darauf ankommt, das richtige Gleichgewicht zwischen Frequenz, IPC, Leistung und Fläche zu finden. Das haben wir mit Bulldozer nicht erreicht, und deshalb war ich der Meinung, dass unser neues Projekt einen Namen braucht, der unser eigentliches Ziel ausdrückt, nämlich eine ausgewogene Architektur. Zen' als Name machte für mich Sinn für das, was wir vorhaben.

Übersetzt mit www.DeepL.com/Translator (kostenlose Version)

AMD wird bei Zen keine einseitig auf IPC-Gewinn ausgelegte Designs machen. Deshalb sind 30 % IPC unrealistisch. Aber wie gesagt Jim Keller hat ja gar nicht die IPC prognostiziert.

Volker schrieb:
Also Nein, es wird eher nicht 30 Prozent mehr IPC geben. Je eher man sich damit anfreundet, desto geringer ist die Enttäuschung.
Zu häufig ist nicht das was geliefert wird das Problem, sondern die überzogenen Erwartungen.

Wir wissen nicht was AMD tatsächlich vor hat. Sehr schnell endet man bei Wunschdenken. Dann baut man sich Fantasiegebilde und ist dann sehr enttäuscht, wenn die Realität nicht mit dem Fantasiegebilde übereinstimmt.
 
ETI1120 schrieb:
Eine der wenigen Aussagen von AMD zu Zen 5 ist "wider issue".
Genau, mehr eben nicht. Sie haben ein paar Möglichkeiten die theoretische Werte schaffen, aber mehr auch nicht. Die 5. ALU kann den theoretischen Durchsatz um 25 % erhöhen, aber darüber hinaus. Dazu kommt, dass die Änderungen wie ein breiterer Decoder oder eben Backend eventuell auch nur unterdurchschnittlich durchschlagen und das Konzept nicht aufgeht in der Realität.

Da heißt es Abwarten!
ETI1120 schrieb:
Deshalb ist es vollkommen unklar was daraus an Performancesteigerung zu erwarten ist.
Wenn - Achtung Glaskugel - AMD die 5 INT Alu bringt und den Decoder auf 5 oder 6 erweitert, könnten wir theoretisch ca. 25 % im Maximum erwarten, im Mittel vermutlich auch her 10 - 15 %. Nicht alles skaliert gleich gut.


ETI1120 schrieb:
Aber bei Zen 5 und Zen 5c sind deutlich mehr Unterschiede möglich, da bei Zen 5 die Architektur neu aufgesetzt wird.
Klar, habe ich etwas anderes behauptet? Genoa und Bergamo sind aber Zen 4 und Zen 4c, wobei wir es auch da ja noch nicht wissen.
ETI1120 schrieb:
Die Erweiterungen der Floating Point Units haben sich recht wenig auf die im Desktop üblichen Benchmarks ausgewirkt.
Naja, eigentlich sind es ja keine FP Units, sondern in den Fall Vektor Units, aber auch das habe ich bereits ausgeführt, das der Nutzen von AVX-512 überschaubar ist und selbst AVX128 zu AVX256 ist überschaubar, aber noch realistischer.
ETI1120 schrieb:
Zu wenig Software verwendet AVX-512.
Weil man in Alltag quasi nur in speziellen Szenarien die 512 Bit Vektoren braucht. Vektorisierubg eines Algorithmus ist schon schwer, auf einen der 16 Werte fasst fast schon eine Strafarbeit.

AVX512 merkst du eigentlich nur in Bildbearbeitung und Co, wenn die selbe Operatiob auf zig Pixel ausgeführt wird.
ETI1120 schrieb:
Es wurde viel Wind um AVX-512 gemacht, aber lohnt sich der Aufwand für ein paar Sonderfälle einer nicht häufig verwendeten Befehlserweiterung?
Nein, verschwendete Transistoren, was die Breite der Vektoren angeht.

Bei den Registern sieht es etwas anders aus, das hat durchaus stärkere Auswirkung, weil man hier quasi IPC für Low mitnimmt. AVX128, AVX256 mit dem AVX512 Register-Set läuft ohne weitere Anpassung, nur die Erweiterung der Register im Mittel 3 - 5 % schneller.
ETI1120 schrieb:
Ian Cutress führt die Teils erheblichen Performancesteigerungen von Zen 3 gegenüber Zen 2 bei SPEC 2017 INT auf den veränderten Cache zurück.
Es gab ja bei Zen 2 zu Zen 3 auch Änderungen am L1 und L2 Caches, den Registern, der Load/Store Infrastruktur und Co. Nur die Größe der L1 (gerade nicht sicher) und L2 blieb gleich, der Rest war ein auf Links drehen.
ETI1120 schrieb:
AMD wird bei Zen keine einseitig auf IPC-Gewinn ausgelegte Designs machen. Deshalb sind 30 % IPC unrealistisch. Aber wie gesagt Jim Keller hat ja gar nicht die IPC prognostiziert.
Und noch mal: Bitte genau lesen was ich geschrieben habe. Es gehört zu einer Diskussiob dazu, das man so viel Respekt hat nicht einzelne Passagene zu nehmen, sondern alles zu beachten. Ich schrieb nur, dass IPC Steigerungen von 30 % möglich sind, nicht das sie kommen. Meine Kernaussagen ist aber, das die 30 % 1T eben nicht unrealistisch oder albern sind, sondern das eine Kombinatiob aus ca. 20 % IPC und ca. 5 % Takt da schon reichen für
 
DevPandi schrieb:
Ich hab mich da nicht weiter mit befasst. Ich hab nur die Info gehabt, dass es ähnlich sein sollte wie damals mit Bulldozer und Zen mit den AVX-256.

Ist aehnlich und doch wieder nicht: Bei Zen1 und davor wurde ein AVX-256-Befehl in 2 128-bit Microbefehle aufgeteilt, die mit eigenen 128-bit-registern unabhaengig von den Ausfuehrungseinheiten verarbeitet wurden, es konnte die gleiche sein, oder zwei verschiedene. Bei Zen4 gibt es 512-bit-Register, ein AVX-512-Befehl wird als ein 512-bit-Macrobefehl behandelt, nur dass dann bei der Ausfuehrung die 512-bit-Operation in 2 256-Bit-Schritten (in aufeinanderfolgenden Zyklen) durchgefuehrt wird.

Das gute ist ja bei AVX-512, dass auch AVX-256 die neuen Register nutzen können. Dadurch beschleunigt ja AVX-512 auch bei AlderLake Code für AVX, ohne dass es explizit AVX-512-Code ist.

Bin mir jetzt nicht sicher, was Du meinst: Mit AVX-512 wurde der EVEX-Praefix eingefuehrt, und man kann damit auch 256-bit und 128-bit breite Verarbeitung codieren, die auch mit 32 Registern arbeiten kann. Ich bezweifle allerdings, dass Golden Cove (Alder Lake P-Kerne) mit abgeschaltetem AVX-512 die EVEX-Praefixe unterstuetzt (das muessten dann ja auch die E-Cores koennen, und ich glaube nicht, dass sie das tun). Also wohl doch nur 16 256-bit-Register.

AVX-512 ergibt allgemein für eine CPU "nicht so viel Sinn", weil man viele Probleme auf Vektoren mit 16 Werten optimieren muss. Die 4 Werte bei SSE/AVX128 sind üblich und da ist es relativ einfach. AVX256 mit 8 Werten bei INT32/FLOAT32 ist schon schwerer, aber noch realistisc. Die 16 Werte bei AVX512 bekommt man da schon schwerer voll. Es gibt dann Algorithmen, aber da merkt man den Leistungsschub eher im Server-Umfeld.

Das bringt's am ehesten, wenn man mit groesseren Bloecken an Daten arbeitet, wobei die einzelnen Teile nicht oder wenig abhaengig voneinander sind. Dann braucht man mit 512-bit-Befehlen nur halb so viele Schritte wie mit 256-bit-Befehlen, um einen Block zu verarbeiten. Und wenn man von den zusaetzlichen Registern oder der predication profitieren kann, hilft AVX-512 noch mehr. Aber das ganze braucht im Normalfall Eingriffe vom Programmierer, um das richtig gut nutzen zu koennen.
 
Dai6oro schrieb:
Mich würde allerdings interessieren, ob AMD gedenkt auf 12 Kerne in einem CCD zu gehen. Das wäre insofern interessant, da man dann einen 12/16 Kerner mit 3D Cache erwarten könnte (also alle 12 Kerne).
Dies ist erheblich komplexer als es auf den ersten Blick ausschaut.
  • Wie viele CCD und APU-Dies wird AMD je Generation entwerfen?
  • Behält AMD das CCX-Design mit dem gemeinsamen Zugriff auf den gesamten L3-Cache bei?
  • Mit welcher Topologie werden die Kerne auf dem CCD verbunden?
  • Was hat AMD mit den c-Kernen vor?
6- und 8-Kern-CPUs sind auf absehbare Zeit noch erforderlich. Wenn man die CCDs auf 12-Kerne erweitert müssen 6- und 8-Kerne über die APUs realisiert werden. Zu weit auseinander dürfen die Releases dann nicht liegen.

Unter den aktuellen Voraussetzungen halte ich ein CCD mit 8 Kernen sowohl für den Server als auch für den Client für ideal. Aber die Voraussetzungen ändern sich gerade auf der Serverseite.

Die Anzahl der CCDs lässt sich bei den Servern nicht beliebig steigern, vor allem wenn AMD den Sockel beibehalten will:
1681569426768.png

Mit einem 4. CCD in der Reihe wird das nicht klappen. Entweder muss AMD auf eine andere Anordnung der CCDs wechseln, oder mehr Kerne auf ein Chiplet packen.

Auf der anderen Seite verspricht TSMC 3 nm keinen Shrink für den Cache und nur einen moderaten Shrink für die Logik.

Wenn es bei der aktuellen CCX-Architektur bleibt erwarte ich das es bei 8 Kerne je CCX bleibt und 1 CCX je CCD. Also 8 Kerne je CCD.
 
  • Gefällt mir
Reaktionen: GT200b
u-blog schrieb:
Der auch nur das dreifache kostet und doppelt so viel Energie frisst. ^^
Eigentlich wollte ich nur beitragen, dass das Eine und das Andere völlig unabhängig voneinander sind.

Aber dann hab ich deinen Blog entdeckt 😁 gutes Zeuch, weitermachen!
 
Daß der Post von "einem AMD Mitarbeiter" über Zen 6 in 2 nm schnell verschwunden ist, wundert mich nicht. Zunächst einmal muß AMD (genauso wie Intel oder Nvidia) mit solchen Aussagen auch von individuellen aber als solche identifizierte Mitarbeitern sehr aufpassen, da sie sonst von der Börsenaufsicht und auch Aktionären Ärger kriegen. Wenn der Mensch tatsächlich bei AMD arbeitet, wird er wohl auch AMD Aktien haben, und sowas kann als versuchte Manipulation des Kurses betrachtet werden. Und dann hat TSMC selbst bis jetzt noch nicht einmal die Risiko Fertigung für 2 nm öffentlich angekündigt.
 
Capthowdy schrieb:
Ich erwarte nächstes Jahr eigentlich mehr von Intel als von AMD, aber auch nur wenn sie ihre Fertigung tatsächlich so vorantreiben, wie sie es behaupten. Eine Intel 18A CPU könnte AMD das Leben ganz schön schwer machen.
Erstmal müssen sie was mit Intel 4 ausliefern. Laut Roadmap beginnt die Fertigung ab Q2/23, wenn also Ende Jahr nix zu kaufen ist mit Intel 4 geh ich auch nicht davon aus dass 20A oder gar 18A auch nur annähernd im Zeitplan liegen.

Und 20A soll ja erst Anfang 2024 mal beginnen mit Manufacturing, 18A gar erst Mitte/Ende 24. Vor 2025 wird da also nix kaufbar sein, bis Ende 23 dürfte AMD aber schon mit 4/3nm Fertigung bei TSMC begonnen haben.

Ich glaub bevor du ein Intel Produkt mit 18A siehst wird es Intel CPUs auf Basis TSMC 3nm geben. :D


ETI1120 schrieb:
Auf der anderen Seite verspricht TSMC 3 nm keinen Shrink für den Cache und nur einen moderaten Shrink für die Logik.

Wenn es bei der aktuellen CCX-Architektur bleibt erwarte ich das es bei 8 Kerne je CCX bleibt und 1 CCX je CCD. Also 8 Kerne je CCD.
Das wäre schade. Ich hätte kein Problem mit einer moderaten 10-15% Steigerung der individuellen per-core Leistung, ich hätte aber auf eine fettere CPU für die Desktop-Plattform gehofft. Mit 2x12C Dies oder was ähnlichem zumindest.

Dann wäre die Steigerung overall für mich in diversen MT Applikationen nämlich nicht nur zaghafte 10-15% sondern direkt 60-65% on top. :daumen:

Edit: Liest sich bei TSMC besser als du es darstellst.
N3 technology will offer up to 70% logic density gain, up to 15% speed improvement at the same power and up to 30% power reduction at the same speed as compared with N5 technology. N3 technology development is on track with good progress. N3 technology will offer complete platform support for both mobile and HPC applications, which is expected to receive multiple customer product tape-outs in 2021. In addition, volume production is targeted in second half of 2022.
70% mehr Logik find ich jetzt nicht nur "moderat". :D

Mit 70 % mehr Packdichte wären 12C Chiplets tatsächlich absolut im Rahmen des Möglichen. Damit sollten 144 Cores auf denselben EPYC Sockeln möglich sein. Nur mal rein so fantasiert.
 
Zuletzt bearbeitet:
Als Laie mit ungesunden Halbwissen bin ich im allgemeinen vorsichtig was die Voraussagen auf die Zukunft angeht. Nicht alles was mir als Laien logisch und schlüssig erscheint, lässt sich auch realisieren. Oft steckt der Teufel im Detail oder die Dinge skalieren nicht so wie ich es erwarte. Oder manche für mich "offensichtliche" Verbesserungen sind gar nicht erforderlich bzw. zu teuer.

DevPandi schrieb:
Wenn - Achtung Glaskugel - AMD die 5 INT Alu bringt und den Decoder auf 5 oder 6 erweitert, könnten wir theoretisch ca. 25 % im Maximum erwarten, im Mittel vermutlich auch her 10 - 15 %. Nicht alles skaliert gleich gut.
Wie Du im ersten Post geschrieben hast, die Karte mit dem erweiterten Issue hat Intel schon gespielt. Zen 4 hält mit dem 4 wide issue eigentlich ganz gut dagegen.

Ich erwarte bei der issue width von AMD nur einen kleinen Schritt. D. h. auf ein 5 wide issue so wie Du es beschreibst.

Natürlich kann man auch über ein 8 wide issue spekulieren. Wie es Apple verwendet und es für einige RISC-V CPUs angekündigt wird. Bei einem Sprung von 4 auf 8 wide issue sollte schon ein merklicher IPC Zuwachs drin sein. Aber der IPC-Zuwachs würde wenig bringen, wenn der Kern bei einer Taktfrequenz von 3 GHz hängen bleibt. Hinzu kommt dass dieser breite Kern ordentlich Die-Fläche belegt, und damit teuer ist.

Eine der Kernaussagen von Mike Clark beim AnandTech-Interview hat sich in mein Gedächnis eingebrannt:

Ich denke, IPC bekommt den ganzen Ruhm! Ich nenne es das "Rad der Leistung", weil es vier Hauptfaktoren gibt: IPC, Frequenz, Fläche und Power. In gewisser Weise sind sie alle gleichwertig, und man muss sie ausgleichen, um ein gutes Design zu erhalten. Wenn man also eine wirklich hohe Frequenz anstrebt, aber die IPC unterdrückt, kann das zu einem wirklich schlechten Design und zu mehr Fläche führen. Wenn man sehr stark auf IPC achtet und dadurch viel Fläche und viel Strom verbraucht, kann das nach hinten losgehen. Das ist also der kritische Teil, wie wir schon sagten: Wir versuchen, diese IPC zu erreichen, aber wir müssen sie auf eine Weise erreichen, die die Transistornutzung sowohl für Fläche und Power als auch für die Frequenz optimiert.
Übersetzt mit www.DeepL.com/Translator (kostenlose Version)

DevPandi schrieb:
Klar, habe ich etwas anderes behauptet?
Nein.
Ich habe hier einen Aspekt ergänzt.
DevPandi schrieb:
Genoa und Bergamo sind aber Zen 4 und Zen 4c, wobei wir es auch da ja noch nicht wissen.
Ich erhoffe mir mehr als ein paar Anpassungen, nämlich zwei auf unterschiedliche Lasten ausgelegte Architekturen. Wenn man den Zeitraum betrachtet und da Zen 4 nur eine Optimierung der Zen 3 Architektur ist, ist es IMO wahrscheinlich, dass AMD bei Zen 4c lediglich den Cache reduziert hat und ein paar kleinere Optimierungen vornimmt. Aber wirklich konkrete Aussagen zu Zen 4c gibt es von AMD immer noch nicht.

Von Mark Papermaster gibt es ein Statement (Wells Fargo 6th Annual 2022 TMT Summit):
... wir fügen in der ersten Hälfte des Jahres einen neuen Prozessor hinzu, den wir Bergamo nennen und der mit unserem Zen 4c ausgestattet sein wird. Wir haben unser CPU-Team personell aufgestockt und eine Version von Zen 4 hinzugefügt. Es ist immer noch Zen 4. Es führt Code so aus wie Genoa, ist aber nur halb so groß.

Ganz ehrlich nicht nehme dieses "halb so groß" nicht sonderlich ernst. Es passt nicht so recht zu den anderen Informationen zu Zen 4c (L2-Cache, ISA-Kompatibilät).

Bei Zen 5 und Zen 5c könnten mehr Unterschiede drin sein. Zen 5c könnte in meinen Vorstellungen z. B.
  • auf einem 4 wide issue bleiben
  • eine schlankere FPU haben, die zwar denselben Befehlsumfang hat, aber mehr Taktzyklen für die breiten Vektoren benötigt.
  • eine Cache-Hierarchie haben, die auf bessere Latenzen anstatt auf größeren Cache setzt
  • das CCX anders organisieren*), damit AMD einfach die Anzahl der Kerne skalieren kann und flexibler mit der Geometrie des CCX auf dem Die wird.
  • ...
Vielleicht liege ich auch komplett daneben und alles was es braucht ist ein Hochleistungskern den man über die Größe des L3-Caches, variiert.

*) Meiner Meinung nach hat sich AMD mit dem aktuellen 8-Core CCX-Design in ein kitzlige Lage hineinmanövriert. Die 8 Kerne haben einen gemeinsamen Zugriff auf den L3-Cache und mit 3 Infinity Links je Kern lassen sich offensichtlich diese 8 Kerne perfomant koppeln. AMD bezeichnet die Topologie zwar als Ring, aber das ist nicht die volle Wahrheit. Beim Ring werden nur 2 Links benötigt und die gemessenen Latenzen sind besser als es bei einem Ring zu erwarten ist. Also verwendet AMD auch den 3. Link lässt aber offen wie.

Das CCX zu verkleinern kostet Performance. Das CCX zu erweitern ist nicht trivial.

DevPandi schrieb:
Naja, eigentlich sind es ja keine FP Units, sondern in den Fall Vektor Units, aber auch das habe ich bereits ausgeführt, das der Nutzen von AVX-512 überschaubar ist und selbst AVX128 zu AVX256 ist überschaubar, aber noch realistischer.

Weil man in Alltag quasi nur in speziellen Szenarien die 512 Bit Vektoren braucht. Vektorisierubg eines Algorithmus ist schon schwer, auf einen der 16 Werte fasst fast schon eine Strafarbeit.
Hinzu kommt noch dass Intel AVX-512 als Differenzierungsmerkmal missbraucht hat. AVX-512 ist nicht nur eine Erweiterung für spezielle Anwendungen, AVX-512 steht nur für einen Bruchteil der aktuellen CPUs zur Verfügung. Und dann waren die Implementierungen von Intel nicht wirklich überzeugend. Es gab also nicht viele Argumente Software mit AVX-512 zu entwickeln.
DevPandi schrieb:
AVX512 merkst du eigentlich nur in Bildbearbeitung und Co, wenn die selbe Operatiob auf zig Pixel ausgeführt wird.
Und hier sind wir wieder bei den GPUs. Die sind für parallele Verarbeitung von Daten ausgelegt.

Viele Skeptiker argumentieren, dass wenn man tatsächlich einen großen Anteil an parallelisierbarer Last hat, ist es besser, diesen auf eine GPU zu verlagern.
DevPandi schrieb:
Es gab ja bei Zen 2 zu Zen 3 auch Änderungen am L1 und L2 Caches, den Registern, der Load/Store Infrastruktur und Co. Nur die Größe der L1 (gerade nicht sicher) und L2 blieb gleich, der Rest war ein auf Links drehen.
Darum geht es nicht.

Ich halte es für ausgeschlossen dass AMD bei Zen 4c ein CCX mit 16 Kernen realisiert. D. h. dass alle 16 Kerne gemeinsam auf einen 32 MByte L3-Cache zugreifen. Ich halte 2 CCX auf einem CCD für sehr viel wahrscheinlicher. Ich erwarte also, dass ein Kern auf 16 MByte L3-Cache zugreifen kann.

Es gibt in der SPEC 2017 INT-Suite auch Benchmarks, die sensibel auf die Cachekonfiguration sind. Diese werden auch auf einen halbierten L3-Cache reagieren. Also ist es unwahrscheinlich, dass Bergamo und Genoa dieselbe Performance bei SPEC 2017 INT haben.

Aber wie gesagt, es war nicht das Ziel von Jim Keller die Performance von Bergamo und Zen 5 vorherzusagen. Er wollte die Leistung der Tenstorrent-Kerne einordnen. Und da schadet es nicht wenn er Genoa und Bergamo auf mit derselben Leistung angibt.
DevPandi schrieb:
Und noch mal: Bitte genau lesen was ich geschrieben habe.
Das habe ich. Und ich stimme Dir weitgehend zu und fand deinen Beitrag gut. Das habe ich auch am Beitrag hinterlassen.

Du schreibst 30 % IPC sind hochgegriffen. Ich schreibe 30 % sind bei dem was ich von AMD für Zen 5 erwarte (alles Träumen abgeschaltet) unrealistisch. Da ist doch kein Widerspruch.

DevPandi schrieb:
Es gehört zu einer Diskussiob dazu, das man so viel Respekt hat nicht einzelne Passagene zu nehmen, sondern alles zu beachten.
Ich habe mir die Passagen herausgegriffen, wo ich etwas beizutragen hatte.

Wenn ich etwas schreibe, kann dies ein Widerspruch, eine Ergänzung oder einfach meinen Senf dazugeben sein.

Ich habe Dir einmal widersprochen (SPEC 2017 INT) und einmal darauf hingewiesen dass die 30 % von Jim Keller keine IPC sind. Der Rest meiner Anmerkungen fällt unter Ergänzungen und Senf.
 
  • Gefällt mir
Reaktionen: ThirdLife
ThirdLife schrieb:
Edit: Liest sich bei TSMC besser als du es darstellst.
Es kommt darauf an was Du von TSMC liest.
ThirdLife schrieb:
70% mehr Logik find ich jetzt nicht nur "moderat". :D
Das waren Ankündigungen. Im September 2021 kurz für dem Start der RISC Production hat TSMC folgendes vorgestellt:
pasted_image006.png


Das heißt aus einer angestrebten Steigerung der Dichte um den Faktor 1,7 wurde in Realität ein Faktor von 1,6. Hier muss man berücksichtigen, dass es von N7 auf N5 ein Faktor 1,87 war. Außerdem ist die Dichte des SRAM AFAIK um den Faktor 1,25 gestiegen, bei N3 ist es der Faktor 1,05.

Wenn Du nun anschaust wie sich mit diesen Zahlen die Die-Sizes des CCDs verändert haben verstehst Du meine Skepsis.
Zen 2 (7 nm): 74 mm²
Zen 3 (7 nm): 80,7 mm²
Zen 4 (5 nm): 72 mm²

Aber es kommt noch "schlimmer".
Das war N3. Allerdings gehen die meisten davon aus, dass N3 nur von Apple verwendet wird.
Die anderen Kunden werden wahrscheinlich N3E verwenden.
Bei N3E opfert TSMC einen Teil der Dichtesteigerung und kann damit die Anzahl der EUV-Masken reduzieren, Performance und Power verbessern. Beim SRAM reduziert sich die Dichtesteigerung auf den Faktor 1,0.

TSMC folgende Folie zu N3E vorgestellt:
(Vortrag auf der IEDM 2022, Artikel von semiwiki)
pasted_image004.png


pasted_image005.png


FinFlex ermöglicht es die Bibliotheken in einem Block zu mischen. Das heißt wenn man in einem Block N3E 2-2 verwendet, kann man einige performance-kritische Funktionen mit N3E 3-2 umsetzen.

Wenn man die Angaben zum Shrink auf die Dichte umrechnet kommt folgendes raus:
  • N3E 2-1: 0,64 x Fläche => 1,56 x Dichte
  • N3E 2-2: 0,72 x Fläche => 1,39 x Dichte
  • N3E 3-2: 0,85 x Fläche => 1,18 x Dichte

AFAIK verwendet AMD die HD Lib bei 5 nm, das sollte dem N5 2-Fin weitgehend entsprechen. Ich gehe davon aus, dass AMD hauptsächlich N3E 2-2 verwendet. Die 23 % mehr Speed bei N3E 2-2 sind schon erheblich besser als die 11 % mehr Speed bei N3.

Bei den mageren 1,18 bei N3E 3-2 sollte man berücksichtigen, dass diese Zellen eigentlich der HP-Lib von N5 entsprechen und dass der Vergleich deshalb unfair ist.


ThirdLife schrieb:
Mit 70 % mehr Packdichte wären 12C Chiplets tatsächlich absolut im Rahmen des Möglichen. Damit sollten 144 Cores auf denselben EPYC Sockeln möglich sein. Nur mal rein so fantasiert.
Selbst wenn die 70 % höhere Dichte zu treffen würden, gibt es ein Problem:
1681691793900.png

Die Kerne (grün) machen nur ein Teil des CCDs aus und auch in den Kernen nehmen SRAM-Zellen einen erheblichen Anteil der Die-Fläche ein:
pasted_image002.png

https://www.techpowerup.com/298338/...tor-counts-cache-sizes-and-latencies-detailed


AMD hat ein "wider issue" angekündigt, also ist klar dass deutlich mehr Logik verwendet wird.
Ein CCD mit 12 Kernen würde größer werden, selbst wenn AMD alle Cache-Größen beibehält.

Mit 12 Kernen die gemeinsam auf den L3-Cache zugreifen, wird die Cachelogik aufwändiger und AMD muss dafür sorgen, dass die Verbindung zwischen den Kernen performant bleibt. Dieses Problem muss AMD früher oder später lösen, aber löst es AMD schon beim Zen 5?

Aber der eigentliche Grund warum ich bei 12 Kernen je CCD skeptisch bin, sind die Clients. Hier werden auch nach wie vor 6 und 8 Kerne erforderlich sein. Dies aus einen 12 Kern CCD zu bedienen ist teuer.

Wenn die APUs auf einem 8-Kern CCX bleiben könnte AMD die 6 und 8 Kerne darüber bedienen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
MalWiederIch schrieb:
Ryzen 1000 war dann zwar günstig, aber hatte deutlich (!) weniger Leistung in Spielen (dem Haupt-Werbeargument beider Hersteller bis heute für Desktop-Prozessoren) als selbst ein 7700K, wobei der 8700K bereits vor Ryzen 1000 auf dem Markt war und selbst mit 25% weniger Kernen mehr Leistung in Multicore-Anwendungen bot.

Nah ran an Intel kam man ja erst mit Ryzen 3000, mit Ryzen 5000 war man dann mehr oder weniger gleichauf. Mit Ryzen 7000 war man wieder 5% hinten, mit Ryzen 7000X3D ist man nun 5% schneller …

In Multicore-Anwendungen hatte AMD seit Ryzen 3000 die Nase vorne im Desktop, allerdings wissen wir alle wie hoch die Verkaufszahlen von Prozessoren mit über 8 Kernen damals waren und immer noch sind - Nische und garantiert nicht verantwortlich für die Masse der Verkäufe :rolleyes:
Ab Ryzen 3000, sprich wo AMD bei der Leistung je Kern halbwegs aufgeholt hatte, waren die Sprünge dort natürlich genauso überschaubar wie bei Intel in derselben Zeit - Überraschung, ansonsten wären sie Intel doch davon gezogen und wären nun nicht nur 5% schneller :rolleyes:
Naja sooo deutlich weniger Leistung hatte der Ryzen 1000er nicht.
Ja die IPC war 2-4% geringer als Kaby und Coffee Lake und dagegen hat man in Games vor allem
wegen dem Takt und den mässigen Ramcontr verloren.

Aber im Multicore-Anwendungen haben die Ryzen 1000er den 8700K total, komplett zerstört.
Da musstest schon die HEDT Intels her nehmen, die so knapp mithalten konnten, für den doppelten Preis.

Der 2000er war nur ein kleiner Refresh mit ein paar Fehlerbehebungen, mit minimal mehr Takt.
Die IPC konnte man aber bereits hinetwa auf das Niveau der Intels erhöhen.

Die 3000er zogen dann bei der IPC weit an Intel vorbei, aber leider gabs nicht arg viel mehr Takt.

Die 5000er hatten dann nochmals mehr IPC und auch mehr Takt und waren deshalb so stark.

Dazwischen hat Intel mit den 11000ern und vor allem 12000ern den IPC und Takt aber massiv erhöht.
Leider auch den Verbrauch.

Deswegen sind die 7000er Ryzen trotz mehr IPC als die 5000er und deutlich mehr Takt trotzdem noch minimal langsamer in Games. Aber nicht bei Anwendungen.

Die 70003D sind wiederum klasse, deutlich mehr Gameleistung als die normalen 7000er Ryzen mit viel weniger Verbrauch. Es ist unwesentlich wieviel schneller die 70003D im Vergleich zu den 13000er Intels sind, da sie trotzdem die Hälfte bis ein Drittel der Energie der Intels dafür brauchen. Das sind Galaxien an Unterschied! Das ist nicht nur vernichtet, das ist geradezu gedemütigt.


Wie du siehst hat seit den Ryzen das Tempo der Weiterentwicklung bei den Prozessoren ein sehr hohes Niveau erreicht, so das Intel und AMD die IPC und den Takt wie auch die Anzahl der Kerne deutlich anheben musste. Eben so wie früher. Die Leistung wurde also in wenigen Jahren stark erhöht.
IPC Steigerungen von 40-60% in 4-6 Jahren gab es seit dem Ende der 90er nicht mehr.
Egal ob ich einen Proz mit 12-24 Kernen unbedingt brauche, ich kann ihn für 350-600€ bekommen.
Was sehr schön ist.

Daher sag brav danke zu AMD und kauf ihnen öfter mal was ab!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXDariusXx und ArrakisSand
modena.ch schrieb:
Naja sooo deutlich weniger Leistung hatte der Ryzen 1000er nicht.
Ja die IPC war 2-4% geringer als Kaby und Coffee Lake und dagegen hat man in Games vor allem
wegen dem Takt und den mässigen Ramcontr verloren.

Aber im Multicore-Anwendungen haben die Ryzen 1000er den 8700K total, komplett zerstört.
Da musstest schon die HEDT Intels her nehmen, die so knapp mithalten konnten, für den doppelten Preis.
Das hast du mal völlig falsch in Erinnerung, der 1800X lag in Anwendungen stolze 4% vorne bei 25% mehr Kernen zum 8700K - nix HEDT :rolleyes:
2E875E97-96F5-4B06-A455-9CC84B5B54AB.jpeg

Das einzige was Leute zu AMD damals (!) getrieben hat war der Preis (mich eingeschlossen). In Spielen lag man 20% hinten.

Der Rest ist ja nur eine Wiederholung meiner Aufzählung - nur dass Kunden die IPC wenig interessiert, sondern das Preis-/Leistungsverhältnis oder in Ausnahmefällen auch nur die maximale Leistung (im Desktop interessiert die Masse hauptsächlich die Leistung in Spielen, deshalb werden die CPUs auch hauptsächlich als „Gaming-Prozessoren“ beworben.

Und hier war Intel bei Ryzen 1000-3000 vorne, man hat weiterhin zu Ryzen rein aufgrund des günstigen Preises gegriffen . Habe selbst viele günstige Ryzen 3600 PCs zusammengestellt - aber garantiert nicht aufgrund der nicht vorhanden Mehrleistung zum viel älteren 8700K :rolleyes:

Der Stromverbrauch auf der anderen Seite ist für die meisten völlig irrelevant, die simple Mathematik beherrschen.

Die „gigantischen“ 69 Watt Unterschied eines 7950X3D zu einem 13900K(S) resultieren in knapp 2 Cent die Stunde im CPU Limit (selten). Vom Rest der Welt mit deutlich (!!!) niedrigeren Stromkosten als in Deutschland wollen wir ja erst garnicht anfangen :lol:

Aber selbst wenn man sich rund um die Uhr im CPU Limit befindet, muss man für die 200€ Differenz zwischen 13900K (599€) und 7950X3D (799€) Richtung 10.000 Stunden Last haben um zu sagen „ich spare Geld mit meinem 7000X3D“ - anders gesagt: was ein Scheinargument :lol: Selbst wenn du jeden Tag 8 Stunden Last hast kommst du im Jahr auf keine 3.000 Stunden :rolleyes:

Aber keine Sorge, viele meinen das Argument „Stromkosten/Stromverbrauch“ wäre sinnvoll wenn man nicht nachrechnet, da bist du nicht alleine …

Und das alles (25% Preisaufschlag) für 5% mehr Leistung in Spielen und weniger Leistung in Anwendungen? Um 2 Cent die Stunde zu „sparen“ wenn man denn mal die 10.000 Stunden erreicht?

Wenn auch der 7950X3D Intel in der Leistung in Spielen knapp schlägt - nicht für den saftigen Aufpreis bei 5% Mehrleistung :rolleyes: Wenn es rein um Spiele geht, dann lieber einen 5800X3D - der 7800X3D ist für 500€ als reiner 8-Kerner und 50% weniger Leistung in Anwendungen als der günstigere 13700K ja leider auch überhaupt keine Empfehlung wert …
Bei einem vernünftig bepreistem 7950X3D (und X670E :rolleyes:) hätte ich evtl.auch zugeschlagen. So hat nun die Vernunft gesiegt und es wurde nach dem Ryzen wieder ein Intel (13700K) …

„Du siehst“, du hast hauptsächlich zusammengefasst, dass AMD hohe IPC Steigerungen benötigte um bei der Leistung aufzuschließen - den hauptsächlichen Grund warum Kunden zu AMD griffen, der nun auch zu deutlich kleineren Absatzmengen bei Ryzen 7000(X3D) führt, hast du vergessen - das Preis-/Leistungsverhältnis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
Der 8700K kam erst ein halbes Jahr später.
Zum Erscheinen des 1800X waren nur die die Intel HEDT die Konkurrenz.
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/3/#abschnitt_anwendungen_windows

Und die 10-13% Nachteil in Spielen waren halt nicht besonders relevant zu dem Zeitpunkt.
Man bekam nunmal 8K/16T für 500€.

Und zur Zeit der Ryzen 3000, wer hat da nen Intel gekauft? Ich kenne niemanden....


Als Gameprozessor würde ich immer den 7800X3D nehmen, da ist der 7950X3D ja nicht soo viel Sinn.
Da müsste man schon noch massig Anwendungen nebenbei fahren.

Und auch wenn die Stromkosten nicht hoch sind, die Unterschiede alleine am Proz sind gewaltig.
Da würd ich nicht die Intels nehmen.
Vom zusätzlichen Kühlaufwand gar nicht gesprochen.
 
  • Gefällt mir
Reaktionen: ArrakisSand und Wanderwisser
mae schrieb:
Mit AVX-512 wurde der EVEX-Praefix eingefuehrt, und man kann damit auch 256-bit und 128-bit breite Verarbeitung codieren, die auch mit 32 Registern arbeiten kann. Ich bezweifle allerdings, dass Golden Cove (Alder Lake P-Kerne) mit abgeschaltetem AVX-512 die EVEX-Praefixe unterstuetzt (das muessten dann ja auch die E-Cores koennen, und ich glaube nicht, dass sie das tun). Also wohl doch nur 16 256-bit-Register.
Ich hab mich da etwas unsauber ausgedrückt.

Bei den ersten "AlderLake" konnte man damals ja AVX512 au den Mainboards aktivieren, wenn man die e-Kerne deaktivierte und dann war selbst normaler AVX-Code eben schneller. Das liegt eben daran, dass statt den "16" Registern entsprechend nun "32" genutzt wurden, sofern der Code das auch versteht. Daher wurde ja auch damals angeben, dass selbst AVX128 und AVX256-Code davon profitiert.
mae schrieb:
Aber das ganze braucht im Normalfall Eingriffe vom Programmierer, um das richtig gut nutzen zu koennen.
Das ist halt das Problem, die AVX-512-Einheit bekommst du nur ausgelastet, wenn du entweder genug Daten hast, die parallel verarbeitet werden können oder man den Algorithmus entsprechend parallelisieren kann, weil genug unabhängige aber gleichwertige Operatoren vorhanden sind.
ETI1120 schrieb:
Und hier sind wir wieder bei den GPUs. Die sind für parallele Verarbeitung von Daten ausgelegt.
Das ist genau der Punkt, was der CPU mit AVX-512 möglich wird, kann die GPU bereits und in der Regel effizienter, weil man hier sehr viel mehr Werte in einem Rutsch verarbeiten kann.
ETI1120 schrieb:
Viele Skeptiker argumentieren, dass wenn man tatsächlich einen großen Anteil an parallelisierbarer Last hat, ist es besser, diesen auf eine GPU zu verlagern.
Frage ist an der Stelle eher, welcher Impact die "Verbindung" von CPU zur GPU hat. Wenn man hier über den Schwellenwert kommt, ist die Verwendung der GPU immer besser.
ETI1120 schrieb:
Darum geht es nicht.
In der Stelle schon. Du hast geschrieben, dass ein Teil der Performace bei SpecINT zwiscen Zen2 und Zen3 durch die Veränderungen am Cache kamen und da gilt eben, dass sich bei Zen 2 zu Zen 3 bei der Menge des Caches nicht viel getan hat, aber die Organistation sich selbst beim L1 bis hinab zum L3 etwas geändert hat.

ETI1120 schrieb:
Du schreibst 30 % IPC sind hochgegriffen. Ich schreibe 30 % sind bei dem was ich von AMD für Zen 5 erwarte (alles Träumen abgeschaltet) unrealistisch. Da ist doch kein Widerspruch.
Es geht mir an der Stelle nicht mal wirklich um Zen 5 - ich hätte den ab diese Zeitpunkt vielleicht weglassen sollen. Primär war meine Intention eher die, dass die 30 % als ganzes für Zen 4 zu Zen 5 als 1T-Steigerung nicht "unrealistisch" sind - die primäre Aussage. Alles weitere - was die IPC angeht und Co - war sekundärer Natur und dass eben auch Steigerungen von 30 % auch bei der IPC (theoretisch) möglich sind.

ETI1120 schrieb:
einmal darauf hingewiesen dass die 30 % von Jim Keller keine IPC sind.
Und ich habe an der Stelle auch nie etwas anderes behauptet: Warum werden es 30 % sicher nicht sein? 30 % - ohne weiteren Nennungen - können durchaus realistisch für Zen 5 sein [und das selbst bei der IPC].

Ich schreibe dazu ja auch später, dass die 30 % bei 1T sich theoretisch auch erreichen lassen, wenn man um die 20 % IPC erreicht und um die 7 % Taktsteigerung.

Aber am Ende ist das eh alles Makulatur, weil hier ein "hypothetischer" Wert die Grundlage ist, kein realer und noch etwas sollte man beachten: Selbst wenn Zen 5 bei SpecINT "30%" IPC bringen würde, bedeutet das nicht, dass am Ende diese 30 % auch in anderen Szenarien durchschlagen würden. Wie oft sehen wir bei Intel, AMD und Co, wenn sie IPC-Steigerung zeigen, dass der Mittelwert sich aus Szenarien zusammen setzt die zwischen 0 % bis "x %" zusammensetzen. Intel hat zu AlderLake ja auch Folien gehabt, die im Mittel 19 % gezeigt haben, aber auch Balken mit bis zu 60 %.

Man sollte allgemein aus einem Wert eh nicht zu viel heraus lesen.
 
MalWiederIch schrieb:
Der Stromverbrauch auf der anderen Seite ist für die meisten völlig irrelevant, die simple Mathematik beherrschen.
Komisch. Als AMD mit Bulldozer abgeloost hat war das noch ein wichtiger Punkt. Jetzt wo Intel abloost ist das irrelevant ? Alle krähen doch immer nach effizienterer und gleichzeitig schnellerer Hardware. Hier kriegt man es, jetzt heisst es "is doch egal".

Dann bitte nicht flennen wenn die nächste 8900XT GPU halt 800W frisst für 30% Mehrleistung zur 7900XTX. Is ja schliesslich "völlig irrelevant". :daumen:

Es gibt einen Punkt wo das durchaus enorm relevant ist: Akkulaufzeit im Notebook-Einsatz. Da hat Intel nix gegenzusetzen wenn Zen 4 X3D im Laptop kommt. Wär jetzt einfach mal so ein Gedanke.

MalWiederIch schrieb:
Und das alles (25% Preisaufschlag) für 5% mehr Leistung in Spielen und weniger Leistung in Anwendungen? Um 2 Cent die Stunde zu „sparen“ wenn man denn mal die 10.000 Stunden erreicht?
Das kommt allerdings auch sehr stark aufs Spiel an. Factorio oder Anno-Gamer profitieren hier natürlich über die Maßen. Auch beim MSFS glaub ? Und wenn man in seinem Lieblingsgame nun 70% mehr Leistung für 25% mehr Kohle kriegt und dabei noch den halben Strom verbraucht...is das durchaus nice to have.

Es geht hier nicht immer um Absolutismus a la Team Blau oder Team Rot sind besser. Der Zweck entscheidet.
 
  • Gefällt mir
Reaktionen: ETI1120 und nazgul77
konkretor schrieb:
Im Serverbreich kaufen viele weiterhin Intel, man kennt die Tools um die Server zu konfigurieren, die Treiber etc etc. Auch Vmotion(Vsphere) klappt auch zwischen den Servern Generationen, also keine Downtime bei Virtualisierung. Da gibt es viele Gründe wieso immer noch Intel gekauft wird. Leistung ist nicht immer das Argument.
Ich habe noch keine derartige aktuelle HW eingerichtet, aber mich würde wundern wenn beim selben Hersteller die Tools ganz andere sind bei anderer x86-64 Hardware.
Das Argument der funktnionierenden vMotion auf eine neuere CPU-Generation klappt auch nur in den seltenen Fällen, dass sich die CPU Features nicht ändern. Andernfalls kann nur Enhanced vMotion Compatibility Abhilfe schaffen, aber nur für die Migration hin zu neueren Generation, wenn ich das richtig verstanden habe.
Generell gibt es natürlich die Möglichkeit ein neues Cluster mit der neuen HW aufzubauen und alle neuen VMs dort zu platzieren, und die VMs auf dem Altsystem "aussterben" zu lassen.

Bei meinem Mittelständler ist der Kaufgrund die Unwissenheit und/oder Ignoranz der Entscheidungsträger für den Kauf. Es wird einfach gekauft was man die Jahre zuvor gekauft hat, und mit "dem Marktführer" macht man per Eigenglaube nie etwas falsch. Ein Marktüberblick und eine Kosten-Nutzen-Analyse werden nicht ermittelt. Und das bei siebenstelligen Ausgaben :heul: Das gilt leider auch für Notebooks, Netzwerk-HW, und vieles weitere.
 
  • Gefällt mir
Reaktionen: ThirdLife
ThirdLife schrieb:
Komisch. Als AMD mit Bulldozer abgeloost hat war das noch ein wichtiger Punkt. Jetzt wo Intel abloost ist das irrelevant ? Alle krähen doch immer nach effizienterer und gleichzeitig schnellerer Hardware. Hier kriegt man es, jetzt heisst es "is doch egal".
Bulldozer hatte doch überhaupt keine Leistung? :confused_alt:

Während bspw. ein 13700K für weniger Geld als ein 7800X3D 50% mehr Leistung in Anwendungen bietet und in Spielen trennt die beiden keine 5%.
Inwiefern ist dein Vergleich sinnvoll? :confused_alt:
Das ausschlaggebende Problem an Bulldozer war die fehlende Leistung - den Stromverbrauch hat doch damals erst recht keinen interessiert ...

Screenshot 2023-04-19 at 02-41-13 The Bulldozer Review AMD FX-8150 Tested.png


Egal ist die Effizienz grundsätzlich nicht - nur für mich, als jemanden der sein Geld nicht verschenken will (wie vermutlich die meisten hier), ist es völlig egal ob ich nun 2 Cent bspw. beim 7950X3D (799€) pro Stunde durch die Effizienz im Vergleich zu einem 13900K (599€) sparen kann (69W laut CB Test Differenz), wenn ich dafür 200€ mehr bezahlen muss.
Das sind kurz mal 33% Aufschlag für im Schnitt 5% mehr Leistung im CPU Limit ... in Anwendungen habe ich dann sogar weniger Leistung ...
Bei den 200€ durch die 2,x Cent die Stunde komme ich dann auf Richtung 10.000 Stunden Last (!) die ich haben muss, um durch die Effizienz einen Vorteil zu haben ... das ist doch ein lachhaftes Argument :rolleyes:
Mit der Aussage "Mein PC ist effizienter als deiner" kann ich mir nichts kaufen, wenn ich unterm Strich nichts spare ...

Und die Umwelt? Der schadet der Kauf (und somit Produktion) einer neuen CPU viel mehr, als du durch die Effizienz je wieder reinholen kannst :rolleyes:
Ergänzung ()

ThirdLife schrieb:
Das kommt allerdings auch sehr stark aufs Spiel an. Factorio oder Anno-Gamer profitieren hier natürlich über die Maßen. Auch beim MSFS glaub ? Und wenn man in seinem Lieblingsgame nun 70% mehr Leistung für 25% mehr Kohle kriegt und dabei noch den halben Strom verbraucht...is das durchaus nice to have.

Es geht hier nicht immer um Absolutismus a la Team Blau oder Team Rot sind besser. Der Zweck entscheidet.
Hier hast du natürlich recht, wenn man gerade hauptsächlich eines der wenigen Spiele spielt, das deutlich vom Cache profitiert (bspw. Microsoft Flightsimulator) macht die Investition absolut Sinn - das dürfte aber nicht die Masse sein und war auch bspw. bei mir nicht der Fall.

Aber 70% sind natürlich auch "etwas" übertrieben, hier aus dem CB Test:

Screenshot 2023-04-19 at 02-56-32 AMD Ryzen 7 7800X3D im Test.png

Screenshot 2023-04-19 at 02-56-21 AMD Ryzen 7 7800X3D im Test.png


Zum Microsoft Flight Simulator habe ich auf die Schnelle nur das hier gefunden:

Screenshot 2023-04-19 at 02-59-27 Page 2 AMD Ryzen 7 7800X3D review faster than 13900K and 795...png

https://www.eurogamer.net/digitalfoundry-2023-amd-ryzen-7-7800x3d-review?page=2

7950X3D - 36% schneller
7800X3D - 29% schneller

Das ist eher einer der wenigen Ausreiser - "70%" wird es nicht geben.
Aber klar, würde ich viel Zeit im Microsoft Flight Simulator verbringen wäre es mir die 200€ absolut wert! Die Masse wird das nur nicht betreffen.
Ergänzung ()


@modena.ch darfst mich auch nächstes Mal gerne zitieren oder erwähnen wenn du mir antwortest - dann bekomme ich es auch mit ;)
modena.ch schrieb:
Der 8700K kam erst ein halbes Jahr später.
Stimmt, aber ob das halbe Jahr mehr Anwendungsleistung so relevant war ... in Spielen lag man damals ja selbst mit dem 7700K vorne.
modena.ch schrieb:
Und die 10-13% Nachteil in Spielen waren halt nicht besonders relevant zu dem Zeitpunkt.
10-13%, wo siehst du die hier im CB Test zum 8700K? Soweit lag ja bereits der 7700K vorne:

Screenshot 2023-04-19 at 03-33-19 Intel Coffee Lake im Test Core i7-8700K i5-8400 i3-8350K und...png


modena.ch schrieb:
Man bekam nunmal 8K/16T für 500€.
Und dennoch war Ryzen 1000 nicht aufgrund der Anwendungsleistung ein Segen - sondern wegen des Preises vor allem Ryzen 1600, Ryzen 1700 - hatte selbst später letztere CPU, da sich der Aufpreis zum 1800X nicht lohnte. Und natürlich war die Plattform selbst auch sehr viel günstiger als bei Intel.

modena.ch schrieb:
Und zur Zeit der Ryzen 3000, wer hat da nen Intel gekauft? Ich kenne niemanden....
Ich auch kaum welche - aber die Frage ist doch nicht wer, sonder warum? Richtig - aufgrund des Preises und lediglich kleineren Abstrichen in der Leistung in Spielen.
Für den 13700K habe ich mich nun entschieden, da ich für den 7800X3D 20% Aufpreis zahlen müsste, nur 5% mehr Leistung im CPU Limit in Spielen erhalten, aber 50% weniger Leistung für Anwendungen gehabt hätte. Preis/Leistung hat somit, wie damals für den Ryzen 1700 eben nun für den 13700K gesprochen.
Und das identische Mainboard als X670E hätte mich auch noch mehr Geld gekostet - so war direkt noch Geld für schnelleren RAM (DDR5-7200 vs CB Test DDR5-5600 (!)) übrig, welcher die Lücke in Spielen noch kleiner werden lässt.

modena.ch schrieb:
Und auch wenn die Stromkosten nicht hoch sind, die Unterschiede alleine am Proz sind gewaltig.
Welche? 5% mehr Leistung in Spielen? So viele "Unterschiede" die relevant für einen Nutzer sind gibt es nicht - entweder die Leistung in Spielen oder die Leistung in Anwendungen.
modena.ch schrieb:
Da würd ich nicht die Intels nehmen.
Vom zusätzlichen Kühlaufwand gar nicht gesprochen.
Hast du ja bisher nicht ... aber inwiefern ist der 13700K, verglichen zur Konkurrenz dem 7800X3D (die einzigen beiden Prozessoren die die "Masse" an Enthusiasten bzgl. der neuen 7000X3D Generation betreffen dürfte), schwer zu kühlen?
Ein 7950X zieht über 200W bei Last und kann selbst mit dem kleinsten AM2 Kühler noch gekühlt werden:

Screenshot 2023-04-19 at 03-21-36 Can a 15-year-old AMD cooler handle the Ryzen 9 7950X.png


Ein 13700K verbraucht nahezu identisch in Anwendungen. Die Abwärme dürfte selbstverständlich (Transistoren = nahezu 100% Energie in Abwärme) somit ebenfalls nahezu identisch sein.

Inwiefern soll das denn nun "zusätzlicher Kühlaufwand" sein? :rolleyes:

Und die meisten werden vermutlich "nur" Spielen mit den beiden Prozessoren, wie man schon im 7800X3D Thread an den Kommentaren erkennen konnte - da sind es beim 13700K noch 107W AVG laut CB Test, welchen Kühler soll das interessieren? Wo ist der "zusätzliche Kühlaufwand"? :confused_alt:
 
Zuletzt bearbeitet:
Zurück
Oben