News Server-Prozessor: AMD bohrt Genoa auf 1 MByte L2-Cache pro Kern auf

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.787
Ein Eintrag bei Geekbench offenbart weitere Details zum Zen-4-Server-Prozessor Genoa. Demnach wird der L2-Cache deutlich aufgebohrt und soll nun 1 MByte pro Kern groß sein. Die Flucht nach vorn mit größeren Caches in der ersten und zweiten Stufe suchte zuletzt auch Intel, AMD hingegen favorisierte bisher eher den L3-Cache.

Zur News: Server-Prozessor: AMD bohrt Genoa auf 1 MByte L2-Cache pro Kern auf
 
  • Gefällt mir
Reaktionen: flo.murr, Mydgard, aid0nex und 9 andere
Recht interessant zu beobachten, wie die CPU-Hersteller mit mehr Treibstoff versuchen die Schlagzahl der Rechenknechte zu erhöhen... Und eventuell lag der heilige Gral in Form von mehr Cache die ganze Zeit vor ihren Füßen. Let's see the new tests
 
  • Gefällt mir
Reaktionen: Mydgard und CableGuy82
Na super, statt besserer Kerne, statt immer mehr Kerne sind wir jetzt wieder bei immer mehr SRAM angekommen.

Wenn das die effizienteste Verwendung zusätzlicher Transistorbudgets darstellt sind wir aber sowas von geliefert.
 
checker-friend schrieb:
Und eventuell lag der heilige Gral in Form von mehr Cache die ganze Zeit vor ihren Füßen.
Nicht eventuell: Er tat es. Und das wussten sie auch. Das Problem ist nur, dass es schwierig ist, Cache in der Kapazität zu erweitern, ohne gleichzeitig auch die Latenzen zu erhöhen. Wegen dieser Crux gibt es ja überhaupt die einzelnen Cache-Levels...
 
  • Gefällt mir
Reaktionen: Smartbomb, Mydgard, Beitrag und 12 andere
CDLABSRadonP... schrieb:
Das Problem ist nur, dass es schwierig ist, Cache in der Kapazität zu erweitern, ohne gleichzeitig auch die Latenzen zu erhöhen.
Ist es nicht zusätzlich auch eine Platzfrage? Man muss ja auch die nötige Chipfläche dafür bereitstellen.
 
  • Gefällt mir
Reaktionen: Smartbomb, Beitrag, aid0nex und 8 andere
checker-friend schrieb:
Und eventuell lag der heilige Gral in Form von mehr Cache die ganze Zeit vor ihren Füßen.
Wenn ich solche Sätze lese, lese ich auch oft ein wenig "Ich hätt's besser gemacht. Was waren die blöd" heraus.

Bitte nie vergessen, dass die Designer bei Apple, AMD, Intel und Nvidia ja nicht von gestern sind. Weshalb man nur staffelweise solche Ergänzungen bringt hat sicherlich vielerlei Gründe; allein das Abwegen zwischen Chipgröße, Kosten, Verfahrenstechnik / Yield wird da viel reinspielen.
Es nützt einem Unternehmen halt nix, wenn man den Überchip produziert, der 30% schneller als die Konkurrenz ist, aber dieser dann auch extreme Ausmaße annimmt, sodass man nicht mehr über den Preis und die Stückzahl konkurrieren kann.
 
  • Gefällt mir
Reaktionen: Smartbomb, Beitrag, or2k und 16 andere
kamanu schrieb:
Ist es nicht zusätzlich auch eine Platzfrage? Man muss ja auch die nötige Chipfläche dafür bereitstellen.
Ja - aber Platz ist dank Strukturen >= 14nm heute ja kein Problem mehr... Die CPU Kerne selbst sind ja nicht mehr in der Fläche arg gewachsen - im Gegenteil...

Vielleicht macht das mehr an Lvl 2 Cache auch erst jetzt Sinn.
 
  • Gefällt mir
Reaktionen: Mydgard und kamanu
Interessant! Wenn AMD damit zu Intel (fast) aufschließt, dürfen wir auch die ungefähre Leistung der Performance Kerne erwarten.

@Novasun
Die Performance Kerne von Intel sind doch relativ groß!
 
kamanu schrieb:
Ist es nicht zusätzlich auch eine Platzfrage?
Auf jeden Fall, aber der Platz ließe sich durch mehr Budget (→ mehr Chipfläche im gleichen Fertigungsverfahren) bei CPUs auch ohne neue Fertigungsverfahren durchaus noch pushen. Insbesondere beim Chipletansatz von AMD.
Die Latenzen sind es, die dem Ganzen einen Strich durch die Rechnung machen. Mit besseren Fertigungsverfahren hingegen bekommt man stets beides geschenkt, also mehr Kapazität bei gleichen Latenzen, gleiche Kapazität und niedrigere Latenzen oder etwas mehr Kapazität, etwas niedrigere Latenzen.
 
  • Gefällt mir
Reaktionen: Mydgard und kamanu
checker-friend schrieb:
Und eventuell lag der heilige Gral in Form von mehr Cache die ganze Zeit vor ihren Füßen. Let's see the new tests

Das Cache-Spiel ist schon uralt.

Der Cache wird meistens erhöht, wenn man den Takt nicht weiter steigern kann und dennoch ein gutes Performanceplus haben will.

Sobald die Fertigung es her gibt, wird der Cache reduziert und der Takt dafür hochgeschraubt. Was die Fertigung bzw. den Ausschuss verbessert.

Das Spiel beginnt von vorne.
 
  • Gefällt mir
Reaktionen: Mydgard, aid0nex, Coeckchen und 8 andere
Innocience schrieb:
Wenn ich solche Sätze lese, lese ich auch oft ein wenig "Ich hätt's besser gemacht. Was waren die blöd" heraus.

Bitte nie vergessen, dass die Designer bei Apple, AMD, Intel und Nvidia ja nicht von gestern sind. Weshalb man nur staffelweise solche Ergänzungen bringt hat sicherlich vielerlei Gründe; allein das Abwegen zwischen Chipgröße, Kosten, Verfahrenstechnik / Yield wird da viel reinspielen.
Es nützt einem Unternehmen halt nix, wenn man den Überchip produziert, der 30% schneller als die Konkurrenz ist, aber dieser dann auch extreme Ausmaße annimmt, sodass man nicht mehr über den Preis und die Stückzahl konkurrieren kann.

War mehr eine Aussage über die Verwunderung meiner wahrgenommenen "Literaturübersicht". Seit Jahren gehen die TDP, TVP usw. nach oben...siehe die neuen Grafikkarten, bei denen 600Watt eingeplant werden.

Wenn wir von Watt sprechen, dann ist sicher die Ableitung der Hitze auch ein Problem... Hatte sich da nicht jemand Mal überlegt Heatpipes direkt in den Prozessor einzubauen? AMD wird das Ganze ja mit Headspreadern umgehen, die entsprechende Vertiefungen/Erhöhungen beinhalten
 
checker-friend schrieb:
Mal überlegt Heatpipes direkt in den Prozessor einzubauen?
AMD glaube ich hat ein Patent diesbezüglich angemeldet glaube ich.
 
Reicht AMD, stahp, Intel hat doch eh nix vergleichbares :P

Aber cool, freu mich schon auf die neuen SP5 Threadripper, oder was auch immer das wird ?!
 
Novasun schrieb:
Ja - aber Platz ist dank Strukturen >= 14nm heute ja kein Problem mehr...
Der Cache ist seit Zen2 bereits gleich groß wie die 8 Cores 😝 und bei RDN3 wird man den Cache sogar in einen eigenen Chip rausziehen (wer weiß vllt auch stapeln?)
Die neue Fertigung ermöglicht also diese Entwicklung. Dass mehr Cache in Games liefert wusste man schon zu Athlon XP zeiten.
 
Zuletzt bearbeitet:
flappes schrieb:
Der Cache wird meistens erhöht, wenn man den Takt nicht weiter steigern kann und dennoch ein gutes Performanceplus haben will.
Man kann halt nicht immer "alternativ" einfach nur den Takt erhöhen. Wenn ein Kern auf Daten warten muss, kann der Takt noch so hoch sein. Das muss Hand in Hand gehen. Moderne CPU Kerne hängen allerdings oftmals eher am Speichersystem.
 
  • Gefällt mir
Reaktionen: Mydgard, nazgul77 und andi_sco
checker-friend schrieb:
Und eventuell lag der heilige Gral in Form von mehr Cache die ganze Zeit vor ihren Füßen.
Das war immer bekannt, dass das möglich ist. Aber L1 und L2 sind sehr teuer. Durch die Konkurrenz von AMD hat Intel die Preise geviertelt und gleichzeitig die Herstellungskosten erhöhen müssen..

Bin auch sehr gespannt, ob der Kampf David gegen Goliath weitergeht. Da hats AMD nicht leicht, Intel feuert momentan aus allen Rohren. Aber wünschen tue ich es Ihnen von Herzen.
 
  • Gefällt mir
Reaktionen: andi_sco
Für die Notebook APUs wäre ja ein teildeaktivierter/-defekter L3 Cache von 16 MB, den die GPU auch nutzen kann, ja eigentlich perfekt.
Ergänzung ()

Innocience schrieb:
allein das Abwegen zwischen Chipgröße, Kosten, Verfahrenstechnik / Yield
Zumal Cache schon immer teuer war.
Ansonsten hätte intel die 64/128 MB L4 Cache ja beibehalten
 
  • Gefällt mir
Reaktionen: fox40phil
incurable schrieb:
Na super, statt besserer Kerne, statt immer mehr Kerne sind wir jetzt wieder bei immer mehr SRAM angekommen.
Dir ist wohl nicht klar, das die nächste neue Architekur bereits ansteht und dass hier ein Zwischenschritt ist um eine neue Technologie auf den Markt zu bringen ?
 
incurable schrieb:
Wenn das die effizienteste Verwendung zusätzlicher Transistorbudgets darstellt sind wir aber sowas von geliefert.
Das ist ne relativ normale Entwicklung wenn man sich anguckt wie CPUs funktionieren.
Du kannst die Leistung pro Takt nicht unbegrenzt erhöhen ohne auch die Cache Größe anzufassen, da bei mehr Leistung eben auch mehr Daten verarbeitet werden.

Das ist also absolut nichts schlechtes sondern muss eben so sein.
 
  • Gefällt mir
Reaktionen: Smartbomb, Mydgard, LamaMitHut und eine weitere Person
Zurück
Oben