News 3D V-Cache Technology: AMD stapelt L3-Cache bei Ryzen auf 192 MByte

Beitrag schrieb:
Doch, Intels Broadwell-CPUs haben schön gezeigt, dass Games idR mit "viel viel" mehr als mit einer besonders schnellen Anbindung anfangen können. Der Zugriff auf den als L4-Cache eingesetzten eDRAM war mit Sicherheit weitaus langsamer als der auf den L3-SRAM-Cache direkt im CPU-Die, aber er war eben immer noch deutlich schneller als der lange Weg zum RAM und konnte mit seinen 128 MB natürlich wesentlich mehr RAM-Zugriffe abfangen als der L3-Cache.
Nö, das stimmt nicht.

Beim Broadwell war der L3-Cache mit 175GB/s angebunden und hatte eine Latenz unter 50 Zyklen.

Der eDRAM hatte nur 50GB/s und hatte eine Latenz bis zu 150 Zyklen. Da der eDRAM aber als 4. Cache-Stufe eingeschaltet war, hatte die Cache-Geschwindigkeit nur eine begrenzte Auswirkung.

Dass ein deutlich geringerer Cache mit deutlich schnellerer Anbindung erhebliche Auswirkungen haben kann, zeigte 1998 der Intel Mendocino alias "Celeron".

Die Pentium 2 "Deschutes" hatten 512kB RAM L2-Cache - der aber nur mit halbem CPU-Takt lief und extern auf der Cartridge verlötet war.

Die 128kB L2-Cache vom Mendocino liefen mit vollem CPU-Takt und waren "on die".

Und obwohl der L2-Cache des Mendocino nur 25% des Pentium 2 betrug, bot er teilweise mehr Gamingleistung als der gleichgetaktete Pentium II.

Bspw. Celeron 333 vs. P2-333:
https://www.heise.de/ct/artikel/Next-Exit-Mendocino-286514.html
In Programmen, die besonders von schnellem Cache profitieren, hatte der P2-333 keine Chance gegen den Celeron 333.

Der eDRAM auf dem Broadwell hat ja keinen L3-Cache ersetzt, sondern eine zusätzliche Cache-Stufe geschaffen. Das war der springende Punkt. Der schnelle L3-Cache blieb ja erhalten. Deswegen konnte der Broadwell nur profitieren.

Wenn man den L3-Cache des Ryzen nicht mehr "on-die" bringt, sondern auf dem Package auslagert, quasi ein CCX als Cache-Modul, bedeutet das den Gaming-Tod der CPU. Egal ob 12MB L3-Cache oder 128MB L3-Cache. Dann gäbe es keine Chance mehr gegen Intel.
 
  • Gefällt mir
Reaktionen: ComputerJunge, konkretor, Beitrag und eine weitere Person
@Shoryuken94
Alles richtig, allerdings sind heutzutage die meisten Anwendungen, die schlecht mit Threads skalieren und trotzdem rein CPU-limitiert sind meistens ohnehin eher unkritisch, sodass man hier nicht viel verpassen sollte, wenn man länger auf einer älteren Gen bleibt. Und bei Multicore-anwendungen knabbert ein IPC-Nachteil dir ja lediglich was von deinem Vorteil durch mehr Kerne ab.
Befehlssatzwerweiterungen sind ein guter Punkt, da gerade Intel mit Alder Lake hier ja bspw. AMX einführen möchte, das für etliche mathematische Berechnungen vielversprechend ist, insbesondere im Bereich CAD und Simulation. Die Erfahrung zeigt allerdings, dass es Jahre dauert, bis Befehlssatzerweiterungen flächendeckend von Software unterstüzt werden. War bei AVX ja auch schon eine ziemliche Geburt, da sind einige CPU-Generationen ins Land gegangen, bevor es wirklich wichtig wurde.

Ich würde auf jeden Fall mal sagen, dass viele Kerne gerade heute eine weit bessere Voraussetzung für ein langlebiges System sind als etwa Highend-OC-Ram oder extreme Taktraten und Singlecore-Performance.
Vor knapp 10 Jahren war das noch ganz anders - AMDs Bulldozer und Piledriver waren Zeit ihres Lebens ein Murks, die IPC untragbar, sind dann aber doch tatsächlich nochmal besser geworden, als mit Win 10 kam, die Software weiter war und sie ihre Threads ausspielen konnten. Zu dem Zeitpunkt waren sie dann aber bereits auch veraltet.
 
  • Gefällt mir
Reaktionen: karl_laschnikow und Tanzmusikus
Danke für die Meldung. Werde dann mit dem Upgrade von meinem 3600er doch noch etwas warten. Eventuell hol ich mir dann auch erstmal den 5600x, wenn er etwas günstiger geworden ist.
 
Tepesch schrieb:
Bei sowas wie dem AMD Epyc 73F3 wären das nette 2304MB L3 Oo wer brauch da überhaupt noch RAM, bestimmte Dinge würden da echt schon ohne laufen.

Jo, bei Genoa mit 96 Kernen würde man intern + maximal extern auf 3456 MByte L3-Cache kommen. Das ist schon WTF.

Aber auch Next-Gen-APUs könnten einen riesigen Sprung machen. Von Vega auf RDNA2 plus zwei bis vier zusätzliche Cache-Slices, da geht im Gaming mal richtig hart was ab. Da sind die APUs bisher mit 16 MB ja noch stark limitiert. Es nimmt direkt den Druck, irgendwie HBM2 oder sowas auf dem Packge unterzubringen (wobei die Möglichkeit ja immer noch bestehen würde). Das Stacking wäre jetzt wohl die erste Wahl.
 
  • Gefällt mir
Reaktionen: Maggolos, Kalsarikännit, konkretor und 6 andere
Ich hoffe auf gestackten Cache insbesondere bei kommenden APUs: Hier wird der RAM als Grafikspeicher benutzt und der ist langsam. Auch bei DDR5 ist der vergleichsweise langsam (zu gddr6). Jetzt hat AMD ja in RDNA2 den Infinity-cache integriert. Das bedeutet: Die Architektur kann mit einem Cache umgehen. wenn die also ne richtig fette APU rausbringen + stacked cache, können sie sich endlich vom Flaschenhals Arbeitsspeicher unabhängig machen. Das erlaubt dann APUs mit einer Grafikleistung, die heutigen externen Grafiklösungen ebenbürtig ist
 
  • Gefällt mir
Reaktionen: karl_laschnikow, Beitrag und Tanzmusikus
latiose88 schrieb:
ssd vs hdd ebenso keinen unterschied weil ich wandle vom netzlaufwerk wo in einem raid mit maximal 130 mb schreib und lese rate herscht.
Da ich die alte Diskussion noch in Erinnerung habe, sei mir das off-Topic erlaubt: Hast du mal geprüft, ob du durch das Netzwerk limitiert bist? 130MB/s entsprechen exakt der 1Gbit/s-Leitung, und wenn du als Gegentest nicht doch einmal von einer schnellen, internen SSD konvertiert hast, sind alle anderen Tests für die Katz.
 
Nur leider bringt einem diese Mehrperformance in Spielen auf Seiten der CPU rein gar nichts, wenn man ständig im GPU Limit hängt.
Und dank absolut mieser Verfügbarkeit derzeitiger High End Karten bei gleichzeitig verlangten Mondpreisen, wird das auch noch eine ganze Weile bei vielen Spielern so bleiben.

AMD muss auch endlich mal bei den GPUs in die Puschen kommen und den Markt wirklich bedienen. Es bringt nichts, ein (weiterhin unvollständiges) GPU Portfolio auf dem Papier zu haben, wenn letztlich kaum reale Produkte bei den Spielern ankommen.
Gleichzeitig auf CPU Seite die Gaming Performance deutlich zu erhöhen, ist schon fast Verhöhnung.
 
  • Gefällt mir
Reaktionen: MacGregor
Neodar schrieb:
Gleichzeitig auf CPU Seite die Gaming Performance deutlich zu erhöhen, ist schon fast Verhöhnung.
Warum sollte man den Fortschritt im CPU Bereich bremsen, nur weil die GPUs nicht lieferbar sind?

Es gibt viele Spiele, die sogar in 4K CPU limitiert sind...AMD hat zeitgleich ihre DLSS Alternative vorgestellt, die sogar auf Nvidia GPUs laufen soll.....die GTX 1660 ist ja eine der meistverbreitetsten Grafikkarten, und mit FSR bringt sie die FPS ordentlich hoch.
Ob man das optisch ansprechend findet, wird sich noch zeigen, aber die Möglichkeit klingt vielversprechend.

Und es gibt ja nicht nur Gaming....code compiler profitieren auch oft sehr stark von mehr Cache.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, Maggolos und Pisaro
fortunes schrieb:
Der eDRAM auf dem Broadwell hat ja keinen L3-Cache ersetzt, sondern eine zusätzliche Cache-Stufe geschaffen. Das war der springende Punkt. Der schnelle L3-Cache blieb ja erhalten. Deswegen konnte der Broadwell nur profitieren.
Da hast du natürlich recht. Die zusätzliche - und entsprechend deutlich größere - Cache-Stufe war auch das, woran ich bei deinem "viel viel" dachte.
Interessantes Beispiel, was du hier anführst, allerdings ist das noch aus dem Jahr, in dem ich das erste mal in eine Windel gestuhlt habe. ;)
Für die jeweiligen Sweet spots für heutige Soft- und Hardware dürfte die Aussagekraft begrenzt sein, aber du hast natürlich recht, dass langsamer Cache immer schlecht für Games ist. Das hat Intel ja bspw. mit der Mesh-struktur bei Skylake-X gezeigt, welche die Latenzen zum L3-Cache gegenüber dem Ringbus der Desktop-CPUs erhöhte.
Die interessanten Fragen wären dann sowas wie: Wie viel mehr L3-Cache hätte Skylake-X haben müssen, um den Nachteil bei den Latenzen auszugleichen? Oder wie viel mehr L2-Cache bräuchte CPU X, um y % höhere Latenzen beim L3-Cache auszugleichen? Aber eine quantitative Antwort auf Fragestellungen zu so 'nem komplexen System könnten höchstens die Hersteller selbst liefern.
 
Dittsche schrieb:
Die Intel-Stillstandszeiten sind vorbei. Bei AMD wird hart geklotzt. Deshalb irritieren mich Aussagen beider Lager wie "der hält erstmal für 5 Jahre" wiederholt.


Die Leistung pro Kern wird so lange garantiert reichen. Da wird doch in den nächsten 3-4 Jahren auch nicht sooo unglaublich viel passieren. Zen4 kommt ja auch erst gegen Ende 2022, und dann? Wahrscheinlich noch Zen5. Das wars dann auch. Beides wäre mit einem neuen Mainboard und neuem teurem RAM verbunden. Für am Ende vielleicht 50% mehr Leistung statt der 15% durch den Cache hier? Und zu welchem Preis, verglichen mit einem gebrauchten 5950-Refresh und der Weiternutzung der vorhandenen Teile?
Das Problem wird eher sein, dass 6 Kerne irgendwann zu knapp werden. Und da ist die günstige Aufrüstoption, die in Spielen durch den Cache angeblich direkt +~15% bietet und zusätzlich mindestens doppelt so viele Kerne mMn unglaublich verlockend.
 
  • Gefällt mir
Reaktionen: JJJT
Baal Netbeck schrieb:
Warum sollte man den Fortschritt im CPU Bereich bremsen, nur weil die GPUs nicht lieferbar sind?

Ich hab nicht gesagt, dass AMD irgendeine Entwicklung bremsen soll.

Dennoch ist e reichlich lächerlich sich hinzustellen und eine bessere Gaming Performance bei CPUs zu propagieren, während man es nicht gebacken bekommt, wenigstens auch die dafür passenden GPUs in solchen Stückzahlen zu produzieren, dass die Masse welche zu fairen Preisen kaufen kann.

Man braucht schlicht nicht mehr CPU Leistung, wenn es auf Seiten der GPU nicht passt.
Wem also will AMD diese CPUs mit diesem Gaming Marketings denn verkaufen, wenn die Gamer viel eher nach GPUs rufen?

Dass auch andere Anwendungen von mehr Cache profitieren ist hier erstmal wurst, weil AMD nunmal explizit die Mehrleistung im Gaming herausstellt.
 
Neodar schrieb:
Man braucht schlicht nicht mehr CPU Leistung, wenn es auf Seiten der GPU nicht passt.
Das kann man ja gar nicht allgemeingültig sagen.

Dann spiel mal ein Planet Zoo, bei 15FPS im CPU Limit...da reicht auch eine alte Grafikkarte völlig aus.

Auch sonst bin ich in 1440p in vielen Spielen CPU limitiert...mit einer nicht mehr taufrischen Vega64...und auch mit einer Radeon VII.

Es gibt doch viele Spieler mit Grafikkarten aus den letzten paar Jahren.
Und viele spielen auch noch in FullHD.

Nur weil du mit deiner Grafikkarte...deinen Spielen...und deinen Einstellungen, GPU limitiert bist, muss das nicht für alle gelten.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, Piep00, Maggolos und 5 andere
Neodar schrieb:
Wem also will AMD diese CPUs mit diesem Gaming Marketings denn verkaufen, wenn die Gamer viel eher nach GPUs rufen?
Es soll wohl Gamer geben, die CPU und GPU nicht immer gleichzeitig wechseln. Angeblich gibt es auch Gamer, die zwar AMD-CPUs kaufen, aber Nvidia-Grafikkarten nutzen und solche, die irgendwelche schlecht optimierten Spiele oder mit hohen FPS und niedrigen Grafikpresets zocken und dann immer im CPU-Limit hängen. Manche Gamer schlagen wohl sogar eiskalt zu den nicht so fairen Preisen zu und wollen einfach nur das Beste.

Nebenbei bemerkt: Eigentlich ist es ja schon echt schwach von Intel, dass sie ihre CPUs mit Gaming bewerben, wenn sie doch nur so lasche iGPUs haben, die dafür gar nicht taugen. Wenn sie damit werben, sollte deren CPU-Leistung doch bitte jener der iGPU gleichkommen, sonst ist deren Marketing reichlich lächerlich.
 
  • Gefällt mir
Reaktionen: TheCrazyIvan und Colindo
Neodar schrieb:
Dennoch ist e reichlich lächerlich sich hinzustellen und eine bessere Gaming Performance bei CPUs zu propagieren, während man es nicht gebacken bekommt, wenigstens auch die dafür passenden GPUs in solchen Stückzahlen zu produzieren, dass die Masse welche zu fairen Preisen kaufen kann.
Gibst du jetzt tatsächlich AMD die Schuld, dass es nicht genug Grafikkarten auf dem Markt gibt, weil sie von den Minern aufgekauft werden?
Wie vile Schuld hat dann in deinen Augen nVidia mit einem Marktanteil von über 80% der Grafikkarten?
Ist AMD auch an der Chipknappheit schuld, so dass die Automobile hersteller weniger Autos produzieren?
Sind die auch schuld, dass INTEL die Fertigung nicht hinbekommt und es die 11te Generation kaum zu kaufen gibt?
Sind sie an den Preisen bei ebay für Grakas schuld?

Manchmal denke ich, ich bin echt im falschen Film oder so.
Leute suchen nach Schuldigen für ihre eigene Unfähigkeit oder für irgendwas, was sie nicht wahr haben wollen.
Packt euch an die eigene Nase!

Betrifft nicht nur dich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheCrazyIvan und Wintermute
Beitrag schrieb:
Die interessanten Fragen wären dann sowas wie: Wie viel mehr L3-Cache hätte Skylake-X haben müssen, um den Nachteil bei den Latenzen auszugleichen? Oder wie viel mehr L2-Cache bräuchte CPU X, um y % höhere Latenzen beim L3-Cache auszugleichen? Aber eine quantitative Antwort auf Fragestellungen zu so 'nem komplexen System könnten höchstens die Hersteller selbst liefern.
Ich vermute (!), dass der Skylake-X beim L3-Cache keine Chance bei der Größe gehabt hätte. Der 10900X hatte 19MB L3-Cache, der 10980XE hatte 25MB L3-Cache. Trotzdem kam am Ende das gleiche Ergebnis im Gaming rum.

Wenn man die beiden Skylake-X auf den gleichen Takt wie den 9900K brachte, konnten die noch recht gut mithalten. Aber der Verbrauch und die Abwärme waren dann jenseits von Gut und Böse.


Man musste bei langsamerem Cache schon immer auf's MHz-Gaspedal treten, um die Nachteile des Cache auszugleichen.
 
Volker schrieb:
Jo, bei Genoa mit 96 Kernen würde man intern + maximal extern auf 3456 MByte L3-Cache kommen. Das ist schon WTF.

Aber auch Next-Gen-APUs könnten einen riesigen Sprung machen. Von Vega auf RDNA2 plus zwei bis vier zusätzliche Cache-Slices, da geht im Gaming mal richtig hart was ab.
Krass. Also für mich schon unerwartet dass sowas sobald kommt. Die meisten erinnern sich bestimmt.

1622552884299.png


anno 2016
 
  • Gefällt mir
Reaktionen: konkretor
S.Kara schrieb:
Mein erster "Gaming-Rechner" hatte glaube ich gerade einmal 128 GB MB RAM. Wie die Zeit vergeht.

Du Jungspund. ;) Wenn es so weitergeht, muss ich bald damit klarkommen, dass selbst die CPU-Caches größer sind als die Festplatte in meinem ersten PC.
 
  • Gefällt mir
Reaktionen: Wintermute, LinuxTux, TheCrazyIvan und 4 andere
Beitrag schrieb:
SRAM ist sehr sparsam. Die Rechenwerke machen das mit der Abwärme unter sich aus.
Wenn ich das richtig sehe liegt das Cache Die ja auch nur auf dem Bereich auf, unter dem der Cache des CCDs ist und über dem logik Part wird als Spacer "structural silicon" verbaut. Möglich, dass das ja auf Wärmeleitfähigkeit getrimmt ist.

Ich hab mir auch gerade mal die Intel Keynote reingezogen. Also so richtig viel hatten die aber nicht zu erzählen. Ein paar TigerLake Benchmarks mit 6 parallelen 4K AV1 streams die dann auf Cezanne natürlich übel aussahen. Zu Alderlake, immerhin der Hoffnungsträger für Ende des Jahres haben sie satte 38 Sekunden was gesagt und inhaltlich absolut garnichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheCrazyIvan, jemandanders, karl_laschnikow und 2 andere
Neodar schrieb:
Man braucht schlicht nicht mehr CPU Leistung, wenn es auf Seiten der GPU nicht passt.
Wem also will AMD diese CPUs mit diesem Gaming Marketings denn verkaufen, wenn die Gamer viel eher nach GPUs rufen?
CPU Limits sind immer wieder erreichbar.
 

Anhänge

  • RimWorldWin64_2021_04_05_11_56_51_494.jpg
    RimWorldWin64_2021_04_05_11_56_51_494.jpg
    6,4 MB · Aufrufe: 300
  • Fallout4_2021_05_20_20_56_39_004.jpg
    Fallout4_2021_05_20_20_56_39_004.jpg
    4,5 MB · Aufrufe: 297
  • Gefällt mir
Reaktionen: Pisaro und Baal Netbeck
Zurück
Oben