News 3D V-Cache Technology: AMD stapelt L3-Cache bei Ryzen auf 192 MByte

Hmmm... Könnte der entscheidende Vorteil von Zweilagigen 3D Prozessoren der sein, dass sich mehr oder weniger doppelt so viele Teile in der Nähe vom L1/L2 Cache befinden, welcher dann auch noch doppelt so groß ist?
 
  • Gefällt mir
Reaktionen: Colindo
latiose88 schrieb:
Ja ich weis das der l3 Cache bri spielen ist. Bei anwendung geht es aber um den l1 cache. Ich wusste nicht das es so aufwendig ist.

Alter... Du wirfst ständig mit Begriffen um dich bei denen man einfach merkt dass du sie null verstanden hast und wenn man dich darauf hinweist, wirfst du mit noch mehr Begriffen um dich die du noch weniger verstehst. Deine Beiträge hier sind immer mega lang, aber komplett ahnungslos. Dir fehlen einfach die absoluten Grundlagen. Ich bin ja auch kein Experte und kenne mich nur in manchen Gebieten einigermaßen oberflächlich aus, aber bei dir ist es halt völlig ahnungsloses Geschwafel und wildes Bullshitbingo. Unfassbar 😅
Ergänzung ()

LamaMitHut schrieb:
Könnte der entscheidende Vorteil von Zweilagigen 3D Prozessoren der sein, dass sich mehr oder weniger doppelt so viele Teile in der Nähe vom L1/L2 Cache befinden, welcher dann auch noch doppelt so groß ist?

Nein. Mit dem l1 hat das stacking gar gar gar nichts zu tun. Nichts. Null. Nada.
 
  • Gefällt mir
Reaktionen: Smartbomb, Taxxor und LamaMitHut
TomH22 schrieb:
Die IPC Steigerungen die Intel und AMD in ihren Marketing Slides angeben ( xx% higher IPC than competition ) sind reiner Marketing Fluff.
Wenn Hersteller Benchmark-Ergebnisse ihrer Produkte angeben, hat dies immer mit Werbung zu tun.
Die Frage ist, ob der Hersteller bei den Benchmarks cherry piking betrieben hat oder für die Masse der Anwender eine realistische Auswahl getroffen hat.
TomH22 schrieb:
Das hat noch nicht mal ansatzweise was mit IPC zu tun. Man vergleicht eigentlich die Leistung des Gesamtsystems für bestimmte Workloads. Das ist auch ok und durchaus nützlich, aber hat mit IPC nun gar nichts zu tun.
Absolute IPC-Werte sind nun Mal eine rein theoretische Größe. Es gibt keine Zahl die die Performance eines Systems für alle Anwender realistisch und aussagekräftig beschreiben kann. Es hängt immer von den Programmen ab, die ausgeführt werden. ...

In den guten alten Zeiten der skalaren CPUs wurde um die MIPS (Million Instruction Per Second) zu berechnen oft die Taktfrequenz der CPU mit der Anzahl der Rechenwerke multipliziert. Aber auch damals wurde nicht in jedem Takt eine Rechenoperation abgeschlossen. Deshalb waren diese MIPS eine rein theoretische Zahl die zur Interpretation "Meanless Indicator for Pushing Sales" führte.

Das was zählt ist wie schnell eine CPU für die eigenen Anwendungsfälle ist. Deshalb verwenden die meisten Tester reale Programme. Und natürlich beeinflusst die Auswahl der Programme das Ergebnis.
TomH22 schrieb:
Unter CPU Architekten wird DMIPS/Mhz oder Coremark/Mhz immer noch gerne verwendet. Steht auch in den offiziellen Datenblättern von ARM.
Dhrystone (das D in DMIPS) war einmal eine heiße Nummer. Es gibt auch genügend Geschichten darüber wie Compiler für diesen Benchmark "optimiert" wurden. Denn damals wurde auch die Compiler mit diesem Benchmark getestet.

Fachleute können, wenn sie diesen antiken synthetischen Benchmark auf eine CPU loslassen, einiges über das interne Verhalten der CPU herauslesen. Aber Dhrystone und auch Whetstone taugen eben nichts für die Anwender.
TomH22 schrieb:
Wenn man die IPC der Pipeline messen möchte, sind Benchmarks die komplett in den L1 Caches ablaufen, durchaus nützlich.
Das ist aber nur für die Fachleute interessant, die nach dem Flaschenhals einer Architektur suchen oder vergleichen wollen was der Performance-Unterschied von zwei CPUs verursacht.
Die Anwender interessiert es nicht, dass der L1 Cache schnell genug angebunden ist, wenn die Architektur nicht schnell genug Daten in den L1 Cache schaufeln kann.
TomH22 schrieb:
Leider ist speziell DMIPS so extrem vom Compiler und der C Runtime abhängig, das er enorme Ungenauigkeiten aufweist.
Ausserdem berücksichtigt er nur Integerleistung, kein FP, kein SIMD. Am Ende ist es auch wieder eine Marketing Zahl…
Deshalb ist Dyrstone für die Bewertung realer Systeme uninteressant. Und eine CPU die Anwender verwenden, steckt immer in einem System.
Falls es interessiert eine Zeitreise (hab's eben in google gefunden und überflogen):
http://users.ece.utexas.edu/~ljohn/teaching/382m-15/reading/weicker.pdf
TomH22 schrieb:
Für PC nicht, aber für die CPUs schon. Intel und AMD veröffentlichten schon Specmark Werte, im HPC Bereich sind die auch wichtig.
Deshalb habe ich PC geschrieben.
Specmark ist nun mal auf Server und Workstations ausgerichtet. Als ich vor ein paar Monaten Mal wieder vorbeigeschaut habe, war ich überrascht wie viele Benchmarks Spec anbietet. Ich hatte immer nur Spec Int und Spec Float gelesen.
TomH22 schrieb:
Benchmarks sind immer abhängig von der Zielgruppe, es gibt auch spezielle Benchmarks für Datenbanken, Webserver oder auch SAP Systeme.
Man kann von der Performance in einem Anwendungsgebiet nicht auf die Performance in anderen Anwendungsgebieten schließen. Man muss testen, ob ein System für die eigene Anwendung wirklich optimal ist. Dafür braucht man entsprechende Benchmarks.
 
  • Gefällt mir
Reaktionen: JohnVescoya
@JohnVescoy ja ich habe ja nie behauptet das ich es wüsste. Würde ich es wissen, dann würde ich ja nicht fragen oder? Und ich weis auch das ich diese infos hier gelsen hatte. Ich weis auch nicht ob es stimmt oder nicht mit dem l1 cache für Anwendung und l3 für games. Man wird ja noch fragen dürfen oder ist das nicht gestattet. Ich will ja mehr wissen.
Das einzige was ich weis das meine Anwendung integer lästig ist also durch ausprobieren. Ich habe mich auch nicht eingelsen. Manches ist also nen halbwissen,was nie gut ist, wie man ja bei mir sehr gut merkt.
 
Baal Netbeck schrieb:
Klar...bei mir war es auf die AMD CPUs bezogen und hier wird ja ganz klar etwas dazu gepackt....in der Ebene bleiben die Abmessungen gleich und die Höhe kommt noch dazu.

Ich sehe nicht, wie sich da die Nähe zu den Recheneinheiten verkürzen kann.

Aber allgemein betrachtet...ja da stimme ich zu.
In konkretem fall: Eher schwierig, praktisch gesehen aber nur eine Frage der genauen Platzierung der Dice und der TSVS.
Allgemein: Nach oben kann halt kürzer sein als noch weiter auf der selben Ebene auseinander.
Ergänzung ()

SV3N schrieb:
Also die Aussage von AMD, ein „High-End-Ryzen“ auf Zen-3-Basis, spricht doch eher für die nächste Generation Ryzen Threadripper als für ein gewöhnliches Ryzen 5000 Refresh.

Ich kann mir beim besten Willen nicht vorstellen dass AMD das tote Pferd AM4 nochmal mit einer solchen Innovation reiten wird.

Ich tippe auch Threadripper oder gar Threadripper Pro. Für mich wäre Chagall der passende Abnehmer.

https://www.computerbase.de/news/ap...-erkennt-amd-threadripper-5000-chagall.76103/
Warum eigentlich nicht?
AM4 + sTRX40 mit ihrer Beschränkung auf DDR4-3200 sind doch viel prädestinierter als wenn schon DDR4-4800 genutzt werden kann. Der Cache bedient nicht zuletzt einen (evtl. vorhandenen) Durchsatzflaschenhals.
Ergänzung ()

latiose88 schrieb:
Es gibt ein integer monster mit 1000 kernen, aber selbst das hat halt weil zu einfach gehalten ebenso den punkt das es zu wenig rohleistung hat.
[viel Wirrwarr]
ist das etwa so korrekt oder falsch?
Komplett falsch. Alles. Zumindest das was man lesen kann. Den ersten Satz konnte ich nicht mal verstehen.
IPC hast du außerdem immer noch nicht verstanden aber bestimmt hat AMD die letzten Generationen für die IPC heimlich von 7 nm auf 7 nm auf 7nm geschrumpft. Oder so.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb
@SV3N @Ned Flanders AnandTech.
 
flappes schrieb:
Die Preise für den 6 Kerner müssen fallen, aktuell hat intel bis 300 Euro einfach die besseren Angebote.
Das ist für AMD irrelevant solange AMD alle CPUs zu höheren Preisen verkaufen kann.

Erst wenn AMD über größere Kapazitäten verfügt oder Intel leistungsmäßig Druck macht wird AMD billigere CPUs anbieten.
SsX1337 schrieb:
AMD mausert sich zum absoluten Top-Unternehmen, wischt mit Intel und halb mit Nvidia den Boden... wenn die halt noch so billig wären wie vor ein paar Jahren. So oder so hervorragende Neuigkeiten.
Vor ein paar Jahren konnte AMD mit Intel nicht mithalten.
Damals hat Intel die Preise für die AMD-CPUs quasi festgelegt.

CPUs die mit Gegenstücken von AMD konkurierten hat Intel vergleichsweise billig angeboten.
Konkurrenzlose Prozessoren waren überproportional teuer.

Und AMD musste bei gleicher Leistung im Vergleich zu Intel billiger anbieten, wenn sie ihre Prozessoren verkaufen wollten. Intel wählte den Preispunkt für ihre Prozessoren so, dass AMD in den roten Zahlen landete.

AMD bietet inzwischen viel mehr Leistung als in den Pre-Zen-Zeiten. Dies lässt sich AMD bezahlen. Auf dieses Art und Weise hat AMD die Schulden abgezahlt und auch zusätzlich Leute eingestellt. Die Entwicklungskosten von RDNA2 wurden vor allem mit dem Erfolg von Zen bezahlt.

Na ja mit Nvidia wischt AMD momentan den Boden nicht auf. Aber was die Hardware angeht wurde der Rückstand beinahe egalisiert. Bleibt noch die Software.
[wege]mini schrieb:
Lustig wird, wenn als nächste Ausbaustufe die Cores gestapelt werden und dann super mit dem gestapelten Cache arbeiten können :D
Das Stapeln von Cores geht nur bei low power Lösungen. Sonst bekommt man die Wärme nicht abgeführt.
Auch das Stapeln von CCD und IOD ist kritisch.

Aber es geht beim gezeigten nicht nur um das Stapeln. Es geht auch um die Verbindungstechnik. Diese wird m. M. n. AMD bei einer der nächsten beiden Generationen der EPyC-CPUs einführen (müssen) um das IOD mit den CCD zu verbinden. Ob IOD und CCD dabei übereinander gestapelt werden ist nicht so relevant.
[wege]mini schrieb:
Wann das kommt, hängt von TSMC ab.
Der Prozess heißt TSMC-SoIC und ist einer von 3 Prozessen die TSMC unter 3DFabric zusammenfasst.

Aber zur Umsetzung gehört nicht nur der Prozess mit dem die Verbindungen ausgeführt werden. Man benötigt auch das Systemdesign das die Verbindungen "mit Leben erfüllt". Und das kommt von AMD.

Hier war es notwendige Logik auf den CCD zu packen und die TSV geschickt zu plazieren. Bei der Weiterentwicklung der CPU-Chiplets wird es der Infinity Fabric sein.

[wege]mini schrieb:
Ein Verbot der Staaten für Pseudowährungen könnte helfen. Das ist aber in demokratischen Gesellschaften schwer umzusetzen.
Es würde schon helfen, wenn die Leute das Hirn einschalten würden.

Die Holländer konnten ihre Tulpen wenigstens einpflanzen und sich an den Blühten erfreuen. Was macht man falls/sobald die Blase platzt mit diesen gehypten Cryptowährungen?

Hat jemand Zahlen wie hoch das Volumen der Käufe von Waren und Dienstleistungen ist, die mit Cryptowährungen bezahlt werden?

Wenn ich unter Handelsvolumen suche, finde ich nur Zahlen zum Umtauschvolumen zwischen Cryptowährungen und konventionelle Währungen. In einem gesunden Markt müsste dieses Umtauschvolumen sehr klein im Vergleich zum Volumen der mit Cryptowährungen bezahlten Waren und Dienstleistungen sein.

Mein Bauchgefühl ist jedoch, dass die Cryptowährungen
  • vor allem zum Spekulieren verwendet werden.
  • im Vergleich nur selten zum Bezahlen von Käufen verwendet werden.
[wege]mini schrieb:
Es wird ja niemand betrogen und jeder darf Glasperlen für jeden Preis handeln, so viel er will.
Das gilt nur dann, wenn die Käufer wissen, dass sie Glasperlen kaufen. Wenn Ihnen die Glasperlen als Perlen verkauft, werden ist der Gegenstand des Betrugs erfüllt.

Es gibt viele Leute, die Cryptowährungen als Geldanlage anpreisen. Solange sie nur neue Käufer anlocken, deren Käufe an den Börsen den Preis nach oben treiben ist es nur moralisch fragwürdig. Wenn sie aber direkt Cryptowährungen verkaufen oder beim Kauf als Vermittler auftreten, sollten sie beim Platzen der Blase besser nicht greifbar sein.

JohnVescoya schrieb:
Langsam kommt das alles zusammen, es haben ja bei RDNA 2 schon mehrere Leute gesagt, dass der Infinity Cache ein Zwischenschritt zu GPU Chiplets ist. So langsam nimmt das alles logisch Gestalt an und man erkennt, worauf AMD hingearbeitet hat und was sie erreichen wollen.

Infinity Cache + GPU Chiplets + stacked SRAM können nicht separat betrachtet werden, sondern sind Bausteine einer Gesamtidee die mit RDNA 1 angefangen wurde und nun schrittweise Realität wird.
Wenn man sich die Patente zu den GPU-Chiplets ansieht, dann ist klar, dass AMD auch hier den TSMC-SoIC-Prozess anwendet.

JohnVescoya schrieb:
Latenz ist bei GPUs nicht sooo kritisch, GPUs sind relativ gute Latency Hiding Machines :) Aber Bandbreite vom SI sparen durch einen stacked Infinity Cache, der die Chiplets logisch verbindet, ist eine absolut geniale Idee.
Ideen sind das eine, sie auch umsetzen zu können ist das andere.
Nur wenn Ideen auch umgesetzt bewirken sie etwas.

Nicht umsonst sind Begriffe wie Vapourware oder Slideware entstanden.

Baal Netbeck schrieb:
Die Größe, als Maß und als Kapazität, sind eigentlich immer ausschlaggebend für die Latenz.
Warum ist der L1 Cache so schnell?
Weil der Speicherbereich klein ist, und er dank der Größe sehr nah an den CPU-Kern-Schaltungen liegt.

Der L2 ist größer und weiter weg....und um die Zugriffszeiten klein zu halten, wird er sogar in zwei Bereiche geteilt.
Der L3 Cache wird ja auch in 1MB(??) große Bereiche unterteilt und existiert nicht als gigantischer Block.
Das wäre ja auch schlecht, wenn immer nur ein CPU Kern zugreifen könnte.

Auch wenn mit der L3 Erweiterung die Blockgröße sicherlich gleich bleibt, werden die Datenleitungen länger.
Und genau deshalb ist das Stapeln genial. In einem 3D-Stapel sind die Signalwege kürzer als wenn dieselbe Speichermenge in einer Ebene angeordnet ist.
Baal Netbeck schrieb:
AMD hat schon recht, dass es am Ende nur eine prozentual-kleine Verlängerung ist, aber innerhalb der CPU, zählt ja jeder halbe Minimeter.
Aber diese Verlängerung ist beim 3D-V-Cache viel kleiner als die Verlängerung, die entsteht wenn man den L3-Cache in einer Ebene anordnen würde.
 
  • Gefällt mir
Reaktionen: JohnVescoya und Baal Netbeck
mae schrieb:
Dass die 64MB soviel Platz brauchen wie die 32MB auf dem CCD, koennte auf Tags auf dem CCD hindeuten. Eine andere Erklaerung (die ich fuer plausibler halte) waere, dass auf den Cache-Chip nur kurze Leitungn bis zum TSV gibt und man sich damit den Platz fuer lange Leitungen und die Treiber fuer diese Leitungen sparen kann, und das ist alles auf dem CCD. Dann hat die 3D-Variante moeglicherweise sogar einen Kostenvorteil gegenueber einem CCD mit 96MB cache (wo man zusaetzliche Leitungen und damit Flaeche braucht).
Laut AMD nutzen sie für das Cache-die eine speziell auf Größe optimierte 7nm Library von TSMC

Die Möglichkeit, die Tags auf dem CCD unterzubringen wurde als theoretische Möglichkeit auf Twitter diskutiert, aber erwartet wird dass das Cache-die auch die Tags hat. Grund ist, dass das Design von AMD mindestens 4 Cache-Stapel übereinander unterstützen soll, und das würde enormen Platz auf dem CCD brauchen.
https://twitter.com/chiakokhua/status/1400040195316092931
 
Nagilum99 schrieb:
Nagilum99 schrieb:
Komplett falsch. Alles. Zumindest das was man lesen kann. Den ersten Satz konnte ich nicht mal verstehen.
IPC hast du außerdem immer noch nicht verstanden aber bestimmt hat AMD die letzten Generationen für die IPC heimlich von 7 nm auf 7 nm auf 7nm geschrumpft. Oder so.

Ähm wat ipc schrumpfen, das grht doch garnicht,

Da ezählst du nun rinen unsinn, das grht echt nichy. Wie kommst du denn drauf und zen 4 wird kein 7nm sondern 5 bzw 6 nm sein, nur zur infos.

Und das als unsinn zu bezeichnen ist ne frechheit. Die 1000 kerner stammt nicht von. Amd sondern von ner anderen firma die da so nen experiement gemacht hatte. Ich kann dir da ja gerne nen link dazu senden. Freilich hätte ich von so einer cpu keine vorteile,wäre ja dennoch interessant das ganze oder etwa nicht? Und auch wenn ich es noch nicht verstanden habe, ändert dies dennoch nix daran das ipc kein wundermittel ist.

Und nun das mit den 1000 Kernen siehe hier:
https://www.gamestar.de/artikel/pro...-befehle-pro-sekunde-bei-07-watt,3274648.html
Wäre durchaus echt mal interessant sowas.

Oder auch hier berichtet:
https://www.pcwelt.de/news/Erster-1...llionen-Berechnungen-pro-Sekunde-9998895.html
 
Zuletzt bearbeitet:
Shadak schrieb:
fürs nächste mal schnell googlen oder wiki fragen. reduziert die gefahr peinlicher aussagen^^
Die Abkürzung wird meines Wissens nach unterschiedlich verwendet, ich glaube es sind beide Begriffe gebräuchlich:

IPC - Instructions per Clock (Instruktionen pro Takt)​


Prozessoren sind so komplex, dass sich ihre Leistungsfähigkeit nicht mehr in der Taktfrequenz ausdrücken lässt. Statt dessen geht es um die Effizienz eines Prozessors, die in der Anzahl der Befehle pro Taktschritt ausgedrückt wird. Meist wird die Effizienz in Instruction per Cycle oder Instruction per Clock (IPC) angegeben. Manchmal auch der Kehrwert Cycles per Instruction (CPI).

Quelle: IPC - Elektronik Kompendium
 
  • Gefällt mir
Reaktionen: Floppes
Zen4 ist 5nm. Steht ja auf offiziellen AMD Roadmap.
 
latiose88 schrieb:
@JohnVescoy ja ich habe ja nie behauptet das ich es wüsste. Würde ich es wissen, dann würde ich ja nicht fragen oder?
Fragen stellen ist das eine, Herumschwafeln und wilde Behauptungen aufstellen das andere, Beispiel:
latiose88 schrieb:
Ähm wat ipc schrumpfen, das grht doch garnicht,

Da ezählst du nun rinen unsinn, das grht echt nichy.

Wieder absolut sinnloses Geschwafel und maximale Ahnungslosigkeit.

Wenn du Fragen hast, dann stell einfach Fragen und lass es dir erklären. Aber hör auf, diesen Bullshit in die Welt hinaus zu posaunen. Das ist echt richtig nervig hier, das ist nichtmal mehr unterhaltsam.

Mir scheint auch, dass es dir massiv an Lesekompetenz mangelt. Du hast es nichtmal geschafft, den Beitrag den du zitiert hast, korrekt zu lesen und logisch zu verstehen.
 
  • Gefällt mir
Reaktionen: Smartbomb, Nagilum99, Taxxor und eine weitere Person
latiose88 schrieb:
Ähm wat ipc schrumpfen, das grht doch garnicht,

Da ezählst du nun rinen unsinn, das grht echt nichy.
Wie mein Vorposter schon angemerkt hat: Lesekompetenz.
Auch wenn es vmtl nichts bringt, bin ich trotzdem mal so frei, es dir zu erklären:
Er schrieb nichts von "IPC schrumpfen" sondern von CPU Generationen schrumpfen um die IPC zu verbessern.

Du warst derjenige, der das behauptet hat, natürlich wieder aus kompletter Unwissenheit heraus und dann anstatt sich zu informieren und zu fragen einfach irgendwelche Aussagen raushauen.
latiose88 schrieb:
Verstehe das es leider zu lange dauert bis da mal was von ipc kommt. Aber die kommen nur dank der kleineren fertigung und so zu stande.


Der Satz ist eine sarkastische Bemerkung zu dieser Aussage, indem AMD natürlich die IPC nur verbessert hat, indem sie die Fertigung verkleinert haben, und zwar von 7nm bei Zen2 über 7nm bei Zen3 auf 7nm bei Zen3 "V-Cache Edition" ^^

Achja und Intel ist bei Rocket Lake natürlich auch von 14nm auf 14nm gewechselt, um die +17% IPC(sogar in deinen favorisierten Anwendungen und weniger in Spielen) ggü Comet Lake zu erreichen^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und Nagilum99
Ok ok ich gebe auf. Ich klinke mich nun aus der unterhaltung aus. Nun ich habe verständnis probleme das gebe ich zu, ich brauche halt manchmal länger um es zu verstehen. Es tut mir leid das es für euch nervig gewesen war. Ich hoffe ihr verzeit mir. Denn wird halt auch in zukunft nicht leicht werden. Ich versuche in zukunft mehr mühe zu geben um es bessrr zu verstehen zumindest ein bischen und nicht so wie hier.
 
  • Gefällt mir
Reaktionen: LamaMitHut und Colindo
Wie schätzt ihr die Chancen ein, dass ein solcher Zen3-Refresh noch auf einem x470-Board läuft?
 
  • Gefällt mir
Reaktionen: Strigga
An sich laufen ja die aktuellen 5000er auf den Boards, und wenn ich es richtig behalten habe, dann war ja Zen3 schon für den extra großen Cache ausgelegt, woraus eigentlich resultieren sollte, daß das läuft. Aber das wird wohl erst die Zeit genau zeigen.
 
  • Gefällt mir
Reaktionen: Wun Wun
Das wäre natürlich super. Ich würde gerne die Langlebigkeit von AM4 ausnutzen und meinem C7H zum Abschluss nochmal etwas mehr (SC)-Leistung verpassen :D
 
latiose88 schrieb:
Ähm wat ipc schrumpfen, das grht doch garnicht,
Das wurde ja nun hinreichend von @JohnVescoya und @Taxxor erläutert. ;)

Wun Wun schrieb:
Wie schätzt ihr die Chancen ein, dass ein solcher Zen3-Refresh noch auf einem x470-Board läuft?
Ich sehe nur eine Abhängigkeit: Wohlwollen deines Mainboardherstellers dafür passende Firmware zu liefern.
Am Sockel ändert sich nichts, spezielle Spannungen wurden auch nicht erwähnt... warum sollte das (technisch) nicht gehen?
Theoretisch sollten die sogar auf A320 Boards laufen, wobei sich da wohl kein Hersteller mehr die Arbeit machen wird - praktisch also eher nix draus wird.
 
IBISXI schrieb:
Macht wahrscheinlich wenig Sinn.

Die Leute wollen kein Geld für APUs ausgeben und auch mit massig Cache wird aus einem Grafik-Sparbrötchen keine Rennmaschine.

Eigener Grafikspeicher mit HBM würde sich dafür eher anbieten.
Aber auch das ist zu teuer.
Es macht durchaus Sinn.
Wer sagt, dass die Leute kein Geld für APUs ausgeben wollen? Gerade im mobilen Bereich hast du nur APUs. Auch im Desktop-Bereich gibt es einen Markt dafür. Hast du Scheuklappen auf? Was soll das überhaupt mit der Aussage zur Rennmaschine? Eine APU kann so oder so keine dedizierte Grafikkarte ersetzen. Aber heutige APUs oder Intels Xe Varianten sind mittlerweile schnell genug, um nicht zu anspruchsvolle Spiele unter angepassten Einstellungen spielen zu können. Und komm nicht mit irgendwelchen Phrasen daher. Nicht jeder muss immer unter Ultra spielen.
Ich selber hätte neben meinem Gaming-PC gerne ein Notebook mit aktzeptabler APU, auf welcher nicht zu neue Spiele in akzeptabler Qualität laufen können und das geht heute schon durchaus. Emulatoren funktionieren dann erst recht, tun sie heute schon.
Ich würde urgerne einen PC-Gaming Handheld wie Aya Neo mein Eigen nennen wollen. Da macht es wenig, mit 720p Low bis Medium zu spielen.

Und jetzt die technische Perspektive: Der Infinity Cache der RDNA2 Architektur zeigt, wieviel dieser mit weniger Bandbreite bietet. Der L3 Cache könnte vielleicht auch als solcher wirken. Je nachdem, wie komplex die Anbindung sein muss, damit sowohl die CPU als auch die GPU Gebrauch davon machen kann. Dann kann das der Last entsprechend verteilt werden, unter Spielen eher Richtung GPU.
Die iGPU vom Ryzen 4700G bietet 2,15 TFlops, das ist ungefähr gleich viel wie bei der Radeon RX 460! Nur konnte letztere 112 GB/s in Anspruch nehmen, während APUs mit bis zu 68 GB/s rumgurken und das auch noch mit besserer Architektur! Die PS4 hat weniger (1,84) TFlops, aber gleich 176 GB/s Bandbreite.

Vielleicht würden schon 16 MB L3 Cache viel helfen! Ja, bitte!
 
Deinorius schrieb:
Es macht durchaus Sinn.
Ich gebe Dir vollkommen recht. Es gibt genügend Anwendungsfälle für APUs und nicht alle sind Low Budget.

Die GPU mit einem Infinity Cache auszustatten würde das Bandbreitenproblem mildern.
Allerdings verbraucht der L3-Cache sehr viel Fläche auf dem Die.

Hier erscheint der 3D-V-Cache für den Infinity-Cache als die natürliche Lösung, die die Kosten im Zaum hält.

Ist es ein Zufall, dass 3D-V-Cache und die erste APU mit RDNA ins selbe Zeitfenster fallen?

AMD hat eine Teaser für Ryzen-CPUs gemacht. AMD hat damit ganz neben bei die Erwartungen an ein Erscheinen von Zen 4 im ersten Halbjahr 2022 massiv gedämpft. Dass AMD jetzt nicht über 3D-V-Cache für EPIC und APUs reden will, bedeutet nicht, dass da nichts kommen wird. AMD will sich nicht mehr als nötig in die Karten schauen lassen.

Denn wenn man anfängt darüber zu reden kommen viele Fragen.
  • Für die Serveranwendungen, die wirklich von viel L3-Cache profitieren, ist eine Verdreifachung des L3-Caches sicher nicht das letzte Wort.
  • Kann der 3D-V-Cache bei Low-Power-APUs wirklich nur über dem L3-Cache des Dies gestapelt werden?
  • ...
 
Zurück
Oben