jemandanders
Commander
- Registriert
- Mai 2019
- Beiträge
- 2.978
Welche Gerüchte besagen das denn?w0mbat schrieb:Aber die Gerüchte sagen, dass der Infinity Cache ein L2/L4 cache ist,
Meine "Gerüchte" besagen das es ein Shared L1 Cache ist.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Welche Gerüchte besagen das denn?w0mbat schrieb:Aber die Gerüchte sagen, dass der Infinity Cache ein L2/L4 cache ist,
Summerbreeze schrieb:Welche Gerüchte besagen das denn?
Meine "Gerüchte" besagen das es ein Shared L1 Cache ist.
Dann klär mich doch mal bitte etwas auf. Ich möchte nicht Dumm sterben.Mcr-King schrieb:Ähm beide Recht mehr oder weniger.
RGT war der erste, der mit dem "Infinity cache" ankam, und der hat was von einem großen 128MB cache erzählt.Summerbreeze schrieb:Welche Gerüchte besagen das denn?
Meine "Gerüchte" besagen das es ein Shared L1 Cache ist.
Summerbreeze schrieb:Dann klär mich doch mal bitte etwas auf. Ich möchte nicht Dumm sterben.
Wer weiß? Normal ist der für einen einzelnen Kern ja winzig, wenn aber alle Kerne zusammen da dran hängen wird das schon eine gewisse Größe erreichen. Könnte natürlich auch den L2 und L3 mit zusammen fassen bzw. direkter anbinden und dadurch eine Gesamtgröße von 128 darstellen.w0mbat schrieb:Die Patente mit dem shared L1 hab ich auch gesehen, aber der L1 ist sicher keine 128MB groß.
McLovin14 schrieb:Es ging dabei weniger um die Skalierbarkeit im Sinne von Chiplets, sondern mehr um die bessere Auslastung bei steigender Anzahl an CUs.
Das klingt echt interessant. So wie ich das verstehe werden die L1-Caches von CUs, die an den gleichen Daten arbeiten, zusammengeschaltet. So hätten 5 CUs zusammen 5x soviel L1-Cache, wenn sie eine ähnliche Aufgabe bearbeiten. Sollte eine CU plötzlich andere Daten brauchen, geht die Miss-Rate hoch und die Gruppe wird neu aufgeteilt, so dass die eine CU wieder ihren eigenen L1-Cache hat und die restlichen 4 CUs mit 4xL1 weiterarbeiten.Volker schrieb:Also es ist wohl das hier, unter "geilem Marketing -Namen" nun:
https://www.freepatentsonline.com/20200293445.pdf
Würde auch zeitlich passen, denn das Patent wurde schon Anfang 2019 eingereicht. 1,5 Jahre um es nun final zum Einsatz zu bringen.
Bei dir klingt das aber so, als würde die Caches geteilt, also kleiner. Ich verstehe das als ein Zusammenschließen der Caches, oder nicht?incurable schrieb:Da wird nichts ausgeliehen, vielmehr kann man die Recheneinheiten in mehrere Cluster Teilen, so lang die dann geteilten Caches noch vernünfige hit rates produzieren.
Das klingt zwar wie eine clevere Idee, aber wie von Volker schon gesagt, wäre ein asynchrones Speicherinterface (außer der HBM ist exakt so schnell wie der GDDR6) in der Realität nicht so leicht von Vorteil.Inxession schrieb:könnte der Infinity Cache, damit zusammenhängen?
ThePlayer schrieb:Bei den ganzen Gerüchten die zu RDNA2 im Umlauf sind würde ich mich am liebsten bis zum 28.10. in Cryoschlaf versetzen lassen. Das ist so spannend. Wie soll man da noch 3 Wochen aushalten 😵
Das wissen wir eben nicht, RDNA 1 gab es nur mit bis zu 40 CUs, wie es sich darüber hinaus verhält, kann keiner sagen.Benji18 schrieb:Die bessere CU Auslastung haben sie ja schon mit RDNA erreicht da waren Sie schon auf Turing niveau.
Im Patent wird nichts "zusammengeschlossen". Es gibt pro Berechnungseinheit eine Anzahl an Recheneinheiten und eine Anzahl an Cacheeinheiten.Colindo schrieb:Bei dir klingt das aber so, als würde die Caches geteilt, also kleiner. Ich verstehe das als ein Zusammenschließen der Caches, oder nicht?
macht nix, hab ne knock out schwelle von 5,9%.ThePlayer schrieb:@BlackRain85 leider stagniert der Kurs heute oder es kommt sogar ein kleines minus raus.