moRphh schrieb:
Siehe die letzten Veröffenltichungen bei Grafikkarten. UVP + 50% = Regalpreis.
Und das wird sich auch wieder ändern.
Das Problem was ich mit den UVPs habe ist, dass sie sinnvoll sind wenn AMD und Nvidia Referenenzdesigns entwickeln und anbieten.
Wenn AMD und Nvidia keine Referenzdesigns anbieten sind die UVPs fragwürdig. Die Boardhersteller verbauen meist aufwendigere Lösungen als im Referenzdesign. Den UVP für ein virtuelles Produkt interessiert eigentlich niemand.
zeedy schrieb:
Mein Gott was hat AMD da eigentlich vor? Ohne Taktsteigerung und bei selber Shaderleistung wäre es ja mindestens eine doppelt so hohe Performance wie die der 6900XT. Und die Mittelklasse soll 6900XT Leistung erhalten?
AMD und Nvidia treiben sich momentan gemeinsam an. Auch Nvidia schwingt eine ganz große Keule.
Aber wir können sicher sein auch diese Grafikkarten kann man mit schlechter Programmierung ausbremsen.
bensen schrieb:
Genau, für SRAM sind weniger Prozessschritte nötig. Sollten vor allem erheblich weniger Metal layer sein.
Das denke ich.
Dies wird von einigen Berichterstattern gerne übersehen.
bensen schrieb:
TSMC gibt für Logik 1.8 und für SRAM 1.35 an.
Bei N3 ist's 1.7 für Logik und gar nur 1.2 für SRAM.
Das wird oft ignoriert.
Diese schlechtere Skalierung ist aber kritisch, da zum Beispiel bei Zen 2 und Zen 3 der L3-Cache ebenso viel Raum einnimmt wie die Kerne.
bensen schrieb:
Bedenkt man dann wie groß die Caches bei RDNA2 schon waren (bei den kleinen GPUs extrem zurechtgestutzt um Fläche zu sparen) und wie groß die bei der nächsten Generation werden sollen, dann macht es definitiv Sinn die separat zu fertigen.
Im Juni hat AMD erklärt, dass die SRAM-Chiplets dichter sind, weil ein anderer Prozess speziell für SRAM verwendet wird. Es könnte sein dass diese Erklärung stark vereinfacht ist.
Es kann auch sein, dass die Chiplets mit einer Dense-SRAM-IP hergestellt wurden.
Vielleicht konnte AMD dieser Dense-SRAM IPs verwenden, weil es die Anforderungen an Latenz und Bandbreite erfüllt. Es ist möglich, dass es erst nach Zen 3 verfügbar wurde.
bensen schrieb:
Die wollen auch CPUs in N5 fertigen und die Konkurrenz wie Intel, TSMC, Apple und Mediatek wollen auch was abhaben.
Die-Fläche in N5 zu sparen spielt garantiert auch eine Rolle. Bei der Kombination N5-GPU-Chiplet und N6-Cache-Chiplet nehme ich an, dass die niedrigeren Waferpreise für N5 im Vergleich zu N6 die erforderlichen Montagekosten aufwiegen.
Bei der Kapazität bin ich stark ins Grübeln gekommen.
5 nm und 7 nm haben beide ähnlich Verläufe. 6 Quartale nach Produktionsbeginn (QnP) haben beide jeweils dieselben Einnahmen. Aber der Unterschied von 6 QnP zu 2 QnP ist bei 5 nm deutlich kleiner als bei 7 nm. Da 5-nm-Wafer erheblich teurer als 7-nm-Wafer verkauft werden, interoretiere ich
- 6 QnP wurde bei 5 nm weniger Waferfläche als bei 7 nm
- Es werden im Vollausbau jeweils 4 Module a 35000 Waferstarts je Monat sowohl bei 5 als auch bei 7 nm bereitstehen. Bei 7 nm wird wohl TSMC noch ein paar % oben drauf rausquetschen.
- Es gibt 2022 für 5 nm jede Menge Kunden
- Es gibt für 5 nm aber auch einiges an zusätzlichen Wafern. Alleredings haben Nvidia und Qualcomm wohl den Bedarf erheblich erhöht.
Die Zahlen im Diagramm habe ich den Quartalsberichten von TSMC entnommen. Aus Angaben zum Quartals-Umsatz und den Angaben zum Antei der einzelnen Nodes habe ich die Einnahmen je Node. Die Fehlerbalken entsprechen 0,5 %, da die Angaben von TSMC auf ganze Prozent gerundet sind.
Viel wichtiger ist in meinen Augen dass der Infinity Cache die GPU-Chiplets (GCD) koppelt. Dies ist im
Patent zur Active Bridge dargestellt. (Computerbase hat berichtet, siehe
Post von Colindo)
- Das GCD1 kann im Infinity Cache (auf dem active bridge chiplet aka MCD) auf Daten zu zugreifen, die über das Memory-Interface vom GCD2 geladen wurden.
- Dies beschreibt Absatz 0019 im Active Bridge Patent.
- Das zerstreut auch die Einwände von @Knut Grimsrud.
Als Laie erwarte ich allerdings, dass der Infinity Cache bei den Chiplet-GPUs größer sein muss bei monolithischen GPUs. Ich erwarte, dass Cache Misses auf Daten des anderen GCD teurer sind als im monolithischen Fall.
Taxxor schrieb:
Die Software wird eine ganz normale einzelne GPU erkennen, wie sie auch bei einem Ryzen 5900X/5950X eine einzelne CPU erkennt und nicht 2.
Der Rest passiert in Hardware auf der Karte selbst und im Treiber.
So so hat es AMD in den Patenten dargestellt. Die Latenz über die Bridge ist so klein, dass nach außen beide Chiplets als eine GPU agieren.
Taxxor schrieb:
wo kommen denn in der Tabelle die 192bit bei der 7700 her?
Ich denke das meiste basiert auf diesem Tweet und der nachfolgenden Diskussion.
Jetzt kann man darüber streiten, bei welchen Zahlen Greymon55 Informationen weitergibt oder wo er vermutet.
Die Namen der Grafikkarten wurden von anderen hinzugefügt und kreisen seit dem. Die
Annahmen sind:
- Navi 31 und 32 bestehen aus jeweils 2 GCD (GPU-Chiplets).
- Diese GCDs können nicht eigenständig verwendet werden.
- Die GCDs bringen jeweils die Hälfte an allen Resourcen ein, so auch das Speicherinterface.
Ich finde es eine spannende Frage, ob es klappt bei Navi 31 die 3-fache Anzahl an Shadern mit demselben Speicherinterface zu versorgen, wenn man den Infinity Cache lediglich verdoppelt. Dies gilt auch für Navi 32.
Von der Grafikleistung sind sowohl Navi 31 und Navi 32 für 4 K geeignet. Sind da 12 GB wirklich zukunftssicher? Viele AAA-Games lieben es Rechenleistung und Speicher zu verschwenden. (Verschwenden = Verbrauchen/Belegen ohne wirklich einen angemessen Mehrwert zu bieten)
Bitte beachten:
- Ein RDNA-3-WGP hat 256 Shader, das sind 4 Mal so viel wie eine RDNA-2-CU hatte.
- Navi 33 ist nach diesen hat nach den Angaben von Angaben Greymon55 weniger Shader als Navi 21. Das heißt 4096 anstatt der im Artikel angegebenen 5120.
- Mit der Annahme, dass die Shader bei Navi 21 und Navi 33 gleich groß sind, wäre die Die-Fläche von N33 ungefähr in der Mitte der Die-Flächen von Navi 21 und Navi 22.
- Greymon55 behauptet, dass die Performance von Navi 33 über der von Navi 21 liegen soll. Dazu passen aber seine anderen Angaben nicht
- halb so breites Speicherinterface mit 128 bit
- halb so großer Infinity Cache
- Wie soll ein halb so großer Infinity Cache ein halb so breites Speicherinterface kompensieren? Da müsste AMD gezaubern.
- Selbst mit dem hohen Takt und vergleichbarer Ausstattung wäre es IMHO schwer die 25 % mehr Shader der Navi 21 zu kompensieren.
- Der Artikel verwendet eine als Größe für den Infinity Cache (128 ... 256) MByte. 256 MByte passen IMHO zu den Performance-Angaben von Greymon55 passen, verbrauchen aber eine gewaltige Fläche auf dem Die.
pipip schrieb:
Anhang anzeigen 1182254
Ich habe die Tabelle letztens gekonnt ignoriert/übersehen ^^ Dachte Anfangs RX 7900 und RX 7800 bestehen aus einem Chip im MCM Design, während RX 7700 und RX 7600 jeweils ein Chip wären.
Ich hatte lange ignoriert dass Navi 33 N6 ist und nur 16 WGP hat.
Ich ging von
20 WGP aus und hielt es für möglich dass NAVI 33 in Navi 31 (x3) und Navi 32 (x2) wiederverwendet wird.
- Wenn man die Patente von AMD anschaut dann sind sind die GPU-Chiplets komplette GPUs.
- Bei GPU-chiplets werden durch die Active Bridge verkünft.
- Ein GPU-Chiplet agiert als primäres GPU-Chiplet und kommuniziert mit der CPU.
- Aber beide Chiplets haben das Speicherinterface
- Die Patente von AMD zeigen in vielen Darstellungen eine Konfiguration mit 3 GPU-Chiplets.
Aber auch so stellt sich die Frage, ob die GPU-Chiplets auch eigenständig verwendet werden können. Der kritische Punkt ist meiner Ansicht nach das Speicherinterface. Den Infinity-Cache könnte man auch mit einer halben Brücke bereitstellen.
- Wenn es auf beide Chiplets verteilt ist, dann sind die genannten Zahlen ein starkes Indiz dass es kein stand alone gibt. Mit höherer Anzahl der Shader wäre die Anbindung eines GPU-Chiplets noch schmaler als bei Navi 33.
- Wenn es redundant verwendet wird, steht bei der Anwendung eines Chiplets als eigenständige GPU ein breites Interface bereit. Für die Anwendung im MCM wird einiges an teurer Die-Fläche nicht verwendet.
Wenn man die Chipfläche betrachtet, erscheint die Annahme sehr plausibel, dass die Navi 31 und Navi 32 nur im Verbund verwendet werden. Der Schluss aus dieser Annahme ist: AMD verwendet die GPU-Chiplets nur um leistungsstarke GPUs zu bauen und nicht wie bei den CPUs eine Bauskasten zu schaffen.
Wenn ich die enormen Designkosten für N5 berücksichtige, erscheint es mir nicht ausgeschlossen, dass AMD in manchen Fällen Chipfläche nicht nutzt.
pipip schrieb:
Was auch auffällig ist, dass Navi 33 allein ja so viele Shader hat wie Navi 21 aktuell... nur mit halben Si dafür doppelten Infintiy Cache. Hoffentlich erreicht man dann ca RX 6800 Performance und zeitgleich erbärmliches Mining
Wie gesagt, Greymon behauptet standhaft, dass die Performance von Navi 33 über der von der RX6900XT liegt.