News AMD Radeon RX 8000: Neue Gerüchte umreißen Infinity Cache von 3 Navi-48-GPUs

Limit schrieb:
Ein Chip in mehrere Chiplets zu teilen macht nur dann Sinn, wenn man entweder sehr viele verschiedenen Varianten haben möchte oder der Chip ansonsten so groß wird, dass die Ausbeute bei der Herstellung darunter leidet. Bei RDNA4 ist beides nicht der Fall. Es sieht nach nur zwei Chips aus, die mit max. 3xx mm² bestenfalls mittelgroß sein werden. Ein Chiplet-Design würde da nur zusätzliche Kosten und Leistung kosten.
Ursprung der Sache ist ein Post von mir. Es geht nicht um Navi 48. Es geht darum, dass die Geschichte RDNA4 Navi 41 ... Navi 43 wären als Multi GCD GPUs geplant gewesen, massive Löcher hat. Eines ist warum hat AMD die GCDs nicht einzeln gebracht.

Und ich habe in dem Post auf den geantwortet hast auf den Einwand geantwortet, dass die eventuell GCDs nicht eigenständig nutzbar waren.

Limit schrieb:
Daran arbeitet AMD. Wäre RDNA4 wie ursprünglich geplant gekommen, hätten wir ein solches Design, aber nun wurde das auf die nächste Generation verschoben und RDNA4 ist mehr oder weniger nur ein Lückenfüller um die Zeit bis dahin zu überbrücken.
Das GCD von Navi 31 ist 305 mm² groß.
Warum sollte AMD bei RDNA 4 ein Multichiplet Design geplant haben?
Limit schrieb:
Da ist der Haken. RDNA4, wie es ursprünglich geplant war, wurde gestrichen bzw. nach hinten verschoben. ...
Das ist eine ganz neue Variante. Und extrem unwahrscheinlich. Wie soll das zeitlich funktionieren, komplett neu mit den Chips anzufangen?

Die allgemeine Lesart ist, dass Navi 41 ... 43 gestrichen wurden. Übrig blieb das kleinste Die Navi 44, wie Navi 33 ein Monolith. Und das Design von Navi 44 wurde verdoppelt, so kam Navi 48 zustande, der damit ebenfalls ein Monolith ist.
 
Es muss wohl sowieso SAM aktiviert sein damit der Infinity Cache bei AMD zu tragen kommen kann, und wenn man nach Benchmarks der 7900XTX geht hängt es auch noch davon ab wie u. A. Spiele darauf optimiert wurden.^^

Also zumindest was ich gesehen habe macht es schon einen Unterschied, aber wenn man in 4K spielt dann ist das jetzt auch kein Gamechanger, bei niedrigen Auflösungen sah es schon besser aus, allerdings waren das auch bereits ohne um die 100 FPS.^^

Bei Cyberpunk 2077 was mich bzgl. Benchmark interessiert spielt es in 4K laut diesem Benchmark aber fast keine Rolle.^^
https://www.thefpsreview.com/2022/1...-access-memory-performance/4/#ftoc-heading-18
 
Nach den leaks von heute und da nur noch von 8700XT und drunter die Rede ist, glaub ich langsam echt nicht mehr an viel mehr Leistung als die GRE heute bietet, aber Mal sehen, gibt bestimmt ein Newsupdate.
 
AGB-Leser schrieb:
Da die schon Erfahrungen haben, könnten die das doch fortführen und dem Kunden die Entscheidung lassen, wie viele 8900xt die kaufen, um eine 5090 einzuholen

ETI1120 schrieb:
Die 7900 XT Performance wäre nur dann gut, wenn sie auch mit wesentlich weniger Power als bei der 7900XT einhergeht.
Richtig. Das erwarte ich mir grundsätzlich, weswegen ich darauf nicht eingegangen bin.

ETI1120 schrieb:
Angeblich soll ja AMD einiges bei RT tun. Aber Nvidia wird nicht stehen bleiben.

Das Problem für AMD ist, dass Nvdia hier die Richtung vorgibt. AMD kann nur folgen.
Das ist korrekt. Immerhin hat AMD auf einer Konferenz eine neue Rendervariante für RT präsentiert, was von Alex auf DigitalFoundry besprochen wurde. Grundsätzlich gut, dass AMD etwas versucht, es muss aber auch was bringen.
Mich zipft es am meisten an, dass von keiner Seite ein gemeinsam ernsthafter Versuch unternommen wird, RT voranzubringen. Immer nur Nvidia, gerade mit Ray Reconstruction, und dann wird man fast schon gezwungen deren Grafikkarten zu kaufen.

ETI1120 schrieb:
Und es ist letztendlich ein massives Problem für AMD, da die 7900XTX billiger als die 4800 angeboten werden muss.
Da fällt mir wieder ein, wie enttäuscht ich beim Release war, wie viel größer die Dies bei AMD im Vergleich zu Nvidia sind. :/

ETI1120 schrieb:
AMD hat keine Chance nennenswerte Stückzahlen in Notebooks abzusetzen.
Unter diesen Umständen sicher nicht. Framework hat auch nur deshalb eine AMD GPU im FW 16, weil Nvidia viel zu restriktiv ist. Gleiches wird auch für diese OCULink eGPU Variante gelten.
AMD muss die Effizienz voranbringen und beim Preis einstecken, und dann auch den Herstellern entgegenkommen.

ETI1120 schrieb:
Die Karte wird sich bei weitem nicht so gut wie die Konkurrenzprodukte von Nvidia verkaufen.
Ja, all diese Punkte stimmen vollkommen und das ist traurig, aber gerade in der jetzigen technischen Situation leider auch nicht völlig verkehrt, wenn man sich z.B. SW:O ansieht.

ETI1120 schrieb:
Die allgemeine Lesart ist, dass Navi 41 ... 43 gestrichen wurden. Übrig blieb das kleinste Die Navi 44, wie Navi 33 ein Monolith. Und das Design von Navi 44 wurde verdoppelt, so kam Navi 48 zustande, der damit ebenfalls ein Monolith ist.
Das wird wohl die einzige Möglichkeit sein, wie das zustande gekommen ist. Die meisten verstehen nicht, dass man nicht einfach so ein Design streichen und von Neuem beginnen kann. Das dauert Jahre!
 
ETI1120 schrieb:
Es ist für AMD ein Problem, dass AMD mit RDNA4 nicht den Markt bis 1000 USD abdecken kann.
Eben nicht. Es ist ein Problem für AMD diesen Markt abzudecken und dort nicht profitabel zu sein.

Sie haben geringere Stückzahlen, einen geringeren Erlös je Karte / Wafer und einen höheren Herstellungspreis je Karte in der jeweiligen Leistungsklasse - wie sollen sie da mithalten? Ergo müssen sie sich auf die Nische konzentrieren, wo sie zumindest positive Deckungsbeiträge haben.

Eine extrem aufwendige 7900xt für 600 Euro rauramschen ist sicher nicht das Konzept für hohe Gewinne.
NV verkauft z.B. 295mm2 Silizium auf einer 4070ti für gerade ca. 750Euro. Bei AMD gibt es für 630 Euro satte 529mm2. Das ist ziemlich exakt der doppelte Preis je mm2.
Das ist natürlich eine schlimme Milchmädchenrechnung: Steuern, Platine, Vertrieb, was kostet der Wafer wirklich im Einkauf... Aber klar ist wohl: AMD investiert mehr je Karte und bekommt weniger.
ETI1120 schrieb:
Wieso sollte es der letzte Versuch sein?

AMD benötigt RDNA für die iGPUs in den Mobilprozessoren und für die Konsolen.
Es wird dann der letzte Versuch sein, wenn diskrete Grafikkarten dauerhaft weiterhin Verluste machen. Kann sich kein Unternehmen leisten.
iGPUs und Konsolen sind ein gutes Argument, da kann man die Entwicklungskosten in gewisser Weise teilen / rechtfertigen. Wenn der Trend aber gerade im Mobilebereich (Strix Halo) zu integrierten Chips geht und sie irgendwann 80% des Geschäfts damit machen - warum mühsam diskrete Karten vermarkten für die immer kleinere Nische der diskreten PC-GPUs bei denen man draufzahlt?

Von Intel kam bisher auch nur die Hälfte von dem was so angekündigt wurde und das auch zu spät. Warum? Weil sie es sich nicht leisten können / wollen da noch mehr Geld zu verlochen und sie am Ende eben auch chancenlos sind gegen NV.
Das bisschen Marktanteil, dass sie gewonnen haben, haben sie AMD über den Preis abgenommen - also dort, wo Geld verloren wird.
 
ETI1120 schrieb:
Ursprung der Sache ist ein Post von mir. Es geht nicht um Navi 48. Es geht darum, dass die Geschichte RDNA4 Navi 41 ... Navi 43 wären als Multi GCD GPUs geplant gewesen, massive Löcher hat. Eines ist warum hat AMD die GCDs nicht einzeln gebracht.
Vielleicht machen sie das ja, zumindest in angepasster Form. Die 64 CUs von Navi 48 wären doch die richtige Größenordnung für ein solchen RDNA4 GCD. Nur hat man die MCDs gleich mit dazugepackt, da man daraus ja sowieso nur einen einzigen Chip macht.

ETI1120 schrieb:
Und ich habe in dem Post auf den geantwortet hast auf den Einwand geantwortet, dass die eventuell GCDs nicht eigenständig nutzbar waren.
Ich würde vermuten, dass die GCDs weiterhin mit separaten MCDs gekoppelt worden wären schon alleine um Rechenleistung und Speicherbandbreite unabhängig skalieren zu können.
ETI1120 schrieb:
Das GCD von Navi 31 ist 305 mm² groß.
Warum sollte AMD bei RDNA 4 ein Multichiplet Design geplant haben?
Mal angenommen AMD hatte ursprünglich durchaus die Absicht mit RDNA4 gegen Nvidias Blackwell auch im High-End-Bereich anzutreten. Dann wäre eine GPU mit zwei GCDs in der Größenordnung von Navi 48 durchaus passend.

ETI1120 schrieb:
Das ist eine ganz neue Variante. Und extrem unwahrscheinlich.
Die Hauptneuerung von RDNA4 sollte das Multi-GCD-Design sein. Die eigentliche Kern-Architektur hätte man zum größten Teil von RDNA3 übernommen, einfach weil man nicht genügend Entwicklungs-Resourcen hat um zwei so große Entwicklungen parallel durchzuführen. Da das Multi-GCD-Design aber nun nicht für RDNA4 zur Verfügung steht bleibt es bei nur geringfügigen Änderungen gegenüber RDNA3, nämlich den RT-Verbesserungen aus dem PS5 Pro Chip und einem Die-Shrink. Vielleicht gab es noch hier und da ein paar andere kleine Verbesserungen, aber ich würde nichts wesentliches erwarten.

ETI1120 schrieb:
Wie soll das zeitlich funktionieren, komplett neu mit den Chips anzufangen?
Natürlich hat man nicht angefangen einen neuen Chip zu entwickeln, man hat einfach genommen was man hat und daraus ein Chip gemacht. Das ist aber eben in erster Linie nur eine geshrinkte RDNA3-Version, denn eine neue Core-Architektur ist erst für RDNA5 vorgesehen.


ETI1120 schrieb:
Die allgemeine Lesart ist, dass Navi 41 ... 43 gestrichen wurden. Übrig blieb das kleinste Die Navi 44, wie Navi 33 ein Monolith. Und das Design von Navi 44 wurde verdoppelt, so kam Navi 48 zustande, der damit ebenfalls ein Monolith ist.
Ja, das ist was nun wahrscheinlich als RDNA4 erscheinen wird, aber eben nicht, was ursprünglich geplant war.


DerRico schrieb:
Wenn der Trend aber gerade im Mobilebereich (Strix Halo) zu integrierten Chips geht und sie irgendwann 80% des Geschäfts damit machen - warum mühsam diskrete Karten vermarkten für die immer kleinere Nische der diskreten PC-GPUs bei denen man draufzahlt?
Die mit Abstand größte Kostenposition ist die Entwicklung der Kern-Architektur. Diese Kosten sind fix, egal ob du sie nur in APUs oder auch in dGPUs einsetzt. Daher macht es wenig Sinn auf dGPUs zu verzichten es sei denn, dass sie sich so schlecht verkaufen, dass die reinen Produktionkosten den Verkaufspreis übersteigen.
 
Zuletzt bearbeitet:
@Limit

Du schreibst mit einer Gewissheit als wüsstest Du es ganz genau. Wenn Du beim Team von AMD wärst, das an diesen Projekten gearbeitet hat, würdest Du nicht in diesem Forum schreiben. Dasselbe gilt für alle die diese Geschichte verbreiten. Sie hört sich ganz toll an und erscheint auf den ersten Blick stimmig. Aber wenn man genauer hinschaut ergeben sich immer mehr Fragen und Widersprüche.

Natürlich weiß auch ich nicht, was tatsächlich vor sich ging. Aber IMO passt diese schöne Geschichte hinten und vorne nicht. Alleine die Tatsache, dass die Patentanträge zur Multi Chiplet GPU zuerst bei CDNA3 umgesetzt wurden, sollte zu denken geben. Noch bei CDNA2 hat AMD darauf verzichtet die beiden Chiplets zu einer GPU zu verschalten. Antwort auf der Hot Chips 2022: der Aufwand wäre zu hoch gewesen.

Durch diese Patentanträge, die im Frühjar 2021 auch bei CB besprochen wurden, lies auch ich mich vom Chipletfieber anstecken. Ich wollte es lange nicht wahrhaben, dass der Chipletansatz bei RDNA 3 nicht auf dem Koppeln mehrerer GCD beruht. Bei Zen 4 war es eine Enttäuschung für mich dass AMD bei MCM blieb und nicht auf Fanout gewechselt ist.

Ich habe mich dann hingesetzt einige Fachartikel von AMD noch Mal gelesen. Und damit auch ein bisschen besser verstanden. Sam Naffziger hat schon 2020 unmissverständlich erklärt, dass man zum Koppeln von CPUs kein Advanced Packaging benötigt, MCM ist vollkommen ausreichend. Also war meine Erwartung dass Zen 4 mit Fanout kommt falsch.

Bei RDNA 3 war schnell klar, dass AMD durch das Auslagern der MCD auf dem GCD so viel Raum gewonnen hat, dass man noch mindestenst eine Generation bei einem GCD bleiben kann.

Außerdem ist klar, dass in der eigentlichen GPU von RDNA3 ein Fehler vorliegt, der das effiziente Skalieren verhindert. Ich habe mich eine Weile gegen diese Erkenntnis gesträubt, und wollte den Fehler im Dual Issue sehen. Ich denke dass devpandi der Sache am nächsten gekommen ist. Das Verdoppeln der ROPs bei RDNA 3.5 würde diesen Fehler, den devpandi irgenwo in den ROPs vermutet, kaschieren.

In dem Moment in dem AMD die RT-Fähigkeiten der CUs erweitert, nimmt AMD einen massiven Eingriff an den CUs vor. Selbst wenn die Anzahl der Einheiten nur verdoppelt würden, müssten die neuen Einheiten platziert, angeschlossen und eingebunden werden. Und so wie ich es verstehe hilft es nicht die Einheiten zu verdoppeln, AMD muss weitere Funktionen aus der Software in die Hardware verschieben. Damit die neuen Fähigkeiten genutzt werden können müssen Firmware und Treiber erweitert werden.

Natürlich könnte AMD durch koppeln von 2 Navi 31 eine GPU bauen die der GB202 entspricht.
Die Entscheidende Frage ist, könnte AMD 192 CUs auslasten?

IMO extrem unwahrscheinlich. Also ergibt es keinen Sinn für AMD so etwas zu machen.

Und selbst wenn diese Geschichte stimmen sollte, warum bringt AMD das GCD nicht einzeln wenn das Problem beim Koppeln liegt? Ein Nachfolger von Navi 31 mit deutlich höherer RT-Leistung und vernünftigen Taktraten wäre doch ein ordentliches Update.

IMO ist die beste Erklärung warum AMD bei RDNA1 maximal 40 CUs gebracht hat, dass RDNA1 nicht ausreichend skaliert hat um den Aufwand für einen größeren Chip zu rechtfertigen.
 
ETI1120 schrieb:
Du schreibst mit einer Gewissheit als wüsstest Du es ganz genau.
Limit schrieb:
Vielleicht machen sie das ja[..]

Ich würde vermuten, dass [..]

Mal angenommen AMD hatte ursprünglich durchaus die Absicht[..]

Ja, das ist was nun wahrscheinlich als RDNA4 erscheinen wird[..]
Ich denke, ich habe ausreichend kenntlich gemacht, dass es sich bei den Aussagen um Gerüchte bzw. Spekulationen handelt, teilweise von mir, teilweise von anderen.

ETI1120 schrieb:
Natürlich weiß auch ich nicht, was tatsächlich vor sich ging. Aber IMO passt diese schöne Geschichte hinten und vorne nicht. Alleine die Tatsache, dass die Patentanträge zur Multi Chiplet GPU zuerst bei CDNA3 umgesetzt wurden, sollte zu denken geben. Noch bei CDNA2 hat AMD darauf verzichtet die beiden Chiplets zu einer GPU zu verschalten. Antwort auf der Hot Chips 2022: der Aufwand wäre zu hoch gewesen.
Ich verstehe deinen Punkt nicht. Das Gerücht war ja, dass sie eine solche Multi-Chiplet GPU bringen wollten es aber Schwierigkeiten gab woraufhin die Pläne geändert werden mussten. Was du schreibst würde durchaus dazu passen.

ETI1120 schrieb:
Durch diese Patentanträge, die im Frühjar 2021 auch bei CB besprochen wurden, lies auch ich mich vom Chipletfieber anstecken. Ich wollte es lange nicht wahrhaben, dass der Chipletansatz bei RDNA 3 nicht auf dem Koppeln mehrerer GCD beruht. Bei Zen 4 war es eine Enttäuschung für mich dass AMD bei MCM blieb und nicht auf Fanout gewechselt ist.
Ich habe Chiplets eigentlich immer in erster Linie als Methode zum Kostensparen betrachtet. Wenn es nur um Leistung und Effizienz geht ist ein monolithisches Design fast immer im Vorteil, einfach weil es weniger Overhead hat.

ETI1120 schrieb:
Bei RDNA 3 war schnell klar, dass AMD durch das Auslagern der MCD auf dem GCD so viel Raum gewonnen hat, dass man noch mindestenst eine Generation bei einem GCD bleiben kann.
RDNA 3 ist nicht so groß, dass man es nicht als monolithisches Design hätte bringen können. Ich habe es daher eher als Zwischenschritt hin zu einem "richtigen" Chiplet-Design gesehen. Sollte dieses GCD+MCD-Design die "Endstufe" sein, war das mMn ein Misserfolg.

ETI1120 schrieb:
Außerdem ist klar, dass in der eigentlichen GPU von RDNA3 ein Fehler vorliegt, der das effiziente Skalieren verhindert. Ich habe mich eine Weile gegen diese Erkenntnis gesträubt, und wollte den Fehler im Dual Issue sehen. Ich denke dass devpandi der Sache am nächsten gekommen ist. Das Verdoppeln der ROPs bei RDNA 3.5 würde diesen Fehler, den devpandi irgenwo in den ROPs vermutet, kaschieren.

In dem Moment in dem AMD die RT-Fähigkeiten der CUs erweitert, nimmt AMD einen massiven Eingriff an den CUs vor. Selbst wenn die Anzahl der Einheiten nur verdoppelt würden, müssten die neuen Einheiten platziert, angeschlossen und eingebunden werden. Und so wie ich es verstehe hilft es nicht die Einheiten zu verdoppeln, AMD muss weitere Funktionen aus der Software in die Hardware verschieben. Damit die neuen Fähigkeiten genutzt werden können müssen Firmware und Treiber erweitert werden.
Das mag ja interessant sein, aber worauf willst du hinaus?

ETI1120 schrieb:
Natürlich könnte AMD durch koppeln von 2 Navi 31 eine GPU bauen die der GB202 entspricht.
Die Entscheidende Frage ist, könnte AMD 192 CUs auslasten?
Ich sprach von zwei Mal Navi 48. Eine solcher hypothetischer Navi 41 mit zwei "Navi 48 GCDs" hätte damit 128CUs, also +50% was dank Die-Shrink für einen Generationensprung durchaus machbar gewesen wäre. Dazu noch GDDR7 und es hätte eine durchaus potente GPU dabei herauskommen können. Aber das werden wir nun wohl niemals erfahren.

ETI1120 schrieb:
Und selbst wenn diese Geschichte stimmen sollte, warum bringt AMD das GCD nicht einzeln wenn das Problem beim Koppeln liegt?
Das hast du ja oben schon geschrieben und auch hier wieder meine Gegenfrage. Warum glaubst du, dass sie nicht genau das gemacht haben, nämlich als Navi 48.

ETI1120 schrieb:
Ein Nachfolger von Navi 31 mit deutlich höherer RT-Leistung und vernünftigen Taktraten wäre doch ein ordentliches Update.
Warte mal, du denkst, dass bei einem Multi-GCD-Design RDNA4 GCDs in Navi 31 Größe genutzt hätte? Das würde eine glatte Verdopplung der Einheiten bedeuten. Sowas gab es schon sehr lange nicht mehr.
 
Limit schrieb:
Das hast du ja oben schon geschrieben und auch hier wieder meine Gegenfrage. Warum glaubst du, dass sie nicht genau das gemacht haben, nämlich als Navi 48.
Navi 41, Navi 42 und Navi 43 wurden wohl eingestellt, Navi 48 ist ein neuer Chip.

Wenn es nur daran lag, dass die Kopplung nicht funktioniert, warum erscheinen Navi 41, Navi 41 und Navi 43 nicht als einzelne GCDs wie Navi 31 und Navi 32?
Limit schrieb:
Warte mal, du denkst, dass bei einem Multi-GCD-Design RDNA4 GCDs in Navi 31 Größe genutzt hätte? Das würde eine glatte Verdopplung der Einheiten bedeuten. Sowas gab es schon sehr lange nicht mehr.
Du hast Blackwell suggeriert. Bei GB202 werden 192 SM spekuliert.
 
ETI1120 schrieb:
Wenn es nur daran lag, dass die Kopplung nicht funktioniert, warum erscheinen Navi 41, Navi 41 und Navi 43 nicht als einzelne GCDs wie Navi 31 und Navi 32?
RDNA3 war von vorne herein mit nur einem GCD geplant, also hat man es entsprechend groß entworfen. Für RDNA4 hätte man bei Nutzung mehrerer GCDs diese wohl kleiner gemacht, z.B. 64 statt 96 CUs pro GCD, dafür eben zwei davon. Wenn du aber nun das Multi-Chiplet-Feature streichst, hast du plötzlich nur noch einen Chip mit maximal 64 CUs. Diese Variante war wohl für Navi 42 geplant. Das lohnt sich als GCD/MCD-Design aber nur dann, wenn man sich die GCDs und MCDs mit Navi 41 teilen kann. Fällt Navi 41 weg, fallen auch diese Synergien weg und man hat einfach nur einen einzelnen Mittelklasse-Chip mit MCM-Overhead und höheren Kosten. Der kleine Navi 4x Chip, denke ich, war von vorne herein monolithisch geplant, genau wie bei RDNA3.

ETI1120 schrieb:
Du hast Blackwell suggeriert. Bei GB202 werden 192 SM spekuliert.
  • ich habe explizit Navi 48 geschrieben.
  • schon bei RDNA3 / Ada Lovelace hatte Nvidia mehr Einheiten und RDNA4 bzw. Blackwell sind eher evolultionäre Weiterentwicklungen, daher kann man Annehmen, dass sich an dem Verhältnis nichts ändert.
 
Limit schrieb:
RDNA3 war von vorne herein mit nur einem GCD geplant, also hat man es entsprechend groß entworfen. Für RDNA4 hätte man bei Nutzung mehrerer GCDs diese wohl kleiner gemacht, z.B. 64 statt 96 CUs pro GCD, dafür eben zwei davon. Wenn du aber nun das Multi-Chiplet-Feature streichst, hast du plötzlich nur noch einen Chip mit maximal 64 CUs. Diese Variante war wohl für Navi 42 geplant. Das lohnt sich als GCD/MCD-Design aber nur dann, wenn man sich die GCDs und MCDs mit Navi 41 teilen kann. Fällt Navi 41 weg, fallen auch diese Synergien weg und man hat einfach nur einen einzelnen Mittelklasse-Chip mit MCM-Overhead und höheren Kosten. Der kleine Navi 4x Chip, denke ich, war von vorne herein monolithisch geplant, genau wie bei RDNA3.

Wenn Navi 43 monolithisch war, wieso wurde er gecancelt?
Wenn Navi 42 mit 64 CU hatte lag wohl Navi 41 in der Größenordnung von Navi 31. Er war wie Du schreibst nicht für Multi GCD vorgesehen, wieso wurde er gecancelt?
Wieso kann AMD die MCD von RDNA3 nicht für RDNA4 verwenden?

Wieso wurde Navi 44 nicht gecandelt?


Lohnt sich Multi GCD bei 128 CUs? das wären um die 400 mm²
Die 144 CU die PC Games Hardware nennt wären so um die 450 mm²
 
ETI1120 schrieb:
Wenn Navi 43 monolithisch war, wieso wurde er gecancelt?
Gute Frage zu der ich keine befriedigende Antwort habe. Vielleicht hat er nach Streichung von Navi 41/42 einfach nicht mehr ins Portfolio gepasst. Wenn man mit Navi 48 nun einen im Vergleich zu Navi 42 günstiger zu produzierenden mittelgroßen Chip hat braucht man vielleicht Navi 43 nicht mehr, weil man das Segment mit teildeaktiviertem Navi 48 abdecken kann.

ETI1120 schrieb:
Wenn Navi 42 mit 64 CU hatte lag wohl Navi 41 in der Größenordnung von Navi 31. Er war wie Du schreibst nicht für Multi GCD vorgesehen, wieso wurde er gecancelt?
Ich bin nicht ganz sicher was du meinst, aber ich gehe mal davon aus, dass du dich auf die Streichung von Navi 42 beziehst. Wie schon oben geschrieben lohnt sich ein Chiplet-Design nur bei entsprechender Chipgröße und/oder der Verwendung der gleichen Chiplets in verschiedenen Chips. Beides ist nach Streichung von Navi 41 nicht mehr der Fall. Deshalb hat man sich wahrscheinlich entschlossen Navi 42 durch eine Kosten-optimierte monolithische Version zu ersetzen (Navi 48).

ETI1120 schrieb:
Wieso kann AMD die MCD von RDNA3 nicht für RDNA4 verwenden?
siehe oben, Chiplets bringen in der Situation fast nur Nachteile. Die Entwicklungskosten wären niedriger gewesen, die Produktionskosten hingegen höher. Bei entsprechenden Stückzahlen lohnt sich das. Bei High-End-Chips mit geringeren Stückzahlen, aber höheren Preisen hätte man sich vielleicht anders entschieden.

ETI1120 schrieb:
Wieso wurde Navi 44 nicht gecandelt?
Weil von vorne herein als Low-cost Chip entwickelt und auch von der Größe passend als Ergänzung zu Navi 48.

ETI1120 schrieb:
Lohnt sich Multi GCD bei 128 CUs? das wären um die 400 mm²
Die 144 CU die PC Games Hardware nennt wären so um die 450 mm²
Von der Größe nicht unbedingt, aber auf jeden Fall, wenn man die gleichen Chiplets für mehrere Chips verwenden kann.
 
Zuletzt bearbeitet:
Zurück
Oben