Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNavi 31, 32 und 33: Handfeste Gerüchte zu AMDs Radeon RX 7000 mit RDNA 3
Du vergisst dass man auch noch einen 600mm² Interposer braucht, also insgesamt 1200mm² Wafer. Und das bonding ist sicher auch nicht günstig.
Es wird also günstiger für AMD. Aber nicht ganz so viel wie du denkst. Es hat schon einen Grund warum Navi 31 monolithisch bleibt.
Ich wäre mir da nicht so sicher, dass man einen Silicon Interposer braucht. Hat man bei Ryzen und Epic doch auch nicht. Da ist es meines Wissens doch auch nur ein PCB. Falls wirklich Silicon nötig werden sollte, wird man eher in Richtung EMIB gehen, bzw das vergleichbare, das TSMC anbietet.
Der Grund bei Navi31 dürfte ganz einfach sein. Ein so kleines GCD (128mm²) hätte keine Vorteile mehr im vergleich zum monolithischen Aufbau. Man würde vielleicht eine Handvoll mehr GCDs raus bekommen, aber gleichzeitig damit die Fertigungsstraße zum zusammenfügen der Chiplets auslasten.
NVIDIA konnte sich die absurde Marge über Mining und Samsungs sehr günstigen, weil alten und sonst recht unbeliebten, Prozess sichern.
NVIDIA ist mit einem Monolithen nicht unbedingt schlechter als AMDs erste GCD Generation, aber es könnte für NVIDIA sehr teuer werden. NVIDIA springt auch eigentlich fast 2 Nodes, während AMD 1 Node springt.
AMD könnte auch Probleme mit dem ganzen neuen Technologien bekommen, genauso wie NVIDIA mit dem für große Massenfertigung "untypisch" großem DIE in 5N.
Das wird echt spannend zu sehen wie Monolith vs. GCD in der anstehenden Gen ausgeht. Vor allem da man super bei AMDs Monolithen schauen und vergleichen kann.
Das wird echt spannend zu sehen wie Monolith vs. GCD in der anstehenden Gen ausgeht. Vor allem da man super bei AMDs Monolithen schauen und vergleichen kann.
Ich glaube, dass beide Hersteller am Ende wieder relativ dicht beieinander sind. In der aktuellen Generation ist AMD ja beim Stromverbrauch leicht vorne, hat aber eben auch das deutlich bessere Verfahren bei TSMC.
Außerdem glaube ich, dass AMD etwas Lehrgeld mit seinem Ansatz beim ersten Versuch bezahlen wird. Dafür wird sich das in den nächsten Jahren auszahlen. Irgendwann muss eben der Sprung kommen. Nvidia geht da wohl den sicheren Weg bei dieser Generation und verlässt sich zu einem großen Teil auf den Sprung durch TSMC.
Der Artikel von Angstronomics ist rund und in sich stimmig. Das ist etwas was man zuvor vom aktuellen Stand der Gerüchteküche nicht sagen konnte. Ob allerdings alle Details passen werden wir sehen.
Das Absplitten von Cache und Memory-PHY ergibt Sinn. Während Logik bei 7 nm => 5 nm gut skaliert, skaliert SRAM schlecht und analoge Schaltkreise wie in den PHY gar nicht. D. h. AMD trennt gut skalierende von schecht skalierender IP, wie bei Zen 2.
Auch beim Packaging räumt Angstronomics mit den wilden Spekulationen aus der Gerüchteküche auf. Da wurde von Silizum-Interposern und der Anbindung der MCD mit Siliziumbrücken (6 Stück!) fabuliert. Angstronomics nennt TSMC InFO_oS als Advanced Packaging Verfahren. Das ergibt Sinn da es eine erheblich höhere Verbindungsdichte als ein gewöhnliches Substrat ermöglicht aber nicht zu teuer ist.
Zum Thema Größe des Infinity Caches: Hier hat Sam Naffziger in einem Interview ausdrücklich gesagt, dass AMD bei RDNA 3 den Infinity Cache besser nutzt. D. h. es werden nur noch Daten in Cache gepackt die davon profitieren. Deshalb gehe ich davon aus dass die 92 MByte für 4K genügen. Im Umkehrschluss sollte die 32 MByte bei der Navi 33 für eine merklich höhere Hitrate als bei der Navi 23 reichen.
Zum Thema längerer Weg: Zwischen GCD und MCD werden 0,1 mm Abstand sein und der GDC ist erheblich kleiner als Navi 21. Es hängt davon ab wie AMD den Cache auf dem MDC plaziert, ob der Weg wirklich länger als bei Navi 21 ist.
phanter schrieb:
Aber ich hätte größere Dies von AMD erwartet. Wenn AMD mit chiplet Design in N5/N6 gerade so auf ihre 600mm² kommt und NVidia in ihrer 4090 600+mm² in N4 monolithisch nutzt dann kann das fast nicht konkurrenzfähig sein.
Weil die Kosten nicht linear mit der Chipfläche skalieren, sondern überproportional anwachsen.
Man muss die Shader auch auslasten können und das Interface darf nichtzu breit werden, weil sonst sie Boards zu teuer werden
Es wurde noch rein gar nichts zur Performance gesagt. Alles sind Spekulationen, bei Nvidia gibt es von kopete7kimi Zahlen zu einem Benchmark. Bei AMD nichts.
phanter schrieb:
Du vergisst dass man auch noch einen 600mm² Interposer braucht, also insgesamt 1200mm² Wafer. Und das bonding ist sicher auch nicht günstig.
InFO_oS ist ein Wafer Level FanOut Verfahren das keinen Silizium Interposer benötigt, Man baut einen sogenannten organischen Interposers auf. Die Leiterbahnen sind nicht so fein wie bei einem Siliziumwafer, aber viel feiner wie auf einem gewöhnlichen Substrat. Es sind auf einer Ebene 250 Leiterbahnen je mm möglich. Das Bonding ist Teil des Prozesses, da die erste Ebene der Leiterbahnen direkt mit den Micro Bumps von GDC und MDC verbunden wird. In dem Artikel wird übrigens auch der Bump Pitch mit 35 µm angegeben. D. h. es sind je mm2 mehr als 800 Kontakte möglich.
Das Verfahren beruht darauf, dass nicht jede GPU einzeln bearbeitet wird, sondern viele gemeinsam. Dazu baut man sich einen Wafer mit den einzelnen Dies zusammen. Dabei werden die Dies so angeordnet man es für die GPU benötigt. Und das erzeugen der Leiterbahnen erfolgt gemeinsam für den gesamten Wafer. Deshalb Wafer Level. Fan Out heißt es weil die Leiterbahnen (RDL) aus der Fläche des Chips heraustreten.
Fan Out Verfahren werden sehr gerne bei Mobil Phone SoC verwendet. So verwendet Apple ebenfalls InFO_oS
whyme schrieb:
Ich wäre mir da nicht so sicher, dass man einen Silicon Interposer braucht. Hat man bei Ryzen und Epic doch auch nicht.
Da ist es meines Wissens doch auch nur ein PCB.
Ja.
Zen 2 verwendet schlich und einfach FlipChip. D. h. die Dies werden auf ein gewöhnliches Substrat gepackt. Substrate werden mit gewöhnlicher PCB-Technologie hergestellt.
whyme schrieb:
Falls wirklich Silicon nötig werden sollte, wird man eher in Richtung EMIB gehen, bzw das vergleichbare, das TSMC anbietet.
Das waren die Spekulationen in der Gerüchteküche. Hier verwendet AMD bei der MI200 EBF, was erheblich besser als EMIB ist. Das wird so viel ich weiß bei ASE umgesetzt. Bei TSMC heißt das InFO_LSI oder InFO_L. Aber Info_oS bietet ohne Silizium einen kleineren Bump Pitch als EMIB. Die Leiterbahndichte sollte allerdings höher sein.
Iconoclast schrieb:
wenn meine 6800XT in Raytracing Titeln teilweise von einer 3060 gebügelt wird. Wenn AMD da mit der 7000er Reihe nicht massiv aufholt, switche ich sofort zu Nvidia.
@Taxxor die 200w ist der höchste wert den hwinfo mir anzeigt. ich meine, dass es gpu asic power oder tgp power ist. wobei die werte sich nicht wirklich unterscheiden.
igor hat doch mal einen test gemacht in welchem gezeigt wurde, dass das bei amd schwierig ist den kompletten verbrauch zu messen. aber mit hwinfo hat man zumindest einen vergleichswert.
wie testet eigentlich cb den verbrauch? einfach direkt an der steckdose als differenz oder nutzen die auch ein tool zum auslesen?
"Handfeste" Gerüchte...das kann ein spaßiger Tag in diesem Thread werden, nachdem sich manche im AMD Ryzen 7000-Thread beinah an die Gurgel gegangen wären. 🍿
Ich hoffe, dass dann auch endlich mal effizient Tests Einzug erhalten mittels FPS Cap. Einmal bei 60 FPS und einmal bei 144 und dabei den Verbrauch aller Karten messen. Bei exakt gleichen Grafik Einstellungen versteht sich.
Ist egal. Im allerbesten Fall ist AMD mit 600mm² N5+N6 genauso gut wie 600mm² N5. Und das ignoriert schon das SRAM gut mit N5 skaliert und die chip/chip Interfaces wegfallen.
Das heißt best Case sie haben keinen Nachteil.
Worst Case haben sie schon gegenüber monolithisch N5 einen Nachteil und die Gerüchteküche geht bei Nvidia von 600mm² N4 aus. Damit haben sie dann definitiv einen Nachteil.
Die Zen Architektur ist ja auch nicht interessant weil man 360 monolithisch auf 120+2*70mm² im Mainstream aufteilen kann. Sondern weil man nen fetten 1260mm² genoa bauen kann was monolithisch nicht möglich wäre.
Nvidia kann diese Generation maximal 800mm² N4 für ne Titan Super Ultra RTX nutzen. Mehr ist monolithisch nicht möglich (Und nutzen sie ja auch im H100). AMD hat schon in der MI250x gezeigt, dass sie 1480mm² können, und das ohne IO dies. Wenn sie also die technologie haben sollen sie diese gen mal klotzen und nen echtes Flaggschiff bauen. Selbst ne 2080 TI hatte 750mm² die size im Mainstream monolithisch.
Warum macht man das dann? Ressourcen verschwenden, nur, weil man es kann? Mittlerweile sollte es doch bei jedem angekommen sein, dass die Ressourcen, die man diesen Planeten entnehmen kann, endlich sind.
Ich kann diese Binsenweisheiten und Halbwahrheiten nimmer hören, alles ist irgendwie endlich, Sonnenenergie ist auch nicht unendlich weil die Sonne irgendwann aus geht.
In anderen Bereichen haben wir nützlichere Definitionen von Worte wie z.B. Echtzeit, Echtzeit kann extrem ungenau sein, solange die Genauigkeit ausreicht für die Aufgabe die gegeben ist. Man hat also ein relativen Begriff Anhand des Ziels.
Genauso "verbraucht" man nicht Ressourcen, genauso wenig wie man Energie verbraucht, man wandelt diese nur um oder transportiert sie von A -> B und von B -> C wo A ein Bergwerk B der Endkunde und C die Müllhalde / Recyclinghof ist.
Der Stoff ist damit nicht verbraucht sondern nur in einem schwerer zu entnehmenden Zustand. Jeh knapper die Stoffe werden um so mehr lohnt sich es dann aber wieder diese Dinge zu recyceln bis hin zu Müllhalden aus buddeln. Das Nadelöhr ist dabei vermutlich auch Strom / Energie, aber diese ist theoretisch quasi unendlich da, zumindest potenziell, da auch hier sich das nur umwandelt vermutlich sogar unendlich, was passiert wenn die Sonne aus geht ist ne nette philosophische frage und vielleicht ist dann Energie praktisch endlich für uns, aber der Begriff von Endlichkeit ist so gigantisch das man nicht Angst davor haben sollte.
Fusionsreaktoren z.B. arbeiten mit so wenig Material das bis das Material aus geht sicher 10 weitere Reaktormodelle erfunden sind.
Und wenn das Ineffizient ist ist es A absolut teuer und B schlechter in Preis/Leistung, das heißt AMD wird davon geringe Stückzahlen verkaufen und wenn man weltweit 2000 solcher Chips verkauft ist es egal ob man dort effizient ist wenn man aber hundert-tausende oder Millionen Mainstream-chips ineffizienter bauen würde, dann wäre es relevant. Das ist ungefähr so wie wenn man nen Autokonzern dafür kritisiert weil sie irgend ein Design-Auto das aus irgend einem Grund schlecht ist bauen und dann ins Museum stellen. Das fällt einfach nicht ins Gewicht, zumal ich dann hoffe das du keine SSDs benutzt denn wir haben ja gelernt das die ganz schlimm für die Umwelt seien viel Schlimmer als jede Grafikkarte.
Monolitisch ist mir da lieber.
Aber warten wir erst mal ab - AMD hat sich ja was dabei gedacht.
Ich kann mir aber schon vorstellen, dass AMD mit genau dieser Generation sehr viel Kopfschmerzen bekommen könnte: Stichwort Treiber und Ungleichmäßigkeit bei den verschiedenen Spiele-Engines...
Also a) du weißt schon das auch NV und Intel den Weg gehen werden?
Gedacht haben sich alle - Monolithisch geht es nicht weiter.
Deine Sorge ist unbegründet. Die MultiGPU ist fürs System eine GPU... Ich gehe nicht davon aus das Engines ungleichmäßig (schwankede Performance) bringen werden.
Was sein könnte - das eventuell eine Engine nicht so viel Leistung generieren können wie es in der Theorie sein sollte... Das heißt aber nicht das man da Performance technisch im ich muss Jammern Land unterwegs ist... Sondern ich gehe von aus das wenn in der Theorie 120 FPS möglich sein sollten "nur" 100 bekommt - weil was ungünstige intern abläuft...
Und dafür wird es im Zweifel dann auch Anpassungen geben. (Treiber Engine seitig)
Ergänzung ()
Rock Lee schrieb:
Schlagt euch diese Dual-Navi32-Geschichte bitte direkt aus dem Kopf.
Das würde insgesamt ein 512-bit Speicherinterface ergeben.
Ich hoffe, dass dann auch endlich mal effizient Tests Einzug erhalten mittels FPS Cap. Einmal bei 60 FPS und einmal bei 144 und dabei den Verbrauch aller Karten messen. Bei exakt gleichen Grafik Einstellungen versteht sich.
@Jan warum bezeichnest du diese Gerüchte als handfest? Sie ergeben doch an vielen Stellen einfach keinen Sinn.
Zum einen die winzigen Infinity Caches. Zum Beispiel Navi 32 mit 7680 ALUs und 256 bit Busbreite hätte selbst mit 20 Gbps GDDR6 nur 25% mehr Speicherdurchsatz für 50% mehr ALUs als noch bei Navi21. Und das auch noch bei halbiertem Inifinicy Cache. Wie soll das denn gut gehen?
Und dann noch die Chipgrößen. Navi 33 in N6 soll also deutlich kleiner sein als Navi 23 bei doppelter ALU Anzahl bei ansonsten gleich bleibender Busbreite und Infinity Cache?
Die Gerüchte lesen sich wie eine weitere wilde Ratestunde.
und genau das ist es ja: deswegen hängt die Leistung zu 100% von den AMDs Treibern! Diese werden aber wesentlich von den jetzigen Treibern unterscheiden, werden wahrscheinlich wesentlich voluminöser.
Wahrscheinlich muss AMD dann fast jedes neues Spiel noch akribischer im Treiber berücksichtigen...
Nein müssen Sie nicht. Das ist ja das Geniale was AMD da gemacht hat. Altes SLI musste auf Treiber Ebene geregelt werden. AMD regelt das jetzt in der Hardware direkt und allgemein gültig. Für den Treiber ist das eine normale GPU.
Wobei da alle Karten nur 1 GDC haben ist noch gar kein "SLI Prinzip" what ever am Zug - also auch nicht intern.
Oh das wird spannend. Dieses Jahr wird echt super für Hardware Freaks. Meine Wahl steht noch nicht fest welches Lager es wird und ob mit neuer CPU oder nicht. Denke aber Netzteil und GPU sollten reichen bei einem 3900x, evtl. einen 5800x3d drauf aber erstmal abwarten.
Wie Intel ja inzwischen auch mitbekam ist Fertigung von TSMC nicht alles, Software und Architektur sind auch sehr wichtig. Daher ist es für mich noch unklar ob alles reibungslos läuft.
Selbst bei der Platine und den Controllern hatte Intel Probleme durch mangelnde Erfahrung.
Aber immerhin, dann schon mal eine Baustelle weniger.
@Jan
Mich würde interessieren ob CB schon eine Zusage für ein Testexemplar oder möglicherweise sogar schon auf dem Tisch hat. Das war „zuletzt“ bei manchen Vorstellungen ja leider nicht immer glatt gelaufen seitens der Hersteller.
Gerade in Bezug auf das neue Design warten bestimmt viele erstmal die unabhängigen Tests ab.
Welchen Sinn ergibt es denn, über die Performance anhand der Anzahl der ALUs zu spekulieren, wenn über die Änderungen in der Architektur noch nichts bekannt ist?
Vielleicht hat AMD die einzelne ALU etwas abgespeckt, sodass im Gegenzug wesentlich mehr davon verbaut werden können und im Endeffekt die Performance besser wird als vorher.
Rein Taktbereinigt war Navi 20 auch etwas langsamer als der Vorgänger. Dafür war der mögliche Takt viel höher.