News Navi 31, 32 und 33: Handfeste Gerüchte zu AMDs Radeon RX 7000 mit RDNA 3

phanter schrieb:
Du vergisst dass man auch noch einen 600mm² Interposer braucht, also insgesamt 1200mm² Wafer. Und das bonding ist sicher auch nicht günstig.
Es wird also günstiger für AMD. Aber nicht ganz so viel wie du denkst. Es hat schon einen Grund warum Navi 31 monolithisch bleibt.
Ich wäre mir da nicht so sicher, dass man einen Silicon Interposer braucht. Hat man bei Ryzen und Epic doch auch nicht. Da ist es meines Wissens doch auch nur ein PCB. Falls wirklich Silicon nötig werden sollte, wird man eher in Richtung EMIB gehen, bzw das vergleichbare, das TSMC anbietet.

Der Grund bei Navi31 dürfte ganz einfach sein. Ein so kleines GCD (128mm²) hätte keine Vorteile mehr im vergleich zum monolithischen Aufbau. Man würde vielleicht eine Handvoll mehr GCDs raus bekommen, aber gleichzeitig damit die Fertigungsstraße zum zusammenfügen der Chiplets auslasten.
 
  • Gefällt mir
Reaktionen: GERmaximus und Viper816
NVIDIA konnte sich die absurde Marge über Mining und Samsungs sehr günstigen, weil alten und sonst recht unbeliebten, Prozess sichern.

NVIDIA ist mit einem Monolithen nicht unbedingt schlechter als AMDs erste GCD Generation, aber es könnte für NVIDIA sehr teuer werden. NVIDIA springt auch eigentlich fast 2 Nodes, während AMD 1 Node springt.

AMD könnte auch Probleme mit dem ganzen neuen Technologien bekommen, genauso wie NVIDIA mit dem für große Massenfertigung "untypisch" großem DIE in 5N.

Das wird echt spannend zu sehen wie Monolith vs. GCD in der anstehenden Gen ausgeht. Vor allem da man super bei AMDs Monolithen schauen und vergleichen kann.
 
  • Gefällt mir
Reaktionen: Zockmock und Beg1
Draco Nobilis schrieb:
Das wird echt spannend zu sehen wie Monolith vs. GCD in der anstehenden Gen ausgeht. Vor allem da man super bei AMDs Monolithen schauen und vergleichen kann.

Ich glaube, dass beide Hersteller am Ende wieder relativ dicht beieinander sind. In der aktuellen Generation ist AMD ja beim Stromverbrauch leicht vorne, hat aber eben auch das deutlich bessere Verfahren bei TSMC.

Außerdem glaube ich, dass AMD etwas Lehrgeld mit seinem Ansatz beim ersten Versuch bezahlen wird. Dafür wird sich das in den nächsten Jahren auszahlen. Irgendwann muss eben der Sprung kommen. Nvidia geht da wohl den sicheren Weg bei dieser Generation und verlässt sich zu einem großen Teil auf den Sprung durch TSMC.
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-, Draco Nobilis und Beg1
Veitograf schrieb:
ich bin gespannt, wie gut sich die neuen karten untervolten lassen. meine jetzige 6900xt läuft mit stock boost werten bei 200w.
Bitte immer TGP oder TBP dabei schreiben, 200W TGP wären nur ca 50W weniger, wenn du allerdings 200W TBP meinst, sind es 100W.
 
Der Artikel von Angstronomics ist rund und in sich stimmig. Das ist etwas was man zuvor vom aktuellen Stand der Gerüchteküche nicht sagen konnte. Ob allerdings alle Details passen werden wir sehen.

Das Absplitten von Cache und Memory-PHY ergibt Sinn. Während Logik bei 7 nm => 5 nm gut skaliert, skaliert SRAM schlecht und analoge Schaltkreise wie in den PHY gar nicht. D. h. AMD trennt gut skalierende von schecht skalierender IP, wie bei Zen 2.

Auch beim Packaging räumt Angstronomics mit den wilden Spekulationen aus der Gerüchteküche auf. Da wurde von Silizum-Interposern und der Anbindung der MCD mit Siliziumbrücken (6 Stück!) fabuliert. Angstronomics nennt TSMC InFO_oS als Advanced Packaging Verfahren. Das ergibt Sinn da es eine erheblich höhere Verbindungsdichte als ein gewöhnliches Substrat ermöglicht aber nicht zu teuer ist.

Zum Thema Größe des Infinity Caches: Hier hat Sam Naffziger in einem Interview ausdrücklich gesagt, dass AMD bei RDNA 3 den Infinity Cache besser nutzt. D. h. es werden nur noch Daten in Cache gepackt die davon profitieren. Deshalb gehe ich davon aus dass die 92 MByte für 4K genügen. Im Umkehrschluss sollte die 32 MByte bei der Navi 33 für eine merklich höhere Hitrate als bei der Navi 23 reichen.

Zum Thema längerer Weg: Zwischen GCD und MCD werden 0,1 mm Abstand sein und der GDC ist erheblich kleiner als Navi 21. Es hängt davon ab wie AMD den Cache auf dem MDC plaziert, ob der Weg wirklich länger als bei Navi 21 ist.

phanter schrieb:
Aber ich hätte größere Dies von AMD erwartet. Wenn AMD mit chiplet Design in N5/N6 gerade so auf ihre 600mm² kommt und NVidia in ihrer 4090 600+mm² in N4 monolithisch nutzt dann kann das fast nicht konkurrenzfähig sein.
Es kommt nicht auf die Chipfläche an, sondern was man damit macht.
Nvidia muss viel 5-nm-Chipfläche für IP opfern, die mit 5-nm nicht skaliert.
phanter schrieb:
Warum kein 600mm² GCD (oder 2x300) + interface chiplets.
Weil die Kosten nicht linear mit der Chipfläche skalieren, sondern überproportional anwachsen.
Man muss die Shader auch auslasten können und das Interface darf nichtzu breit werden, weil sonst sie Boards zu teuer werden
phanter schrieb:
So verspielt AMD ihren chiplet Vorsprung
Das werden wir sehen.

Es wurde noch rein gar nichts zur Performance gesagt. Alles sind Spekulationen, bei Nvidia gibt es von kopete7kimi Zahlen zu einem Benchmark. Bei AMD nichts.
phanter schrieb:
Du vergisst dass man auch noch einen 600mm² Interposer braucht, also insgesamt 1200mm² Wafer. Und das bonding ist sicher auch nicht günstig.
InFO_oS ist ein Wafer Level FanOut Verfahren das keinen Silizium Interposer benötigt, Man baut einen sogenannten organischen Interposers auf. Die Leiterbahnen sind nicht so fein wie bei einem Siliziumwafer, aber viel feiner wie auf einem gewöhnlichen Substrat. Es sind auf einer Ebene 250 Leiterbahnen je mm möglich. Das Bonding ist Teil des Prozesses, da die erste Ebene der Leiterbahnen direkt mit den Micro Bumps von GDC und MDC verbunden wird. In dem Artikel wird übrigens auch der Bump Pitch mit 35 µm angegeben. D. h. es sind je mm2 mehr als 800 Kontakte möglich.

Das Verfahren beruht darauf, dass nicht jede GPU einzeln bearbeitet wird, sondern viele gemeinsam. Dazu baut man sich einen Wafer mit den einzelnen Dies zusammen. Dabei werden die Dies so angeordnet man es für die GPU benötigt. Und das erzeugen der Leiterbahnen erfolgt gemeinsam für den gesamten Wafer. Deshalb Wafer Level. Fan Out heißt es weil die Leiterbahnen (RDL) aus der Fläche des Chips heraustreten.

Fan Out Verfahren werden sehr gerne bei Mobil Phone SoC verwendet. So verwendet Apple ebenfalls InFO_oS


whyme schrieb:
Ich wäre mir da nicht so sicher, dass man einen Silicon Interposer braucht. Hat man bei Ryzen und Epic doch auch nicht.
Da ist es meines Wissens doch auch nur ein PCB.
Ja.
Zen 2 verwendet schlich und einfach FlipChip. D. h. die Dies werden auf ein gewöhnliches Substrat gepackt. Substrate werden mit gewöhnlicher PCB-Technologie hergestellt.
whyme schrieb:
Falls wirklich Silicon nötig werden sollte, wird man eher in Richtung EMIB gehen, bzw das vergleichbare, das TSMC anbietet.
Das waren die Spekulationen in der Gerüchteküche. Hier verwendet AMD bei der MI200 EBF, was erheblich besser als EMIB ist. Das wird so viel ich weiß bei ASE umgesetzt. Bei TSMC heißt das InFO_LSI oder InFO_L. Aber Info_oS bietet ohne Silizium einen kleineren Bump Pitch als EMIB. Die Leiterbahndichte sollte allerdings höher sein.
Iconoclast schrieb:
wenn meine 6800XT in Raytracing Titeln teilweise von einer 3060 gebügelt wird. Wenn AMD da mit der 7000er Reihe nicht massiv aufholt, switche ich sofort zu Nvidia.
Du solltest Dein Sysprofile anpassen.
Ergänzung ()

Ayo34 schrieb:
Außerdem glaube ich, dass AMD etwas Lehrgeld mit seinem Ansatz beim ersten Versuch bezahlen wird.
Es ist nicht der erste Versuch.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Lamaan, Convert und 11 andere
@Taxxor die 200w ist der höchste wert den hwinfo mir anzeigt. ich meine, dass es gpu asic power oder tgp power ist. wobei die werte sich nicht wirklich unterscheiden.
igor hat doch mal einen test gemacht in welchem gezeigt wurde, dass das bei amd schwierig ist den kompletten verbrauch zu messen. aber mit hwinfo hat man zumindest einen vergleichswert.

wie testet eigentlich cb den verbrauch? einfach direkt an der steckdose als differenz oder nutzen die auch ein tool zum auslesen?
 
  • Gefällt mir
Reaktionen: Lamaan
Draco Nobilis schrieb:
AMD könnte auch Probleme mit dem ganzen neuen Technologien bekommen,
Wenn Angstronomics recht hat und AMD InFO_oS von TSMC verwendet ist keine neue Technik sondern ein verfahren das in hohen Stückzahlen läuft.
 
Bandyto85 schrieb:
"Handfeste" Gerüchte...das kann ein spaßiger Tag in diesem Thread werden, nachdem sich manche im AMD Ryzen 7000-Thread beinah an die Gurgel gegangen wären. 🍿
Ich finde es auch erstaunlich, dass Abstufungen der Qualität der Gerüchte eingeführt werden "Gerüchte werden bestärkt durch Gerüchte mit Substanz".

Benennt euch doch bitte in Kaffeeklatsch oder Gerüchteküche um.
 
  • Gefällt mir
Reaktionen: Nefcairon, Haldi und daknoll
HighPerf. Gamer schrieb:
Einfach erklärt bedeutet das, bei selber Performance RDNA2 zu RDNA3 wird der RDNA3 chip 50% bessere effizienz haben laut AMD.
Ich hoffe, dass dann auch endlich mal effizient Tests Einzug erhalten mittels FPS Cap. Einmal bei 60 FPS und einmal bei 144 und dabei den Verbrauch aller Karten messen. Bei exakt gleichen Grafik Einstellungen versteht sich.
 
  • Gefällt mir
Reaktionen: GERmaximus, Czk666, Orok91 und 6 andere
ETI1120 schrieb:
Es kommt nicht auf die Chipfläche an, sondern was man damit macht.
Nvidia muss viel 5-nm-Chipfläche für IP opfern, die mit 5-nm nicht skaliert.
Ist egal. Im allerbesten Fall ist AMD mit 600mm² N5+N6 genauso gut wie 600mm² N5. Und das ignoriert schon das SRAM gut mit N5 skaliert und die chip/chip Interfaces wegfallen.

Das heißt best Case sie haben keinen Nachteil.
Worst Case haben sie schon gegenüber monolithisch N5 einen Nachteil und die Gerüchteküche geht bei Nvidia von 600mm² N4 aus. Damit haben sie dann definitiv einen Nachteil.

Die Zen Architektur ist ja auch nicht interessant weil man 360 monolithisch auf 120+2*70mm² im Mainstream aufteilen kann. Sondern weil man nen fetten 1260mm² genoa bauen kann was monolithisch nicht möglich wäre.

Nvidia kann diese Generation maximal 800mm² N4 für ne Titan Super Ultra RTX nutzen. Mehr ist monolithisch nicht möglich (Und nutzen sie ja auch im H100). AMD hat schon in der MI250x gezeigt, dass sie 1480mm² können, und das ohne IO dies. Wenn sie also die technologie haben sollen sie diese gen mal klotzen und nen echtes Flaggschiff bauen. Selbst ne 2080 TI hatte 750mm² die size im Mainstream monolithisch.
 
lynx007 schrieb:
Warum macht man das dann? Ressourcen verschwenden, nur, weil man es kann? Mittlerweile sollte es doch bei jedem angekommen sein, dass die Ressourcen, die man diesen Planeten entnehmen kann, endlich sind.
Ich kann diese Binsenweisheiten und Halbwahrheiten nimmer hören, alles ist irgendwie endlich, Sonnenenergie ist auch nicht unendlich weil die Sonne irgendwann aus geht.

In anderen Bereichen haben wir nützlichere Definitionen von Worte wie z.B. Echtzeit, Echtzeit kann extrem ungenau sein, solange die Genauigkeit ausreicht für die Aufgabe die gegeben ist. Man hat also ein relativen Begriff Anhand des Ziels.

Genauso "verbraucht" man nicht Ressourcen, genauso wenig wie man Energie verbraucht, man wandelt diese nur um oder transportiert sie von A -> B und von B -> C wo A ein Bergwerk B der Endkunde und C die Müllhalde / Recyclinghof ist.

Der Stoff ist damit nicht verbraucht sondern nur in einem schwerer zu entnehmenden Zustand. Jeh knapper die Stoffe werden um so mehr lohnt sich es dann aber wieder diese Dinge zu recyceln bis hin zu Müllhalden aus buddeln. Das Nadelöhr ist dabei vermutlich auch Strom / Energie, aber diese ist theoretisch quasi unendlich da, zumindest potenziell, da auch hier sich das nur umwandelt vermutlich sogar unendlich, was passiert wenn die Sonne aus geht ist ne nette philosophische frage und vielleicht ist dann Energie praktisch endlich für uns, aber der Begriff von Endlichkeit ist so gigantisch das man nicht Angst davor haben sollte.

Fusionsreaktoren z.B. arbeiten mit so wenig Material das bis das Material aus geht sicher 10 weitere Reaktormodelle erfunden sind.

https://institut-seltene-erden.de/seltene-erden-durchbruch-beim-recycling/

Und wenn das Ineffizient ist ist es A absolut teuer und B schlechter in Preis/Leistung, das heißt AMD wird davon geringe Stückzahlen verkaufen und wenn man weltweit 2000 solcher Chips verkauft ist es egal ob man dort effizient ist wenn man aber hundert-tausende oder Millionen Mainstream-chips ineffizienter bauen würde, dann wäre es relevant. Das ist ungefähr so wie wenn man nen Autokonzern dafür kritisiert weil sie irgend ein Design-Auto das aus irgend einem Grund schlecht ist bauen und dann ins Museum stellen. Das fällt einfach nicht ins Gewicht, zumal ich dann hoffe das du keine SSDs benutzt denn wir haben ja gelernt das die ganz schlimm für die Umwelt seien viel Schlimmer als jede Grafikkarte.
 
  • Gefällt mir
Reaktionen: GERmaximus und Viper816
Maxminator schrieb:
Monolitisch ist mir da lieber.
Aber warten wir erst mal ab - AMD hat sich ja was dabei gedacht.
Ich kann mir aber schon vorstellen, dass AMD mit genau dieser Generation sehr viel Kopfschmerzen bekommen könnte: Stichwort Treiber und Ungleichmäßigkeit bei den verschiedenen Spiele-Engines...

Also a) du weißt schon das auch NV und Intel den Weg gehen werden?
Gedacht haben sich alle - Monolithisch geht es nicht weiter.
Deine Sorge ist unbegründet. Die MultiGPU ist fürs System eine GPU... Ich gehe nicht davon aus das Engines ungleichmäßig (schwankede Performance) bringen werden.
Was sein könnte - das eventuell eine Engine nicht so viel Leistung generieren können wie es in der Theorie sein sollte... Das heißt aber nicht das man da Performance technisch im ich muss Jammern Land unterwegs ist... Sondern ich gehe von aus das wenn in der Theorie 120 FPS möglich sein sollten "nur" 100 bekommt - weil was ungünstige intern abläuft...
Und dafür wird es im Zweifel dann auch Anpassungen geben. (Treiber Engine seitig)
Ergänzung ()

Rock Lee schrieb:
Schlagt euch diese Dual-Navi32-Geschichte bitte direkt aus dem Kopf.
Das würde insgesamt ein 512-bit Speicherinterface ergeben.
Eh nein. Es wäre nur ein 2ter Chiplet der sich das selbe Speicherinterface mit dem anderen teilt..
Ob das sinnig ist sei mal dahingestellt..
 
floh667 schrieb:
Ich hoffe, dass dann auch endlich mal effizient Tests Einzug erhalten mittels FPS Cap. Einmal bei 60 FPS und einmal bei 144 und dabei den Verbrauch aller Karten messen. Bei exakt gleichen Grafik Einstellungen versteht sich.

Vielleicht liest das ja Jan oder Wolfgang und findet die Idee gut. Aber im Grunde macht Wolfgang P/W Auswertungen bei neuen GPU Serien.
 
@Jan warum bezeichnest du diese Gerüchte als handfest? Sie ergeben doch an vielen Stellen einfach keinen Sinn.

Zum einen die winzigen Infinity Caches. Zum Beispiel Navi 32 mit 7680 ALUs und 256 bit Busbreite hätte selbst mit 20 Gbps GDDR6 nur 25% mehr Speicherdurchsatz für 50% mehr ALUs als noch bei Navi21. Und das auch noch bei halbiertem Inifinicy Cache. Wie soll das denn gut gehen?

Und dann noch die Chipgrößen. Navi 33 in N6 soll also deutlich kleiner sein als Navi 23 bei doppelter ALU Anzahl bei ansonsten gleich bleibender Busbreite und Infinity Cache? :lol:
Die Gerüchte lesen sich wie eine weitere wilde Ratestunde.
 
Maxminator schrieb:
und genau das ist es ja: deswegen hängt die Leistung zu 100% von den AMDs Treibern! Diese werden aber wesentlich von den jetzigen Treibern unterscheiden, werden wahrscheinlich wesentlich voluminöser.
Wahrscheinlich muss AMD dann fast jedes neues Spiel noch akribischer im Treiber berücksichtigen...
Nein müssen Sie nicht. Das ist ja das Geniale was AMD da gemacht hat. Altes SLI musste auf Treiber Ebene geregelt werden. AMD regelt das jetzt in der Hardware direkt und allgemein gültig. Für den Treiber ist das eine normale GPU.

Wobei da alle Karten nur 1 GDC haben ist noch gar kein "SLI Prinzip" what ever am Zug - also auch nicht intern.
 
  • Gefällt mir
Reaktionen: Haldi und edenjung
Oh das wird spannend. Dieses Jahr wird echt super für Hardware Freaks. Meine Wahl steht noch nicht fest welches Lager es wird und ob mit neuer CPU oder nicht. Denke aber Netzteil und GPU sollten reichen bei einem 3900x, evtl. einen 5800x3d drauf aber erstmal abwarten.
 
Iconoclast schrieb:
die Leistung auf der Straße lieber und mich nervt es jedes Mal, wenn meine 6800XT in Raytracing Titeln teilweise von einer 3060 gebügelt wird.

Welche Titel wären das?
 
  • Gefällt mir
Reaktionen: Lamaan und Nefcairon
ETI1120 schrieb:
Wenn Angstronomics recht hat und AMD InFO_oS von TSMC verwendet ist keine neue Technik sondern ein verfahren das in hohen Stückzahlen läuft.
Wie Intel ja inzwischen auch mitbekam ist Fertigung von TSMC nicht alles, Software und Architektur sind auch sehr wichtig. Daher ist es für mich noch unklar ob alles reibungslos läuft.
Selbst bei der Platine und den Controllern hatte Intel Probleme durch mangelnde Erfahrung.
Aber immerhin, dann schon mal eine Baustelle weniger.
 
@Jan
Mich würde interessieren ob CB schon eine Zusage für ein Testexemplar oder möglicherweise sogar schon auf dem Tisch hat. Das war „zuletzt“ bei manchen Vorstellungen ja leider nicht immer glatt gelaufen seitens der Hersteller.

Gerade in Bezug auf das neue Design warten bestimmt viele erstmal die unabhängigen Tests ab.
 
Welchen Sinn ergibt es denn, über die Performance anhand der Anzahl der ALUs zu spekulieren, wenn über die Änderungen in der Architektur noch nichts bekannt ist?
Vielleicht hat AMD die einzelne ALU etwas abgespeckt, sodass im Gegenzug wesentlich mehr davon verbaut werden können und im Endeffekt die Performance besser wird als vorher.
Rein Taktbereinigt war Navi 20 auch etwas langsamer als der Vorgänger. Dafür war der mögliche Takt viel höher.
 
Zurück
Oben