News AMD Navi 31 (RDNA 3): Ein Blick auf das mutmaßliche PCB der Radeon RX 7900 XT

owned139 schrieb:
Keine Ahnung. Im Grunde keiner, weil alles Leaks sind.
Verlink mal bitte deine Quelle.

Auf die Antwort hab ich gehofft und es mir fast gedacht 👍
 
Haldi schrieb:
Die werden ja wohl kaum einfach mit Geld in die Entwicklungsabteilung gestolpert sein und haben gesagt "Ey Leute guckt mal. Es läuft finanziel Rund. Stellt mehr Leute and und entwickelt einfach was tolles".
Die werden genau definierte Ziele gehabt haben die erreicht werden müssen.
Auf jeden Fall werden die genau definierte Ziele gehabt haben.
Haldi schrieb:
Sofern die nicht mit dem Schlachtplan "Wir wollen mehr marktanteil, wir müssen einfach stärkere und billigere Produkte als Nvidia anbieten. Unter allen Umständen! " gibt es keine schlüssige Argumentation wieso die Grafikkarten so viel mehr verbrauchen werden(¿) um so viel mehr Performance zu bekommen.
Ob für Endkonsumenten günstiger wird sich zeigen müssen. Dass AMD aber ihren Seiten einen Preis-Leistungs-Kracher bauen möchte ist glasklar. Die MCDs lagern einfach mal 225mm² Chipfläche aus. Das ist eine Hausnummer. Selbst wenn man annimmt, dass diese Blöcke sich noch halbwegs hätten schrumpfen lassen können, wenn sie auch in N5 gefertigt werden würden, wäre man sicherlich immer noch im Bereich über 150mm² gesparte Fläche. Das ist einfach ein Kracher.

Abseits dessen ist auch AMD sicherlich klar, dass sie mal langsam wieder eine Generation brauchen, in der sie Ton angebend sind:
CDLABSRadonP... schrieb:
AMD hatte das letzte Mal im Jahre 2009 mit Evergreen die technologische Führungsrolle inne. Seitdem war das für sie positivste ein Schlagabtausch, während Nvidia immer wieder Jahre oder zumindest Marktsegmente hatte, in denen sie frei wildern konnten. Fast während der gesamten Zeit von Maxwell hatten sie die freie Bahn und von AMD konnte währenddessen eine Karte in einer sehr speziellen Nische (die R9 Nano) rundherum überzeugen. Pascal war Nvidia-Dominanz in der Breite plus obendrauf freie Marktsegmente, Turing war Nvidia-Dominanz in der Breite plus obendrauf freie Marktsegmente. Jetzt sind wir gerade am Ende einer Ära des Schlagabtauschs und mit RDNA3 gibt es erstmals seit langem eine realistische Chance, dass AMD die Führungsrolle wieder übernehmen wird.
 
Zuletzt bearbeitet: (Formulierung korrigiert)
  • Gefällt mir
Reaktionen: simosh und Serandi
Cool Master schrieb:
Ich denke das wird dieses Jahr noch nicht zum tragen kommen ähnlich wie das mit Ryzen 1 war wird das denke ich noch 1-2 Generationen sprich 8xxx oder 9xxx dauern bis wir da wirklich den vollen Effekt sehen.

Ich denke in der nexten Gen... Was generell übel wäre, wenn sie es technisch schon könnten, dann könnten sie abwarten was NV liefert und später die Hosen runter lassen.
Aber ich bin ehrlich, es wird einen Grund haben wieso da im Moment nur ein GDC ist. Und trotzdem, bitte das ist kein light. Aus AMD Sicht hat auch das riesige Vorteile... Und wir als Kunden können zumindest hoffen das Kosten gespart werden und so attraktive Preise möglich werden...
 
owned139 schrieb:
Die rohen Leistungsdaten sind laut Leaks wie folgt:
Navi 31: 66.36 TFLOPS
AD102: 82.58 TFLOPS
Vorsicht bei diesen „Laborwerten“. Ich erinnere an die Radeon VII, die auf dem Papier ein Monster war und demnach die 2080Ti hätte schlagen müssen.
Ein Monster war sie am Ende auch - aber nicht 1:1 im Gaming, mit zum Teil ernüchternden Benchmarks.
 
  • Gefällt mir
Reaktionen: Haldi
3faltigkeit schrieb:
RDNA3 hat doch immernoch Infinity Cache. Nur etwas weniger. Wie kommen denn einige hier drauf, dass das AMD nicht mehr verbaut. Steht doch im Text und mehrfach in den Kommentaren. Wird das jetzt eine Art Running-Gag?
Also mich wunderts schon warum sie angeblich weniger Infinity Cache verbauen/brauchen. War nicht ein Argument für den Cache zusammen mit einem kleineren Bus die gesteigerte Effizienz? Ein 1-2 GCD Topmodell mit großem Infinity Cache hätte mich sehr interessiert, auch bei vorhersehbar hohen Preisen.

Gespannt bin ich auch sehr auf den Vergleich mit den RTX 4080/90, manche Leaks sprachen von massiv vergrößerten Caches, trotz breitem Bus.
 
klpp schrieb:
Immer wieder amüsant wo Igor die Infos herzaubert.
AMD soll mal bitte Fahrt aufnehmen, meine Geldbörse juckt.
Wieso? Der zaubert nicht... Seit Jahren ist er einer der wenigen der wenn er Infos hat diese sehr häufig Hand und Fuß haben. Im dt. sprachigen Raum kenne ich keinen der so ne technische Expertise mit bringt... Schon das alleine öffnet Ihm bestimmt an der ein oder anderen Stelle die Türe...

NV beißt sich sicherlich in den Hintern... Hätten Sie mal Ihr letztes Platinen Layout (war es die 3090TI?) früher ihm gezeigt... Dann hätte es Hand und Fuß gehabt....
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Veitograf und simosh
Epistolarius schrieb:
Also mich wunderts schon warum sie angeblich weniger Infinity Cache verbauen/brauchen.
Wie gesagt:
CDLABSRadonP... schrieb:
→ Wahrscheinlich wird AMD entsprechend den Cache noch stärker in Richtung niedriger effektive Latenzen und höhere Bandbreite getrimmt haben. Vielleicht ist das alles mit einer Geschwindigkeitsverdoppelung verbunden?
Doppelt so schneller L3-Cache wäre mit Sicherheit in den meisten GPU-Anwendungen einem doppelt so großen Cache vorzuziehen. Das könnte eine Erklärung sein. Abseits dessen hat AMD ja anscheinend auch mit einer V-Cache-Lösung experimentiert.
Epistolarius schrieb:
War nicht ein Argument für den Cache zusammen mit einem kleineren Bus die gesteigerte Effizienz?
Auf der Folie wurde angegeben, dass 256bit+InfinityCache weniger Leistungsaufnahme als 384bit ohne Infinity Cache und mehr Performance als 512bit ohne InfinityCache bieten würde. Dennoch kann natürlich sein, dass sich 384bit+InfinityCache auch lohnt; das ist kein Widerspruch.
Epistolarius schrieb:
Gespannt bin ich auch sehr auf den Vergleich mit den RTX 4080/90, manche Leaks sprachen von massiv vergrößerten Caches, trotz breitem Bus.
Nvidia wird allen Gerüchten zufolge den L2-Cache vergrößern, statt einen L3-Cache hinzufügen. Wahrscheinlich müssen sie für die L2-Cache-Vergrößerung diesen aber verlangsamen. Wie stark verlangsamen, das ist hier die Frage.
 
Epistolarius schrieb:
Also mich wunderts schon warum sie angeblich weniger Infinity Cache verbauen/brauchen. War nicht ein Argument für den Cache zusammen mit einem kleineren Bus die gesteigerte Effizienz?
Ich erinnere mal daran, es gab Zeiten da haben sowohl NV als auch AMD durch interne Kompression große Mengen an Daten "gespart" im RAM damals noch... Vielleicht haben sie was ähnliches im Cache gemacht...
Oder aber Sie beschränken sich nun nur auf bestimmte Arten von Daten die sie überhaupt noch im Cache halten..
 
Bin echt gespannt wer die Nase vorne hat. Auch was RTX betrifft. Also raytracing das nicht direkt für die Nvidias ist. Weiss nicht auf was ich sparen soll. Denke ein wenig mehr wenn's die 4090 wird. Da wird ja mein 1200w Netzteil reichen laut leaks.
 
Laphonso schrieb:
Vorsicht bei diesen „Laborwerten“.
Auf jeden Fall. Karten können in der Gamingpraxis etwa gleichauf sein, obwohl ihre FP32er-TFLOPS drastisch auseinanderliegen. Die 6900XT hat ja zum Beispiel etwa ein Drittel weniger FP32er-TFLOPS als die 3090 bzw. die 3090 etwa die Hälfte mehr, dennoch liegen sie ziemlich gleich.
Laphonso schrieb:
Ich erinnere an die Radeon VII, die auf dem Papier ein Monster war und demnach die 2080Ti hätte schlagen müssen.
Da hast du allerdings wohl falsche Daten im Kopf, die Radeon VII und die 2080ti hatten quasi identische FP32er-TFLOPS-Werte. Entsprechend hätte sie der falschen Logik nach, dass sich FP32-TFLOPS 1:1 in Gamingleistung übersetzen lassen würden, gleichauf mit der 2080ti sein "müssen".
 
Zuletzt bearbeitet: (Ausdetailliert)
  • Gefällt mir
Reaktionen: Illithide, Veitograf, Haldi und eine weitere Person
RogueSix schrieb:
Im Bereich GPU ist die inhärente Latenzproblematik wegen der extremen Parallelisierung um ein Vielfaches kritischer als im CPU-Bereich.Auch die Problematik der Lastverteilung dürfte nicht einfacher werden.
Dass die Latenzproblematik bei GPUs tatsächlich viel weniger ist als bei GPUs wurde dir ja schon von mehreren Stellen aus gesagt. Auch den Beitrag von DevPandi vor deinem Post hättest du dir durchlesen müssen. Und die Lasterverteilung ist zwar auch ohne GCD-Chiplets schwierig, aber daran kranken beide Hersteller bei den hohen Shaderzahlen. Hat also nichts mit AMD zu tun
RogueSix schrieb:
Warum arbeitest Du nicht bei AMD, Intel oder nVidia und zeigst denen mal, wie locker und flockig man das umsetzen kann?
Die Aussage ist echt heftig, wenn jeder Hersteller es genauso sieht wie derjenige, dem du das an den Kopf wirfst.
owned139 schrieb:
Die rohen Leistungsdaten sind laut Leaks wie folgt:
Navi 31: 66.36 TFLOPS
AD102: 82.58 TFLOPS
TPU geht aber anscheinend von sehr niedrigen Taktraten bei AMD aus. Das kann ich mir beim besten Willen nicht vorstellen. Alleine der Prozess N5 erlaubt die gleiche Taktrate bei doppelt so vielen Shadern, mit dem gestiegenen Powerlimit und den Architekturverbesserungen sollte das weiter nach oben gehen. Bei Nvidia geht TPU von gestiegenen Taktraten aus.
 
RogueSix schrieb:
P.S.: Zur Lastverteilung solltest Du vielleicht mal selbst googlen und zum Beispiel auch mal an die ASync Compute Problematik zurückdenken. Es ist keineswegs trivial bei den tausenden von in Clustern organisierten Cores moderner GPUs diese so auszulasten, dass die maximale Performance dabei herauskommt. Es dürfte klar und logisch sein (OK, für Genies wie Dich ist auch dies vermutlich trivial, aber ich meine jetzt für normal begabte Ingenieure ;) ), dass sich diese Problematik noch mal verschärft, wenn die Cluster auf unterschiedlichen Dies liegen und dass dann eben auch die Latenzproblematik sehr vordergründig wird.

Oh, den deutlich später reineditierten Teil hab ich ja garnicht gesehen.... Wenn man das auch 10 minuten später und nachdem schon jemand anderes gepostet hat einfügt, kann so etwas mal passieren.

Du musst dich mal mit RDNA3 etwas näher beschäftigen und auch an deiner Lesekompetenz arbeiten. Das was du da schreibst, mag zwar stimmen, aber eben noch nicht für RDNA3.
Ich kann es nur noch einmal wiederholen. RDNA3 wird sehr wahrscheinlich nur ein Compute Die bekommen. Es sind noch keine Rechencluster auf unterschiedlichen Dies. Deshalb ist der Punkt Lastverteilung Irrelevant und es bleiben all die Techniken relevant die auch schon bei RDNA2 verwendet werden um die Auslastung der GPU zu erhöhen.

btw, Dein Diskussionsstil Deine Art ist unter aller Sau. Bist du im RL auch so, wenn dir jemand etwas versucht zu erklären von dem du offensichtlich keine Ahnung hast und dich null damit befasst hast?
 
  • Gefällt mir
Reaktionen: Icke-ffm, Illithide, Veitograf und 2 andere
CDLABSRadonP... schrieb:
Da hast du allerdings wohl falsche Daten im Kopf, die Radeon VII und die 2080ti hatten quasi identische FP32er-TFLOPS-Werte. Entsprechend hätte sie der falschen Logik nach, dass sich FP32-TFLOPS 1:1 in Gamingleistung übersetzen lassen würden, gleichauf mit der 2080ti sein "müssen".
Die Theoriewerte waren tatsächlich fast 1:1, aber bei Speichereurchsatz lag die RVII (~ 1000 GB/s) deutlich vor der 2080Ti (~ 600 GB/s). Das war der Wert, der mir entfallen war in welchem die RVII quasi einen rechnerischen Generationsvorsprung hatte, auf der, Papier.
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
https://www.techpowerup.com/gpu-specs/radeon-vii.c3358

Diese Gleichwertigkeit finden wir im Gaming nicht, darauf wollte ich hinaus. Die Gesamtarchitektur entscheidet und wie sie im Gaming Übersetzung findet.
 
RogueSix schrieb:
Warum gibt es dann nicht schon seit vielen Jahren Multicore GPUs
Weil dieses Missverständnis immer wieder auftritt: Es gibt seit Jahren Multicore-GPUs.
Spätestens der G80 (als erstes auf der 8800 GTX) aus dem Jahre 2006 kann dank der UnifiedShader problemlos als 128-Kern-Multicore-GPU gesehen werden. Wahrscheinlich hätten aber sogar schon diverse vorher diese Bezeichnung verdient gehabt, das ist aber diskutierbar.
Entsprechend gibt es aber keine Lücke der Art warum sind sie bei CPUs so früh drauf gekommen und bei GPUs immer noch nicht?, sondern sie sind seit Ewigkeiten drauf gekommen.
RogueSix schrieb:
Warum gibt es dann nicht schon seit vielen Jahren Multicore GPUs mit vielen, vielen Chiplets, um die Performance bis in die Petaflops zu treiben? Ist ja laut Dir doch total einfach. Bissl IMC und Cache auslagern und los...
Das, was du meinst, ist hingegen eine Multi-DIE-GPU oder eben eine Chiplet-GPU. Bei Prozessoren gab es das mit identischen DIEs schon früh, für Consumer berühmt sind die Core2 Quad (Kentsfield, Yorkfield, Penryn-QC) und bei den frühen DesktopRyzen (Summit Ridges, Pinnacle Ridge) wurde das wieder aufgegriffen.
Matisse hat hingegen etwas neues gebracht mit der Auslagerung von Speichercontrollern und der Northbridge. Matisse kam 2019, RDNA3 kommt in diesem Jahr. Es sind also bloß drei Jahre, die dazwischenliegen.

Natürlich ist es für AMD, die schon mit dem Auslagern von Speichercontrollern bei CPUs geübt haben einfacher, jetzt auch Speichercontroller bei GPUs auszulagern. Ebenso haben sie mit ihrem V-Cache-Experiment erstmals L3 in etwa gleicher Geschwindigkeit wie integrierten Cache ausgelagert. Entsprechend sind bei ihnen beide Erfahrungen vorhanden und von daher ist es für sie relativ leicht.
 
  • Gefällt mir
Reaktionen: McTheRipper und Colindo
Colindo schrieb:
TPU geht aber anscheinend von sehr niedrigen Taktraten bei AMD aus. Das kann ich mir beim besten Willen nicht vorstellen. Alleine der Prozess N5 erlaubt die gleiche Taktrate bei doppelt so vielen Shadern, mit dem gestiegenen Powerlimit und den Architekturverbesserungen sollte das weiter nach oben gehen. Bei Nvidia geht TPU von gestiegenen Taktraten aus.
Naja, bei den ersten Leaks wurden AMD und Nvidia eine relativ hohe Rohleistung attestiert, welche beiderseits mit jedem neuen Leak immer weiter nach unten korrigiert wurde. In den aktuellsten Leaks ist die Leistung der RDNA3 Karten auf dem Papier niedriger.

Hier ist von 92 TFLOPS die Rede:
https://wccftech.com/amd-radeon-rx-7900-xt-rdna-3-navi-31-gpu-graphics-card-100-tflops-3-ghz-rumor/
Aber da stimmen die Angaben zum Verbrauch halt weder bei Nv, noch bei AMD.

Hier ist zum Beispiel von 350W die Rede und die Leaks sind von gestern:
https://wccftech.com/amd-radeon-rx-...iple-8-pin-connector-24-phase-power-delivery/
Und Nvidia pumpt wohl mindestens 450W in ihr Flagschiff. Einen Fertigungsvorteil hat AMD in dieser Gen. auch nicht mehr, weil beide wohl auf 5NM TSMC setzen.
 
Zuletzt bearbeitet von einem Moderator:
@owned139 Ja, das hatte ich mitbekommen. Da sind aber gleichzeitig auch die Shaderzahlen weiter nach unten korrigiert worden. Das liegt auch an der sehr schlechten Qualität der Leaks in den letzten 12 Monaten. Ich denke aber, dass die Taktraten doch etwas besser eingeschätzt werden können.

Wenn die Karten raus sind, wäre es mich da auch sehr interessant, ob beide Hersteller Karten mit ähnlich viel Shader gleich hoch takten können. Würde Aufschluss über das Transistordesign liefern.
 
Laphonso schrieb:
Die Theoriewerte waren tatsächlich fast 1:1, aber bei Speichereurchsatz lag die RVII (~ 1000 GB/s) deutlich vor der 2080Ti (~ 600 GB/s). Das war der Wert, der mir entfallen war in welchem die RVII quasi einen rechnerischen Generationsvorsprung hatte, auf der, Papier.
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
https://www.techpowerup.com/gpu-specs/radeon-vii.c3358
Ganz ehrlich: Dass die Karte kein 3.072bit-Interface, sondern das volle 4096bit-Interface hatte, lag eher an Marketing und EconomyOfScale als sonst etwas. Mit 3072bit hätte die Karte dann bloß 12GiB gehabt und das wäre einfach zu nah an der 2080ti gewesen. Wer hätte die Radeon VII dann überhaupt noch gekauft? Oder sie hätte 24GiB haben müssen und das wäre für AMD richtig teuer geworden, hätte also auch keinen Sinn ergeben. Vor allen Dingen spart man bei HBM auch keine Leiterbahnen auf der Karte, wenn man das Interface verkleinert, das heißt es wäre wirklich nur ein HBM-Package gewesen, das hätte eingespart werden können. Und selbst für dieses hätte es dann noch einen auf passende Höhe gefertigtes Dummy gebraucht, das den Platz des fehlenden vierten Packages eingenommen hätte. Da ist es einfach viel gewesen, der Karte das volle Interface und die 16GiB zu verpassen, auch wenn die Bandbreite im Gaming kaum irgendwo einen Nutzen hatte.

Mein Fazit ist daher: Die FP32er-TFLOPS war ähnlich aufgestellt, die Speicherbandbreite nur aus externen Gründen so hoch. Die Abweichung zwischen FP32er-TFLOPs und Gamingleistung bewegte sich unter den Umständen in einem vollkommen normalen Rahmen.
Laphonso schrieb:
Diese Gleichwertigkeit finden wir im Gaming nicht, darauf wollte ich hinaus. Die Gesamtarchitektur entscheidet und wie sie im Gaming Übersetzung findet.
Das unterschreibe ich auch absolut.
 
  • Gefällt mir
Reaktionen: Laphonso
Ayo34 schrieb:
... ich will Leistung unter 250 Watt. Mal schauen ob AMD oder Nvidia da mehr bieten kann.
Dann solltest du einfach ein 350W Modell nehmen und selbst Hand anlegen, wird immer mehr bei rsuskommen als in der orginären 250W Klasse.
 
owned139 schrieb:
Und Nvidia pumpt wohl mindestens 450W in ihr Flagschiff. Einen Fertigungsvorteil hat AMD in dieser Gen. auch nicht mehr, weil beide wohl auf 5NM TSMC setzen.
Letzte Leaks sprechen von N4 für Ada, der aber halt enorm ähnlich zu N5P für das RDNA3-GCD ist.
 
Zurück
Oben