News RDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an

matty2580 schrieb:
Theoretisch müsste ein MCM Design, ab einer gewissen Größe, immer günstiger sein als ein monolitisches Design, da die einzelnen Chips viel kleiner ausfallen, und die Yields besser sind.

D.h. eigentlich müssten die GPUs so gar günstiger werden, wenn AMD den eigenen Preisvorteil an den Endkunden weiter gibt.
Wenn denn die Entwicklung und Herstellung nicht teuerer werden.
Wobei ich da gewisse Symbiosen aus der Zen Erfahrung vermute
 
Cyberfries schrieb:
Leider falsch, MCD steht für Multi Cache Die.
GCD ist immer noch ungeklärt, könnte genausogut für Graphics Complex Die stehen analog zu Ryzen
Lediglich der Bezug war nicht der richtige.

-MCD-Design = "Multi Chip Die"-Design
Parallel zu MCM = "Multi Chip Module"
Quelle
Im Artikel wird mit MCD ein "Multi-Cache-Die" angenommen. Eine offizielle Folie dazu finde ich genauso wenig wie zu GCD.

-GCD wurde zuvor auch als "Graphics Complex Die"gehandelt,
die Mehrzahl der Technews geht derzeit aber von "Graphics Core Die" aus

Dass hier das Multi Chip Cache gemeint war und es ein Kürzel für mehrere verwandte Begriffe gibt zeigt das praktische Problem, wenn ein Ausschreiben relativ unbekannter Begriffe gleich nach dem Kürzel wegbleibt. (Ich war ja offensichtlich nicht der einzige damit). Wenn irgendwann im Text dann der richtige Begriff auftritt, wird er nicht mehr zuverlässig als solcher erkannt.
Wenn ich etwas nicht kenne, schlag ich nach. Und damit hab ich schon eine Fehlerquelle drin.

Ich hoffe du erkennst die Intention nach Klärung denn normalerweise antworte ich nicht auf Posts die mit "falsch" beginnen.
 
Zuletzt bearbeitet:
Colindo schrieb:
Meinst du, bei gleicher Auflösung werden zukünftige Spiele so viel mehr VRAM verbrauchen? Weil mit dem Sprung auf 5K und höher kannst du den IC jetzt schon in die Knie zwingen, und AMD hat genau angegeben, wieviel der in welcher Auflösung bringt. Meinst du es wird in 4K in Zukunft knapp?
Ich geh davon aus, dass zur Kernlebenszeit (also bis zur neuen Generation) der VRAM- Verbrauch deutlich unter seinen Grenzen bleiben wird. Insofern wird das dann eher ein Thema für diejenigen, die nicht direkt auf die nächste Generation aufrüsten werden.

Wobei der Innovationsdruck in Sachen AI und Realtime Raytracing auch den Aufrüstdruck in nächster Zeit weiter erhöhen wird. Somit könnte RDNA2 "verhungern", noch bevor es Titel gibt, die den VRAM auch sinnvoll verwerten würden.

Ungewohnte Situation, die wir so schon lange nicht mehr hatten...
 
  • Gefällt mir
Reaktionen: Colindo
Läuft das dann wie Crossfire also dass das erst unterstützt werden muss, oder wie wird das Problem gelöst?
 
GERmaximus schrieb:
Wenn denn die Entwicklung und Herstellung nicht teuerer werden.
Ja, R&D wird mit Sicherheit teurer werden.
Aber Nvidia und AMD geben diese Kosten an die Endkunden weiter und konnen trotzdem ihre Margen steigern.
Und wie geschrieben gibt es bei MCM einen Kostenvorteil bei AMD.
Ob sie den an den Endkunden weiter geben bleibt offen....
Oder sie haben bei gleichen Preis mehr Marge, was auch eine Option für AMD wäre. ^^
 
Ich hoffe dass Valve/AMD sich genug Plätze bei TSMC reservieren konnten für das Steamdeck!
Diese Karten werden eh wieder soviel kosten wie ein gutes gebrauchtes Auto.
 
Crifty schrieb:
Wenn die 6800XT UVP 649€ im Jahr 2020 gekostet hat, wird eine 7800XT im Jahr 2022 keine 499€ kosten, allein schon wegen der Inflation nicht. Auch wenn träumen schön ist, aber realistisch gesehen ist das sehr weit weg. Wenn sie den Preis nicht erhöhen, dann sind wir schon mal wieder einen Schritt weiter. Ich gehe von 699-730€ aus
Ich schrieb ja auch wenn es zu einem Preiskampf kommt. Ich glaube schon das 2022 bei 499 noch so einiges an Marge für AMD und Nvidia bei einer 7800xt oder 4080 hängen bleibt. Ich bin mir auch ziemlich sicher dass ohne Pandemie und knappheiten die UVP in dieser Generation immer noch Recht hoch ist. Man siehe sich die UVP von Vega mit dem teueren HBM Speicher an.
Vielleicht kann hier jemand aus dem Forum etwas Licht in die Sache bringen und und erzählen was die GPUs und GddrRAM kostet. Um eine Vorstellung zu bekommen. Ich habe Mal gelesen das z.b. die Snapdragon Socs so um die 30-40 Euro kosten sollen. Dann wird eine GPU wohl auch deutlich unter 100 Euro kosten. Der RAM wird sicherlich auch nicht 30 Euro/GB kosten und Board sowie Kühlung etc. werden sicherlich auch keine 300 Euro kosten.
Klar kann man die Preise nicht 100% wissen aber ca. Werte würden schon reichen.
Bei Mercedes kostet eine A Klasse in der Herstellung auch nur so um die 8000 Euro und wird für das x fache verkauft. Ich denke ähnlich ist es auch bei Hardware. Immerhin muss AMD der Partner, der Großhandel und der Händler verdienen.
Ergänzung ()

.Sentinel. schrieb:
Die Chiplets haben im rein rasterbasierten Szenario aber technisch massive Nachteile und Hürden zu nehmen, was die Kommunikationsstrukturen anbelangt.
Wird sich das nicht erledigt haben sobald man von Rasterizing komplett zu RT übergeht? Vielleicht kommt das jetzt doch viel schneller als gedacht???
 
ThePlayer schrieb:
Wird sich das nicht erledigt haben sobald man von Rasterizing komplett zu RT übergeht? Vielleicht kommt das jetzt doch viel schneller als gedacht???
Dafür müssten alle Spiele ja komplett auf RT setzen, dann könnte man mit keiner aktuellen GPU mehr was anfangen. Das wird noch sehr lange dauern.
 
danyundsahne schrieb:
Da freu ich mich riesig, wenn es hier mal wie bei den CPUs der Spieß umgedreht würde. Ich gönne es AMD.
Auch wenn NV sehr stark bleiben wird, AMD darf auch mal stärker sein ;)
Naja, am Ende sehe ich nVidia trotzdem aufgrund der Marktpositionierung und moeglichen/teilweisen Samsung-Chipproduktion mit deutlich hoeheren Fertigungskapazitaeten (und evt. geringeren Fertigungskosten) insgesamt trotzdem kommerziell deutlich erfolgreich dastehend, selbst wenn technisch das AMD/RTG Produkt bzw. die RX 7000er Reihe dem nVidia Gegenstueck (Ada Lovelace/RTX 4000er GPUs) ueberlegen sein sollte.

Das ist eben der Wermutstropfen, aehnlich wie bei den CPUs (wo Intel ja eben auch i.d.R. mehr fertigen und besser liefern kann als AMD), und dass Lovelace Chips grossvolumig und evt. guenstiger den Markt fluten koennten anstatt schrittweise/schnellstmoeglich Lovelace mit noch staerkeren Hopper GPUs zu ersetzen (per Refresh/Super-Version etwa) um staerkeren RDNA3 Karten etwas entgegen zu setzen, wurde auch vor kurzem von Tom (der immer noch mit der "Bergamo" Aussprache kaempft)/Moore's Law is Dead ins Spiel gebracht:


Das Problem wird die Verfuegbarkeit sein und natuerlich werden zum Marktstart nicht genuegend GPUs von sowohl nVidia (also Ada Lovelace/RTX4000er) als auch AMD/RTG (RDNA3/RX 7000er) zur Verfuegung stehen (es spielt eigentlich keine Rolle, welche zuerst kommen werdenin 2022), um die Nachfrage/den Bedarf decken zu koennen, das kann man sich jetzt wohl schon ausmalen (ebenso wie einen deutlichen Preisanstieg) und daher leiste ich mir dahingehend kein Wunschdenken.

Mit etwas Glueck werden dann die RTX Ampere und RDNA2 GPUs preislich akzeptabler und verfuegbarer, aber natuerlich haengt das auch davon ab wieviel vorab schon von den kommenden GPUs evt. direkt (fuer mehr Geld/hoehere Marge) an Mining-Konsortien, Scalper, OEMs, usw. geliefert werden, bevor normale Haendler und Endverbraucher auch nur eine Chance haben werden zu erwerben.

Der Aufschrei und die Entruestung werden vermutlich wieder gross werden und viele durch den Kakao gezogen werden, aendern wird man es wohl nicht (mehr) koennen, auch wenn Intels dGPUs relativ erfolgreich am Markt platziert werden sollten, sehe ich dadurch leider noch keine Trendwende in der Verfuegbarkeits- und Preisentwicklung bei (Gaming-)Grafikkarten ... eher "wishful thinking" ;).
 
Zuletzt bearbeitet:
Nureinnickname! schrieb:
Nein. Die GPU soll trotz mehrerer Chiplets als eine GPU erkannt werden und es dann intern selbst verteilen. Das System/ Spiel merkt davon also garnichts...

Selbst wenn es nicht so wäre wäre es trotzdem schneller da die Verbindung über den Interposer / CacheBridge deutlich schneller ist als über bisherige Lösungen. Schade eigentlich dass man nie wirklich auf Checkerboardrendering und schnellere Verbindungselemente wie NV-Link gesetzt hat da dies schon einen Großteil der Probleme von Crossfire/SLI beseitigt hätte.
Ergänzung ()

Chismon schrieb:
Ja sehe ich auch so - ist vor allem bei OEMs ein wichtiges Kriterium und machen vor allem mit Notebooks die Masse aus. Ist aber auch AMDs Schuld hier nicht aggressiver Kapazitäten zu kaufen auch wenn es für weitere Kapazitäten die durchschnittliche Marge reduziert.

So gut Lisa SU auch ist habe das Gefühl sie will jetzt nichts mehr oder wenig riskieren und fährt die sichere Schiene die gute Margen, Gewinne und ein Wachstum liefern aber nicht das maximale herausholen. Eben die Shareholder mit den klassischen Kennzahlen beglücken. Mit etwas mehr Risiko und einer geringeren Durchschnittsmarge / Grenzmarge könnte man den Gesamtgewinn und die Marktanteile sicher stärker steigern... Glaube nicht man hat wirklich nicht mehr Kapazitäten generell bekommen...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: CyrionX und Chismon
Taxxor schrieb:
Dafür müssten alle Spiele ja komplett auf RT setzen, dann könnte man mit keiner aktuellen GPU mehr was anfangen. Das wird noch sehr lange dauern.
Vielleicht wird das ja zweigleisig gefahren. Oder die RT Effekte nehmen stark zu so das der Raster Part ganz klein ausfällt.
Aber bisher sind das alles noch Gerüchte. Und wer weiß vielleicht hat ja AMD eine elegante Lösung um diese Performance Problem im Zaum zu halten. Oder sie hoffen bis da hin FSR soweit zu haben das es bei sehr guter BQ so wie DLSS das Manko ausgleicht.
Wird jedenfalls spannend.
 
Vitali.Metzger schrieb:
Die Überraschung war dann groß
Na das war ja auch für einen realistischen AMD-Fan ausserhalb der Vorstellungskraft. Für mich wäre es schon ein Erfolg gewesen wenn die 6800XT 10% unter der 3080 rangiert hätte. Aber heutzutage ist AMD eben immer für eine Überraschung gut. Und frei nach Wowereit: ... und das ist auch gut so.
 
Verbrauch? 750W +?
 
DevPandi schrieb:
Das große Problem bisher war immer, dass man für bestimmte Schritte auch die Schritte der anderen brauchte und so gewisse Daten für alle Verfügbar sein sollten.
Da gab es auch glaube letztes Jahr hier auf CB einen Bericht zu dem Paper der den Infinity Cache beschreibt. Und wenn ich mich nicht irre ging das auch in die Richtung MCM und das es die Latenzen und Kommunikation zwischen den Chiplets deutlich verbessern würde. Vielleicht hat da AMD irgendwas noch gefunden was die Problematik des Wartens auf Daten des anderen Chiplets stark abmildert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Wow... AMD legt echt ein unglaubliches Tempo an den Tag... Hätte ich nicht gedacht das schon wieder alles umgekrempelt wird. Wie man sieht hat sich das auch bei Big Navi ausgezahlt. Die sind verdammt schnell geworden und durch die neuen Treiber haben die mittlerweile nochmals ordentlich zugelegt. Auch wenn es hier und da noch etwas zwickt oder zwickte in so manchem Game läuft es vor allem in DX12 und Vulkan eigentlich immer super...

Auch die Referenzkarten sind mittlerweile richtig gut... Vor allem auch was Kühlung anbelangt.
Wenn man da etwas weiter zurück blickt, ist einem so mancher Heißluftturboföhn immer noch ein Begriff...

Wie immer, müssen sich diese Daten in Tests beweisen und man wird sehen wohin die Reise geht in Sachen Leistung, Verbrauch und wie viele Euros wir dafür hin blättern sollen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und GERmaximus
andi_sco schrieb:
@SV3N gab es damals dafür eigentlich gute Gründe, 512 Bit fallen zu lassen?

ja brauch viel chipfläche und verbraucht sehr viel strom soehe Hawaii.
 
  • Gefällt mir
Reaktionen: andi_sco
Rock Lee schrieb:
Immerhin reden wir hier von jemanden, der mit Lederjacke Grafikkarten aus einem Backofen holt
Also so wie du das schreibst hört sich das einfach nur lächerlich komisch an.
Musste echt lachen! :daumen:
Dabei habe ich die Präsentation letztes Jahr Live gesehen.
 
  • Gefällt mir
Reaktionen: GERmaximus, Benji18 und Rock Lee
FreedomOfSpeech schrieb:
Da Nvidia Lovelace auch bei TSMC in 5nm fertigen lässt bin ich sehr gespannt auf einen Vergleich. Der Samsung 8nm ist ja offensichtlich nicht so taktfreudig und sehr stromfressend.

Um die 2100MHz sind machbar, bei Big Navi sieht man teilweise über 2700MHz.
Mit 5nm TSMC wird denke ich die 3GHz Grenze fallen, und das bei beiden.

Dann sind beide High-End Karten wieder ungefähr gleich schnell.
Die Frage wird weniger der Prozess sein, sondern ob Nvidia mit Lovelace auch schon den MCM-Ansatz verfolgt oder das (noch) monolithisch bleibt. Wenn letzteres der Fall ist, dann könnte das für Nvidia IMO in der nächsten Gen ziemlich übel werden - sofern RDNA3 tatsächlich diese massive Shaderpower hat.
 
Matthias B. V. schrieb:
Klingt auf jeden Fall gut. Ist jemand technisch versierter und kann sagen wieso man von CUs weg geht und diese neu struturiert?

  • Skalierbarkeit / Effizienz durch gezielteres ansteuern und abschalten oder boosten.
  • Bessre Auslastung durch Auflösen eines Bottlenecks bei gewissen Rechenoperationen wie beispielsweise Nvidia mit deren INT32 / FP32 bei Ampere.
Mehr Shader pro Einheit erleichtert die Top-Level-Koordination im Chip. Also man muss weniger WGPs ansprechen als vorher CUs und kann die Aufgaben deswegen besser verteilen. Das Ganze hat den großen Nachteil, das jede Aufgabe gleichzeitig deutlich komplexer werden muss, um die vielen Shader pro WGP auch zu füttern. An dem Problem krankt Nvidia zurzeit. Das ist so ein bisschen das Gegenteil von dem, was du da vermutest.
Matthias B. V. schrieb:
Auch wird es interessant sein ob die 512MB Cache in höheren Auflösungen ausreichen. Gerade bei QHD und 4K jat man ja die fehlende Bandbreite trotz InfinityCache gemerkt.
64MB Infinity Cache sind Stand jetzt absolut ausreichend für WQHD und 4K. Selbst bei 4K gibt es eine Trefferquote von 58%, das heißt über die Hälfte der Bandbreite wird eingespart. Der Cache ist nämlich primär das: Ein Bandbreitensparprogramm. Nicht Latenzen, wie hier jemand schrieb.
FreedomOfSpeech schrieb:
Da Nvidia Lovelace auch bei TSMC in 5nm fertigen lässt bin ich sehr gespannt auf einen Vergleich. [...] Dann sind beide High-End Karten wieder ungefähr gleich schnell.
Nvidia hat zurzeit kein Hochtaktdesign. Damit beide Chips in N5 gleich hoch takten, müsste Nvidia die gleiche geniale Idee bekommen wie AMD sie letztes Mal hatte. Das ist schon unwahrscheinlich. Aber interessant ist es trotzdem, weiß jemand, wann das letzte Mal beide im gleichen Node gefertigt haben?
 
Zurück
Oben