News RTX 5000 & RX 8000: Ein Die für Blackwell, Chiplet-GPU für RDNA 4 im Gespräch

Riesiger monolithischer Chip bedeutet natürlich auch riesiger Preis 🙈
 
  • Gefällt mir
Reaktionen: SweetOhm, Mcr-King, Krik und 4 andere
Naja, allen News zu den aktuellen Produkten von NV nach ist ja der Yield das geringste (wenn überhaupt ;)) Problem...

Im Hintergrund wird sicherlich von "rot & grün" hart an dem GPU Chiplet Ansatz gearbeitet. Wie zu recht (auch in diesem Thread) erwähnt wird mittelfristig da mindestens im Highend kein Weg vorbei führen.
Aber wir sehen natürlich auch bei der 4090, dass es da teilweise schierig wird die Karte mit ihren ganzen Einheiten voll auszulasten. "Gefühlt" glaube ich ja als erstes an sowas wie ausgelagerte RT-Einheiten oder sowas. Keine Ahnung ob das vom Design her realistisch ist :)
 
dermatu schrieb:
Riesiger monolithischer Chip bedeutet natürlich auch riesiger Preis 🙈
Laut Steam Survey haben fast 1% der Spieler eine 4090, während nur 0,8 % eine 4080 haben.

Da ist klar wohin der Weg beim Preis geht.
 
  • Gefällt mir
Reaktionen: nyster, Cruentatus und DannyA4
S.Kara schrieb:
Laut Steam Survey haben fast 1% der Spieler eine 4090, während nur 0,8 % eine 4080 haben.
Liegt aber auch am höheren tatsächlichen, wie auch gefühlten Mehrwert den eine 4090 bietet über einer 4080. Bei Ampere hab ich auch eine 3080 Ti einer 3090 vorgezogen. Unter Wasser und mit ein bisschen Tuning lief die schneller als sämtliche 3090er unter Luft.

Hier war der Preis massiv höher und bestand in der Hauptsache aus 4 SMs mehr + doppeltem Speicher, SI-Bandbreite war ja gleich. Wenn man den Speicher nicht brauchte (professionell zB) hat die Karte einem gar nichts gebracht.

Bei einer 4090 kriegt man 128 statt anfänglichen 76 SMs der 4080 non-S, das sind mal flotte 70% mehr an Shadern + doppeltem Speicher + größeres und schnelleres Speicherinterface (+50%).

Alles Punkte die halt schon rein vom Gefühl her für eine 4090 sprechen und zu Bestzeiten bekam man die für 1650€ ggü. einer 4080 für 1100€. Es war damit sogar von der Preis/Leistung her das bessere Produkt.
 
  • Gefällt mir
Reaktionen: Bügelbernd, AI94, FreedomOfSpeech und 3 andere
Dass 2 getrennte GPU-Dies auch im Consumer-Bereich grundsätzlich funktionieren, zeigt Apple mit dem M1/M2 Ultra, wobei die Skalierung der verdoppelten GPU in den meisten Fällen eher mager ausfällt.
 
Der Ansatz von RDNA3 hat Sinn gemacht... jetzt soll man wider in eine ganz andere Richtung gehen?

Ich glaube erstmal geht es zurück zu zwei monolithischen Die's... und das ist auch der Grund weswegen man das Highend ausfallen lässt.

Entweder das oder man hat den GCD geteilt! 1 oder 2 GCD's mit jeweils beliebig vielen MCD's ;)
 
pipip schrieb:
Der Vorteil ist, kleinere Chips, mehr Ausbeute, günstigere Abnehmerpreise. Speziell wenn AMD dann pro Wafer bezahlt.
Hinzu kommt dass man dann für die I/O und L3 Cache Chips eine günstigere Fertigung nehmen kann. So kann die neuste Fertigung für die eigentlichen Chips mit den Shader verwendet werden.

Aber die Chips müssen ja noch zusammen kommen und war es nicht so, dass das Packaging gerade eine Engpassressource darstellt?
 
Gerade bei Chiplet-Designs hat AMD zuletzt Dinge geliefert, die nach vorher nicht für Möglich gehalten hätte.
Bin gespannt und hoffe auf Erfolg. Aber vermutlich wird es selbst wenn es bahnbrechend werden sollte erst einmal wenig an den Marktanteilen machen…
 
HardRockDude schrieb:
So ganz erschließen sich mir die Hintergründe nicht. Bei CPUs geht man seit Jahr(zehnt)en den Weg, zwecks Geschwindigkeit vieles in einem Chip (SoC) zu vereinheitlichen (z.B. goodbye North- und Southbridge), aber bei GPUs zieht man gewisse Bereiche auseinander? Vielleicht kann das mal jemand genauer erklären 🙏
Läuft auch irgendwann bei GPUs so... nur dauert es da länger, weil da serviel parralel läuft, und wen da etwas bremst, sich das extrem auf die Gesamtperofrmance auswirkt....

Bei CPUs ist das relativ egal... weil die sich Threads aufteilen..... Wen das in der Software nicht gut aufbereitet ist, kostet das aber auch schnell performance und skalliert nicht vernüfntis.... Aber da reden wir über Software Archetektur und halt halbes bis ein dutzend Threads...

Jetzt besteht aber eine GPU schon quaso aus tausenen "dummen" "Kernen, die halt gut in Pixelschubsen sind.... und parrlel zu den paar Tausen Pixel, auch ein tausend 3 Ecke "Schubsen... Wen dann ein paar aus der Reihe tanzen, tja, dann wird der Frame nciht fertig.... Sprich es dürfen Frames verworfen werden, alle Kernen können wieder von vorn anfangen... sprich man hat microruckler, Frametimes de hölle es läuft unrund... Einfach auch eil die Latenzen sehr, sehr niedrig sind. Da ist eigenlich keine Zeit, "Pixel" zum anderen Kern zu schubsen udn dann auf Antwort zu warten...
daher ist es viel schwer da einfach 2 Kerne, zusammen zu kleben, ohne das es Nachteile hat. Sicher nciht unmöglich... Aber das Design muss sehr durchdacht sein...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung, iron_monkey und HardRockDude
DevPandi schrieb:
Bewirb dich mal bei AMD genau dafür, du kannst dann sicher ganz viel Geld einsparen und die Aktionäre sind dankbar.
Ich habe es mir zur Gewohntheit gemacht, keine Sachen zu versprechen, von denen ich weiss, dass sie unmöglich sind.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Ich denke AMD geht den MCM Weg. Genau daher auch keine High-End Karten. Das wird eine "Übungsgeneration" wie mit Navi 1.0 (RX5700(XT)). Danach, mit mehr Erfahrungen und Optimierungen als RX 9000 oderso kommen dann auch High-End Karten mit MCM-Ansatz. Eigentlich ganz sinnvoll so.
 
  • Gefällt mir
Reaktionen: SweetOhm
Erfahrungen? Es werden seit Jahrzehnten Grafiklasten auf multiple Rechenwerke verteilt.

Wer glaubt, dass in dem Bereich plötzlich eine Lösung für fundamentale Skalierungsprobleme zu finden wäre, wird früher oder später enttäuscht werden.
 
Wie andere schon gesagt haben: Am Ende zählt "auffem Platz" :D . Ob die GPU dann ein Monolith ist oder ein Chiplet-Design zugrunde liegt, interessiert mich nur peripher.
Performance, Effizienz und Preis müssen unter Berücksichtigung aller Faktoren in einem einigermaßen vertretbaren Verhältnis zueinander stehen.

Ich rechne bei beiden Herstellern, die ja offenbar beide (und ich vermute persönlich auch eine Absprache) beschlossen haben, dass für die Consumer-GPUs erneut ein 5nm Prozess zu genügen hat, mit keinen Revolutionen, sondern mit (sehr) sanfter Evolution.

RDNA 4 gilt jetzt schon als bestenfalls lauwarmer Aufguss bzw. gemäß einigermaßen glaubwürdiger Leaks als RDNA 3 plus Bugfixes. Erst mit dem von Grund auf neu entwickelten RDNA 5 will AMD es dann angeblich wieder krachen lassen.

Blackwell Consumer sehe ich ähnlich. nVidia wird wieder einen Monolithen bringen, weil sie gar nicht die Ressourcen haben/hatten, um Chiplet für den Consumer-Bereich umzusetzen.
Alles und jeder, der bei nVidia etwas auf der Pfanne hat, wird logischerweise im Bereich AI/Datacenter eingebunden sein.
Gaming hat jetzt mal Pause. Sie werden beim Monolithen im 5nm Prozess bleiben, das Speicherinterface aufbohren (512-Bit), um wenigstens etwas mehr Performance aus Blackwell nuckeln zu können, mehr VRAM auf das Top-Modell klatschen und fertig ist die Hütte.

Auf Innovationen im Consumer-Bereich werden wir wohl warten müssen bis sich der AI/Datacenter Staub mal gelegt hat...
 
  • Gefällt mir
Reaktionen: Balisontrop, SweetOhm, Breaktivity und 2 andere
Hat die Gerüchteküche nicht bis jetzt dauernd behauptet, Navi 44/48 sind nur Notlösungen, weil AMD den Chiplet-Ansatz nicht rechtzeitig hinbekommen hat?
 
@Elthy Das eine schließt ja das andere nicht unbedingt aus. Es könnte ja sein dass ein MCM Ansatz zum Tragen kommt der am Ende halt trotzdem in seinem gewählten Ausbau nicht für High-End taugt.

Die Bezeichnung "Aufguß" fällt ja meist im Hinblick auf die Länge des Benchmark-Balkens (welcher fairerweise gesagt am Ende für den Kunden auch das Interessanteste ist).
 
RogueSix schrieb:
RDNA 4 gilt jetzt schon als bestenfalls lauwarmer Aufguss bzw. gemäß einigermaßen glaubwürdiger Leaks als RDNA 3 plus Bugfixes. Erst mit dem von Grund auf neu entwickelten RDNA 5 will AMD es dann angeblich wieder krachen lassen.

Blackwell Consumer sehe ich ähnlich. nVidia wird wieder einen Monolithen bringen, weil sie gar nicht die Ressourcen haben/hatten, um Chiplet für den Consumer-Bereich umzusetzen.

Warum sollten Sie auch? Kostet ja bisweilen nur Geld, und wie schon richtig angemerkt, lassen sich mit den Resurcen woander (AI, Mainfraim) wessentlich mehr Geld verdienen. War, bzw ist doch Intel ähnlich. Wann kam Rycen raus? Und jetzt erst kommt er erste Chiplet Chip im Consumer Segment. Sozusagen in letzter Sekunde...

Läuft halt wie bei jedem anderen Unternehmen. Umgestiegen wird erst wen es notwendig wird. Manchmal auch zuspät. Und vieleicht gibt es AMD dann den Notwendigen vorsprung und ein gutes Chiplet desing nach vorn zu bringen...

Allerdings hat nVidia soviel kohle. Und das mit RDNA4 nurn lauer aufgruss wird, habe ich auch gehört. RDNA3 soll auch seitens AMD eine entäuschung gewesen sein. Aber so eine Irrfahrt, korregiert man auch nicht innerhalb einer Gen. Vielleicht sind ja die Gerüchte falsch. Ich hätte gegen eine RDNA 4 was wirklich performt ncihts einzuwirken.... Aber wen ich an die Bulldozer Zeit erinnere, tja... es würd mich auch nicht überraschen wen wir bis RDNA 4 warten müssen, bis wir wieder eine gute GPU von AMD sehen.
 
Fände es schon sehr krass, wenn jetzt plötzlich doch alles wieder anders herum sein würde. Bislang sprach vieles dafür, dass GB202 ein Dual-Chip-Design wird und nahezu nichts dafür, dass Navi 48 ein Dual-GCD-Design sein würde. Und jetzt soll sich das plötzlich drehen?
 
RogueSix schrieb:
RDNA 4 gilt jetzt schon als bestenfalls lauwarmer Aufguss bzw. gemäß einigermaßen glaubwürdiger Leaks als RDNA 3 plus Bugfixes. Erst mit dem von Grund auf neu entwickelten RDNA 5 will AMD es dann angeblich wieder krachen lassen.
Das ist für mich von daher überraschend, dass das geleakte Navi 41/42 v.a. beim Scheduling und Caching ganz neue Probleme zu den vorigen Designs gehabt hätte, die sich wohl kaum mit einem reinen Aufguss angehen ließen. Vielleicht ist AMD auch einfach von vornherein zweigleisig gefahren und hat für Navi 44/48 sowas wie RDNA 3.5 aufgesetzt, neben dem RDNA 4 für Navi 41/42.

Laut dem Bericht geht der Leaker immerhin davon aus, dass die Raytracing-Implementierung über Bugfixes hinaus überarbeitet wird (was mit den Doku-Leaks zur PS5 Pro auch allgemein wahrscheinlich wirkt).

CDLABSRadonP... schrieb:
Fände es schon sehr krass, wenn jetzt plötzlich doch alles wieder anders herum sein würde. Bislang sprach vieles dafür, dass GB202 ein Dual-Chip-Design wird und nahezu nichts dafür, dass Navi 48 ein Dual-GCD-Design sein würde. Und jetzt soll sich das plötzlich drehen?
Mein Stand war, dass Blackwell erstmal monolithisch sein soll (und als Reaktion auf das ursprüngliche Navi 4x in riesig), und ggf. später einen Dual-Chip-'Refresh' als Antwort auf Navi 5x bekommen könnte.
Bei Leaks gibt es natürlich sehr viel Rauschen (Verwechselungen zwischen Modellen und Consumer- und Datacenter-Blackwell, Stille Post im Allgemeinen und natürlich stumpfe Fake Leaks), das könnte morgen schon wieder ganz anders sein ^^
 
Anstelle von Mcm mit zu viel Overhead, wünsche ich mir ein perfektes Zusammenspiel via Treiber von igpu und dgpu.
Intel hat alles um es zu perfektionieren.
Amd denkt nicht daran.
NVIDIA ist unfähig, da es keine igpu besitzt,geschweige CPU.
Cloud GPU ist halt noch kein Thema.
 
sentinel_first schrieb:
Anstelle von Mcm mit zu viel Overhead, wünsche ich mir ein perfektes Zusammenspiel via Treiber von igpu und dgpu.
Was meinst Du mit "perfektem Zusammenspiel"?
 
Zurück
Oben