News RDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an

Wolfgang schrieb:
kopite7kimi hat schon unglaublich viel richtig geleakt inklusive das gesamte Ampere-Portfolio diverse Monate (glaube knapp ein Jahr) vor Launch. Das ist dann kein Glück mehr. Und auch die 3080 Ti hatte er richtig, von dieser gab es nämlich wirklich viele Variationen. Natürlich ist das alles keine Garantie, aber der hat schon richtig gute Quellen.

Absolut! Jensen soll sich wohl 1-2 umentschieden haben mit welcher Config man nun der 6900XT Paroli bieten will.
Ist natürlich für so einen Leaker blöd, weil solange das Produkt noch nicht raus ist, kann sich einiges ändern. Je länger der Zeitraum bis zum Release, desto mehr.

Preise können sich noch einen Tag vorher ändern, oder sogar später. Siehe 5700XT ;)
 
  • Gefällt mir
Reaktionen: fox40phil, danyundsahne und .Sentinel.
kiffmet schrieb:
@morb
Das Windows Feature Hardware-Accelerated GPU Scheduling wurde für AMD Karten gescrapped. Hat nur die Stabilität negativ beeinflusst und die Frametimes verschlechtert, ohne Performancegewinn. Dieses bitte nicht mit dem Hardware Scheduler, der sich auf dem GPU-Die befindet, verwechseln.

Also ich bin gespannt, ob sich ein Aufbau mit 256 Shadern pro WGP und 10 WGPs pro Die überhaupt vernünftig auslasten lässt. Ein WGP als kleinste ansteuerbare Einheit geht sehr auf Kosten der Granularität bei der Arbeitsverteilung und evtl. auch zur Last der Parallelisierung verschiedener Aufgaben (max. 10 verschiedene gleichzeitig).

Danke dir, dieses Windowsfeature kannte ich gar nicht, aber das deckt sich genau mit meiner Erwartung, dass die SW bei dieser Masse an Recheneinheiten und Op/s niemals die benötigte Koordination abliefern kann
 
ghecko schrieb:
Irgendwie stecken wir schon seit geraumer Zeit bei GDDR6 fest. Erreicht das Prinzip langsam seine Grenze?
Ich hab ja mal wieder auf eine HBM-Karte mit ordentlich Compute-Leistung gehofft, aber AMD scheint dieses Feld auf dem Desktop komplett an Nvidia abzutreten. Sehr schade.
Auch bei GDDR6 ist noch einiges an Luft nach oben drin; allerdings müsste AMD (oder wer auch immer) den Bus breiter machen, z.B. 512 Bit, hatte AMD ja schon Mal, nur nicht mit GDDR6. Aber das kostet sowohl in Zahl und Art der RAM Modulen (gibt's die passenden im Moment?). Cache ist scheinbar billiger und tut's auch.
 
Auch wenn es nur ein Gerücht ist, freut mich zu lesen :)

Bitte noch etwas über RTX4000/Lovelace etc :)

Release ~ Mitte 2022 klingt sehr gut, evtl. gibts dann mehr als einen Papierlaunch.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Rock Lee schrieb:
Ist natürlich für so einen Leaker blöd, weil solange das Produkt noch nicht raus ist, kann sich einiges ändern. Je länger der Zeitraum bis zum Release, desto mehr.
Ein asiatischer Fertigungsbetrieb hat mal fallen lassen, dass die Hersteller auch mal absichtlich Falschinformationen verbreiten, um dann sehen zu können, an welchen Stellen das Schiff leckt...

Und für jemanden, der auf beiden Seiten spielt, wie kopite7kimi, sollte die Luft da schnell extrem dünn werden.
Der Personenkreis mit derartig tiefen Einblicken auf beide Seiten, dürfte relativ klein sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus
Lustig wirds doch auch, wenn man den gesonderten Infinity-Cache-Chip für ne APU einsetzen kann.

Dann könnte die APU mal nen ordentlichen Leistungssprung machen, bisher happerte es ja an der langsamen RAM-Anbindung.
 
  • Gefällt mir
Reaktionen: HolySkillet, fox40phil, Galatian und 2 andere
Floxxwhite schrieb:
Na da wäre ich mir nicht so sicher.

Karten > 250 W heißt Karten Größe 250 Watt.
Ah sorry, ich hab das Wort "nie" in Deinem Ausgangspost überlesen und ging daher davon aus, dass Du Dir gerne eine Karte < 250W holen willst, da Du auf silent Betrieb stehst. So macht das natürlich dann keinen Sinn :D
 
  • Gefällt mir
Reaktionen: Floxxwhite
Mal abwarten was es wirklich am Ende wird.
Das Chiplet Design darf als gesichert gelten, es geistert ja schon seit einem Jahr durchs Netz. Die genannten Shaderzahlen halte ich für etwas zu hoch und auch 512MB IC wären eine Ansage.

Aber ich hätte nix gegen einzuwenden 😁
Die 128MB IC bei den RX6000 sind nämlich für UHD definitiv zu knapp!
 
  • Gefällt mir
Reaktionen: HolySkillet
Rock Lee schrieb:
Absolut! Jensen soll sich wohl 1-2 umentschieden haben mit welcher Config man nun der 6900XT Paroli bieten will.
Ist natürlich für so einen Leaker blöd, weil solange das Produkt noch nicht raus ist, kann sich einiges ändern. Je länger der Zeitraum bis zum Release, desto mehr.

Preise können sich noch einen Tag vorher ändern, oder sogar später. Siehe 5700XT ;)
Auch wenn das immer gerne erzählt wird und ich mich natürlich irren kann, bezweifle ich irgendwie, dass Jenson in auch nur irgendeiner Form deklariert, wie eine RTX 3080 Ti oder ein anderes Modell auszusehen hat. Jensen wird doch schätze ich grob nur etwa sagen "schlage X, setze maximal y ein" und der Product-Manager muss dann schauen, wie er das umsetzt.
.Sentinel. schrieb:
Ein asiatischer Fertigungsbetrieb hat mal fallen lassen, dass die Hersteller auch mal absichtlich Falschinformationen verbreiten, um dann sehen zu können, an welchen Stellen das Schiff leckt...

Und für jemanden, der auf beiden Seiten spielt, wie kopite7kimi, sollte die Luft da schnell extrem dünn werden.
Der Personenkreis mit derartig tiefen Einblicken auf beide Seiten, dürfte realtiv klein sein.
Das ist eine gängige Praxis und zieht sich über alle Unternehmen und alle Firmenbereiche hinweg. So versucht man auch, den Leaks in der Presse hinterherzukommen (also wer an VC etc. leakt). Mit mäßigem Erfolg aber nur.
 
  • Gefällt mir
Reaktionen: fox40phil, Rock Lee und .Sentinel.
Selber schrieb:
Denke die Richtung um die es geht steht schon fest, aber die Umsetzung wird länger als normal dauern. Chiplets und eine generelle Umstrukturierung der Architektur hört sich nach viel Arbeit an.
Frage ist eher, was sie genau umstrukturieren. Die CU gibt es eigentlich seit RDNA nicht mehr, man nannte sie nur so, weil man einen Vergleich zum alten Schema haben wollte. Ein Großteil der Aufgaben, die die CU vorher selbst hatte, hat bereits die WGP übernommen, während die CU nur die Vektor-Registerfile, sowie die Vec32-ALU sowie die die Skalar-ALUs nd die TMU. Ansonten war alles in die WGP gewandert.

Es ist am Ende quasi nur konsequent, wenn AMD nicht mehr von CU redet oder DualCU aka WGP sondern nur noch von der WGP.

Und dann ist da die Frage, was sie genau machen: Verbreitern sie die Vec32 zu Vec64 oder kommen noch mal 4 Vec32. Das wird am Ende die Frage sein. Beides aber nicht unmöglich.
ruthi91 schrieb:
Sie scheinen sich bei ihrer infinity cache Sache ja sehr sicher zu sein, ich hätte sonst mindestens mal Gddr6X erwartet oder auch 384bit Interface.
Wenn ich mir RDNA2 ansehe und wie der Infintie-Cache platziert wurde, kann es sogar möglich sein, dass sie den Infintie-Cache auch für diese "Tile"-Lösung brauchen. Wenn sie das alles geschickt platzieren, können sie die Kommunikation innerhalb der GPU so aufrecht erhalten mit kurzen Latenzen und denoch eben mehrere Tiles verwenden, ohne dass man sich große Gedanken machen muss.

Das große Problem bisher war immer, dass man für bestimmte Schritte auch die Schritte der anderen brauchte und so gewisse Daten für alle Verfügbar sein sollten.

morb schrieb:
Wird interessant wie dieses Konzept die Daten verteilen wird.
Kann ich mir gerade nicht so richtig vorstellen. In Kombi mit nem OS-Grafikscheduler? Wird vermutlich zu langsam sein.
Wenn man es richtig anstellt - das ist jetzt nur die grobe graue Theorie und die ist einfach - dann zerlegt man ein Bild in Kacheln und schiebt die zu berechenden Kacheln in eine Warteliste. Die WGP holen sich aus dieser Warteliste die Kacheln, berechnen diese und schieben sie zurück, so dass die Kacheln verbunden werden und dann ausgeben werden.

Es gibt dabei Daten, die sind pro Kachel exklusiv und eben Daten, die braucht man bei jeder Kachel. Hier könnte der große IC dann helfen. Dann braucht man quasi nur noch einen "Controller" der das ganze Chip-Intern steuert - also der Sheduler auf dem Chip.

Nach Außen - also für das OS - ändert sich da in der Regel nichts, weil die sehen nur die eine GPU und schiebt darauf.

PS828 schrieb:
3x80CUs maximal (auch wenn sie nicht mehr so heißen) und ein viertes Chiplet für IO und Infinity Cache. Durchaus spannend und machbar.
Es geht doch aktuell um 2 * 30 WGP ah 256 Shader, was in der Form 2 * 60 WGP wäre, oder eben 2 * 120 CUs.

PS828 schrieb:
Evtl ist auch nur alles oberhalb von 80 CUs als Chiplet Design. Der Rest unterhalb kommt weiterhin als Monolith. Wird man sehen müssen.
Kann gut möglich sein, dass man unterhalb der 30 WGP pro Tile dann einen monolitischen Chip nimmt. Bis 40 WGP kann man ja relativ gut abbilden, auch wenn man am Ende ca. 1/3 der Tile deaktiviert.
 
  • Gefällt mir
Reaktionen: morb und GERmaximus
Das Ganze natürlich für Minimum 2000€. Muß sich ja lohnen für ...
 
Release Mitte 22, da hat sich der Kauf der 6000er ja doch noch gelohnt. Breit verfügbar und bezahlbar dann in 1,5 Jahren.
 
Wolfgang schrieb:
Auch wenn das immer gerne erzählt wird und ich mich natürlich irren kann, bezweifle ich irgendwie, dass Jenson in auch nur irgendeiner Form deklariert, wie eine RTX 3080 Ti oder ein anderes Modell auszusehen hat. Jensen wird doch schätze ich grob nur etwa sagen "schlage X, setze maximal y ein" und der Product-Manager muss dann schauen, wie er das umsetzt.


Wenn J. Huang ein "normaler" CEO wäre, würde ich Dir recht geben. Aber irgendwie schätze ich ihn doch so ein näher am Produkt zu sein und das letzte Wort haben zu wollen für die finale Config. Immerhin reden wir hier von jemanden, der mit Lederjacke Grafikkarten aus einem Backofen holt ;)
 
  • Gefällt mir
Reaktionen: Tschitta, Benji18, ThePlayer und 2 andere
CyrionX schrieb:
Falls sich noch jemand fragt:
WGPs = Work Group Processors
MCD = Multi-Compute Die
(vollständigkeitshalber: GCD = Graphics Core Die)

(Fühle mich jedes mal wieder so als hätte ich zwei Monate im Koma gelegen wenn ein Artikel wieder neue Abkürzungen ohne Ausschreibung einführt.)
Leider falsch, MCD steht für Multi Cache Die.
GCD ist immer noch ungeklärt, könnte genausogut für Graphics Complex Die stehen analog zu Ryzen
 
Die Miner reiben sich schon die Hände, ich frage mich was wird es kosten.
 
Wolfgang schrieb:
Dann wirst du schätze ich mal bei der Next Gen ziemliches Pech haben. Ich vermute, dass AMD und Nvidia da völlig All In gehen werden, gerade beim Strom.

naja dafür sind dann die 60/70er oft sehr effizient. Ich gebe gerne 50 EUR für nen besseren kühler aus
 
@I'm unknown im leakerpoker sind es auch nicht die AMD Karten die die 400 bzw gar 500 watt Grenze sprengen könnten ;)

Aber nach wie vor alles Spekulation. Die Effizienz wird überall Steigen. Wie sehr man sie dann nach oben prügelt liegt bei den Herstellern.
 
  • Gefällt mir
Reaktionen: I'm unknown
Inxession schrieb:

ich vermute mal Patrick kommt erst ins Spiel, wenn es sowas wie ein ES-BIOS gibt ;)

Das Beste der Gerüchte wurde von @SV3N noch gar nicht gepostet.
https://twitter.com/greymon55/status/1419916844136222720

Twin_Four schrieb:
Die Miner reiben sich schon die Hände, ich frage mich was wird es kosten.

also ETH kannst du mit dem für die Shaderanzahl absolut mickrigem 256bit Speicherinterface schon mal vergessen ;)
 
Hört sich gut an.

Dann überwintere ich Mal mit meiner 1080 bis zum nächsten Jahr 👍

Die Verfügbarkeit sollte dann hoffentlich besser sein. Das Jahr danach wird dann auf die zweite Generation von CPUs mit ddr5 gewechselt.
 
  • Gefällt mir
Reaktionen: ThePlayer
Zurück
Oben