News RDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an

Bei einer Leistung von 2,7x N21 in 5nm sollten ohne anderweitige Verbesserungen 500w anstehen.
Ich bin mal optimistisch und hoffe auf unter 400w.
nVidia hats vorgemacht, AMD zieht (leider) mit.
 
Wolfgang schrieb:
Auch wenn das immer gerne erzählt wird und ich mich natürlich irren kann, bezweifle ich irgendwie, dass Jenson in auch nur irgendeiner Form deklariert, wie eine RTX 3080 Ti oder ein anderes Modell auszusehen hat. Jensen wird doch schätze ich grob nur etwa sagen "schlage X, setze maximal y ein" und der Product-Manager muss dann schauen, wie er das umsetzt.

Das ist eine gängige Praxis und zieht sich über alle Unternehmen und alle Firmenbereiche hinweg. So versucht man auch, den Leaks in der Presse hinterherzukommen (also wer an VC etc. leakt). Mit mäßigem Erfolg aber nur.

Tatsächlich haben Vorständet / CEOs in großen Unternehmen bei so strategischen Entscheidungen immer ein Mitsprachrecht und fordern dieses auch. Es geht ja auch um mögliche Gewinne, eine Karte mit 20GB Speicher für 1200€ wirft weniger Gewinn ab als eine Karte mit 12GB Speicher und ist schwerer zu poduzieren.
 
SV3N schrieb:
HBM wird nur noch im Profis-/Enterprisebereich zum Einsatz kommen.
Dann fühle ich mich mit meiner Vega56 gleich viel besser ;-D
 
  • Gefällt mir
Reaktionen: ComputerJunge
Floxxwhite schrieb:
naja dafür sind dann die 60/70er oft sehr effizient. Ich gebe gerne 50 EUR für nen besseren kühler aus
Auch das glaube ich dieses Mal nicht. Ist nur so ein Gefühl, ich glaube aber, dass sich AMD und Nvidia in der nächsten Generation bis ans Limit pushen werden und das über alle Produkte hinweg. Schauen wir mal wie es kommt, aber das ist einfach mein Gefühl.
projectneo schrieb:
Tatsächlich haben Vorständet / CEOs in großen Unternehmen bei so strategischen Entscheidungen immer ein Mitsprachrecht und fordern dieses auch. Es geht ja auch um mögliche Gewinne, eine Karte mit 20GB Speicher für 1200€ wirft weniger Gewinn ab als eine Karte mit 12GB Speicher und ist schwerer zu poduzieren.
Ja, dem CEO kann es schlussendlich egal sein, wie der Gewinn realisiert wird (den er natürlich haben will und auch bestimmt). Vor allem kann es dem egal sein, ob das Ding nun 2 SM mehr oder weniger haben wird.
 
  • Gefällt mir
Reaktionen: Floxxwhite
Schön, dann kommt der Nachfolger vermutlich exakt dann wenn die aktuelle Generation preislich interessant verfügbar sein wird. 😅
 
SockeTM schrieb:
Dann fühle ich mich mit meiner Vega56 gleich viel besser ;-D
Ich hatte auch lange eine Sapphire Radeon RX Vega 56 Nitro+, die mit 925 mV und 1.100 MHz HBM2 richtig Klasse war.

HBM wird sich aber für Consumer einfach nicht durchsetzen.
 
  • Gefällt mir
Reaktionen: ThePlayer, SockeTM und konkretor
R O G E R schrieb:
Hoffentlich startet nicht kurz vorher die nächste Cryptomining Blase.
Oder ETH wurde schon auf Proof of stake umgestellt.
Wird auf die Knappheit nicht so einen großen Einfluss haben als es dargestellt wird. Daher werden Grafikkarten erstmal knapp bleiben.
 
Naja ich habe noch ne Vega64 Nitro+. Noch funktioniert sie ohne Probleme, versuche trotzdem immermal wieder auf der AMD Seite ne 6800xt/6900xt zu bekommen. Bis jetzt immer zu langsam ;-P. Naja wirds halt nächstes Jahr ne 7k (vielleicht) evt. in Kombination mit nem Ryzen 6k usw...
mfg
 
  • Gefällt mir
Reaktionen: HolySkillet
5nm drin?
Paperlaunch...
Glaub auch kaum das TSMC bis dahin seine 7 oder gar 5nm kapazitäten relevant ausbauen kann das da genug für GPUs zu brauchbaren preisen für endkunden bei rausfallen.

Ganz ehrlich, selbst wenn nur die "Cores" in 5nm kommen und der Rest (IC und SI) in 7nm sehe ich schwarz für die Stückzahlen.

Aber ich hoffe das sich das MCM sich auch bei GPUs durchsetzt.
Es fällt ja das Balling unter der DIE weg, und die Chips sind kleiner.
Beides sollte deutlich helfen bei der Langlebigkeit von Grakas, vor allem wenn das Balling weg ist.

Bei der Anzahl an Shadern wundert mich der 512MB IC nicht, müssen gefüttert werden.
Ich glaube auch nicht das man hier in der Lage sein wird den IC auf eine ganz andere DIE auszulagern als die recheneinheiten.
 
Zuletzt bearbeitet von einem Moderator:
Hört sich ja fast zu schön an um wahr zu sein. Aber wenn die 7900 XT so kommen sollte wäre das schon ein echtes Biest. Allein schon die 512 MB Infinity Cache dürften einiges reißen, dazu noch die hohe Shader Anzahl. Bleibt dann nur zu hoffen dass AMD die auch ausgelastet bekommt. Oder soll die vielleicht sogar als 8k Karte kommen, bei den Werten... MFG Piet
 
  • Gefällt mir
Reaktionen: fox40phil und dipity
Ein funktionierendes MCM Design ist der "heilige Gral" im GPU Bereich.
Das war lange Zeit nicht möglich, und AMD ist jetzt wohl der Durchbruch gelungen.

Dann ist es auch nicht schlimm darauf noch ein Jahr zu warten.
Und bei den aktuellen GPU-Preisen macht AMD und Nvidia es mir auch leicht zu warten.

Tja, da hat sich Koduri einfach zu viel Zeit mit XE gelassen, wenn sie nächstes Jahr gegen dass erste MCM Design im Consumer Bereich antreten wollen. Da kann Intel eigentlich nur noch verlieren, und muss über der Preis punkten.
 
  • Gefällt mir
Reaktionen: dipity
Da die Preise bei RDNA2 so absonderlich sind, verfolge ich schon lange die Entwicklung der Informationen, die auf eine Einordnung zu RDNA3 dienlich sind, angefangen von Mark Papermasters Aussage mit RDNA zu wiederholen, was ihnen mit Ryzen im CPU Bereich glückte - nichts weniger als eine Revolution.

Wie leistungsfähig RDNA3 nun wird, wird man sehen. Ob sie tatsächlich mal wieder vor Nvidia liegen, ist nach der langen Durststrecke schwer zu glauben. Aber dass RDNA3 ein irres Stück Technik wird und einen wesentlichen Technologie Wechsel einläuten wird, daran besteht für mich kein Zweifel mehr. Nur noch ein paar Monate, dann wissen wir mehr 😉
 
Das Ding will auch bezahlt werden. Die Preise bleiben somit über den Wolken.
 
Das Problem mit solchen Karten ist einfach, das sie weniger als 2% der gesamten Käuferschicht damit bedienen. Der Großteil kauft 50, 60, 70er Modelle, also absolute Einsteiger bis Mittelklasse, wovon der Großteil sich meist für ein 60er Modell entscheidet (Nvidia Klassifikation).

Ich kann verstehen das man solche Karten wie die hier in den News als Halo Projekt hochhalten möchte, um zu zeigen „wir sind stark“ aber zu welchem Preis? 2022 wird es mit Corona ähnlich aussehen wie stand jetzt.

Eigentlich gefiel mir die Entwicklung mit Nvidias Pascal, tolle Leistung und vergleichbar wenig Stromverbrauch. Aktuell jedoch wird alles wieder zunichte gemacht, Nvidia und AMD machen ein Wettrennen mit dem Ziel „wer verpulvert mehr Strom“…
 
  • Gefällt mir
Reaktionen: fox40phil, ThePlayer und ComputerJunge
Theoretisch müsste ein MCM Design, ab einer gewissen Größe, immer günstiger sein als ein monolitisches Design, da die einzelnen Chips viel kleiner ausfallen, und die Yields besser sind.

D.h. eigentlich müssten die GPUs so gar günstiger werden, wenn AMD den eigenen Preisvorteil an den Endkunden weiter gibt.
 
  • Gefällt mir
Reaktionen: fox40phil
Und welchem Bereich ist die Leistungsaufnahme? Hoffentlich nicht mehr oder auf gleicher Höhe mit RTX3000er Serie.
 
Ich finde es echt interessant, wie die Shaderzahlen hier explodieren. Nach den deutlichen Problemen, die Nvidia (und AMD früher) mit der Auslastung hatten, würde ich doch hoffen, dass der nächste Schritt nur nach deutlich überarbeiteter Aufgabenverteilung innerhalb der Chiplets kommt. Sonst bringt das Wachsen in der Breite gar nichts.
matty2580 schrieb:
D.h. eigentlich müssten die GPUs so gar günstiger werden, wenn AMD den eigenen Preisvorteil an den Endkunden weiter gibt.
Nicht, wenn die einzelnen Chips gleich groß bleiben und man mit MCM die Gesamtgröße verdoppelt.
.Sentinel. schrieb:
Wie gut/effektiv der Cache arbeitet, werden wir erst in Szenarien sehen, in welchen der VRAM an seine Füllungsgrenze kommt.
Mit Zunahme des zu cachenden Pools sinkt die hit- rate und dann zeigt sich, wie gut AMD dort "balanciert" hat.
Meinst du, bei gleicher Auflösung werden zukünftige Spiele so viel mehr VRAM verbrauchen? Weil mit dem Sprung auf 5K und höher kannst du den IC jetzt schon in die Knie zwingen, und AMD hat genau angegeben, wieviel der in welcher Auflösung bringt. Meinst du es wird in 4K in Zukunft knapp?
 
  • Gefällt mir
Reaktionen: HolySkillet
Nero2019 schrieb:
Und welchem Bereich ist die Leistungsaufnahme? Hoffentlich nicht mehr oder auf gleicher Höhe mit RTX3000er Serie.
Naja es wird in einem 6+ nm von TSMC gefertigt, dabei bieten sie selber schon 5 nm an, hinzu kommt eine riesige Anzahl an Shader, ich gehe locker von 450+ Watt Leistungsaufnahme aus. Man darf nicht vergessen, das dies wohl die Speerspitze darstellen soll, trotzdem ist die Entwicklung echt traurig.
 
  • Gefällt mir
Reaktionen: ThePlayer
Ich schrieb ja auch theoretisch, und aber einer gewissen Größe. ^^
Bei einer kleinen GPU lohnt sich natürlich kein MCM Design.
Und wenn man die Größe über ein MCM Design verdoppeln kann, ist es unterm Strich immer noch besser und kostengünstiger als ein riesiger monolitischer Die, der viel teurer wäre, und mit Sicherheit auch deutlich schlechtere Yields haben würde. Nvidia hat da bei Turing entsprechende Erfahrungen machen müssen, und teuer war der Spass für die Endkunden auch.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ThePlayer und Colindo
Zurück
Oben