News AMD Radeon RX 7000: Navi 3X und RDNA 3 sind hybrid in 5 und 6 nm geplant

Bei eurer betrachtung sieht ihr den infinity$ nur als weitere $stufe (victim$) das ist bei rdna2 und dem infinity$ aber so einfach betrachtet falsch. der infinity$ kann auch als weiterer speicherpool betrieben werden, was besonders DSBR stark beschleunigen kann.
Und diese eigenschaft wird speziell dem rdna"3" design helfen.
 
Ich habe noch einmal alle bisher mehr oder wenig bekannten Specs in einer kleinen Tabelle zusammengefasst.

Die maximalen Shaderzahlen, die Nodes (TSMC N5 und N6) und der Aufbau, als MCM für die 7900er, 7800er und 7700er sowie monolithisch für alles darunter, sind bereits ziemlich safe und von vielen unabhängigen Quellen bestätigt.

Dennoch kann es natürlich auch noch zu größeren Änderungen kommen, Zen 4 ("Raphael") und RDNA 3 ("Navi 3X") wird wohl erst zum Jahresende wirklich ein Thema sein. Deshalb sollte alles noch mit Vorsicht betrachtet werden.

Die grobe Richtung ist aber schon einmal klar.
 
  • Gefällt mir
Reaktionen: Cr4y, konkretor, mythson und eine weitere Person
Ich verstehs durchaus, dass es bei den GPUs jetzt auch ins Muli-Blabla geht, weil das Limit nun so langsam erreicht ist. Ich frage mich dabei nur ob man das wirklich brauchen wird? Reden wir hierbei von 8k alles On? Vom Stromverbrauch will ich gar nicht erst reden.
3dmx ist damit damls ziemlich gescheitert. Jedoch war das ja der Fertigung geschuldet und weil die Spiele-Hersteller nicht mehr mit machen wollten und natürlich, weil Nvida etwas besseres bot.
 
4K mit RT ist auch nicht auf der 3090 vernünftig spielbar, insofern wird man nie zuviel GPU-Leistung haben. Die Entwicklung muss halt weitergehen. Die nächste Generation sollte 4K mit RT in allen neuen Spielen mit >100fps ermöglichen. Das wäre ziemlich nice.
 
  • Gefällt mir
Reaktionen: Viper816, medsommer und Maxxx800
Andy4 schrieb:
Ich verstehs durchaus, dass es bei den GPUs jetzt auch ins Muli-Blabla geht, weil das Limit nun so langsam erreicht ist. Ich frage mich dabei nur ob man das wirklich brauchen wird? Reden wir hierbei von 8k alles On?
Wenn wir Glück haben, wird dieser MCM Chip ca doppelt so schnell, wie eine 6900XT und zwar sowohl in Raster- als auch in RT-Performance(RT Performance eher noch etwas mehr).

Schaut man mal in den passenderweise gerade erschienenen Test von Dying Light 2, kommt eine 6900XT mit RT On hier in 1440p gerade mal auf 20-30fps, von 4K brauch man gar nicht erst reden, da werden wir dann bei 15-20fps sein.

Und selbst ohne RT sind in 4K nur knapp 50fps drin.
 
  • Gefällt mir
Reaktionen: Viper816, Maxxx800, Apocalypse und eine weitere Person
Nette Entwicklung aber ich chille so lange mit meiner Vega 56 bis die Karten wieder vernünftige Preise haben. Dann lieber eine PS5 und nur den zum zocken verwenden, auch wenn der PC seine Vorteile hat. Aber auch hier bekomme ich keine PS5, wollte so sehr eine zum Geburtstag Ende des Monats.
Naja, jetzt wird es halt ein Macbook Pro 14 :D
 
  • Gefällt mir
Reaktionen: MGFirewater
Also wenn der N31 auf RX7800 und RX7900 aufgeteilt wird, dann bin ich noch gespannter auf die Unterteilung.

Da ist ja mega Platz für etliche Karten:
7900XT = N21 * ~2,5-2,7
7900 = N21 * ~2,2-2,4
7800XT = N21 * ~1,8-1,9
7800 = N21 * ~1,7
7700XT = N21 * ~1,5
7700 = N21 * ~1,3
7600XT = 6900XT + ~5-10% laut MLID/RGT :D Das ist das Beste finde ich
7600 = 6800(XT)
7500XT = 6700XT ? Da soll mal noch einer sagen der Nachfolger der 6500XT wäre langsam :p

Man wird ja noch träumen dürfen, aber ich finds geil, WENN es so kommt! :D
Ergänzung ()

fox40phil schrieb:
7900XT 2500€! Sag ich mal ;D
Ne, ich sage 1499€ UVP. :)
 
  • Gefällt mir
Reaktionen: Hyourinmaru
danyundsahne schrieb:
Man wird ja noch träumen dürfen
Muss man wohl auch, wenn AMD mit einem einzigen Chip eine Range von N21 * 1,7 bis N21 * 2,7 abdecken soll, was 50% Differenz zwischen 7800 und 7900XT wären die man durch kastrieren zweier riesiger Chips erzeugen müsste^^
 
  • Gefällt mir
Reaktionen: danyundsahne
isyyy schrieb:
6900XT in 4k Tarkov spukt nur 60-100fps raus. Das ist einfach zu wenig :D
naja...es ist immer zuwenig; sonst gäbe es den bedarf an fortschritt ja garnicht. aber es ist auch eine frage der erwartung - hier gibt es eine ganze latte an usern die schlicht unrealistische vorstellungen entwickelt haben; frei nach motto "es gibt schon lange uhd fernseher und uhd monitore, warum gibt es da nicht längst "passende" grafikkarten...?"
dabei war schon vor jahren ersichtlich dass echten uhd gaming in der breite noch eine lange zeit brauchen wird, bis sich entsprechend leistungsfähige hardware bis in den mainstream ausgebreitet hat.
 
  • Gefällt mir
Reaktionen: ThePlayer
Müsste man nicht.
Man nimmt einfach chips die fehlerhaft sind und nicht so viel erreichen.
Dann kann man die fehlerhaften chips noch verwenden, hat mehr yield.
Weniger Verlust. Und trotzdem die unterschiedlichen Leistungsklassen.
 
  • Gefällt mir
Reaktionen: medsommer
boypac007 schrieb:
Ich bin gespannt wie die Reise mit den Grakas hinführt ... hoffentlich pendlen sich die Preise Richtung normalität ... bzw UVP und drunter im Einzelhandel ...
Oder die UVP wird einfach viel höher angesetzt, wie bereits geschehen, dann kann sich vermeintlich ja auch keiner mehr beschweren ;-)
 
danyundsahne schrieb:
Nicht nur auf Leistung des N31, sondern auch wie die Technik dahinter funktioniert, damit es keine Probleme wie in den Zeiten mit Sli/Crossfire gibt. Sonst wäre das ja eine Totgeburt.
eigentlich sollte schon jetzt jeder verstanden haben dass der chiplet-ansatz hier und sli/crossfire technisch sowas von zwei paar schuhe sind...
Ergänzung ()

SV3N schrieb:
HBM, HBM2, HBM2E und HBM3 werden wir auf keiner Comsumer-Grafikkarte mehr zu sehen bekommen.
eigentlich war das von anfang an zu erwarten.
zum einen rein vom preis her; wobei man anfangs spekulierte dass hbm bei entsprechender verbreitung auch deutlich günstiger wird.
zum anderen hat man sich technisch von der hohen (theoretischen) bandbreite in die irre führen lassen; dabei hat man zwei entscheidende details komplett unterschätzt: dass das breite speicherinterface aufwendig ist und zudem bei kleinteiligen speicherzugriffen gegenüber den "klassischen " SI ansatz im nachteil. bei wissenschaftlichen berechnungen hingegen wird das breite SI des hbm wesentlich besser ausgenutzt.
aber wer damals diese sachen anmokiert hat bei den fuji's, der wurde schnell als nvidia fanboy abgetan...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ETI1120 und Colindo
iceshield schrieb:
"...Multi-Chip-Modul-Design mit insgesamt 3 Dies..."
Ich hoffe ich habe Unrecht, bin ich der Einzige, der hier an Microruckler denkt? Oder hat das nichts mit dem alten klassischen "mehrere Chips auf einer GFX" zu tun?
Lg
Das wird sich noch zeigen müssen.
Aber ich glaube AMD wird da einen Weg gefunden haben dieses Problem zu vermeiden. Soweit ich weiß soll das ganze doch für das System als eine GPU zu sehen sein. Den Rest also das Voodoo macht dann der Controller.

Bin schon bei der 7900 und 7800 auf die Leistung gespannt. Wir diese wirklich bei 100% mehr liegen? Mir würde es reichen wenn sie beim Rastern 30-40% mehr bieten würden und beim RT 60-80%. Dann denke ich wäre man auf Augenhöhe vor allem beim RT mit Nvidia.
Auch FSR könnte eine Verbesserung vertragen. Wobei ich finde das weder FSR noch DLSS mich bisher überzeugt. Auch wenn es interessante Technologien sind. Aber für mich fühlt sich das irgendwie geschummelt an.
Zur 5 und 6 nm bei den beiden großen Chips bin ich gespannt was dies bedeutet. Controller in 6nm und die GPU Kerne dann in 5nm?
Ergänzung ()

Pixelhomie schrieb:
Meine Glaskugel sagt mir verfügbar dann ab Mitte 2023 mit Preisen ab 2.000€ :D
Das kauft sich keiner mehr. Wenn eine 7800xt soviel kostet. Dann kauft das sich bloß nur noch ein absoluter Enthusiast und vielleicht noch die Miner.
Ich glaube ehr die Preise werden sich bei einer 7800xt um die 900-1500 Euro bewegen. Die 6000er Serie wird dann den Einstieg markieren mit einer 6600 ab 250 Euro. Wenn sich Anfang 2023 die Verfügbarkeit dann langsam normalisiert.
Hoffe ich jedenfalls. Ich glaube kaum das wir Kunden auf Dauer bereit sind solche Summen für GPUs zu zahlen. Selbst bei einer 7800xt über 1000 Euro würde ich schon stark überlegen. Ich glaube ich würde dann anfangen die aktuelle Karte zu kaufen wenn der Nachfolger zu haben ist um so wenigsten für das Topmodel deutlich unter 1000 Euro zu Bleiben. Selbst die 800 Euro für meine 6800xt waren mir deutlich zuviel. Und die Spiele würde ich dann auch mit 1-2 Jahren Verzögerung Spielen. Spiele eh kaum noch online.
 
Zuletzt bearbeitet:
boypac007 schrieb:
@ zum Erstenmal ergattere ich den ersten Kommentar ... Danke Sven für die News ...
Ich bin gespannt wie die Reise mit den Grakas hinführt ... hoffentlich pendlen sich die Preise Richtung normalität ... bzw UVP und drunter im Einzelhandel ...

Was ist schon "Normalität". Normal ist es heutzutage mit einer Maske im Gesicht durch die gegend zu laufen und sich von Fremden in der Nase herumpoppeln zu lassen ...

Ich würde die Hoffnung begraben ;-)

Was wir doch beobachten können, ist das grundsätzlich alles teurer wird, Energie, Papier / Karton, Metalle, Arbeit, Frachten (ganz wichtig für Produkte aus Asien) und, das ist das fatale, die settige Erhöhung der s.g. "Unverbindlichen Preisempfehlung". Danach kommt der s.g. Straßenpreis. Siehe die letzten Veröffenltichungen bei Grafikkarten. UVP + 50% = Regalpreis. Und es wird gekauft wie blöde. Ich denke das wird noch weiter ausgetestet und erhöht, bis der Verbraucher zurückhaltend wird. Und irgendwann ist der psychologische "Normalpreis" bei Einsteigergrafikkarten 300,00 €. Das gleiche passiert doch gerade in der Autoindustrie und den Elektrofahrzeugen, Gebrauchtwagenmarkt usw. usw. usw. Eine Kugel Eis hat mal 30 Pfennig gekostet. Ich kann mich daran noch erinnern und ich bin gerade mal über 40. Die Eiskugel war verdammt groß, im vergleich zu heutigen Eiskugeln. Normalität ist relativ. Warum sollte jemand für sein Produkt weniger Geld verlangen, wenn er mehr dafür bekommen kann.
 
  • Gefällt mir
Reaktionen: Jack79, boypac007 und ThePlayer
cypeak schrieb:
hier gibt es eine ganze latte an usern die schlicht unrealistische vorstellungen entwickelt haben; frei nach motto "es gibt schon lange uhd fernseher und uhd monitore, warum gibt es da nicht längst "passende" grafikkarten...?"
Da Frage ich mich auch wie alt die Leute sind. Früher war man sich froh wenn man über 30fps kam das galt schon als spielbar. Heute Jammern sie wenn sie FPS unter 100 fallen. Klar in online Shootern zählt jedes FPS. Aber dann wird halt auf 4k verzichtet. Und dann heulen sie noch Rum das die 1000 Euro und mehr für absolutes und verzichtbares Highend zahlen sollen. Als wenn sich jemand darüber beschweren würde das ein Supersportwagen eine halbe Million kostet.
 
  • Gefällt mir
Reaktionen: MGFirewater, medsommer und Maxxx800
Der SRAM ist ja relativ teuer, da macht es schon Sinn diesen mit dem günstigeren Prozess zu fertigen. Und in 5nm wäre der Chip dann vllt nicht mal wesentlich kompakter ?!
 
Ich bin vorallem gespannt ob sie es mit der Latenz und den Treibern bei dem Design auch perfekt hinbekommen. Bei Nvidia war das am Anfang ja auch im Gespräch und dort hat man sich erst einmal gegen das MCM-Design entschieden. Wird eine spannende Grafiklarten-Generation.

Ich hoffe nur, dass die Grafikkarten nicht zusammen mit einem Mining-Boom erscheinen.
Ergänzung ()

ThePlayer schrieb:
Und dann heulen sie noch Rum das die 1000 Euro und mehr für absolutes und verzichtbares Highend zahlen sollen. Als wenn sich jemand darüber beschweren würde das ein Supersportwagen eine halbe Million kostet.

Der Unterschied ist, dass z.B. eine 3070 normal unter 500€ kosten würde. Das wäre ein normaler Marktpreis, wenn es den Mining-Boom nicht gäbe. Auch die 3080 hatte mal eine UVP von ~700€. Außerdem sind wir bei Preisen, die sich in Deutschland jeder leisten kann, wenn er denn soviel für ein Hobby ausgeben möchte.
 
  • Gefällt mir
Reaktionen: schneeland
iceshield schrieb:
"...Multi-Chip-Modul-Design mit insgesamt 3 Dies..."
Ich hoffe ich habe Unrecht, bin ich der Einzige, der hier an Microruckler denkt? Oder hat das nichts mit dem alten klassischen "mehrere Chips auf einer GFX" zu tun?
Lg

hat nix damit zu tun weil das „alte design“ solcher Karten 2 GPUs (komplett) dargestellt hat also ein Crossfire/SLI gespann war. In diesem Fall wird das ganze aber wie 1 GPU ansprechbar.
 
  • Gefällt mir
Reaktionen: ETI1120, Colindo und iceshield
Zurück
Oben