News AMD Navi 31 (RDNA 3): Ein Blick auf das mutmaßliche PCB der Radeon RX 7900 XT

seyfhor schrieb:
.
Bin eher gespannt ob auch mal wieder brauchbare "Einsteiger" und "Mittelklasse" Karten kommen im 150-300 Bereicht.
Mittelklasse für 300€ werden wir nicht mehr sehen.

Mittlerweile kostet doch schon der Einstieg knappe 300€ rum.
 
  • Gefällt mir
Reaktionen: McTheRipper, Laphonso, Chismon und 4 andere
RogueSix schrieb:
Wollen wir erst mal sehen, ob AMD den MCM Ansatz ohne größere Probleme auf die Straße bringen werden. Im Bereich GPU ist die inhärente Latenzproblematik wegen der extremen Parallelisierung um ein Vielfaches kritischer als im CPU-Bereich.
Auch die Problematik der Lastverteilung dürfte nicht einfacher werden. Alles nicht unlösbar, aber ordentliche Herausforderungen, die nicht zwingender Weise bereits in dieser ersten MCM-Runde von AMD komplett so gelöst werden können, dass mit keinerlei Problemen zu rechnen wäre.

Welche großen Probleme sollten denn bei AMDs MCM Ansatz auftreten? Es wird ja lediglich der Memory controller und infinity cache ausgelagert. Der Grundlegende Aufbau ist immernoch der gleiche einer GPU dieser Generation, nur der Memory Controller sitzt auf seperaten Chips.

Das abspalten des MCDs erzeugt zwar minimal höhere Latenzen aber die können bei GPUs gut abgefangen werden, da der Workload vorhersehbar ist.

Was meinst du mit Lastverteilung? Nach aktuellen Gerüchten bleibt es (leider) bei nur einem GCD, es muss also keine Last auf mehrere Compute Dies verteilt werden. Wie oben schon gesagt, vom Aufbau wird RDNA3 wie eine normale GPU sein, nur dass der Memory Controller auf einem seperaten Chips sitzt.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Tanzmusikus und Colindo
@whyme

Na wenn das alles so easy ist, dann stellen sich mir zwei Fragen:

1) Warum gibt es dann nicht schon seit vielen Jahren Multicore GPUs mit vielen, vielen Chiplets, um die Performance bis in die Petaflops zu treiben? Ist ja laut Dir doch total einfach. Bissl IMC und Cache auslagern und los...

2) Warum arbeitest Du nicht bei AMD, Intel oder nVidia und zeigst denen mal, wie locker und flockig man das umsetzen kann? Das gäbe wahrscheinlich sogar ein ganz nettes Gehalt, wenn Du denen das aus dem Handgelenk hin schüttelst.

Also bitte keine falsche Bescheidenheit und hau rein! :D

P.S.: Zur Lastverteilung solltest Du vielleicht mal selbst googlen und zum Beispiel auch mal an die ASync Compute Problematik zurückdenken. Es ist keineswegs trivial bei den tausenden von in Clustern organisierten Cores moderner GPUs diese so auszulasten, dass die maximale Performance dabei herauskommt. Es dürfte klar und logisch sein (OK, für Genies wie Dich ist auch dies vermutlich trivial, aber ich meine jetzt für normal begabte Ingenieure ;) ), dass sich diese Problematik noch mal verschärft, wenn die Cluster auf unterschiedlichen Dies liegen und dass dann eben auch die Latenzproblematik sehr vordergründig wird.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DefconDev
RogueSix schrieb:
1) Warum gibt es dann nicht schon seit vielen Jahren Multicore GPUs mit vielen, vielen Chiplets, um die Performance bis in die Petaflops zu treiben? Ist ja laut Dir doch total einfach. Bissl IMC und Cache auslagern und los...

2) Warum arbeitest Du nicht bei AMD, Intel oder nVidia und zeigst denen mal, wie locker und flockig man das umsetzen kann? Das gäbe wahrscheinlich sogar ein ganz nettes Gehalt, wenn Du denen das aus dem Handgelenk hin schüttelst.

Was laberst du denn da für einen Müll?

1) Den Speicher Controller auslagern und Performance zu steigern passt nicht zusammen. Wo habe ich das bitte geschrieben?
Grund den Memory Controller auszulagern ist logisch und einfach zu erklären. Er skaliert nicht mehr mit den neueren Prozessen, dadurch würde der Flächenanteil des Memorycontrollers am gesamtchip stark ansteigen. Deshalb ist es günstiger ihn in einem älteren, günstigeren Prozess zu fertigen. Das war bei früheren Prozessen eben noch nicht gegeben, bzw hat es sich dort noch nicht gelohnt.

2) Gekonnt mit weiterem Schwachsin weiter davon ablenken, dass ich dir eigentlich Fragen gestellt habe.
Also noch einmal. Wo siehst du denn ein Problem mit der Lastverteilung, wenn lediglich der Memory Controller auf einem separaten Chip ausgelagert wird? Und welche Probleme soll deiner Meinung nach die dadurch etwas höhere Latenz bei einer GPU verursachen?
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Hembi, Otsy und 5 andere
Haldi schrieb:
Aber das sie 120% mehr Performance bieten halte ich für sehr unwahrscheinlich.
Das neue Topmodell soll immerhin 2,4 mal so viele Shader bieten. Sofern die Shader-Architektur in etwa äquivalent ist, sollte die 2,2-fache Leistung durchaus machbar sein, zumal AMD ja angeblich auch wieder auf hohe Taktraten setzten will. Dennoch will ich natürlich nicht ausschließen, dass am Ende weniger als die 2,2-fache Leistung dabei rumkommt, sofern sie bei den Shadern bestimmte Änderungen vorgenommen haben, wie Nvidia es beispielsweise beim Schritt von RTX 2000 auf RTX 3000 mit den FP- und den Integer-Einheiten getan hat. Ich bin mir aber durchaus sicher, dass AMD bei normalen Games diesmal die Führung übernehmen wird, während Nvidia wohl eher den Vorsprung bei Raytracing ausbauen dürfte.
 
SaschaHa schrieb:
Das neue Topmodell soll immerhin 2,4 mal so viele Shader bieten. Sofern die Shader-Architektur in etwa äquivalent ist, sollte die 2,2-fache Leistung durchaus machbar sein.
Da fragt man sich doch. Wieso ist AMD am Planungstisch auf die Idee gekommen eine nächste Generation Grakas zu produzieren die doppelte bis 2.5 Fache Leistung bringen?
Die werden ja wohl kaum einfach mit Geld in die Entwicklungsabteilung gestolpert sein und haben gesagt "Ey Leute guckt mal. Es läuft finanziel Rund. Stellt mehr Leute and und entwickelt einfach was tolles".
Die werden genau definierte Ziele gehabt haben die erreicht werden müssen.
Sofern die nicht mit dem Schlachtplan "Wir wollen mehr marktanteil, wir müssen einfach stärkere und billigere Produkte als Nvidia anbieten. Unter allen Umständen! " gibt es keine schlüssige Argumentation wieso die Grafikkarten so viel mehr verbrauchen werden(¿) um so viel mehr Performance zu bekommen.

Oder erfordern die neuen Grakas zwingend die neuen ATX 3.0 Netzteile und haben daher weniger Technische Limite im Stromverbrauch den man nun einfach ausnutzen will?

Laphonso schrieb:
AMD wird sich die Rasterizarion Krone holen und fps Königin im klassischen fps Benchmark.
Nvidia geht all in mit Raytracing wird AMD hier dominieren.

Die dritte RTX Genration wird zeigen, warum Nvidia als Pionier und bereits so lange auf Raytracing im Gaming setzt.

Zitiert mich gerne in einigen Wochen 😋
Ach guck der Laphonso ist wieder unterwegs.
Irgendwie hab ich das Gefühl unsere Wege kreuzen sich immer bei neuen Graka Releases.
Ist aber auch Spannend und unterhaltend mit den ganzen Gerüchten im voraus.
Wobei ich AMDs Marketing Strategie wirklich schätze. Einfach mal den Mund halten bis die Karten bald im Verkauf sind.
Da wird man ich gleich Wochen/Monate im voraus ganz hibbelig wegen der neuen Generation.

Ich glaube iwo gelesen zu haben das AMD diesmal eine ziemliche Modifikation der Raytracing Einheiten gemacht hat das somit eine frei wählbare Skalierung zwischen Raster und Raytracing Einheiten gemacht werden kann. Aber hängt mich nicht daran auf... hieng mir nur so im Hinterkopf rum.

Wieso Raytracing nun nach 3 Generationen aber plötzlich so wichtig sein soll musst du mir noch erklären.
Natürlich finde auch ich die Idee das wir ECHTEN Schatten und Spiegelungen haben in Games einen sehr sehr tollen Fortschritt. Aber wirklichen Nutzen daraus zieht bisher leider kein Game.
Das ist so wie mit den Ageia Physics.
Tolle Spielerei aber für die Katze.
Ich hab in Cyberpunk 2077 nach 30 Minuten Testen Raytracing wieder deaktiviert weil ich lieber 95 fps ohne statt 60Mit gehabt habe. Mehr wollte die 3090 auf 5120x1440 einfach nicht bieten.
War zwar schon cool in den vorbeifahrenden Autos die Spiegelung zu sehen, aber ansonsten ist Raytracing leider noch nicht das KillerFeature das man braucht.


Ich würde nach Release und den ersten eigenen Benchmarks sehr gerne wider hierauf zurück kommen. Aber ich fürchte ich werde mich dann nicht mehr hierran erinnern. Ist aber auch nicht so wichtig.
Darf schliesslich jeder seine eigene Meinung haben die auf eigenen Erfahrungen basiert. Denn wirklich wissen tut bis jetzt noch niemand etwas.... oder die dürfen es nicht sagen ;)
 
@Haldi

Genau das ist ja der Punkt. Die RT Cores, egal ob Tensor oder der AMD Kram, müssen irgendwann so ausgereift sein, dass RT immer aktiv bleiben kann, ohne Performance Hit. Dazu müssen auch DLSS und FSR nochmal deutlich weiterentwickelt werden.

Wenn AMD in der übernächsten Generation mit MCD daherkommt und die Skalierung ordentlich läuft, wird das extrem spannend.

Bereits in diesem bevorstehenden Release bin ich gespannt wie weit Nvidia bei RT voraus eilt, oder wie nah AMD an Nvidia ran kommt.

Die RT Performance bei den aktuellen Nvidia Karten ist schon echt gut. Selbst der erste Wurf von AMD war keine totale Katastrophe.

Intel könnte dann auch noch interessant werden im kommenden Jahr.
 
  • Gefällt mir
Reaktionen: Laphonso
Haldi schrieb:
Da fragt man sich doch. Wieso ist AMD am Planungstisch auf die Idee gekommen eine nächste Generation Grakas zu produzieren die doppelte bis 2.5 Fache Leistung bringen?
Prestige. Und ganz einfach, weil sie es können. Durch das Chiplet-Design dürften sie enorm viel Kosten sparen, und derartige Flaggschiff-Karten dürften ohnehin auch zu höheren Preisen verkauft werden als die letztjährigen Modelle. Wie die Vergangenheit ja gezeigt hat, sind die Leute durchaus bereit, so viel zu zahlen. Es ist jetzt einfach nur eine neue (teurere) Klasse an Karten hinzugekommen, sofern diese Leistung tatsächlich erreicht wird. Und es ist ja im Übrigen auch nicht alles mehr als verdoppelt worden. Der Infinity Cache scheint ja sogar verringert worden zu sein, und der macht bereits einen großen Teil der Fläche aus.

Aber mal aus psychologischer Sicht: Einen Gewinner in der Mittelklasse zu küren, ist von sehr vielen Faktoren abhängig, weshalb es dort nicht immer eindeutig ist, welches Produkt nun besser ist. Die Performance-Krone hingegen setzt derjenige auf, der am oberen Ende die schnellere Karte hat. Und das dürfte in sehr vielen Headlines landen, wodurch der Sieger dann auch schnell als der Anbieter mit den durchweg besseren Produkten wahrgenommen wird.

Der Normalo ist eben nicht einer, der sich so tief mit der Materie befasst, wie wir es hier bei CB tun. Viele lesen nur irgendwelche Headlines, dass X gerade schneller ist als Y, und schon ist die Entscheidung gefallen, von welchem Anbieter sie nun ihre Karte kaufen, auch wenn das Mittelfeld komplett anders aussehen kann.

Von daher wäre es für AMD jetzt ein sehr wertvoller Schritt, wenn sie Nvidia endlich mal wieder in die Schranken weisen könnten.
 
  • Gefällt mir
Reaktionen: Icke-ffm
MasterAK schrieb:
Ich glaube nicht daran. Es wird immer genügend Leute geben, die nur Nvidia kaufen. Denen ist es egal, ob AMD besser ist oder nicht.
Ich kaufe das, was das bessere Preisleistungsverhältnis hat, was schneller ist, und vor allen effiezienter ist!
Raytracing finde ich sehr schön.
Nur kann ich auch mit Abstrichen im RT leben!

Würde ich in Island leben, wäre mir der Strompreis, so ziemlich egal!

Ganz im Gegenteil, ich würde mich dann noch freuen wenn meine 4x RTX 4090ti, mein Iglos mal so richtig kuschelig, warm machen!

Oder hat schon irgend jemand, eine Full Strom Flatrate gesehen?

😜
 
Haldi schrieb:
Wieso Raytracing nun nach 3 Generationen aber plötzlich so wichtig sein soll musst du mir noch erklären.
So war das nicht gemeint.

Nvidia hat sich bereits mit Ampere entscheiden müssen: AMD im oldschool Gaming Grafik Prozess schlagen oder in dem von morgen. Und die klassische fps Krone abgeben,
Die 6900XT hatte die 3090 ja bereits nach Release in einigen Benchmarks besiegt.

Jedoch: Klassische Raster+Render Berechnung ist so 90er. Und limitiert.
Die zukünftige Grafikevolution geht nur über Raytracing. Das hat ja auch AMD nunmehr erkannt.

Weil Raytracing per se ein visueller und damit immersive Gamechanger Ist.
Da muss man nix mehr erklären.

Aber:
Raytracing prevalcence bremst (im Doppelsinne) bisher die GPU Power aus.

Es geht also darum, dass die dritte RT Generation Nvidia nun nicht mehr so brutale fps Einbrüche haben wird, oder andersherum: Die 4080 16GB und die 4090 werden sie wesentlich besser kompensieren.
Die erste Gen hatte nur die 2080Ti als wirklich taugliche Raytracing GPU.
Ampere immerhin die Klasse 3070 aufwärts. Allerdings ist Cyberpunk mit RT selbst auf einer 3080Ti ab 1440p schon mühselig.


Nvidia muss die Niederlage gegen die 7900XT in der „oldschool“ Grafikwelt also kontern.
Und damit sind wir bei Thema bei dem ich Nvidia all in sehe.

Full unlocked nextgen Raytracing Grafikpracht im Gaming : Nvidia 4000er GPUs sind konkurrenzlos. So wird Nvidia das vermarkten.

Evtl fresse ich ja meine Worte in wenigen Wochen, aber alles andere erklärt das Design der neuen Nvidia GPUs nicht, wenn es nicht das RTX Fundament ist.
 
PCB Design Made in Paint, wer soll das glauben, alleine das der neue 600w Stecker nicht dabei ist, kommt sehr unglaubwürdig rüber
 
  • Gefällt mir
Reaktionen: Serandi
Serandi schrieb:
Ich finde dieses Wording für'n Gulli und es ist nicht ein Funken Sinnhaftigkeit darin. Ein Untergang wäre für NV wenn die Karten reihenweise explodieren würden oder sie plötzlich Karten wie Intel verkaufen wollen würden ;)
Ich denke @Laphonso liegt in ziemlich realistischer Einschätzung, was mir aber seelisch-moralisch nicht weiterhilft in der Entscheidung welche Karte ich kaufen möchte. Da dreht sich wieder die Frage im Kreis: will ich RT oder nicht -_-
 
  • Gefällt mir
Reaktionen: Laphonso
modena.ch schrieb:
Keine Ahnung wie du drauf kommst, dass nur weil mehr Shader da sind es arg viel mehr Speicherbandbreite braucht. Hat das NV irgendwo? Nein?

Sprich +56% Shader und +7% Speicherbandbreite bei NV. Ein Problem ist das wohl nicht.
Nv hat aber massivst den L2 vergrößert. Für die doppelte Rohleistung braucht man schon deutlich mehr Speicherdurchsatz, vielleicht nicht linear, aber 7% mehr wäre ein krasser Bottleneck.
 
Ich frag mich was ihr euch so an die Gurgel geht!
Endlich scheint nach langer Zeit mal wieder richtig viel Leistung zu kommen aus beiden Lagern und ihr fetzt euch hier !

Für mich sieht es es derzeit so aus !
4090 schnellste Karte aber teuer
Ca.10% dahinter die 7900XT zu einem klar besseren Preis mit 24GB und weniger Verbrauch !
Ca 15 % dahinter dann die 7800XT mit 20GB Preis Level bei der 4080 die dann ca 10% dahinter liegt mit 16GB aber mehr verbraucht alle Angaben auf 4K bezogen!

Die Lücke wird NV Später wohl mit der 4080Ti noch mal schließen bei AMD hat man ja auch was von einer 15*** Shader Karte gehört die wohl später kommt und zwei Chiplets haben könnte die dann Richtung 4090Ti geht!

Läuft doch für alle was dabei !
Das wird dann Preiskämpfe geben bin mir da fast sicher.
 
Zuletzt bearbeitet:
Laphonso schrieb:
AMD wird sich die Rasterizarion Krone holen und fps Königin im klassischen fps Benchmark.
Nvidia geht all in mit Raytracing wird AMD hier dominieren.
Die rohen Leistungsdaten sind laut Leaks wie folgt:
Navi 31: 66.36 TFLOPS
AD102: 82.58 TFLOPS
https://www.techpowerup.com/gpu-specs/radeon-rx-7900-xt.c3912
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889

Wenn sich das bewahrheitet, gewinnt AMD nicht die Krone.

t3chn0 schrieb:
Genau das ist ja der Punkt. Die RT Cores, egal ob Tensor oder der AMD Kram, müssen irgendwann so ausgereift sein, dass RT immer aktiv bleiben kann, ohne Performance Hit. Dazu müssen auch DLSS und FSR nochmal deutlich weiterentwickelt werden.
Wieso muss RT ohne Performance Hit auskommen und wie soll das technisch gehen?
AA, AF, HBAO etc. frisst alles Performance, weil es zusätzlich Arbeit in der Renderpipline verursacht.
Selbst DLSS und FSR fressen Performance.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: BGnom und Laphonso
@owned139
Das sind ja ganz andere Tflop Werte angegeben als bei der App GPU-L...
Welcher Quelle kann man denn eher trauen?
Ergänzung ()

@simosh
Ach natürlich war das fürn Gulli, war überhaupt nicht ernst gemeint. Die 4090 wird ein monströses Stück Hardware sein, zumindest in der heutigen Zeit.
Da wird niemand vernichtet, darum geht's ja auch nicht und eher um Konkurrenzfähigkeit.
Ja das mit Intel ist wohl echt einfach nur ein Fail, da man keineswegs das einhalten konnte, was man kommuniziert hat.
 

Anhänge

  • Screenshot_20220916_074741_com.ijsoft.gpul.jpg
    Screenshot_20220916_074741_com.ijsoft.gpul.jpg
    278,7 KB · Aufrufe: 181
  • Gefällt mir
Reaktionen: Icke-ffm und simosh
phanter schrieb:
Ich kann irgendwie nicht glauben, dass AMD den infinity cache quasi wieder aufgibt
Cronos83 schrieb:
Könnte durchaus sein, dass AMD sich durch die neue Arch so konkurrenzfähig sieht, dass weniger Infinity Cache in ihren Augen ausreicht.
In dem Fall spart weniger Chache sowohl Strom, als auch Geld ohne Nachteile zu bringen.
Shoryuken94 schrieb:
AMD scheint nicht einfach nur stumpf den Cache aufzublasen, sondern zu verbessern. Ist ähnlich wie beim Sprung zwischen Zen 2 und Zen 3. Man hätte mit gleicher Cachestruktur und doppelter Größe sicherlich auch mehr Leistung generiert, aber durch die Verbesserung der Anbindung konnte Zen 3 mit gleicher Größe den Cache deutlich effizienter nutzen und so Leistung generieren.
Tatsächlich ist die große Frage, was AMD denn am Cache verbessert hat. Rein von den Größen der MCDs passt das bislang nämlich nicht so sonderlich: In denen sitzen ein 64bit-Speicherinterface, 16MiB Infinity Cache und Kommunikationseinheiten für GCD ↔ MCD, aber gemeinsam sollen dadurch 37,5 mm² in N6 belegt werden, während ein 64 MiB-CPU-V-Cache-DIE in N7 41mm² misst.
Es sieht wohl so aus:
12mm² 64 Bit SI
15mm² 16MB IF$
10mm² Die to Die Kommunikation
Quelle: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13081525&postcount=13
→ Wahrscheinlich wird AMD entsprechend den Cache noch stärker in Richtung niedriger effektive Latenzen und höhere Bandbreite getrimmt haben. Vielleicht ist das alles mit einer Geschwindigkeitsverdoppelung verbunden?

Auch ist eine große Frage, ob die Gerüchte zu den gestakten MCDs denn stimmen werden. In denen müsste AMD das Speicherinterface jeweils deaktivieren, das wäre tote Fläche. Da die DIEs so winzig sind wird deren Yield ohnehin unfassbar gut ausfallen, entsprechend wäre eine Deaktivierung ziemliche Verschwendung → ich halte es für realistischer, dass AMD ein eigenes Infinity-V-Cache-DIE auflegt, dass dann auf gleicher Fläche 32MiB InfinityCache tragen wird. (ein Teil der Kommunikation müsste wegfallen und das GDDR-Interface)

modena.ch schrieb:
Davon ab kommt ja der grosse Chip voraussichtlich dieses mal mit 384 Bit Speicherinterface der Zweite hat immer noch 256Bit, während die 6900XT also der Grösste Chip in der letzten Gen nur 256 Bit hatte. Sprich soviel Cache wie in der letzten Gen wird gar nicht mehr nötig sein.
DevPandi schrieb:
1. Die SI werden je Klasse wieder größer - 384 Bit gegen 256 Bit, 256 Bit gegen 192 Bit. Da die Bandbreite steigt, benötigt man weniger Cache, der Zwischenspeichert.
Es geht darum, dass 256bit bislang 128MiB zur Seite gestellt bekamen und jetzt nur noch 64MiB zur Seite gestellt bekommen werden.
 
  • Gefällt mir
Reaktionen: simosh
Ghostshield schrieb:
PCB Design Made in Paint, wer soll das glauben, alleine das der neue 600w Stecker nicht dabei ist, kommt sehr unglaubwürdig rüber

Das finde ich auch ganz verwunderlich aber auch echt gut, da ich defintiv noch ein paar Jahre mein ATX 2.4 Seasonic 1300 Watt Netzteil behalten möchte. Allerdings hätte man weiterhin auf PCI-e 4.0 und nicht 5.0 setzen können. Richtiger Schwachsinn. Bei Nvidia ist genau andersherum. PCI-e 4.0 aber dann der 16 Pin Stecker... Das eine hat zwar mit dem anderen nichts zu tun aber widersprüchlich erscheint es mir doch trotzdem irgendwie. 🤔 Naja wenn es in der Praxis keine Nachteile für mich macht, wäre ich echt beruhigt. Erst letztes Jahr AM4 Board und das PSU besorgt 😆
 
Zurück
Oben