News RDNA 2: Next-Gen-Radeon erscheint vor den Next-Gen-Konsolen

Status
Für weitere Antworten geschlossen.
Taxxor schrieb:
Denn die Mikroarchitektur der RX5000 Serie ist komplett neu und hat nichts mit GCN zu tuen.
Die Microarchitektur von Vega war auch komplett neu. Bei AMD selbst schrieb man z.B. von Next Compute Units. Da gab es massive Änderungen zu Fiji oder Polaris.

Es gibt auch keinen internationalen Standard für "neue Architektur".

Unterm Strich muss man einfach nur vergleichen was neu war bei GCN zu Terrascale, z.B. die Compute Units, und wo sich RDNA zu GCN unterscheidet.

AMD hatte viel Druck von Analysten, die eine neue Architektur gefordert hatten.
Die wollten einen anderen Namen sehen als GCN.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Locuza
@Locuza Erstmal danke für die vielen Infos. Das klingt sehr interessant und lässt auf weitreichende Änderungen in RDNA2 schließen, wie wir ja alle hoffen.
Sicher einordnen kann ich nicht alle Details, aber es scheinen ja an den meisten Fronten Neuerungen zu kommen. Alleine die neuen Decoder-Einheiten, die auch bei APUs besonders interessant sein werden.
Locuza schrieb:
Navi12 (RDNA1 mit 2560 ALUs wie Navi10) verwendet aber zwei HBM2-Stacks (=2048-Bit Interface).
Das erklärt wohl, warum man Navi12 nie sah: Es war eine mögliche Konfiguration mit HBM2, die bisher nicht mal im Profibereich auftrat.
Ergänzung ()

@matty2580 Naja, Vega wurde als GCN 1.5 bezeichnet, also waren da die Ähnlichkeiten auch nach außen sichtbar. Außerdem war der CU-Aufbau exakt gleich wie immer bei GCN. Die vielen, damals vorgestellten Änderungen waren alle im Detail, und einige sind ja nichtmal funktionierend implementiert worden.
 
  • Gefällt mir
Reaktionen: Locuza
ArrakisSand schrieb:
Bist du da nicht vielleicht zu voreilig mit deiner Einschätzung das es sich bei Sienna Cichlid um Navi 21 (Big Navi) handelt.

Nein, das ist nicht voreilig. Der Eintrag mit dem 128bit breiten Interface gilt für den Emulationsmodus.

Alleine, dass der Treiber 67 AVFS-Module preisgibt, deutet auf eine große GPU hin. Was sollte es denn sonst sein?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Locuza
ArrakisSand schrieb:
Bist du da nicht vielleicht zu voreilig mit deiner Einschätzung das es sich bei Sienna Cichlid um Navi 21 (Big Navi) handelt.
https://www.guru3d.com/news-story/amd-sienna-cichlid-spotted-in-linux-kernel-patchesbig-navi.html
Anhang anzeigen 928504
Das ist der einzige Codeabschnitt, welche nicht abstrahierte Werte verwendet und der bezieht sich auf einen speziellen Emulationsmodus.
Das stellt keine Angabe bezüglich der echten GDDR6-Breite vom Chip dar.


matty2580 schrieb:
Die Microarchitektur von Vega war auch komplett neu. Bei AMD selbst schrieb man z.B. von Next Compute Units. Da gab es massive Änderungen zu Fiji oder Polaris.

Es gibt auch keinen internationalen Standard für "neue Architektur".
Vega/GCN5 hat als Ganzes schon einige Dinge verändert, rein in Bezug auf die Compute Units, gab es aber aus High-Level-Perspektive fast keine Unterschiede.
Und du hast Recht das es keinen internationalen Standard gibt, ab wann man von einer "neuen Architektur" reden kann oder nicht, aber RDNA ist relativ gesehen ein deutlich stärkerer Umbruch, der an vielen Grundprinzipien Änderungen vorgenommen hat, während Vega viel mehr vom gleichem übernommen hat.
 
Xes schrieb:
Nachdem die Sache aufflog hat Nvidia ja soweit ich das damals verstanden habe per Treiber ausgeschlossen, dass auf die langsam angebundenen 0,5GB zugegriffen wurde.
Ich finde es zwar nach wie vor verwerflich, dass die Karte mit 4GB VRAM beworben wurde aber als “Gesamtpaket“ hat die Karte eben gut funktioniert: Ordentliche Leistung bei niedriger Leistungsaufnahme und der Preis war auch noch in Ordnung.

Das war ja nicht nur der Speicher an sich, das war nur die offensichtliche Konsequenz aus den falschen Daten.
Das Speicherinterface hatte die Probleme bekommen weil der Cache Speicher kastriert wurde und der restliche Speicherbereich deshalb nicht mehr direkt angesprochen werden konnte, was wiederum dazu führte das auch ROPs verloren gingen.
Diese unbestreitbar falschen Angaben hatte man zwar ein nach dem Auffliegen korregiert (nachdem sie Monate mit falschen Angaben verkauft wurde) aber man schrieb weiterhin von einem 256 Bit Speicherinterface und 4 GB Grafikspeicher. Das dies in besagter Form gespalten war wurde weiterhin verschwiegen.
Zudem wurde der abgespaltene Speicher zwar durch den Treiber irgendwie genutzt allerdings dürfte diese treiberseitige Pflege verloren gegangens ein nachdem die Nachfolgegeneration da war.

Für eine solche Nummer hätte man AMD an die Wand genagelt, der Handel hatte die Retouren an der Backe aber nvidia verweigerte meines Wissens nach die Anerkennung des Mangels, es gab für sie keine entsprechenden Reklamatiosnkosten und statt dessen freute man sich über die Verkaufszahlen. Es hatte für sie also praktisch 0 Konsequenzen. Man stelle sich vor wenn die User auf ein Produkt bestanden hätten das die ursprünglichen Angaben erfüllt hätte und nvidia die Mangelbeseitigung an der Backe gehabt hätte....
 
  • Gefällt mir
Reaktionen: Cpt.Willard
@Locuza Eigentlich scheint alles soweit vorbereitet zu sein, dass BigNavi durchaus schon Mitte August bis Anfang September gelauncht werden könnte?! Mal schauen, was von der Fertigungsseite noch so durchsickert.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Colindo
Colindo schrieb:
Außerdem war der CU-Aufbau exakt gleich wie immer bei GCN.
PCGH schrieb:
Vega: Next-Gen Compute Units
Zum ersten Mal seit der Einführung des Graphics Core Next im Jahre 2011 nimmt AMD größere Änderungen an den Compute Units vor. Die Texaner nennen das Ganze deshalb jetzt Next-Gen Compute Units oder kurz NCUs. Eine NCU kann 512 mögliche 8-, 256 16- und 128 32-Bit-Operationen in einem 4:2:1-Verhältnis berechnen. Möglich wäre, dass AMD von 64 Shader in einer CU auf 128 in einer NCU aufstockt - fast schon ironisch: AMD ginge dann genau den anderen Weg als Nvidia, der mit GP100 erst auf 64 Shader/SM für HPC-Anwendungen heruntergegangen ist. Die FP64-Leistung für doppelte Genauigkeit sei "konfigurierbar" - eine mögliche doppelte Rate wurde nicht bestätigt.

Darüber hinaus sollen die NCUs für "signifikant" höhere Taktraten ausgelegt worden sein und gleichzeitig eine insgesamt höhere Leistung pro Takt (IPC) erreichen. Die Instruction Buffer innerhalb der NCUs werden größer.

https://www.google.com/url?sa=t&sou...Vaw02OTralAzMi0AwQ9Jr5Jw5&cshid=1591361115660
Es gab also große Änderungen an den CUs bei Vega.
 
@matty2580 Wurde alles schonmal besprochen. Hier der sehr ausführliche Post von Krautmaster:
Krautmaster schrieb:
GCN war von Anfang bis Ende quasi unverändert aber man hat auch aus Marketing zig Versionen draus gemacht... was sich ändert ist eher das drum rum... Video Engine, Tessellation usw
Anhang anzeigen 885126

Da sieht man die einzelnen "richtigen" Generationen viel besser...

RDNA zu GCN hier
Anhang anzeigen 885128

Wie bei allem, egal ob CPU / GPU ist es immer eher eine Iteration die auf dem Vorgänger aufbaut. Mal sehen ob RDNA 2 da am Aufbau wirklich schon wieder was ändert.

Was sich bei GCN von V1.0 - 4.0 geändert hat?
Anhang anzeigen 885133

überschaubar würde ich sagen...

Edit: AMD muss auch nicht viel ändern außer sie haben in der ersten RDNA Sache Flaschenhälse ausgemacht die es Wert sind anzugehen. Von den angekündigten 50% Effizienzsteigerung würde ich darauf aber keines Falls schließen. Da sehe ich wie gesagt eher Optimierungen im Uncore oder Fertigung für verantwortlich, weniger "RDNA" auch wenn es jetzt ggf RDNA 2.0 heißen mag.

RDA 1.0 funktioniert ja gut, ich finde der Schritt von GNC weg ist durchaus gelungen. Man denke nur an die brutal schlechte Auslastung teilweise von 4096 Shader GNC GPUs. Da kam oft wenig der Rohleistung an.

Wie AMD richtig sagt war der Schwerpunkt GCN eher auf Computing.
Allerdings gehe ich anders als er davon aus, dass mit RDNA2 erneut deutliche Änderungen gibt und sich viel verbessert.
 
  • Gefällt mir
Reaktionen: Krautmaster
ZeroStrat schrieb:
@Locuza Eigentlich scheint alles soweit vorbereitet zu sein, dass BigNavi durchaus schon Mitte August bis Anfang September gelauncht werden könnte?! Mal schauen, was von der Fertigungsseite noch so durchsickert.

Man weiß halt nicht inwiefern die Lieferketten von Corona getroffen wurden. TSMC selbst hat ja Entwarnung gegeben, dass bei ihnen die Produktion ganz normal läuft, aber da hängt noch so viel hintendran, was nichts mit der Chipfertigung zu tun hat. Da muss man wohl einfach warten.
 
Stimmt hab es mittlerweile auch mitbekommen es handelte sich anscheinend wirklich nur um den Emulationsmodus.
Wie sieht denn der entsprechende Eintrag bei NAVI 12 bei dem ja spekuliert wird das es sich um NAVI10 + HBM2 handelt aus?
Bzw. gibt es noch weitere Stellen im Code der Rückschlüsse auf GDDR6 zulässt?
 
Ich stelle Krautmaster bestimmt nicht über die Redaktion von PCGH, CB, 3dcenter, oder anderen Seiten, die alle größere Änderungen bei Vega beschrieben hatten.......
 
Und "neue Architektur" kann man auf viele Dinge drauf kleben, besonders wenn AMD die Analysten im Nacken hängen.

Ich persönlich finde es auch ok wenn AMD das so macht.
Unterm Strich zählt allein die Leistung.
 
Novasun schrieb:
Wieso die 5700 war ein großer Wurf.
Hab ich nie so ganz verstanden, warum das so sein soll....
Leistung die es bei Nvidia schon lange vorher gab.

Für 7nm viel zu warm und was Leistung angeht, wieder dürftig.

Effizienz für 7nm eigentlich ein Witz.

Preise auch viel zu hoch, auch wenn günstiger als die "Super" Karten. Dafür auch 10 % langsamer.
 
@matty2580

Viele ist aber nicht gleich bedeutend mitgroße oder gar grundlegene Veränderungen.
Die meisten Änderungen waren eher welche im Detail, wobei die grundlegene Arbeitsweise gleich blieb.
Die größten Veränderungen waren eher der HBM Cache Controller beim Speicher Management und die primitive Shader Fähigkeit die offenbar nie zum Einsatz kam.
Bei RDNA ging es aber ans Eingemachte mit deutlichen Veränderungen am grundlegenen Shader Design und deren Arbeitsweise, was durchaus die Bezeichnung einer neuen Architektur und nicht nur eines Upgrades rechtfertigt.
 
ArrakisSand schrieb:
Jetzt wissen wir alle, das der Umstieg von GCN auf RDNA1 einen IPC Sprung von ca. 25% brachte.

Weshalb bei RDNA2 ein Sprung von 0-20% sicherlich als realistisch zu betrachten ist.

Aber auch hier gehe ich konservativ an die Sache ran und rechne mit 0%
Die Folien zu RDNA2 hatten als großen Punkt bereits IPC Improvements drauf stehen, daher wären 0% ausgeschlossen und die 10% eher konservativ.
ArrakisSand schrieb:
Falls eines oder mehrere der positiven, von mir nicht berücksichtigten Szenarios eintreten würde: IPC z.B +10%
Takt 2.1-2.2GHz würde eine NAVI 22 sogar eine max. OC RTX2080ti (2.2GHz) ohne mit der Wimper zu zucken zersägen können.
(Stromverbrauch ca. 2/3?)

2/3 der 275W der 2080Ti würde bedeuten ca 180W, das erscheint mir sehr unrealistisch.

Selbst wenn du die 50% Perf/Watt komplett in geringeren Verbrauch umrechnest, dann kämst du mit 40CUs bei 1850MHz auf 150W (5700XT TBP x 0,66).

Jetzt hast du 60 CUs, 33% mehr, der Verbrauch steigt also um mindestens 20%, wenn das SI usw gleich bleibt.
Damit landest du bereits bei 180W und bist immer noch bei 1850MHz
 
Zuletzt bearbeitet:
Benji18 schrieb:
"herumtrickens" ist eher schlecht gewählt, Sie haben die Karten bzw. die SW auf diese Art angepasst. Sprich ein Software Sheduler anstatt dies wie bei AMD in Hardware zu gießen, da dennoch genug Spiele nachwievor DX11 haben wird es wohl noch ne ganze weile dauern bis DX 12 od. Vulkan diese komplett verdrängt hat.

Herumtricksen ist absolut der richtige Ausdruck. Kannst es auch pfuschen oder murksen nennen, weil die DX11 API sieht so etwas überhaupt nicht vor. Auch wenn es gut zu funktionieren scheint, scheisst es auf den Standard.
 
modena.ch schrieb:
Herumtricksen ist absolut der richtige Ausdruck. Kannst es auch pfuschen oder murksen nennen, weil die DX11 API sieht so etwas überhaupt nicht vor. Auch wenn es gut zu funktionieren scheint, scheisst es auf den Standard.

Ja stimmt, ich spiele AC:Od auch lieber mit unter 60 FPS auf einer Radeon VII, weil das auf einer Nvidia Karte alles so getrickst und gemurkst ist... :freak:

Low FPS ftw, aber dafür standardkonform!
 
  • Gefällt mir
Reaktionen: Benji18
itsommer schrieb:
Wunder gibt es immer wieder - zuletzt 2012 mit der Radeon HD 7970 :)

Und davor die 9700Pro von 2002.
Wenn AMD den Zyklus beibehält, dann wird es erst 2022 was :D
ArrakisSand schrieb:
Ladys and Gentlemen ich ich fasse mich mal kurz und versuche so kompakt wie möglich die momentane Gerüchtelage, sowie etwas gesunden Menschenverstand hier einfließen zu lassen.

Es wird wohl mindestens 3 Verschiedene RDNA2 Varianten geben, wobei ich mich hier bewusst auf NAVI 22 konzentriere, da er meiner Meinung nach der Gegenspieler zur RTX2080ti / RTX3080 sein wird.
Richtig gehört AMD's Mittelklasse wird allem Anschein nach mit NVIDIA's gehobener Oberklasse der letzten und der Oberklasse der kommenden Gen. konkurrieren.
NAVI 23, 240mm2, 40CU (2560)
NAVI 22, 340mm2, 56-64CU (3584-4096)
NAVI 21 (2X), 505mm2 (aka Sienna chichlid) 80CU (5120)

Die XBOX Series X hat einen SoC = 56CU (52 aktiv), 360mm2 (davon CPU / I/O = min. 60mm2) ergibt <=300mm2
Wenn jemand der Meinung ist das die verbaute GPU deutlich grösser als 300mm2 ist, dann bin ich auf die Argumentation bereits gespannt.

Wenn nun 56CU's nur 300mm2 benötigen wie viele CU's werden dann wohl in 340mm2 platz finden?
Ja richtig gerechnet es sind 64CU's

64/56=1.14 bzw. 300x1.14=342nmm2 (Da zum Beispiel der I/O nicht linear mit skalieren muss eher weniger)

OK dann wären wir bei den zu erwartenden Taktraten:
XBox (52CU) = 1825 MHz (Konsole limitirtes Power budget und muss dieses auch noch mit der CPU teilen>)
PS5 (36CU) = 2230 MHz (Dito)

Von einem Desktop NAVI 22 sind daher min. 2000 MHz zu erwarten.
Ich persönlich würde sogar eher annehmen das es bis zu 2200 MHz in der Spitze werden.

Aber ich gehe bei meiner Einschätzung lieber etwas konservativ an die Sache heran.
Daher hätten wir nun einen NAVI 22 mit 64CU (4096) und 2GHz Takt. (16.4 TFLOPS)

Jetzt wissen wir alle, das der Umstieg von GCN auf RDNA1 einen IPC Sprung von ca. 25% brachte.

Weshalb bei RDNA2 ein Sprung von 0-20% sicherlich als realistisch zu betrachten ist.

Aber auch hier gehe ich konservativ an die Sache ran und rechne mit 0%

Eine RTX2080ti FE hat 1635MHz / 4352 = 14.2 TFLOPS ---------> RTX 3080 (+10%)
RTX2080ti, 2GHz / 4352 = 17.4 TFLOPS ----------> RTX 3080 (+10%)

Wie man sieht konkurriert eine konservativ getaktete (2GHz) mit (IPC+0%) NAVI 22 mit einer relativ hoch getakteten (2Ghz) RTX2080ti.

Falls eines oder mehrere der positiven, von mir nicht berücksichtigten Szenarios eintreten würde: IPC z.B +10%
Takt 2.1-2.2GHz würde eine NAVI 22 sogar eine max. OC RTX2080ti (2.2GHz) ohne mit der Wimper zu zucken zersägen können.
(Stromverbrauch ca. 2/3?)
OC Varianten mit 2.2GHz wird es denke ich auf jeden Fall später noch geben.

Dies ist auch der Grund wieso NVIDIA der Arsch gerade auf Grundeis geht
NVIDIA's Oberklasse kann es nur mit AMD's gehobener Mittelklasse aufnehmen.

Noch Fragen?

In deiner Rechnung fehlt die RT-Performance, Nvidia hat dafür ja spezialisierte Hardware.
Und ob AMD soetwas wie DLSS hat, hast du auch nicht erwähnt.
Deswegen ist das nur Träumerei deinerseits
 
  • Gefällt mir
Reaktionen: LETNI77
DrFreaK666 schrieb:
Und davor die 9700Pro von 2002.
aber auch danach mit der 290X von 2013.

Und auch vor der 7970 war man mit der 5870 oder der 4890 auch oben mit dabei.

Eine wirkliche Durststrecke begann erst mit der 390X
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben