News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

@cruse

Der Unterschied ist, GCN war eine Architektur vor allem für Compute, welche bei AMD auch für Gaming herhalten
musste, weil man sich eine zweite Arch rein für Game nicht leisten konnte. Und GCN hatte selbst mit Vega noch offensichtliche Auslastungsprobleme bei Gaming und konnte nie genug Bandbreite bekommen, für Compute ein super Teil.
Und leider wurde vor allem richtung Compute weiter entwickelt und durch den ganzen Compute
Ballast waren die grösseren Varianten auch nicht wirklich effizient.


Jetzt hat AMD eine Architektur für Compute (CDNA) und eine für Game (RDNA)

Bei Navi 10 ist schon der erste Wurf von RDNA1 ersichtlich und das ist noch ein GCN Hybride.
RDNA2 ist laut AMD so wie RDNA sein sollte.
Und schon der erste RDNA hat die IPC von Turing.
Auslastung scheint kein Problem mehr zu sein und selbst die Speicherkomprimierung, wo man immer mässig
war, ist zumindest so gut wie Pascal.
RDNA2 dürfte ein schönes Update geben.

Also da weiss man schon mal was geht und bisher hatten sie nur den kleinen Mittelklassechip mit RDNA1
gebracht. Jetzt kommt der Dickere. Da ist für mich bereits sehr viel ersichtlich.

Alles unter 2080TI +20% wäre für mich rein von den Daten her schon echt schwach.
Zumindest auf das Level einer 3080 sollten sie kommen. Sonst wäre es wieder so ein
nicht besonders attraktiver Bereich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strubbel99 und GUN2504
sdo schrieb:
Zeigt mir doch mal die Zeiten wo neue Konsolen schneller als 99% der PCs auf Markt waren.

Ist gar nicht so lange her (relativ gesehen), da waren Konsolen nicht nur schneller als 99% aller Gaming-PCs, sondern schneller als 100% aller Gaming-PCs.
 
KlaraElfer schrieb:
Hat man bis heute diesen Ballast eigentlich schon identifiziert, oder wie ist der zu benennen?
Im Vergleich zur Hawai Architektur sehe ich da keinen Ballast, der vorher nicht da war, oder was ist der Unterschied zu Navi?

Wavefronts, Cache-Management und letztlich Geometriedurchsatz. Beste anschauliche Erklärung dazu auf Youtube:

Ebenfalls sehr interessant (u. a. zum Thema Wavefronts) dieser Reddit Beitrag: https://www.reddit.com/r/Amd/comments/acg22i/musings_on_vega_gcn_architecture/
 
Zuletzt bearbeitet von einem Moderator:
cruse schrieb:
@modena.ch
ich glaub die geschichte setzt sich eher fort.
che-tah nimmt mir die worte aus dem mund:

aber mir persönlich egal, erstmal kein geld für (luxus-)upgrades und ich brauchs auch nicht ;)

das Problem war GCN bzw. das Frontend was letzten endes dazu geführt hat das die Shader nicht genug ausgelastet wurden, daher die viele Roleistung auf dem Papier vs. was ankommt. Wenn Sie das Problem lösen können dafür hat man ja mit RDNA 1 angefangen alte zöpfe abzuschneiden und mit RDNA 2 möchte man einen kompletten Architekturchange machen so wie ich das verstanden habe.

Daher ist zu erwarten das die RDNA 2 Karten deutlich besser auf der Shader Seite ausgelastet werden können.
 
Che-Tah schrieb:
Vega64 hatte auch genug Rechenleistung (TFlops) um gegen NV Highend zu bestehen... aber leider nur auf den Papier.
Einen kleinen Chip ums doppelte hochskalieren heißt nicht, dass er da Doppelte leistet.
Auf alle Fälle wirds spannender als die letzten Jahre.

Achja... ich hoffe manche Weltverbesserer - die meinen Firmen hätten was zu verschenken - stellen sich eh schon drauf ein das Big Navi auch entsprechen kosten wird...

sieht man auch schon an der RX5700 und 5700XT das die pro Shader Leistung nicht prozentual mit steigt. Der Chip wird auch nicht einfach eine hochskalierung vom Navi10 sein. Da wird man schon am Chip Design Optimiert haben zumal nirgends RT Kerne vorkommen. Das ja immer noch ein riesen Geheimnis wie AMD das mit RDNA2 umsetzt.
 
sdo schrieb:
Nein war es nicht. Die alten Konsolen waren bereits schon zu release immer um einige Jahre veraltet. eine 350-400€ Grafikkarte wie die R9 290 hatte immer schon deutlich mehr Leistung als ps4 und xbone zu release, die <= HD7850 Leistung hatten.

Und ne PS2 hat damals jeden PC aussehen lassen, als wäre man in einem Museum.
Ja, ab der PS4/xBoxOne waren richtige Gaming-PCs schneller, bei jeder Generation davor haben die Konsolen die PCs bei Release weggefegt - besonders extrem zu PS1/2 Zeiten.
 
  • Gefällt mir
Reaktionen: GERmaximus
Xes schrieb:
...und welche Karte und welches Netzteil sollen das gewesen sein? Ich hatte eine R9 290 die mit einem 480W bequit E9 jahrelang problemlos lief, aktuell habe ich eine Vega 64, die mit einem 500W bequit SP10 läuft.
Das war eine AMD Radeon R9 390 8GB Gigabyte G1 Gaming OVP, extra gekauft, weil ich mit Sohnemann Star Wars Battlefront spielen wollte. Vorher war eine GTX 960 mit 2GB drin. Kaum war die Karte eingebaut, und man hat das Spiel gestartet, Peng, PC ging aus. Ein 650 W Netzteil von beQuiet brachte Abhilfe. Das Teil war aber soo laut, daß ich das Ding 2 Zimmer weiter hörte. Das wurde dann April 2018 gegen eine GTX 1060 getauscht, und seitdem ist wieder Ruhe.
Darknesss schrieb:
Wer High-End will, darf auch ruhig High-End zahlen.
Da braucht man sich nicht bei AMD beschweren, wenn die Nvidia Karten so teuer sind.
Ich habs zum Glück nicht nötig, mich zu beschweren. Ich kauf das Zeugs und fertig. ;)
bigfudge13 schrieb:
Das kann ich nicht bestätigen. Meine AMD-Karten waren immer bzw sind sehr leise und in etwa gleich schnell wie die entsprechende Karte von Nvidia. Ich kaufe aber nur immer nur Mittelklasse.
4850/7850/480/5700.
Aber ich, und ich hab/hatte bis zu 7 PC in der Wohnung stehen (aktuell sind es nur noch 4 ;) ). AMDs 290 (X)/380/390 waren günstiger, aber ganz klar stromfressender und lauter als die Nvidia Pendants.

Ich würde meiner Erfahrung jetzt nicht zuviel Aufmerksamkeit bemessen, jeder hat eine andere Umgebung, andere Ansprüche, so daß Erfahrungen nicht immer vergleichbar sind.
 
Zuletzt bearbeitet:
Und was war das "gute" bequit Netzteil? Ein uraltes billig L7?
Wie gesagt: Meine R9 290 mit ähnlichem Verbrauch lief bei mir mit einem 480W E9 und läuft aktuell bei einem Kumpel mit einem billigen 500W Coolermaster Bronze Netzteil weiter.
PHuV schrieb:
Radeon R9 390 8GB Gigabyte G1 Gaming
Es war (zumindest hier im Forum) weithin bekannt, dass nur Sapphire und Powercolor ordentliche Kühler gebaut haben. Das konnte man auch in jedem Test so lesen. Die Unfähigkeit Gigabytes keine guten Kühler zu bauen zu können, kann man nicht AMD in die Schuhe stecken.
 
  • Gefällt mir
Reaktionen: Sturmflut92, Balikon, Obvision und 2 andere
Bei AMD Grafikkarten halte ich es wie bei Intel CPUs, erstmal liefern, dann kann ich vlt. in Zukunft auch mal wieder einem Gerücht oder Prognose glauben.

Da es seit ner Dekade nichts mehr bei AMD gab das NVIDIA wirklich das Wasser reichen kann, bleiben meine Erwartungen niedrig.

Es kam schon sooo oft vor das man dachte AMD holt zum Rückschlag bei Grafikkarten an, es wurde nie was.

Es hat natürlich Gründe, wie schon beschrieben wurde war GCN eine Compute Architektur und wegen Geldmangel konnte man nicht wie NVIDIA Zweigleisig fahren etc. pp. und jetzt ist alles SUPA.

Dennoch, erstmal Tests abwarten, dann schau ich ob ich meine teure Zotac 5 Jahres Garantie 2080 ablöse (sodas ich vlt. nicht zu hart drauflegen muss).
Ohne RT / DLSS AMD Gegenpart wird es für AMD dennoch schwer. Und hier weiß man nichts genaues, außer das es irgendwie Hardware / Software Mischmasch wird und es womöglich keine gesonderten ALU dafür gibt, sondern etwas aufgebohrte normale.

Xes schrieb:
Die Unfähigkeit Gigabytes keine guten Kühler zu bauen zu können, kann man nicht AMD in die Schuhe stecken
Asus bitte nicht vergessen... soweit ich weiß geht des mit AMD einfach gar nicht. Wie auch wenn man 800mm² DIE Kühler für AMDs winz DIEs nutzen will.
 
ZeroStrat schrieb:
Also doch das Frontend...
Immer noch nicht richtig, aber machen wir es mal so:

Anders als du bisher hier behauptest, gab es und gibt es kein Frontend-Problem bei GCN, sondern das Problem ist wesentlich trivialer oder anders ausgedrückt, das Problem liegt nicht im Frontend, sondern daran, wie das Frontend angesprochen wird und wie anschließend das Front-End die Aufgaben ans Backend verteilt.

1 CU bei AMD besteht aus 4 Vec16-ALUs die bei GCN mit jeweils einem Wave16-Befehl gefüttert werden. Sehr stark vereinfacht: Für jeden der Wave16-Befehle benötigt es einen eigenen "Thread" auf der Grafikkarte, damit diese ausgeführt werden. Je weniger Threads auf der GPU geöffnet werden, um so weniger Wave16-Befehle werden gefüllt, selbst wenn theoretisch genug Daten vorhanden wären um die Einheit auszulasten.

Stark vereinfacht: In einem Thread kommen 64 Werte für die CU, dann verpackt der Thread die in 4 einzelnen Wave16-Befehle und schickt die nach einander los auf die CU. Der Thread kann aber die 4 Wave16-Befehle nicht zur gleichen Zeit abschicken. Kommen diese 64 Werte nun über 4 Threads, dann füllt jeder seinen Wave16-Befehl und schickt diesen dann gleichzeitig ab. Einmal werden nur 25% der CU genutzt, beim anderen Mal 100%.

Und genau diese Schwachstelle wurde mit NAVI angegangen, in dem nun die Vec16 durch Vec32-ALUs ersetzt wurde und man nun Wave32-Befehle hat. Schon füllt ein Thread nur noch 2 Wave32-Befehle und schickt diese nach einander ab, nun werden 50% der Ressourcen genutzt.

Die Grafikkarte benötigt also wesentlich weniger "Threads" um ausgelastet zu werden.

Das Problem bei GCN ist also nicht direkt das Frontend oder das Backend gewesen, sondern dass man weder Frontend noch Backend wirklich auslasten konnte, wenn die Software diese Eigenheiten nicht beachtet hat.

Oder noch stärker vereinfacht: GCN ist massiv von Softwareoptimierung abhängig. RDNA ist nun von Softwareoptimierungen wesentlich unabhängiger. ;)

ZeroStrat schrieb:
Davon bin ich noch nicht überzeugt, also dass damit problemlos 80 CUs befeuert werden können. Außerdem, warum hat AMD dann nur so verhältnismäßig kleine Chips mit RDNA 1 umgesetzt?
Warum hat AMD das wohl gemacht? Es ist ja nicht so, dass AMD seit ca. 2011/2012 so einige Geldprobleme hatte und entsprechend sich auf bestimmte Sachen konzentrieren mussten und erst seit 2018 wieder langsam das Geld eher vorhanden ist.

AMD hatte lange Zeit nicht den Luxus ihre Chips "beliebig" zu skalieren, sondern hat relativ fest auf bestimmte Chips hingearbeitet mit Verbesserung in der Architektur.


Ebu85 schrieb:
AMD hat mit RDNA1 noch eine Mischung aus GCN und RDNA, wurde auch immer wieder so gesagt. RDNA2 ist eigentlich die vollendet Version.
Ich bin erstaunt, wie lange sich diese Mär immer noch hält, wobei selbst AMD es erläutert hat.

Nein RDNA ist keine Mischung aus RDNA und GCN und RDNA2 wird nicht die vollendete Version sein. Was da die Schweden als auch WCCFTech geschrieben hat, ist unfundierter Blödsinn von Leuten, die keine Ahnung haben, wie sowohl Software- als auch Hardwareentwicklung wirklich abläuft.

RDNA basiert - oh welch ein Wunder - natürlich auf GCN. Man übernimmt die gut funktionierenden Teile und überarbeitet die schlechten Teile. Denn eine vollständig neue Entwicklung, egal ob jetzt als GPU mit selber ISA oder sogar beides, sprich ISA und GPU, ist sehr kostenintensiv und braucht auch entsprechend lange.

Die Basis sowohl für RDNA als nun auch die kommenden CDNA ist GCN, die beide jetzt an die entsprechenden Anforderungen ihrer Zielgebiete angepasst werden. RDNA ist also eine Weiterentwicklung der GCN und RDNA2 wird eine Weiterentwicklung der RDNA sein und dort an entsprechenden Stellen ansetzten und da Verbesserung bringen, wo diese notwendig sein werden und natürlich wird man auch in Navi2x noch Anleihen aus GCN finden.

Im übrigen verfährt NVIDIA genau so, bei denen die Grundarchitektur ist CUDA, die mit G80 vor über 10 Jahren eingeführt wurden und selbst heute findet man noch Anleihen aus den G80-Chips in den modernen Chips. Auch hier wurde von Generation zu Generation an den Schwachstellen Veränderungen vorgenommen und gut funktionierende Bestandteile übernommen.

Lustig ist hier auch, dass man bei NVIDIA jede neue "Architektur" auch als diese Akzeptiert, nicht von "Hybrinden" spricht, obwohl man auch da sieht, dass hier Anpassungen an bestimmten Stellen vorgenommen wurden, während man andere übernommen hat. Da sabbelen aber die Schweden als auch WCCFTech nicht davon, dass da "Hybrid-Architekturen" auf den Markt kommen.

KlaraElfer schrieb:
Im Vergleich zur Hawai Architektur sehe ich da keinen Ballast, der vorher nicht da war, oder was ist der Unterschied zu Navi?

Der primäre Ballast bei GCN ist die feine Granularität der CU mit seinen 4 * Vec16-ALUs, die zur gleichen Zeit unterschiedliche Befehle abarbeiten konnten. Oben steht dazu etwas mehr.

Diese feine Granularität ist für OpenCL/Wissenschaftliche-Anwendungen sehr gut, weil man so relativ schnell viele Daten berechnen kann, man kann hier ja auch recht einfach viele Threads öffnen. Bei Spielen sah das anders aus.
 
  • Gefällt mir
Reaktionen: Einfallslos^99, ThePlayer, Connsen27 und 11 andere
sdo schrieb:
Niemand der Rollenspiele, Shooter oder ähnliches zockt, gibt 1000€+ für einen PC aus wenn's für die Hälfte wahrscheinlich sogar noch die bessere Grafik gibt.

Genau NIEMAND! Deswegen verdient nvidia auch so wenig, weil NIEMAND so viel für eine Grafikkarte bezahlt.
 
  • Gefällt mir
Reaktionen: Balikon, Obvision, bad_sign und eine weitere Person
modena.ch schrieb:
Bei Navi 10 ist schon der erste Wurf von RDNA1 ersichtlich und das ist noch ein GCN Hybride.
Das mit dem Hybrid ist eine Aussage, die irgendwelche Schweden - da fällt mir gerade die Quelle nicht ein - und WCCFTech verbreitet haben, weil man noch Gemeinsamkeiten zwischen RDNA1 und GCN gesehen hat, was aber, wie gesagt, nicht verwundert.

Selbst in RDNA2 wird man vermutlich noch GCN-Wurzeln finden. AMD selbst hat nie davon gesprochen, dass es sich um eine Hybrid-Architektur handelt, sondern nur damals, dass RDNA immer noch die GCN-ISA verwendet, ansonsten aber entsprechend eine Weiterentwicklung sowie in Teilen eine Neuentwicklung ist.
 
  • Gefällt mir
Reaktionen: Balikon und Shoryuken94
Blackscreens kommen bei AMD meistens wirklich nur dann zu Stande wenn der Chip den Stock tackt nicht halten kann oder wenn die Karte über das Limit übertaktet wurde.

Hab eine 5700 XT und hatte unter Stock keinen einzigen Blackscreen.

Blackscreens kamen nur dann zu Stande wenn die Karte zu heiß wurde oder zu viel Takt gefahren wurde.
 
Shoryuken94 schrieb:
.. 24GB wären aber deutlich zu teuer, 12GB eine Enttäuschung.
wieso? die konsolen haben zum teil 16gb für system und grafik - also genau diese 12gb wären ok finde ich. vor allem macht der preis die musik.
 
  • Gefällt mir
Reaktionen: Obvision, Wichelmanni und v_ossi
KlaraElfer schrieb:
Hat man bis heute diesen Ballast eigentlich schon identifiziert, oder wie ist der zu benennen?
Im Vergleich zur Hawai Architektur sehe ich da keinen Ballast, der vorher nicht da war, oder was ist der Unterschied zu Navi?
Bezogen auf Vega 20 wäre da zusätzlich zu ZeroStrat noch die FP16, INT8 und wenn ich mich nicht täusche sogar INT4 Performance zu nennen. FP64 und FP32 ist eine MI60 grob 3x so schnell als eine W9100, bei FP16 dann 6x so schnell, weil die MI60 zwei FP16 Berechnungen in eine FP32 verpacken kann. Hawaii muss für eine FP16 Berechnung eine FP32 durchführen, bei INT Berechnungen mit niedriger Genauigkeit hat man da das selbe Problem. Das kostet alles Transistoren und summiert sich entsprechend. In Rechenzentren ist Vega20 deutlich besser unterwegs als Hawaii (wobei Hawaii damals mit seiner FP64 Leistung natürlich auch ziemlich gut war).
 
Teralios schrieb:
Immer noch nicht richtig, aber machen wir es mal so:

Anders als du bisher hier behauptest, gab es und gibt es kein Frontend-Problem bei GCN, sondern das Problem ist wesentlich trivialer oder anders ausgedrückt, das Problem liegt nicht im Frontend, sondern daran, wie das Frontend angesprochen wird und wie anschließend das Front-End die Aufgaben ans Backend verteilt.

1 CU bei AMD besteht aus 4 Vec16-ALUs die bei GCN mit jeweils einem Wave16-Befehl gefüttert werden. Sehr stark vereinfacht: Für jeden der Wave16-Befehle benötigt es einen eigenen "Thread" auf der Grafikkarte, damit diese ausgeführt werden. Je weniger Threads auf der GPU geöffnet werden, um so weniger Wave16-Befehle werden gefüllt, selbst wenn theoretisch genug Daten vorhanden wären um die Einheit auszulasten.

Stark vereinfacht: In einem Thread kommen 64 Werte für die CU, dann verpackt der Thread die in 4 einzelnen Wave16-Befehle und schickt die nach einander los auf die CU. Der Thread kann aber die 4 Wave16-Befehle nicht zur gleichen Zeit abschicken. Kommen diese 64 Werte nun über 4 Threads, dann füllt jeder seinen Wave16-Befehl und schickt diesen dann gleichzeitig ab. Einmal werden nur 25% der CU genutzt, beim anderen Mal 100%.

Und genau diese Schwachstelle wurde mit NAVI angegangen, in dem nun die Vec16 durch Vec32-ALUs ersetzt wurde und man nun Wave32-Befehle hat. Schon füllt ein Thread nur noch 2 Wave32-Befehle und schickt diese nach einander ab, nun werden 50% der Ressourcen genutzt.

Die Grafikkarte benötigt also wesentlich weniger "Threads" um ausgelastet zu werden.

Das Problem bei GCN ist also nicht direkt das Frontend oder das Backend gewesen, sondern dass man weder Frontend noch Backend wirklich auslasten konnte, wenn die Software diese Eigenheiten nicht beachtet hat.

Oder noch stärker vereinfacht: GCN ist massiv von Softwareoptimierung abhängig. RDNA ist nun von Softwareoptimierungen wesentlich unabhängiger. ;)


Warum hat AMD das wohl gemacht? Es ist ja nicht so, dass AMD seit ca. 2011/2012 so einige Geldprobleme hatte und entsprechend sich auf bestimmte Sachen konzentrieren mussten und erst seit 2018 wieder langsam das Geld eher vorhanden ist.

AMD hatte lange Zeit nicht den Luxus ihre Chips "beliebig" zu skalieren, sondern hat relativ fest auf bestimmte Chips hingearbeitet mit Verbesserung in der Architektur.



Ich bin erstaunt, wie lange sich diese Mär immer noch hält, wobei selbst AMD es erläutert hat.

Nein RDNA ist keine Mischung aus RDNA und GCN und RDNA2 wird nicht die vollendete Version sein. Was da die Schweden als auch WCCFTech geschrieben hat, ist unfundierter Blödsinn von Leuten, die keine Ahnung haben, wie sowohl Software- als auch Hardwareentwicklung wirklich abläuft.

RDNA basiert - oh welch ein Wunder - natürlich auf GCN. Man übernimmt die gut funktionierenden Teile und überarbeitet die schlechten Teile. Denn eine vollständig neue Entwicklung, egal ob jetzt als GPU mit selber ISA oder sogar beides, sprich ISA und GPU, ist sehr kostenintensiv und braucht auch entsprechend lange.

Die Basis sowohl für RDNA als nun auch die kommenden CDNA ist GCN, die beide jetzt an die entsprechenden Anforderungen ihrer Zielgebiete angepasst werden. RDNA ist also eine Weiterentwicklung der GCN und RDNA2 wird eine Weiterentwicklung der RDNA sein und dort an entsprechenden Stellen ansetzten und da Verbesserung bringen, wo diese notwendig sein werden und natürlich wird man auch in Navi2x noch Anleihen aus GCN finden.

Im übrigen verfährt NVIDIA genau so, bei denen die Grundarchitektur ist CUDA, die mit G80 vor über 10 Jahren eingeführt wurden und selbst heute findet man noch Anleihen aus den G80-Chips in den modernen Chips. Auch hier wurde von Generation zu Generation an den Schwachstellen Veränderungen vorgenommen und gut funktionierende Bestandteile übernommen.

Lustig ist hier auch, dass man bei NVIDIA jede neue "Architektur" auch als diese Akzeptiert, nicht von "Hybrinden" spricht, obwohl man auch da sieht, dass hier Anpassungen an bestimmten Stellen vorgenommen wurden, während man andere übernommen hat. Da sabbelen aber die Schweden als auch WCCFTech nicht davon, dass da "Hybrid-Architekturen" auf den Markt kommen.



Der primäre Ballast bei GCN ist die feine Granularität der CU mit seinen 4 * Vec16-ALUs, die zur gleichen Zeit unterschiedliche Befehle abarbeiten konnten. Oben steht dazu etwas mehr.

Diese feine Granularität ist für OpenCL/Wissenschaftliche-Anwendungen sehr gut, weil man so relativ schnell viele Daten berechnen kann, man kann hier ja auch recht einfach viele Threads öffnen. Bei Spielen sah das anders aus.

Dankö für die Erklärung!
 
  • Gefällt mir
Reaktionen: Viper2000
Also ich denke mal laut:
Wenn der Release im August sein soll, müssten dann nicht schon längst Muster bei den Computer(base)Seiten ;) rumschwirren und viel mehr Leaks verbreitet werden? Selbst wenn es Ende August wäre, sind das nur noch 3-Wochen und das in den Sommerferien.

Ich glaube da nicht so recht dran. Denke eher, dass es sich noch länger, eher Richtung Ende September hinzieht.
 
Loopman schrieb:
Und ne PS2 hat damals jeden PC aussehen lassen, als wäre man in einem Museum.
Ja, ab der PS4/xBoxOne waren richtige Gaming-PCs schneller, bei jeder Generation davor haben die Konsolen die PCs bei Release weggefegt - besonders extrem zu PS1/2 Zeiten.
In welchem Paralleuniversum soll das noch mal gewesen sein?!?
 
  • Gefällt mir
Reaktionen: Zubz3ro, Wichelmanni, Fighter1993 und eine weitere Person
Teralios schrieb:
Der primäre Ballast bei GCN ist die feine Granularität der CU mit seinen 4 * Vec16-ALUs, die zur gleichen Zeit unterschiedliche Befehle abarbeiten konnten. Oben steht dazu etwas mehr.

Das konnte aber GCN allgemein und ist keine Vega Besonderheit.
Bei GCN war die 7970, die R9 290x mehr als konkurrenzfähig, spätere Karten waren es nicht mehr, da hat sich an der Granularität auch nicht viel geändert. Hawai hatte sogar ein 512bit Interface und eine Ratio von 1:2 wenn es um DP workloads ging, verballerte also schon damals extra Transistoren.

Ich kann diesen "Ballast" nicht wirklich sehen und die feinere Granularität ist eher eine Designfrage und keine Befähigung für hohe Computeleistung, denn auch da ist Navi überlegen und der nächste fette Compute Chip kommt sicher mit RDNA2 Architektur.
 
Zurück
Oben