Test RDNA 2 vs. RDNA vs. GCN im Test: IPC und CU-Skalierung bei Radeon RX seit GCN analysiert

Die Zielsetzung bei Nvidia war ganz klar 4k Gaming.
Was ja auch gut ist.
Nach wie vor ist die am meisten verbreitete Auflösung 1080p.
WQHD war/ist nach wie vor eine Nische.

Jetzt ist der Weg endlich frei für 4k Gaming.
Aber es werden die neuen Konsolen sein, und nicht der PC, die 4k zum neuen Standard machen werden.
 
  • Gefällt mir
Reaktionen: bad_sign
Rage schrieb:
@Lord Maiki Solche Spannung-und-Leistungsaufnahme-pro-Takt-Diagramme sind immer interessant, schau ich gerne an. Wäre aber nicht das, was sich zeedy hier wünscht. Er will gerne bei den festgezurrten Takten die Leistungsaufnahme gemessen haben, was meiner Meinung nach wenigstens für Hawaii gegen RDNA1/2 nicht so sehr sinnvoll wäre. Wie viel eine 6700XT brauchen würde, wenn sie auf 5700XT-Niveau eingebremst würde, ist vielleicht schon eher interessant.

@zeedy Für RDNA1 vs RDNA2 bin ich Deiner Meinung, da kann man sich das ruhig mal anschauen.

Oder Noch besser.

Alle Karten auf sagen wir 150Watt einbremsen dann bekomme ich nämlich auch ne Info was die Karte wirklich bei einer standardisierten Wattzahl an Frames schafft. Das fände ich mal sowas von interessant.
 
Teralios schrieb:
Ach, die haben keine Magic Sauce gefunden, die haben einfach die sALU und Vec32-ALU Pipeline etwas verlängert und konnten dadurch die GPU höher takten.
Etwas sehr Ähnliches wurde aber auch beim Schritt von Fiji auf Vega gemacht und das hat der Energieeffizienz bei weitem nicht so geholfen wie jetzt der Schritt von RDNA auf RDNA 2. Deswegen bleibe ich vorerst bei 'Magic Sauce'. ;)
 
Auch innerhalb von GCN gab es größere Änderungen.
Der Unterschied zu RDNA ist, dass die Architektur endlich für Gaming optimiert wurde.
Das wurde bei GCN mit Absicht nicht gemacht, weil die selbe Architektur für den professionellen Bereich und für Gaming herhalten musste.

RDNA könnte man auch als GCN für Gaming optimiert bezeichnen.
Wobei hier angeblich auch der PS5 Chip wichtig war, weil in RDNA viele Ideen von Sony mit drin sind.
Schon zu Vega-Zeiten arbeitete angeblich 2/3 der AMD RTG an dem Chip für Sony.
Und der viel gescholtene Koduri war damals Cheff der RTG, und maßgeblich auch an Navi beteiligt.
Seine letzte Entwicklung bei AMD als Leiter der RTG war Navi.
 
Zuletzt bearbeitet von einem Moderator:
matty2580 schrieb:
Die Zielsetzung bei Nvidia war ganz klar 4k Gaming.
Was ja auch gut ist.
Nach wie vor ist die am meisten verbreitete Auflösung 1080p.
WQHD war/ist nach wie vor eine Nische.

Jetzt ist der Weg endlich frei für 4k Gaming.
Aber es werden die neuen Konsolen sein, und nicht der PC, die 4k zum neuen Standard machen werden.

Du vergisst irgendwie zu erwähnen das 4K Gaming noch eine viel größere Nische ist als WQHD!
Laut Steam 67% 1080p, 8-9% WQHD und 2-3% 4K.
Bis 4K keine Nische mehr ist, haben wir das Jahr 2025 oder so in etwa.
 
Ja noch ist auch 4k wenig verbreitet, noch....
Allein für die PS5 kommen jetzt regelmäßig 4k Patches nach, für alle großen IPs von Sony, zuletzt für God of War.

Beim PC wird das noch eine Nische bleiben.
Das sehe ich genau so wie du.
Es ist eigentlich eine Schande für die Masterrace, dass die viel teureren PCs hinter den oft belächelten Konsolen sein werden.....
 
Mag sein, dass die Konsolen vermehrt auf 4K spielen, doch am PC wird das wohl noch Jahre dauern, einfach weil die Miner die Karten wegkaufen :mad:
Preis ist ja oft schon UVP*2 oder mehr
 
matty2580 schrieb:
RDNA könnte man auch als GCN für Gaming optimiert bezeichnen.
Wobei hier angeblich auch der PS5 Chip wichtig war, weil in RDNA viele Ideen von Sony mit drin sind.
Schon zu Vega-Zeiten arbeitete angeblich 2/3 der AMD RTG an dem Chip für Sony.
Und der viel gescholtene Koduri war damals Cheff der RTG, und maßgeblich auch an Navi beteiligt.
Seine letzte Entwicklung bei AMD als Leiter der RTG war Navi.
Auch ziemlicher Unsinn im Nachhinein, eine PS5 hat einen 6000er Chip mit 36CUs verbaut und zwar auf der gleichen technischen Basis, der unterscheidet sich in Nichts, von den Grafikkarten der 6000er Serie.
Und die 36 CUs und der kleinere Infinity Cache reichen meiner Meinung nach nicht wirklich für optimales 4K Gaming.
 
Du weißt selbst, dass man Konsolenleistung nicht 1:1 mit dem PC vergleichen kann.
Fakt ist, die Patches kommen Stück für Stück für alle großen Sony IPs, für echtes 4k, und mindestens 60fps.
Davor war das für FF 7 Remake, Boarderlands 3, u.s.w.
 
matty2580 schrieb:
Du weißt selbst, dass man Konsolenleistung nicht 1:1 mit dem PC vergleichen kann.
Fakt ist, die Patches kommen Stück für Stück für alle großen Sony IPs, für echtes 4k, und mindestens 60fps.
Davor war das für FF 7 Remake, Boarderlands 3, u.s.w.
Das ist aber mit der neuen Generation ergo nicht mehr so wirklich der Fall, weil das sind PCs.
Auch der Gesamt RAM spricht für das kleinere Speicherinterface der 6700XT Karte, die Microsoft Lösung mit 52 CUs schlägt etwas raus, aber man wird es sicherlich irgendwann erfahren, was da genau drinne steckt.

Die Frage ist doch ob die 4K und mindestens 60fps.eher Marketing sind oder ob die wirklich anliegen und da habe ich so meine Zweifel.
 
Konsolentypische mittlere Details klappt meist recht gut in "UHD" 60 FPS. Meist ist dynamische Auflösung mit dabei.
 
Lese dir doch selbst die Ankündigungen dazu durch.
Das Netz ist voll davon.....
Und nein, bei der Hardwarepower der PS5 hat es Sony gar nicht nötig zu tricksen.

Nicht nur das bei FF7 Remake echtes 4k mit 60 fps umgesetzt werden, so wird es noch zusätzliche Effekte geben, anders als bei der PS4 Version.

Den Patch zu Boarderlands 3 gibt es ja schon längst.
Auch hier wird nicht mit VRR gearbeitet, weil dass gar nicht notwendig ist.

Jetzt aber bitte KEINE Konsolen vs PC Diskussion hier.

Eher interessant ist, wie der PC hier mithalten kann, und was Nvidia oder AMD ändern müsste?

Wobei ich eine Antwort schon vorwegnehmen kann. Bei AMD muss sich gar nichts ändern, weil sie auch an den Konsolenchips mit verdienen.
 
Zuletzt bearbeitet von einem Moderator:
@bad_sign @DonL_ Es bringt nichts mit ihm darüber zu diskutieren, er will es nicht wahr haben. Er vergleicht die 4k Ultra Benchmarks hier auf CB mit der PS5 Version und will nicht hören, dass das völlig andere Settings sind. Er hat mich dann genau in dieser Diskussion geblockt als er keine weiteren Argumente mehr hatte :)
 
  • Gefällt mir
Reaktionen: DonL_
bad_sign schrieb:
Konsolentypische mittlere Details klappt meist recht gut in "UHD" 60 FPS. Meist ist dynamische Auflösung mit dabei.
matty2580 schrieb:
Lese dir doch selbst die Ankündigungen dazu durch.
Das Netz ist voll davon.....
Und nein, bei der Hardwarepower der PS5 hat es Sony gar nicht nötig zu tricksen.
Mag ja alles sein, aber an was hängt denn eine Konsole in der Regel, am guten alten "Fernseher" und nicht an einem PC Gaming Monitor.
Ja klar wird sich 4K weiter durchsetzen, aber nicht in der Geschwindigkeit, die hier suggeriert wird, das wird noch eine ganze Weile dauern, bis die Zyklen durch sind. Nicht in den nächsten 3 Jahren, denn nicht alle Leute rennen los und kaufen einen neuen 4K Fernseher für ihre Konsole, sondern warten damit, bis die Anschaffung ansteht und spielen so lange in 1080p.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
matty2580 schrieb:
Der Unterschied zu RDNA ist, dass die Architektur endlich für Gaming optimiert wurde.
Nicht wirklich. Wenn man sich die Whitepapers zu GCN - Vega - und RDNA ansieht, dann gibt es da so einige Stellen, an der man auf die Probleme von GCN bei Spielen eingeht und warum die Auslastung so schlecht ist, während es bei anderen Augaben weniger ein Nachteil war.

Das primäre Problem von GCN war es, dass die Wave64-Befehle nur auf EINER Vec16-ALU ausgeführt wurde und entsprechend 4 Takte benötigte. In den Papers wurde da aber auch angedeutet, dass es durchaus angedacht war, dass ein Wave64-Befehl auf allen 4 Vec16-Alus laufen soll - eine Stelle deutet es an, dass der Wave64-Befehle über alle Vec16-Alus läuft, aber pro Alu um einen Takt versetzt.

Um GCN optimal auszulasten, braucht man also pro CU 4 Wave-Befehle - egal ob jetzt 16, 32 oder 64 - also die besagten 4 Threads, macht dann bei Vega 64 - der großen - die besagten 256 Threads.

Mit RDNA hat man die 4 Vec16 durch 2 Vec32 ersetzt - was die besagte "40 %" IPC sind, die man gerne findet zu RDNA.

Von den Fähigkeiten - auch was den professionellen Markt angeht - hat sich RDNA gegenüber GCN aber nicht wirklich verschlechtert, sondern einfach nur drastisch weniger ALUs gehabt, die Gleichzeitig aber auch eine "Erhöhung" von Vec16 auf Vec32 benötigte, damit man sie optimal auslasten kann.

Die Trennung "Professionelle" und "Gameing" wurde und wird seit einiger Zeit primär durch Spieler herbei geredet. Und bitte jetzt nicht mit CDNA kommen, die Anpassunge bei CDNA gehen zu großen Teilen darauf, dass man ROPs, TAU/TMU und Co raus streicht.

AMD hatte bereits 2019 durchaus auch angedeutet, dass die CU/WGP mit der Zeit auch nach CDNA fließen kann.

matty2580 schrieb:
Das wurde bei GCN mit Absicht nicht gemacht, weil die selbe Architektur für den professionellen Bereich und für Gaming herhalten musste.
Nur das der HPC-Bereich nicht wirklich etwas mit der Gamingschwäche von GCN zutun hat, sondern wie die CU organisiert war und ist.

Der primäre Unterschied zwischen GCN und RDNA liegt für HPC nun darin, dass man statt 4 Threads pro CU nur noch 2 laufen lassen kann. Die Anpassung ist aber relativ "einfach" weil man nun halt doppelt so große Vektoren braucht, oder man lässt es bei 64er Vektoren, hat halt halbsowenige auf der CU, die aber "doppelt" schnell laufen.

Gerade neuere Benchmarks mit OpenCL und Co, die mit den RDNA-Eigenheiten nun umgehen können, zeigen auch, dass RDNA in vielen Benchmarks den GCNs nicht mehr wirklich nachstehen, sonder sich entsprechend ihrer ALU-Anzahl verhalten.

matty2580 schrieb:
RDNA könnte man auch als GCN für Gaming optimiert bezeichnen.
Könnte man, ist aber primär ein Marketing zug.
 
  • Gefällt mir
Reaktionen: NK.1992, Colindo, DonL_ und eine weitere Person
Ultharandor schrieb:
Oder Noch besser.

Alle Karten auf sagen wir 150Watt einbremsen dann bekomme ich nämlich auch ne Info was die Karte wirklich bei einer standardisierten Wattzahl an Frames schafft. Das fände ich mal sowas von interessant
Das kann man mit untervolten, runtertakten und beidem erreichen. Und dann macht die Grafikkarte noch selbst etwas automatisch, wenn man in diese Richtung geht. Und der Verbrauch ist ja nicht linear und unterscheidet sich von Spiel zu Spiel und Szene zu Szene.
D. h. auch das man Probleme haben wird diese 150W als Grenze zu erkennen.

Das ist keine gute Basis für einen Vergleich.
 
matty2580 schrieb:
Und nein, bei der Hardwarepower der PS5 hat es Sony gar nicht nötig zu tricksen.
Die Hardwarepower der Sony PS5 kann man nun absolut leicht hochrechnen.
Das ist ein ZEN 2 8 Kerner mit einem Maximal Takt von 3,8GHZ und eine 6700 und das ganze etwas optimiert.
Also ein guter Mittleklasse Gaming PC.
 
  • Gefällt mir
Reaktionen: Kodak und foo_1337
Hier muss ich wirklich mal sagen: schöner Artikel! Vielen Dank für die schöne Übersicht.
Einige der hier beantworteten Frage hatte ich mir auch schon mal gestellt.
 
Etwas OT, aber ich finde es unglaublich wie gut sich Hawaii heutzutage noch schlägt. Mit meiner 290X (8GB) kann ich noch so gut wie alles auf hohen oder höchsten Einstellungen in Full HD zocken. OK, bei manchen Spielen dann mit 30 fps, aber die Karte ist 7 Jahre alt.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Zurück
Oben