Test AMD RDNA 2 vs. RDNA 3: RX 7900 GRE vs. RX 6950 XT bei gleicher Rechenleistung

givemeajackson schrieb:

Du beschreibst gerade bestens das Problem.
Hier werden nicht die IPC-Unterschiede gemessen, sondern etwas völlig anderes, ohne gut genug zu deklarieren was oder zu welchem Zweck. Dies lässt dann sehr viel Raum für Interpretation und subjektive Einordnung zu.
Dagegen bringt es kaum objektiven Mehrwert.
Daher meine Kritik, die wohl nicht weit genug ging, da noch deutlich mehr als die Betrachtung der Leistungsaufnahme notwendig wäre. Aber dann wäre der Artikel auch 40 Seiten lang geworden.

Ich finde interessant wie viele versch. Spekulationen du Anhand der Werte aufstellen konntest, von denen auch etliche zutreffen könnten, aber dennoch sind es nur Spekulationen.

Und nur so nebenbei, Leistung, in welcher Form auch immer skaliert nicht linear mit der Taktfrequenz, vor allem nicht bei komplexen Lasten wie Videospielebenchmarks. Daher ist es bei weitem NICHT genug einfach eine Überschneidung in den Taktfrequenten zu finden für derartige Vergleiche.
 
  • Gefällt mir
Reaktionen: Apocalypse
pmkrefeld schrieb:
(IPC wird NICHT in FPS gemessen.)
Die alte Diskussion wieder^^

Ich bin nach wie vor der Meinung, dass man IPC für jeden beliebigen Bereich getrennt betrachten kann und je nach dem welcher Bereich das ist, auch mit unterschiedlichem Einheiten.

Und wenn ich von Gaming Performance rede, dann wird die IPC eben in FPS bei gleichem Takt gemessen, denn die Instruktionen, die hier pro Taktzyklus ausgeführt werden, dienen dazu, FPS zu generieren.

Man kann es auch Performance per Clock nennen, der Kollege Zer0Strat war ja ein Verfechter davon, die beiden Begriffe klar zu trennen, für mich beschreibt es das gleiche.

Wenn ich IPC höre, dann denke ich an X pro Takt(Instruktionen können ja alles mögliche sein) wobei X immer das ist, was ich in Anwendung Y als Output bekomme, in Spielen eben FPS.
 
  • Gefällt mir
Reaktionen: Brrr
Wow! Dieser Artikel ist wirklich sehr interessant!
Gut strukturiert und sachlich, verjüngt aufgearbeitet und ausgearbeitet.
Wirklich gute, professionell wirkende Arbeit.

Vielen, vielen Dank!
 
  • Gefällt mir
Reaktionen: Rockstar85
wahli schrieb:
No way - schau mal die Preise der alten 6800 XT an. Die beginnen bei 540 Euro.
Und die der 6900xt bei 600 :)
 
Taxxor schrieb:
Die alte Diskussion wieder^^

Für mich ist es ehrlich gesagt eine neue Diskussion.
IPC = Instructions per Clock.
Keine Ahnung wie man von der Definition auf FPS oder "Leisting" schließen könnte.
Schon bei CPUs musste man definieren was für Instruktionen gemeint sind und diese dann per synthethischen Benchmark der eben nur diese Instruktion nutzt messen.
Und damals schon war es lediglich eine akademische Übung ohne sonderlichen Zweck.

Aber selbst wenn Performance/Clock eine valide Überlegung wäre, hätte man haufenweise Probleme bei der Einschätzung der Daten, da man die Frequenz nicht frei wählen kann, die Architektutentscheidungen einen großen Einfluss auf die einstellbaren Frequenzen haben, so wie die Leistungsaufnahme. Und als Sahnehäubchen wüsste man immer noch nicht, ob das Frontend in realitätsnahen Szenario das Backend mit genug Daten beliefern kann um die IPC-Steigerung in FPS umwandeln zu können. Usw. usf.

Aber ja, wir können stattdessen solange irgendwelche Zufallszahlen generieren bis sie unsere Meinungen untermauern, dann kann sich ja auch keiner über die Methodik beschweren 😁
 
pmkrefeld schrieb:
Schon bei CPUs musste man definieren was für Instruktionen gemeint sind und diese dann per synthethischen Benchmark der eben nur diese Instruktion nutzt messen.
Und damals schon war es lediglich eine akademische Übung ohne sonderlichen Zweck.
Und heute hast du dann bei sämtlichen Ryzen Präsentationen die Folien mit der "Gaming IPC", wo die FPS bei fixen 4GHz gemessen werden um die Steigerung zur Vorgängergeneration zu zeigen.
Daneben dann die "Anwendungs IPC", wo man mit specINT oder Cinebench bei gleichem Takt die Scores vergleicht.

Wenn es die CPU(und auch GPU) Hersteller schon selbst so sagen, wirst du das nicht mehr weg bekommen und tiefer in die Materie einzusteigen ist für die meisten zu uninteressant, denen reicht "mehr IPC = mehr Performance"^^
 
Da unklar ist, wie viel Leistung durch das eigentliche Chipdesign verloren geht, kann es durchaus sein, dass der wahre Unterschied ein gutes Stück größer ist. Doch das, was schlussendlich beim Endkunden ankommt, ist nicht allzu eindrucksvoll.
Hat sicher auch schon wer erwähnt, der Punkt der Chipletarchitektur ist wie auch bei Ryzen und Epyc das durch kleinere Dies die CHipausbeute steigt, und so Produktionskosten auch in kleinere Rahmen gehalten werden, das zusammenkleben wie man so sagt bringt unfraglich gewisse nachteile mit, die man durch gewisse optimierungen wie vermutlich auch dem cache aber auch wieder etwas reduzieren kann. nun könnte man sagen, das der cache ohne zusammenkleben mehr gebracht hätte - klar, stimmt wohl. aber es bleibt der Punkt der kosteneinsparungen/ besseren verwertungsmöglichkeit kleinerer CHips.

Soweit jedenfalls mein Wissensstand. Und auch beim Ryzen gab es mit der Chiplet architektur eine Entwicklung.
Das war doch jetzt die erste Kartengeneration mit Chiplets? man kann ja schon fast froh sein, das es so gut läuft wie es tut :D und der Weg für verbesserungen steht noch aus. Ob WIR jemals etwas von den kosteneinsparungen sehen werden ist ne andere Sache, die Aktionäre sicher...
 
  • Gefällt mir
Reaktionen: Nowareeng
Danke für den Test. Was sagt der aus? RNDA3 wurde anscheinend mehr Energieverbrauch reduziert als Performancezuwachs. Ist ja bei jeder neuen Architektur so. Was will man mehr? Mehr Performance? Weniger Energieverbrauch? Oder ein Mix aus beiden?

Ich finde es deswegen schade, dass der Energieverbrauch hier gar nicht berücksichtigt wird. So lässt es erscheinen, dass RDNA3 ggü. RDNA2 quasi eine Nullnummer so seinen scheint.
 
  • Gefällt mir
Reaktionen: Vitec und Apocalypse
Naja, man sollte so einen Artikel nicht losgelöst von den anderen Faktoren betrachten. Ist halt ein interessanter Teilaspekt.
Aber ja, den Verbrauch hätte man zumindest erwähnen können, selbst wenn man es dann etwas relativiert.
 
Und wieder ne kontroverse die OHNE gpu load kaum zu entschlüsseln ist
Was bring es zwei gpu zu testen die annähernd identische specs haben wenn wichtige faktoren einfach weggelassen werden
Da wäre gpu load, tbp, Takt inklusive inf fab Takt.
 
Sissy1973 schrieb:
7800XT zu 6800XT anhand der Daten wird sie +-, 5-10% bei vielleicht 20-30 Watt weniger verbrauch liegen.

Ich denke, wir reden aneinander vorbei? Du hattest "kaum gleichschnell" geschrieben, was impliziert dass die 7800 wesentlich schneller als die 6800 wäre, was aber nicht zum Rest Deiner Aussage passt. Daher schrieb ich, dass ich denke dass Du entweder "kaum schneller" oder "ungefähr gleichschnell" gemeint hast?! "Kaum gleichschnell" macht an der Stelle keinen Sinn.
 
.Snoopy. schrieb:
Was will man mehr? Mehr Performance? Weniger Energieverbrauch? Oder ein Mix aus beiden?
Ein Mix aus beiden, allen voran etwas, das in die Nähe der vorher vermarkteten +50% Perf/W kommt.
Das wären z.B., wenn wir wie bei der 7900XTX mit 355W einen um 6% höheren Verbrauch als bei der 6950XT haben, eine entsprechend ~60% Mehrleistung. Es waren aber nur 35% zu Release und sind mittlerweile 40%.

Andersrum müsste sie bei gleicher Performance maximal 66% des Verbrauchs haben, also gegen die 6950XT hier dürfte sie, wenn sie gleich schnell ist, maximal 220W verbrauchen. Eher noch weniger, wenn man die +50% PErf/W als Mix aus mehr Leistung und weniger Verbrauch erreicht hätte, denn dann wäre sie reduziert auf die gleiche Leistung nochmal mehr als 50% effizienter.
Sie ist aber minimal langsamer und verbraucht 250W.

Also auch die Reduzierung des Energieverbrauchs bleibt hinter den Erwartungen zurück.

Natürlich ist das immer noch effizienter als RDNA2, aber eben viel zu nah an RDNA2 dran dafür dass man den Prozess gewechselt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Snoopy. und [wege]mini
Die Karte bietet wenig überraschend die Leistung einer 6950 (https://www.computerbase.de/artikel/grafikkarten/radeon-rx-7900-gre-test.85109/ ) aber sie ist meiner Meinung nach wesentlich interessanter, weil sie diese Leistung nicht mit der Brechstange sondern fast schon normalen Verbräuche nerreicht.
Schade, dass zwischen den Architekturen offenbar kein großer Spring geschen ist, vielleicht aber schafft die Navi 4x Generation mit ihren Mittelklassekarten eine ähnliche Performance bei nochmal deutlich geringerem Verbrauch.
 
Neuere Generation, besseres Raytracing. Nur die Karte ist nicht frei verfügbar. Dann wird es die 7800XT richten, wenn die 6950XT abverkauft sein wird.
Und der große Sprung zwischen den Generationen in diesem Fal bleibt irgendwie aus.
 
@Wolfgang

Danke für den Test. Ich wäre trotzdem noch ein wenig mehr darauf eingegangen, warum RDNA3 wirklich so enttäuschend ist.

Man ging den Schritt, den Nvidia mit der 3K Reihe gemacht hat jetzt und baute die CUs komplett um. In der Theorie, müsste bis zu doppelte Rechenleistung rum kommen. Macht es aber nicht.

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-3000-ampere-technik.73424/

Bei AMD sollte in der Theorie die GRE 46 TFlop in FP 32 haben und die 6950 nur 22.

https://www.computerbase.de/artikel/grafikkarten/radeon-rx-7900-gre-test.85109/

Die Tatsache, dass davon so gut wie nichts in FPS umgewandelt wird, ist mehr als ernüchternd. Naja, wir können immer noch auf fine wine hoffen.

mfg
 
RDNA3 ist halt die Migration auf ein Chiplet-Design (und das in den Griff bekommen der Latenzprobleme) mit leichten Verbesserungen, unter anderem bei RT.
War doch auch so angekündigt?
Erst mit RDNA 4 soll das Chiplet-Design Anwendung finden und zusätzlich eine neuere Architektur - soweit angekündigt...
 
  • Gefällt mir
Reaktionen: Vitec
Mir fehlen dann noch die Verbrauchsmessungen, denn wenn RDNA 3 zwar nur x-y schneller ist, dabei aber auch sparsamer, wird der Gesamtschnitt der FPS / WATT besser und RDNA 3 als Architektur ebenso.
Und natürlich ist auch noch der Preis entscheidend, denn für mich als Kunden ist es auch wichtig, ob nicht das Chiplet Design auch Preisvorteile bietet.
Lässt sich halt schwer sagen, wenn es nur OEM Rechner mit der Graka gibt bis jetzt.
Aber bis 700€ wäre die Karte absolut ok und ein Fortschritt.
Taxxor schrieb:
Also auch die Reduzierung des Energieverbrauchs bleibt hinter den Erwartungen zurück.
Da ist aber dann die Frage, ob die community die Erwatungen so hoch gesteckt hat, oder AMD zu viel versprochen hat. Ansonsten sind die Erwartungen der Community sowiso meist über dem, was dann auf den Markt ankommt. Und ich würde an die 100W geringeren Verbauch durchaus als sehr gut ansehen. Auf CB hat auch die 6950 344W geschluckt, OC dann bis 400 hoch.
Und es ist ja auch die erste Graka mit dem Chiplet Design, denke da ist ebenso wie bei den CPU`s noch einiges an Optimierung möglich in den kommenden Generationen.
Dazu sieht man auch gut, dass eher die neueren, Vordernden Games wie Cyperpunkt gut profitieren, somit würde ich nicht drauf wetten, aber durchaus annehmen, dass die ARchitektur in den nächsten Games mit Release ebenfalls mehr als nur 2% zulegen kann.
Dazu kommt noch, dass auch der Treibersupport wie bei jeder neueren Gen/ Architektur wohl noch verbesserungspotential bieten könnte, nicht muss.

Ich könnte mir auch vorstellen, da man hier ja einen sehr abgespeckten Big Chip hat, das OC sehr gut sein könnte, wohingegen die 6950 ja schon ziemlich am Limit agiert.
 
TenDance schrieb:
RDNA3 ist halt die Migration auf ein Chiplet-Design (und das in den Griff bekommen der Latenzprobleme) mit leichten Verbesserungen, unter anderem bei RT.
War doch auch so angekündigt?
Angekündigt war anfänglich sowas:
1692893503506.png


Und es gab bis zur Vorstellung auch keine Gegenteiligen Aussagen seitens AMD.

Hätte eine 7900XTX diese +50% Perf/W erreicht (und angekündigt waren >50%), dann wäre sie Minimum 60% schneller als eine 6950XT gewesen, die ineffizienteste RDNA2 Karte mit der man sich vergleichen könnte.
+50% Perf/W auf eine 6900XT und wir wären bei ~80% über einer 6900XT bzw ~70% über einer 6950XT.

Hat auch übrigens nichts mit "war ja nur ne frühe Einschätzung" zu tun, wenn man in der "projected performance" bereits ein ">" Zeichen benutzt, musste man sich zum Zeitpunkt als die Folie erstellt wurde, bereits sicher sein, dass es mind. 50% sein werden.

Schaut man in den Releasetest, ist die 4090 80% schneller als die 6950XT. Also selbst wenn man nur die 50% Perf/W erreicht hätte, statt >50%, wäre man bereits nur 5-10% unterhalb der 4090 gelandet.
Bei +60% Perf/W(die aufgrund der Folie oben durchaus nicht abwegig gewesen wären, da man bei Ryzen auch die ">X%" Angaben klar übertroffen hatte)hätte man die 4090 sogar geschlagen.

Ergänzung ()

Vitec schrieb:
Da ist aber dann die Frage, ob die community die Erwatungen so hoch gesteckt hat, oder AMD zu viel versprochen hat.
Siehe oben ^^
Man merkt auch, dass AMD seit der RDNA Präsentation wieder Abstand von den ">X%" Angaben auf den Folien genommen hat und wieder zu "up to X%" gewechselt ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crifty, Rockstar85 und bad_sign
TenDance schrieb:
RDNA3 ist halt die Migration auf ein Chiplet-Design

Ist es nicht.

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7900-xtx-xt-test.82703/

"Der GCD besteht bei Navi 31 im Vollausbau aus insgesamt 96 Compute-Units, was nur eine geringe Steigerung gegenüber dem Vorgänger Navi 21 ist. Um ein größeres Leistungsplus als 20 Prozent zu erhalten, hat AMD die FP32-Einheiten nun als „Dual-Issue“ ausgelegt. Sie können also zwei Rechenaufgaben zur selben Zeit durchführen. Theoretisch wird damit die Rechenleistung verdoppelt, wobei AMD nicht umsonst auf die Nennung von 12.288 FP32-ALUs (96 CUs × 64 FP32-ALUs × 2) verzichtet und stattdessen von 6.144 FP32-ALUs spricht.

Das ist mit Sicherheit ehrlicher, denn AMD ist einen möglichst ressourcenschonenden Weg gegangen, um Transistoren zu sparen. Der Treiber-Compiler kann schließlich nur bestimmte Befehle zusammenlegen, die dann schneller berechnet werden können. Ist dies dagegen nicht möglich, werden quasi nur 6.144 FP32-ALUs genutzt. Nun ist es die Aufgabe des Treiber-Compilers, möglichst viele Befehle Dual-Issue-tauglich zu machen – und deswegen spricht AMD auch davon, dass in Zukunft mehr Programme doppelt so schnell ausgeführt werden als aktuell. Damit hat das Treiberteam aber auch mehr Arbeit mit RDNA 3 als noch mit RDNA 2. Nvidia ist bereits bei Ampere mit doppelt ausgeführten FP32-Einheiten einen sehr ähnlichen Weg gegangen, der nochmal etwas weitergeht als der von AMD – allerdings vermutlich auch mehr Transistoren kostet."

Aus der Theorie ist in der Praxis aber (aktuell) nicht wirklich viel geworden.

mfg
 
  • Gefällt mir
Reaktionen: Slayn
Was ist denn das für ein Test?`Kein Wort über den Stromverbrauch... ein Thema, dass sich doch gerade aufdrängt beim Vergleich von 2 Generationen die ähnlich flott sind.
 
  • Gefällt mir
Reaktionen: McTheRipper
Zurück
Oben