Test AMD RDNA 2 vs. RDNA 3: RX 7900 GRE vs. RX 6950 XT bei gleicher Rechenleistung

Wenn es noch möglich ist, unbedingt auch Stromverbrauch testen.

Bei HUB sieht man zumindest Gesamtverbrauch des Systems für alle Interessierten:
1692873411284.png
 
  • Gefällt mir
Reaktionen: latexdoll, Excel, devanet und 20 andere
Tritom73 schrieb:
wofür gibt es diese Karte überhaupt?
Diese Karte gibt es, damit teildefekte N31-Chips, die für die GRE ausreichend sind, nicht im Müll landen
 
  • Gefällt mir
Reaktionen: up.whatever
@Wolfgang: Und der Verbrauch? Wenn man sie doch schon so angleicht.
 
  • Gefällt mir
Reaktionen: justFlow, Copium, DannyA4 und 8 andere
die schlüsse, die manche hier aus dem artikel ziehen, kann ich nicht ganz verstehen. die karte bietet 36% mehr frames pro watt, das chiplet design ist ein vorteil in der fertigung weil es weniger defekte gibt und weil einige chiplets auf vielen verschiedenen karten verwendet werden können (was auch erklärt wieso diese karte nur in so geringen stückzahlen existiert, so viele teildefekte navi 31 gibts einfach nicht), und die RT performance bei gleicher rohleistung, also quasi die achillesferse von RDNA2, ist doch signifikant verbessert.

dass die pure raster-performance nicht viel besser geworden ist pro TFLOP rohleistung ist ja nicht sonderlich überraschend, das war ja schon die paradedisziplin von RDNA2. die 6800xt hat vergleichbare rasterizer-performance zu einer 4070 mit deutlich weniger FP32-rohleistung

hier intel quadcore-ära-vergleiche zu machen versteh ich nicht, erst recht nicht wenns ein vergleich zwischen dem ehemaligen flaggschiff und der neuen drittstärksten karte ist. die 7900xtx ist 40% schneller bei gleicher leistungsaufnahmen und etwa gleichem preis im vergleich mit der 6950xt.
 
  • Gefällt mir
Reaktionen: Copium, DannyA4, Syrian und 24 andere
puh, rdna3 hat grad noch die Kurve gekriegt. waer haetts gedacht dass, wenn man sich auf RTeinheiten konzentriert, die naechste generation davon tatseachlich profitiert? congrats AMD, auch wenn das alles bereits aus benchmarks ableitbar war und auch hier abgeleitet wurde. jeder saubere test, jede bestaetigung ist hilfreich
 
Ohne auf die Leistungsaufnahme einzugehen finde ich den Vergleich irreführend. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Copium, L@Zy, Tomas311 und 5 andere
Aduasen schrieb:
Bei Cyberpunk mit Raytracing hätte ich als Vergleich gern mal die nVidia Werte ;)
23% Verbesserung sind doch eigentlich ohne Aussage, wenn es trotzdem noch signifikant hinter nVidia zurück bleibt.
Gibt es auf pcgh, die GRE landet in 1440p ziemlich genau bei einer 3060Ti. Allerdings steht dort im Test es wird mit reduziertem RT getestet, also wie hier bei CB auch, macht bei der Leistungsklasse aber auch Sinn, da sonst keine Spielbaren FPS rauskommen.
 

Anhänge

  • IMG_5004.jpeg
    IMG_5004.jpeg
    773,4 KB · Aufrufe: 257
Zuletzt bearbeitet:
Drakrochma schrieb:
Hmm, der "Leistungssprung" erinnert an so manche cpu-generation bei Intel ;)
was, die 40% zwischen 7900xtx und 6950xt bei gleicher leistungsaufnahme? also etwa den sprung zwischen yorkfield und Lynnfield vor 14 jahren?
 
  • Gefällt mir
Reaktionen: latexdoll, Harpenerkkk, nyster und 2 andere
Nice, schöne Gegenüberstellung. Wird es noch Stromverbrauch-Messungen geben?
 
  • Gefällt mir
Reaktionen: justFlow, DannyA4 und danyundsahne
pmkrefeld schrieb:
Ohne auf die Leistungsaufnahme einzugehen finde ich den Vergleich irreführend. 🤷‍♂️
viel klarer als "bei gleicher rechenleistung" kann man ja nicht beschreiben um was es in dem artikel geht.
 
  • Gefällt mir
Reaktionen: Schinken42
RDNA 3 ist ein absoluter Flop. Warum sollte man eine RDNA 3 Karte below 7900 kaufen?

Da die RDNA 2 Pendants besser sind und sich undervolten lassen, während RDNA 3 hoffnungslos Powerlimitiert ist. Ala Rx 6800XT zu 7800XT, würde da immer die 6800XT nehmen. Die 7800 wird kaum gleichschnell sein und kaum weniger verbrauchen nur das man die 6800 effizienter betreiben kann die 7800 nicht wirklich.

Wie Undervolting versuche bei der XTX gezeigt haben die Säuft und Säuft egal welche Mhz man einstellt.

Ada dagegen wirkt schon wie zu Pascal Zeiten vs Vega . Hoffnunfgslos unterlegen dagegen, meine Karte genehmigt sich 135 Watt in Immortals nur als beispiel.

Schade für uns und die preise. Dann warten wir bis 2025..
 
Heavenly schrieb:
Interessanter Vergleich, aber mir fehlt auch ein Vergleich des Stromverbrauchs. Am Ende des Tages finde ich immer die Effizienz ausschlaggebend, nicht die rohe Leistung.
Einfach so die Leistungsaufnahme angeben ergibt so wenig Sinn. Das Problem ist, dass die Telemetrie einfach nicht für den von uns genutzten Betriebspunkt ausgelegt ist, sondern für einen höheren Takt. Natürlich könnte man das jetzt einfach trotzdem messen, aber das Ergebnis spiegelt dann einfach nicht das wieder, wie sich ein richtiges RDNA-2- und ein richtiges RDNA-3-Produkt mit dieser Konfiguration aussehen verhalten würden. Die Aussagekraft wäre da äußerst fragwürdig.
Aduasen schrieb:
Bei Cyberpunk mit Raytracing hätte ich als Vergleich gern mal die nVidia Werte ;)
23% Verbesserung sind doch eigentlich ohne Aussage, wenn es trotzdem noch signifikant hinter nVidia zurück bleibt.
Was bringen dir bei dem vergleich Nvidia-Werte? Die gibt es in der Konfiguration der Radeons nicht und würden völlig sinnlos in den Diagrammen "rumfliegen". Nvidia-Karten kann man so mit Nvidia-Karten vergleichen (wenn es die Konfiguration hergibt), aber nicht AMD- mit Nvidia-Karten.
bensen schrieb:
Also ist der Takt beider Domänen bei der 7900 gleich?
Das geht nicht, die Taktdomänen kann man nicht beeinflussen. 100 MHz Differenz beträgt diese bei der GRE so weit ich weiß.
C.J. schrieb:
Seid ihr euch sicher, dass der IF-Cache nur mit 1,7TB/s arbeitet? Laut AMDs Slides wurde die Bandbreite von 2,7TB/s auf 5,3TB/s erhöht, d.h. selbst mit nur 4/6 der MCDs müsste es immer noch mehr sein als beim N21-Chip:

https://pics.computerbase.de/1/0/5/5/8/9-2991513a3a73eca5/17-1080.3e1c95fd.png
AMD gibt die IC-Bandbreite seit RDNA 3 anders als bei RDNA 2 an und spricht viel mehr ovn einer effektiven Bandbreite als von einer theoretischen. Und die effektive Bandbreite bei der GRE gibt AMD entsprechend niedrig an. Ich kann natürlich nicht ausschließen, dass dies ein Fehler ist.
 
  • Gefällt mir
Reaktionen: Blaze1987, medsommer, Schinken42 und 11 andere
Warum wird nur in 4K getestet…
1440p wäre sinnvoller, viele zocken sogar noch auf 1080p. Gibt es dafür einen Grund?
Danke.
@Wolfgang oder einfach keinen Bock? ;)
 
  • Gefällt mir
Reaktionen: cosmo45
Gibt es bei Nvidia eigentlich eine Konstellation, bei der es sich lohnt, diese genauso gegenüberzustellen?
 
Tritom73 schrieb:
puh, das ist ja kaum nennenswert diese kleine Differenz. wofür gibt es diese Karte überhaupt?

ps: interessant wäre die Leistungsaufnahme zu vergleichen
Es gibt diese Karte auch nicht frei verfügbar im Retailmarkt. Es ist eine Sonderedition.
 
Tritom73 schrieb:
puh, das ist ja kaum nennenswert diese kleine Differenz. wofür gibt es diese Karte überhaupt?
Naja, für jede Karte gibt es eine Käuferschaft und eine RX 7900 GRE ist zunächst einmal für Komplettsysteme gedacht - ob sie überhaupt oder nur über die bekannten Umwege als Einzelkarte zum Endverbraucher kommt, wird man sehen.

Generell sollte man bedenken, daß nicht jeder von der direkten Vorgängergeneration RDNA 2 oder der RDNA 1 noch davor sich für so eine Karte interessiert.

Kommt jemand eventuell von einer RX Vega 56 / RX Vega 64 bzw. GTX 1070 / GTX 1080 , wäre so eine Karte schon absolut geil.
 
  • Gefällt mir
Reaktionen: cosmo45
Das ist schon ernüchternd was AMD mit RDNA3 abgeliefert hat.
 
  • Gefällt mir
Reaktionen: simosh
ikarus1603 schrieb:
Finde es sehr befremdlich, dass NVIDIA offensichtlich für einzementierte Preise bei einer Mittelklasse sorgt.
Nvidia könnte keine Preise "einzementieren", wenn AMD dieses Spiel nicht genau so mitspielen würde.
ikarus1603 schrieb:
Inflation hin oder her bei 600€, für ein Modell mit eher notdürftigem Kühler, für eine 4070 (Mittelklasse) komme ich mir arg verarscht vor und da ich mir nicht auch nicht betrogen vorkommen will kann ich sowas leider nicht kaufen.
Jetzt tu doch bitte nicht so als würdest du bei AMD (oder Intel) so viel mehr Leistung für so viel weniger Geld bekommen.
 
  • Gefällt mir
Reaktionen: Sirhaubinger und Lord B.
Drakrochma schrieb:
Hmm, der "Leistungssprung" erinnert an so manche cpu-generation bei Intel ;)
Ist mehr als Nvidia zum Teil bei der 4000er Generation schafft, zumindest wenn man Müll wie Frame Generation nicht betrachtet.
 
  • Gefällt mir
Reaktionen: Lamaan und Redundanz
Zurück
Oben