Test AMD RDNA 2 vs. RDNA 3: RX 7900 GRE vs. RX 6950 XT bei gleicher Rechenleistung

givemeajackson schrieb:
viel klarer als "bei gleicher rechenleistung" kann man ja nicht beschreiben um was es in dem artikel geht.

Anscheinend kann man das sehr wohl, da du es nicht verstanden hast:

"Um die Frequenz anzugleichen, hat ComputerBase darauf geachtet, dass beide Grafikkarten in allen Spielen mit ziemlich genau 2 GHz arbeiten. Zugleich wurde das Power- Limit maximal erhöht, um etwaige Engpässe diesbezüglich zu verhindern."

Das bezieht sich auf Performance/Takt, die beiden GPUs sollten im Test möglichst NICHT ins Power-Limit laufen.
Es ist also egal ob die 6950XT dabei 150W zieht und die 7900GRE halt 350W. Oder halt andersherum, das wissen wir nicht da es nicht Teil des Tests ist. Und daher mein Einwand: Irreführend.
 
  • Gefällt mir
Reaktionen: rumpeLson, Wowka_24 und Redundanz
peakyblinder schrieb:
Warum wird nur in 4K getestet…
1440p wäre sinnvoller, viele zocken sogar noch auf 1080p. Gibt es dafür einen Grund?
Danke.
@Wolfgang oder einfach keinen Bock? ;)
Unterstellst du mir hier jetzt faul zu sein und erwartest gleichzeitig eine Antwort?:freak:

Da ich aber so nicht bin: Die RX 7900 XTX ist nunmal eine High-End-Karte, mit der spielt man hoffentlich in ultra HD. Darüber hinaus misst man in niedrigeren Auflösungen schnell etwas anderes als die eigentliche GPU-Leistung, das gilt es natürlich zu verhindern.
 
  • Gefällt mir
Reaktionen: Kitra, cele, Vorgartenzwerg und 28 andere
Faust2011 schrieb:
Danke für die Gegenüberstellung zwischen RDNA2 und RDNA3. Super herausgearbeitet! :daumen:

Das Ergebis ist allerdings ernüchternd. Schade eigentlich. Ein Performancevorteil von RDNA3 käme ja insbesondere von den Dual-Issue-Einheiten. Aber das muss auch explizit genutzt werden - offensichtlich wird es das noch zu wenig. Hier liegt dann zumindest noch Potential für die Zukunft.

Sehr, sehr schade ist allerdings der geringe Performancegewinn bei Raytracing. Da hätte ich doch mehr erwartet:


Fazit: Ich bereue den Kauf meiner RX 6900 überhaupt nicht ;) :D
Geht mir genauso... Bin äußerst zufrieden mit meiner RX 6900 XT. Die langt locker noch die nächsten 3-4 Jahre.
Wenn ich die aktuellen Tests und Berichte zu den 7000er Grafikkarten mit Chiplet Design lese, muss ich immer an die AMD FX Prozessoren zurückdenken. Ich hatte selber einen FX8350 und war sehr zufrieden damit. Ist irgendwie die gleiche Situaution, nur jetzt halt AMD vs. NVIDIA statt damals AMD vs. Intel. Ich denke der Ansatz mit den Chiplets ist schon gut gedacht und wie damals bei den CPUs, keiner hätte gedacht, dass AMD das jemals in den Griff kriegen wird und heute ist AMD doch auf Augenhöhe, teilweise sogar besser als Intel... Das wird schon noch 🤞
 
  • Gefällt mir
Reaktionen: Copium, Jack79, Harpenerkkk und 4 andere
CrustiCroc schrieb:
Das ist schon ernüchternd was AMD mit RDNA3 abgeliefert hat.
Ist das so?

Ich glaube, man muss sich auch mal davon lösen, was bei Nvidia passiert ist. die sind immerhin von sehr ineffizenten 3000er (also die größeren ab 3080) auf nun sehr effiziente 4000er gegangen und haben die Leistungsspitze mit der 4090 nochmal deutlich weiter nach oben geschoben. FG und DLSS3 ok. Und was noch?

wir haben jetzt hier bei gleicher Konfiguration einen ticken mehr rasterleistung, teiweilweise über 20% plus in der rt leistung und 35% weniger verbrauch.

Das ist doch nicht Nichts.
 
  • Gefällt mir
Reaktionen: Copium, medsommer, Harpenerkkk und 10 andere
@pmkrefeld
der test hat überhaupt gar nichts mit leistungsaufnahme zu tun, sondern vergleicht die performance bei gleicher rohleistung, weil die karten gleich viele AUs haben. ist genau so im text beschrieben. die effizienzzahlen sind im review der GRE zu finden, 36% mehr fps/watt. diese hier anzugeben wäre absolut sinnlos weil die beiden karten in unterschiedlichen regionen ihrer effizienzkurve betrieben werden, um künstlicht den takt anzugleichen. und das ist auch explizit so erwähnt im text, wenn man ihn denn liest...

 
  • Gefällt mir
Reaktionen: Sirhaubinger, Harpenerkkk, cosmo45 und eine weitere Person
peakyblinder schrieb:
Warum wird nur in 4K getestet…
1440p wäre sinnvoller, viele zocken sogar noch auf 1080p. Gibt es dafür einen Grund?
Danke.
@Wolfgang oder einfach keinen Bock? ;)
Ich frage mich warum man Full HD überhaupt noch bencht. Jede Gurke bekommt da spielbare FPS. Dann lieber 4k mit FSR/DLSS Performance das 1080p als renderauflösung benutzt, denn da liegt die Zukunft.

4k benches sind ein muss denn nur da sieht man wa die neuen Karten wirklich zu leisten vermögen.
 
  • Gefällt mir
Reaktionen: medsommer, Harpenerkkk, Boxito und 4 andere
Wo bleibt der große Leistungsvorsprung der RDNA 3 ?
Auf dem Papier ist die RDNA 3 vs RDNA 2 im Vergleich ( FP16, FP32, ) mehr als doppelt und dreifach so schnell ( TFLOPS ).
In der Spiel-Praxis sieht man davon wenig ( Rasterizer ) und beim Raytracing noch weniger 😕
 
Casillas schrieb:
Ist das so?

Ich glaube, man muss sich auch mal davon lösen, was bei Nvidia passiert ist. die sind immerhin von sehr ineffizenten 3000er (also die größeren ab 3080) auf nun sehr effiziente 4000er gegangen und haben die Leistungsspitze mit der 4090 nochmal deutlich weiter nach oben geschoben. FG und DLSS3 ok. Und was noch?

wir haben jetzt hier bei gleicher Konfiguration einen ticken mehr rasterleistung, teiweilweise über 20% plus in der rt leistung und 35% weniger verbrauch.

Das ist doch nicht Nichts.
Das kann nicht dein ernst sein. Ampere hat nur soviel gesoffen weil der Samsung Node zwar billig aber grottenschelcht war. Das war auch der einzige Grund warum RDNA 2 Konkurrenzfähig war, weil sie den Node vorteil hatten. Ampere auf TSMC hätte RDNA 2 alt aussehen lassen.

Ada ist technisch eine glanzleistung und Nvidia liefert das so ab weil sie nicht mehr müssen weil AMD null konkurrenz bietet. So einfach ist das. Während AMD nicht einmal deren idle verbräuche/Youtube/HDR Probleme und sonst noch in den griff bekommt. Featuremässig jahre hinten an ist und trotzdem zu meinen glauben sie können Nvidia preise verlangen und dann wundern wenn sie absolut keine relevanz am Markt haben mit deren 9%.
 
  • Gefällt mir
Reaktionen: H6-Mobs und Lord B.
Aduasen schrieb:
Bei Cyberpunk mit Raytracing hätte ich als Vergleich gern mal die nVidia Werte ;)
23% Verbesserung sind doch eigentlich ohne Aussage, wenn es trotzdem noch signifikant hinter nVidia zurück bleibt.
du hast den Test nicht verstanden
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Zitterrochen, Casillas und 4 andere
Wie sieht es den mit dem Verbrauch aus? Ist die neue RDN3-Architektur wenigstens hier etwas im Vorteil.
Das konnte ich leider bei euren Messungen nicht herauslesen?
 
Tritom73 schrieb:
puh, das ist ja kaum nennenswert diese kleine Differenz. wofür gibt es diese Karte überhaupt?

ps: interessant wäre die Leistungsaufnahme zu vergleichen
Boar... Ganz echt - wenn AMD das Chiplet Design richtig zum laufen bekommt - also mit mehreren GDCs (wobei laut Moores Law is dead wird man das noch anders umsetzen) dann wird das wie bei CPUs die technisch wichtigste Änderung seid langem.
RDNA 3 ist intern auch etwa 17 Prozent schneller - was es sein muss um die Latenzen zu den Chiplets kompensieren zu können. Deswegen kommt unterm Strich dieses kleine Plus heraus bei Rasterizing...
Keine Angst laut Gerüchten werden wir RDNA4 nur monolithisch zu Gesicht bekommen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Copium und Cruentatus
Morgen erhalte ich endlich meine 7900GRE und ich freue mich bereits sehr darauf. Die bisherigen Tests für die Spiele, die für mich relevant sind, waren hervorragend. Alles, was mich für mein Ultra 2k Setup interessiert, wird von der Grafikkarte optimal geliefert. RT kann dann auch mal testen im Gegensatz zur 6700XT, da lief es nicht sauber. Ich kann es kaum erwarten! 🎮🖥️
 
  • Gefällt mir
Reaktionen: cele, Harpenerkkk, ComputerJunge und 6 andere
cvzone schrieb:
Danke für den Bericht. Da die 7900GRE ja durchaus als gute Karte betrachtet wird, darf meine 6900XT Referenz wohl noch etwas länger bleiben.
Klar wenn du eine 6900 xt hast dann bringts kaum was aber als Nachfolger der 6700 xt geht schon
Ergänzung ()

Als einige Option ist die Karte gut in dem fertig PC, da ist Preis Leistung top

4k geht noch gut man hätte WQHD RTX nehmen sollen weil diese Karten ja offensichtlich in 4k am Ende sind
 
Bei gleicher Leistung ist der Performance Vorsprung echt beschämend für eine neue Generation. Man könnte meinen das nicht AMD die Karten konzipiert hat, sondern Intels Techniker aus der Zeit von Sandy-Bridge bis Coffee-lake.
 
  • Gefällt mir
Reaktionen: Aduasen
Vielen Dank für den Test / Vergleich :schluck:
 
Also wenn man schon Architekturen miteinander vergleicht und dabei nicht auf die Leistungsaufnahme eingeht, ist es dann doch relativ wertlos.
 
  • Gefällt mir
Reaktionen: .Snoopy. und CB-Andi
Brate schrieb:
Morgen erhalte ich endlich meine 7900GRE und ich freue mich bereits sehr darauf. Die bisherigen Tests für die Spiele, die für mich relevant sind, waren hervorragend. Alles, was mich für mein Ultra 2k Setup interessiert, wird von der Grafikkarte optimal geliefert. RT kann dann auch mal testen im Gegensatz zur 6700XT, da lief es nicht sauber. Ich kann es kaum erwarten! 🎮🖥️
Wie teuer war sie? Gibt es die überhaupt einzeln zu kaufen oder nur als aufrüstset im Shop oder Fertig-PC im Shop?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cele
Sissy1973 schrieb:
Die 7800 wird kaum gleichschnell sein und kaum weniger verbrauchen nur das man die 6800 effizienter betreiben kann die 7800 nicht wirklich.

Das wäre doch gut, aber ich denke Du meinst etwas anderes?! ;)

Wolfgang schrieb:
Unterstellst du mir hier jetzt faul zu sein und erwartest gleichzeitig eine Antwort?:freak:

:daumen:
 
Zurück
Oben