Test AMD RDNA 2 vs. RDNA 3: RX 7900 GRE vs. RX 6950 XT bei gleicher Rechenleistung

Und was hat man jetzt genau gewonnen? Die theoretische Kostenreduktion durch wesentlich kleinere Chips wurde entweder nicht an den Kunden weitergegeben oder wird durch das komplizierte Packaging wieder entkräftet.

Navi 21 (6950XT)

1692894844539.png


Navi 31 (7900)

1692894879562.png


[GCD] ~310mm² + 6x [MCD]~35mm² = ~520mm²
 
Meine u.g. 5700XT fliegt bald aus meinem System, ich warte noch den Test hier auf CB von der 7800XT ab und dann entscheide ich mich zwischen den RX Karten bis zur 7900XTX und den NVidia Karten bis zur 4080. Meinen Monitor wechsle ich nicht und bleibe bei WQHD. Schauen wir mal...die GRE gibt es eh nicht im freien Handel.
 
Naja, meine Hoffnung liegt im Preis, ~500-550€ für die RX 7800XT. Wie aber auch schon erkannt worden ist, ist das wohl eine kleine Hoffnung. Wobei viel teurer als die 4070 Modelle kann AMD die auch nicht preisen.

Leider ist es am Markt eben so, dass ein faktisches Duopol besteht, da hat AMD natürlich auch nicht den großen Anreiz die Preise zu drücken, das hat keiner im Kapitalismus, es sei denn es herrscht rege Konkurrenz. Wobei auch das nicht der große Anreiz sein muss, gibt wohl ausreichend Beispiele.

Für Gamer und Nutzer der Karten, im beruflichen Umfeld, ist es eben schade. Da ich die nur zum zocken brauche bleibe ich eben bei meiner 6700, das reicht für FHD voll aus und die Umstellung auf WQHD lässt dann eben noch auf sich warten. Und ich dachte damals mit der 3000 bzw 6000 Gen. würde ich massig Leistung für WQHD für ca. 300-400€ bekommen. Wie man sich irren kann.
 
UrlaubMitStalin schrieb:
Kein Wort über den Stromverbrauch

Da man beide Karten auf 2 Ghz "kastriert" hat und das Powerlimit erhöht hat, um Taktschwankungen kategorisch auszuschließen, würde das keinen Sinn ergeben.

Es ging um eine Messreihe zu dem, was man manchmal vereinfachend "IPC" nennt.

mfg
 
  • Gefällt mir
Reaktionen: givemeajackson
Der größtre Unterschied ist der am einfachsten zu erkennende.

6950 XT gibts in Deutschland zu kaufen, 7900 GRE hingegen nicht. Ein Muster ohne Wert, bzw leider graue Theorie ohne Wert für den geneigten Anwender.

Wahrscheinlich Abteilung Sommerloch?:confused_alt::)
 
Taurus104 schrieb:
Welche denn zum Beispiel? Irgendwas schreiben aber nicht mal Beweise darlegen können das ich tatsächlich etwas gesagt habe und falsch lag.
Och die Beweise hab ich in anderen Threads bereits gebracht aber wie gesagt es wird ja bewusst ignoriert.
Wenn du ein Beispiel möchtest:

Der Releasezeitraum von FSR3.
Also jemand Q1 als Deadline erwähnt den AMD angeblich ausgegeben hat kam von dir nur die Info das AMD das so nie gesagt hat und das Gerücht irgendwer in die Welt gesetzt hat und es seitdem immer wieder wiederholt wird.

Wenn das nur erfunden ist und nicht stimmt warum posted du diese Deadline dann selbst? Du gibst immer wieder irgendwelche Deadlines zu Produkt/Feature Releases aus die alle nicht haltbar waren (7600XT zur GDC inkl FSR3 auch so ein Beispiel) und wenn man dich mal drauf anspricht wird nicht draufeingegangen.
Taurus104 schrieb:
User wie Sie sind ebenfalls der Grund für den negativen Ruf des Forum.
Ich wüsste nicht wo das CB Forum einen schlechten Ruf hat. Höre ich zum ersten Mal. Wenn du mit Kontra zu deinen Posts nicht klar kommst dann ist das einzig und alleine dein Problem.
Taurus104 schrieb:
Die Aussage das man Besserwisserisch ist kommen von Personen die meistens einfach nicht den selben Informations und/oder Wissensstand haben, damit aber nicht umgehen können oder akzeptieren das es Personen gibt die mehr Info zu einem Thema haben oder einen größeren Wissensstand in einem Bereich als man Selbst.
Man kann sein Wissen auch teilen ohne die Aussagen anderer ins lächerliche zu ziehen oder ihnen offen ins Gesicht zu sagen sie wären dumm. Der Ton macht die Musik.

Und ganz ehrlich spar dir das Sie. Wir sind hier nicht vor Gericht oder sonst wo. Es macht dich nicht aufeinmal seriöser wenn du anfängst andere User zu siezen. Da kann ein etwas lockerer Umgang wirklich kein Problem sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oudenstekelig, Sirhaubinger, Fallout667 und 4 andere
Taurus104 schrieb:
Welche denn zum Beispiel?
Generell bzgl Falschaussagen:
z.B. diese Aussage zu FG
Taurus104 schrieb:
weil FG die Latenz und den Inputlag trotz Reflex stark erhöht
Widerlegt im Thread durch Mehrere Beispiele aus den Tests von CB und anschließend noch durch 3 weitere von DigitalFoundry, die Kollege xexex gepostet hatte, bei denen FG+Reflex immer niedrigere bis im schlechtesten Fall ca gleich hohe Latenzen wie Nativ ohne Reflex hat.

Als generelle Aussage also objektiv falsch.

Oder der Vergleich mit der ersten Erwähnung von DLSS 3.5 mit der von FSR 3
Taurus104 schrieb:
Stimmt
Nvidia präsentiert kein Feature mit nur einen kleiner Hersteller Vorschau zu einem Termin "diesen Herbst".

Warte... Doch haben sie ja genau so jetzt gemacht.
Nvidia hat Details genannt, Vergleichsbilder und Videos gezeigt und einen exakten Termin für die Veröffentlichung des Features genannt in Form vom Cyberpunk DLC, also 35 Tage später.
Nichts mit "diesen Herbst", das stammte aus dem Termin für ein DLSS 3.5 Update eines weiteren anderen Titels..

AMD hat bei der ersten Erwähnung von FSR3 keine "kleine Hersteller Vorschau" gemacht, es wurde gar nichts gezeigt und im November 22 ein Termin "2023" genannt.

Dass Nvidia hier mit DLSS 3.5 was die Art der Vorstellung angeht exakt das gleiche wie AMD mit FSR 3 gemacht hat, ist objektiv falsch.


Dann zu Ray Reconstruction
Taurus104 schrieb:
Zudem fixt RR nur ein Problem was durch die Nutzung von FG erst entsteht.
Und ein wenig später
Taurus104 schrieb:
Sorry da war ich nicht genau genug.
RR fixt Probleme die erst durch FG UND DLSS Upscaling entstehen.

Auch objektiv falsch, da es Probleme fixt, die komplett ohne DLSS vorhanden sind, wie man an den zahlreichen Vergleichsbildern von DLSS 3.5 vs DLSS Off sieht.


Der Kommentar, wie auch die anderen, dient also nur dazu, ein schlechte Licht auf DLSS zu werfen, durch, wie hattest du es hier in diesem Thread so schön genannt: "beabsichtigte Falsch Aussagen für die eigene Argumentation"



Und natürlich die auch dort im thread erwähnte Aussage zum Release von FSR3, welches laut dir erst diese Woche im Thread erwähnt nie einen genaueren Releasetermin als "2023" gehabt hat.
Taurus104 schrieb:
Der Release Zeitraum für FSR 3.0 und HyperRX ist schon lange auf Q1 2023 eingegrenzt.


Das kannst du alles gerne als "Diffarmieren" und "Mobben" betrachten, hat aber mit der Realität nichts zu tun.

Den angeblich so negativen Ruf dieses Forums und "uns" als Grund könntest du im übrigen auch gerne belegen, ansonsten packe ich es zur Liste der Falschaussagen dazu^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sirhaubinger, Fallout667, Atnam und 3 andere
Aus dem selben von Taxxor zitierten Thread übrigens folgende Aussage.
Taurus104 schrieb:
FSR 3.0 mit Fluid Motion Frame wurde doch bereits für das Q1 2023 forciert und auf der CES 2023 mit "in Kürze" kommuniziert.

Zudem soll auch HyperRX als Nvidia Reflex Pendant erscheinen in gleichen Zeitfenster.

Zudem wurde in einem Interview auf der CES 2023 auch gesagt das sie bereits seit Anfang 2022 an FSR 3.0 mit Fluid Motion Frame arbeiten und nicht erst seit Nvidia Frame Generation gelauncht hat.

Man scheint also Ziemlich schlecht informiert zu sein.

Genau SOLCHE Posts meine ich mit überheblich und besserwisserisch.
Anderen Usern vorwerfen sie hätten keine Ahnung und sich aufspielen aber selbst absolut nicht mehr Ahnung haben als andere.
 
Taxxor schrieb:
Den angeblich so negativen Ruf dieses Forums und "uns" als Grund könntest du im übrigen auch gerne belegen, ansonsten packe ich es zur Liste der Falschaussagen dazu^^

Also sollte CB einen "Ruf" außerhalb des "NERD" Universums haben, ist er sicherlich nicht negativ.

Selbst Nachts bekommt man auf irgend welche "dämlichen" Fragen noch Antworten von anderen Usern im Forum, wenn man einen Fred im richtigen Bereich anlegt.

Und wenn man mal auf einen trifft, der einen schlechten Tag hat, dann ist es halt so.

Sollten die schlechten Tage von einzelnen usern dauerhaft werden, muss man auch mal etwas sagen und wenn man das macht, ist es gut so.

mfg
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Wolfgang schrieb:
Darüber hinaus misst man in niedrigeren Auflösungen schnell etwas anderes als die eigentliche GPU-Leistung, das gilt es natürlich zu verhindern.
Ein paar Tests, z.B von den Spielen, wo RDNA2 gewinnt oder fast gleich ist, in niedriegerer Auflösung hätte ich mir auch gewünscht, um eventuell den Einfluss des größeres Infitity-Caches bei RDNA2 bei diesen Spielen nachzuweisen, oder eben auszuschließen. Sollte bei niedriegerer Aufslöung die RDNA3-Karte gegenüber der RDNA2-Karte besser abschneiden, könnte man Schlussfolgern, dass bei höherer Auflösung einfach der "zu kleine" Cache von RDNA3-Chips bei diesen Spielen limitiert. Die unterschiedlichen Cachegrößen werden am Anfang erwähnt/thematisiert, aber im Rest des Artikels wird leider nie wieder darauf eingegangen.
 
Holla die Waldfee? Ist euch allen zu warm, dass ihr so gereizt seid? Wir reden hier über Grafikkarten. Thats all! Ich würde ja mal vorschlagen: Geht raus, holt euch ein Eis und denkt mal darüber nach, wie banal das Thema hier eigentlich ist.

So macht das echt keinen Spaß! Gibt schon genug schlechte Stimmung.
 
  • Gefällt mir
Reaktionen: OCBC, Oudenstekelig, Sirhaubinger und 11 andere
Ich stelle mal eine mutige These auf:
Macht so einen Vergleich mit Modellen/Architekturen der letzten ~15 Jahre und man wird kaum groß zweistellige Zuwächse in der IPC zwischen aufeinanderfolgenden Generationen sehen, weder bei AMD, noch bei nVidia.

Warum?
Weil Shader in Grafikkarten verglichen mit CPU Kernen vergleichsweise einfach sind. Woher kommen meist die großen Sprünge? Durch Takt und durch von neuen Fertigungsprozessen ermöglichten zusätzlichen Einheiten. Da liegt eher schon die Kunst und die Architekturverbesserungen darin, diese Einheiten dann auch auszulasten.

Von daher finde ich diese 5% gar nicht soooo schlecht, wenn man den im Vergleich reduzierten Infinitycache (und es wurde immerhin auch in UHD getestet), das Chipletdesign und die offensichtlich verfehlten Taktraten (wo die Auslegung darauf normalerweise auch IPC kostet) betrachtet.

Was ich nicht ganz verstehe, warum im Artikel der Vergleich Navi33 und Navi23 explizit vermieden wird. Die 8GB und x8 Anbindungs-Problematik betrifft ja beide Karten gleicherweise. In dem Fall fallen aber zumindest die Unsicherheiten Cache und Chipletdesign weg.
 
  • Gefällt mir
Reaktionen: Hatch, DevPandi und Redundanz
Taurus104 schrieb:
Hier hat man wohl etwas zuviel Fantasie. Ich habe die letzten Tage viele angenehme Diskussionen geführt. Nur nicht mit Personen die es scheinbar nötig haben Mobbing in einem Hardware Forum zu betreiben. Weshalb Personen wie Sie und andere zitierte User bei mir berechtigt auf Ignore sind.
Lass die alten Opportunisten doch dampfplaudern.
Bei Typen wie Laphonso erreichst du nichts, sosehr du dich auch bemühst.
 
guggi4 schrieb:
Macht so einen Vergleich mit Modellen/Architekturen der letzten ~15 Jahre und man wird kaum groß zweistellige Zuwächse in der IPC zwischen aufeinanderfolgenden Generationen sehen, weder bei AMD, noch bei nVidia.
Bei AMD würde ich da direkt mit Vega zu RDNA1 kontern ;)

Es gibt keinen CU ähnlichen Vergleich bei RDNA1, aber wir können ja RDNA2 nehmen, wo wir wissen, dass die IPC hier sogar etwas geringer ist als bei RDNA1.

Die 6800 taktet mit ~2150MHz, die Vega56 taktet mit ~1300MHz und hat 4 CUs weniger.
Die 6800 ist dabei ca 110% schneller als die Vega56, hat aber nur ~65% mehr Takt und 7% mehr CUs.

Also selbst wenn wir annehmen, dass die Leistung linear mit dem Takt abfällt(was sie idR nicht tut), wäre eine 6800 bei 1300MHz immer noch ~30% schneller als die Vega56, den CU Unterschied eingerechnet wären das ~21% IPC, für RDNA1 entsprechend eher 22-23%.
 
Zuletzt bearbeitet:
Slayn schrieb:
Naja das liegt ab double issue Verfahren. Wenn der nicht greift bzw. vom Spiel nicht genutzt wird hast du "nur" die halbe Leistung. Das selbe Spiele bei der 4000er Serie.
Genau..,. Nur ist hier das Whitelisting von NV einfach besser und der Treiber weiß was er zutun hat. DevPandi hatte dazu ja einen RDNA3 Schwerpunktartikel gemacht. Schade eig, dass nicht immer die Dual Issue Wav64 ermöglichen.. Dann wäre der Abstand vermutlich etwas größer.
Ich schätze mal AMD wird durch die Chiplets gut 1/3 an Leistung verloren haben durch Latenzen. Ich bin gespannt, ob es hierzu irgendwann noch mal Artikel gibt, die 7600 ist leider gnadenlos beschnitten

Laphonso schrieb:
Wir stellen uns mal vor, Nvidia hätte das gemacht. Es reicht als Beispiel und ist ein desperate move von AMD. Ausgerechnet von AMD! Die "open" und "offener Ansatz" Gang verhindert Wettbewerb und Vergleich. Welche Ironie.
Die selektive Wahrnehmung in diesem Forum bzgl. AMD ist immer wieder amüsant ;)

Und on Topic: Solange AMD nicht das 3060 und 4060 Fiasko von Nvidia nachmacht, ist es zumindest nur ein mauer Aufguss.
Kleiner Tipp.. Nivdia macht ES.. Sorry, aber von dir hätte ich gerade in dem Bezug mehr erwartet.. Und nein, ich glaube mitnichten, dass Starfield kein DLSS3 bekommt.. Es kommt eben Später.. Nvidia ist nicht plötzlich besser, nur weil man einmal sich nicht hat erwischen lassen. Ich sag nur NDA Verträge in der Techbranche.
 
  • Gefällt mir
Reaktionen: bad_sign, Casillas, Apocalypse und 2 andere
eine gpu ist linear folglich gibt es keine ipc sondern nur Mehr shader und mehr Takt.
Aber amd hat ja eine fp32 + fp32 architektur versprochen und liefert nix
Der grund ist klar um die zusätzliche fp32 ausführung machen zu können brauicht es mehr cache im cu und genau der fehlt.
Folglich muss der treiber dafür sorgen das die last level cache diesen ausgleichen und das geht derzeit nicht gut.
Darum sind maximal 17% von einer cu per clock mit der zusätzlichen fp32 beschäftigt wenn dann der takt des cache fällt dieser ist nicht syncron mit dem gpu core clock
reduziert das die zusäztzliche fp22 einheit und wird ineffizienter und wie man sieht schwankt das von 0-17%
Der Rest ist simple Takt.

Lösung um das cache problem zu lösen erstmal im cu selber mehr Fläche dann mehr L2 cache und dann mehr inf cache
Das würde die Auslastung auf 25% bringe und den Takt min auf 3,6ghz in n4x node in n3 sogar 4ghz
Ohne Anpassung der cache Größen wird das nie funktionieren mit mehreren gcd in 3d Bauweise.

Der schnelle fix ist simple cu internen L0 und L1 physisch +5% L2 physisch +5% das ließe sich in n4x problemlos umsetzen ohne an die Struktur zu müssen.
Darum wird rdna4 auch nur den Mittleren chip haben mit maximal 60cu
60*64*2,5*3,55/1000=34,4tf als rx8800xt 128bit gddr6x 24gbps 16gb
angemerkt das ist der ps5 pro chip dieser wird da aber nur mit 54cu betrieben werden
am ende kommt es aber auf dem preis an herstellen lässt so ein graka bei etwa 400€ verkaufen wird man das aber ab 599€

Der Grund ist auch einfach erklärt wäre da nicht sony die so einen chip fordern hätte amd nur den n33 auf n4x geschrinkt und den Takt erhöht und als rx8700 gebracht. sprich maximal 18,1tf und somit knapp die Leistung der rx7800 (54cu)

Was morgen kommt wird interessant wenn amd Ernst meint müsste sie rx7700xt 399€ rx7800 449€ rx7800xt 499€ sein
Werden sie aber nicht das wird 449 549 und 649€
 
Taxxor schrieb:
Ein Mix aus beiden, allen voran etwas, das in die Nähe der vorher vermarkteten +50% Perf/W kommt.
Das wären z.B., wenn wir wie bei der 7900XTX mit 355W einen um 6% höheren Verbrauch als bei der 6950XT haben, eine entsprechend ~60% Mehrleistung. Es waren aber nur 35% zu Release und sind mittlerweile 40%.

Andersrum müsste sie bei gleicher Performance maximal 66% des Verbrauchs haben, also gegen die 6950XT hier dürfte sie, wenn sie gleich schnell ist, maximal 220W verbrauchen. Eher noch weniger, wenn man die +50% PErf/W als Mix aus mehr Leistung und weniger Verbrauch erreicht hätte, denn dann wäre sie reduziert auf die gleiche Leistung nochmal mehr als 50% effizienter.
Sie ist aber minimal langsamer und verbraucht 250W.

Also auch die Reduzierung des Energieverbrauchs bleibt hinter den Erwartungen zurück.

Natürlich ist das immer noch effizienter als RDNA2, aber eben viel zu nah an RDNA2 dran dafür dass man den Prozess gewechselt hat.
Ich wollte hier nur aufzeigen, dass RNDA3 nicht nur in Performance investiert wurde, wie es vermuten lässt, wenn man Kommentare liest wie: RNDA3 ist nicht wirklich besser als RNDA2, weil nur ein paar FPS schneller.

Wir wissen aber auch, dass AMD eine Kuh aufs Eis gesetzt hat, und diese nur schwer im Griff zu bekommen scheint. Mir scheint das Chiplet Design so ein Ding zu sein wie Vega. Auf dem Papier viel besser als es doch letztendlich ist. Hier wird AMD sicherlich seit Ende 2022 eine gute Lernkurve hingelegt haben und wir können nur hoffen, dass die RX7700 und die RX7800 es besser machen nach dem langen Hinhalten der Mittelklassenkarten.
 
.Snoopy. schrieb:
Ich wollte hier nur aufzeigen, dass RNDA3 nicht nur in Performance investiert wurde, wie es vermuten lässt, wenn man Kommentare liest wie: RNDA3 ist nicht wirklich besser als RNDA2, weil nur ein paar FPS schneller.
Wenn du so willst, wurde bei keiner Generation nur in Performance investiert, es muss ja immer in beides investiert werden, sonst könnte man den Verbrauch ja nicht unten halten^^

Die beiden gehen immer Hand in Hand. Wenn ich eine neue Generation so auslege, dass sie 50% schneller ist bei gleichem Verbrauch, dann bekommt jemand, der die Karte runtertaktet auf die Performance der vorherigen Generation natürlich einen enormen Effizienzvorteil (taktet mal ne 4090 so weit runter, bis sie die Performance einer 3090 hat, dann braucht sie keine 150W mehr)

RDNA3 ist aber in keiner der beiden Richtungen besonders gut vs RDNA2, weder bei der Mehrleistung bei gleichen Verbrauch noch beim Verbrauch bei gleicher Leistung
 
Zuletzt bearbeitet:
Tritom73 schrieb:
puh, das ist ja kaum nennenswert diese kleine Differenz. wofür gibt es diese Karte überhaupt?

ps: interessant wäre die Leistungsaufnahme zu vergleichen
das war das einzige worauf ich gespannt war. Fehlt aber. unglaublich xD
 
Ich finde es wirklich schade, dass ihr nicht Performance/Watt verglichen habt. Dass die 6950XT alles andere als ein Sparfuchs ist, ist klar - genau darum wäre es spannend gewesen zu sehen wie der Verbrauch aussieht - der Takt wurde immerhin von 2.6GHz auf 2GHz gesenkt. Auch finde ich es schade, dass keine klare Übersicht aufzufinden ist wie die Grafikkarten von "Stock" abgeändert wurden. Ist im Lauftext ersichtlich, aber das hätte man etwas besser lösen können IMHO.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Zurück
Oben