Test AMD RDNA 2 vs. RDNA 3: RX 7900 GRE vs. RX 6950 XT bei gleicher Rechenleistung

M@tze schrieb:
Das wäre doch gut, aber ich denke Du meinst etwas anderes?! ;)



:daumen:
7800XT zu 6800XT anhand der Daten wird sie +-, 5-10% bei vielleicht 20-30 Watt weniger verbrauch liegen. Wobei bei nur 60 Cus muss wohl der Takt extrem hoch um die Leistung überhaupt zu erreichen, wie es die 6700XT schon tat die kaum weniger als die 6800 verbraucht aber um einiges langsamer ist, da 2600mhz vs 2200mhz. Erwarte also eine Vollkatastrophe also wie die restliche RDNA 3 Garde.
 
Die 20 bis 30 Watt weniger kann man bei einer rdna2 6800 XT durch undervolting ausgleichen. Ist ja die Frage ob das bei rdna3 noch so bequem möglich ist, die Möglichkeit mit dem more power tool zu arbeiten soll ja da eingeschränkt sein.
 
  • Gefällt mir
Reaktionen: NoNameNoHonor
Sissy1973 schrieb:
Das kann nicht dein ernst sein. Ampere hat nur soviel gesoffen weil der Samsung Node zwar billig aber grottenschelcht war. Das war auch der einzige Grund warum RDNA 2 Konkurrenzfähig war, weil sie den Node vorteil hatten. Ampere auf TSMC hätte RDNA 2 alt aussehen lassen.
"Hätte hätte wenn und aber" bringt uns nicht weiter. Wenn man jetzt bei Nvidia die Entschuldigung der schlechten Samsunge node als das Argument aufzuzählt, dann ist es bei RDNA 3 eben jetzt das Chiplet-Design und dann können wir uns weitere Argumente schenken. Dann schließt sich der Kreis, der Schuldige ist ja schließlich gefunden.


Ich habe manchmal das Gefühl, dass man von dem relativ großen Sprung bei Nvidia (gerade auch durch die für einige ja auch übertriebene 4090) jetzt wieder bei Einigen ein "AMD soll / muss" usw. gefordert wird, anstatt es, wie hier in diesem Artikel angedacht, mal rein Hersteller bezogen von RDNA2 zu RDNA3 zu betrachten.

Ich wäre auch mal für einen Vergleich innerhalb von Nvidia, wie ich schon geschrieben habe.
Ist dieser überhaupt möglich?
 
  • Gefällt mir
Reaktionen: M11E, Harpenerkkk, Orok91 und 2 andere
Sissy1973 schrieb:
Ampere auf TSMC hätte RDNA 2 alt aussehen lassen
Hätte,wäre, könnte. Alles nur Spekulation.
McFly76 schrieb:
mehr als doppelt und dreifach so schnell
Naja das liegt ab double issue Verfahren. Wenn der nicht greift bzw. vom Spiel nicht genutzt wird hast du "nur" die halbe Leistung. Das selbe Spiele bei der 4000er Serie.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, Rockstar85, jo0 und eine weitere Person
Cyberpunk61 schrieb:
Die 20 bis 30 Watt weniger kann man bei einer rdna2 6800 XT durch undervolting ausgleichen. Ist ja die Frage ob das bei rdna3 noch so bequem möglich ist, die Möglichkeit mit dem more power tool zu arbeiten soll ja da eingeschränkt sein.
rdna kannst du genauso undervolten. für rdna 3 gibt es jetzt das moreclocktool.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, Zitterrochen und Slayn
Herzlichen dank für den Test!
Sehr praktisch für weitere Diskussionen im Netz.

Zeigt im Prinzip das war wir alle schon erwartet haben.
Das ganze Leistungsplus kommt nur von Mehr Takt. Eigentlich ist RDNA3 nur eine leichte Modifizierung und wurde in Panik unfertig auf de Markt geschmissen damit nVidia nicht die 4080er alleine verkaufen kann.
 
givemeajackson schrieb:
@pmkrefeld
der test hat überhaupt gar nichts mit leistungsaufnahme zu tun, sondern vergleicht die performance bei gleicher rohleistung, weil die karten gleich viele AUs haben. ist genau so im text beschrieben. die effizienzzahlen sind im review der GRE zu finden, 36% mehr fps/watt. diese hier anzugeben wäre absolut sinnlos weil die beiden karten in unterschiedlichen regionen ihrer effizienzkurve betrieben werden, um künstlicht den takt anzugleichen. und das ist auch explizit so erwähnt im text, wenn man ihn denn liest...

Toll, die relevanten Infos sind also nicht im Artikel enthalten? Wie bezeichnet man so einen Umstand nochmal? 🤔 Fällt mir gerade irgendwie nicht ein.
Du bringst hier aber auch einen anderen guten Punkt: beide Architekturen könnten für eine andere Frequenz optimiert sein, somit könnte die ausgewählte Frequenz von ~2GHz ebenfalls das Ergebnis beeinflussen. Genauso wie das Speicherinterface (was allerdings im Artikel erwähnt wird).
Also was will man hier nochmal untersuchen? Unterschiede bei Performance/Takt... bei genau 2GHz.... bei unlimitierten Stromverbrauch.... bei ausgewählten Spielebenchmarks???
Und die Aussagekraft hierbei? "IPC ist anders zwischen 2 unterschiedlichen Architekturen"? Das kriege ich hin, und zwar auch ohne einer Testreihe 🤷‍♂️
 
Casillas schrieb:
"Hätte hätte wenn und aber" bringt uns nicht weiter. Wenn man jetzt bei Nvidia die Entschuldigung der schlechten Samsunge node als das Argument aufzuzählt, dann ist es bei RDNA 3 eben jetzt das Chiplet-Design und dann können wir uns weitere Argumente schenken. Dann schließt sich der Kreis, der Schuldige ist ja schließlich gefunden.


Ich habe manchmal das Gefühl, dass man von dem relativ großen Sprung bei Nvidia (gerade auch durch die für einige ja auch übertriebene 4090) jetzt wieder bei Einigen ein "AMD soll / muss" usw. gefordert wird, anstatt es, wie hier in diesem Artikel angedacht, mal rein Hersteller bezogen von RDNA2 zu RDNA3 zu betrachten.

Ich wäre auch mal für einen Vergleich innerhalb von Nvidia, wie ich schon geschrieben habe.
Ist dieser überhaupt möglich?
Stimmt auch wieder trotzdem ist das so. Ja Rdna 3 MCM ist wohl nicht so aufgegangen wie gewollt, leider.

Warum ist der Sprung von Nvidia groß? Die haben das Histrosich immer gemacht wenn AMD knapp dran war . Nur Bei PAscal haben sie wohl gedacht fuck it und setzten noch einen drauf, weil wir es können. Alle 2 Gens liefert Nvidia diesen sprung. Leider nicht mehr durch den gesamten Stack...

Natürlich ist das möglich und haben andere bereits getan.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
ein 5% Raster performance plus ist sogar noch weniger als ich angenommen habe - ich lag hier mit meiner Milchmädchenrechnung bei etwa 10%.

das sieht nicht gut für die kommenden gpus aus, die jetzt nur noch gleich viel (7700xt) oder gar weniger (7800xt) CUs als die alten Karten haben.

Die 6800xt hat alleine 20% mehr CUs als die kommende 7800xt, wenn man hier 5% "ipc" abzieht, muss die Karte noch 15% takt drauflegen, damit wenigstens ein Gleichstand herauskommt. Eine custom 6800xt liegt so bei 2,3 ghz, dh. Die 7800xt müsste für einen Gleichstand bei realen 2645 MHz laufen.

stellt AMD preislich die 7700xt mit angenommenen 40 CUs gegen die 6800, muss die nach den 5% "ipc" gleich 45% über den takt ausgleichen, also mal angenommen die 6800 liegt bei 2,2ghz, dann braucht die 7700xt mit 40 CUs lockere 3,2ghz.

bin mal gespannt, was der gute herkelman morgen in die Kamera hält und ob AMD hinterher bereut, das auf einer nicht AMD fanboy durchsetzten live-Veranstaltung gemacht zu haben.

endlich mal wieder n Grund ne AMD Präsentation anzusehen. Hat sich zwar von tech pr0n in ne Seifenoper verwandelt, aber solange es unterhält?!
 
  • Gefällt mir
Reaktionen: Crifty
pmkrefeld schrieb:
Ohne auf die Leistungsaufnahme einzugehen finde ich den Vergleich irreführend. 🤷‍♂️
Hier geht es ja auch nur um eine technische Betrachtung wie gross der IPC-Sprung ist und (edit: nicht vergessen) nicht wieviel besser die GPU als gesamtpaket ist. Da ist nichts irreführend.
 
Zuletzt bearbeitet:
givemeajackson schrieb:
@CB-Andi den findest du in einem realistischeren setting im test der GRE, hier https://www.computerbase.de/2023-08...3/#abschnitt_energieeffizienz_in_fps_pro_watt

36% besser bei der 7900
Danke das ist ganz lieb von dir. Aber zumindest die Verlinkung hätte ich mir in dem Artikel erwartet.
Wenn ich beide Architekturen Vergleiche gehört für mich das Thema Verbrauch/Effizienz ganz klar dazu.

Um ehrlich zu sein ist das meine Mindesterwartung wenn ich zwei Architekturen miteinander vergleiche......
 
CrustiCroc schrieb:
Das ist schon ernüchternd was AMD mit RDNA3 abgeliefert hat.
Dann versuch den Vergleich doch mal auf NV Seite....

Nimm eine RTX4080 (9728 ALUs) und eine RTX3080ti mit ähnlich vielen ALUs (10240) und takte beide gleich....entweder die 4080 auf 1665Mhz runtertakten (Takt der 3080ti) oder die 3080ti auf 2550Mhz (Takt der 4080) übertakten.
Dann schauen wir mal wie viel Unterschied hier dann noch vorhanden ist.
klar, da sind noch ein paar Faktoren wie Speicherbandbreite unterschiedlich.

Aber eine 3080ti, die um 53% übertaktet wird, ist am Ende dann vll sogar noch schneller als eine 4080?!
Also bliebe da auch nicht mehr viel übrig...

@Wolfgang Das wäre doch auch mal einen Vergleich wert Ampere vs. Ada, oder?

 
  • Gefällt mir
Reaktionen: cele, Harpenerkkk, steve127 und eine weitere Person
@pmkrefeld der test sagt dir, wie viel der performanceunterschied rein zwischen den architekturen ist, bei gleichem takt und gleicher anzahl AUs. , also, wie viel besser bringt RDNA3 die rohleistung auf den bildschirm als RDNA2. die performanceunterschiede werden nicht taktabhängig variieren, die effizienzunterschiede schon. was ist daran so schwierig zu verstehen? die leistungsaufnahme in diesem testsetup hat absolut gar keine relevanz für diesen vergleich.

der test sagt dir dass RDNA3 offensichtlich deutliche mehrleistung auf architekturseite bringen kann wenn das neue double issue verfahren genutzt wird, wie man in MW2 sieht, aber das neue chipletdesign und die damit verbundenen latenzen fallen mehr ins gewicht wenn double issue nicht richtig genutzt wird. obendrauf siehst du noch, dass die RT-performance sich etwa 10% gebessert hat bei gleicher rohleistung

und wenn man jetzt noch ein bisschen nachdenkt kann man mit dieser information sehr schön extrapolieren, dass eine 7800xt mit den spezifikationen die power color geleakt hat verdammt hoch takten müsste um die rasterleistung einer 6800xt zu schlagen, weil der architekturvorteil nur bei etwa 5% im schnitt liegt und 20% weniger shader da sind.

da ist doch sehr viel nützliche information drinn, wenn man versteht um was es geht....
 
  • Gefällt mir
Reaktionen: Blaze1987, Harpenerkkk und Enyo79
Sissy1973 schrieb:
RDNA 3 ist ein absoluter Flop. Warum sollte man eine RDNA 3 Karte below 7900 kaufen?

Da die RDNA 2 Pendants besser sind und sich undervolten lassen, während RDNA 3 hoffnungslos Powerlimitiert ist. Ala Rx 6800XT zu 7800XT, würde da immer die 6800XT nehmen. Die 7800 wird kaum gleichschnell sein und kaum weniger verbrauchen nur das man die 6800 effizienter betreiben kann die 7800 nicht wirklich.

Wie Undervolting versuche bei der XTX gezeigt haben die Säuft und Säuft egal welche Mhz man einstellt.

Ada dagegen wirkt schon wie zu Pascal Zeiten vs Vega . Hoffnunfgslos unterlegen dagegen, meine Karte genehmigt sich 135 Watt in Immortals nur als beispiel.

Schade für uns und die preise. Dann warten wir bis 2025..
Hast du die kommenden Karten schon selbst testen können oder wenigstens irgendwelche validen Tests gesehen vorab um solche Aussagen tätigen zu können?

Woher weißt du das N32 immer im Powerlimit laufen wird? Tipp N33 tut es nicht. Woher weißt du wie sich N32 undervolten lassen können wird? Nur anhand von N31 Undervolting Versuchen die du aus dem Internet hast?
Von wann? Die zu Release erstellt worden?

Zum Thema Undervolting XTX schonmal selbst gemacht/getestet? Schonmal von Silicon Lottery gehört? Keine GPU lässt sich gleich gut undervolten. Ich habe bereits mehr als 12 RDNA3 Karten mit Undervolting getestet und deine Aussage stimmt schlicht nicht.

135W? Welche GPU nutzt du denn? Lass mich raten, nein brauch ich nicht. Du hast wahrscheinlich noch nie eine AMD GPU in den Händen gehabt, getestet oder dich abseits von im Internet gelesen damit Auseinandergesetzt.

AMD ist nicht der Preisdrücker für geneigte Nvidia Käufer.

Auffällig das solche Kommentare immer von neuen Cadet Profilen kommen, mit rund 20 Beiträgen.
 
  • Gefällt mir
Reaktionen: denbaschu, Harpenerkkk, steve127 und 5 andere
Es wird mal wieder aufgefrischt. Kein wunder das man die Karte kaum erwähnt, macht ja auch keinen Sinn. Wobei das Marketing bei AMD gibt sowas ja eh nicht her.

Finde es weiterhin erschreckend auf welchen Niveau wir uns inzwischen befinden.

Minimale Verbesserungen, meistens argumentiert durch "revolutionäre" DLSS bzw. im AMD Falle FSR Technologie.

Wenn wir Rasterleistung nicht mehr steigern können, müssen wir hörere Preise halt irgendwie anders rechtfertigen. Und wir reden ja bei den neuen "großen" Karten nicht mehr von einem Leistungszuwachs wie man ihn von vor einigen Jahren kennt. Das meiste wird ja in den Charts inzwischen dank DLSS und Co. geschönt ohne Ende.

Klar, solang es die Leute fressen und weiterhin wie die blöden kaufen, machen die alles richtig.

Aber wo soll das enden?

50 Untervarianten einer jeden Karte mit irgendwelchen Kürzeln, mit unterschiedlichen Chips, RAMs etc. so das kein Mensch mehr durchblickt, und dann drücken wir einfach mal irgend nen Wunschpreis drauf?

Wie gesagt .... finde die Entwicklung mehr als erschreckend für den Endverbraucher.

Ich würde gezieltere Roh-/Rasterleistungstests für JEDERMANN befrüßen.
 
@CB-Andi das ist aber nicht das ziel dieses artikels. das ziel dieses artikels ist einzig und allein den leistungsvorsprung der neuen architektur zu isolieren, und das geht nur bei künstlich festgelegtem identischem takt. die effizienz zweier unterschiedlicher architekturen bei gleichem takt zu vergleichen bringt nichts, weil du in unterschiedlichen bereichen der jeweiligen effizienzkurven bist. da die beiden karten mit werkseinstellung fast identisch performen, ist der effizienzvergleich viel aussagekräftiger ohne taktkontrolle. also genau das was CB im test zur GRE gemacht hat

der test ist auch im artikel verlinkt.
 
  • Gefällt mir
Reaktionen: Wolfgang und CB-Andi
TigerNationDE schrieb:
ein wunder das man die Karte kaum erwähnt, macht ja auch keinen Sinn.
Sie ist ein nicht frei verfügbares/kaufbares Sondermodell kein Retailprodukt, ausserhalb von China
 
Zurück
Oben