Test 7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell

ThirdLife schrieb:
Dass Watt also zu Verbrauch führt ist jetzt dann aber ne voll zielsichere Aussage ?
Schön getrollt, aber nein, eben gerade nicht.

Ist aber auch egal: Wenn Du Fraktion "mich interessiert was passiert, wenn ich der Karte so viel Watt reinschiebe wie geht" bist, ist der Artikel für Dich stimmig, passt.

Wenn Du, wie einige andere hier auch, eher Fraktion "Mich interessiert das Maximum der Karte unter Ausnutzung aller Stellschrauben und auch das Effizienzmaximum" bist, kritisierst Du die Testansetzung.

Alles ganz normal und entspannt eigentlich ;)
 
  • Gefällt mir
Reaktionen: public_agent und Pjack
Rockstar85 schrieb:
Bedenke... wenn die XTX mit ~3,0Ghz nicht mal das Powerlimit reißt, dann wäre sie vllt am Ende doch bei ~80% einer 4090 rausgekommen.. Die OC werte sind nett, das war es dann aber auch.

Ich sehe die Benchmarks in UE5.1 und frage mich, ob Hardware RT wirklich noch in diesem Jahrzehnt relevant wird. EPIC zeigt derzeit das Gegenteil und dann ist die 7900XTX sehr dicht an der 4090... Es ist erstaunlich, wie sehr diese GPU an der jeweiligen Engine hängt.
Was hast du genau gesehen. Bitte einmal detailliert beschreiben.
Ich verstehe nicht ganz was du meinst. Bitte um Erklärung.
 
kiffmet schrieb:
Die zusätzlichen Vec32 Einheiten sind extrem limitiert. Es gibt viele Rahmenbedingungen, die erfüllt werden müssen, damit diese eingesetzt werden können, z.B. betreffend der nutzbaren Anzahl an Quell-, Ziel- und Operandenregistern. Momentan lässt sich da nicht viel mehr, als FMA (A*B + shared_const bzw. A*shared_const + B) beschleunigen, und das dann auch nur, wenn sich eben beide Vec32 Blöcke dieselbe Konstante teilen. Das RDNA3 Whitepaper ist diesbezüglich sehr aufschlussreich.
Die Ausführung ist so nicht richtig und an der Stelle würde ich sagen: Ließ das Whitepaper noch mal genau durch. Der entscheiden Punkt für die Dual-Issues ist 7.8 auf Seite 68 und das weicht von dem, was du hier anführst, zu teilen ab:
  • Each of the two instructions may use up to 2 VGPRs
  • Each instruction in the pair may use at most 1 SGPR or they may share a single literal
    • Legal combinations for the dual-op: at most 2 SGPRs, or 1 SGPR + 1 literal, or share a literal.
  • SRC0 can be either a VGPR or SGPR (or constant)
  • VSRC1 can only be a VGPR
  • Instructions must not exceed the VGPR source-cache port limits
    • There are 4 VGPR banks (indexed by SRC[1:0]), and each bank has a cache
    • Each cache has 3 read ports: one dedicated to SRC0, one dedicated to SRC1 and one for SRC2
  • A cache can read all 3 of them at once, but it can’t read two SRC0’s at once (or SRC1/2).
    • SRCX0 and SRCY0 must use different VGPR banks;
    • VSRCX1 and VSRCY1 must use different banks.
  • FMAMK is an exception : V = S0 + K * S1 ("S1" uses the SRC2 read port)
  • If both operations use the SRC2 input, then one SRC2 input must be even and the other SRC2 input must be odd. The following operations use SRC2: FMAMK_F32 (second input operand); DOT2ACC_F32_F16, DOT2ACC_F32_BF16, FMAC_F32 (destination operand).
  • These are hard rules - the instruction does not function if these rules are broken
  • The pair of instructions combined have the following restrictions:
    • At most one literal constant, or they may share the same literal
    • Dest VGPRs: one must be even and the other odd
    • The instructions must be independent of each other
  • • Must not use DPP
  • • Must be wave32.
Die validen OP-Codes für Dual-Issues findet man unter 15.3.7 - ab Seite 168:
Für VOPD-X:
0V_DUAL_FMAC_F327V_DUAL_MUL_DX9_ZERO_F32
1V_DUAL_FMAAK_F328V_DUAL_MOV_B32
2V_DUAL_FMAMK_F329V_DUAL_CNDMASK_B32
3V_DUAL_MUL_F3210V_DUAL_MAX_F32
4V_DUAL_ADD_F3211V_DUAL_MIN_F32
5V_DUAL_SUB_F3212V_DUAL_DOT2ACC_F32_F16
6V_DUAL_SUBREV_F3213V_DUAL_DOT2ACC_F32_BF16
Für VOPD-Y:
0V_DUAL_FMAC_F329V_DUAL_CNDMASK_B32
1V_DUAL_FMAAK_F3210V_DUAL_MAX_F32
2V_DUAL_FMAMK_F3211V_DUAL_MIN_F32
3V_DUAL_MUL_F3212V_DUAL_DOT2ACC_F32_F16
4V_DUAL_ADD_F3213V_DUAL_DOT2ACC_F32_BF16
5V_DUAL_SUB_F3216V_DUAL_ADD_NC_U32
6V_DUAL_SUBREV_F3217V_DUAL_LSHLREV_B32
7V_DUAL_MUL_DX9_ZERO_F3218V_DUAL_AND_B32
8V_DUAL_MOV_B32

Wie viele Register die entsprechenden Befehle benötigen, kann man in der LLVM-Dokumentation des Shader-Compiler nachsehen.

Für viele der Befehle - MUL, ADD, SUB z.B. gelten in der V_DUAL-Variante die gleichen Einschränkungen wie für die normalen VOP-Befehle. So benötigen alle 3 Befehle 2 Register, davon kann eines Skalar-Register oder Vektor-Register oder ein Literal, während das zweite Register ein Vektor-Register sein muss.

-- Edit --
Und weil es so schön ist, noch die ISA Errata von MESA, die ist ja für GFX11 doch recht überschaubar noch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo und Pjack
@Wolfgang Schade, dass du keine Takt-Verbrauchs-Kurve erstellt hast, dann würde man sehen, dass der Verbrauch ab ca. 2,4GHz "explodiert". Vergleicht man eine solche Kurve mit anderen Architekturen, dann kann man eigentlich gar nicht anders als einen Hardwarebug zu vermuten oder zumindest verfehlte Designziele zu erkennen.
 
Taurus104 schrieb:
Der Grund ist das Chipletdesign und das sich noch einiges via Treiber verbessern lässt
Glaube es liegt weniger am Chiplet-Design, sondern viel mehr an den Dual-Issue-Shadern, die aktuell kaum Leistung bringen (siehe IPC-Vergleich im initialen Test).
 
  • Gefällt mir
Reaktionen: fox40phil, HierGibtsNichts und rumpeLson
McLovin14 schrieb:
Glaube es liegt weniger am Chiplet-Design, sondern viel mehr an den Dual-Issue-Shadern, die aktuell kaum Leistung bringen
Aber hat denn die Nutzung oder aktuell bei fast allen Spielen nicht-Nutzung einen direkten Einfluss auf den Takt / Verbrauch?

Würde das bedeuten, dass wenn Spiele davon Gebrauch machen der Takt zukünftig steigt?
 
Eher im Gegenteil, wenn ich raten müsste.

Bei schlechter Auslastung der Einheiten bleibt genügend Reserve im Powerlimit für höheren Takt. Werden alle Einheiten genutzt, steigt der Stromverbrauch, sodass der Takt sinkt.
 
In Sachen Leistung pro Watt und an der absoluten Leistungsspitze hat sich AMD von einer auf die andere Generation aber mal so richtig abhängen lassen.

Schade, das hätte ich ehrlich gesagt so nicht erwartet.
 
Fighter1993 schrieb:
Was hast du genau gesehen. Bitte einmal detailliert beschreiben.
Ich verstehe nicht ganz was du meinst. Bitte um Erklärung.
Schau dir die UE 5.1 Benches an.. EPIC hat via Software ein sehr effektives RT implementiert.
Und naja die konstistente Leistung wie in Blender und Co, würde der 7900XTX besser stehen.. Am Ende die 1 mio $ Frage: Was kann der Treiber dafür, oder dagegen?
 
SVΞN schrieb:
In Sachen Leistung pro Watt und an der absoluten Leistungsspitze hat sich AMD von einer auf die andere Generation aber mal so richtig abhängen lassen.
Weißt du, was richtig bitter dabei ist? Der Vergleich mit der RTX 4080 ist nicht mal fair, weil das der zweitgrößte Chip im Ada Lineup ist, während die RX 7900 XTX den full fat Chip hat.

Rockstar85 schrieb:
Schau dir die UE 5.1 Benches an.. EPIC hat via Software ein sehr effektives RT implementiert.
Schon mehrfach darum gebeten, einen Link bitte dazu. Nicht, dass das Software RT ist, das auf Surface Caching basiert.
 
  • Gefällt mir
Reaktionen: MrHeisenberg, incurable, fox40phil und eine weitere Person
DerRico schrieb:
Aber hat denn die Nutzung oder aktuell bei fast allen Spielen nicht-Nutzung einen direkten Einfluss auf den Takt / Verbrauch?

Würde das bedeuten, dass wenn Spiele davon Gebrauch machen der Takt zukünftig steigt?
Nein, vermutlich eher weniger Takt. Dafür würde eine Nutzung aber mehr Leistung pro Takt bedeuten. Im Endeffekt kann RDNA3 aktuell einfach die Rohleistung nicht auf die Straße bringen.
 
  • Gefällt mir
Reaktionen: rumpeLson
Plastikman schrieb:
Das hatte NV immer besser drauf als AMD. Nutzlose Features als Must Have verkaufen.
AMD lernt doch dazu. AMD verlangt ähnlich viel Geld für am Ende dann doch weniger Leistung und Features.

Seit vielen Jahren nur am reagieren und durch den Ring geschubst werden, immer im Windschatten ohne die Kraft, überholen zu können, sich einer Generations- und Leistungsklasse wie der unerreichbaren 4090 kampflos zu ergeben , quasi das Handtuch geworfen....Sogar der Effizienztrump ist flöten..
...und dann dennoch für die Top End GPUs 1000-1200 Euro zu verlangen....

Muss man sich auch leisten können in der (devoten?) Zielgruppe. ;-)
 
Zer0Strat schrieb:
Der Vergleich mit der RTX 4080 ist nicht mal fair, weil das der zweitgrößte Chip im Ada Lineup ist, während die RX 7900 XTX den full fat Chip hat.
Da bin ich mir gar nicht so sicher und es ist eines der grossen Geheimnisse dieser Karte: Der Cache ist ja zum Beispiel zum theoretischen Vollausbau halbiert worden und sollte mal 192mb sein - das ist schon massiv.

Auch die Anzahl der Shader ist im Vergleich zur 6900xt gerade einmal um 20% gestiegen, der eigentliche Chip, wenn man die zusätzlich notwendigen Shader für das Chipletdesign mal aussen Vor lässt, ist auch nicht wirklich riesig. Keine Ahnung, ob AMD gedacht hatte mit diesem, auch im Vergleich zur 4090, eher dürftig ausgestatteten Chip irgendwas zu reissen über den Takt, der dann doch nicht so hoch geworden ist, wie gedacht? Der Cache-Ansatz hat ja bei den 6000ern super geklappt, so dass ihn NV sogar kopiert hat, aber hier scheinen sie sich irgendwie verzockt zu haben, mit der smarten Lösung.

NV hat bei der 4090 ggü. der 90ti (die ja bereits der mit Abstand stärkste Chip war) einfach mal 60% mehr Shader draufgepackt, die RT-Cores und KI massiv überarbeitet, Anzahl der Transistoren fast verdreifacht... Das ist "All in" im Vergleich finde ich,
 
  • Gefällt mir
Reaktionen: Pjack
RDNA3 ist und bleibt ein Fail. Da helfen auch kein Treiberupdates bezüglich Stromverbrauch.
Somit warten auf RDNA3+ oder 4.

Diese GPU Generation bleibt NV unangefochten an der Spitze.
 
  • Gefällt mir
Reaktionen: JackDD
@Nikon71
Ich frage mich wie man zu der Einschätzung kommen kann.

Letztlich hat man mit der XTX sowie der XT zwei Produkte, die recht gut mit der 4070 Ti und der 4080 konkurrieren können. Die 7900 XT wäre zum Preis der 4070 Ti sogar ziemlich gut aufgestellt.

Und es ist gar nicht allzu abwegig, dass bei RDNA 3 noch kleinere Performance-Steigerungen möglich sind. Insbesondere Spiele, in denen RDNA 3 im Vergleich zu RDNA 2 kaum Boden gut machen kann (z.b. Forza Horizon 5), sind da heiße Kandidaten.

Also ja, RDNA 3 setzt die Entwicklung von RDNA 2 leider nicht konsequent fort, aber einen kompletten Reinfall sehe ich da nicht.
 
  • Gefällt mir
Reaktionen: PietVanOwl, cookie_dent, fox40phil und 5 andere
AMD bleibt keine Wahl. Sie müssen es jetzt über den Preis regeln. Wenn so eine Karte fast das doppelte verbraucht für die gleichen FPS, dann muss halt die XTX 30% weniger kosten. Bei Geizhals kosten aber aktuell beide Karten das gleiche. Wer kauft denn dann die AMD Karte außer vielleicht einem AMD Ethusiasten?
 
  • Gefällt mir
Reaktionen: Unnu
McLovin14 schrieb:
Glaube es liegt weniger am Chiplet-Design, sondern viel mehr an den Dual-Issue-Shadern, die aktuell kaum Leistung bringen (siehe IPC-Vergleich im initialen Test).
Ich vermute hier auch auch eine eventuelle Kombination aus mehreren Faktoren. Denn umsonst hat AMD ja nicht das Referenzhandbuch für ISA an die Entwickler veröffentlicht. Ich denke hier fehlt ganz massiv Optimierungsarbeit für Treiber und auf Anwendungsseite um die Karten optimal zu nutzen zu können.
Ergänzung ()

SVΞN schrieb:
In Sachen Leistung pro Watt und an der absoluten Leistungsspitze hat sich AMD von einer auf die andere Generation aber mal so richtig abhängen lassen.

Schade, das hätte ich ehrlich gesagt so nicht erwartet.
Aber nur im Vergleich zur Konkurrenz nicht intern gegenüber den Vorgängergenerationen.
 
Moin!

Mal ganz abgesehen von den Preisen bin ich echt enttäuscht von AMD. Die Generation vorher sah bis auf RT wirklich Top aus. Ich dachte sie schaffen mit der 7er Serie das Gesamtpaket.

Ihr sonstiger Joker - Rohleistung / Effizienz / Preis ist leider auf der Strecke geblieben.

Klar werden sie wieder Treiber fixen und die Preise anpassen aber das dauert jetzt halt.
Warum nicht fertig releasen? Meinetwegen im Frühjahr 23? Durch die Ryzen euphorie wohl zu gierig geworden?

Sieht man ja auch schon an den AM5 Mainboards. Alle viel zu teuer!

Naja, sie werden schon einknicken! Müssen sie ja um noch die Kurve zu kriegen... Hoffentlich!

Ich feiere AMD sehr für ihren langen Support der Sockel. War schon n cleverer Schachzug meinen 8700k im Frühjahr 20 gegen nen Ryzen 2700x zu tauschen :) Der I7 bringt zwar mehr fps aber der der 5800x3d den ich irgendwann draufstecke wischt den Boden mit ihm... Tja... mit dem Z370 Mainboard würde ich in die röhre schauen 😅

Aber seit der 5700xt bin ich was grakas angeht vorerst raus. Über die 3/4 jährigen treiberprobs der Kartr brauchen wir ja nicht.. . Die 6er hatte kaum RT Leistung (+viele Karten hatten starkes spulenfiepen) - also wieder kein tolles Gesamtpaket. Dafür fehlt mir persönlich eh DLSS und das ist dann auch das KO Kriterium.

Im test wurde ja GotG wegen massivem ruckeln aus dem testparkour genommen. Da fällt mir grad Elex2 ein welches auf AMD karten unspielbar ist. Nvidia hat zwar hier und da games wo sie schlechter performen aber keine die unspielbar sind. Das wäre auch noch so ein Punkt der fürs Gesamtpaket fehlt...

Ich möchte die AMD Karten jetzt auch nicht nur schlecht reden. Bei manchen meiner "Kunden" verbaue ich sogar AMD Karten. Zuletzt eine Red Devil 6950xt und eine Armor2x 6650xt.( die Red Devil ist wirklich n geiles Stück Hardware).
Aber nur wenn sie ein passenden Spielegeschmack, etwas Knowhow und sitzfleisch haben. Bei Otto normal user kommt sogut wie immer eine Nvidia rein weil es insgesamt einfach weniger Ärger gibt
 
  • Gefällt mir
Reaktionen: Pro_Bro
Taurus104 schrieb:
Aber nur im Vergleich zur Konkurrenz nicht intern gegenüber den Vorgängergenerationen.
Natürlich im Vergleich zur Konkurrenz, wäre ja noch schlimmer, wenn man sogar ineffizienter als der eigene Vorgänger wäre^^

Aber auch da ist der Sprung leider nicht allzu groß
 
Unnu schrieb:
Irgendwie ist mir "alles ein Softwareproblem" zu wenig.
Klar, kann gut sein, aber bei derartigen Problemen halte ich auch diverse schlechte Entscheidungen bei der HW für durchaus Möglich.
Man muß aber bedenken das Treiber nicht eine einfache 081 Software sind sondern extrem "Hardwarenah" arbeitet. Gerade bei komplexer Hardware.
Leider wird auch in der Branche Optimierungsarbeit stark unterschätzt und oft auch abgetan.
 
Zurück
Oben