Test 7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell

Wolfgang schrieb:
Das "7900 XTX vs. 4080 OC" gibt es quasi nebenbei. Eigentlich geht es in dem Artikel darum, RDNA 3 etwas besser zu verstehen und zu analysieren, was mit den Taktraten los ist und machbar ist.
Die Frage an der Stelle - die wirfst du ja selbst auch ein - ist, wie viel Power-Budget an anderen Stellen benötigt werden, wenn nicht nur die Vec32-ALUs ausgelastet werden.

Um hier wirklich Klarheit zu haben, müsste man an der Stelle weit tiefer in die Materie abtauchen und müsste den Treiber samt der Befehle, die an die GPU gehen, tracken. Frage ist dann, nutzt Blender bereits die Dual-Issues oder DPP, wenn nein, könnte es an der Stelle sein, dass sich die halbe Vec32 quasi langweilt und daher mehr Taktpotential freigibt. Dafür spricht ja auch, dass man die 3 GHz bei ca. 310 Watt erreicht.

Frage ist an der Stelle dann auch, inwieweit der Memory-Controller bei Blender gefordert wird, was da an Daten liegt, aber auch bei Spielen.

Hui, jetzt hab ich irgendwie Lust mal den Treiber vollständig zu tracken und die Auslastung der Karte, gleichzeitig weiß ich aber, dass das wieder so eine massive Arbeit ist, die am Ende zwar Klarheit bringt, aber bis auf wenige kaum interessiert.

Und am Ende ändert es auch nichts an den Problemen, sondern erklärt diese nur.
C.J. schrieb:
RDNA3 säuft einfach von sich aus wie ein Loch, sodass AMD schon Spannung und Takt reduzieren musste, damit die Karten nicht jeden Rahmen sprengen.
Ich glaube, dass hier das Problem bei den neuen Vec32 liegt, weil AMD hier versuchte relativ "elegant" sich für die Zukunft vorzubereiten, ohne dass sie die Fehler von GCN wiederholen. Auf der einen Seite die Dual-Issues, dass zwei OPs in der Vec aus dem gleichen Thread bearbeitet werden kann, oder dass man bei "zu wenig" Daten pro Thread auch die Threads zusammenfassen kann, was die Operatoren angeht.

Es gibt hier einige Fallstricke, aber die wirklich zu analysieren, benötige es einiges an Zeit und auch Fachwissen. Sowas wäre als Hausarbeit im Studium interessant.
 
  • Gefällt mir
Reaktionen: Colindo, Seko, Cruentatus und 6 andere
DerRico schrieb:
Das stimmt ja so ganz nicht und dieser "Test" bestärkt natürlich solche Aussagen, weil er einfach nicht klug angelegt ist.

Naja, die Redaktion macht diese Aussage.
Aber DerRico erklärt uns das er es besser weiß.
Ok.
 
Vielen Dank! :)

Einen Undervolting-Artikel fände ich persönlich aber viel interessanter.
 
  • Gefällt mir
Reaktionen: Zitterrochen, Raidiri und ash79
silentdragon95 schrieb:
Sehr schade wenn man bedenkt, wie gut RX 6000 war (wenn die Karten denn im Handel verfügbar gewesen wären), da konnte man ja durchaus mit Nvidias Ultra High-End konkurrieren.
Da hatte man halt noch einen massiven Fertigungsvorteil. Ampere in TSMC N7 gefertigt wäre sicher auch nochmal ganz anders abgegangen.

Holzinternet schrieb:
Meine GTX1080 rennt mit UV bei gut 160 Watt unter Volldampf... Irre was da die Verbräuche aufzeigen. Will ich nicht. Solange die 1080 fit ist bleibt sie im System. Langt für WQHD.
Naja. Meine 4090 kann auch bei 160W rennen. Und ist dabei dreimal so schnell ? Verbräuche sind nur irre wenn man vSync und Co nicht nutzt.
 
Fighter1993 schrieb:
Nutzlos ist das jetzt nicht unbedingt.
War etwas extrem ausgedrückt. Der Nutze von Raytracing ist schon gegeben, aber wenig Spiele und noch seltener wirklich gut. Wenn man jetzt noch UE 5.1 nimmt, das vermutlich ähnlich gute Ergebnisse liefert. Könnte sein, dass RT wie PhysX in der Engine "aufgeht".
 
DevPandi schrieb:
Um hier wirklich Klarheit zu haben, müsste man an der Stelle weit tiefer in die Materie abtauchen und müsste den Treiber samt der Befehle, die an die GPU gehen, tracken. Frage ist dann, nutzt Blender bereits die Dual-Issues oder DPP, wenn nein, könnte es an der Stelle sein, dass sich die halbe Vec32 quasi langweilt und daher mehr Taktpotential freigibt. Dafür spricht ja auch, dass man die 3 GHz bei ca. 310 Watt erreicht.
Es reagiert auf jeden Fall nicht nur Blender so.
Ich habe 4 verschiedene Compute-Benchmarks ausprobiert und alle haben sich absolut gleich (also wie Blender) verhalten. Das garantiert jetzt natürlich nicht, dass bei den Programmen Navi 31 gut ausgelastet worden ist. Aber wenn ich mir die Leistungssteigerung beim Blender-Benchmark ansehe, kann man davon ausgehen, dass zumindest Dual-Issue da intensiv genutzt wird.

https://www.computerbase.de/2022-12...w-test/4/#abschnitt_benchmarks_in_anwendungen
 
  • Gefällt mir
Reaktionen: Cruentatus, Rockstar85 und rumpeLson
DerRico schrieb:
Es soll sich um ein behebbares Problem der Chiplets-GPUs handeln. Die kleineren und mobilen Versionen sind Monolithen und takten normal - also 3Ghz+
Hast du dazu eine Quelle?
 
Auf Grund der hier ermittelten Werte und der Ergebnisse steigt die Wahrscheinlichkeit das die Gerüchteküche richtig liegt und RDNA3 als Navi31 einen Designfehler hat ein wenig.
Perdakles schrieb:
Hast du dazu eine Quelle?
Da gibt es nichts greifbares oder valides außer leaks und Vermutungen.
 
  • Gefällt mir
Reaktionen: Perdakles
ThirdLife schrieb:
Naja. Meine 4090 kann auch bei 160W rennen. Und ist dabei dreimal so schnell ? Verbräuche sind nur irre wenn man vSync und Co nicht nutzt.

Sicher kann das die 4090. Deine hat aber irgendwas um die 2000 Euro gekostet. Meine 1080 hab ich für 260 Euro gekauft. Muss ich nicht überlegen wofür ich mich entscheide. Und ich cappe bei 72 fps weg. Lediglich bei Star Citizen und einigen HighEndTripleirgendwas Titeln liege ich darunter. Für mich sind diese Karten keine Option. Nicht im Geringsten.

Preis/Leistung ist nicht mehr gegeben. Entscheidet aber jeder für sich, keine Frage.

Gruß
Holzinternet
 
Grundgütiger schrieb:
Bei den Mono Chips sollte es wie bei RDNA2 laufen.
Nicht unbedingt. Klar, das SI gehört bei GPUs gerne zu den "Schluckspechten", gleichzeitig wird hier mit dem IC abgefedert.

Mal abwarten, wie sich Navi33 verhält, dann kann man da durchaus noch mal darüber nachdenken, dass hier eventuell auch im Chiplet-Design ein Problem vorliegt.
Wolfgang schrieb:
Aber wenn ich mir die Leistungssteigerung beim Blender-Benchmark ansehe, kann man davon ausgehen, dass zumindest Dual-Issue da intensiv genutzt wird.
Durchaus möglich, wenn ich mir ansehe, dass ca. 3 GHz gegen 2,8 GHz und 6144 zu 5120 Shader steht.

Ich hab gerade irgendwie Lust entwickelt mal den Treiber zu tracken und die Befehle, die Blender und Co absenden, wäre das nicht so eine unglaublich aufwendige Arbeit. Allgemein müsste man hier relativ viel mal einfach tracken, was da zusammen kommt. GNAGH!

Wer von euch zahlt die Rechnung? Du oder Jan? Ihr seid schuld, dass ich da jetzt Lust drauf habe!
 
  • Gefällt mir
Reaktionen: Rockstar85

Lt.Matt aus dem OCN-Forum hat seine Nitro mit LM repastet, läuft wie Henne.

die andere Nitro, die Er vorher hatte war auch gut zu OCen (siehe TS-Liste)
 

Anhänge

  • LtMatt@Nitro1.JPG
    LtMatt@Nitro1.JPG
    32,8 KB · Aufrufe: 213
Ich empfange neue Karten ganz gerne mit ner Nacht Folding@Home, weil die sich da nen Ast boosten. Wenn das die getunten VRAM- und Core-Settings überleben, überlebt die typischerweise alles andere auch. Kann man direkt auch checken mit dem effektiven Takt, ob auch da alles fein ist in dem hohen Frequenzbereich, was Clockstretching angeht, weil man den ja im Spielebetrieb nicht so oft sieht, außer bei alten Titeln im FPS-Limit. Da Boosten die Karten ja auch ganz gerne, frei nach dem Motto "Wer bei Spielen boostet, der arbeitet nicht wirklich." :)
 
Ich würde da jetzt wirklich gerne wissen, was da im Detail schief lief.
Denn offensichtlich kann RDNA3 ja so irre hoch takten, wie ursprünglich avisiert.
Und sprengt damit in Spielen alle auch nur ansatzweise sinnvolle Verbrauchswerte.

Also: Was lief - wo - schief?
 
Holzinternet schrieb:
Sicher kann das die 4090. Deine hat aber irgendwas um die 2000 Euro gekostet. Meine 1080 hab ich für 260 Euro gekauft. Muss ich nicht überlegen wofür ich mich entscheide. Und ich cappe bei 72 fps weg. Lediglich bei Star Citizen und einigen HighEndTripleirgendwas Titeln liege ich darunter. Für mich sind diese Karten keine Option. Nicht im Geringsten.

Preis/Leistung ist nicht mehr gegeben. Entscheidet aber jeder für sich, keine Frage.
Ich denke mit einer 6700XT wäre man da aber auch recht gut aufgestellt...also wenn Effizienz das Ziel ist gibts auch für humanes Geld sehr schnelle Karten.

Pascal war halt einfach eine sehr starke Arch...hatte bis Ende 2020 auch noch eine 1080 Ti. Lief einfach das Teil. Hatte nie eine Karte so lange wie die.
 
  • Gefällt mir
Reaktionen: Zitterrochen und Holzinternet
Um AMD GPUs sinnvoll zu übertackten muss UV betrieben werden. Dies ist seit VEGA so. Und seit VEGA schreibt Wolfgang hier auf CB diese falschen Unsinnsartikel.
 
  • Gefällt mir
Reaktionen: public_agent, HierGibtsNichts und DerRico
Ich spiel mit dem Gedanken, mir demnächst eine neue Karte zu bestellen, gehe aber mittlerweile eher Richtung RTX 4070 Ti. Bei diesen Karten im Test würde ich eher UV anstatt OC betreiben, zumal es sich mit der Kühlung bei 500W dann schwierig verhält.
 
Ich hatte doch mal was gehört, dass es nen Hardware Bug bei RDNA3 geben soll. Vielleicht ist das der Grund, warum die Leistungsaufnahme so hoch ist.
 
DevPandi schrieb:
Ich hab gerade irgendwie Lust entwickelt mal den Treiber zu tracken und die Befehle, die Blender und Co absenden, wäre das nicht so eine unglaublich aufwendige Arbeit. Allgemein müsste man hier relativ viel mal einfach tracken, was da zusammen kommt. GNAGH!
Wieso? Starte doch kurz ne Session mit dem Profiler und poste das Log-File. Ich kenne einige Leute, die das fix analysieren können.
 
GOOFY71 schrieb:
Ich spiel mit dem Gedanken, mir demnächst eine neue Karte zu bestellen, gehe aber mittlerweile eher Richtung RTX 4070 Ti. Bei diesen Karten im Test würde ich eher UV anstatt OC betreiben, zumal es sich mit der Kühlung bei 500W dann schwierig verhält.
Du hast schon verstanden, dass es in dem Artikel um eine Analyse zum Verständnis von RDNA3 geht und nur wenig bis keine Auswirkung in der Praxis hat? :rolleyes:
 
  • Gefällt mir
Reaktionen: Rockstar85
Maximaler Takt alles schön und gut - wie wärs mal mit Leistung bei minimaler Leistungsaufnahme? Das würde mich interessieren.
 
  • Gefällt mir
Reaktionen: Zitterrochen, GOOFY71 und TumorTorben
Zurück
Oben