Test 7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell

Stimmt Taxxor.. mit 3Ghz hätte es vllt besser ausgesehen... Ich hoffe echt auf ein Händelbares Problem.
Einerseits grob die Leistung einer 4090 bei IW9 Engine und der TW Engine auch, andererseits nicht mal in CP2077 an die 4070Ti...
Das tut schon weh

1673977792219.png



Das hier ist dazu auch spannend:
 
  • Gefällt mir
Reaktionen: Mcr-King
Danke @Wolfgang für den Test.

Beim Test der 7900xtx haben sich noch viele beschwert warum kein OC Test gemacht wurde. Jetzt kommt ein Test und jetzt beschweren sich andere das sowas nicht mehr Zeitgemäß ist :D
 
  • Gefällt mir
Reaktionen: Mcr-King, Kloin, Öcher Tivoli und 3 andere
Wäre nett wenn bei der Gegenüberstellung auch das Ergebnis aus dem Blender Benchmark gezeigt werden würde, sonst kommt das etwas biased rüber. Denn beim GPU Rendern sieht RDNA3 mal einfach schwach aus, liegt natürlich auch daran, das bei Nvidia die RT Cores da noch fleißig mithelfen.
Zudem ist es interessant, inwieweit ein höhere Takt das Ergebnis ändert. Bei Compute sollte das ja fast 1 zu 1 sein.

Laut eurem Einzeltests RTX 4080 (default) 9647 Punkte und die 7900 XTX 4177 Punkte. Und das bei deutlich höherer Leistungsaufnahme.

Takt hat doch bei Verschiedenen Architekturen wenig Aussagekraft, was soll also so ein GHz Vergleich?

Ich hoffe das in Zukunft die Effizienz deutlich stärker bei Tests gewichtet wird.

PS Kann man bei der 4080 die RT Cores deaktivieren, um zu schauen, wie schnell die Karte dann unter Blender ist? Bzw den Benchmark mit einem entsprechendem Flag starten?
Der Benchmark fusst vermutlich auf Cycles, ist dieser ja auch hochgradig auf Nvidia Hardware durch OptiX optimiert, wärend RDNA nur per OpenCL angesteuert wird. Oder wie verhält sich das?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
incurable schrieb:
Sicherlich akademisch interessant, aber bei den Verbrauchsdaten und daraus resultierender schlechterer Effizienz in meinen Augen nichts für den Alltag.
Ganz im Gegenteil, ein extrem spannender Artikel den ich mit mehr Interesse als den eigentlichen Testbericht gelesen habe.

So gehen die Meinungen auseinander.

Was heißt das für den Alltag? Zum einen gibt es das Potenzial durch Undervolting noch viel mehr Leistung herauszuholen.

Zum anderen könnten die weiteren Navi 3x Chips im Vergleich besser performen, weil bei ihnen der Mehrtakt nicht so viel Energie kostet.


Idealerweise kann AMD schon bei ihnen oder in einer Refresh Gen den Stromverbrauch senken-sei es durch einen Bugfix oder Optimierungen, und dadurch das.in der Architektur versteckte Potential heben. Jedes Prozent weniger Verbrauch lässt sich tendenziell direkt in Mehrperformance übersetzen.


Außerdem.finde ich es einfach hochinteressant, was hier bei AMD passiert ist, nachdem frühe Leaks.von einem Kopf an Kopfennen zwischen RDNA3 und ADA ausgegangen sind. AMD scheint sich laut Leaks sogar im Laufe der Entwicklung für einen kleinenren Chip mit mehr Takt entschieden zu haben.



Noch eine Sache zum Compute: dort werden ja nur die Shader und nicht die TMUs und sonstigen Einheiten gebraucht. Daher wohl auch weniger Stromverbrauch und die Frage, ob auch die anderen Einheiten 3Ghz mitmachen würden.
 
Habe ich da gerade 2.8Ghz bei 500W Gehört?
Das kann meine 6800XT schon lange!

1673979454072.png



Chesterfield schrieb:
muss man sagen das attraktivere Produkt bleibt Nvidia 4080
Technisch betrachtet ist die einzige attraktive Karte diese Generation die 4090.
Die 4080 ist zu sehr beschnitten, und die 4070 Ti noch viel zu viel mehr.
Die 7900er aka Navi31 sind im Design einfach noch nicht Final und benötigten noch weitere Optimierungen. Hätte so nie releast werden dürfen. Aber vermutlich haben sie es nach Monatelangem tüfteln einfach aufgegeben.
 
  • Gefällt mir
Reaktionen: Rockstar85, Mcr-King, Mracpad und 2 andere
Nitschi66 schrieb:
@Wolfgang
Die Y-Achsen der grafen fangen nie bei 0 an. Würde ich nicht so machen.
Bei einem absoluten Wert um die 3000 erkennst du dann aber kaum mehr Unterschiede. Es hat schon seinen Sinn, dass hier nur ein Ausschnitt gezeigt wird.

Nachtrag: Man sollte aber dennoch über ähnliche Diagramme hinweg den gleichen Skalenausschnitt wählen, so dass hier ein Vergleich möglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Arno Hakk
  • Gefällt mir
Reaktionen: Rockstar85 und DevPandi
DerRico schrieb:
Schön getrollt, aber nein, eben gerade nicht.

Ist aber auch egal: Wenn Du Fraktion "mich interessiert was passiert, wenn ich der Karte so viel Watt reinschiebe wie geht" bist, ist der Artikel für Dich stimmig, passt.

Wenn Du, wie einige andere hier auch, eher Fraktion "Mich interessiert das Maximum der Karte unter Ausnutzung aller Stellschrauben und auch das Effizienzmaximum" bist, kritisierst Du die Testansetzung.

Alles ganz normal und entspannt eigentlich ;)
Naja, ich finde beide Werte interessant. Dazu könnte man noch das "bare minimum" ansetzen.:)
 
TheUngrateful schrieb:
Dieses vermutlich "nicht gewünschte Verhalten" von RDNA3 wird sich dann wahrscheinlich durch die komplette Serie ziehen, oder?

Also nichts was sich "mal eben" für die später erscheinende Mid und Low end Karten beheben lässt?
Das kommt darauf an ob es ein Bug oder ein generelles Design Problem ist. Ein Bug ließe sich mit einem Redesign und neuen Tape out innerhalb von ca 6 Monaten beheben, zufällig wurde navi 32 bis Mitte 2023 verschoben. Es wäre also möglich.

Ansonsten könnte AMD die anderen Karten leichter etwas mehr verbrauchen lassen als die High End Riege. Dann hätten wir quasi eine Situation wie bei rx480 vs 1060, wo Amd ganz gut mithalten konnte, aber mehr verbraucht hat.
Ergänzung ()

Nitschi66 schrieb:
Der Test lässt mich auf den monolithischen Chip hoffen. Ich denke immer noch, dass ein großteil des Verbrauchs auf das Chiplet Design zurückzuführen ist - ähnlich wie es bei Ryzen 1000 war
Ryzen 1000 war doch monolithisch, Chiplets gab es erst bei 3000.
 
  • Gefällt mir
Reaktionen: Cruentatus, Nitschi66 und TheUngrateful
Das übertakten, bei AMD, ist sehr schrierig. War schon so, beim 2400G, RX480 so. ( The Wall) mit der RVII, noch übler. Dann hat man mal das richtige und stabile Setting gefunden, nach nem Treiber Update, alles zu nichte und von vornen. Die haben so die telemetrie geändert, da gibt es keine konstante.
 
Holzinternet schrieb:
Solange die 1080 fit ist bleibt sie im System. Langt für WQHD.
Kommt auf die Spiele an.

Ein guter Freund von mir leihte sich nach dem sein FullHd Monitor die Grätsche machte einen WQHD Monitor aus und sagte mir anschließend er kauft sich auf jeden Fall wieder einen FHD Bildschirm, da seine 1080 unter WQHD oft unter 60fps fallen würde..

Ich hatte zu der Zeit eine 1080Ti und keine Probleme unter WQHD, welche aber auch ne ganze Ecke schneller ist als die 1080.
 
Zer0Strat schrieb:
Taurus104 schrieb:
Sollte man eigentlich erkennen. Die wichtige Stelle ist sogar markiert.
Es gibt sogar eine weitere Methode: Man sucht sich mal die entsprechenden Stellen, an denen der Code verwendet wird und überlegt, was da dann genau steht:
Code:
S_00B404_INST_PREF_SIZE(si_get_shader_prefetch_size(shader)) | S_00B404_CU_EN(0xffff),

Oder wie hier:
Code:
shader->ctx_reg.ngg.spi_shader_pgm_rsrc4_gs =
         S_00B204_CU_EN_GFX11(0x1) | S_00B204_SPI_SHADER_LATE_ALLOC_GS_GFX10(late_alloc_wave64) |
         S_00B204_INST_PREF_SIZE(si_get_shader_prefetch_size(shader));
Noch eine Stelle:
Code:
S_00B004_INST_PREF_SIZE(si_get_shader_prefetch_size(shader)) |
                       S_00B004_CU_EN(cu_mask_ps >> 16)

Und dann stellt man fest, dass da eine "ODER"-Verknüpfung ist. Geht man dann etwas vor und zurück, stellt man sogar fest, dass die Funktion erst mit RDNA 3 genutzt wird und dass hier noch ein Wert gegeben wird, der, sofern die eine Funktion 0 zurück gibt, eben der andere Wert genutzt wird.

Und sieht man sich dann den Code an, dann bei RDNA 3 entweder der neue Code genutzt, der angibt, wie viele Shader denn wirklich vorgeladen werden sollen, oder einen pauschalen Wert, wie es bei GFX10 und davor der Fall ist.

Und schon fällt das ganze in sich zusammen.
 
  • Gefällt mir
Reaktionen: Connsen27, m.obermueller, Rockstar85 und eine weitere Person
-=[CrysiS]=- schrieb:
Noja, von Werk aus übertaktete Grakas brachten meiner Meinung nach, noch nie so wirklich viel :D

Schade das 99% des drei Lüfter Designs so schlecht aussehen, da sieht ja die FE noch passabler aus...
Stimmt nicht ganz vor RTX und co schon nur mittlerweile ist die FE wenn man eine bekommt viel besser als der Costum rotzt. ;)

Komisch dass man die FE schon fast eine Sage nennen muss da sie nirgends zu kaufen gibt. ;)
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-
Ein hochinteressanter Artikel und zwar in so ziemlich jedem Teilaspekt. Besonders stark ist natürlich, dass das "Mysterium", wie es zu den 3Ghz-und-mehr-Gerüchten kam nun wohl geklärt ist.
In diesem Artikel geht ComputerBase mit einer maximal übertakteten Sapphire Radeon RX 7900 XTX Nitro+ (Test) sowie einer ebenso ans Limit gebrachte Asus GeForce RTX 4080 TUF OC der Frage nach, wie viel Takt und welche Leistungzugewinne zu welchen Kosten mit Luftkühlung ohne Modifkation an den Grafikkarten möglich sind.
Das schreit natürlich nach einem FollowUp mit Fullcover-Wakü...
 
DevPandi schrieb:
Und schon fällt das ganze in sich zusammen.
Ich verstehe schon gar nicht, warum AMD behaupten sollte, dass Navi 31 Shader-Prefetch nutzt, wenn dem nicht so wäre.
Denn das würde ja die aktuelle Performance der Karten nicht verschlechtern, hieße aber, dass da nochmal gut was mit einem Treiberupdate nachkommen könnte.
Warum sollte man da also Mist erzählen?
 
  • Gefällt mir
Reaktionen: Rockstar85 und HierGibtsNichts
gedi schrieb:
Eben nicht- 1.07v@3.3g sollten eigentlich auf jeder XTX gehen!
Schön wärs. Da krieg ich mit meiner sofort nen Treiber Timeout. Selbst 1.14 haben sich auf meiner xfx xtx merc als instabil herausgestellt. Läuft jetzt bei 1.15 und 3100mhz max clock. Ich hab einfach kein Glück in der Silizium Lotterie, hatte ich schon bei meiner 6900xt nitro+ nicht, und mein 5900x macht auch keinen IF Takt von 1.9ghz mit🙄
 
Absolut verrückt wie der Stromverbrauch der 7900 XTX durch die Decke geht. Ca. 150-180W (50-60%) mehr Stromverbrauch und dabei im Schnitt 2-3% mehr Leistung als die RTX 4080 OC.

Wenn man hier annimmt, dass man die Karte z.B. 3000 Stunden im Einsatz hat (6 Jahre, 500h Gaming pro Jahr) resultiert das in ca. 200-250€ an Mehrkosten für Strom (0,45€ pro kWh) im Vergleich zur 4080.

War bei historischen Strompreisen vernachlässigbar, sollte man heutzutage beim Kauf definitiv bedenken.
 
Na mal abwarten ob AMD das Problem vielleicht doch noch über Treiber hinbekommt. Wäre ja nicht das erste Mal dass die Karten im Laufe der Zeit immer besser wurden und das entsprechende Nvidia Gegenstück überholt haben in der Performance.
 
Zurück
Oben