Leserartikel DevPandis großer Test - 5700 XT gegen 7900 XTX und was mit AM4 so möglich ist

AM4 – 4 Generationen für ein Halleluja​

Als 2017 die ersten Ryzen Prozessoren – also Zen 1 – erschienen, war bereits klar, dass AMD den Sockel AM4 länger nutzen wird, ähnlich wie die Vorgänger AM2 und AM3. Auf vielen Boards von 2017 und 2018 laufen die aktuellen Ryzen 5000 Prozessoren. Für mich optimal, um meinen betagten PC von 2018 auf einen neuen Stand zu heben.

Fangen wir jedoch von Anfang an und ich möchte euch damit zeigen, wie sich der Rechner in den 4 Jahren seit 2018 gewandelt hat. Die Ausgangsbasis des heutigen PCs ist ein Asus ROG Strix B450-E Mainboard auf dem damals ein Ryzen 2700X seinen Platz fand. Eine schöne Kombination, die anfangs von einem Noctua NH-D15 gekühlt wurde, der dann wegen einiger Umbauarbeiten durch einen Noctua NH-U12A ausgetauscht wurde. Etwas weniger Kühlleistung, gleichzeitig viel MEHR PLATZ! Als RAM wurden damals 32 GiB von G.Skill eingebaut, genauer die Aegis DDR4 3000 CL-16 Module, ein guter Kompromiss aus Leistung und Preis. Als Grafikkarte wurde eine Saphire Radeon RX Vega 64 Nitro+ ausgewählt, die konnte man damals nämlich günstig kaufen. Zur Speicherung von Daten wurde ein SSD-Unterbau aus Samsung 970 Pro 512 GB ausgewählt, dazu 2 SATA-SSD – eine Samsung 860 Evo und eine Crucial MX500 mit je einem TB. Damit besitzt das System 2,5 TB an Speicherplatz. Als Netzteil ist ein Seasonic Prime Ultra Titan 650 W verbaut gewesen. Damals ohne Frage ein schönes schnelles System, dass auch keine Wünsche offenließ, gleichzeitig aber auch schon mit 350 W bei der Grafikkarte kämpfen musste – daher schrecken mich die 350 – 400 W* jetzt nicht so ganz ab. Es fehlt als Information also nur noch das Gehäuse: ein Fractal Design Define R6 in Grau – oder für mich ein etwas helleres Schwarz. Als Gehäuselüfter kommen 3 Noctua NF-A14 zum Einsatz, und zwar im bekannten nougatbraun, ob ich hier das System mal auf Schwarz umstelle? Verdammt, jetzt ist der Wunsch geweckt!

Das System hat mir in dieser Form bis Mitte 2020 gute Dienste geleistet und ich habe im April 2020 eine 5700 XT – dieses mal eine XFX Radeon RX 5700 XT Thicc II – gekauft. Damals für unschlagbare 300,- € im Angebot, die Treiberprobleme** der 5700 XT waren zu diesem Zeitpunkt langsam Geschichte und es fühlte sich einfach richtig an, der Leistungsschub von 20 % war auch gerade richtig, bei VIEL weniger Verbrauch. Diese Iteration des Systems hat bis nun zum November 2022 bestand und in Vorbereitung auf eine neue Grafikkarte – und dem Wegfall eines Mördersytems, dass ich einem Freund geschenkt habe – wurde der 2700 X durch einen 5800X3D ersetzt, was die 5700 XT sogar leicht beflügelte. Um den Infinity Fabric Beine zu machen, wurde auch noch der RAM ausgetauscht und es werkelnjetzt 32 GiB Kingston FURY Beast DDR4 3600 CL-18 im System, sodass sich auch die Latenz leicht verbessert hat von 10,66 ns auf 10 ns. Nicht viel, aber immerhin etwas, auch wenn der 5800X3D nicht wirklich von der Latenz profitiert, so wirkt sich zumindest der IF-Takt positiv aus.

In der jetzigen Ausbaustufe – man könnte sie als Phase 4 bezeichnen – wird nun die ehrwürdige 5700 XT in den Ruhestand versetzt, auch diese Grafikkarte wird einem Freund zu gesendet, der nicht sehr viel hat. Die Nachfolgerin ist eine XFX Radeon RX 7900 XTX Merc 310 Black Edition. Natürlich ist der Umbau und die Erneuerung des Systems damit noch NICHT abgeschlossen, denn mein Ziel ist es am Ende wirklich ein neues System unter dem Schreibtisch stehen zu haben. Aber mit dem Geldbeutel vereinbar - ja die 1300 € für die XFX sind viel Geld gewesen, deswegen aber in Häppchen erneuert.

Es stehen also noch drei Erneuerungen an bis zum Sommer: Das Mainboard soll durch ein B550-Board getauscht werden, damit auch die Vorzüge von PCIe4 zur Geltung kommen. Die NVMe-SSD soll gegen ein PCIe4 Exemplar getauscht werden und auch ein neues Gehäuse steht an – mit mehr Luftzufuhr für die Grafikkarte und – ihr seid schuld daran – eben die Gehäuselüfter und vielleicht sogar der CPU-Lüfter, ich mag Schwarz!

Jetzt aber auch kurz zu den beiden Asterisk im Text, um ein paar Gedanken noch zu veranschaulichen:

* Ich weiß, dass ich mich sowohl bei der 4090 als auch der 3090 Ti negativ über den gesamten Stromverbrauch geäußert habe und es wirkt in diesem Moment auch etwas scheinheilig, dass ich jetzt eine 7900 XTX mit 350 – 400 W in meinem System einbaue. Ich nannte eine 3090 Ti und eine 4090 aber bereits mein Eigen, beide verschenkt an Freunde oder Studenten. Beide Karten habe ich auf 300 – 350 W limitiert und es zeigte sich bei beiden, dass für ca. 3 – 6 % Performance übermäßig viel mehr maximale Energie zugeschossen wurde und beide Karten OHNE Not entsprechend auf diesen Verbrauch geprügelt wurden. Die 4090 verliert ca. 7 – 10 % an Leistung, wenn man sie von 450 auf 300 W limitiert. Ich spiele zudem mit einem relativ starken FPS-Limit bei 72, sodass die meisten Spiele nicht wirklich darüber hinaus kommen – wobei ich überlege es auf 90 anzuheben, mal sehen.

** Die Treiberprobleme von RDNA sind mit einer Umstellung des Treibers von Wave64 auf Wave32 zu erklären. Mit RDNA wurden die 4 * Vec16 durch 2 * Vec32 ersetzt. Bis RDNA war der Treiber auf Wave64 ausgelegt. Solche Umbauten sind immer fehleranfällig. Auch dieses Mal hat AMD an den CU einiges umgebaut und ich werde im späteren Verlauf darauf eingehen.

Die Kontrahenten – die Überraschung gegen die Enttäuschung​

Die 5700 XT – also Navi10 – war 2019 eine Überraschung, hat doch AMD damit gezeigt, dass sie noch nicht auf verlorenem Posten kämpfen und gute Grafikkarten – wir lassen mal die Treiberprobleme weg – designen können. Die 7900 XTX – Navi30 – ist hier dann schon eher eine kleine Enttäuschung, die Gerüchteküche brodelte ordentlich, was auch mich zu falschen Einschätzungen verleitet hat und auch die Folien waren – mindestens – stark durch eine rosarote Brille gefärbt. Alles eigentlich ein Grund, die Karte nicht zu kaufen. Warum habe ich die Karte dennoch gekauft? Weil ich das Konzept des Chiplet mag und ich die neuen CUs interessant finde und denke, dass AMD hier noch einiges machen kann.

Ja, scheinbar hat 7900 XTX einen Hardwarebug beim Prefetching von Shadern – siehe dazu den Mesa3D-Code – gleichzeitig sind die Auswirkungen mit ca. 2 % nicht wirklich gravierend. Probleme mit der Leistungsaufnahme lassen sich in der Regel im Treiber und der Firmware beheben, da einfach gewisse Parameter falsch eingestellt sind, man wird hier auf die Treiber warten müssen. Dass RDNA3 schlechter abschneidet als erwartet, liegt primär an einem noch nicht ausgereiften Shadercompiler und damit auch am Treiber. Etwas, dass man aussitzen kann und es könnte spannend sein, die Karte über die Zeit auch zu beobachten – also wird dieser Artikel ein Mehrteiler, freut euch darauf.

Jetzt aber zu den beiden Chips, die sich in diesem Test dem Duell im Ring stellen:
BezeichnungNavi10Navi30
Transistoren10,3 Mrd.45,7 Mrd. + 12 Mrd. (57,7 Mrd)
FertigungN7N5 + N6
WGP/CU20/4048/96
Shader25606144 (12288)
RT-Kerne096
Matrix-Kerne0192
TMU160384
ROP64192
SI256 Bit384 Bit
Cache (L2 + L3)8 MiB + 06 MiB + 96 MiB
Takt1605 - 1905 MHz1900 - 2500 MHz
Es sind 140 % mehr Shader und TMUs und 200 % bei den ROPs und das verspricht in diesem Duell schon ein ordentliches Leistungsplus. Der Takt steigt um 20 – 30 % an, was am Ende auch ordentlich ist, dass die 5700 XT also von der neuen großen Schwester eines auf den Deckel bekommt, ist schon klar, die Frage ist nur wie viel und das soll dieser Test klären.

Die Konkurrenz – 4090 oder 4080?​

Bevor wir aber zu dem eigentlichen Test kommen, möchte ich kurz ein paar Kommentare aus der Community aufgreifen – nicht angreifen –, die meinen, dass Navi30 eigentlich die Konkurrenz zur 4090 ist und AMD nur aus Not die 4080 als Konkurrenz ausgewählt hat: Nein, das sehe ich an der Stelle ein Stück anders. Ich muss an der Stelle andeuten, dass die ursprünglichen Gerüchte diesen Schluss zu lassen, es ist allerdings anders gekommen. Navi30 bewegt sich von allen Eckdaten viel eher zwischen AD102 und AD103 und in bestimmten Spielen – nicht nur den CB-Test nehmen – kann Navi30 es mit AD102 aufnehmen, in anderen Spielen unterliegt man deutlich und auch AD103 kann schneller sein*.

Sieht man sich aber die Daten aller drei GPUs an, dann fällt auf, dass Navi30 sich genau zwischen AD102 und AD103 bewegt. Entsprechend ist auch das Ziel, besser muss das Ziel von AMD sein, sich zwischen AD102 und AD103 zu platzieren, dieses Ziel hat AMD – in meinen Augen – aktuell nicht erreicht. Es ist also umso wichtiger, dass AMD wirklich am Treiber arbeitet und am Shader-Compiler.
BezeichnungAD103Navi30AD102
Transistoren45,9 Mrd.57,7 Mrd.76,3 Mrd.
Fertigung4N (optimierter N5)N54N
CU/SM8096144
Shader102406144 (12888)*18432
RT-Kerne8096144
Matrix320192576
TMU320384576
ROP112192192
SI256 Bit384 Bit384 Bit
Cache (L2 + L3)64 MiB6 MiB + 96 MiB96 MiB
Takt2210 - 2505 MHz1900 - 2500 MHz2230 - 2520 MHz
Navi30 hat ca. 25 % mehr Transistoren als AD103, AD102 hat 32 % mehr als Navi30 – natürlich kommt in der 4090 kein Vollausbau zum Einsatz, das weiß ich. Bei den RT-Kernen hat man gegenüber AD103 20 % mehr zu bieten, bei den Shadern sind es erneut 25 % mehr (neue Rechenweise**), auch bei den ROP sind es deutlich mehr – 71 % - und bei den TMU sind es erneut wieder 20 %. Hätte AMD ihr Ziel von 50 % mehr FPS/Watt erreicht, läge Navi30 auch ca. 10 – 20 % vor der GeForce 4080 und würde sich in diesem Fall wirklich perfekt zwischen AD103 und AD102 platzieren. Das wird aktuell jedoch aus einem Grund verhindert und das ist nicht der vermutete Hardwarebug beim Prefetching von Shadern. Wir kommen daher zu den beiden Asterisk:

* AMD hat die CU stärker umgebaut, als ich anfangs angenommen habe und hier liegt auch das Problem. Ich habe in vielen Kommentaren die Auslastungsprobleme von Ampere/Ada gegenüber RDNA2 erläutert, ich gehe darauf im nächsten Abschnitt ein.

** Die Angabe von 12888 Shadern ist in diesem Fall die ehrlichere und man muss AMD hier sogar sagen, dass sie bei der Verdoppelung der Shader auf der einen Seite intelligenter vorgegangen sind als NVIDIA bei Ampere, gleichzeitig haben sie sich damit die Entwicklung des Shadercompilers komplizierter gemacht. Auch dazu im nächsten Abschnitt mehr.

Die neuen CU – Genialer Wahnsinn!​

Warum sich Ampere von RDNA2 nicht wirklich absetzen konnte, obwohl sie fast doppelt so viele Shader hatte, ist relativ einfach erklärt: NVIDIA hat bei Ampere die Anzahl der Shader „nominell“ von 64 auf 128 erhöht – es waren bei Turing bereits 128. Es istallerdings so, dass nicht jeder dieser 128 Shader einfach ein Programm ausführt, sondern die 128 Shader werden als SIMD (Single Instruction, Multiple Data) organisiert. So etwas spart Schaltungen zur Kontrolle usw. Das bedeutet, dass immer eine gewisse Anzahl an Shadern die gleiche Operation auf verschiedene Werte ausführen müssen. NVIDIA nutzt für diese Verwaltung die Datenpfade in der SM und in Ampere und Ada gibt es zwei Datenpfade für 128 Shader, also jeder Datenpfad fasst 64 Werte und hier liegt der Knackpunkt: Ampere/Ada benötigen für eine optimale Auslastung 2 Tasks pro SM zu 64 Werten, damit die Rechenleistung auch auf die Straße gebracht werden kann. Die Menge an Werten pro Task wird bei einer GPU heute in der Regel von der Auflösung bestimmt und mit steigender Auflösung kommen pro Thread mehr Werte zusammen und Ampere und Ada können ihre Rechenleistung besser auf die Straße bringen.

AMD – ich werde auf GCN nicht mehr eingehen – benötigt bei RDNA pro CU auch bereits 2 Threads/Task, jedoch nur 32 Werte, da in jeder CU zwei Vec32-Einheiten vorhanden sind. In modernen Engines sind Task/Shader nicht mehr so problematisch, da immer mehr Shader in einem Bild angewendet werde, dafür sind die Shader kleinteiliger und genau hier konnte RDNA1 und RDNA2 dann auftrumpfen: Die Auslastung der CU war besser als die Auslastung der SM bei NVIDIA.

Gleichzeitig zeigt sich bei einer CU ab 4K aber auch, dass ein Thread für Operationen tendenziell einen zweiten Takt benötigen, da mehr als zwei Wave32-Befehle benötigt werden. In 4K ist das noch nicht so gravierend, in höheren Auflösungen wird das aber immer wahrscheinlicher. Die Umstellung von Wave64 auf Wave32 war – bis einschließlich 4K – also 2019 eine gute Wahl, um das Auslastungsproblem von GCN zu beseitigen, gleichzeitig zeigt sich jetzt, dass es wieder notwendig sein kann auf Wave64 – bei Bedarf – umzustellen.

AMD bohrt – nicht wie NVIDIA – einfach die Vec32 zu Vec64-Einheiten auf – was auch möglich gewesen wäre – sondern geht einen anderen Weg, der eine gewisse Flexibilität ermöglicht: Sie fügen einen zweiten Vektor-Pfad in die Vec32 ein, so werden aus den Vec32 nun (vereinfacht) Vec32+32 Einheiten und AMD nähert sich hier ein Stück NVIDIA und Ampere/Ada an.
AMDs Lösung ermöglicht nun zwei Optionen – die NVIDIA bei Ampere und ADA nicht hat, dafür hat das NVIDIA-Design andere Vorteile*:
  1. AMD kann zwei Wave32-Befehle mit dem gleichen Operator auf einer Vec32+32 ausführen.
  2. AMD kann einen Wave64-Befehl innerhalb eines Taktes auf einer Vec32+32 ausführen.
Und genau hier liegt aktuell auch ein Teil der Probleme von RDNA3 und warum RDNA3 nicht so schnell agiert, wie man annehmen könnte. AMD kann die Vec32+32 genauso wenig vollständig auslasten, besonders in niedrigen Auflösungen, wie NVIDIA ihre SM mit 64 + 64. Beide Hersteller haben in dieser Generation – und das ist ein Novum – fast das gleiche Auslastungsproblem.
AMD muss ihren Shader-Compiler innerhalb von 3 Generationen erneut umbauen und dieses Mal wird es knackig. Es ist nicht einfach nur eine Umstellung von Wave64 auf Wave32 – was schon zu einigen Problemen führte – sondern AMD muss dem Shadercompiler beibringen, dass er sowohl gleiche aber dennoch unabhängige Operatoren im Shader in zwei Wave32-Befehlen zusammen fasst. Oder, dass der Shader bei Bedarf entscheiden kann, statt einem Wave32-Befehl einen Wave64-Befehl zu nutzen. Möglich ist das – AMD hat Erfahrung mit VLIW-Architekturen, ich schreibe nur TeraScale – gleichzeitig ist das aber aufwendig und komplex.

Ein Beispiel, um euch die Möglichkeiten zu veranschaulichen:
Code:
A = B + C
D = A + E
F = G + H
Aus diesem Beispiel kann AMD zwei Wave32-Befehle konstruieren, die man gleichzeitig auf die gleiche Vec32+32 loslassen kann. Sowohl A = B + C als auch F = G + H können hier zusammengefasst werden, beide Zeilen sind voneinander nicht abhängig, haben aber den gleichen Operator. A = B + C kann aber nicht mit D = A + E zusammengefasst werden, es gibt in diesem Beispiel noch eine zweite Möglichkeit: D = A + E sowie F = G + H können zusammengefasst werden. Und hier liegt der Knackpunkt für AMD, der Shadercompiler muss mit der Zeit um verschiedene Analysetechniken – Flussanalyse wäre hier eine – erweitert werden, die entsprechende Operatoren-Paare im Shader finden. Das ist in dem Fall eine Möglichkeit.

Die zweite Möglichkeit, die Vec32+32 besser auszulasten, liege im Treiber, denn dieser verwaltet die Tasks und Befehle und weiß in der Regel, welche Befehle über den verschiedenen Tasks an die GPU übermittelt werden. AMD hat hier also sehr viel Potenzial im Treiber und im Shadercompiler und anders als zu Vega-Zeiten ist dieses Mal das Potenzial auch wirklich vorhanden, denn die neuen Befehle für die Vec32+32 können genutzt werden und sind nicht Broken, denn die neuen Befehle werden schon beim RayTracing genutzt.

Zum Abschluss dieses Abschnittes wieder das Asterisk:
* NVIDIA organisiert ihre SM in 4 Tiles zu je 16 + 16 Shadern, NVIDIA ist es dadurch möglich nicht benötigte Shader einfach „ruhen“ zu lassen, so dass diese bei der Ausführung des Befehls nicht schalten müssen. Das bedeutet, wenn in einem Datenpfad statt 64 Werte nur 32 Werte zusammenkommen, dann müssen nur 2 der 4 Tiles arbeiten und die anderen Beiden „drehen Däumchen“. Das ist ein Vorteil, den AMD mit den Vec32+32 nicht so hat. AMD ist an dieser Stelle – ähnlich wie zu Zeiten zu Vega – also deutlich stärker davon abhängig, dass die Einheiten möglichst perfekt ausgelastet werden, damit die Karten effizient sind. Hier muss AMD dringend ran, dass sie nicht benötigte ALUs wirklich „trocken“ legen.

Merc 310 Black Edition gegen die Thicc 2​

Ich will euch an dieser Stelle aber nicht länger auf die Folter spannen. Ich habe im groben beschrieben wie sich das System seit 2018 gewandelt hat. Wie Navi10 und Navi30 aussehen und wo sich Navi30 im Duell gegen AD102 und AD103 einordnet, jetzt kommen wir zu den harten Zahlen der realen Hardware und hier kann ich nur schreiben: BOAH! Ich habe das Paket von meinen Nachbarn abgeholt – der Postbote war mal wieder früher da, als erwartet – und hab ein ziemlich dickes Paket ausgehändigt bekommen und das Paket ist auch schwer! Leider fehlt mir eine Waage zum Vergleich – ich sollte mir aber mal eine Küchenwaage kaufen – allerdings: die Merc 310 ist schwer, laut Post wiegt das Paket 3,20 Kilogramm. Ein großer, fetter Klopper.
IMG_0395.jpg
Vorweg, Fotos werden auf meinem Bett gemacht, das ist einfacher, als jetzt den Tisch freizuräumen, um da gute Bilder zu machen, ich habe kein professionelles Studio und mache solche Tests ja nicht regelmäßig.
IMG_0396.jpgIMG_0397.jpgIMG_0398.jpg
Öffnet man den Karton, zieht man den schwarzen inneren Karton heraus und kann diesen aufklappen und was dann zum Vorschein kommt, ist erst mal der Hammer und es schwant einem schon: Hier wird ein Supportrahmen benötigt und dieser liegt auch bei. Die Karte kommt dann auf knapp 35 cm in der Länge, ist drei Slots dick – mit der Halterung, sonst sind es knapp 4 - und etwas höher als die üblichen Slots. Die Karte ist Respekt einflößend und die 5700 XT Thicc dagegen schon zierlich, auch wenn diese nicht gerade kurz war.
IMG_0402.jpgIMG_0403.jpg
Mit dem Supportrahmen erinnert die Merc 310 an die Vega 64 Nitro+ von Sapphire und ist etwas einschüchternd, gleichzeitig wird aber klar, dass die Karte so vermutlich etwas ruhiger sein wird als die Thicc 2, die sich gerne mal bemerkbar gemacht hat. Ein neues Gehäuse muss in der nächsten Zeit auf jeden Fall her.
IMG_0404.jpg
Egal von welcher Seite man nun ein Foto schießt, die Merc ist ein Monster im Vergleich zur Thicc, schade, dass ich die Nitro+ nicht mehr hier habe, das wäre spannend. Nun gut, sie ist nicht mehr da, also bleibe ich zumindest diesen Vergleich schuldig.

Das Duell – welche Spiele sind es geworden?​

Kommen wir also zum eigentlichen Test und ich kann jetzt schon schreiben: Ich bin positiv überrascht – wobei ich vermutlich von einer 4080 oder gar 4090 noch positiver überrascht wäre. Direkt aber vor weg: Alle Tests wurden in 1440p ausgeführt, ja ich habe nur einen 27“ Monitor, dieser ist sehr gut und ich habe noch keinen Bedarf einen 4K-Monitor zu kaufen. Warum also diese Karte? Weil ich es will, ganz einfach. Ich spiele gerne immer wieder Klassiker und alte Spiele, allerdings auch neue und aus meinem aktuellen Katalog habe ich 11 Spiele ausgesucht und auf der 7900 XTX gibt es sogar ein Bonusspiel - wird nachgereicht.

Folgende Spiele sind es geworden: BlackMesa, Cyberpunk, Tiny Tina, WarHammer 40k: Dark Tide, Diablo 2 Resurrected, Final Fantasy 14, Total War: WarHammer 3, Doom Eternal, Doom 2016, World of WarCraft, Metro Exodus (normal wegen der Vergleichbarkeit) und als Bonus auf der 7900 XTX Quake 2 RTX.

Ich habe jedes Spiel in drei verschiedenen Szenarien getestet: DevPandi, DevPandi No-Limit und Max-Out. Das DevPandi-Setting ist so ausgelegt, dass das Spiel FÜR mich sich angenehm auf meinem Monitor anfühlt. Gleichzeitig wird das Spiel auf maximal 72 FPS limitiert – bei einem 144 Hz Monitor für mich ein guter Kompromiss. No-Limit erklärt sich von selbst und Max-Out: Die ganzen Regler nach rechts, daher werde ich in diesem Test nur die Dev-Pandi-Settings genauer erläutern.

Für mich wichtig ist bei diesem Test auch, dass ich mir nicht eine beliebige Szene heraussuche, auch wenn sie fordernd ist, sondern dass ich eine reale Spielsituation nachstellen kann. Da sich Spiele jedoch nicht vorhersehbar verhalten, führe ich in jedem der Settings drei Durchläufe aus und mittel diese.

Wie angemerkt, ist für mich ein realistischer Test wichtiger als ein optimierter Test, der das theoretische Maximum oder Minimum an Leistung aufzeigt, daher laufen auch verschiedene Alltagsprogramme während des Tests, bei mir sind das folgende: Battle.net Client, BoxCryptor, HiDrive, Java Updater, Steam, TwinkleTray, Discord, Overwolf und GOG Galaxy. Manche dieser Programme werden bei den meisten von euch auch laufen und werden daher nicht deaktiviert, denn auch auf euren Systemen werden die Grafikkarten nicht in optimalen Umgebungen laufen.

Auf Bitte von @ComputerJunge schiebe ich an dieser Stelle noch kurz einen Benchmark mit Affinity Photo ein – die Benchmarks laufen mit Version 2.0.0: In Vektor Raster erreicht die „Einzel“ GPU nur 756 Punkte – ein MacBook Pro mit M1 erreicht hier 8983 – und in der kombinierten Last 1238, das MacBook erreicht hier 8602 Punkte. Anmerken muss man dabei, dass die GPU maximal zu 10 – 15 % ausgelastet wird und nur mit 1000 – 1500 MHz taktet. Daher wird der Test auch nicht in die finale Bewertung mit aufgenommen. Ich werde diesen Test wiederholen, sobald Serif eine neue Version herausgebracht hat.

Nun zu den einzelnen Tests in den Spielen – noch anzumerken ist, dass ich bei Spielen, die in DevPandi keine 72 FPS erreichen, mir den No-Limit Durchlauf spare.

Cyberpunk​

In Cyberpunk besteht der Benchmark-Lauf durch eine Fahrt durch Night City (Zentral) zu einem Apartment. Der Lauf dauert in der Regel 01:30, je nach Situation mit den NPCs können es auch einmal 02:30 werden.
OptionWert
AMD FidelityFX Super Resolution 2.1Qualität
Sichtfeld100
FilmkörnungAn
Chromatische AberrationAn
SchärfentiefeAn
BledfleckeA
KontaktschattenAn
Verbesserte GesichtsbeleuchtungsgeometrieAn
Ansitropie16
Lokale Schatten-MeshqualitätHoch
Lokale SchattenqualitätHoh
Entfernte Schatten AuflösungHoch
Volumetric Fog AuflösungHoch
Volumentische WolkenqualitätUltra
Maximale Dynamic DecalsUltra
Qualität der Screen Space ReflectionsUltra
VolumenstreuungHoch
UmgebungsverdeckungMittel
FarbpräzisionHoch
SpiegelqualitätHoch
Detailgrad (LOD)Hoch

BlackMesa​

Die Einstellungen kann ich mir in diesem Spiel sparen, DevPandi ist bereits Max-Out, als Testszene dient der Reaktor-Unfall, da hier doch einiges los ist auf dem Bildschirm und es eine konstante Last erzeugt.

TinyTina​

In diesem Spiel wird dir Voreinstellung Hoch verwendet und die Anistrope Filterung auf 16 gestellt. In DevPandi kommt dazu noch AMD FSR2 mit Qualität zum Einsatz. Als Benchmark kommt ein Kampf in einem der Feldlager auf der Oberfläche zum Einsatz. Da hier sich die Umgebung ändern kann, werden eben in drei Lager die Kämpfe aufgenommen und gemittelt.

Final Fantasy 14​

Auch in diesem Spiel gilt: DevPandi ist bereits Max-Out, daher gibt es da nicht viel zu berichten zu den Einstellungen. Als Test-Sequenz wird eine Instanz als Druidin/Weißmagierin gespielt, und zwar eine der beiden Experten Instanzen. Jeder Abschnitt wird als eigener Lauf gewertet.

World of WarCraft​

Bei den Einstellungen ist es einfach: Das Spiel läuft im DevPandi-Setting in der Voreinstellung 5 ohne Anpassungen. Als Testlauf dient hier ein Drachenrennen, dass fordernd sein kann und auch Framedrops in manchen Situationen erzeugt.

WarHammer 40K: DarkTide​

DevPandi ist die Qualitätsvoreinstellung Mittel, zusammen mit FSR 2 in Qualität. Gespielt wird der Prolog.

Diablo 2 Resurrected​

Hier wird für DevPandi die Einstellung hoch gewählt und gespielt wird das erste Gebiet Hölle Akt 5.

Total War: WarHammer 3​

Für DevPandi gilt die Einstellung Hoch ohne weitere Anpassungen, es wird eine Schlacht gespielt. Der Ansturm erfolgt im Schnellvorlauf, dann wird gemetzelt für den Blutgott!

Doom 2016​

Nicht viel zu erklären: Alles auf Max, das schafft die 5700 XT, erste Mission vom Aufzug aus zur ersten Arena und gemetzelt.

Doom Eternal​

Auch nicht viel zu erklären: Ultra – oder Mittel, wenn es nach uns geht – erste Mission bis zur ersten Arena und auch hier gemetzelt.

Metro Exodus​

Einstellungen Ultra, das Intro mit der Fahrt über die Stadt bis einschließlich den ersten Kampf.

Der Überblick​

Wie in einem kleinen Teaser bereits angekündigt, ich bin von der 7900 XTX positiv überrascht, was meine Spiele angeht. Natürlich war es ein Stück weit zu erwarten. Gleichzeitig ist es dennoch erschreckend, wenn man eigentlich nur maximal 200 – 220 W bei der GPU gewohnt ist, plötzlich auch mal 400 W auf der Uhr zu haben. Ich muss aber zu geben, die 400 W – eigentlich sind es 390 – fühlen sich schon seltsam an, aber die Sapphire RX Vega64 Nitro hatte auch mal 350 W auf der Uhr. Da ich nach diesem Test wieder das FPS-Limit bei 72 ziehe und bei ausgewählten Spielen auch zu 90 verschiebe, komme ich unter dem Strich aber auf ähnlich, teilweise auch mal niedriger Werte als mit der 5700 XT. Bevor ich hier noch mehr Text fabriziere, hier einmal der erste Überblick:

Verbrauch.pngAvgFPS.png99.9.png

In den bisher gespielten Einstellungen nähert sich die 7900 XTX den 72 FPS an, die 5700 XT erreichte in der Regel – gerade auch wegen Cyberpunk – nur 63,9 FPS im Mittel. Dabei verbraucht die 7900 XTX etwas weniger, nur 154 W gegen 163 W. Hier macht sich also primär gestiegene Rohleistung bemerkbar. Auch bei den 99.9 % FPS gibt es eine Verschiebung nach oben von 41 FPS auf 50,3 FPS. Die 7900 XTX ist also bei den AVG FPS im ganzen Test ca. 12 % schneller, bei den 99,9 % sind es 22 % und der Verbrauch fällt ca. 6 % geringer aus, nach dem Test auf Computerbase ist das für mich eine kleine aber auch positive Überraschung.

Nehmen wir das Limit heraus, dann genehmigt sich die 5700 XT ca. 40 Watt mehr und kommt auf 203 W, die Avg. FPS steigen auf 114,4 und die 99,9 % auf 60,5. Interessanter ist die 7900 XTX aber an dieser Stelle, denn die kommt bei den Avg. FPS auf 240,5, die 99,9 % auf 116 und der Verbrauch steigt auf 339 W an. Prozentual stehen 110 %, 92 % und 66 % auf der Uhr und auch an dieser Stelle hätte ich im ersten Moment schlimmeres erwartet in meinen Spielen, es ist ein netter Leistungssprung.

Sieht man sich dann noch Max-Out an, wird das Ganze noch interessanter, denn hier legt die 7900 XTX wirklich ordentlich zu und schafft zur 5700 XT fast immer die doppelten FPS, ohne dass der Stromverbrauch auch um das doppelte ansteigt. Hier ist aber die Betrachtung einzelner Spiele wesentlich interessanter. Für die Effizient ergibt sich in diesem Test aber auch kein „überragendes“ Bild im Mittel.Ich gehe nur auf Max-Out an dieser Stelle ein, steigt die Effizienz über alle Spiele nur um ca. 20 % an, wobei sich bei mir im FPS-Limit (DevPandi) auch mal 25 – 30 % ergeben, das hängt aber von den Spielen ab - es geht auch deutlich mehr.

Ich möchte im weiteren Verlauf jedoch nicht auf jedes Spiel eingehen – der Test ist schon sehr lang – sondern ich gehe auf bestimmte Spiele ein, die ich wirklich aktuell regelmäßig spiele und daher eine Bewertung auch am sinnvollsten ist.

Cyberpunk 2077 – Hier wird es wirklich spannend​

Ja, Cyberpunk 2077 ist jetzt seit zwei Jahren auf dem Markt, bald kommt allerdings das Addon und gerade in diesem Spiel gab es bei mir teilweise mit die deutlichsten Veränderung. Gleichzeitig läuft das Spiel bei mir auch relativ effizient mit der 7900 XTX.
Im Setting DevPandi erreichte ich mit der 5700 XT ca. 33,6 fps im Mittel und für 99,9 % sind es gerade mal magere 20,4 fps bei 208 W. Die 7900 XTX liefert 71,6 und 49,3 fps bei 285 W, ich erhalte also zwischen 110 – 140 % mehr FPS – gerade die 99,9 % ziehen stark an – und der Strombedarf steigt nur um 37 %. Das ist beachtlich.
CyberpunkVerbrauch.pngCyberpunkAvgFPS.pngCyberpunk99.9.png

Tiny Tina – die Überraschung​

Dass die Entwicklung mit „mehr FPS“ und „mehr Verbrauch“ auch anders ausgehen kann, zeigt in diesem Vergleich Tiny Tina. Hier schafft die die 5700 XT in meinen Einstellungen bisher zwar 72 fps im Mittel, gleichzeitig benötigt die 5700 XT dafür auch 202 W. Die 7900 XTX schafft im ganzen deutlich mehr FPS – im Max Out steigen die Avg. FPS von 64,9 auf 197,3 und am Ende reicht es in meinem limitierten Setting dazu, dass die 7900 XTX sogar ca. 70 Watt weniger benötigt, also ca. 30 % weniger! Eine positive Entwicklung. Ein ähnliches Verhalten konnte ich bei den DevPandi-Settings auch in WarHammer 40k: Dark Tide beobachten, ich gehe an dieser Stelle aber nicht gesondert darauf ein.

TinyTinaVerbrauch.pngTinyTinaAvgFPS.pngTinyTina99.9.png

In den anderen Settings steigen die FPS wie erwartet an, gleichzeitig aber auch der Energiebedarf. Das Schöne an diesem Spiel ist aber, dass ich nun die Einstellungen höherstellen kann und im weiteren Verlauf dennoch etwas weniger Energie benötige bei einem 72 FPS-Limit. Anzumerken ist jedoch, dass die Frames in Tiny Tina, gerade ohne FSR, etwas unrund laufen, das Problem hatte ich auf der 5700 XT nicht.

Total War: WarHammer 3 – Bitte was?​

Wir kommen zum letzten Spiel in der Detail-Auswertung, nämlich Total War: WarHammer 3 und hier muss ich sagen, hier bin ich wirklich überrascht, was da so zustande kommt, denn über alle Settings hinweg beobachte ich bei den 99.9 % Steigerungen von über 350 % - 12,7 fps auf 57,3 fps im DevPandi-Setting, dagegen sind die 90 % bei den Avg. Fps schon zu vernachlässigen. Nimmt man die Limitierung heraus, läuft die 7900 XTX sogar 750 % schneller bei den 99.9 % und auch bei den Avg. Fps beobachte ich eine Steigerung von gut 350 %, das ist heftig, der Verbrauch steigt am Ende dafür allerdings kräftig an in den beiden anderen Modi – ohne Limit und Max Out, aber hier trumpft das Spiel wirklich auf.

TWW3Verbrauch.pngTWW3AvgFPS.pngTWW399.9.png

Das ist wirklich erstaunlich und entweder lag das Spiel RDNA nicht so wirklich oder RDNA3 besonders gut, denn solche Zuwächse hätte ich nicht erwartet!

Fazit und Ausblick​

Über das Wochenende ist meine anfänglich trotzige Haltung zur 7900 XTX ein wenig der Begeisterung über diese Karte gewichen, besonders, wenn man die 5700 XT als Ausgangsbasis nimmt und man merkt, was da an Leistung dazu kommt. Es macht schon Spaß Cyberpunk nun mit maximalen Details zu spielen und auch die RT-Effekte hinzuzuschalten. Genauso ist es toll, wenn man in Dark Tide nicht mehr auf Mittel mit FSR mit Ach und Krach zwischen 30 – 60 fps hat, sondern man einfach in vielen Spielen die Effekte höherschrauben kann und doch 50 - 72 Frames bekommt. Toll!

Gleichzeitig zeigen aber Spiele wie Cyberpunk 2077 auch, wie unvernünftig die 7900 XTX sein kann, denn 390 W bei der Merc 310 sind eine Hausnummer, die ich bereits bei der 3090 berechtigterweise kritisiert habe und die ich auch bei der 7900 XTX Merc 310 kritisieren muss. Man gewinnt zu 350 W einfach zu wenig hinzu, benötigt aber ca. 10 % mehr Energie. Und damit auch gleich vorweg: Dieser Test ist der erste Teil. Ich mache solche Tests nicht hauptberuflich und habe nicht die Zeit viele Tests auf einen Schlag zu machen. Es wird aber mindestens noch einen weiteren Test geben, der dann weniger Spiele umfasst, dafür genauer auf die einzelnen Spiele eingeht.

AMD macht mit RDNA3 in meinen Augen nicht viel falsch, leider tritt AMD aber mit der Karte in weiten Teilen auf der Stelle, da manche Neuerungen einfach noch nicht zünden. Auch – und das nehme ich AMD sowohl bei Zen 4 und nun auch RDNA 3 krumm – wird die Brechstange ausgepackt. Inwieweit das notwendig ist? Kann ich zum jetzigen Zeitpunkt noch nicht sagen, aber man merkt es an allen Ecken und Enden.

Genauso – und auch das muss man zugeben – ist der Treiber auch abseits des Shader-Compilers noch nicht fertig, denn so manche Einstellung wird nicht sauber übernommen. AMD muss also nicht nur am Compiler arbeiten, sondern allgemein am Treiber und so bleibt zu diesem Thema zu schreiben: AMD hätte hier noch mindestens ein paar Wochen, besser vielleicht sogar 2 – 3 Monate sich Zeit nehmen müssen.

AMD ist mit der 7900 XTX und XT zu früh auf den Markt gekommen und sie standen vermutlich unter Zugzwang durch NVIDIA. Manchmal sollte man sich nicht unter Zugzwang setzen lassen, denn die schlechte Presse, die teilweise dann auch zu Recht folgt, bleibt in den Köpfen der Anwender hängen. So kann man nur schreiben: Selbst schuld, AMD!

Positiv hervorzuheben ist an dieser Stelle, dass es während des Tests aber zu keinen Abstürzen, BlackScreens und andere Unschönheiten gekommen ist, was wiederum dafür spricht, dass der Shader-Compiler nicht massiv umgebaut wurde und die Anpassungen für RDNA1 und RDNA2 als Fallback vorhanden sind.

-- Erweiterung des Tests 28.12.2022 --

Effizienz - Zwischen Erwartungen und Realität​

Es kommt, wie es kommen muss: Ich gehe noch mal gesondert auf die Effizienz der 7900 XTX im Vergleich zur 5700 XT ein. Ebenso bereite ich einen weiteren Test vor. Aber zuerst:

50 % + 50 % sind keine 100 % - sondern etwas mehr​

AMD versprach von RDNA zu RDNA2 die Effizienz um 50 % zu heben und auch jetzt wurde versprochen, dass man ca. 50 % Effizienz anpeilt - und angeblich erreichte man 54 %. Nur wie das mit der Effizienz so ist, es kommt auf die Ausgangsbasis an und auch auf andere Einstellungen. Daher müssen wir in diesem Abschnitt erst mal mit ein paar Sachen aufräumen: Eine GPU - auch CPU - benötigen eine gewisse Mindestspannung (V), damit die Transistoren schalten können. Viele "Schlafmodi" moderner GPUs und CPUs reduzieren nicht nur den Takt, sondern deaktivieren ganze Gruppen an Schaltungen, damit man Strom(stärke) (A) spart. (Entschuldigt die allgemeine Ausdrucksweise, das ist hier einfacher.) Das heißt, dass eine gewisse mindeste Last immer anliegt, auch wenn diese nicht ausgeschöpft wird. In solchen Fällen liegt dann Leistung wirklich brach, die genutzt werden könnte.

Sobald Spiele gestartet werden, müssen immer mehr Teile aus diesen Schlafmodi zurückgeholt werden und entsprechend steigt auch der Bedarf an Strom an. Eine GPU hat also einen Grundbedarf an Spannung und Strom. Es kann also sein, dass gerade in niedrigen FPS-Limits (wie eben 72 FPS) die neue GPU überhaupt nicht effizienter sein kann, weil einfach eine entsprechende Grundlast erzeugt wird. Ich habe - ohne direkte Testläufe - deswegen in Final Fantasy 14 die Probe gemacht: Im 72 FPS-Limit ist die 7900 XTX weniger effizient mit 0,53 fps/Watt als die 5700 XT mit 0,59 fps/Watt (die 5700 XT ist 11 % effizienter). Testweise habe ich das FPS-Limit auf 90 FPS angehoben, der Verbrauch der 7900 XTX lag weiterhin bei 136 Watt (gemittelt) und die fps/Watt heben sich auf 0,66 fps/Watt an, jetzt ist sie 11 % effizienter. Die 11 % sind jedoch MEILENWEIT entfernt von AMDs Versprechen, denn theoretisch müsste die Effizient bei ca. 125 % liegen oder in diesem Beispiel: 0,59 * 1,5 * 1,5 = 1,32 fps/Watt oder anders ausgedrückt die 7900 XTX dürfte maximal 68 Watt verbrauchen.

Daher gehe ich an dieser Stelle auch noch auf die drei ausgesuchten Spiele für die Detailbetrachtung ein.

Cyberpunkt 2077 - Ein Auf und Ab​

Cyberpunk ist in diesem Fall ein schönes Beispiel, was man erwarten kann. Im 72fps-Limit steigt der Verbrauch von 208 W auf 285 W - 37 % an - gleichzeitig aber auch die fps von 33,6 auf 71,6 (113 %). Die 5700 XT erreichte also 0,16 fps/Watt, die neue 7900 XTX 0,25 fps/Watt - die 7900 XTX ist also 59 % effizienter - immer noch weit weg von den theoretischen 125 %.

Nimmt man nun das Limit heraus oder wählt die maximalen Einstellungen, dreht sich das Bild bei der Effizienz zugunsten der 7900 XTX. Die 5700 XT erreicht 0,16 fps/Watt, die 7900 XTX 0,31 fps/Watt und ist damit 93 % effizienter, bei maximalen Einstellungen sind es 0,11 fps/Watt zu 0,21 fps/Watt - 90 %. Wir erreichen hier also fast die doppelte Effizienz, was ein guter Schritt zwischen zwei Generationen ist.

Tiny Tina - Irgendwo dazwischen​

Kommen wir zu Tiny Tina - ich mag sie seit Borderlands 2. Manchmal bin ich auch so drauf und will alles in die Luft sprengen. Sind wir nicht alle ein wenig Tina? (Haha, Bluna Werbung!). Hier ist das Bild ähnlich wie bei Cyberpunk und doch ist die Situation anders. Im limitierten Setting liegen beide Karten gleich auf - 72 fps - es stehen aber einmal 202 W und einmal nur 137 W auf der Uhr - 33 % weniger Energie - und die Effizienz steigt entsprechend an: 0,35 fps/Watt zu 0,52 fps/Watt (48 %). In diesem Spiel zeigt sich ein etwas andere Bild. Nimmt man das FPS-Limit heraus, kommt die 5700 XT au 0,51 fps/Watt, die 7900 XTX auf 0,61 und ist nur 20 % effizienter. Erst wenn man die Einstellungen maximiert, steigt die Effizienz wieder an: 0,30 fps/Watt zu 0,51 fps/Watt, was in 70 % resultiert.

Total War: WarHammer 3 - Pandis Augen werden immer größer.​

Die Überraschung bei der Effizienz ist - wie zu vor schon - Total War: WarHammer 3 und das ist kein Scherz. Um eines vorwegzunehmen: Bisher und auch jetzt wird für die Effizienzbetrachtung die durchschnittlichen fps herangezogen, hier gehe ich aber auch auf die 99.9 % - fps ein, denn hier wird es regelrecht Paradox!

Zuerst die Effizienzwerte für die durchschnittlichen fps: 0,21 fps/Watt gegen 0,38 fps/Watt resultieren in 80 % beim limitierten Setting. Nimmt man die Limitierung heraus, stehen 0,21 fps/Watt gegen 0,46 fps/Watt und die 7900 XTX ist nun 119 % effizienter - nahe am theoretischen Maximum. Die maximalen Einstellungen sind mit 0,19 fps/Watt zu 0,38 fps/Watt und einer Steigerung um 100 % bei der Effizienz gerade zu harmlos.

Gehen wir aber mal auf die 99.9 % fps ein - und nun das Extrem. Hier habe ich 0,07 fps/Watt mit der 5700 XT und die 7900 XT kommt auf 0,31 fps/Watt, das sind überragende 342 %, die die 7900 XTX effizienter arbeitet.

Am Ende entscheidet das Szenario​

AMD hat dieses Jahr in ihren Folien oft die Wörter "up to" verwendet, was so viel bedeutet wie "bis zu". Mancher in der Community haben das bereits als schlechtes Omen gewertet und damit hatten sie - in diesem speziellen Fall auch recht - bei Zen 4 hat es sich ja etwas anders verhalten.

Allgemein sind Angaben, egal ob mit "up to" oder gemittelt, mit einer gewissen Portion Vorsicht zu genießen und noch wichtiger ist, dass sich die Leser klar werden, dass die realen Ergebnisse um diese Werte streuen können. Ich habe in diesem Test absichtlich so einige Begleiter laufen lassen und auch 3 Testdurchläufe durchgeführt und die Werte gemittelt, weil sich jeder Lauf anders verhalten kann. Und so ist das auch mit der Effizienz und den Spielen.

Ich habe es bereits mit FF XIV angedeutet, dass der Verbrauch zwischen 72 fps und 90 fps nicht ansteigt, aber aus 11 % weniger Effizienz dann doch 11 % mehr werden können. Auch in Cyberpunk beobachte ich, dass das Spiel im Limit zwar effizienter wird, aber erst ohne Limit nähert man sich den 100 % an. Das ist auch verständlich und ich habe es eingangs erwähnt. Eine GPU benötigt, um zu schalten, eine gewisse Grundspannung, Bauteilgruppen lassen sich nur in Gruppen abschalten und nicht so fein, wie es manchmal notwendig wäre. Solche Faktoren spielen in die Effizienz mit rein und man merkt an dieser Stelle, dass gewisse Lasten einen gewissen minimalen Bedarf haben.

Die fps/W Werte sind im Anhang angefügt.

Temparaturen und der Hotspot​

Da hier eine XFX Radeon RX 7900 XTX Merc310 Black Edition arbeitet, kann in diesem Test keine allgemeingültige Aussage zu Problemen des Referenz-Designs von AMD abgeben werden. Die Merc 310 - siehe auch Computerbase-Test - hält die GPU in einem Fractal Define R6 auf relativ kühlen 62 °C, während der Hotspot sich zwischen 76 °C und 82 °C bewegt. Die 5700 XT davor wurde wärmer und zeigte auch mal 90 °C an.

110 °C als Hotspot konnte nicht gemessen werden und hier scheint ein Problem bei manchen Referenz-Designs zu herrschen. Mögliche Ursachen sind bereits vielfältig benannt, darunter auch geringe Abweichungen in der Höhe der Chiplets. Am Ende sollte sich allerdings jeder bewusst sein: Bei solchen Bauteilen kann man immer das Pech haben und ein Montagsmodell bekommen. Ich hatte auch schon Grafikkarten - egal ob NVIDIA oder AMD - die teilweise ungewöhnliches Verhalten an den Tag legten oder erst gar nicht starten wollten. Solche Sachen sind unschön, aber in diesem Fall ist mein Ratschlag relativ simpel: Schickt die Karte zurück oder lasst sie austauschen. Ihr müsst nicht mit einem schlechten Produkt euch zufriedengeben.

-- Erweiterung des Tests 30.12.2022 --

Ein kurzes Intermezzo – Wie teuer ist eigentlich RDNA 3​

Bevor wir uns den Ergebnissen der 7900 XTX in RT widmen, will ich aber erst einmal auf die möglichen Kosten einer 7900 XTX eingehen, besser des Chips. Natürlich kann ich die genauen Preise für Wafer von AMD und NVIDIA nicht kennen, daher sind die hier genannten Zahlen eher am oberen Ende verortet und nur eine grobe Orientierung.

Kommen wir zuerst zu den groben Zahlen – und in diesem Fall werden Dollar-Zahlen genommen, damit die Vergleichbarkeit gewahrt bleibt, denn der Wechselkurs kann hier die Bilder verfälschen: Ein 300 mm Wafer in der 5 nm - Klasse (N5, N4, 4N) kostet ca. 17.000 $, in der 7 nm - Klasse (N7, N6) werden 9.000 $ angesetzt. Natürlich unterliegen jetzt alle weiteren Zahlen gewissen Rundungsfehlern und sollten nicht zu ernstgenommen werden und dienen nur der Orientierung.

Für die weitere Einschätzung benötigen wir noch die Größe des GCD und der MCD: 306 mm² und 37 mm². Es gibt jetzt ein paar Wege, wie man an die maximalen Chips pro Wafer herankommt – das ganze habe ich einmal grob in einem Thema berechnet – oder man nutzt entsprechende Werkzeuge.

Bei dem GCD komme ich so auf ca. 185 Chips pro Wafer, bei einer Yield-Rate von ca. 90 % (die Zahlen schwanken bei den fatalen Fehlern zwischen 8 – 12 %) kommen so am Ende 166 Chips heraus. Bei 17.000 $ pro Wafer kostet das GCD 103 $. Beim MCD kommt man pro Wafer auf ca. 1650 Chips, mit den üblichen Yields sind das 1485 und damit – 9.000 $ - 6,10 $. Für Trägermaterial und Zusammenbau veranschlage ich pauschal 20 $ und komme auf 160 $. Für die 7900 XT sinken die Kosten um 12,20 $ und man landet bei 147,80 $.

Bei einer UVP von 999 $ für die 7900 XTX entfallen damit 16 % auf den Chip, bei der 7900 XT sind es etwas Höhere 16,5 %. Diese Zahlen sind ohne weiteren Kontext aber nicht so Aussagekräftig, wir müssen uns noch NVIDIA ansehen. AD102 ist 608 mm² groß und AD103 379 mm². NVIDIA bekommt auf einem Wafer ca. 91 Chips unter, davon sind 82 in der Regel funktionsfähig und ein Chip kostet NVIDIA 208 $. AD103 sind ca. 147 Chips auf dem Wafer, 132 kommen heraus und man landet 128 $. Die Relationen zu den UVPs: 13 % und 10 %.

AMD lässt an dieser Stelle ohne Frage „Marge“ liegen, gleichzeitig liegt AMD aber auch bei den Kosten genau zwischen AD102 und AD103. Zu bedenken ist, dass ich mit den 20 $ für den Zusammenbau sehr hochgreife, der Preisfaktor liegt hier vermutlich zwischen 140 – 160 $ und damit bei 14 – 16 % des UVP.

In der Community gibt es natürlich ein paar Stimmen, die schreiben, dass AMD mit dem Chiplet-Design nicht günstiger produziert, andere behaupten genau das Gegenteil. Beide Seiten haben sowohl recht als auch unrecht, denn es kommt auf die Rechenweise an und welche Daten man zugrunde legt.

Die Chipgröße für einen monolithischen Navi31 schwankt zwischen 384 mm² (unrealistisch, da der Cache als auch der Memory-Controller nicht so eng gepackt werden können) bis hinzu 476 mm² (realistischer). Navi31 würde damit ca. 165 $ kosten. Nimmt man die niedrigsten Produktionskosten von 140 $ an, spart AMD 18 %, bei den teuersten Kosten sind es nur 3 %, für die 7900 XT ändert sich das Bild aber, weil hier im günstigsten Fall 130 $ anstehen, im teuersten 150 $, hier also 26 % im besten Fall und 10 % im ungünstigsten Fall.

Es gibt hier aber auch andere Faktoren, die eine Rolle spielen können, so kann AMD auch weiterhin bereits bestellte N6/N7-Wafer abnehmen, ohne Vertragsstrafen zu zahlen. All das sind Faktoren, die wir nicht kennen. Wichtig ist aber, dass wir hier von großen Mengen sprechen, sodass hier auch Skaleneffekte auftreten und wir reden bei 1000 Einheiten schon von 5000 $, die AMD einspart. Zudem sollte man bedenkt: Diese Zahlen sind nur Annäherungen.

Jetzt kommen wir zu einem – für uns Spieler – unschönen Abschnitt und auch ich hatte ja die Hoffnung, dass AMD und NVIDIA einfach nur ihre Margen hochschrauben wollten, deswegen habe ich auch noch GP102 mir angesehen – GeForce GTX 1080 Ti. Für 10nm Wafer werden ca. 6000 $ genannt und der GP102 hatte damals 471 mm². NVIDIA zog damals ca. 117 Chips, davon 105 funktionierend, aus jedem Wafer und ein Chip kostete damit 58 $, nehmen wir die UVP von 699 $, machte der Chip davon gerade einmal 8 % aus. Sind die 1599 $ für die RTX 4090 viel Geld? Keine Frage, aber wenn man realisiert, dass AD102 heute ca. 13 % der UVP ausmacht, dann hat hier NVIDIA die Kostensteigerungen von N5 zum Teil auf die eigene Kappe genommen. Auch bei AD103 nimmt man ein Teil der Kosten auf die eigene Kappe, so wie es auch AMD tut.

An dieser Stelle sollte man vielleicht auch mal einen Blick auf TSMC werfen, die seit Jahrzehnten Gewinnmargen von 40 % – 50 % einfahren und auch entsprechende Dividenden an die Aktionäre ausschütten. Ob TSMC diese Marge für Investitionen benötigt, darüber kann man dabei wunderschön streiten, am Ende ist es aber die Buchhaltung, die Kosten für Investitionen über Jahre vom Umsatz abzieht.

Warum dieser Abschnitt? Weil ich es an dieser Stelle machen wollte, denn mir brennt die Frage nach den hohen Grafikkartenpreisen auch etwas auf der Seele, auch wenn ich hier die 7900 XTX gekauft habe. Schande über das Haupt von Pandi. Gehen wir auf das Thema RT ein:

Ray Tracing, der alte neue heiße Scheiß​

Zuerst möchte ich an dieser Stelle ein wenig auf Ray Tracing eingehen – ohne Bilder oder Diagramme, ich versuche mich kurzzufassen – ob ich das schaffe?

Ray Tracing – grob umrissen – beschreibt eine mögliche Form der Bildsynthese, die andere Form kennen wir heute als Rasterisation, der Standard, der sich in den 90er bei Computerspielen durchgesetzt hat. Beide Verfahren unterscheiden sich in ihrer Ausführung, gleichzeitig haben sie aber eine Gemeinsamkeit: Die Kamera, die eine gewisse Auflösung hat, danach unterscheiden sich aber die Verfahren grundlegend.

Bei der Rasterisation ist die Kamer ein Pixelraster und Polygone werden mit anhand ihrer Koordinaten von X und Y ermittelt. Dann wird der Farbwert ermittelt und im Bild gespeichert. Bei vielen Polygonen kann es dabei schnell unübersichtlich werden und bei Objekten im 3d-Raum wäre es ein Kuddelmuddel, weswegen es den Z-Buffer gibt, der dabei hilft zu ermitteln, welches Polygone denn diesen Kampf gewinnt. Früher wurden daher auch oft alle Polygone im Bild gerastert, selbst wenn diese eigentlich nicht sichtbar sind, ein Umstand den sich Power VR damals mit der Kyro annahm und einen Tiled-Based-Renderer entwickelte, ein Bild in kleine Kacheln zerlegte. Diese Form der Grafiksynthese ist schnell und effizient und sorgte auch für den Durchbruch der 3d-Grafik.

Ein Ray Tracer arbeitet anders. Hier wird kein Raster über eine Szene gelegt und einfach anhand der Koordinaten bestimmt ob da etwas sein müsste, sondern für jeden Bildpunkt der Kamera wird ein oder mehrere Strahlen ausgesendet und geprüft, ob diese im Raum auf ein Objekt treffen. Ist das der Fall, wird der Strahl geschluckt und wird „zurück“ geworfen mit den entsprechenden Farbwerten für diesen Bildpunkt.

Ray Tracing ist dabei nicht gleich Ray Tracing. Allen Ray Tracern gemein ist, dass sie mit Strahlen arbeiten – deswegen kann man frühe 3d-Engines wie Wolfenstein 3D, Doom und Doom 2 (war nicht mehr Ray Casting, aber doch ein bisschen. Mir explodiert der Kopf!), auch zu den Ray Tracern zählen. Diese Ray Tracer werden oft als Ray Caster bezeichnet und sind damit die einfachste Form. Diese einfache Form der Ray Tracer kann nur eben einen Farbwert übermitteln und keine Beleuchtungsdaten oder keine Schattendaten. Dafür ist deutlich mehr notwendig und genau hier setzte sich dann die Rasterisation durch, die mittels Shadow- und Lightmaps einen sehr einfachen Weg bieten, die Beleuchtung und Schatten zu simulieren. Bei Ray Tracern ist mehr notwendig, womit die Rechenleistung schnell ansteigt.

Um Schatten und Beleuchtung zu berechnen, müssen weitere Strahlen abgesetzt werden, dieses Mal aber nicht von der Kamera aus, sondern von dem Punkt aus, an dem unser Strahl der Kamer auftritt. Um Schatten zu berechnen, muss man von der Stelle einen Strahl absetzen, der zur nächsten Lichtquelle geht. Trifft dieser Strahl auf dem Weg zur Lichtquelle auf ein Objekt – wird also blockiert – weiß man, dass hier ein Schatten vorliegt und entsprechend kann man diese Stelle abdunkeln. Es kann nun dank der Schattenstrahlen direkte Lichtquellen und eben Schatten berechnet werden.

Wir haben also jetzt den direkten Strahl der Kamera und einen Licht- bzw. Schattenstrahl und damit einen primären und sekundären Strahl. In einem nächsten Schritt kann von der Stelle, in der unser Strahl verschluckt wurde, noch einen weiteren Primärstrahl abgesetzt werden, sofern eine Oberfläche als „Spiegelnd“ deklariert wird. Wir berechnen jetzt Reflexionen. Physikalisch nach dem Eintritt ist gleich Austritt, sucht dieser Strahl ein Objekt. Ist ein Objekt gefunden, folgt von dort ein neuer Sekundärstrahl zur Lichtquelle und vielleicht ein neuer Primärstrahl. Das Absenden von weiteren Primärstrahlen nennt man auch Rekursives Ray Tracing. Wir haben jetzt einen Ray Tracer, der bereits direkte Beleuchtung und Reflexionen berechnen kann und ihr ahnt wohl, worauf es hinausläuft: Je mehr Effekte man umsetzten will, umso mehr primäre und sekundäre Strahlen werden benötigt.

Um den Arbeitsaufwand „überschaubar“ zu halten und doch möglichst alle Effekte zu erlangen – direkte und indirekte Beleuchtung, gerichtete und diffuse Reflexionen, harte und weiche Schatten, Umgebungsverdeckung und Co – haben findige Entwickler in den 80er das Path Tracing entwickelt. Hier kommen Techniken aus der Stochastik – genauer die Monte-Carlo-Simulation – zum Einsatz , womit die Anzahl an Strahlen drastisch reduziert wird. Um nämlich alle Effekte zu berechnen, muss man bei einem Ray Tracer nicht nur einen sekundären Strahl zur jeder Lichtquelle absetzen, sondern zu jedem Objekt in der Umgebung und von dort dann wieder zur jeder Lichtquelle. Erst dann wird die Beleuchtung und alle Reflexionen richtig dargestellt. Um hier Strahlen zu sparen, wird ein Zufallsprinzip eingeführt und es wird beim Auftreffen des primären Strahles entschieden, ob überhaupt Sekundärstrahlen abgesetzt werden und auch wie viele. Das führt am Ende dazu, dass man ein Bild mit einem starken Rauschen bekommt, dass dann mit einem Denoiser entfernt wird.

20221230130518_1.jpg20221230130529_1.jpg

Path Tracer mit der Monte-Carlo-Simulation sind also die aktuellste Ausbaustufe der Ray Tracer und wenn wir heute von Ray Tracing sprechen, meinen wir eben einen Path Tracer. Und für die unter euch, die gerne behaupten, dass Path Tracer ja kein echtes Ray Tracer wäre oder nur eine Schmalspurlösung: Nein, einfach nur NEIN!

Welche Spiele im RayTracing Test und warum?​

Um die Leistung der 7900 XTX in RayTracing zu testen, habe ich mich für Cyberpunk, Doom Eternal, Metro Exodus und Quake 2 RTX entschieden. Cyberpunk bietet – neben Metro Exodus Enhanced Edition – eine der besten aktuellen RT-Integrationen und auch eine der vollständigsten. Doom Eternal wiederum gewinnt durch RT auch an Grafikqualität, aber im weiten nicht so wie die anderen beiden Spiele.

Für Quake 2 RTX habe ich mich entschieden, weil dieses Spiel – neben Minecraft RTX – das einzige wirkliche Path Tracer Spiel aktuell auf dem Markt ist. Die RT-Implementierungen in allen anderen Spielen folgt einem Hybrid-Ansatz, der zum Teil auch Leistung brach liegen lässt. So kostet RT in Spielen wie Cyberpunk, Metro und Co oft mehr Leistung, als notwendig wäre, weil Effekte teils doppelt berechnet werden. In Quake 2 RTX und Minecraft RTX ist das nicht der Fall.

Warum aber dann kein Minecraft RTX? Weil Minecraft von der ganzen Engine her einfach nur unglaublich schlecht ist, auch wenn ich Minecraft als Spiel liebe.

Die 7900 XTX und RayTracing – Für jetzt reicht die Leistung​


Machen wir es kurz: Wer sich eine 7900 XTX gekauft hat oder kaufen will, kann in den meisten Spielen bedenkenlos RT aktivieren, in der Regel bleibt die Framerate spielbar, wobei aber jeder selbst entscheiden muss, was spielbar ist.

RTFps.pngRTFSR.png

In Cyberpunk erreicht die 7900 XTX – ohne FSR – 36,4 fps im Durchschnitt und die 99.9 % liegen bei 25,4. Das ist nicht viel, man muss aber dazu schreiben, dass Cyberpunk auf der 7900 XTX – genauso wie auf der 5700 XT – auch mit RT-Effekt sehr sauber läuft und sich die 25,4 – 36,4 fps sehr gleichmäßig anfühlen. Gegenüber dem Max-Out büßt Cyberpunk mit allen RT-Effekten (maximiert) ca. 55 % ein (80,3 fps). Aktiviert man FSR2, erreicht die 7900 XTX 61,8 fps – (-23 %). FSR 2 wurde dabei in Qualität verwendet. Der Bildeindruck ist während des Spieles gleichwertig.

Der zweite Titel ist Doom Eternal, hier erreicht die 7900 XTX in 1440p 234,3 fps. Da hier eine andere Testszene verwendet wurde – mit wesentlich mehr Lichteffekten und Spiegelungen – ist ein direkter Vergleich mit den ursprünglichen Ergebnissen ist nicht möglich. Ich habe die gleiche Szene aber auch ohne RT vermessen und komme auf 370,4 fps und damit büßt die 7900 XTX hier knapp 37 % ein.
20221230133050_1.jpg20221230133231_1.jpg

Kommen wir – Metro Exodus spare ich mir an der Stelle, dazu sind die Grafiken da – zu Quake 2 RTX. Hier erreicht die 7900 XTX bei allen möglichen Effekten 68,0 fps und bei den 99.9 % 55,4 und ist gut spielbar.

20221230102900_1.jpg20221230102913_1.jpg20221230103237_1.jpg20221230103250_1.jpg20221230103432_1.jpg20221230103506_1.jpg
Mit FSR 1 erhöhen sich die FPS auf 123,2 und 76,0, was auch gut ist. Und der Sprung bei der Grafik ist gewaltig, wenn man mal Texturen und Modelle nicht beachtet.

Lautstärke und Verbrauch​

Als vorletzter Abschnitt dieses Tests: Die Lautstärke habe ich natürlich jetzt auch ermittelt und kann sagen, dass die Merc 310 eine kleine Radaumacherin ist, aber im Vergleich zur Thicc 2 sehr leise agiert.

Unter voller Last in Cyberpunk – Gehäuse offen – erreicht die Merc 310 39 dB(A), ist das Gehäuse geschlossen sind es 35 – 36 dB(A). Hat die Grafikkarte nichts zu tun, geht sie im restlichen vollkommen unter, dass mit 29 – 31 dB(A) vor sich hinarbeitet.

Kommen wir zu den Verbräuchen: Bei einem „ruhendem“ Desktop benötigt die Merc zwischen 18 – 27 W, das Mittel liegt bei 22 W. Hier muss man bedenken, dass Discord und Co natürlich kleinere Spitzen erzeugen. Bei YouTube (4k, 60 FPS) liegt der Verbrauch zwischen 38 – 55 W (46 W im Mittel). Immer noch nicht gut, aber auch nicht mehr SO katastrophal wie zu Anfang.

Bei einem aktiven Desktop liegt der Verbrauch der Grafikkarte zwischen 25 W – 45 W, im Mittel bei ca. 35 W. Getestet wurden die Verbräuche mit dem Treiber 22.12.2.

Abschließendes Fazit und Ausblick auf Phase 5​

Kommen wir nach nun gut 2 Wochen des Testens zu einem vorläufigen Fazit zur 7900 XTX: Es hat sich für mich aktuell nicht viel geändert und wenn man die Ausgangsbasis – die 5700 XT – nimmt, dann bin ich von der 7900 XTX begeistert. Gleichzeitig bin ich mir aber der Schwächen der Karte bewusst und habe diese auch bewusst in Kauf genommen. Ich finde das Chiplet-Design toll und genauso spannend für mich ist der Umbau der Compute Units und genau da liegt auch für mich der Kaufgrund. Ich bin ein Spielpandi und liebe Technik und für mich liefert AMD mit RDNA 3 die interessantere Technik ab.

Die 7900 XTX ist jedoch durch und durch eine unvernünftige Spielkameradin. Sie benötigt bis zu 390 W – was echt viel ist. Sie ist auch nicht die effizienteste Karte. Bei Rasterisation kann die 7900 XTX mit der RTX 4080 mithalten und bei modernen Spielen auch manchmal in Schlagdistanz zur RTX 4090 kommen, in Ray Tracing ist sie allerdings unterlegen. Man merkt auch an vielen Ecken und Enden, dass weder die Treiber, an manchen Stellen aber auch die Partnerkarten noch nicht so ganz im Einklang sind und an diesen Stellen noch gearbeitet werden muss. Auch der Shader-Compiler ist noch eine Baustelle.

Wer – aktuell – die schnellste Karte, egal in welchen Lebenslagen haben will, greift zur RTX 4090, an dieser führt kein Weg vorbei. Wer eine klasse Tiefer schaut und wenn RT wichtig ist, sollte der Griff zur RTX 4080 gehen. Wer die effizienteste Karte haben will, greift auch zur RTX 4080 oder RTX 4090.

Für wen ist die 7900 XTX also empfehlenswert? Nun, eigentlich für alle – wenn wir ehrlich sind. Klar, man muss schon ein wenig verrückt sein, man muss auch gewisse Schwächen akzeptieren, aber wie in der vorherigen Generation, man macht weder mit AMD noch mit NVIDIA viel falsch, vor allem wenn man von einer älteren Karte kommt. Gleichzeitig muss man aber auch schreiben: Im Gegensatz zu mir solltet ihr noch 2 – 3 Monate warten, bis viele der kleinen Fehler und Probleme behoben sind und AMD auch weiter am Treiber und Shadercompiler arbeiten konnte.

Benötigt ihr jetzt eine schnelle Karte, dann kauft die RTX 4080, denn diese ist aktuell das rundere Produkt!

Und was mache ich jetzt? Ich plane die Phase 5 und bereite den nächsten Test vor, dann geht es um PCIe3 und PCIe4 bei der 7900 XTX und wie viel Leistung wohl brach liegt durch PCIe3. Freut euch, der Test ist für den Sommer während meines Jahresurlaubes geplant.

P.S. Das Shader Prefetching scheint wohl zu funktionieren!

Anhang - Absolute Werte​

Zusammenfassung​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi63,941,0163 W71,850,3154 W
DevPandi - No Limit114,460,5203 W240,5116,0339 W
Max-Out99,255,0204 W211,7112,4347 W

Black Mesa​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,762,3134 W71,760,990 W
DevPandi - No Limit280,7153,5213 W294,7185,9218 W
Max-Out280,7153,5213 W294,7185,9218 W

Cyberpunk​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi33,620,4208 W71,649,3285 W
DevPandi - No Limit33,620,4208 W110,752,2356 W
Max-Out23,315,4216 W80,346,1385 W

Tiny Tina​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,731,5202 W71,934,7137 W
DevPandi - No Limit110,159,7216 W237,786,9388 W
Max-Out64,945,7215 W197,375,9347 W

WarHammer 40k: DarkTide​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi58,231,9208 W71,858,4148 W
DevPandi - No Limit58,231,9208 W163,686,7387 W
Max-Out30,324,1211 W102,264,7390 W

Diablo 2 Resurrected​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,334,5189 W72,036,1188 W
DevPandi - No Limit80,834,2207 W234,293,4385 W
Max-Out74,130201 W243,3120387 W
*Ja, die Zahlen stimmen so, mich hat das selbst verwundert, warum Max-Out schneller läuft auf der 7900 XTX.

Final Fantasy 14​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,959,9122 W7266,4136 W
DevPandi - No Limit127,768,1208 W315,6191,5375 W
Max-Out127,768,1208 W315,6191,5375 W

Total War: WarHammer 3​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi37,812,7182 W71,757,3187 W
DevPandi - No Limit37,812,7182 W177,5108,5388 W
Max-Out35,114,3183 W145,892,7388 W

World of WarCraft​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,624,5133 W71,723,0134 W
DevPandi - No Limit127,033,2199 W253,650,6245 W
Max-Out87,724,2191 W142,831,6294 W

Doom Eternal​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi72,053,9129 W72,067,4121 W
DevPandi - No Limit136,384,0190 W423,6214,8387 W
Max-Out117,772,6193 W410,8226,1389 W

Doom (2016)​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi72,061,2113 W7258,9118 W
DevPandi - No Limit176,4118,3208 W199,6119,0209 W
Max-Out176,4118,3208 W199,6119,0209 W

Metro Exodus​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,458,7176 W71,840,7148 W
DevPandi - No Limit90,049,0199 W234,786,1387 W
Max-Out73,639,1206 W195,982,8387 W

Anhang 2 - RayTracing​

SpielAvg. FPS99.9 %Avg. FPS (FSR)99.9 % (FSR)
Quake 2 RTX68,055,4123,276
Cyberpunk 207736,425,461,836,8
Doom Eternal234,3140,9--
Metro Exodus Extended89,034,1--

Anhang 3 - FPS/Watt​

Zusammenfassung​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,390,470,250,33
DevPandi - No Limit0,560,710,300,34
Max-Out0,490,610,270,32

Black Mesa​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,530,800,460,68
DevPandi - No Limit1,321,350,720,85
Max-Out1,321,350,720,85

Cyberpunk 2077​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,160,250,100,17
DevPandi - No Limit0,160,310,160,15
Max-Out0,110,210,070,12

Tiny Tina​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,350,520,160,25
DevPandi - No Limit0,510,610,280,22
Max-Out0,300,510,210,19

WarHammer 40K: Dark Tide​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,280,480,150,39
DevPandi - No Limit0,280,420,150,22
Max-Out0,140,260,110,17

Diablo 2: Ressurrected​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,380,380,180,19
DevPandi - No Limit0,390,610,170,24
Max-Out0,370,150,630,31

Final Fantasy 14​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,590,530,490,49
DevPandi - No Limit0,610,840,330,51
Max-Out0,610,840,330,51

Total War: WarHammer 3​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,210,380,070,31
DevPandi - No Limit0,210,460,070,28
Max-Out0,190,380,080,24

World of WarCraft​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,540,530,180,17
DevPandi - No Limit0,640,171,040,21
Max-Out0,460,490,130,11

Doom Eternal​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,560,590,460,56
DevPandi - No Limit0,721,090,440,56
Max-Out0,611,060,380,58

Doom 2016​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,640,610,540,50
DevPandi - No Limit0,850,960,570,57
Max-Out0,850,960,570,57

Metro Exodus​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,400,490,330,28
DevPandi - No Limit0,450,610,250,22
Max-Out0,360,510,190,21
 

Anhänge

  • IMG_0399.jpg
    IMG_0399.jpg
    470,7 KB · Aufrufe: 1.014
  • IMG_0400.jpg
    IMG_0400.jpg
    558,2 KB · Aufrufe: 940
  • IMG_0401.jpg
    IMG_0401.jpg
    588,6 KB · Aufrufe: 1.064
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kolege, Midgarder, Orok91 und 198 andere
DevPandi schrieb:
Die 5700 XT – also Navi10 – war 2019 eine Überraschung, hat doch AMD damit gezeigt, dass sie noch nicht auf verlorenem Posten kämpfen und gute Grafikkarten – wir lassen mal die Treiberprobleme weg – designen können. Die 7900 XTX – Navi30 – ist hier dann schon eher eine kleine Enttäuschung, die Gerüchteküche brodelte ordentlich, was auch mich zu falschen Einschätzungen verleitet hat und auch die Folien waren – mindestens – stark durch eine rosarote Brille gefärbt. Alles eigentlich ein Grund, die Karte nicht zu kaufen. Warum habe ich die Karte dennoch gekauft? Weil ich das Konzept des Chiplet mag und ich die neuen CUs interessant finde und denke, dass AMD hier noch einiges machen kann.
das steht doppelt im Artikel.
 
  • Gefällt mir
Reaktionen: Mcr-King und Unnu
Sehr ausführlicher und interessanter Artikel...danke!

Mich würde interessieren wo man an Infos zur Hardwarekonfiguration her bekommt wie das Beispiel Wave23/Wave64?
 
  • Gefällt mir
Reaktionen: FLCL, Mcr-King, NMA und 2 andere
Kommen wir also zum eigentlichen Test
Sorry, aber bis dahin war "Vorwort" schon sehr viel interessanter, haha.
Toll geschrieben, der Test selbst hat mich nur semi gejuckt, das Vorwort fand ich deutlich "reizvoller".
Die 7900 XTX – Navi30 – ist hier dann schon eher eine kleine Enttäuschung, die Gerüchteküche brodelte ordentlich, was auch mich zu falschen Einschätzungen verleitet hat und auch die Folien waren – mindestens – stark durch eine rosarote Brille gefärbt.
Diese Selbstreflexion finde ich sehr gut und wichtig! Schade das viele hier leider nicht so sind oder eben nicht zugeben wollen das sie durch die Fanboy-Brille geblendet waren.

Toller Test, toller Text, bestes Vorwort. 9/10 - weil das Vorwort eigentlich schon so lang ist wie der Test selbst. ;)
 
  • Gefällt mir
Reaktionen: Tanzmusikus, NMA, Wintermute und 4 andere
Sehr gut und ausführlich geschrieben. Ich wünsche viel Spaß mit der Karte. Das war wirklich sehr gut!
 
  • Gefällt mir
Reaktionen: Colindo, Unnu und SandR+
Ja ich finde was du geschrieben hast auch sehr interessant.
Mal sehen was du in 3 Monaten sagst, wenn die Treiber angepasst wurden.
Ich kann das ja alles auf meine Karte 1 zu 1 übertragen :D
 
  • Gefällt mir
Reaktionen: danyundsahne
Schöner Artikel, mir gefällt das differenzierte Erklären der technischen Fakten ohne das populistische Gehabe vom manch magentafarbener Seite

Gerne mehr davon.

Aktuell beobachte ich auch und hoffe auf die Arbeit am Treiber ;)
Ergänzung ()

Achja,
Was ist mit fiepen oder Rasseln bei der XFX ?
 
Laaanger Text der teils auch schwer zu lesen ist aber habe mich durchgekämpft. :D
Hatte jedenfalls nach dem Titel und Einleitung gar nicht mit einem GPU Test gerechnet. :schluck:

Was mir nicht ganz klar wird bzw. was mich interessieren würde.

Wenn dir Effizienz so wichtig ist warum dann keine 4080/4090.
Vor allem wenn du scheinbar eine 4090 hattest aber die verschenkt hast???
Dann kann Geld ja keine Rolle spielen.

Bei mir waren die FPS pro Watt, was ich als Effizienz definieren würde, mit einer der Hauptgrund von einer 3090 auf eine 4090 zu updaten.
Wenn ich sehe was aus einer 4090 mit UV rauskommt im Vergleich zur 3090, das ist vollkommen absurd.
Wo die 3090 vorher mit 400W rum geeiert ist, erledigt die 4090 das plötzlich mit 250W.
Das hat mich an der RTX4000 Serie eigentlich am meisten begeistert.
 

Anhänge

  • 2022-12-19 17_07_52-AMD Radeon RX 7900 XTX & RX 7900 XT im Test_ Lautstärke, Temperatur, Leist...png
    2022-12-19 17_07_52-AMD Radeon RX 7900 XTX & RX 7900 XT im Test_ Lautstärke, Temperatur, Leist...png
    84,3 KB · Aufrufe: 508
  • Gefällt mir
Reaktionen: Tanzmusikus, philbla und JPsy
Fighter1993 schrieb:
das steht doppelt im Artikel.
Danke, ist raus genommen und nun auch der Anhang da mit dein genauen Einzelergebnissen.
honky-tonk schrieb:
Mich würde interessieren wo man an Infos zur Hardwarekonfiguration her bekommt wie das Beispiel Wave23/Wave64?
In dem Fall bekommst du diese Informationen aus den Whitepaper von AMD:
Hier das Whitepaper zu RDNA - in dem findet sich auch der entscheidene Satz, dass man den Treiber von Wave64 auf Wave32 umbaut.

Das RDNA3-Whitepaper habe ich zugespielt bekommen, das ist aber noch nicht öffentlich. Es gibt aber Interviews bereits von AMD-Entwicklern dazu.
t3chn0 schrieb:
Sehr gut und ausführlich geschrieben. Ich wünsche viel Spaß mit der Karte. Das war wirklich sehr gut!
Danke!
eRacoon schrieb:
Wenn dir Effizienz so wichtig ist warum dann keine 4080/4090.
Effizienz ist für mich durchaus ein Thema, gleichzeitig bastel ich aber gerne und verfolge die Entwicklung auch von Produkten. Ich hab damals eine Vega64 trotz 1080 und Co gekauft, weil ich es das interessantere Produkt fande, dass gilt hier auch.

eRacoon schrieb:
Vor allem wenn du scheinbar eine 4090 hattest aber die verschenkt hast???
An der Stelle muss ich dazu sagen, dass die 4090 sowie der Prozessor ein Sponsoring von NVIDIA und Intel zur Evoluation war. Ich hab mit Intel und NVIDIA auch die WEitergabe der Hardware besprochen nach dem ich meine Tests durch geführt hatte.
Ergänzung ()

minimii schrieb:
Was ist mit fiepen oder Rasseln bei der XFX ?
Kann ich aus dem Gehäuse keines wahrnehmen.
 
  • Gefällt mir
Reaktionen: kolege, FLCL, Veitograf und 11 andere
Hallo @DevPandi.

mit nur einem Wort: Wow!

Ich weiß noch nicht, wann ich aktuell die Zeit finden werde, den Inhalt mit dem würdigen Maß an Zeit zu "begegnen".

Aber jetzt gleich schon mal einen ganz herzlichen Dank für die Zeit und Mühen, die in die Tests, Auswertungen und die Erstellung dieses ausführlichen Leserartikels "für umme" geflossen sind. Respekt!
 
  • Gefällt mir
Reaktionen: daknoll und Archivar
@DevPandi

Sehr gut zu lesen auch für den Laien. Ich weiß nicht ob du es einschätzen kannst, aber gäbe es deiner Meinung nach einen Benefit wenn die Karte den doppelten Infinity Cache hätte (das wird eigentlich immer im Zusammenhang mit einer 7950XT gemunkelt).

Ich frage deswegen, weil ich diesmal kein Eile habe und diesmal wieder zu AMD tendiere (eher wehen contra Nvidia als wegen pro AMD).
 
Lan_Party94 schrieb:
Sorry, aber bis dahin war "Vorwort" schon sehr viel interessanter, haha.
Jaha, der eigentliche Test ist ja auch schneller abgehandelt, weil man zu jedem Spiel quasi das gleiche schreiben kann, bis auf die 3 Titel, gab es eigentlich keine direkte Überraschung, die ich erwähnenswert finde.
Lan_Party94 schrieb:
Diese Selbstreflexion finde ich sehr gut und wichtig! Schade das viele hier leider nicht so sind oder eben nicht zugeben wollen das sie durch die Fanboy-Brille geblendet waren.
Wir sind immer ein Stückweit von den Informationshappen abhängig, die man über verschiedene Quellen bekommt. Ich werte auch nur das, was ich bekomme und nichts anderes. Dieses mal war vieles im Vorfeld falsch und auch AMD hat aktuell zumindest stark verfälscht. Man wird sehen müsse, ob AMD ihren Shader Compiler wirklich so hinbekommen, wie sie aktuell versprechen.

Der große Unterschied zu Vega ist dieses mal aber, dass die Kernfunktionen der Änderungen nicht Broken sind, wie damals die Primitive Shader.
Dai6oro schrieb:
Sehr gut zu lesen auch für den Laien. Ich weiß nicht ob du es einschätzen kannst, aber gäbe es deiner Meinung nach einen Benefit wenn die Karte den doppelten Infinity Cache hätte (das wird eigentlich immer im Zusammenhang mit einer 7950XT gemunkelt).
Kommt darauf an, worum es genau geht. Bei der allgemeinen Leistung - also FPS - wird der doppelte Infinity Cache nicht so viel bringen, die Frame Times sind sehr sauber - ich hab mir auch ein 4K-Monitor besorgt leihweise. Der größere Infinty-Cache könnte sich aber auf die Effizienz durchaus positiv auswirken, weil weniger Anfragen zum RAM müssen, ähnlich wie beim 5800X3D.
 
  • Gefällt mir
Reaktionen: latexdoll, igi666, Volvo480 und eine weitere Person
Danke für die Einschätzung :-)
 
@DevPandi
Schöner Test..Schade dass du keine 4080 da hast zum Vergleichstest, oder halt ne 6900XT
Wie schon per PN besprochen freue ich mich, dass TW Warhammer 3 dazu gekommen ist, Lautstärkemessungen kannst du vllt noch machen, da reicht auch das Smartphone und die Bosch Soundmeter App ;)
Ich würde echt gerne wissen, wie viel Leiser die RDNA3 zur ersten Gen wurde

Es liest sich auch echt gut, den Technischen Teil kannte ich ja schon :) Schöner Test und ja das TW Warhammer 3 Thema ist schon spannend. Schade, dass der Shadercompiler nicht immer in der Lage ist, diese Leistung zu zeigen..

@SVΞN
Wäre das nicht mal wieder was fürn Leserartikel?
 
  • Gefällt mir
Reaktionen: m.obermueller
Rockstar85 schrieb:
Lautstärkemessungen kannst du vllt noch machen, da reicht auch das Smartphone und die Bosch Soundmeter App ;)
Ich würde echt gerne wissen, wie viel Leiser die RDNA3 zur ersten Gen wurde
Kann ich gerne machen, dann aber nur ganzes System. :) Mal sehen, es ist ja bald Weihnachten, da hab viel Zeit.
 
  • Gefällt mir
Reaktionen: Rockstar85
@DevPandi

Moin,

so hier mal meine Ergebnisse für den Affinity-Benchmark. Die 2.0.3 Versionen wurden mir übrigens gerade zum Download angeboten, das habe ich gleich mitgenommen.

Setup: RyZen 2600X / X470, AMD Vega 56, 32 GB (Gastgeber ist hier ebenso das Define R6)
Benchmark Version: 20300
App Version: 2.0.3.1688

ffffffffffffffffffffffffffffffffffffff
AVG
Run #1
Run #2
Run #3
Vector (Single CPU):
255
215
276
273
Vector (Multi CPU):
1504
1378
1553
1580
Raster (Multi CPU):
281
274
284
285
Raster (Single GPU):
5020
4709
4945
5406
Raster (Multi GPU):
N/A
Combined (Multi CPU):
348
323
356
365
Combined (Single GPU):
1554
1320
1665
1676
Combined (Multi GPU):
N/A

Vektor "Einzel" GPU gibt es bei mir gar nicht, grübel.


Mit den nur drei Runs wurde mir dann schnell wieder gewahr
  • was für ein Aufwand diese Testerei ist
  • und dass auch der 2600X so langsam ersetzt werden sollte


Mit dem Verbrauch unter Last könnte ich (noch) leben, zur Not hilft Undervolting oder die Reduktion des Powerlimits. Bei Idle/Teilllast ist er mir aktuell definitiv zu hoch (und mein Monitor macht "nur" 60 Hz). Da hoffe ich noch auf signifikante Updates.

Beim Shader-Compiler fürchte ich allerdings, trotz der besseren Hardware-Voraussetzungen, dass sich AMD (etwas) übernommen hat. Das ist ein riesiger Aufwand, der dauerhaft gestemmt werden muss.

Danke nochmals für die Mühen und die besondere Berücksichtigung meines Wunsches. Und für die ausgewogene/ehrliche Ergebniswertung sowieso. :)
 
ComputerJunge schrieb:
Vektor "Einzel" GPU gibt es bei mir gar nicht, grübel.
Da habe ich mich verschrieben, ist ja Raster, aber bei der Menge an Input. Ist korrigiert im Text.
ComputerJunge schrieb:
Beim Shader-Compiler fürchte ich allerdings, trotz der besseren Hardware-Voraussetzungen, dass sich AMD (etwas) übernommen hat. Das ist ein riesiger Aufwand, der dauerhaft gestemmt werden muss.
Ja und Nein zur gleichen Zeit.

AMD kann verschiedene Analyse-Techniken - die auch in VLIW aber auch z.B. beim EPIC-Compiler zum Einsatz gekommen sind, übernehmen und in den Compiler einbauen. Damit findet man relativ gut unabhängige und gleiche Operatoren. AMD ist sicher nicht auf dem gleichen Level wie Intel, was Compiler-Bau angeht, aber sie haben ja auch Erfahrungen mit TeraScale - war eine VLIW-Architektur als GPU - und sie können dieses Wissen durchaus nutzen. Wenn der Compiler einmal auf diese Umstände hin angepasst wurde und zuverlässig läuft, muss der Kernaufwand nicht mehr dauerhaft gestemmt werden.

Gleichzeitig eröffneten ein Compiler in diesem Ausmaß durchaus Tür und Tor für "händische" Optimierungen, die man unterbringen kann, wodurch der Treiber für AMD bei den Spielen wieder deutlich wichtiger wird als es bei RDNA1 und RDNA2 der Fall war. AMD hat hier einige Hausaufgaben zu machen, das stimmt, aber über kurz oder lang, könnte AMDs Konzept genauso aufgehen, wie das von NVIDIA.
 
  • Gefällt mir
Reaktionen: floTTes, edenjung und Volvo480
DevPandi schrieb:
Da habe ich mich verschrieben, ist ja Raster, aber bei der Menge an Input. Ist korrigiert im Text.
Ups, in diesem Vergleich ist die 7900er dann ~6x langsamer.

DevPandi schrieb:
AMD hat hier einige Hausaufgaben zu machen, das stimmt, aber über kurz oder lang, könnte AMDs Konzept genauso aufgehen, wie das von NVIDIA.
Nach meinen Erfahrungen mit GCN ist meine Hoffnung da gedämpfter.

Da das "Witcher 3 Next Gen"-Spielen über die Weihnachtsferien aufgrund des noch ausstehenden Wunder-Patches ausfällt, habe ich mehr Zeit für meine Kaufentscheidung "gewonnen".
 
ComputerJunge schrieb:
Nach meinen Erfahrungen mit GCN ist meine Hoffnung da gedämpfter.
GCN sind die Probleme anders gelagert gewesen und waren wirklich teilweise in Hardware zusuchen.

GCN baute die CU aus 4 * Vec16 aus, der Treiber arbeitet mit Wave64. Das Problem hier war, dass jede Vec16 einen eigenen Wave64-Befehl brauchte und IMMER genau 4 Takte pro Wave64-Befehl benötigte. In RDNA kam dann hinzu, dass ein Wave64-Befehl, der nur mit maximal 32 Werten gefüllt war, auch nach einem Takt fertig war, die Umstellung auf Wave32 war dazu dann "Bonus" und es hat ja geklappt.

Vega hatte mit den Primtive-Shadern eine gute Ausgangslage, diese waren aber irgendwo Broken, konnten daher nie ausgespielt werden und beim Rest unterschied sich Vega nicht von GCN beim Grundaufbau, was einige Erbkrankheiten mit sich brachte.
 
  • Gefällt mir
Reaktionen: latexdoll, edenjung, Rockstar85 und 3 andere
Schöner Artikel!

Du hattest erwähnt, dass du sowohl eine 4080, als auch eine 4090 hattest und sie beide verschenkt hast.
Die 7900XTX hast du behalten. Warum? Was macht die 7900XTX besser als die 4090 für dich?
 
  • Gefällt mir
Reaktionen: Somerset und Trent
Zurück
Oben