Leserartikel DevPandis großer Test - 5700 XT gegen 7900 XTX und was mit AM4 so möglich ist

AM4 – 4 Generationen für ein Halleluja​

Als 2017 die ersten Ryzen Prozessoren – also Zen 1 – erschienen, war bereits klar, dass AMD den Sockel AM4 länger nutzen wird, ähnlich wie die Vorgänger AM2 und AM3. Auf vielen Boards von 2017 und 2018 laufen die aktuellen Ryzen 5000 Prozessoren. Für mich optimal, um meinen betagten PC von 2018 auf einen neuen Stand zu heben.

Fangen wir jedoch von Anfang an und ich möchte euch damit zeigen, wie sich der Rechner in den 4 Jahren seit 2018 gewandelt hat. Die Ausgangsbasis des heutigen PCs ist ein Asus ROG Strix B450-E Mainboard auf dem damals ein Ryzen 2700X seinen Platz fand. Eine schöne Kombination, die anfangs von einem Noctua NH-D15 gekühlt wurde, der dann wegen einiger Umbauarbeiten durch einen Noctua NH-U12A ausgetauscht wurde. Etwas weniger Kühlleistung, gleichzeitig viel MEHR PLATZ! Als RAM wurden damals 32 GiB von G.Skill eingebaut, genauer die Aegis DDR4 3000 CL-16 Module, ein guter Kompromiss aus Leistung und Preis. Als Grafikkarte wurde eine Saphire Radeon RX Vega 64 Nitro+ ausgewählt, die konnte man damals nämlich günstig kaufen. Zur Speicherung von Daten wurde ein SSD-Unterbau aus Samsung 970 Pro 512 GB ausgewählt, dazu 2 SATA-SSD – eine Samsung 860 Evo und eine Crucial MX500 mit je einem TB. Damit besitzt das System 2,5 TB an Speicherplatz. Als Netzteil ist ein Seasonic Prime Ultra Titan 650 W verbaut gewesen. Damals ohne Frage ein schönes schnelles System, dass auch keine Wünsche offenließ, gleichzeitig aber auch schon mit 350 W bei der Grafikkarte kämpfen musste – daher schrecken mich die 350 – 400 W* jetzt nicht so ganz ab. Es fehlt als Information also nur noch das Gehäuse: ein Fractal Design Define R6 in Grau – oder für mich ein etwas helleres Schwarz. Als Gehäuselüfter kommen 3 Noctua NF-A14 zum Einsatz, und zwar im bekannten nougatbraun, ob ich hier das System mal auf Schwarz umstelle? Verdammt, jetzt ist der Wunsch geweckt!

Das System hat mir in dieser Form bis Mitte 2020 gute Dienste geleistet und ich habe im April 2020 eine 5700 XT – dieses mal eine XFX Radeon RX 5700 XT Thicc II – gekauft. Damals für unschlagbare 300,- € im Angebot, die Treiberprobleme** der 5700 XT waren zu diesem Zeitpunkt langsam Geschichte und es fühlte sich einfach richtig an, der Leistungsschub von 20 % war auch gerade richtig, bei VIEL weniger Verbrauch. Diese Iteration des Systems hat bis nun zum November 2022 bestand und in Vorbereitung auf eine neue Grafikkarte – und dem Wegfall eines Mördersytems, dass ich einem Freund geschenkt habe – wurde der 2700 X durch einen 5800X3D ersetzt, was die 5700 XT sogar leicht beflügelte. Um den Infinity Fabric Beine zu machen, wurde auch noch der RAM ausgetauscht und es werkelnjetzt 32 GiB Kingston FURY Beast DDR4 3600 CL-18 im System, sodass sich auch die Latenz leicht verbessert hat von 10,66 ns auf 10 ns. Nicht viel, aber immerhin etwas, auch wenn der 5800X3D nicht wirklich von der Latenz profitiert, so wirkt sich zumindest der IF-Takt positiv aus.

In der jetzigen Ausbaustufe – man könnte sie als Phase 4 bezeichnen – wird nun die ehrwürdige 5700 XT in den Ruhestand versetzt, auch diese Grafikkarte wird einem Freund zu gesendet, der nicht sehr viel hat. Die Nachfolgerin ist eine XFX Radeon RX 7900 XTX Merc 310 Black Edition. Natürlich ist der Umbau und die Erneuerung des Systems damit noch NICHT abgeschlossen, denn mein Ziel ist es am Ende wirklich ein neues System unter dem Schreibtisch stehen zu haben. Aber mit dem Geldbeutel vereinbar - ja die 1300 € für die XFX sind viel Geld gewesen, deswegen aber in Häppchen erneuert.

Es stehen also noch drei Erneuerungen an bis zum Sommer: Das Mainboard soll durch ein B550-Board getauscht werden, damit auch die Vorzüge von PCIe4 zur Geltung kommen. Die NVMe-SSD soll gegen ein PCIe4 Exemplar getauscht werden und auch ein neues Gehäuse steht an – mit mehr Luftzufuhr für die Grafikkarte und – ihr seid schuld daran – eben die Gehäuselüfter und vielleicht sogar der CPU-Lüfter, ich mag Schwarz!

Jetzt aber auch kurz zu den beiden Asterisk im Text, um ein paar Gedanken noch zu veranschaulichen:

* Ich weiß, dass ich mich sowohl bei der 4090 als auch der 3090 Ti negativ über den gesamten Stromverbrauch geäußert habe und es wirkt in diesem Moment auch etwas scheinheilig, dass ich jetzt eine 7900 XTX mit 350 – 400 W in meinem System einbaue. Ich nannte eine 3090 Ti und eine 4090 aber bereits mein Eigen, beide verschenkt an Freunde oder Studenten. Beide Karten habe ich auf 300 – 350 W limitiert und es zeigte sich bei beiden, dass für ca. 3 – 6 % Performance übermäßig viel mehr maximale Energie zugeschossen wurde und beide Karten OHNE Not entsprechend auf diesen Verbrauch geprügelt wurden. Die 4090 verliert ca. 7 – 10 % an Leistung, wenn man sie von 450 auf 300 W limitiert. Ich spiele zudem mit einem relativ starken FPS-Limit bei 72, sodass die meisten Spiele nicht wirklich darüber hinaus kommen – wobei ich überlege es auf 90 anzuheben, mal sehen.

** Die Treiberprobleme von RDNA sind mit einer Umstellung des Treibers von Wave64 auf Wave32 zu erklären. Mit RDNA wurden die 4 * Vec16 durch 2 * Vec32 ersetzt. Bis RDNA war der Treiber auf Wave64 ausgelegt. Solche Umbauten sind immer fehleranfällig. Auch dieses Mal hat AMD an den CU einiges umgebaut und ich werde im späteren Verlauf darauf eingehen.

Die Kontrahenten – die Überraschung gegen die Enttäuschung​

Die 5700 XT – also Navi10 – war 2019 eine Überraschung, hat doch AMD damit gezeigt, dass sie noch nicht auf verlorenem Posten kämpfen und gute Grafikkarten – wir lassen mal die Treiberprobleme weg – designen können. Die 7900 XTX – Navi30 – ist hier dann schon eher eine kleine Enttäuschung, die Gerüchteküche brodelte ordentlich, was auch mich zu falschen Einschätzungen verleitet hat und auch die Folien waren – mindestens – stark durch eine rosarote Brille gefärbt. Alles eigentlich ein Grund, die Karte nicht zu kaufen. Warum habe ich die Karte dennoch gekauft? Weil ich das Konzept des Chiplet mag und ich die neuen CUs interessant finde und denke, dass AMD hier noch einiges machen kann.

Ja, scheinbar hat 7900 XTX einen Hardwarebug beim Prefetching von Shadern – siehe dazu den Mesa3D-Code – gleichzeitig sind die Auswirkungen mit ca. 2 % nicht wirklich gravierend. Probleme mit der Leistungsaufnahme lassen sich in der Regel im Treiber und der Firmware beheben, da einfach gewisse Parameter falsch eingestellt sind, man wird hier auf die Treiber warten müssen. Dass RDNA3 schlechter abschneidet als erwartet, liegt primär an einem noch nicht ausgereiften Shadercompiler und damit auch am Treiber. Etwas, dass man aussitzen kann und es könnte spannend sein, die Karte über die Zeit auch zu beobachten – also wird dieser Artikel ein Mehrteiler, freut euch darauf.

Jetzt aber zu den beiden Chips, die sich in diesem Test dem Duell im Ring stellen:
BezeichnungNavi10Navi30
Transistoren10,3 Mrd.45,7 Mrd. + 12 Mrd. (57,7 Mrd)
FertigungN7N5 + N6
WGP/CU20/4048/96
Shader25606144 (12288)
RT-Kerne096
Matrix-Kerne0192
TMU160384
ROP64192
SI256 Bit384 Bit
Cache (L2 + L3)8 MiB + 06 MiB + 96 MiB
Takt1605 - 1905 MHz1900 - 2500 MHz
Es sind 140 % mehr Shader und TMUs und 200 % bei den ROPs und das verspricht in diesem Duell schon ein ordentliches Leistungsplus. Der Takt steigt um 20 – 30 % an, was am Ende auch ordentlich ist, dass die 5700 XT also von der neuen großen Schwester eines auf den Deckel bekommt, ist schon klar, die Frage ist nur wie viel und das soll dieser Test klären.

Die Konkurrenz – 4090 oder 4080?​

Bevor wir aber zu dem eigentlichen Test kommen, möchte ich kurz ein paar Kommentare aus der Community aufgreifen – nicht angreifen –, die meinen, dass Navi30 eigentlich die Konkurrenz zur 4090 ist und AMD nur aus Not die 4080 als Konkurrenz ausgewählt hat: Nein, das sehe ich an der Stelle ein Stück anders. Ich muss an der Stelle andeuten, dass die ursprünglichen Gerüchte diesen Schluss zu lassen, es ist allerdings anders gekommen. Navi30 bewegt sich von allen Eckdaten viel eher zwischen AD102 und AD103 und in bestimmten Spielen – nicht nur den CB-Test nehmen – kann Navi30 es mit AD102 aufnehmen, in anderen Spielen unterliegt man deutlich und auch AD103 kann schneller sein*.

Sieht man sich aber die Daten aller drei GPUs an, dann fällt auf, dass Navi30 sich genau zwischen AD102 und AD103 bewegt. Entsprechend ist auch das Ziel, besser muss das Ziel von AMD sein, sich zwischen AD102 und AD103 zu platzieren, dieses Ziel hat AMD – in meinen Augen – aktuell nicht erreicht. Es ist also umso wichtiger, dass AMD wirklich am Treiber arbeitet und am Shader-Compiler.
BezeichnungAD103Navi30AD102
Transistoren45,9 Mrd.57,7 Mrd.76,3 Mrd.
Fertigung4N (optimierter N5)N54N
CU/SM8096144
Shader102406144 (12888)*18432
RT-Kerne8096144
Matrix320192576
TMU320384576
ROP112192192
SI256 Bit384 Bit384 Bit
Cache (L2 + L3)64 MiB6 MiB + 96 MiB96 MiB
Takt2210 - 2505 MHz1900 - 2500 MHz2230 - 2520 MHz
Navi30 hat ca. 25 % mehr Transistoren als AD103, AD102 hat 32 % mehr als Navi30 – natürlich kommt in der 4090 kein Vollausbau zum Einsatz, das weiß ich. Bei den RT-Kernen hat man gegenüber AD103 20 % mehr zu bieten, bei den Shadern sind es erneut 25 % mehr (neue Rechenweise**), auch bei den ROP sind es deutlich mehr – 71 % - und bei den TMU sind es erneut wieder 20 %. Hätte AMD ihr Ziel von 50 % mehr FPS/Watt erreicht, läge Navi30 auch ca. 10 – 20 % vor der GeForce 4080 und würde sich in diesem Fall wirklich perfekt zwischen AD103 und AD102 platzieren. Das wird aktuell jedoch aus einem Grund verhindert und das ist nicht der vermutete Hardwarebug beim Prefetching von Shadern. Wir kommen daher zu den beiden Asterisk:

* AMD hat die CU stärker umgebaut, als ich anfangs angenommen habe und hier liegt auch das Problem. Ich habe in vielen Kommentaren die Auslastungsprobleme von Ampere/Ada gegenüber RDNA2 erläutert, ich gehe darauf im nächsten Abschnitt ein.

** Die Angabe von 12888 Shadern ist in diesem Fall die ehrlichere und man muss AMD hier sogar sagen, dass sie bei der Verdoppelung der Shader auf der einen Seite intelligenter vorgegangen sind als NVIDIA bei Ampere, gleichzeitig haben sie sich damit die Entwicklung des Shadercompilers komplizierter gemacht. Auch dazu im nächsten Abschnitt mehr.

Die neuen CU – Genialer Wahnsinn!​

Warum sich Ampere von RDNA2 nicht wirklich absetzen konnte, obwohl sie fast doppelt so viele Shader hatte, ist relativ einfach erklärt: NVIDIA hat bei Ampere die Anzahl der Shader „nominell“ von 64 auf 128 erhöht – es waren bei Turing bereits 128. Es istallerdings so, dass nicht jeder dieser 128 Shader einfach ein Programm ausführt, sondern die 128 Shader werden als SIMD (Single Instruction, Multiple Data) organisiert. So etwas spart Schaltungen zur Kontrolle usw. Das bedeutet, dass immer eine gewisse Anzahl an Shadern die gleiche Operation auf verschiedene Werte ausführen müssen. NVIDIA nutzt für diese Verwaltung die Datenpfade in der SM und in Ampere und Ada gibt es zwei Datenpfade für 128 Shader, also jeder Datenpfad fasst 64 Werte und hier liegt der Knackpunkt: Ampere/Ada benötigen für eine optimale Auslastung 2 Tasks pro SM zu 64 Werten, damit die Rechenleistung auch auf die Straße gebracht werden kann. Die Menge an Werten pro Task wird bei einer GPU heute in der Regel von der Auflösung bestimmt und mit steigender Auflösung kommen pro Thread mehr Werte zusammen und Ampere und Ada können ihre Rechenleistung besser auf die Straße bringen.

AMD – ich werde auf GCN nicht mehr eingehen – benötigt bei RDNA pro CU auch bereits 2 Threads/Task, jedoch nur 32 Werte, da in jeder CU zwei Vec32-Einheiten vorhanden sind. In modernen Engines sind Task/Shader nicht mehr so problematisch, da immer mehr Shader in einem Bild angewendet werde, dafür sind die Shader kleinteiliger und genau hier konnte RDNA1 und RDNA2 dann auftrumpfen: Die Auslastung der CU war besser als die Auslastung der SM bei NVIDIA.

Gleichzeitig zeigt sich bei einer CU ab 4K aber auch, dass ein Thread für Operationen tendenziell einen zweiten Takt benötigen, da mehr als zwei Wave32-Befehle benötigt werden. In 4K ist das noch nicht so gravierend, in höheren Auflösungen wird das aber immer wahrscheinlicher. Die Umstellung von Wave64 auf Wave32 war – bis einschließlich 4K – also 2019 eine gute Wahl, um das Auslastungsproblem von GCN zu beseitigen, gleichzeitig zeigt sich jetzt, dass es wieder notwendig sein kann auf Wave64 – bei Bedarf – umzustellen.

AMD bohrt – nicht wie NVIDIA – einfach die Vec32 zu Vec64-Einheiten auf – was auch möglich gewesen wäre – sondern geht einen anderen Weg, der eine gewisse Flexibilität ermöglicht: Sie fügen einen zweiten Vektor-Pfad in die Vec32 ein, so werden aus den Vec32 nun (vereinfacht) Vec32+32 Einheiten und AMD nähert sich hier ein Stück NVIDIA und Ampere/Ada an.
AMDs Lösung ermöglicht nun zwei Optionen – die NVIDIA bei Ampere und ADA nicht hat, dafür hat das NVIDIA-Design andere Vorteile*:
  1. AMD kann zwei Wave32-Befehle mit dem gleichen Operator auf einer Vec32+32 ausführen.
  2. AMD kann einen Wave64-Befehl innerhalb eines Taktes auf einer Vec32+32 ausführen.
Und genau hier liegt aktuell auch ein Teil der Probleme von RDNA3 und warum RDNA3 nicht so schnell agiert, wie man annehmen könnte. AMD kann die Vec32+32 genauso wenig vollständig auslasten, besonders in niedrigen Auflösungen, wie NVIDIA ihre SM mit 64 + 64. Beide Hersteller haben in dieser Generation – und das ist ein Novum – fast das gleiche Auslastungsproblem.
AMD muss ihren Shader-Compiler innerhalb von 3 Generationen erneut umbauen und dieses Mal wird es knackig. Es ist nicht einfach nur eine Umstellung von Wave64 auf Wave32 – was schon zu einigen Problemen führte – sondern AMD muss dem Shadercompiler beibringen, dass er sowohl gleiche aber dennoch unabhängige Operatoren im Shader in zwei Wave32-Befehlen zusammen fasst. Oder, dass der Shader bei Bedarf entscheiden kann, statt einem Wave32-Befehl einen Wave64-Befehl zu nutzen. Möglich ist das – AMD hat Erfahrung mit VLIW-Architekturen, ich schreibe nur TeraScale – gleichzeitig ist das aber aufwendig und komplex.

Ein Beispiel, um euch die Möglichkeiten zu veranschaulichen:
Code:
A = B + C
D = A + E
F = G + H
Aus diesem Beispiel kann AMD zwei Wave32-Befehle konstruieren, die man gleichzeitig auf die gleiche Vec32+32 loslassen kann. Sowohl A = B + C als auch F = G + H können hier zusammengefasst werden, beide Zeilen sind voneinander nicht abhängig, haben aber den gleichen Operator. A = B + C kann aber nicht mit D = A + E zusammengefasst werden, es gibt in diesem Beispiel noch eine zweite Möglichkeit: D = A + E sowie F = G + H können zusammengefasst werden. Und hier liegt der Knackpunkt für AMD, der Shadercompiler muss mit der Zeit um verschiedene Analysetechniken – Flussanalyse wäre hier eine – erweitert werden, die entsprechende Operatoren-Paare im Shader finden. Das ist in dem Fall eine Möglichkeit.

Die zweite Möglichkeit, die Vec32+32 besser auszulasten, liege im Treiber, denn dieser verwaltet die Tasks und Befehle und weiß in der Regel, welche Befehle über den verschiedenen Tasks an die GPU übermittelt werden. AMD hat hier also sehr viel Potenzial im Treiber und im Shadercompiler und anders als zu Vega-Zeiten ist dieses Mal das Potenzial auch wirklich vorhanden, denn die neuen Befehle für die Vec32+32 können genutzt werden und sind nicht Broken, denn die neuen Befehle werden schon beim RayTracing genutzt.

Zum Abschluss dieses Abschnittes wieder das Asterisk:
* NVIDIA organisiert ihre SM in 4 Tiles zu je 16 + 16 Shadern, NVIDIA ist es dadurch möglich nicht benötigte Shader einfach „ruhen“ zu lassen, so dass diese bei der Ausführung des Befehls nicht schalten müssen. Das bedeutet, wenn in einem Datenpfad statt 64 Werte nur 32 Werte zusammenkommen, dann müssen nur 2 der 4 Tiles arbeiten und die anderen Beiden „drehen Däumchen“. Das ist ein Vorteil, den AMD mit den Vec32+32 nicht so hat. AMD ist an dieser Stelle – ähnlich wie zu Zeiten zu Vega – also deutlich stärker davon abhängig, dass die Einheiten möglichst perfekt ausgelastet werden, damit die Karten effizient sind. Hier muss AMD dringend ran, dass sie nicht benötigte ALUs wirklich „trocken“ legen.

Merc 310 Black Edition gegen die Thicc 2​

Ich will euch an dieser Stelle aber nicht länger auf die Folter spannen. Ich habe im groben beschrieben wie sich das System seit 2018 gewandelt hat. Wie Navi10 und Navi30 aussehen und wo sich Navi30 im Duell gegen AD102 und AD103 einordnet, jetzt kommen wir zu den harten Zahlen der realen Hardware und hier kann ich nur schreiben: BOAH! Ich habe das Paket von meinen Nachbarn abgeholt – der Postbote war mal wieder früher da, als erwartet – und hab ein ziemlich dickes Paket ausgehändigt bekommen und das Paket ist auch schwer! Leider fehlt mir eine Waage zum Vergleich – ich sollte mir aber mal eine Küchenwaage kaufen – allerdings: die Merc 310 ist schwer, laut Post wiegt das Paket 3,20 Kilogramm. Ein großer, fetter Klopper.
IMG_0395.jpg
Vorweg, Fotos werden auf meinem Bett gemacht, das ist einfacher, als jetzt den Tisch freizuräumen, um da gute Bilder zu machen, ich habe kein professionelles Studio und mache solche Tests ja nicht regelmäßig.
IMG_0396.jpgIMG_0397.jpgIMG_0398.jpg
Öffnet man den Karton, zieht man den schwarzen inneren Karton heraus und kann diesen aufklappen und was dann zum Vorschein kommt, ist erst mal der Hammer und es schwant einem schon: Hier wird ein Supportrahmen benötigt und dieser liegt auch bei. Die Karte kommt dann auf knapp 35 cm in der Länge, ist drei Slots dick – mit der Halterung, sonst sind es knapp 4 - und etwas höher als die üblichen Slots. Die Karte ist Respekt einflößend und die 5700 XT Thicc dagegen schon zierlich, auch wenn diese nicht gerade kurz war.
IMG_0402.jpgIMG_0403.jpg
Mit dem Supportrahmen erinnert die Merc 310 an die Vega 64 Nitro+ von Sapphire und ist etwas einschüchternd, gleichzeitig wird aber klar, dass die Karte so vermutlich etwas ruhiger sein wird als die Thicc 2, die sich gerne mal bemerkbar gemacht hat. Ein neues Gehäuse muss in der nächsten Zeit auf jeden Fall her.
IMG_0404.jpg
Egal von welcher Seite man nun ein Foto schießt, die Merc ist ein Monster im Vergleich zur Thicc, schade, dass ich die Nitro+ nicht mehr hier habe, das wäre spannend. Nun gut, sie ist nicht mehr da, also bleibe ich zumindest diesen Vergleich schuldig.

Das Duell – welche Spiele sind es geworden?​

Kommen wir also zum eigentlichen Test und ich kann jetzt schon schreiben: Ich bin positiv überrascht – wobei ich vermutlich von einer 4080 oder gar 4090 noch positiver überrascht wäre. Direkt aber vor weg: Alle Tests wurden in 1440p ausgeführt, ja ich habe nur einen 27“ Monitor, dieser ist sehr gut und ich habe noch keinen Bedarf einen 4K-Monitor zu kaufen. Warum also diese Karte? Weil ich es will, ganz einfach. Ich spiele gerne immer wieder Klassiker und alte Spiele, allerdings auch neue und aus meinem aktuellen Katalog habe ich 11 Spiele ausgesucht und auf der 7900 XTX gibt es sogar ein Bonusspiel - wird nachgereicht.

Folgende Spiele sind es geworden: BlackMesa, Cyberpunk, Tiny Tina, WarHammer 40k: Dark Tide, Diablo 2 Resurrected, Final Fantasy 14, Total War: WarHammer 3, Doom Eternal, Doom 2016, World of WarCraft, Metro Exodus (normal wegen der Vergleichbarkeit) und als Bonus auf der 7900 XTX Quake 2 RTX.

Ich habe jedes Spiel in drei verschiedenen Szenarien getestet: DevPandi, DevPandi No-Limit und Max-Out. Das DevPandi-Setting ist so ausgelegt, dass das Spiel FÜR mich sich angenehm auf meinem Monitor anfühlt. Gleichzeitig wird das Spiel auf maximal 72 FPS limitiert – bei einem 144 Hz Monitor für mich ein guter Kompromiss. No-Limit erklärt sich von selbst und Max-Out: Die ganzen Regler nach rechts, daher werde ich in diesem Test nur die Dev-Pandi-Settings genauer erläutern.

Für mich wichtig ist bei diesem Test auch, dass ich mir nicht eine beliebige Szene heraussuche, auch wenn sie fordernd ist, sondern dass ich eine reale Spielsituation nachstellen kann. Da sich Spiele jedoch nicht vorhersehbar verhalten, führe ich in jedem der Settings drei Durchläufe aus und mittel diese.

Wie angemerkt, ist für mich ein realistischer Test wichtiger als ein optimierter Test, der das theoretische Maximum oder Minimum an Leistung aufzeigt, daher laufen auch verschiedene Alltagsprogramme während des Tests, bei mir sind das folgende: Battle.net Client, BoxCryptor, HiDrive, Java Updater, Steam, TwinkleTray, Discord, Overwolf und GOG Galaxy. Manche dieser Programme werden bei den meisten von euch auch laufen und werden daher nicht deaktiviert, denn auch auf euren Systemen werden die Grafikkarten nicht in optimalen Umgebungen laufen.

Auf Bitte von @ComputerJunge schiebe ich an dieser Stelle noch kurz einen Benchmark mit Affinity Photo ein – die Benchmarks laufen mit Version 2.0.0: In Vektor Raster erreicht die „Einzel“ GPU nur 756 Punkte – ein MacBook Pro mit M1 erreicht hier 8983 – und in der kombinierten Last 1238, das MacBook erreicht hier 8602 Punkte. Anmerken muss man dabei, dass die GPU maximal zu 10 – 15 % ausgelastet wird und nur mit 1000 – 1500 MHz taktet. Daher wird der Test auch nicht in die finale Bewertung mit aufgenommen. Ich werde diesen Test wiederholen, sobald Serif eine neue Version herausgebracht hat.

Nun zu den einzelnen Tests in den Spielen – noch anzumerken ist, dass ich bei Spielen, die in DevPandi keine 72 FPS erreichen, mir den No-Limit Durchlauf spare.

Cyberpunk​

In Cyberpunk besteht der Benchmark-Lauf durch eine Fahrt durch Night City (Zentral) zu einem Apartment. Der Lauf dauert in der Regel 01:30, je nach Situation mit den NPCs können es auch einmal 02:30 werden.
OptionWert
AMD FidelityFX Super Resolution 2.1Qualität
Sichtfeld100
FilmkörnungAn
Chromatische AberrationAn
SchärfentiefeAn
BledfleckeA
KontaktschattenAn
Verbesserte GesichtsbeleuchtungsgeometrieAn
Ansitropie16
Lokale Schatten-MeshqualitätHoch
Lokale SchattenqualitätHoh
Entfernte Schatten AuflösungHoch
Volumetric Fog AuflösungHoch
Volumentische WolkenqualitätUltra
Maximale Dynamic DecalsUltra
Qualität der Screen Space ReflectionsUltra
VolumenstreuungHoch
UmgebungsverdeckungMittel
FarbpräzisionHoch
SpiegelqualitätHoch
Detailgrad (LOD)Hoch

BlackMesa​

Die Einstellungen kann ich mir in diesem Spiel sparen, DevPandi ist bereits Max-Out, als Testszene dient der Reaktor-Unfall, da hier doch einiges los ist auf dem Bildschirm und es eine konstante Last erzeugt.

TinyTina​

In diesem Spiel wird dir Voreinstellung Hoch verwendet und die Anistrope Filterung auf 16 gestellt. In DevPandi kommt dazu noch AMD FSR2 mit Qualität zum Einsatz. Als Benchmark kommt ein Kampf in einem der Feldlager auf der Oberfläche zum Einsatz. Da hier sich die Umgebung ändern kann, werden eben in drei Lager die Kämpfe aufgenommen und gemittelt.

Final Fantasy 14​

Auch in diesem Spiel gilt: DevPandi ist bereits Max-Out, daher gibt es da nicht viel zu berichten zu den Einstellungen. Als Test-Sequenz wird eine Instanz als Druidin/Weißmagierin gespielt, und zwar eine der beiden Experten Instanzen. Jeder Abschnitt wird als eigener Lauf gewertet.

World of WarCraft​

Bei den Einstellungen ist es einfach: Das Spiel läuft im DevPandi-Setting in der Voreinstellung 5 ohne Anpassungen. Als Testlauf dient hier ein Drachenrennen, dass fordernd sein kann und auch Framedrops in manchen Situationen erzeugt.

WarHammer 40K: DarkTide​

DevPandi ist die Qualitätsvoreinstellung Mittel, zusammen mit FSR 2 in Qualität. Gespielt wird der Prolog.

Diablo 2 Resurrected​

Hier wird für DevPandi die Einstellung hoch gewählt und gespielt wird das erste Gebiet Hölle Akt 5.

Total War: WarHammer 3​

Für DevPandi gilt die Einstellung Hoch ohne weitere Anpassungen, es wird eine Schlacht gespielt. Der Ansturm erfolgt im Schnellvorlauf, dann wird gemetzelt für den Blutgott!

Doom 2016​

Nicht viel zu erklären: Alles auf Max, das schafft die 5700 XT, erste Mission vom Aufzug aus zur ersten Arena und gemetzelt.

Doom Eternal​

Auch nicht viel zu erklären: Ultra – oder Mittel, wenn es nach uns geht – erste Mission bis zur ersten Arena und auch hier gemetzelt.

Metro Exodus​

Einstellungen Ultra, das Intro mit der Fahrt über die Stadt bis einschließlich den ersten Kampf.

Der Überblick​

Wie in einem kleinen Teaser bereits angekündigt, ich bin von der 7900 XTX positiv überrascht, was meine Spiele angeht. Natürlich war es ein Stück weit zu erwarten. Gleichzeitig ist es dennoch erschreckend, wenn man eigentlich nur maximal 200 – 220 W bei der GPU gewohnt ist, plötzlich auch mal 400 W auf der Uhr zu haben. Ich muss aber zu geben, die 400 W – eigentlich sind es 390 – fühlen sich schon seltsam an, aber die Sapphire RX Vega64 Nitro hatte auch mal 350 W auf der Uhr. Da ich nach diesem Test wieder das FPS-Limit bei 72 ziehe und bei ausgewählten Spielen auch zu 90 verschiebe, komme ich unter dem Strich aber auf ähnlich, teilweise auch mal niedriger Werte als mit der 5700 XT. Bevor ich hier noch mehr Text fabriziere, hier einmal der erste Überblick:

Verbrauch.pngAvgFPS.png99.9.png

In den bisher gespielten Einstellungen nähert sich die 7900 XTX den 72 FPS an, die 5700 XT erreichte in der Regel – gerade auch wegen Cyberpunk – nur 63,9 FPS im Mittel. Dabei verbraucht die 7900 XTX etwas weniger, nur 154 W gegen 163 W. Hier macht sich also primär gestiegene Rohleistung bemerkbar. Auch bei den 99.9 % FPS gibt es eine Verschiebung nach oben von 41 FPS auf 50,3 FPS. Die 7900 XTX ist also bei den AVG FPS im ganzen Test ca. 12 % schneller, bei den 99,9 % sind es 22 % und der Verbrauch fällt ca. 6 % geringer aus, nach dem Test auf Computerbase ist das für mich eine kleine aber auch positive Überraschung.

Nehmen wir das Limit heraus, dann genehmigt sich die 5700 XT ca. 40 Watt mehr und kommt auf 203 W, die Avg. FPS steigen auf 114,4 und die 99,9 % auf 60,5. Interessanter ist die 7900 XTX aber an dieser Stelle, denn die kommt bei den Avg. FPS auf 240,5, die 99,9 % auf 116 und der Verbrauch steigt auf 339 W an. Prozentual stehen 110 %, 92 % und 66 % auf der Uhr und auch an dieser Stelle hätte ich im ersten Moment schlimmeres erwartet in meinen Spielen, es ist ein netter Leistungssprung.

Sieht man sich dann noch Max-Out an, wird das Ganze noch interessanter, denn hier legt die 7900 XTX wirklich ordentlich zu und schafft zur 5700 XT fast immer die doppelten FPS, ohne dass der Stromverbrauch auch um das doppelte ansteigt. Hier ist aber die Betrachtung einzelner Spiele wesentlich interessanter. Für die Effizient ergibt sich in diesem Test aber auch kein „überragendes“ Bild im Mittel.Ich gehe nur auf Max-Out an dieser Stelle ein, steigt die Effizienz über alle Spiele nur um ca. 20 % an, wobei sich bei mir im FPS-Limit (DevPandi) auch mal 25 – 30 % ergeben, das hängt aber von den Spielen ab - es geht auch deutlich mehr.

Ich möchte im weiteren Verlauf jedoch nicht auf jedes Spiel eingehen – der Test ist schon sehr lang – sondern ich gehe auf bestimmte Spiele ein, die ich wirklich aktuell regelmäßig spiele und daher eine Bewertung auch am sinnvollsten ist.

Cyberpunk 2077 – Hier wird es wirklich spannend​

Ja, Cyberpunk 2077 ist jetzt seit zwei Jahren auf dem Markt, bald kommt allerdings das Addon und gerade in diesem Spiel gab es bei mir teilweise mit die deutlichsten Veränderung. Gleichzeitig läuft das Spiel bei mir auch relativ effizient mit der 7900 XTX.
Im Setting DevPandi erreichte ich mit der 5700 XT ca. 33,6 fps im Mittel und für 99,9 % sind es gerade mal magere 20,4 fps bei 208 W. Die 7900 XTX liefert 71,6 und 49,3 fps bei 285 W, ich erhalte also zwischen 110 – 140 % mehr FPS – gerade die 99,9 % ziehen stark an – und der Strombedarf steigt nur um 37 %. Das ist beachtlich.
CyberpunkVerbrauch.pngCyberpunkAvgFPS.pngCyberpunk99.9.png

Tiny Tina – die Überraschung​

Dass die Entwicklung mit „mehr FPS“ und „mehr Verbrauch“ auch anders ausgehen kann, zeigt in diesem Vergleich Tiny Tina. Hier schafft die die 5700 XT in meinen Einstellungen bisher zwar 72 fps im Mittel, gleichzeitig benötigt die 5700 XT dafür auch 202 W. Die 7900 XTX schafft im ganzen deutlich mehr FPS – im Max Out steigen die Avg. FPS von 64,9 auf 197,3 und am Ende reicht es in meinem limitierten Setting dazu, dass die 7900 XTX sogar ca. 70 Watt weniger benötigt, also ca. 30 % weniger! Eine positive Entwicklung. Ein ähnliches Verhalten konnte ich bei den DevPandi-Settings auch in WarHammer 40k: Dark Tide beobachten, ich gehe an dieser Stelle aber nicht gesondert darauf ein.

TinyTinaVerbrauch.pngTinyTinaAvgFPS.pngTinyTina99.9.png

In den anderen Settings steigen die FPS wie erwartet an, gleichzeitig aber auch der Energiebedarf. Das Schöne an diesem Spiel ist aber, dass ich nun die Einstellungen höherstellen kann und im weiteren Verlauf dennoch etwas weniger Energie benötige bei einem 72 FPS-Limit. Anzumerken ist jedoch, dass die Frames in Tiny Tina, gerade ohne FSR, etwas unrund laufen, das Problem hatte ich auf der 5700 XT nicht.

Total War: WarHammer 3 – Bitte was?​

Wir kommen zum letzten Spiel in der Detail-Auswertung, nämlich Total War: WarHammer 3 und hier muss ich sagen, hier bin ich wirklich überrascht, was da so zustande kommt, denn über alle Settings hinweg beobachte ich bei den 99.9 % Steigerungen von über 350 % - 12,7 fps auf 57,3 fps im DevPandi-Setting, dagegen sind die 90 % bei den Avg. Fps schon zu vernachlässigen. Nimmt man die Limitierung heraus, läuft die 7900 XTX sogar 750 % schneller bei den 99.9 % und auch bei den Avg. Fps beobachte ich eine Steigerung von gut 350 %, das ist heftig, der Verbrauch steigt am Ende dafür allerdings kräftig an in den beiden anderen Modi – ohne Limit und Max Out, aber hier trumpft das Spiel wirklich auf.

TWW3Verbrauch.pngTWW3AvgFPS.pngTWW399.9.png

Das ist wirklich erstaunlich und entweder lag das Spiel RDNA nicht so wirklich oder RDNA3 besonders gut, denn solche Zuwächse hätte ich nicht erwartet!

Fazit und Ausblick​

Über das Wochenende ist meine anfänglich trotzige Haltung zur 7900 XTX ein wenig der Begeisterung über diese Karte gewichen, besonders, wenn man die 5700 XT als Ausgangsbasis nimmt und man merkt, was da an Leistung dazu kommt. Es macht schon Spaß Cyberpunk nun mit maximalen Details zu spielen und auch die RT-Effekte hinzuzuschalten. Genauso ist es toll, wenn man in Dark Tide nicht mehr auf Mittel mit FSR mit Ach und Krach zwischen 30 – 60 fps hat, sondern man einfach in vielen Spielen die Effekte höherschrauben kann und doch 50 - 72 Frames bekommt. Toll!

Gleichzeitig zeigen aber Spiele wie Cyberpunk 2077 auch, wie unvernünftig die 7900 XTX sein kann, denn 390 W bei der Merc 310 sind eine Hausnummer, die ich bereits bei der 3090 berechtigterweise kritisiert habe und die ich auch bei der 7900 XTX Merc 310 kritisieren muss. Man gewinnt zu 350 W einfach zu wenig hinzu, benötigt aber ca. 10 % mehr Energie. Und damit auch gleich vorweg: Dieser Test ist der erste Teil. Ich mache solche Tests nicht hauptberuflich und habe nicht die Zeit viele Tests auf einen Schlag zu machen. Es wird aber mindestens noch einen weiteren Test geben, der dann weniger Spiele umfasst, dafür genauer auf die einzelnen Spiele eingeht.

AMD macht mit RDNA3 in meinen Augen nicht viel falsch, leider tritt AMD aber mit der Karte in weiten Teilen auf der Stelle, da manche Neuerungen einfach noch nicht zünden. Auch – und das nehme ich AMD sowohl bei Zen 4 und nun auch RDNA 3 krumm – wird die Brechstange ausgepackt. Inwieweit das notwendig ist? Kann ich zum jetzigen Zeitpunkt noch nicht sagen, aber man merkt es an allen Ecken und Enden.

Genauso – und auch das muss man zugeben – ist der Treiber auch abseits des Shader-Compilers noch nicht fertig, denn so manche Einstellung wird nicht sauber übernommen. AMD muss also nicht nur am Compiler arbeiten, sondern allgemein am Treiber und so bleibt zu diesem Thema zu schreiben: AMD hätte hier noch mindestens ein paar Wochen, besser vielleicht sogar 2 – 3 Monate sich Zeit nehmen müssen.

AMD ist mit der 7900 XTX und XT zu früh auf den Markt gekommen und sie standen vermutlich unter Zugzwang durch NVIDIA. Manchmal sollte man sich nicht unter Zugzwang setzen lassen, denn die schlechte Presse, die teilweise dann auch zu Recht folgt, bleibt in den Köpfen der Anwender hängen. So kann man nur schreiben: Selbst schuld, AMD!

Positiv hervorzuheben ist an dieser Stelle, dass es während des Tests aber zu keinen Abstürzen, BlackScreens und andere Unschönheiten gekommen ist, was wiederum dafür spricht, dass der Shader-Compiler nicht massiv umgebaut wurde und die Anpassungen für RDNA1 und RDNA2 als Fallback vorhanden sind.

-- Erweiterung des Tests 28.12.2022 --

Effizienz - Zwischen Erwartungen und Realität​

Es kommt, wie es kommen muss: Ich gehe noch mal gesondert auf die Effizienz der 7900 XTX im Vergleich zur 5700 XT ein. Ebenso bereite ich einen weiteren Test vor. Aber zuerst:

50 % + 50 % sind keine 100 % - sondern etwas mehr​

AMD versprach von RDNA zu RDNA2 die Effizienz um 50 % zu heben und auch jetzt wurde versprochen, dass man ca. 50 % Effizienz anpeilt - und angeblich erreichte man 54 %. Nur wie das mit der Effizienz so ist, es kommt auf die Ausgangsbasis an und auch auf andere Einstellungen. Daher müssen wir in diesem Abschnitt erst mal mit ein paar Sachen aufräumen: Eine GPU - auch CPU - benötigen eine gewisse Mindestspannung (V), damit die Transistoren schalten können. Viele "Schlafmodi" moderner GPUs und CPUs reduzieren nicht nur den Takt, sondern deaktivieren ganze Gruppen an Schaltungen, damit man Strom(stärke) (A) spart. (Entschuldigt die allgemeine Ausdrucksweise, das ist hier einfacher.) Das heißt, dass eine gewisse mindeste Last immer anliegt, auch wenn diese nicht ausgeschöpft wird. In solchen Fällen liegt dann Leistung wirklich brach, die genutzt werden könnte.

Sobald Spiele gestartet werden, müssen immer mehr Teile aus diesen Schlafmodi zurückgeholt werden und entsprechend steigt auch der Bedarf an Strom an. Eine GPU hat also einen Grundbedarf an Spannung und Strom. Es kann also sein, dass gerade in niedrigen FPS-Limits (wie eben 72 FPS) die neue GPU überhaupt nicht effizienter sein kann, weil einfach eine entsprechende Grundlast erzeugt wird. Ich habe - ohne direkte Testläufe - deswegen in Final Fantasy 14 die Probe gemacht: Im 72 FPS-Limit ist die 7900 XTX weniger effizient mit 0,53 fps/Watt als die 5700 XT mit 0,59 fps/Watt (die 5700 XT ist 11 % effizienter). Testweise habe ich das FPS-Limit auf 90 FPS angehoben, der Verbrauch der 7900 XTX lag weiterhin bei 136 Watt (gemittelt) und die fps/Watt heben sich auf 0,66 fps/Watt an, jetzt ist sie 11 % effizienter. Die 11 % sind jedoch MEILENWEIT entfernt von AMDs Versprechen, denn theoretisch müsste die Effizient bei ca. 125 % liegen oder in diesem Beispiel: 0,59 * 1,5 * 1,5 = 1,32 fps/Watt oder anders ausgedrückt die 7900 XTX dürfte maximal 68 Watt verbrauchen.

Daher gehe ich an dieser Stelle auch noch auf die drei ausgesuchten Spiele für die Detailbetrachtung ein.

Cyberpunkt 2077 - Ein Auf und Ab​

Cyberpunk ist in diesem Fall ein schönes Beispiel, was man erwarten kann. Im 72fps-Limit steigt der Verbrauch von 208 W auf 285 W - 37 % an - gleichzeitig aber auch die fps von 33,6 auf 71,6 (113 %). Die 5700 XT erreichte also 0,16 fps/Watt, die neue 7900 XTX 0,25 fps/Watt - die 7900 XTX ist also 59 % effizienter - immer noch weit weg von den theoretischen 125 %.

Nimmt man nun das Limit heraus oder wählt die maximalen Einstellungen, dreht sich das Bild bei der Effizienz zugunsten der 7900 XTX. Die 5700 XT erreicht 0,16 fps/Watt, die 7900 XTX 0,31 fps/Watt und ist damit 93 % effizienter, bei maximalen Einstellungen sind es 0,11 fps/Watt zu 0,21 fps/Watt - 90 %. Wir erreichen hier also fast die doppelte Effizienz, was ein guter Schritt zwischen zwei Generationen ist.

Tiny Tina - Irgendwo dazwischen​

Kommen wir zu Tiny Tina - ich mag sie seit Borderlands 2. Manchmal bin ich auch so drauf und will alles in die Luft sprengen. Sind wir nicht alle ein wenig Tina? (Haha, Bluna Werbung!). Hier ist das Bild ähnlich wie bei Cyberpunk und doch ist die Situation anders. Im limitierten Setting liegen beide Karten gleich auf - 72 fps - es stehen aber einmal 202 W und einmal nur 137 W auf der Uhr - 33 % weniger Energie - und die Effizienz steigt entsprechend an: 0,35 fps/Watt zu 0,52 fps/Watt (48 %). In diesem Spiel zeigt sich ein etwas andere Bild. Nimmt man das FPS-Limit heraus, kommt die 5700 XT au 0,51 fps/Watt, die 7900 XTX auf 0,61 und ist nur 20 % effizienter. Erst wenn man die Einstellungen maximiert, steigt die Effizienz wieder an: 0,30 fps/Watt zu 0,51 fps/Watt, was in 70 % resultiert.

Total War: WarHammer 3 - Pandis Augen werden immer größer.​

Die Überraschung bei der Effizienz ist - wie zu vor schon - Total War: WarHammer 3 und das ist kein Scherz. Um eines vorwegzunehmen: Bisher und auch jetzt wird für die Effizienzbetrachtung die durchschnittlichen fps herangezogen, hier gehe ich aber auch auf die 99.9 % - fps ein, denn hier wird es regelrecht Paradox!

Zuerst die Effizienzwerte für die durchschnittlichen fps: 0,21 fps/Watt gegen 0,38 fps/Watt resultieren in 80 % beim limitierten Setting. Nimmt man die Limitierung heraus, stehen 0,21 fps/Watt gegen 0,46 fps/Watt und die 7900 XTX ist nun 119 % effizienter - nahe am theoretischen Maximum. Die maximalen Einstellungen sind mit 0,19 fps/Watt zu 0,38 fps/Watt und einer Steigerung um 100 % bei der Effizienz gerade zu harmlos.

Gehen wir aber mal auf die 99.9 % fps ein - und nun das Extrem. Hier habe ich 0,07 fps/Watt mit der 5700 XT und die 7900 XT kommt auf 0,31 fps/Watt, das sind überragende 342 %, die die 7900 XTX effizienter arbeitet.

Am Ende entscheidet das Szenario​

AMD hat dieses Jahr in ihren Folien oft die Wörter "up to" verwendet, was so viel bedeutet wie "bis zu". Mancher in der Community haben das bereits als schlechtes Omen gewertet und damit hatten sie - in diesem speziellen Fall auch recht - bei Zen 4 hat es sich ja etwas anders verhalten.

Allgemein sind Angaben, egal ob mit "up to" oder gemittelt, mit einer gewissen Portion Vorsicht zu genießen und noch wichtiger ist, dass sich die Leser klar werden, dass die realen Ergebnisse um diese Werte streuen können. Ich habe in diesem Test absichtlich so einige Begleiter laufen lassen und auch 3 Testdurchläufe durchgeführt und die Werte gemittelt, weil sich jeder Lauf anders verhalten kann. Und so ist das auch mit der Effizienz und den Spielen.

Ich habe es bereits mit FF XIV angedeutet, dass der Verbrauch zwischen 72 fps und 90 fps nicht ansteigt, aber aus 11 % weniger Effizienz dann doch 11 % mehr werden können. Auch in Cyberpunk beobachte ich, dass das Spiel im Limit zwar effizienter wird, aber erst ohne Limit nähert man sich den 100 % an. Das ist auch verständlich und ich habe es eingangs erwähnt. Eine GPU benötigt, um zu schalten, eine gewisse Grundspannung, Bauteilgruppen lassen sich nur in Gruppen abschalten und nicht so fein, wie es manchmal notwendig wäre. Solche Faktoren spielen in die Effizienz mit rein und man merkt an dieser Stelle, dass gewisse Lasten einen gewissen minimalen Bedarf haben.

Die fps/W Werte sind im Anhang angefügt.

Temparaturen und der Hotspot​

Da hier eine XFX Radeon RX 7900 XTX Merc310 Black Edition arbeitet, kann in diesem Test keine allgemeingültige Aussage zu Problemen des Referenz-Designs von AMD abgeben werden. Die Merc 310 - siehe auch Computerbase-Test - hält die GPU in einem Fractal Define R6 auf relativ kühlen 62 °C, während der Hotspot sich zwischen 76 °C und 82 °C bewegt. Die 5700 XT davor wurde wärmer und zeigte auch mal 90 °C an.

110 °C als Hotspot konnte nicht gemessen werden und hier scheint ein Problem bei manchen Referenz-Designs zu herrschen. Mögliche Ursachen sind bereits vielfältig benannt, darunter auch geringe Abweichungen in der Höhe der Chiplets. Am Ende sollte sich allerdings jeder bewusst sein: Bei solchen Bauteilen kann man immer das Pech haben und ein Montagsmodell bekommen. Ich hatte auch schon Grafikkarten - egal ob NVIDIA oder AMD - die teilweise ungewöhnliches Verhalten an den Tag legten oder erst gar nicht starten wollten. Solche Sachen sind unschön, aber in diesem Fall ist mein Ratschlag relativ simpel: Schickt die Karte zurück oder lasst sie austauschen. Ihr müsst nicht mit einem schlechten Produkt euch zufriedengeben.

-- Erweiterung des Tests 30.12.2022 --

Ein kurzes Intermezzo – Wie teuer ist eigentlich RDNA 3​

Bevor wir uns den Ergebnissen der 7900 XTX in RT widmen, will ich aber erst einmal auf die möglichen Kosten einer 7900 XTX eingehen, besser des Chips. Natürlich kann ich die genauen Preise für Wafer von AMD und NVIDIA nicht kennen, daher sind die hier genannten Zahlen eher am oberen Ende verortet und nur eine grobe Orientierung.

Kommen wir zuerst zu den groben Zahlen – und in diesem Fall werden Dollar-Zahlen genommen, damit die Vergleichbarkeit gewahrt bleibt, denn der Wechselkurs kann hier die Bilder verfälschen: Ein 300 mm Wafer in der 5 nm - Klasse (N5, N4, 4N) kostet ca. 17.000 $, in der 7 nm - Klasse (N7, N6) werden 9.000 $ angesetzt. Natürlich unterliegen jetzt alle weiteren Zahlen gewissen Rundungsfehlern und sollten nicht zu ernstgenommen werden und dienen nur der Orientierung.

Für die weitere Einschätzung benötigen wir noch die Größe des GCD und der MCD: 306 mm² und 37 mm². Es gibt jetzt ein paar Wege, wie man an die maximalen Chips pro Wafer herankommt – das ganze habe ich einmal grob in einem Thema berechnet – oder man nutzt entsprechende Werkzeuge.

Bei dem GCD komme ich so auf ca. 185 Chips pro Wafer, bei einer Yield-Rate von ca. 90 % (die Zahlen schwanken bei den fatalen Fehlern zwischen 8 – 12 %) kommen so am Ende 166 Chips heraus. Bei 17.000 $ pro Wafer kostet das GCD 103 $. Beim MCD kommt man pro Wafer auf ca. 1650 Chips, mit den üblichen Yields sind das 1485 und damit – 9.000 $ - 6,10 $. Für Trägermaterial und Zusammenbau veranschlage ich pauschal 20 $ und komme auf 160 $. Für die 7900 XT sinken die Kosten um 12,20 $ und man landet bei 147,80 $.

Bei einer UVP von 999 $ für die 7900 XTX entfallen damit 16 % auf den Chip, bei der 7900 XT sind es etwas Höhere 16,5 %. Diese Zahlen sind ohne weiteren Kontext aber nicht so Aussagekräftig, wir müssen uns noch NVIDIA ansehen. AD102 ist 608 mm² groß und AD103 379 mm². NVIDIA bekommt auf einem Wafer ca. 91 Chips unter, davon sind 82 in der Regel funktionsfähig und ein Chip kostet NVIDIA 208 $. AD103 sind ca. 147 Chips auf dem Wafer, 132 kommen heraus und man landet 128 $. Die Relationen zu den UVPs: 13 % und 10 %.

AMD lässt an dieser Stelle ohne Frage „Marge“ liegen, gleichzeitig liegt AMD aber auch bei den Kosten genau zwischen AD102 und AD103. Zu bedenken ist, dass ich mit den 20 $ für den Zusammenbau sehr hochgreife, der Preisfaktor liegt hier vermutlich zwischen 140 – 160 $ und damit bei 14 – 16 % des UVP.

In der Community gibt es natürlich ein paar Stimmen, die schreiben, dass AMD mit dem Chiplet-Design nicht günstiger produziert, andere behaupten genau das Gegenteil. Beide Seiten haben sowohl recht als auch unrecht, denn es kommt auf die Rechenweise an und welche Daten man zugrunde legt.

Die Chipgröße für einen monolithischen Navi31 schwankt zwischen 384 mm² (unrealistisch, da der Cache als auch der Memory-Controller nicht so eng gepackt werden können) bis hinzu 476 mm² (realistischer). Navi31 würde damit ca. 165 $ kosten. Nimmt man die niedrigsten Produktionskosten von 140 $ an, spart AMD 18 %, bei den teuersten Kosten sind es nur 3 %, für die 7900 XT ändert sich das Bild aber, weil hier im günstigsten Fall 130 $ anstehen, im teuersten 150 $, hier also 26 % im besten Fall und 10 % im ungünstigsten Fall.

Es gibt hier aber auch andere Faktoren, die eine Rolle spielen können, so kann AMD auch weiterhin bereits bestellte N6/N7-Wafer abnehmen, ohne Vertragsstrafen zu zahlen. All das sind Faktoren, die wir nicht kennen. Wichtig ist aber, dass wir hier von großen Mengen sprechen, sodass hier auch Skaleneffekte auftreten und wir reden bei 1000 Einheiten schon von 5000 $, die AMD einspart. Zudem sollte man bedenkt: Diese Zahlen sind nur Annäherungen.

Jetzt kommen wir zu einem – für uns Spieler – unschönen Abschnitt und auch ich hatte ja die Hoffnung, dass AMD und NVIDIA einfach nur ihre Margen hochschrauben wollten, deswegen habe ich auch noch GP102 mir angesehen – GeForce GTX 1080 Ti. Für 10nm Wafer werden ca. 6000 $ genannt und der GP102 hatte damals 471 mm². NVIDIA zog damals ca. 117 Chips, davon 105 funktionierend, aus jedem Wafer und ein Chip kostete damit 58 $, nehmen wir die UVP von 699 $, machte der Chip davon gerade einmal 8 % aus. Sind die 1599 $ für die RTX 4090 viel Geld? Keine Frage, aber wenn man realisiert, dass AD102 heute ca. 13 % der UVP ausmacht, dann hat hier NVIDIA die Kostensteigerungen von N5 zum Teil auf die eigene Kappe genommen. Auch bei AD103 nimmt man ein Teil der Kosten auf die eigene Kappe, so wie es auch AMD tut.

An dieser Stelle sollte man vielleicht auch mal einen Blick auf TSMC werfen, die seit Jahrzehnten Gewinnmargen von 40 % – 50 % einfahren und auch entsprechende Dividenden an die Aktionäre ausschütten. Ob TSMC diese Marge für Investitionen benötigt, darüber kann man dabei wunderschön streiten, am Ende ist es aber die Buchhaltung, die Kosten für Investitionen über Jahre vom Umsatz abzieht.

Warum dieser Abschnitt? Weil ich es an dieser Stelle machen wollte, denn mir brennt die Frage nach den hohen Grafikkartenpreisen auch etwas auf der Seele, auch wenn ich hier die 7900 XTX gekauft habe. Schande über das Haupt von Pandi. Gehen wir auf das Thema RT ein:

Ray Tracing, der alte neue heiße Scheiß​

Zuerst möchte ich an dieser Stelle ein wenig auf Ray Tracing eingehen – ohne Bilder oder Diagramme, ich versuche mich kurzzufassen – ob ich das schaffe?

Ray Tracing – grob umrissen – beschreibt eine mögliche Form der Bildsynthese, die andere Form kennen wir heute als Rasterisation, der Standard, der sich in den 90er bei Computerspielen durchgesetzt hat. Beide Verfahren unterscheiden sich in ihrer Ausführung, gleichzeitig haben sie aber eine Gemeinsamkeit: Die Kamera, die eine gewisse Auflösung hat, danach unterscheiden sich aber die Verfahren grundlegend.

Bei der Rasterisation ist die Kamer ein Pixelraster und Polygone werden mit anhand ihrer Koordinaten von X und Y ermittelt. Dann wird der Farbwert ermittelt und im Bild gespeichert. Bei vielen Polygonen kann es dabei schnell unübersichtlich werden und bei Objekten im 3d-Raum wäre es ein Kuddelmuddel, weswegen es den Z-Buffer gibt, der dabei hilft zu ermitteln, welches Polygone denn diesen Kampf gewinnt. Früher wurden daher auch oft alle Polygone im Bild gerastert, selbst wenn diese eigentlich nicht sichtbar sind, ein Umstand den sich Power VR damals mit der Kyro annahm und einen Tiled-Based-Renderer entwickelte, ein Bild in kleine Kacheln zerlegte. Diese Form der Grafiksynthese ist schnell und effizient und sorgte auch für den Durchbruch der 3d-Grafik.

Ein Ray Tracer arbeitet anders. Hier wird kein Raster über eine Szene gelegt und einfach anhand der Koordinaten bestimmt ob da etwas sein müsste, sondern für jeden Bildpunkt der Kamera wird ein oder mehrere Strahlen ausgesendet und geprüft, ob diese im Raum auf ein Objekt treffen. Ist das der Fall, wird der Strahl geschluckt und wird „zurück“ geworfen mit den entsprechenden Farbwerten für diesen Bildpunkt.

Ray Tracing ist dabei nicht gleich Ray Tracing. Allen Ray Tracern gemein ist, dass sie mit Strahlen arbeiten – deswegen kann man frühe 3d-Engines wie Wolfenstein 3D, Doom und Doom 2 (war nicht mehr Ray Casting, aber doch ein bisschen. Mir explodiert der Kopf!), auch zu den Ray Tracern zählen. Diese Ray Tracer werden oft als Ray Caster bezeichnet und sind damit die einfachste Form. Diese einfache Form der Ray Tracer kann nur eben einen Farbwert übermitteln und keine Beleuchtungsdaten oder keine Schattendaten. Dafür ist deutlich mehr notwendig und genau hier setzte sich dann die Rasterisation durch, die mittels Shadow- und Lightmaps einen sehr einfachen Weg bieten, die Beleuchtung und Schatten zu simulieren. Bei Ray Tracern ist mehr notwendig, womit die Rechenleistung schnell ansteigt.

Um Schatten und Beleuchtung zu berechnen, müssen weitere Strahlen abgesetzt werden, dieses Mal aber nicht von der Kamera aus, sondern von dem Punkt aus, an dem unser Strahl der Kamer auftritt. Um Schatten zu berechnen, muss man von der Stelle einen Strahl absetzen, der zur nächsten Lichtquelle geht. Trifft dieser Strahl auf dem Weg zur Lichtquelle auf ein Objekt – wird also blockiert – weiß man, dass hier ein Schatten vorliegt und entsprechend kann man diese Stelle abdunkeln. Es kann nun dank der Schattenstrahlen direkte Lichtquellen und eben Schatten berechnet werden.

Wir haben also jetzt den direkten Strahl der Kamera und einen Licht- bzw. Schattenstrahl und damit einen primären und sekundären Strahl. In einem nächsten Schritt kann von der Stelle, in der unser Strahl verschluckt wurde, noch einen weiteren Primärstrahl abgesetzt werden, sofern eine Oberfläche als „Spiegelnd“ deklariert wird. Wir berechnen jetzt Reflexionen. Physikalisch nach dem Eintritt ist gleich Austritt, sucht dieser Strahl ein Objekt. Ist ein Objekt gefunden, folgt von dort ein neuer Sekundärstrahl zur Lichtquelle und vielleicht ein neuer Primärstrahl. Das Absenden von weiteren Primärstrahlen nennt man auch Rekursives Ray Tracing. Wir haben jetzt einen Ray Tracer, der bereits direkte Beleuchtung und Reflexionen berechnen kann und ihr ahnt wohl, worauf es hinausläuft: Je mehr Effekte man umsetzten will, umso mehr primäre und sekundäre Strahlen werden benötigt.

Um den Arbeitsaufwand „überschaubar“ zu halten und doch möglichst alle Effekte zu erlangen – direkte und indirekte Beleuchtung, gerichtete und diffuse Reflexionen, harte und weiche Schatten, Umgebungsverdeckung und Co – haben findige Entwickler in den 80er das Path Tracing entwickelt. Hier kommen Techniken aus der Stochastik – genauer die Monte-Carlo-Simulation – zum Einsatz , womit die Anzahl an Strahlen drastisch reduziert wird. Um nämlich alle Effekte zu berechnen, muss man bei einem Ray Tracer nicht nur einen sekundären Strahl zur jeder Lichtquelle absetzen, sondern zu jedem Objekt in der Umgebung und von dort dann wieder zur jeder Lichtquelle. Erst dann wird die Beleuchtung und alle Reflexionen richtig dargestellt. Um hier Strahlen zu sparen, wird ein Zufallsprinzip eingeführt und es wird beim Auftreffen des primären Strahles entschieden, ob überhaupt Sekundärstrahlen abgesetzt werden und auch wie viele. Das führt am Ende dazu, dass man ein Bild mit einem starken Rauschen bekommt, dass dann mit einem Denoiser entfernt wird.

20221230130518_1.jpg20221230130529_1.jpg

Path Tracer mit der Monte-Carlo-Simulation sind also die aktuellste Ausbaustufe der Ray Tracer und wenn wir heute von Ray Tracing sprechen, meinen wir eben einen Path Tracer. Und für die unter euch, die gerne behaupten, dass Path Tracer ja kein echtes Ray Tracer wäre oder nur eine Schmalspurlösung: Nein, einfach nur NEIN!

Welche Spiele im RayTracing Test und warum?​

Um die Leistung der 7900 XTX in RayTracing zu testen, habe ich mich für Cyberpunk, Doom Eternal, Metro Exodus und Quake 2 RTX entschieden. Cyberpunk bietet – neben Metro Exodus Enhanced Edition – eine der besten aktuellen RT-Integrationen und auch eine der vollständigsten. Doom Eternal wiederum gewinnt durch RT auch an Grafikqualität, aber im weiten nicht so wie die anderen beiden Spiele.

Für Quake 2 RTX habe ich mich entschieden, weil dieses Spiel – neben Minecraft RTX – das einzige wirkliche Path Tracer Spiel aktuell auf dem Markt ist. Die RT-Implementierungen in allen anderen Spielen folgt einem Hybrid-Ansatz, der zum Teil auch Leistung brach liegen lässt. So kostet RT in Spielen wie Cyberpunk, Metro und Co oft mehr Leistung, als notwendig wäre, weil Effekte teils doppelt berechnet werden. In Quake 2 RTX und Minecraft RTX ist das nicht der Fall.

Warum aber dann kein Minecraft RTX? Weil Minecraft von der ganzen Engine her einfach nur unglaublich schlecht ist, auch wenn ich Minecraft als Spiel liebe.

Die 7900 XTX und RayTracing – Für jetzt reicht die Leistung​


Machen wir es kurz: Wer sich eine 7900 XTX gekauft hat oder kaufen will, kann in den meisten Spielen bedenkenlos RT aktivieren, in der Regel bleibt die Framerate spielbar, wobei aber jeder selbst entscheiden muss, was spielbar ist.

RTFps.pngRTFSR.png

In Cyberpunk erreicht die 7900 XTX – ohne FSR – 36,4 fps im Durchschnitt und die 99.9 % liegen bei 25,4. Das ist nicht viel, man muss aber dazu schreiben, dass Cyberpunk auf der 7900 XTX – genauso wie auf der 5700 XT – auch mit RT-Effekt sehr sauber läuft und sich die 25,4 – 36,4 fps sehr gleichmäßig anfühlen. Gegenüber dem Max-Out büßt Cyberpunk mit allen RT-Effekten (maximiert) ca. 55 % ein (80,3 fps). Aktiviert man FSR2, erreicht die 7900 XTX 61,8 fps – (-23 %). FSR 2 wurde dabei in Qualität verwendet. Der Bildeindruck ist während des Spieles gleichwertig.

Der zweite Titel ist Doom Eternal, hier erreicht die 7900 XTX in 1440p 234,3 fps. Da hier eine andere Testszene verwendet wurde – mit wesentlich mehr Lichteffekten und Spiegelungen – ist ein direkter Vergleich mit den ursprünglichen Ergebnissen ist nicht möglich. Ich habe die gleiche Szene aber auch ohne RT vermessen und komme auf 370,4 fps und damit büßt die 7900 XTX hier knapp 37 % ein.
20221230133050_1.jpg20221230133231_1.jpg

Kommen wir – Metro Exodus spare ich mir an der Stelle, dazu sind die Grafiken da – zu Quake 2 RTX. Hier erreicht die 7900 XTX bei allen möglichen Effekten 68,0 fps und bei den 99.9 % 55,4 und ist gut spielbar.

20221230102900_1.jpg20221230102913_1.jpg20221230103237_1.jpg20221230103250_1.jpg20221230103432_1.jpg20221230103506_1.jpg
Mit FSR 1 erhöhen sich die FPS auf 123,2 und 76,0, was auch gut ist. Und der Sprung bei der Grafik ist gewaltig, wenn man mal Texturen und Modelle nicht beachtet.

Lautstärke und Verbrauch​

Als vorletzter Abschnitt dieses Tests: Die Lautstärke habe ich natürlich jetzt auch ermittelt und kann sagen, dass die Merc 310 eine kleine Radaumacherin ist, aber im Vergleich zur Thicc 2 sehr leise agiert.

Unter voller Last in Cyberpunk – Gehäuse offen – erreicht die Merc 310 39 dB(A), ist das Gehäuse geschlossen sind es 35 – 36 dB(A). Hat die Grafikkarte nichts zu tun, geht sie im restlichen vollkommen unter, dass mit 29 – 31 dB(A) vor sich hinarbeitet.

Kommen wir zu den Verbräuchen: Bei einem „ruhendem“ Desktop benötigt die Merc zwischen 18 – 27 W, das Mittel liegt bei 22 W. Hier muss man bedenken, dass Discord und Co natürlich kleinere Spitzen erzeugen. Bei YouTube (4k, 60 FPS) liegt der Verbrauch zwischen 38 – 55 W (46 W im Mittel). Immer noch nicht gut, aber auch nicht mehr SO katastrophal wie zu Anfang.

Bei einem aktiven Desktop liegt der Verbrauch der Grafikkarte zwischen 25 W – 45 W, im Mittel bei ca. 35 W. Getestet wurden die Verbräuche mit dem Treiber 22.12.2.

Abschließendes Fazit und Ausblick auf Phase 5​

Kommen wir nach nun gut 2 Wochen des Testens zu einem vorläufigen Fazit zur 7900 XTX: Es hat sich für mich aktuell nicht viel geändert und wenn man die Ausgangsbasis – die 5700 XT – nimmt, dann bin ich von der 7900 XTX begeistert. Gleichzeitig bin ich mir aber der Schwächen der Karte bewusst und habe diese auch bewusst in Kauf genommen. Ich finde das Chiplet-Design toll und genauso spannend für mich ist der Umbau der Compute Units und genau da liegt auch für mich der Kaufgrund. Ich bin ein Spielpandi und liebe Technik und für mich liefert AMD mit RDNA 3 die interessantere Technik ab.

Die 7900 XTX ist jedoch durch und durch eine unvernünftige Spielkameradin. Sie benötigt bis zu 390 W – was echt viel ist. Sie ist auch nicht die effizienteste Karte. Bei Rasterisation kann die 7900 XTX mit der RTX 4080 mithalten und bei modernen Spielen auch manchmal in Schlagdistanz zur RTX 4090 kommen, in Ray Tracing ist sie allerdings unterlegen. Man merkt auch an vielen Ecken und Enden, dass weder die Treiber, an manchen Stellen aber auch die Partnerkarten noch nicht so ganz im Einklang sind und an diesen Stellen noch gearbeitet werden muss. Auch der Shader-Compiler ist noch eine Baustelle.

Wer – aktuell – die schnellste Karte, egal in welchen Lebenslagen haben will, greift zur RTX 4090, an dieser führt kein Weg vorbei. Wer eine klasse Tiefer schaut und wenn RT wichtig ist, sollte der Griff zur RTX 4080 gehen. Wer die effizienteste Karte haben will, greift auch zur RTX 4080 oder RTX 4090.

Für wen ist die 7900 XTX also empfehlenswert? Nun, eigentlich für alle – wenn wir ehrlich sind. Klar, man muss schon ein wenig verrückt sein, man muss auch gewisse Schwächen akzeptieren, aber wie in der vorherigen Generation, man macht weder mit AMD noch mit NVIDIA viel falsch, vor allem wenn man von einer älteren Karte kommt. Gleichzeitig muss man aber auch schreiben: Im Gegensatz zu mir solltet ihr noch 2 – 3 Monate warten, bis viele der kleinen Fehler und Probleme behoben sind und AMD auch weiter am Treiber und Shadercompiler arbeiten konnte.

Benötigt ihr jetzt eine schnelle Karte, dann kauft die RTX 4080, denn diese ist aktuell das rundere Produkt!

Und was mache ich jetzt? Ich plane die Phase 5 und bereite den nächsten Test vor, dann geht es um PCIe3 und PCIe4 bei der 7900 XTX und wie viel Leistung wohl brach liegt durch PCIe3. Freut euch, der Test ist für den Sommer während meines Jahresurlaubes geplant.

P.S. Das Shader Prefetching scheint wohl zu funktionieren!

Anhang - Absolute Werte​

Zusammenfassung​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi63,941,0163 W71,850,3154 W
DevPandi - No Limit114,460,5203 W240,5116,0339 W
Max-Out99,255,0204 W211,7112,4347 W

Black Mesa​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,762,3134 W71,760,990 W
DevPandi - No Limit280,7153,5213 W294,7185,9218 W
Max-Out280,7153,5213 W294,7185,9218 W

Cyberpunk​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi33,620,4208 W71,649,3285 W
DevPandi - No Limit33,620,4208 W110,752,2356 W
Max-Out23,315,4216 W80,346,1385 W

Tiny Tina​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,731,5202 W71,934,7137 W
DevPandi - No Limit110,159,7216 W237,786,9388 W
Max-Out64,945,7215 W197,375,9347 W

WarHammer 40k: DarkTide​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi58,231,9208 W71,858,4148 W
DevPandi - No Limit58,231,9208 W163,686,7387 W
Max-Out30,324,1211 W102,264,7390 W

Diablo 2 Resurrected​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,334,5189 W72,036,1188 W
DevPandi - No Limit80,834,2207 W234,293,4385 W
Max-Out74,130201 W243,3120387 W
*Ja, die Zahlen stimmen so, mich hat das selbst verwundert, warum Max-Out schneller läuft auf der 7900 XTX.

Final Fantasy 14​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,959,9122 W7266,4136 W
DevPandi - No Limit127,768,1208 W315,6191,5375 W
Max-Out127,768,1208 W315,6191,5375 W

Total War: WarHammer 3​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi37,812,7182 W71,757,3187 W
DevPandi - No Limit37,812,7182 W177,5108,5388 W
Max-Out35,114,3183 W145,892,7388 W

World of WarCraft​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,624,5133 W71,723,0134 W
DevPandi - No Limit127,033,2199 W253,650,6245 W
Max-Out87,724,2191 W142,831,6294 W

Doom Eternal​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi72,053,9129 W72,067,4121 W
DevPandi - No Limit136,384,0190 W423,6214,8387 W
Max-Out117,772,6193 W410,8226,1389 W

Doom (2016)​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi72,061,2113 W7258,9118 W
DevPandi - No Limit176,4118,3208 W199,6119,0209 W
Max-Out176,4118,3208 W199,6119,0209 W

Metro Exodus​

ModusAvg. (5700 XT)99.9 (5700 XT)Verbrauch (5700 XT)Avg. (7900 XTX)99.9 (7900 XTX)Verbrauch (7900 XTX)
DevPandi71,458,7176 W71,840,7148 W
DevPandi - No Limit90,049,0199 W234,786,1387 W
Max-Out73,639,1206 W195,982,8387 W

Anhang 2 - RayTracing​

SpielAvg. FPS99.9 %Avg. FPS (FSR)99.9 % (FSR)
Quake 2 RTX68,055,4123,276
Cyberpunk 207736,425,461,836,8
Doom Eternal234,3140,9--
Metro Exodus Extended89,034,1--

Anhang 3 - FPS/Watt​

Zusammenfassung​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,390,470,250,33
DevPandi - No Limit0,560,710,300,34
Max-Out0,490,610,270,32

Black Mesa​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,530,800,460,68
DevPandi - No Limit1,321,350,720,85
Max-Out1,321,350,720,85

Cyberpunk 2077​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,160,250,100,17
DevPandi - No Limit0,160,310,160,15
Max-Out0,110,210,070,12

Tiny Tina​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,350,520,160,25
DevPandi - No Limit0,510,610,280,22
Max-Out0,300,510,210,19

WarHammer 40K: Dark Tide​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,280,480,150,39
DevPandi - No Limit0,280,420,150,22
Max-Out0,140,260,110,17

Diablo 2: Ressurrected​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,380,380,180,19
DevPandi - No Limit0,390,610,170,24
Max-Out0,370,150,630,31

Final Fantasy 14​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,590,530,490,49
DevPandi - No Limit0,610,840,330,51
Max-Out0,610,840,330,51

Total War: WarHammer 3​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,210,380,070,31
DevPandi - No Limit0,210,460,070,28
Max-Out0,190,380,080,24

World of WarCraft​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,540,530,180,17
DevPandi - No Limit0,640,171,040,21
Max-Out0,460,490,130,11

Doom Eternal​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,560,590,460,56
DevPandi - No Limit0,721,090,440,56
Max-Out0,611,060,380,58

Doom 2016​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,640,610,540,50
DevPandi - No Limit0,850,960,570,57
Max-Out0,850,960,570,57

Metro Exodus​

ModusAvg. (5700 XT)Avg. (7900 XTX)99.9 (5700 XT)99.9 (7900 XTX)
DevPandi0,400,490,330,28
DevPandi - No Limit0,450,610,250,22
Max-Out0,360,510,190,21
 

Anhänge

  • IMG_0399.jpg
    IMG_0399.jpg
    470,7 KB · Aufrufe: 1.010
  • IMG_0400.jpg
    IMG_0400.jpg
    558,2 KB · Aufrufe: 937
  • IMG_0401.jpg
    IMG_0401.jpg
    588,6 KB · Aufrufe: 1.057
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kolege, Midgarder, Orok91 und 198 andere
andi_sco schrieb:
Der Tiled-Based Renderer sollte unabhängig vom vorgezogenen Z-Buffer Test sein, oder nicht?
Erst mal noch als Klarstellung: Ich habe an dieser Stelle wirklich stark vereinfacht beschrieben, sonst hätte es den Artikel gesprengt.

Prinzipiell gibt es zwei Wege:
  1. Polygone rendern -> z-Buffer Test
  2. z-Buffer Test -> Rendern
Mit einem Tiled-Renderer kannst du prinzipiell mehrere Wege gehen:
  1. z-Buffer Test -> In Kacheln zerlegen -> Polygone Rendern
  2. In Kacheln zerlegen -> z-Buffer Test -> Polygone Rendern
  3. In Kacheln zerlegen -> Polygone Rendern -> z-Buffer Test.
Das geht aber dann etwas zu weit in die Grundlagen.
Ergänzung ()

Asghan schrieb:
ch habe nur einen einzigen Kritikpunkt: Pack doch bitte an die vertikale Achse deiner Grafiken eine Einheit (Schule lässt grüßen :D).
Muss mich noch in das Programm reinfuchsen, bisher nutz ich eher ads aus Libre-Office, MS Word und Excel.

Gnagh - So simple ... darauf muss man mal kommen, da hat man natürlich ein Brett vor dem Kopf! Grafiken werden noch mal geupdatet. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, floTTes, Rockstar85 und 4 andere
  • Gefällt mir
Reaktionen: SVΞN
PuppetMaster schrieb:
(Kleine Anmerkung zur heutigen Ergänzung: Nur Wolfenstein 3D war ein Raycaster, ab Doom nutzte id dann
Danke für die Info, ich hatte noch im Kopf, dass das in Doom auch noch Ray Casting im Einsatz war. Wenn man dann jetzt etwas weiter liest, ist aber doch ein wenig Ray Casting in Doom, aber für etwas anderes. Das sprengt einem den Kopf.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, floTTes, latexdoll und 2 andere
DevPandi schrieb:

Die 7900 XTX ist jedoch durch und durch eine unvernünftige Spielkameradin. Sie benötigt bis zu 390 W – was echt viel ist. Sie ist auch nicht die effizienteste Karte.
Hast du mal das PT reduziert, und mal geschaut wie weit sie außerhalb von ihrem "sweet spot" läuft?
der8auer hatte das ja bei seinem Review der 4090 gemacht, so eine Kurve vermisse ich, bzw. habe das so noch nirgendwo im Netz finden können.

Finde die Karte zur UVP eigentlich noch recht interessant, und so schwierig da eine beim AMD Drop zu bekommen ist es eigentlich nicht. Der Kühler ist nur leider etwas unterdimensioniert, hatte schon mit dem Gedanken gespielt mir nen Aufsatz für 2x140er im 3D-Drucker zu machen und das mal zu testen. Aber das Spulenfiepen...hab da net schon wieder Lust auf die ganze retourerei...
 
Robo-Man schrieb:
Hast du mal das PT reduziert, und mal geschaut wie weit sie außerhalb von ihrem "sweet spot" läuft?
Das geht per Wattman aktuell "nur" bis maximal -10%, lässt sich also ausrechnen. Im 3DCenter haben das einige Leute schon verifiziert.

Zugriff auf die einzelnen Spannungspunkte der Powerstages gibt es bisher ebensowenig per Wattman (nach meinem Verständnis wird nur die vorgegebene Spannung der höchsten Stufe als Referenzpunkt übernommen und der Rest auf Basis der im BIOS hinterlegten "tables" abgeleitet).

Die "Hoffnung" auf "mehr" Sweetspot liegt aktuell auf dem entsprechenden, noch ausstehenden Support durch das Moar Power Tool.

@DevPandi
Ich will mich nicht zu oft wiederholen, dennoch: Einfach top. Vor allem abseits des Testspaßes frei von jedweder "Erregung" in den Formulierungen!

Hoffentlich fällt Dein kommender Jahresurlaub nicht in eine Hitzewelle. :D
 
Zuletzt bearbeitet: (Ergänzung)
  • Gefällt mir
Reaktionen: Tanzmusikus, latexdoll und Volvo480
ComputerJunge schrieb:
Die "Hoffnung" auf "mehr" Sweetspot liegt aktuell auf dem entsprechenden, noch ausstehenden Support durch das Moar Power Tool.
Dazu kommt auch - was ich im Fazit erwähne, dass der Treiber mit manchen Customs noch nicht perfekt zusammen arbeitet usw. Da wird man aktuell etwas abwarten müssen, was kommt.
Deswegen ist auch für alle, "sorgenfrei" sein wollen, entweder eine GeForce oder Warten angesagt.
 
  • Gefällt mir
Reaktionen: floTTes, latexdoll, Asghan und eine weitere Person
DevPandi schrieb:
Da wird man aktuell etwas abwarten müssen, was kommt.
Diese Ungereimtheiten habe ich bei AMD natürlich niemals lieben gelernt, ein paar durften sie sich als "David" aber immer erlauben. Und auch bei den "Anderen" soll so etwas zum Start ja hin und wieder vorkommen.

Ich "hoffe" ja noch, dass die Effizienz auch über einen optimierten ShaderCompiler merklich verbessert werden kann.

Ich habe mich noch nicht entschieden, neige aber aktuell zu nVidia.
 
  • Gefällt mir
Reaktionen: Volvo480
ComputerJunge schrieb:
Das geht per Wattman aktuell "nur" bis maximal -10%, lässt sich also ausrechnen. Im 3DCenter haben das einige Leute schon verifiziert.
Ahja, ok, also alles verrammelt und verriegelt.
Net das es am Ende so wie mit dem 5800x3d ist, da kann man ja auhc heute null machen.

Man kauft halt aktuell einfach die Katze im Sack...

Da hat man zwei Jahre auf rdna 3 gewartet, und dann so ne Enttäuschung.
Hätte ich das gewusst hätte ich mir damals ne 3080 founders gekauft und wäre seit zwei Jahren glücklich.

Langsam hat man halt die Schnauze vom Warten voll, und man will jetzt zocken.

Von daher finde ich es auch super, wenn man wie pandi sich für sein Hobby mal was leistet. Da nerven dann die ganzen Marktschreier mit ihrer "unterstützt keine hohen Preise" Politik dann doch etwas. Gibt halt immer zwei Seiten auf so einer Medaille.
 
  • Gefällt mir
Reaktionen: Asghan
Robo-Man schrieb:
Net das es am Ende so wie mit dem 5800x3d ist, da kann man ja auhc heute null machen.
Ich denke, diese Restriktion hat(te) andere Gründe: Da es sich um Pioniertechnologie im ersten richtigen "Breiteneinsatz" handelt, ging man ausnahmslos auf "Nummer Sicher".

Ich kann das nicht nur nachvollziehen, ich hätte als verantwortlicher Produktmanager genau die gleiche "harte" Anforderung formuliert. Das Risiko, sich durch "falsch verstandene Kundenfreundlichkeit" einen sehr nachhaltigen Hardware-"Tweak" bereits bei Markteinführung "kaputt" zu machen, ist ja heutzutage ein reales. Es reichen dazu ein paar YouTuber mit Reichweite und das "Desaster" könnte seinen Lauf nehmen.

Auch im Rückblick war das richtig. Die CPU ist ein Erfolg (ich kaufe auch noch eine) - und zwar ein solcher, dass viele sogar mit der Aufrüstung auf Zen4 warten, bis die Varianten mit 3d-Cache erscheinen. Aus Sicht von AMD hat dieser Erfolg - natürlich nicht alleine - sogar den Start der AM5-Plattform ein bisschen "versaut".
Dennoch hat AMD nun für eine gewisse Zeit diesbezüglich einen Vorsprung dadurch, dass man pro Architektur-Generation einen zusätzlichen Hebel für eine weitere Leistungsklasse hat.

Ja, auch ich habe mir vom ersten Ansatz mit GPU-Chiplets mehr versprochen - gerade beim Umsatz der elektrischen Energie. Aber AMD wird daraus lernen - bei Zen hat es auch funktioniert, und mittlerweile sind auch mehr Mittel vorhanden.
 
  • Gefällt mir
Reaktionen: Volvo480 und andi_sco
Ganz gleich ob man mit AMD oder Nvidia respektive deren Grafikkarten sympathisiert und ungeachtet ob man AMDs Ansatz interessant findet oder nicht…

Wenn AMD preislich in dieser Liga mitspielen will (das Potential ist da), dann müssen sie ihre Hausaufgaben machen.

Stand jetzt müssten die Preise etwas runter.
 
  • Gefällt mir
Reaktionen: msv, Asghan und Czk666
DevPandi schrieb:
Die Chipgröße für einen monolithischen Navi31 schwankt zwischen 384 mm² (unrealistisch, da der Cache als auch der Memory-Controller nicht so eng gepackt werden können) bis hinzu 476 mm² (realistischer). Navi31 würde damit ca. 165 $ kosten. Nimmt man die niedrigsten Produktionskosten von 140 $ an, spart AMD 18 %, bei den teuersten Kosten sind es nur 3 %, für die 7900 XT ändert sich das Bild aber, weil hier im günstigsten Fall 130 $ anstehen, im teuersten 150 $, hier also 26 % im besten Fall und 10 % im ungünstigsten Fall.

Jetzt müsste man gegen die Ersparrniss noch den Leistungsverlust durch das Chipletdesign rechnen, den man kan nun auch weniger für die Grafikkarte verlangen. Das heißt, wie viel schneller wäre ein monolitischer 476mm² Chip von AMD, der den Infinity Fabric Takt nicht dermaßen anheben müsste um die erhöhte Latenz durch das Chipldesign zu eliminieren (Efffizienz=>Max Performance bei begrenzter TDP). Am Ende kostet AMD das Chipletdesign nur Geld in dieser Generation. Vielleicht wird es in Zukunft besser, aber aktuell hat man durch das Chipledesign auser Erfahrung und Einsparrung bei 5nm-Kapazitäten bei TSMC nichts gewonnen.
 
SVΞN schrieb:
Ganz gleich ob man mit AMD oder Nvidia respektive deren Grafikkarten sympathisiert und ungeachtet ob man AMDs Ansatz interessant findet oder nicht…

Wenn AMD preislich in dieser Liga mitspielen will (das Potential ist da), dann müssen sie ihre Hausaufgaben machen.

Stand jetzt müssten die Preise etwas runter.
Naja, nach den HD 7k sind sie ausschließlich über den Preis gekommen. Ich kann schon verstehen, dass sie zum einen ihren Ruf als "Billo-Anbieter" aufpolieren wollen und zum anderen eben auch nichts zu verschenken haben. Dennoch sieht es seit der letzten Generation stark nach Austarieren aus, frei nach dem Motto, was sich der Marktführer leistet (und bisher offenbar ja gut damit durchkommt) lassen wir uns auch nicht nehmen.

Respekt @DevPandi, ich fand den Artikel schon vorher gut, jetzt finde ich in phänomenal! Vielen Dank für deine Arbeit!
 
Wie kommst du eigentlich auf die yield rates?
Ist es nicht ein wenig "Milch Mädchen rechnen", wenn man davon ausgeht das die yield bei Nvidia und amd gleich ist?

AMD nutzt die ausgereifter Technologie, und nvidia hat noch dazu riesige Chip großen, bei denen die yield normal niedriger sein müsste als bei AMD.

Ich weiß das es nur etwas veranschaulichen soll, aber trotzdem, wenn man mit Zahlen rechnet sollte man aufpassen.

Noch dazu liest sich das wie ein "freischein" für die höheren Kosten. Ich meine der sprung von 3080 auf 4080 sind +70% auf die uvp!
Das kann man imho durch nichts rechtfertigen.

Ich glaube bei noch keinem generationssprung wurde das Leistung/kosten Verhältnis linear weiter geführt. Man hat immer mehr für weniger bekommen.

Für Aktionäre ist das natürlich super, für Verbraucher halt nicht
 
  • Gefällt mir
Reaktionen: b|ank0r
Robo-Man schrieb:
Ist es nicht ein wenig "Milch Mädchen rechnen", wenn man davon ausgeht das die yield bei Nvidia und amd gleich ist?
Die Yield-Rate wird vom Produzenten angeben, TSMC selbst gibt aktuell sogar an, dass N5 teilweise sogar bessere Yields erreicht, als N7.

Die Angaben schwanken zwischen 9 - 11 % bei den Chips, deswegen auch 10 %.
Robo-Man schrieb:
AMD nutzt die ausgereifter Technologie, und nvidia hat noch dazu riesige Chip großen, bei denen die yield normal niedriger sein müsste als bei AMD.
Nur das N5 und N4 ja bereits seit einiger Zeit genutzt werden. Seit 2020 werden entsprechende Chips produziert und auch davon sehr große, ich sage nur M1 Pro.
Robo-Man schrieb:
Das kann man imho durch nichts rechtfertigen.
Dann würde ich dir ja mal vorschlagen, den ganzen Abschnitt zu lesen. Es geht in diesem Abschnitt darum, dass NVIDIA und AMD, wenn sie gewisse Grundmargen halten wollen, überhaupt keine Wahl haben, höhere Preise auszurufen, weil TSMC ordentlich die Preise angezogen hat und auch jetzt ordentlich anzieht.

Es ist immer leicht hier auf AMD und NVIDIA zu schimpfen und wie böse diese Firmen sind, statt dass man sich mal ansatzweise mit der Thematik befasst. Die Preise für Halbleiter ziehen an - TSMC - auch andere Bauteile und Co werden teurer und jeder knabbert an der Marge von den Herstellern.

AMD, NVIDIA und Intel ziehen die Preise nicht unbedingt an, weil sie "gierig" sind, sondern weil hier eine ganze Kette an Firmen auch gierig sind. Statt also, wie am Stammtisch, platt AMD und NVIDIA anzugreifen, sollte man den ganzen Komplex hinterfragen.
 
  • Gefällt mir
Reaktionen: floTTes und PuppetMaster
DevPandi schrieb:
NVIDIA zog damals ca. 117 Chips, davon 105 funktionierend, aus jedem Wafer und ein Chip kostete damit 58 $, nehmen wir die UVP von 699 $, machte der Chip davon gerade einmal 8 % aus. Sind die 1599 $ für die RTX 4090 viel Geld? Keine Frage, aber wenn man realisiert, dass AD102 heute ca. 13 % der UVP ausmacht, dann hat hier NVIDIA die Kostensteigerungen von N5 zum Teil auf die eigene Kappe genommen.
Sehe ich etwas anders. Der Chip alleine ergibt keine Grafikkarte, dieser ist nur ein Teil des ganzen Aufwandes.
UVP - Chip = für die restliche Grafikkarte, Entwicklung, Logistik, Gewinn...
0699 - 058 = 0641 $
1599 - 208 = 1391 $ -> 1391 - 641 = 750 $ extra Einnahmen

Selbst wenn alles andere inzwischen um 50% mehr kosten sollte.
1391 - 641 x 1,5 = 430 $ extra pro einzelner Grafikkarte, nix mit geringerer Marge

Oder, alte Kosten (+50%) + neuer Chip = mögliche UVP
641 + 208 = 849 $
641 x 1,5 + 208 = 1170 $

Nur weil die Chips deutlich mehr kosten, wird der Rest nicht auch im selben Ausmaß teurer.
 
  • Gefällt mir
Reaktionen: Convert, Robo-Man und b|ank0r
HageBen schrieb:
Nur weil die Chips deutlich mehr kosten, wird der Rest nicht auch im selben Ausmaß teurer.
This...

Das was du da vorrechnest Pandi ist eben nur ein Bruchteil, und selbst ob der stimmt ist unklar.
Ich finde es toll das du die Infos so zusammengetragen hast, und ich weiß natürlich auch das TSMC die Preise angezogen hat, und glaub auch das eine Erhöhung der UVP unausweichlich war um die Marge zu halten.
Aber 70%?
Deine Rechnung zeigt schön das die Preise für die Chips gestiegen sind, und der Anteil am Gesamtpreis eventuell sogar gefallen ist.

Du hast so nen schönen Artikel geschrieben Pandi, mit fachlich fundierten Aussagen.
Mehr als ein "solides raten" ist das deine Rechnung aber dann nicht. Und ich sag halt einfach mal es ist Gier von beiden die UVP so hoch zu setzten. Weder meine noch deine Aussage lässt sich wirklich fundamental beweisen.
 
Paar nette Punkte, doch größtenteils liest sich der Artikel sehr laienhaft und lapidar formuliert. Der Effizienzvergleich mit fps/watt war noch aufschlussreich, wenn man auch hier die Anschaffungskosten der neuen GPU mit einberrechnen müsste. Ansonsten macht eine Watt-Betrachtung, welche ja lediglich für den Stromverbrauch interessant ist, wenig Sinn? Da könnte man jetzt bspw. die Spieldauer pro Jahr überschlagen und dann prognostizieren wann man die 7900 XTX ersetzt bzw. wie lange man die 5700 XT genutzt hat.

Das ist aber natürlich schon sehr viel erwartet von einem Leserartikel, generell emfinde ich das Thema Nachhaltigkeit und Gaming hier auf CB als strengstens vernachlässigt.

Der Part über Ray Tracing war für mich recht interessant, wobei ich hier erwartet hätte eine Gegenüberstellung von Rasterization und RT als Grafiklösung zu finden. Macht RT als Technik für Videospiele überhaupt Sinn? (hier braucht man nur mal auf die verlorenen Performance % schauen) Und wäre es nicht sinnvoller Rasterization weiter zu entwickeln? etc.
 
HageBen schrieb:
1391 - 641 x 1,5 = 430 $ extra pro einzelner Grafikkarte, nix mit geringerer Marge
Du weißt aber schon, dass der Groß- und Einzelhandel auch noch Rabette bekommen und in dem Fall auch die Boardpartner von AMD, die die Referenz-Designs angeboten haben?

Von dem Geld, dass NVIDIA und AMd aufruft als UVP, kannst du in der Regel im besten Fall 20 % im schlechtesten Fall auch bis zu 50 % als Handelsrabatte noch mal abziehen, bei AMD kannst du noch die Boardpartner, die entsprechende Designs vertreiben, gleich mit rechnen.

Bei AMD sind bis zu 3 weitere Akteure drin: Der Einzelhandel bekommt 10 % Rabatt - 999 $ * 0,9, die zahlen also 899 $. Der Großhändler kauft bei XFX und Co, bekommt 20 % Rabat auf den Preis, der zahlt dann 799 $, XFX und Co wollen auch was verdienen und bekommen daher 30 %: 699,- $.

Aus diesen 699 $ muss AMD den Chip bezahlen (140 $), den RAM (264 $), die Platine und den Kleinkram (pauschal 50 $), da kommt für AMD am Ende 245 $ raus. Wir haben mögliche Lizenzzahlungen jetzt weg gelassen. Aus diesen 245 $ muss AMD dann die ganzen eigenen Kosten stemmen, die aktuell laufen.

Wie ich geschrieben habe, mir gefällt der Absatz selbst nicht, besser, was dieser impliziert, es ist eben nicht nur AMD, NVIDIA, sondern es sind im Endeffekt alle, die hier verdienen wollen und das macht sich in diesen Preisen bemerkbar.


Snakeeater schrieb:
doch größtenteils liest sich der Artikel sehr laienhaft und lapidar formuliert.
Es ist auch ein Lesertest, der entsprechend lapidar und laienhaft geschrieben sein soll, weil ansonsten am Ende keiner versteht, was da steht. Wenn du einen professionellen Text erwartest, kannst du die dirketen Tests von Computerbase und Co lesen oder dir ein Journal holen und dort lesen.

Ich reiche diesen Test nicht im nächsten IT-Journal ein oder Co.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, floTTes, Convert und eine weitere Person
Zurück
Oben