GTX 1080 Ti vs. RX Vega 64 (2024): So lassen sich die Ergebnisse erklären
3/4Moderne Spiele, Workloads und die Architektur
Der Testparcours wurde für diesen Artikel auf möglichst moderne Titel umgestellt und bis auf Total War: Warhammer III verwenden alle Games die DirectX-12-API oder das freie Äquivalent Vulkan. Allerdings bedeutet die Verwendung von DirectX 12 oder Vulkan nicht automatisch, dass ein Spiel einen modernen Workload erzeugt. Das kann am deutlichsten an Anno 1800 gesehen werden. Moderne Workloads bedeuten gleichzeitig auch nicht, dass Vega wirklich aufholen kann, sollten nicht genug Wave64-Fronten zusammenkommen.
Eine ausführliche Erklärung der Entwicklung der Architektur von Pascal zu Turing und von Vega zu RDNA gibt es in den jeweiligen Generationenvergleichen. Dennoch soll in diesem Artikel auf die drei Architekturen eingegangen werden sowie die Vorteile und Nachteile kurz erläutert werden, damit die Entwicklung besser verstanden werden kann.
Pascal und Turing: Gemischte Workloads wurden zur Stärke
Nvidia organisiert die Rechenaufgaben in Warp (AMD nennt das Ganze Wave) und hat seine Architekturen seit Tesla auf Warp32 optimiert. Erkennbar ist es an der Organisation der SMs, die aus vier Kacheln mit 32 Rechenwerken besteht, die von zwei Dispatch-Einheiten versorgt werden. Ein SM kann damit an vier Warps mit acht Operationen rechnen.
Sollte ein Warp neben einer Gleitkommazahl ein Integer berechnen müssen, so wird die Gleitkommaausführung blockiert. Bei Turing hat Nvidia diese Problematik dadurch gelöst, dass die Kacheln der SMs neu strukturiert wurden. Aus 4 × 32 wurde ein Design mit 4 × 16 + 16n. 16 Kerne sind für Gleitkommazahlen zuständig, 16 Kerne für Integer.
Vega: Viel Zukunft und doch problematisch
AMD wählte bei Graphic Core Next für seine Compute-Units einen ähnlichen Aufbau wie Nvidia später bei Maxwell und Pascal. Eine CU besteht aus vier Vector-ALUs, die 16 Werte fassen. Jede ALU kann einen Thread bearbeiten. Entsprechend fiel es Vega (und GCN allgemein) schwer, die Rechenleistung auf die Straße zu bringen. AMD hat bei GCN im Laufe der Iterationen bis Vega versucht, die Auslastung zu verbessern und ist Engstellen angegangen.
Gleichzeitig scheitert Vega auch heute noch daran, die eigenen Rechenwerke auszulasten. Vega ist auf Wave64 ausgelegt und kommen pro Wavefront weniger Werte zusammen, werden dennoch 4 Takte pro Vec16-ALU benötigt – einer der Gründe, warum AMD bei RDNA den Treiber teilweise auf Wave32 umstellte und die vier Vec16-ALUs durch zwei Vec32 ersetzte.
Seit Vega agiert AMD vorsichtiger
Zum Anfang dieses Artikels hieß es, dass AMD bis Vega mutiger war und eine Vorreiterrolle einnahm. Genau das hilft Vega 56 und Vega 64 heute. Bei modernen Spielen kann Vega endlich mit der GeForce GTX 1080 Ti konkurrieren und je nach Game liegt man auf Augenhöhe oder nur knapp dahinter. Der helle Stern kann endlich strahlen.
Nur ist Vega nicht wie feiner Wein gereift, wie Fans gerne bei GCN anführten, da die Grafikkarten durch neue Treiber mit der Zeit besser wurden. Der Wein hat einen leicht schalen Beigeschmack, denn mit 8 GB VRAM kann Vega die eigenen Stärken nicht mehr immer ausspielen. Die 11 GB VRAM der GeForce GTX 1080 Ti und GeForce RTX 2080 Ti waren damals unnötig viel, heute hilft das beiden Grafikkarten, ihre Rechenleistung in FPS umzusetzen.
Mit RDNA hat AMD im Jahr 2019 auch die Schwachstellen der GCN-Architektur beim Gaming angegangen und kann die Rechenleistung besser in FPS umsetzen. Gleichzeitig hat das Unternehmen mit RDNA etwas Wichtiges verloren: TruForm als frühe Form der Tesselation bereits bei den DirectX-8-Grafikkarten der Radeon 8000-Serie, FireStream für Radeon-X1000-Serie und bei Vega die Primitive Shaders, auch wenn sie nie genutzt wurden. ATi (später AMD) wollte Akzente setzen und hat es auch geschafft.
Das Hauptproblem von AMD war nicht die Innovationsfähigkeit, sondern dass man immer die Wichtigkeit der Software und des Ökosystems unterschätzt hat.
Seit dem Flop mit Vega geht AMD bei den Grafikkarten auf Nummer sicher und überlässt Nvidia weitgehend das Feld, was Innovationen angeht, und rennt entsprechend hinterher. Raytracing wird durch Nvidia dominiert, die entsprechend Ressourcen aufwenden, sowohl Studenten als auch Spielestudios unterstützen und damit wichtige Erfahrungen sammeln. Auch im KI-Markt ist AMD hinten dran. Ja, mit ROCm gibt es entsprechende Bemühungen, doch so einfach wie mit Nvidia ist es nicht, einen Software-Stack zum Laufen zu bringen.
Vega war die letzte Architektur, bei der AMD versucht hat, die Softwareentwicklung mit eigenen Ideen voranzubringen.
All die Verbesserungen halfen nur bedingt und auch heute kann Vega die Rechenwerke nicht effektiv auslasten. Bis zu 256 Threads benötigt Vega und je Wavefront 64 Werte, da ein Wave64-Befehl 4 Takte benötigt. Mit RDNA hat sich AMD dem Auslastungsproblem angenommen. Es werden pro CU statt 4 Threads nur noch zwei Threads benötigt und hat die Wave-Größe von 64 auf 32 verringert. Das wirkt sich positiv auf kleine Workloads aus.
Nvidia gibt die Richtung vor
Nvidia wiederum ist seit 2018 deutlich innovativer als AMD und bestimmt zum jetzigen Zeitpunkt quasi allein, wie die Spielegrafik der Zukunft aussieht. Das war nicht immer so. Die erste Grafikkarte von Nvidia scheiterte am Markt, da man etwas anderes versuchte und gegen den Konkurrenten 3dfx mit der Voodoo-Grafikkarte nicht ankommen konnte. 3dfx hatte mit Glide eine auf das wesentliche reduzierte API für Spieleentwickler, die einfacher zu beherrschen war als OpenGL. Nvidia hat von 3dfx damit etwas Essenzielles gelernt: Die beste Hardware nutzt nichts, wenn die Software nicht stimmt.
Natürlich konnte Nvidia das nicht sofort umsetzten und die nächste Generation an Riva-Grafikkarten war anfangs von Treiberproblemen geplagt. Gleichzeitig waren nun mit DirectX 5 und vor allem DirectX 6 ernsthafte Alternativen zu Glide vorhanden und damit konnte Nvidia mit Riva TNT und Riva TNT 2 endlich in die Vollen gehen und 3dfx angreifen. Dazu nutzte das Unternehmeneinen Kniff: Es pries das 32-Bit-Rendering an, eine Fähigkeit, die die Voodoo 3 damals nicht bot. Zu der Zeit war das kaum von Relevanz – und als es das wurde, konnte jede Grafikkarte damit umgehen. Etwas, das Nvidia mit Hardware T&L bei der GeForce 256 wiederholte.
Nvidia verstand Marketing und mit der Übernahme von 3dfx 2000 hat sich die Schmiede sehr viel Wissen gesichert. Marketing- und Software-Kompetenzen sind zwei Stärken von Nvidia und die Firma weiß diese Stärken zu nutzen. ATi zeigt FireStream und Nvidia antwortet mit CUDA, das direkt durchdachter wirkt.
Mit Turing hat sich das geändert. Setzte Nvidia bisher eher auf Architekturen, die für die aktuellen Bedürfnisse entwickelt wurden, ist Turing ein mutiger Schritt in die Zukunft gewesen: DirectX 12 Ultimate, KI und Raytracing. Ab jetzt bestimmt Nvidia nicht mehr nur durch Marketing und Software-Dominanz den Ton, sondern auch als Innovator.
Egal ob DLSS, Raytracing oder allgemein KI: AMD ist jetzt vollständig in der Rolle des Verfolgers.