19 Grafikkarten im Test: AMD Radeon und Nvidia GeForce schneiden gleich ab
5/10Leistung mit SSAA
Mit der aktuellen GPU-Generation haben sowohl ATi als auch Nvidia in Sachen Bildqualität einen Schritt nach vorne gemacht. Endlich ermöglichen beide Hersteller offiziell die Nutzung von Super-Sampling-Anti-Aliasing, das im Gegensatz zur herkömmlichen Kantenglättung das ganze Bild bearbeitet. Die Nachteile liegen dagegen in einem enormen Hardwarehunger sowie in einer Inkompatibilität in einigen Spielen. ATi ermöglicht SSAA offiziell im Control Panel, dafür aber nur in DirectX-9-Titeln. Bei Nvidia ist SSAA dagegen unter allen APIs inklusive DirectX 11 möglich, dafür muss aber auf ein (Nvidia eigenes) externes Tool zurückgegriffen werden. Dieses hat im Gegensatz zur ATi-Implementierung den Vorteil, die SSAA-Samples unabhängig von den MSAA-Samples einstellen zu können.
Darüber hinaus wird auf ATi-Karten das LOD bei Nutzung von SSAA verschoben, um so eine bessere anisotrope Filterung zu erzielen. Die Nvidia-Hardware belässt das LOD (zumindest noch) auf Standard. Aus Gründen der Vergleichbarkeit beschränken wir uns bei den Tests auf DirectX-9-Spiele sowie auf die Auflösungen 1.680x1.050 und 1.920x1.080. In den Titeln „Bulletstorm“ sowie „The Witcher 2“ schalten wir dementsprechend 4xSSAA hinzu. In sämtlichen anderen 3D-Titeln lässt sich leider kein SSAA auf der AMD-Karte nutzen.
In Bulletstorm sind die AMD-Karten mit eingeschaltetem Super-Sampling Anti-Aliasing im Vorteil gegenüber der Nvidia-Konkurrenz. Zwar ist die GeForce GTX 580 die schnellste Single-GPU-Karte, doch rendert zum Beispiel selbst die Radeon HD 6950 schneller als die GeForce GTX 570.
In The Witcher 2 sieht es für die Nvidia-Produkte etwas besser aus und die Grafikkarten reihen sich in etwa dort ein, wo man es von den 3D-Beschleunigern gewohnt ist. In 1.920x1.080 können sich die AMD-Karten besser in Szene setzen als unter 1.680x1.050.