GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

 5/8
Update Wolfgang Andermahr
1.881 Kommentare

Neu und noch unbekannt: Echtzeit-Raytracing in Spielen

Echtzeit-Raytracing in Spielen ist das Feature der Turing-GPU und damit der GeForce-RTX-Grafikkarten. Es fehlt aber noch genau an einem: Raytracing in Spielen. Aktuell steht der Redaktion kein Spiel zur Verfügung, das die neue Technik bereits unterstützt. Es gibt zwar diverse Videos, selbst ausprobieren können Käufer Raytracing an Tag 1 aber noch nicht.

Daher ist es derzeit unmöglich, Aussagen über Qualität und Performance von Raytracing in Spielen zu treffen. Die Qualität deutet sich zumindest mit Hilfe der Videos an. Jedoch befindet sich die Implementierung noch in einem frühen Stadium, so dass sich auch die Qualität noch ändern kann – ebenso wie die Geschwindigkeit.

Es steht aber jetzt schon fest, dass Echtzeit-Raytracing auf einer GeForce RTX 2080 und GeForce RTX 2080 Ti sehr viel Leistung kosten wird. Die meisten Spielentwickler visieren für das Flaggschiff stabile 60 FPS an. Für 1.920 × 1.080 wohlgemerkt. Es wird auch Spiele mit höheren Auflösungen geben. Diese verzichten dann entweder auf 60 FPS oder schrauben die sonstige Grafikqualität herunter. Die ersten finalen Implementierungen werden erst richtig aufzeigen können, wie gut Raytracing in Spielen auf den neuen Grafikkarten funktioniert.

Der Redaktion steht aktuell eine frühe Version vom 3DMark zur Verfügung, die eine Teilsequenz des Raytracing-Tests mit nicht finaler Qualität und Geschwindigkeit zeigt. Darüber hinaus hat Nvidia ComputerBase die bekannte Star-Wars-Techdemo zur Verfügung gestellt. Mit einem aktuellen Windows 10 und aktiviertem Entwicklermodus ließen sich beide Programme problemlos auf einer Grafikkarte starten, die DXR unterstützt.

Sinnvolle Aussagen zur Qualität in Spielen sowie zur Performance lassen die Programme nicht zu. Allerdings lässt sich überprüfen, wie der Leistungsunterschied zwischen einer GeForce RTX 2080 Ti und der GeForce RTX 2080 ausfällt. Das gilt zwar nur für die beiden Programme, ist aber die einzige Möglichkeit, irgendeine Aussage zu treffen.

Gemessene Leistung mit Raytracing
Modell 3DMark Raytracing Star-Wars-RT-Techdemo
GeForce RTX 2080 Ti * 125 %
GeForce RTX 2080 * 100 %
* UL Benchmarks untersagt den Einsatz der Demo als Benchmark noch

In der Star-Wars-Techdemo ist die Geforce RTX 2080 Ti 25 Prozent schneller als die GeForce RTX 2080, im 3DMark ist der Unterschied etwas größer. Damit liegen die prozentualen Unterschied in der Mitte zum Leistungsunterschied in klassischen Spielen. In diesen ist Nvidias-Flaggschiff 27 Prozent schneller. Die GeForce RTX 2080 Ti hat aber 48 Prozent mehr Raytracing-Kerne als die GeForce RTX 2080. Zumindest in diesen beiden Tests scheinen diese aber kein limitierender Faktor zu sein oder die Skalierung der zusätzlichen RT-Cores ist nicht linear.

Exkurs: Was ist Raytracing?

Mehr Details gefällig? ComputerBase hatte sich bereits vor Jahren in der Serie „Raytracing in Spielen“ ausführlich mit dem Thema Raytracing befasst. Die darin präsentierten Informationen und Erkenntnisse zur alternativen Rendering-Methode sind auch heute noch gültig. Besonders empfehlenswert: Wie funktioniert Raytracing?

DLSS kann Spiele schön und schneller machen

Nvidia hat den Redaktionen zwei verschiedene Programme in die Hand gegeben, um sich einen ersten Eindruck von der KI-basierten Kantenglättung zu machen. Dabei handelt es sich zwar nicht um eine Integration in ein wirkliches Spiel, mit dem modifizierten Final Fantasy XV Benchmark aber immerhin um ein Tool, das auf einem Spiel basiert. Zudem gab es auch die Infiltrator-Techdemo von Epic als Testeinsatz für DLSS.

Beide Programme haben eins gemeinsam: DLSS2X, also der optisch schönste Modus, der auf die native Auflösung noch „KI-Upscaling“ draufsetzt, gibt es nicht. Stattdessen wird das normale DLSS genutzt. Dieses hat das Ziel, optisch eine 4K-Ähnliche Grafik zu erzeugen, ohne aber in 4K beziehungsweise Ultra HD zu rendern. Sprich, die interne Auflösung ist niedriger als Ultra HD, sodass die Performance ansteigt. Das zu sehende Bild soll aber eine vergleichbare Qualität erreichen.

In Final Fantasy XV ist die gerenderte Auflösung bei DLSS unbekannt. Verglichen werden kann das Ergebnis mit einer nativen Auflösung von 3.840 × 2.160 inklusive TAA-Kantenglättung. Bei der Infiltrator-Techdemo ist von „halbierter Auflösung“ die Rede, eine genaue Angabe fehlt aber. Verglichen wird das Bild ebenso mit einer nativen Ultra-HD-Auflösung inklusive TAA.

Der FFXV-Benchmark sieht mit DLSS besser aus als in nativem Ultra HD

Wenig verwunderlich: DLSS kann nicht zaubern. KI hin oder her, nicht das gesamte Bild sieht in Final Fantasy XV vergleichbar gut mit DLSS aus. Manche Objekte flimmern ein wenig stärker als in der nativen Auflösung und TAA. Allerdings ist das TAA in Final Fantasy XV nicht allzu gut. Die Glättung ist zwar ordentlich, doch legt sich eine Unschärfe über das Bild. DLSS hat das Problem jedoch nicht. Größtenteils sieht das Bild mit DLSS schärfer aus – und das trotz der geringeren nativen Auflösung. Dies sieht man aber schlicht und ergreifend nicht. Deshalb sieht in Final Fantasy XV DLSS meistens besser aus als die native UHD-Auflösung mit TAA – bei besserer Performance! Im Benchmark steigt diese mit DLSS um etwa 30 Prozent an. In manchen Szenen sind es mehr, in anderen weniger. Der Gesamteindruck von DLSS ist zumindest im Benchmark von Final Fantasy XV sehr gut.

Bei der Infiltrator-Demo kann DLSS hingegen nicht überzeugen

Einen größeren Leistungssprung gibt es bei der Infiltrator-Techdemo. Diese liegt bei bis zu 45 Prozent. Interessanterweise ist der Leistungsgewinn in der Demo sehr szenenabhängig. Manchmal läuft die DLSS-Version auch gar nicht schneller, was aber auch an fehlender Optimierung liegen kann. Offenbar hat es Epic bei der Einstellung der Auflösung auch ein wenig übertrieben. Denn bei Infiltrator flimmern verhältnismäßig viele Objekte, die bei nativer Auflösung absolut ruhig dargestellt werden. Darüber hinaus wirkt das Bild auch weniger scharf als mit der nativen Auflösung. Entsprechend ist der optische Eindruck der Demo mit DLSS schlechter als mit der nativen Ultra-HD-Auflösung.

Der Entwickler kann bei DLSS die native Auflösung frei wählen. Entsprechend wird es auch in Spielen vermutlich große Unterschiede der DLSS-Integration geben. Wie die zwei Tests zeigen, kann DLSS somit in einem Spiel sehr gut und in einem anderen eher schlecht aussehen. Entsprechend spannend wird die Umsetzung der KI-Technik in den ersten Spielen.