Test Grafikkarten 2021 Q2 im Test: GeForce RTX und Radeon RX mit rBAR im Benchmark-Duell

Fighter1993 schrieb:
Der Titel lautet aber :

Grafikkarten 2021 Q2 im Test: GeForce RTX und Radeon RX mit rBAR im Benchmark-Duell​


Wusste nicht dass DLSS nicht funktioniert, wenn rBAR aktiviert ist. Danke für die Aufklärung
Ergänzung ()

LGTT1 schrieb:
Naja bei den Raytracing vergleichen, bekomme ich immer ein ganz flaues Gefühl da brechen die Frameraten ja selbst auf den Topmodellen soweit ein das es eigentlich, aus meiner persönlichen Sicht nicht nutzbar ist>..

Eben doch, und zwar wenn man DLSS aktiviert (wenn nutzbar).
Dein Post zeigt wieso DLSS erwähnt werden sollte.
Vielen Dank 👍🏻
 
  • Gefällt mir
Reaktionen: Wan900
DrFreaK666 schrieb:
Wusste nicht dass DLSS nicht funktioniert, wenn rBAR aktiviert ist. Danke für die Aufklärung
Gut dann weißt du es ja jetzt.... Wie kann man nur so ein Fanboy sein. Der Test hat dlss eben nicht dabei. Oder könnt ihr es nicht ertragen das Nvidia nicht mehr ganz oben steht?
 
  • Gefällt mir
Reaktionen: ThePlayer und DannyA4
Fighter1993 schrieb:
Gut dann weißt du es ja jetzt.... Wie kann man nur so ein Fanboy sein. Der Test hat dlss eben nicht dabei. Oder könnt ihr es nicht ertragen das Nvidia nicht mehr ganz oben steht?
RTX off steht Nvidia doch jetzt schon nicht mehr über all oben, die 2080Ti Zeiten, die 100% der Tests anführter, sind vorbei, und das ist doch gut so!
Hier ging es mehr um die Information, was das die Ergebnisse mit rBar und DLSS und Raytracing auf Nvidia nun - per heute - sind.

Wolfgang hat erläutert, warum sie das nicht abbilden, und auch wenn ich es nicht 100% nachvollziehe, persönlich, verstehe ich zu 100% die reaktionelle Logik dahinter, und damit "Haken dran" von meiner Seite.
Und auf andere Testszenarien warten, irgendwann :)
 
  • Gefällt mir
Reaktionen: MUKK86
Daggy820 schrieb:
Deine Aussage ist doch totaler Mumpitz. Es hieß doch das zurzeit keine Grafikkarten zu kaufen sind, und diese Aussage ist schlichtweg falsch, punkt.
Das die aktuelle Preislage nicht gut ist steht ja außer Frage, aber verfügbar sind die Karten doch.
Abstrahieren ist nicht deine Stärke oder ?
Dennoch, schönes Wochenende.
 
schön zusehen wie die 8GB karten total versagen mit RT und bereits zT in 1440p, auf einmal kackt die 3070 extrem ab und fällt massiv hinter die 2080Ti zurück... wie war das nochmals mti den ganzen "8GB langen immernoch wenn man keine 4k spielt"? 🤣 aber sind die gleichen die immer rumpausaunt haben das 600W netzteile für alles langen... ja total, besonders seit dieser graka gen :freak: manche leute sollten einfach mal ihre füsse still halten... unter 10GB bei der graka muss man heute nicht mehr anfangen, und unter 750W beim NT war auch schon immer nen fehlkauf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jray
XTR³M³ schrieb:
schön zusehen wie die 8GB karten total versagen mit RT und bereits zT in 1440p, auf einmal kackt die 3070 extrem ab und fällt massiv hinter die 2080Ti zurück... wie war das nochmals mti den ganzen "8GB langen immernoch wenn man meine 4k spielt"? 🤣 aber sind die gleichen die immer rumpausaunt haben das 600W netzteile für alles langen... ja total, besonders seit dieser graka gen :freak: manche leute sollten einfach mal ihre füsse still halten... unter 10GB bei der graka muss man heute nicht mehr anfangen, und unter 750W beim NT war auch schon immer nen fehlkauf.

Naja, bei den Preisen musst noch Glück haben, eine Graka bekommen zu können!
 
Fighter1993 schrieb:
Gut dann weißt du es ja jetzt.... Wie kann man nur so ein Fanboy sein. Der Test hat dlss eben nicht dabei. Oder könnt ihr es nicht ertragen das Nvidia nicht mehr ganz oben steht?
Nvidia steht aber doch ganz oben?
 
Fighter1993 schrieb:
Gut dann weißt du es ja jetzt.... Wie kann man nur so ein Fanboy sein. Der Test hat dlss eben nicht dabei. Oder könnt ihr es nicht ertragen das Nvidia nicht mehr ganz oben steht?

Ich und Fanboy? Hätte ich Geld dann würde ich zu einer 6800XT greifen.
Das System unten ist übrigens nicht mehr aktuell. Die 980Ti wurde für 250€ verkauft.
Aktuell werkelt meine alte RX570 im PC (also AMD-GPU), von dem Geld habe ich mir eine Series S gekauft (AMD-Hardware). So viel zu Fanboy 😅
 
  • Gefällt mir
Reaktionen: Fighter1993
owned139 schrieb:
Nvidia steht aber doch ganz oben?

wo? also in den wichtigen min frames liegt die 6900XT deutlich vorne in rastergames, und der XTXH wird demnächst noch ne schippe drauf legen....
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Klever schrieb:
(das zur Frage, dass Karten durch "Tricks" nicht schneller werden, wie nennt sich dann ein hardwareseitig verbauter "Trick" in Form von Tensor-Kernen, die eine Seite verbaut hat und die andere nicht)
Nur das die Tensor-Kerne in dem Fall nicht der relevante Punkt sind - und auch nicht, dass diese asynchron ausgeführt werden können. Ich hab mir in letzter Zeit mal diese Sachen zu Gemüte geführt und ähnlich wie bei DLSS 1.0 kann DLSS2.0 theoretisch auch auf den Shadern bei annehmbarer Geschwindigkeit laufen.

Der Hauptimpact für die Leistung ist die - je nach Einstellung - teilweise drastisch reduzierte Pixel-Menge, die berechnet werden muss. Und gerade DLSS2.0 geht sogar von einem simplen KI-Upscaling ein Stückweit zurück, da die KI alleine eben nicht entsprechend gut agieren kann.

Es gibt und gab bereits vor DLSS 1.0 eine Reihe von sehr guten Algorithmen, mit denen man Bildern entsprechend von einer niedrigeren Auflösung in eine höhere Skalieren konnte. Jeder dieser Algorithmen hat dabei jedoch Vor- und Nachteile und benötigt auch unterschiedlich viel Zeit. NVIDIA hat bei DLSS 2.0 sich auf einige dieser Algorithmen - besser den Techniken dahinter - besonnen, darunter eine temporale Komponente - vorherige Bilder werden als Datenquelle genutzt - sowie das Teilschritte der Berechnung genutzt werden, die sich relativ einfach skalieren lassen.

Die jetzige DLSS-KI hat dabei gelernt aus diesen Teilschritten und den vorherigen Bildern nun das Endresultat zu bilden. Die KI-Komponente bei DLSS ersetzt dabei die aufwendigen und langsamen Algorithmen, die sonst zur Anwendung kommen müssten.

Und direkt vorweg, da ich deine weiteren Beiträge gelesen habe: Ja Tensor-Kerne kamen mit Volta, jedoch kann man Tensor-Operationen auch auf den Shadern ausführen und man kann hier sogar entsprechend den Code optimieren, dass die Vektor-ALUs entsprechend effizienter arbeiten, als unoptimierter Code.

Da DLSS auch nicht wirklich "asynchron" abläuft - da man das fertige Bild am Ende braucht um hoch zu skalieren, kann man DLSS auch über die Shader laufen lassen.

Um den Impact der Tensor-Kerne wirklich zu ermitteln, müsste man heute den Algorithmus einmal auf den SM laufen lassen und einmal eben auf den TCs, ist aber so nicht mehr wirklich möglich. Nur der Zuwachs an Performance ist recht gut vorhersehbar und liegt in dem Bereich, den man erwarten kann, wenn man sieht, welche Pixelmenge dann berechnet wird.

DrFreaK666 schrieb:
Man hätte es erwähnen müssen. Nvidia kann Nichts dafür dass AMD solch ein Feature noch nicht hat
Das Problem ist, dass DLSS so verschlossen ist, dass AMD es nicht mal nutzen könnte, wenn sie denn was ähnliches hätten.

So sehr ich DLSS mag, gerade die 2.0 zeigt echt gut, was möglich ist, wenn man klassiche Ansätze mit KI verschmilzt und die KI an den kritischen Punkten die Arbeit gibt, bei denen die klassischen Algorithmen viel zu langsam sind.

Würde NVIDIA irgendwann DLSS soweit öffnen, dass AMD und Intel quasi auch mit mischen können, wäre ich sofort und jetzt dafür DLSS mit in jede Standardwertung aufzunehmen, da es ohne solche Techniken oberhalb von 4K kaum mehr wirklich funktioniert.

GERmaximus schrieb:
Die 6800XT scheint sich auch immer weiter von der 3080 absetzen zu können. Mal sehen wie sich das mit echten nextgen entwickeln wird, wenn 16gb Vram auf 8 bzw. 10gb Vram treffen. Ich denke der Abstand wird weiter wachsen
Da ja Fidelity FX in das XBox SDK eingezogen ist und MS ja andeutet, dass XBox und "PC" zusammen wachsen, auch was die Entwicklung angeht, kann man sich zumindest sicher sein, dass für AMD Hardware nun wirklich mal optimiert wird und die Optimierungen einfach von XBox auf den PC ziehen können, ansonsten:

Man wird abwarten müssen. Die 8GB-VRAM könnten gerade in 4K schnell zu wenig werden, allgemein. Die 10 könnten noch reochen, aber man darf nicht vergessen: Die XBox hat auch nur 10GB für die GPU und 6 für alles andere.

Wichtiger ist hier: Wie wird sich DirectX Storage entwickelt und wie schnell wird das von den Spieleentwickler angenommen.
Dai6oro schrieb:
Sehr schön, dass beide Hersteller so nahe beieinander sind, wer hätte das letztes Jahr noch gedacht.
Na ja, dass AMD und NVIDIA sich ein Kopf-an-Kopf Rennen liefern, das habe ich vorletzten Jahr und letztes Jahr durchaus erwartet, als die ersten Gerüchte zu Ampere und NAVI kamen - 5120 ALUs gegen 5376. Nur wenn das Monster GA100 - mit seinen 128 SM - 8192 ALUs - ein Blick auf die GA102 gewesen wäre, wäre NVIDIA wirklich wieder ein Stück davon gewesen.

Als NVIDIA für Ampere die 84 * 128 angekündigt hatten und sagten, dass die RTX 3070 auf 2080 Ti Niveau landet, war ich einer der wenigen hier, die damals noch sagten, dass Navi sich mit der 3080 anlegt und mal schneller, mal schlechter sein wird. Als dann die ersten "Sneakpreviews" kamen, war ich auch einer der, die sagten: 3080 ist realistisch, eine 3090 möglich, auch wenn ich letzteres eher für unwahrscheinlich hielt.

Ein wenig Grundlagenwissen in Informatik und Mathematik und dazu ein wenig Erfahrung, und man kann Zahlen als auch Marketing-Sprech gut trennen und auch sehen, was kommt.
Fighter1993 schrieb:
Kenne auch Leute die mit ner 6800XT auf 4k gehen wollen.
Was theoretisch auch kein Problem ist.
Trefoil80 schrieb:
"Drehe die Auflösung runter, mache einen Matschfilter drüber, und fertig ist DLSS!"...
DLSS ist in Verson 2.0 kein wirklicher Matchfilter mehr, sondern eigentlich sehr gut.

Das primäre Problem ist hier nur, dass die KI eben gewisse "Berechnungen" übernimmt, die sehr Zeitaufwendig sind und da aus Erfahrung "schätzt", was aber in der Regel oft sehr gut geht.

Ich hab in letzter Zeit mal aus Spaß mich mit den üblichen Bildskalierungsalgorithmen beschäftigt, darunter auch die Super Sampling-Methoden und seit dem Verstehe ich recht gut, wie DLSS 2.0 funktioniert und warum es an gewissen Punkten schwächen hat, aber an anderen voll überzeugen kann.

Und genau so verstehe ich, warum NVIDIA hier diesen Schritt gegangen ist. DLSS ist nicht nur die Wundermechanik KI, sondern DLSS ist
flappes schrieb:
Ohje, geht das wieder los... wie hieß noch der andere der hier dauernd auf DLSS pocht? Ich habs schon verdrängt.
Ich poche auf DLSS! Aber nicht im Standardtest, sondern allgemein als Technologie, weil es spannnd ist, weil es zeigt, wie man KI und klassische Algorithmen und Techniken verbinden kann und damit die benötigte Rechenleistung reduziert.

Die klassischen Super Sampling-Ansätze kann man beim Rendern schon beschleunigen, weil viele Informationen während des Renders bereits vorliegen und man diese Schritte speicher kann - deswegen muss es ja auch in die Engine und die Spiele integriert werden, damit man am richtigen Punkt die richtigen Ergebnisse abgreift. Würde man Super Sampling für die Skalierung nach Oben klassisch ansetzten, müsste man erst über verschiedene Algorithmen bestimmte "Teilbilder" heraus rechnen und anhand dieser Daten dann das Bild skaliren - Kantenverläufe usw.

Ich denke, dass ich da sogar schon einen Verdacht habe, wie AMD an ihr FXSR geht, ohne dass sie Großartig auf KI setzen müssen und denoch gute Ergebnisse bekommen.
Gabro schrieb:
Ich befürchte das die 4090 das FPS-Problem nicht lösen wird.
Wird sie auch nicht wirklich, da das FPS-Problem von einigen Faktoren abhängt.

Gabro schrieb:
Ich glaube nicht das es an der Performance der Grafikkarten liegt, dass diese Spiele nicht über 60 FPS bleiben, sondern eher an der fehlenden Optimierung durch die Entwickler.
Viele Entwickler optimieren bereits so gut sie können, was ihre Engines angeht und auch ihre Spiele. Nur ist das Optimieren auf dem PC quasi unmöglich, da zu viele Faktoren die Performance beeinflussen.

Prozessoren, Mainboards, RAM, Grafikkarte, Festplatten, SSD, OS, Treiber und ggf. noch andere Software auf dem System.
Blackfirehawk schrieb:
Mit gleichen Einsatz hätte man aber auch aus klassischen Effekten noch einiges rausholen konnen.
Nein hätte man nicht und ich habe es sehr oft sehr ausführlich hier ausgeführt, wo das Problem der klassischen Effekte ist und warum wir an einem Punkt angekommen sind, in denen der Impact von RT-Effekten quasi genau so hoch ist, wie wenn wir die Effekte verbessern.

Und gerade Spiegelungen sind immer ein gutes Beispiel dafür: Für jede dynamische Reflexion muss man einen weiteren Screenspace/Renderspace aus der Perspektive der Fläche öffnen. Je nach Auflösung der Fläche muss man die ganze Szene nun erneut rendern, auch mit den Effekten und daraus dann die Textur erstellen. Jede Spiegelung verzögert dann das Rendern des eigentlichen Bildes.

Und klar, man kann Screenspace Reflections umsetzten, ist aber dann nur bedingt dynamisch und auch hier ist entscheidend wie viele Flächeln spiegeln.

Was man bei RT on-the-fly mit nimmt in der Rechenleistung später, muss hier immer gesondert berechnet werden.

Gleich verhält es sich mit Schatten und zum Beispiel nun mit SSAO. Wirklich "bessere" SSAO-Effekte benötigen immer mehr Leistung, weil man dann über immer mehr Tricks die Linien und Schatten besser nachzieht, was Zeit kostet. Eine weitere Annäherung an die Realität kostet vergleichsweise viel Ressourcen, weil man nun dann quasi das Bild noch mal "Rendert" um die Kanten bestmöglich zu bekommen usw.

Dazu kommt, dass Effekte wie Screenspace-Reflection, SSAO und Co immer komplexer in der Entwicklung werden und schwerer zu warten sind.

Bei einem "simplen" Pathtracer nimmt man die meisten Effekte on-the-fly mit, weil alleine die Raytracing-Methode viele dieser Effekte bereits beinhaltet.

Klar, man kann "ähnliche" Ergebnisse auch mit aktuellen Rasterizer erreichen, nur muss man dann entweder sehr viel vorberechnen und das Bild wird "statisch" oder man muss über Umwege gehen - Screen Space Reflections - die dann nur Annäherungen sind - oder man mindert drastisch die Qualität oder beschränkt sich massiv - richtige "Reflektionen".



Blackfirehawk schrieb:
Bei 95% der spiele ist der Effekt einfach Lachhaft im Vergleich zum performance drop.
Was zu großen Teilen daran liegt, dass die Effekte nachträglich in eine Engine eingepflegt werden, die dafür nicht ausgelegt sind.

Quake 2 RTX als auch Minecraft RTX sind volle Pathtracer und zeigen sehr gut, wie viele Effekte da On-the-Fly mit genommen werden und sowohl Minecraft RTX als auch Quake 2 RTX zeigen beide sehr gut, das der Impact von RT zwar durchaus vorhanden ist, aber es doch performanter geht.

Minecraft RTX ist von der Bildqualität durchaus mit den SEUS-Shadern vergleichbar, der Impact von den SEUS-Shadern ist dabei in Minecraft Java sehr groß, warum? Weil die Shader auf die Engine geplanscht werden, obwohl sie nicht dafür ausgelegt war. Minecraft RTX läuft bei gleicher grafischer Qualität besser als Minecraft Java mit SEUS-Shadern, auch wenn man über Optifine und Co Minecraft sich durchaus optimieren lässt.

Quake 2 RTX wiederum zeigt, dass man eine brauchbare Performance - auch ohne DLSS - bei allen Effekten bekommt. Gleichzeitig zeigt eine grafisch ähneliche Version, dass es schneller geht, aber alles statisch soweit vorberechnet werden muss, dass der Speicherbedarf um ein vielfaches steigt.

Wir befinden uns in einer Übergangszeit, bis die ersten wirklichen Pathtracer kommen, wird es noch einige Zeit dauern, vermutlich erst mit der nächsten Konsolengeneration, nur dann spielt der Impact quasi keine Rolle mehr, weil die Hardware damit umgehen kann und die Engine von Anfang an darauf ausgelegt ist.
 
  • Gefällt mir
Reaktionen: Hatch, ThePlayer, Klever und 3 andere
Blackfirehawk schrieb:
Also ich hab eine solche GPU für möglichst hohe FPS auf einem WQHD 240hz Monitor.
kann man auch machen, mir sind 60-150fps ausreichend @5120x1440 240hz :)
 
troyan schrieb:
Dann gehört rBAR aber auch nicht in das Gesamtrating, sondern muss genauso betrachtet werden wie Raytracing.

Ich verstehe den Versuch einer subjektiven Separation von Funktionen und Features nicht, die auf aktueller Hardware funktioniert. Wenn alte Hardware nur "Software"-RT oder überhaupt nicht funktioniert, dann kann man das mit 1/"erreichte FPS" abbilden. Dadurch geht das Rating nicht kaputt. Ich meine, ihr stellt Spiele doch auch nicht so ein, dass Karten mit "wenig" VRAM in hohen Auflösungen und mit gewissen Einstellungen nicht benachteiligt werden...
Ich verstehe immer noch nicht, wie man rBAR mit DLSS gleichsetzen kann. Warum muss entweder beides oder keines ins Rating. Ich finde das sind bezüglich Funktion, Wirkung und Unterstützung immer noch zwei grundverschiedene Features.
Capthowdy schrieb:
Nochmal: wo ist das Problem es zusätzlich mit reinzunehmen?
Wo ist das Problem, dann AMD mit niedrigen Grafikdetails zu testen? Wenn es nur nach FPS geht. Die gibt es zumindest in deutlich mehr Spielen als DLSS. Es ist halt nicht gut vergleichbar.
Dai6oro schrieb:
Was fürn Durchschnitt? Du würdest Äpfel und Birnen vergleichen, deswegen macht es CB nicht. Hat Volker jetzt auch schon lang und breit erklärt.
Ich bin nicht Volker :D
Laphonso schrieb:
Wolfgang hat erläutert, warum sie das nicht abbilden, und auch wenn ich es nicht 100% nachvollziehe, persönlich, verstehe ich zu 100% die reaktionelle Logik dahinter, und damit "Haken dran" von meiner Seite.
Und auf andere Testszenarien warten, irgendwann :)
Mein Plan ist, dass dann zu machen, wenn die jährliche Spieleflut vorbei ist. Ende des Jahres bietet sich da natürlich an :)
 
  • Gefällt mir
Reaktionen: ThePlayer
Bin gespannt was AMD als dlss Konter bringt. Durch dlss lässt sich halt auch viel Strom sparen.

Auch ohne dlss kann man in den Genuss von raytracing bei AMD kommen. Die Benchmarks lesen sich natürlich nicht so, aber wenn man bischen an den Einstellungen spielt passt das schon und liefert auch manchmal einen Mehrwert.
 
Trefoil80 schrieb:
Drehe die Auflösung runter, mache einen Matschfilter drüber, und fertig ist DLSS!"...
Warum sollte die Meinung derartig uninformierter Individuen irgendwie relevant sein? Was für ein Argument ...
 
Finde Vergleiche in dieser Gen eh ziemlich witzlos. Vielleicht interessant zu lesen, aber für eine Kaufentscheidung komplett unerheblich. Meine 3070 hab ich nicht nach irgendwelchen besonderen Kriterien gekauft. DLSS war mir genauso egal wie Raytracing oder rBar, der Speicher hat mich nicht die Bohne gejuckt. Ich hab einfach die erstbeste Karte gegriffen, die halbwegs bezahlbar war und hatte Glück, in den 45 Sekunden, in denen sie verfügbar war, online und an der richtigen Adresse gewesen zu sein.

Jetzt muss ich nur noch warten, bis mein Mainboard rBar unterstütz, lulz.

Wäre der Markt nicht so komplett kaputt, hätte ich wohl eine RX 6800 gewählt. Aber das nur am Rande.
 
XTR³M³ schrieb:
schön zusehen wie die 8GB karten total versagen mit RT und bereits zT in 1440p, auf einmal kackt die 3070 extrem ab und fällt massiv hinter die 2080Ti zurück... wie war das nochmals mti den ganzen "8GB langen immernoch wenn man keine 4k spielt"? 🤣
Komisch die 8GB reichen reichen für jedes Spiel mit 1440p+ultra RT+DLSS.

Wenn du natürlich lieber mit 25-30 FPS RT ohne DLSS zockst, kannst du dich natürlich gerne über den ach so großen Speicher freuen.

Ich hab da ja lieber mehr Rohleistung, aber jedem seine Meinung...
 
Capthowdy schrieb:
deshalb muss DLSS auch genauso mitgetestet werden,

Dann aber auch in der Tabelle bei der Auflösung in der gerendert wird und nicht in der hochgerechneten ;)

Ich will hier, wie viele andere auch, die Rechenleistung bei nativer Auflösung sehen.
 
Wan900 schrieb:
Komisch die 8GB reichen reichen für jedes Spiel mit 1440p+ultra RT+DLSS.

Wenn du natürlich lieber mit 25-30 FPS RT ohne DLSS zockst, kannst du dich natürlich gerne über den ach so großen Speicher freuen.

Ich hab da ja lieber mehr Rohleistung, aber jedem seine Meinung...

nicht jeder findet fehldarstellungen, artefakte und "blurring" in schnellen szenen geil was DLSS 2.0 immernoch mitsich bringt... somit verzichte ich gerne auf den schmutz, evtl. schaffts 3.0 ja das zu fixen...
 
  • Gefällt mir
Reaktionen: Trefoil80 und Fuchiii
Zurück
Oben