Test Grafikkarten 2021 Q2 im Test: GeForce RTX und Radeon RX mit rBAR im Benchmark-Duell

GerryB schrieb:
Das RT in CP2077 net für RNA2 optimiert ist, ist ja inzwischen klar.(Fehler vom Studio)
Woraus ist das denn klar?
CP2077 nutzt einfach viele verschiedene RT Effekte zusammen, weshalb RDNA2 hier stärker einbricht als in Spielen, wo immer nur ein oder maximal zwei Effekte gleichzeitig genutzt werden.
Haut man in CP z.B. nur die RT Schatten rein und lässt alles andere weg, ist der Performance Verlust auch nicht so stark.
Das meiste kostet die Beleuchtung, welche zeitgleich aber auch das visuell auffällisgte ist, mehr noch als die Reflexionen.

Hier ein Vergleich, dabei stehe ich auf der Treppe der Benchmark Szene von CB und blicke auf die Straße.
Screenshot 2021-04-30 221247.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ratlos83, Wan900, Klever und eine weitere Person
Laphonso schrieb:
Doch natürlich. Gibt eine Handvoll Games, in denen die 6900XT schneller ist, weil die 3090 aufgrund des Verbrauchs gedrosselt wurde. Rein von der Architektur zerlegt eine entfesselte 3090 jede 6900Xt, das erkannte ja sogar schon Moores Law is dead.

Der Kern war, dass es nicht nötig ist, eine 3090 auf 2000 irgendetwas Takt zu schieben, wenn ich via DLSS viel effzienter mal direkt 50 fps on top dazuschalten kann.

Wenn man bedenkt dass DLSS 2.0 mit einem Supercomputer trainiert wird ist es eigentlich ein Unding da von Effizienz zu sprechen... Ist die 3090 so schon nicht und DLSS macht sie auch nicht "effizienter". Die Energie wird schlicht woanders verbraucht damit RT nicht mehr ganz so extrem nach Luftschloss aussieht.
 
  • Gefällt mir
Reaktionen: GERmaximus und Fighter1993
Benji21 schrieb:
Wenn man bedenkt dass DLSS 2.0 mit einem Supercomputer trainiert wird ist es eigentlich ein Unding da von Effizienz zu sprechen... Ist die 3090 so schon nicht und DLSS macht sie auch nicht "effizienter". Die Energie wird schlicht woanders verbraucht damit RT nicht mehr ganz so extrem nach Luftschloss aussieht.
Du glaubst also, dass während du mit einer Geforce Karte in DLSS zockst, ein "Supercomputer" im Hintergrund die Berechnungen für dich erledigt? Nein, das ist nicht so. Die Ergebnisse sind längst im Treiber vorhanden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Klever und Laphonso
Also da Fazit ist: Je höher die Auflösung inklusive RT, um so irrelevanter wird AMD.
Gut, war zu erwarten.

Leider bleibt das Hauptproblem: Karte bekommen!
 
Benji21 schrieb:
Wenn man bedenkt dass DLSS 2.0 mit einem Supercomputer trainiert wird
si tacuisses philosophus mansisses ;-)
 
  • Gefällt mir
Reaktionen: Taxxor und foo_1337
XashDE schrieb:
Also da Fazit ist: Je höher die Auflösung inklusive RT, um so irrelevanter wird AMD.
Gut, war zu erwarten.
Nur solange RT relevant ist. Da für viele absolut irrelevant, so steht AMD deutlich besser da.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus
Taxxor schrieb:
...dass ich es sehr ungerne ohne RT spielen mag.
Warum Du dann net ne andere Graka genommen hast ist mir ehrlich gesagt ein Rätsel.
Das Gebarme hinterher ist nur dä....., sorry , musste mal sein.

Auf der einen Seite alle Leute belehren und selber beim Kauf net wissen, Was man braucht für RT@wave64 !?
Mit RDNA2 funzen nur RT-Games, die auf wave32 optimiert sind...So einfach ist Das!
(und Das wissen auch die Studios, die dann gerne mal die Control-leure an den Code lassen)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer
GerryB schrieb:
Warum Du dann net ne andere Graka genommen hast ist mir ehrlich gesagt ein Rätsel.
Auf der einen Seite alle Leute belehren und selber beim Kauf net wissen, Was man braucht für RT@wave64 !?

Weil ich einen GPU Kauf nicht von einem einzigen Spiel abhängig mache. Dass die Performance in Cyberpunk nicht gut ist, war mir schon klar, aber nicht so relevant, da es kein Must-Play Titel ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GerryB
foo_1337 schrieb:
Du glaubst also, dass während du mit einer Geforce Karte in DLSS zockst, ein "Supercomputer" im Hintergrund die Berechnungen für dich erledigt? Nein, das ist nicht so. Die Ergebnisse sind längst im Treiber vorhanden.
Der erledigt das logischerweise im Vorfeld bevor du das Spiel oder den Treiber hast. Da das explizit eingebaut werden muss also schlicht während der Entwicklung bzw den Testphasen.
 
GerryB schrieb:
(und Das wissen auch die Studios, die dann gerne mal die Control-leure an den Code lassen)
Wie gesagt: Warten wir mal RE am Sonntag ab.
Ergänzung ()

Benji21 schrieb:
Der erledigt das logischerweise im Vorfeld bevor du das Spiel oder den Treiber hast. Da das explizit eingebaut werden muss also schlicht während der Entwicklung bzw den Testphasen.
Und jetzt verwechselst du DLSS 1.0 mit 2.x. Das Training ist mittlerweile generisch und erfordert kein spielspezifisches. Keiner weiß, wie lange die Kisten für das neurale Netz laufen. Und da das halt sowieso der Fall ist, spart man mit aktiviertem(!) DLSS nunmal Energie, ob du das jetzt gut findest oder nicht :)
 
  • Gefällt mir
Reaktionen: Laphonso und Klever
Benji21 schrieb:
Da das explizit eingebaut werden muss also schlicht während der Entwicklung bzw den Testphasen.
Würdest du über DLSS1.0 sprechen, wäre das sogar korrekt^^
Ergänzung ()

DarkerThanBlack schrieb:
Nur solange RT relevant ist. Da für viele absolut irrelevant, so steht AMD deutlich besser da.
Besser ja, die Kernaussage ist aber im Grunde immer noch korrekt, je höher die Auflösung, desto schlechter steht AMD da. AMD wird also immer irrelevanter, aber ohne jemals wirklich irrelevant zu werden(eher im Sinne von 0% irrelevant in 1080p auf 2% irrelevant in 4K^^)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso, Klever und foo_1337
XTR³M³ schrieb:
schön zusehen wie die 8GB karten total versagen mit RT und bereits zT in 1440p, auf einmal kackt die 3070 extrem ab und fällt massiv hinter die 2080Ti zurück... wie war das nochmals mti den ganzen "8GB langen immernoch wenn man keine 4k spielt"?

Dann schauen wir uns doch mal das "totale Versagen" und "extreme Abkacken" der RTX 3070 gegenüber der RTX 2080 Ti in 1440p + Raytracing mal an.

Im Raytracing-Performance-Rating, bei COD Cold War, bei Control und Dirt 5 liegen 3070 und 2080 Ti nahezu gleich auf, sowohl im fps-Durchschnitt als auch bei den Percentilen:

total-versagen1.png


Bleiben nur noch Cyberpunk 2077 und Watch Dogs Legion, bei denen die Unterschiede etwas größer sind:

total-versagen2.png


Bei Watch Dogs Legion liegt die 3070 bei den Percentilen 16% vor der 2080 Ti.
Bei Cyberpunk 2077 liegt die 2080 Ti bei den Percentilen 22% vor der 3070.

Der einzige Raytracing-Benchmark, bei dem die 2080 Ti sich absetzen kann (Cyberpunk mit höchsten Raytracing-Einstellungen und höchsten sonstigen Einstellungen und ohne DLSS), dürfte man wohl einen Pyrrhussieg nennen... denn auch mit der 2080 Ti kommt es zu Einbrüchen auf 23,8 fps, was den Spielspaß ordentlich bremsen sollte. Die meisten werden sich das Geruckel wohl nicht antun, sondern ein oder zwei Stellschrauben für einen flüssigen Spielablauf drehen... auch auf der 2080 Ti.

Und geht man bei CB2077 mit den Raytracing-Einstellungen ODER mit den sonstigen Einstellungen auch nur eine Stufe runter ODER nutzt DLSS, verpufft der Speichervorteil der 2080 Ti bereits in 1440p.
 
  • Gefällt mir
Reaktionen: highco, steffen2891, Wan900 und eine weitere Person
Ihr wisst aber schon, dass ihr mit eurer DLSS Diskussion mittlerweile sehr weit Off Topic seid?
 
  • Gefällt mir
Reaktionen: Experte18 und GerryB
Jo, mich nervt die ganze Leier auch schon unendlich.
Jeder Thread wird zugespammed.

Können die Leute net nen GROßEN Sammelthread für Ihr Wohlbefinden aufmachen?
 
  • Gefällt mir
Reaktionen: Experte18
Cohen schrieb:
Dann schauen wir uns doch mal das "totale Versagen" und "extreme Abkacken" der RTX 3070 gegenüber der RTX 2080 Ti in 1440p + Raytracing mal an.

"zT schon in 1440p" .... dir ist bewusst was zT heisst oder? :freak: und ansonsten darfst gerne auch bei den kollegen von PCGH schauen, da klappen die 8GB karten auch ohne RT schon reihenweise weg in nen paar games.
 
XTR³M³ schrieb:
"zT schon in 1440p" .... dir ist bewusst was zT heisst oder? :freak:
Dann schauen wir doch mal, wie sich die 2080 Ti so in den 4K-Tests mit allen Reglern ganz rechts und maximalem Raytracing so schlägt:

Call of Duty: Cold War = 29,5 fps (1% Perzentil)
Control = 16,6 fps (0,2% Perzentil)
Cyberpunk 2077 = 16,6 fps (1% Perzentil)
Watch Dogs Legion = 19,7 fps (0,2% Perzentil)

Hurra! Vier weitere Pyrrhussiege für die 2080 Ti in Einstellungen, die sich wohl kaum jemand freiwillig antun wird.

Dirt 5 hat als einziger CB-4K-RT-Test noch akzeptable Performance auf der 2080 Ti: 42,9 fps (0,2% Perzentil)... bloß da liegt die 3070 mit 43,4 fps (0,2% Perzentil) bereits wieder gleichauf.
 
Solange diese Karten nicht mal erhältlich sind bzw so viel wie Profikarten kosten braucht man gar nicht darüber berichten. Vielleicht wäre das auch ein guter Seitenhieb gegen die Grafikkarten Hersteller, wenn die Presse deren überteuerten Mining Werkzeuge einfach nicht mehr bewerben. Hoffe so sehr dass dieser Mining Irrsinn endlich sein Ende findet!
 
@Wolfgang

"Auch wenn AMD nach den Treiber- und Spiele-Updates etwas abschneidet"
So so, und was genau schneidet AMD ab ?!? alte Zöpfe ? :watt:

MfG Föhn.
Ergänzung ()

borizb schrieb:
@Wolfgang Mega danke für die viele Arbeit. Kurze Frage zur Darstellung:

Ich habe jetzt mal ein paar Haken rausgenommen. Kann man die Chart so einstellen,
dass die sich nach dem höchsten Wert sortiert? Also dass die 3090 in dem Fall oben
wäre, dann die 6900XT und so weiter? Es sieht einfach etwas merkwürdig aus:

Anhang anzeigen 1073870
Nicht nur für Dich !!
Sieht halt einfach "komisch" aus und tut irgendwie weh, wenn "ROT" in der/irgend einer Tabelle oben steht ... :evillol:

MfG Föhn.
 

Anhänge

  • schneiden.jpg
    schneiden.jpg
    395,8 KB · Aufrufe: 275
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Jan
Klever schrieb:
Was DLSS angeht, wenn es für mich zu matschig ist unter Performance, kann ich auf Balanced gehen, wenn Balanced zu matschig ist, dann auf Qualität. Unterschiede bei der Bildqualität muss ich auf Quality mit der Lupe suchen, ausser dass das Bild ohne DLSS bei Bewegung wegen Kantenflimmern leidet, was ich z.B. an einzelnen Böden merke. 20 FPS mehr muss ich aber mit der Lupe nicht suchen, was für mich da durchaus relevant ist, wenn jemand es nicht braucht, ist es ja vollkommen in Ordnung. Schlecht ist das Feature davon aber lange nicht.
Also ich muss leider sagen, dass ich bei bei 4K mit und ohne DLSS auf Qualität, einen Unterschied sehe. Manche finden auch eine 1440p Auflösung auf 32 Zoll scharf... ich nicht. Die Technologie ist mega und wird sicher noch deutlich verbessert was kaum Nachteile mit sich bringen wird.
 
  • Gefällt mir
Reaktionen: Klever
Zurück
Oben