Test Grafikkarten 2021 Q2 im Test: GeForce RTX und Radeon RX mit rBAR im Benchmark-Duell

Interspieder schrieb:
Ich tausche gerade meine Vega 56 gegen eine 6800 XT ein. Ich hatte Glück, habe eine 6800XT beim AMD Drop für 650 Euro gekriegt, die Vega 56 geht auf EKA (eBayKleinanzeigen) für min. 550 Euro, eher für 600 Euro weg. Günstiger konnte ich ein Upgrade kaum gestalten :daumen:
Wie du schreibst , hattest Glück :D
Aber sicher ein gutes Upgrade
 
  • Gefällt mir
Reaktionen: Laphonso
DrFreaK666 schrieb:
Man hätte es erwähnen müssen. Nvidia kann Nichts dafür dass AMD solch ein Feature noch nicht hat
Nein, hätte man nicht.

Das ist ein Alleinstellungsmerkmal, wie AMD Chill usw.

Die gerenderte Auflösung ist geringer, und mit einigem hokuspokus wird dann auf die höhere Auflösung hochskaliert. Damit hat man dann einen Vorteil bei den fps.
Das heisst also man kann DLSS nicht mit nativ gerenderter Auflösung vergleichen.

So lang AMD also ihren eigenen "Schummelmodus" nicht hat, gibt es da keinen Vergleich.
 
Eno77 schrieb:
Das heisst also man kann DLSS nicht mit nativ gerenderter Auflösung vergleichen.
Wenn das Ergebniss aber näher an nativ gerenderter Auflösung als an dem FPS equivalenten (zzgl. Kosten für evtl Sharpening) niedriegeren Auflösung liegt, kann und sollte man es eben doch.
 
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
Wenn ich mit wenigen Klicks aber eine Bildqualität erhalte, die niemand mehr ad hoc unterscheiden kann versus nativer Auflösung (abseits Screenshots unter der Lupe).

Das (und anderes) ist schlicht eine Behauptung von Dir, basierend auf ein paar Zitate und Deinem hier methodisch wertlosem Blindtest, garniert mit einem Anspruch auf Allgemeingültigkeit.

Es ist noch mitnichten in jedem unterstützenden Titel so, wie Du es darstellst, auch wenn sich die Situation stark verbessert hat. Mit DLSS habe ganz sicher kein Problem, im Gegenteil. Nur einfach einmal die noch vorhandenen Negativseiten auszublenden, bzw. wegdiskutieren geht auch nicht.

Vor nicht allzu langer Zeit wurden Hersteller gescholten sich Performance auf Kosten der BQ zu erkaufen, seit ein paar Jahren wird die Uhr zurück gedreht und das betrifft ganz sicher nicht nur DLSS.
 
  • Gefällt mir
Reaktionen: F4711
DLSS ist beeindruckend! Danke NVIDIA!
 
  • Gefällt mir
Reaktionen: Laphonso
Der Paule schrieb:
Nur einfach einmal die noch vorhandenen Negativseiten auszublenden, bzw. wegdiskutieren geht auch nicht.
Das macht niemand, ich habe sogar beim DLSS ohne Filter geschrieben, dass mir das auch zu "matschig" ist!
Ich sehe eher die selektive Wahrnehmung als Problem und die permanente Anti DLSS Haltung, trotzdem sogar das AMD reddit kalte Füße bekommt, weil der Konter so lange ausbliebt.

Erinnert an die Raytracing Debatte. Raytracing war doof und ein fail gimmick. Bis es AMD dann auch hatte.
Hm :)

rBar haben wir bei AMD und Nvidia nun
Raytracing haben wir AMD und Nvidia
Filter haben wir bei AMD und Nvidia
Rekonstrukion, Nvidia check, AMD muss noch liefern. Laut Frank Azor im Full Nerd Podcast kommt das "2021".
 

Anhänge

  • Village@4k-60fps.jpg
    Village@4k-60fps.jpg
    1,2 MB · Aufrufe: 306
  • 1080p@RT.jpg
    1080p@RT.jpg
    1,1 MB · Aufrufe: 305
  • Village-Settings.png
    Village-Settings.png
    827,2 KB · Aufrufe: 293
Zuletzt bearbeitet:
@Der Paule
Sowas ist doch eh immer eine Geschmacksfrage und eine Frage des Setups, das kann man doch eh nicht wirklich abschließend testen, sondern nur einen Kompromiss finden, ab dem die Mehrzahl der Tester/Spieler keine großen Bildquali-Unterschiede mehr erkennt. Mit DLSS 2.0 ist so ein Sweetspot erreicht, ab dem der Unterschied praktisch vernachlässigbar ist und das kann mit Videos und Bildern gut genug belegt werden, dass man in Tests DLSS mittlerweile als Standard bei Nvidia ansetzen dürfte, AMD zieht dann halt etwas später auch noch nach.
Wenn ein Adlerauge meint, auf seinem 5k 23-Zoll-Monitor etwas minimal "matschiges" wahrzunehmen oder in der Ferne 3 Pixel eines Strauchs flackern zu sehen, darf er ja gern den Performance-Hit von ausgeschalteten DLSS in Kauf nehmen.

Ich erkenne ab einer WQHD Auflösung schon zwischen den unzähligen AA-Varianten kaum noch nennenswerte Unterschiede (wenn ich nicht anhalte und direkt drauf achte), weshalb es aus meiner Sicht müßig ist, da ewig drüber zu diskutieren. Das ist langsam auf den Level der "Audiophilen", die noch über Klangunterschied im +18kHz-Bereich oder zwischen FLAC- und WAV-Klang diskutieren.

Alle derartigen hardwareseitigen Performanceverbesserungen wie rBAR oder DLSS sollten standardmäßig an sein, damit ich das Leistungs-Maximum vergleichen kann. Wenn ein Hersteller da ein Feature noch im "Beta-Stadium" drin hat, kann es halt erstmal nicht aktiviert werden (wozu dann ein kurzer erklärender Abschnitt im Test reicht).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever und OdinHades
deady1000 schrieb:
Moin, liebe BigNavi-Liebhaber!

Steam Hardware Survey April 2021 ist draußen.
https://store.steampowered.com/hwsurvey?l=german

Die BigNavi-Modelle sind jeweils unterhalb von 0,15% und damit nicht gelistet.
Alle Ampere-Modelle legen zum Vormonat ein bisschen zu.

Die Werte unter 0,15%, die in "All video cards" ausgeblendet werden, hole ich mir immer aus der "DirectX 12 systems"-Tabelle. Da bereits 93,65% der Steam-GPUs DX12-Karten sind, ist mir das genau genug (0,14% / 0,9365 = 0,1494%, also maximal 0,01% Abweichung).

Ampere liegt mittlerweile bei 3,38%, RDNA2 bei 0,18%:

steam2021-05-nvidia.png

steam2021-05-amd.png


Allerdings gibt es noch das "Sammelbecken" "AMD Radeon(TM) Graphics", das in wenigen Monaten von 0% auf 0,5% angewachsen ist. Ich hoffe sehr, dass ein Großteil dieses halben Prozents auch RDNA2-Karten sind, die bei Valve noch nicht richtig erkannt wurden und nächsten Monat korrekt zugeordnet werden. So ähnlich lief es ja kürzlich auch bei den RTX-3070-Zahlen ab.
 
  • Gefällt mir
Reaktionen: deady1000
Wie kann es eigentlich sein dass die gravierend schlechte RT Performance der AMDs nicht in die Gesamtwertung aufgenommen wird? Zumal RT nicht mehr ein daher gelaufenes Feature ist, sondern mittlerweile in fast allen großen Entwicklungen Anwendung findet.

Darüber hinaus ist es auch nicht mehr so dass seit den RTX 2000 die Karten zu schwach sind um es voll und ganz umzusetzen.
 
  • Gefällt mir
Reaktionen: deady1000
Tobi47 schrieb:
Wie kann es eigentlich sein dass die gravierend schlechte RT Performance der AMDs nicht in die Gesamtwertung aufgenommen wird? Zumal RT nicht mehr ein daher gelaufenes Feature ist, sondern mittlerweile in fast allen großen Entwicklungen Anwendung findet.

Darüber hinaus ist es auch nicht mehr so dass seit den RTX 2000 die Karten zu schwach sind um es voll und ganz umzusetzen.
"Das hat ebenfalls einen Einfluss auf die Benchmark-Ergebnisse. Während AMDs RDNA-2-Grafikkarte in den klassischen Rasterizer-Spielen in den neuen Benchmarks ein klein wenig zugelegt hat, dreht Nvidias Ampere in den Raytracing-Titeln nochmal weiter auf und kann den dort herrschenden großen Vorsprung gegenüber der Konkurrenz sogar weiter ausbauen. Darüber kann selbst die auf allen GPUs extrem flotte Raytracing-Implementierung von Dirt 5 nicht hinwegtäuschen, auch wenn diese zeigt, dass das letzte Wörtchen im Raytracing-Duell noch nicht gesprochen wurde."

Was wünscht du dir noch?
 
foo_1337 schrieb:
Die 3090 war deutlich einfacher zu bekommen
jopp, um 16:50 am 19.11 von arbeit gekommen und es lagen noch 3 weitere stunden 3090FEs bei NBB.
und ~30 min 3070FEs.
Eine 3080FE die als dickste GPU in ein Ghost S1 passt suche ich bis heute zur UVP. xD
Eine 6800 Ref würde es auch tun nur gibs ja länger nicht mehr. :rolleyes:
 
Der Paule schrieb:
Irre, oder? Dann guck Dir einmal Cyberpunk an, insbesondere die Reflexionen mit DLSS (blurr, blurr, blurr) und was anschließend für Schlüsse von den Fachleuten gezogen werden. Erst: Man muss optische Abstriche machen und anschließend: Alles Tutti, Qualität gleich gut und der Gegenbeweis wird gleich mitgeliefert.

Man sollte schon ein wenig weiter schauen, als auf einzelne Titel oder Zitate der Fachleute. Mit schwarz/weiß kommt man hier nicht weiter....
Ich hab Cyberpunk seit Anfang Januar durch, Mit DLSS Quality und Ultra RT bei flüssigen 1440p.
Und nein da war kein Blurr, das sah ziemlich ziemlich gut aus :)

Aber egal, jeder sollte so spielen wie er es am Besten findet.

Edit / Zur Info: Auch die RED-Engine bei Cyberpunk nutzt standardmäßig einen Schärfefilter, der bei DLSS nicht aktiv ist.
Deswegen kommt auch die leichte Unschärfe zustande. Nachschärfen über den Treiber und du kennst mit Sicherheit keinen Unterschied mehr, wie die oben gezeigten Screenshot bereits bewiesen haben.

Bei der alten RED-Engine, z.B. bei Witcher 3, konnte man den Schärfefilter noch manuell deaktivieren.
Mach das, und du hast ein ähnlich verwaschenes Bild, wie bei CP trotz nativer Auflösung.

Das sind alles Postprocessing- / Nachbearbeitungstricks und die Leute fallen reihenweise drauf rein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: deady1000
GerryB schrieb:
Mal ein Schnappschuss mit CustomSettings ohne RT....läuft recht sparsam in 4k@60fps.(<100W asic)
Jo, die Voraussetzungen wurden etwas pessimistisch beschrieben:

NVIDIA GeForce RTX 2070 (4K/45fps)
NVIDIA GeForce RTX 3070 (4K/60fps)
AMD Radeon RX 6700 XT (4K / 45fps)
AMD Radeon RX 6800 (4K / 45fps)
AMD Radeon RX 6900 XT (4K / 60fps)


Denn auch die 6800XT scheint über den 60fps zu liegen. Zur 6800 hab ich noch nix gefunden und kann's selbst nicht testen. Auch mit ner 2070s scheint man konstant >60fps zu liegen in UHD mit RT.
 
foo_1337 schrieb:
Jo, die Voraussetzungen wurden etwas pessimistisch beschrieben:
Denn auch die 6800XT scheint über den 60fps zu liegen.
Jo, wenn Gurdi mit der 6800xt-LC@highOcen 69fps schafft kann ne normale Air evtl. die 60 knapp schaffen.
(war übrigens sein 24/7 mit 255W asic)

Mit der 6800 nonXT dürften die meisten User eher in 1440p unterwegs sein, ....sollte funzen.
Anbei mein 1440p+2160p Custom= nicht maxed.(in der Bewegung brauch ich subjektiv net unbedingt maxed)
 

Anhänge

  • 1440p@60fps.jpg
    1440p@60fps.jpg
    1,1 MB · Aufrufe: 266
  • 2160p@60fps.jpg
    2160p@60fps.jpg
    1 MB · Aufrufe: 274
  • Settings.png
    Settings.png
    2,5 MB · Aufrufe: 271
Zuletzt bearbeitet:
Da habe ich eher den Eindruck, das bei NBB totale Flaute mit Ampere@UVP ist.

schon längere Zeit
 
GerryB schrieb:
Da habe ich eher den Eindruck, das bei NBB totale Flaute mit Ampere@UVP ist.

schon längere Zeit
Ne, ich hab ein Skript, was dort die Seite überwacht und da ist recht "häufig" was zu haben. Jedenfalls bei der 3090er. Da habe ich meine ja auch weg. Es ist jedoch natürlich schon so, dass immer deutlich mehr Kunden versuchen die Karten in den Warenkorb zu packen und zu kaufen, als Karten verfügbar sind.

NBB sollte eventuell alle zwei Wochen einfach eine Losung anbieten, wo immer Karten an die registrierten Kunden verlost werden. Und dann mit Warteliste, wenn Kunden sich nicht in x Stunden melden.
 
foo_1337 schrieb:
Jo, die Voraussetzungen wurden etwas pessimistisch beschrieben:
Zur 6800 hab ich noch nix gefunden und kann's selbst nicht testen. Auch mit ner 2070s scheint man konstant >60fps zu liegen in UHD mit RT.
Jo,
das Game ist gut optimiert.

edit:
Mal noch high getestet, ...funzt auch mit der nonXT.(<100W asic)
(weil net im Bild...VRS auf Leistung gelassen... subjektiv kein schlechte Qualität)

btw.
Bloom+Filmkorn o.ä.=OFF (immer, empfinde ich als störend)
 

Anhänge

  • 4k-high@60fps.jpg
    4k-high@60fps.jpg
    875,1 KB · Aufrufe: 267
  • SettingsHigh.png
    SettingsHigh.png
    1,9 MB · Aufrufe: 264
  • SettingsHigh2.png
    SettingsHigh2.png
    1,3 MB · Aufrufe: 263
  • GamingGlobalOptimierungen.PNG
    GamingGlobalOptimierungen.PNG
    37,4 KB · Aufrufe: 261
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
deady1000 schrieb:
NBB sollte eventuell alle zwei Wochen einfach eine Losung anbieten, wo immer Karten an die registrierten Kunden verlost werden. Und dann mit Warteliste, wenn Kunden sich nicht in x Stunden melden.
1+
 
Zuletzt bearbeitet:
Zurück
Oben