Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Zotac2012 schrieb:
Na da bin ich jetzt ja mal gespannt, also ich sehe das nicht sofort! :daumen:
Man sieht doch sofort, dass Bild 2 die DLSS typische Unschärfe in Cyberpunk hat.
Tritt übrigens auch mit Quality teilweise sehr stark auf.
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Da es ja derzeit sowieso so gut wie keine Grafikkarte zum UVP gibt, wo soll da der Druck herkommen, für Dich ja dann eine völlig entspannte Zeit, weil es wohl noch etwas länger dauern wird, bis wir uns wieder einigermaßen "normalen" Preisen Richtung UVP nähern. Da bleibt viel Zeit zum Geld beiseite legen! :daumen:
Genau so z.b natürlich auch. Hab jetzt schon die Kohle bzw sogar auch diese Preise zu bezahlen. Aber wozu soll ich einen Monatsgehalte da jetzt reinblasen wenn ich einfach ein halbes jahr warte !
Verrückt wer das kauft ganz ehrlich
 
  • Gefällt mir
Reaktionen: MegaDriver und Windell
Zwiebelsoße schrieb:
Man sieht doch sofort, dass Bild 2 die DLSS typische Unschärfe in Cyberpunk hat.
Tritt übrigens auch mit Quality teilweise sehr stark auf.
Wie gesagt, das war ein Vergleich mit der Einstellung DLSS Ultra Performance, wenn ich jetzt mal eine andere Szene vergleiche [siehe Bilder unten!] mit der Einstellung Qualität und Nativ, dann wird das ganze schon deutlich schwieriger und da erkenne ich den Unterschied schon nicht mehr!

Bild_1:
Cyberpunk 2077 Screenshot_Bild 1.jpg


Bild_2:
Cyberpunk 2077 Screenshot_Bild 2.jpg

Bei einem Game wie Cyberpunk 2077 mit RT muss man halt immer einen Kompromiss finden, was Leistung und Grafik betrifft, letztlich brauche ich einfach bestimmte Frames um das Game zu meiner Zufriedenheit spielen zu können.

Es gibt auch User, die verzichten ganz auf RT und erhöhen damit die Settings Einstellungen und können auch damit leben. Aber ich als Grafik Nerd möchte auf RT nicht verzichten und muss dann halt mit den Settings Einstellungen jonglieren, um ein für mich persönlich ideales Spielfeeling zu generieren!​
 
Eine einfache Szene zum Vergleich ist folgende: Protagonist auf dem Motorrad (oder im Auto). Man sieht sofort, dass die Bodentextur deutlich verwaschener aussieht. Die Jacke der Hauptfigur zeigt ebenfalls viel weniger Details.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
Bei den ersten Tests der neuen Radeon Grafikkarten gab es doch noch deutliche Treiberprobleme, die zu extremen Ausreissern geführt haben und zumindest in manchen Auflösungen zu kleineren Verschiebungen geführt haben müssen.

Schade, dass darauf überhaupt nicht eingegangen wird. Die RX 6800 liegt inzwischen in 1920x1080 um 9% vor der RTX 3070, in 3840x2160 sind es 12%.

Interessant wird das Abschneiden der RX 6700 Grafikkarten mit 12 GB Speicher.
 
  • Gefällt mir
Reaktionen: Experte18
MECD schrieb:
Eigentlich müsste es andersrum laufen: Solange die neuen Karten und Konsolen nicht verfügbar sind, müssen sich die Spielehersteller umso mehr bemühen lauffähige Game auf den Markt zu bringen. Ohne eine halbwegs aktuelle Karte sind Titel wie AC Valhalla und Cyberpunk ja kaum spielbar.
Und eigentlich müssten die Spielejurnalisten diese Karten noch nicht einmal bewerben.

Vielleicht wäre das auch mal ein gute Schritt, sich mit der Leserschaft zu solidarisieren.
 
Nachdem Nvidia jetzt ja die Hashraten auf der 3060 limitiert, bin ich echt gespannt, ob sie das auch für die übrigen Karten im Sortiment fortsetzen werden?

Für mich wird aufgrund des Speichers dann erst die 3080 Ti interessant, die man hoffentlich noch im Laufe des Jahres rausbringt. So lange wird meine 1080 Ti aber noch halten, selbst CP2077 hab ich in 3440x1440 einigermaßen flüßig gespielt bekommen, nachdem ich die Settings auf eine Mischung zwischen teilweise Low, Teilweise Medium und nur selten High gestellt hatte.
 
  • Gefällt mir
Reaktionen: MegaDriver
  • Gefällt mir
Reaktionen: DarkInterceptor
Lasst doch Cyberpunk als DLSS Beispiel raus. Nehmt gute DLSS 2.0 Implimentierungen wie Control, Wolfenstein Youngblood, Death Stranding oder Marvel Avengers. Da funktioniert es wesentlich besser und wirkt sich auch bei RT (sofern vorhanden) auch auf z.B. Spiegelungen aus.

Cyberpunk ist aber weniger geeignet wie Watch Dogs Legion auch.

Technisch müssen die Entwickler halt tichtig umsetzen und auch je nach Engine korrekt angelernt. Mal sehen wie sich jetzt Metro Exodus schlägt wenn das DLSS 2.0 Upgrade kommt.


Wie schon Jemand sagt geht es darum möglichst nah an einen gewissen Schärfeeindruck ranzukommen und Kanteklättung samt höherer Framerate zu erzielen. DLSS wird nie ganz die Schärfe von nativ erreichen dafür werden aber Details von Objekten rekonstuiert (aus dem antrainierten 16k Bildmaterial) die selbst durch Pixelraster von 2160p fallen.
Alles hat Vor- und Nachteile.
Wichtig ist dass einem das Gesamtergebnis gefällt.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und Kenjiii
Zotac2012 schrieb:
.... Frames und auch gute Grafik zu erhalten, klar wäre es schön, wenn die Grafikkarte auch ohne DLSS in allen Games genügend Frames, in meinem Fall wären es ja derzeit 60 Frames generieren würde, nur ist das leider nicht der Fall.
Darum kauft man sich zum spielen auch keinen 4K Monitor.
Aber bitte, jeder wie er mag. :-)
 
sakulthefirst schrieb:
Weil DLSS nur ein verbessertes Upscaling ist. War auch gehypt von den Feature, dann in Cyberpunk (auf Quality, 2560x1440) ausprobiert und war komplett enttäuscht. Bild war sehr unscharf - sieht aber im Standbild mit Schärfefilter noch ok aus. Leider in Bewegung schlimmes Kantenflimmern - da ist mir ein ruhiges Bild 100 mal lieber wie Raytracing Effekte. Ist zwar besser als normales Upscaling, kommt aber bei weitem nicht an die native Auflösung ran.
Also in 4K kann ich in keinen Titel(alle DLSS 2.0) eine Unschärfe bisher feststellen. Selbst der Artikel ist doch damit zufrieden, daher kann das eigentlich kein Argument sein es nicht in die Benchmark auf zunehmen.
 
Wenn euch DLSS in manchen Spielen nicht nah genug an Nativ rankommt, dann verwendet doch die Auflösungsskalierung die mittlerweile viele Spiele anbieten. Einfach die Render Auflösung um einige Prozent hochsetzen, bis es gut genug aussieht, dann bleibt immernoch ein Performancegewinn durch DLSS übrig.
So kann man DLSS beliebig anpassen. Cyberpunkt hat übrigens auch so einen Regler eingebaut.(und nein, ich meine nicht dei DLSS Presets!)

Fakt ist nunmal, dass DLSS die effizienz erhöht. Wie man das nutzen möchte kann man frei bestimmen.

Und dass DLSS oder RT zu wenig genutzt werden oder noch viel zu wenig relevanz haben kann ich so auch nicht unterschreiben. Ich hab jetzt schon mehrere hundert Stunden in Spielen mit RT und DLSS verbracht.
Vielleicht unterstützten es noch nicht sehr viele Spiele. Aber gemessen an meiner Gesamtspielzeit der letzten Monate hat die Nutzung von DLSS und/oder RT einen sehr großen Anteil. Natürlich muss es weiter gepusht werden, klar. Aber dass es aktuell bei der Kaufentscheidung keine große Relevanz hätte stimmt zumindest bei mir nicht.

Nachdem die Konsolen jedoch jetzt auch RT fähig sind und dieses RT wohl meist nur mit einer Bildrekonstruktionstechnik performant ist, werden RT sowie DLSS und das AMD Gegenstück am PC künftig schon fast ein no-brainer für die Entwickler sein.
In den nächsten 2 Jahren werden wir sehr viel mehr RT und DLSS Games sehen, als in den letzten zwei Jahren. Das sollte eigentlich allen klar sein...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Kenjiii und foo_1337
Andybmf schrieb:
ich verstehe nicht, dass dlss on bei nvidea nicht als standard im test berücksichtigt wird
Moment. DLSS in, ist eine Veränderung der Renderauflösung.
Somit könnte man es nicht unter der angegebenen Auflösung im Test eintragen.

SAM gibt lediglich der CPU schnelleren Zugriff auf den Grafikspeicher.
 
  • Gefällt mir
Reaktionen: DannyA4 und daknoll
KuroSamurai117 schrieb:
Lasst doch Cyberpunk als DLSS Beispiel raus. Nehmt gute DLSS 2.0 Implimentierungen wie Control, Wolfenstein Youngblood, Death Stranding oder Marvel Avengers. Da funktioniert es wesentlich besser und wirkt sich auch bei RT (sofern vorhanden) auch auf z.B. Spiegelungen aus.
Wäre doch Unsinn jetzt anzufangen Rosinen rauszupicken. Der nächste kommt dann mit der Idee Spiele bei denen AMDs SAM nicht so gut abschneidet wegzulassen usw. So wie es jetzt ist, finde ich es persönlich ganz gut gelöst. Aber Computerbase wird es nie schaffen es allen Dauernörglern recht zu machen.

Zusammenfassend kann man sagen bei Spielen ohne DLSS Unterstützung ist AMD aktuell leicht vorne. Bei Spielen mit DLSS ist wiederrum Nvidia vorne - auf Kosten der Bildqualität. Für natives Raytraycing in hohen Auflösungen sind aber bis jetzt alle Karten zu langsam.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4, PS828, edenjung und eine weitere Person
Mudspike schrieb:
Also in 4K kann ich in keinen Titel(alle DLSS 2.0) eine Unschärfe bisher feststellen. Selbst der Artikel ist doch damit zufrieden, daher kann das eigentlich kein Argument sein es nicht in die Benchmark auf zunehmen.
Eine rein proprietäre Skalierungstechnologie einer! Firma hat in einem Spielebenchmark nichts verloren.
Ergänzung ()

basic123 schrieb:
... Für natives Raytraycing in hohen Auflösungen sind aber bis jetzt alle Karten zu langsam.
Danke für diese Feststellung.
 
Zotac2012 schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.

Ich sehe dort ebenfalls keine Unterschiede und der potentielle Performancegewinn mit DLSS ist halt meiner Meinung nach gewaltig.

Ich würde jederzeit DLSS+Raytracing einer nativen Auflösung ohne RT vorziehen und sogar soweit gehen das speziell bei CP Raytracing das Spiel erst richtig gut aussehen lässt.
Alle anderen Regler bringen wenn überhaupt nur sehr marginale Unterschiede, und das Spiel wirkt sogar oft sehr trist weil viele Reflexionen und die Beleuchtung einfach fehlt; Aktiviere ich jedoch Raytracing spielt das wirklich in einer anderen Liga.

Jeder der was anderes behauptet war noch nie am Arasaka Tower bei Nacht oder hat den Cherry Blossom Market bei Regen besucht.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Ich kann meine Vega 56 jetzt bald ebenfalls wieder rausschmeißen. - Die hab ich zwar jetzt erst 5 Tage (habe meine 1080 gegen die 56 meiner Schwester getauscht) aber ich konnte gestern bei AMD im Shop direkt eine 6900XT zu UVP ergattern.

Eigentlich war eine 6800XT angedacht aber die sind ja einfach kaum zu bekommen und soweit ich das gesehen habe waren die gestern gar nicht. Die 6900XT konnte ich kriegen, also zugeschlagen. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4 und Experte18
basic123 schrieb:
Wäre doch Unsinn jetzt anzufangen Rosinen rauszupicken. Der nächste kommt dann mit der Idee Spiele bei denen AMDs SAM nicht so gut abschneidet wegzulassen usw. So wie es jetzt ist, finde ich es persönlich ganz gut gelöst. Aber Computerbase wird es nie schaffen es allen Dauernörglern recht zu machen.

Ich rede aber nicht von Computerbase. Die testen ja einzelne DLSS Implimentierungen in Spielen wenn sie erscheinen.
Sondern dass Jemand hier nur Cyberpunk als ein Beispiel für die Qualität der ganzen Technik nimmt.

Wie schon Jemand geschrieben hat macht schöechtes TAA natives 2160p Bild auch wieder kaputt und zieht die Details nach unten.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Haldi schrieb:
Mhmm.. Das sind wohl die Taktraten bei Einstecken und Loslegen.
Die Zotac Trinity 3090 (mit 2x8Pin) lief bei mir eigentlich nie unter 1900Mhz. Die Sapphire Nitro+ 6800 XT lief auch meisten auf 2500Mhz. Und das nur dank kurz einstellungen ändern/ schnellem OC.

Aber ansonsten toller Test. War bestimmt viel Aufwand. Dafür nun mit aktueller CPU eine Solide Basis für die Nächsten 1-2 Jahre.
Wenn du deine Grafikkarte wirklich auslastet, wird die nicht im Ansatz mit 1.900 MHz takten, wenn diese Default läuft. Die Sapphire 6800 XT Nitro+ lief bei uns unter Volllast mit etwa 2.300 MHz, die Asus RTX 3090 Strix OC mit mal 1.600 MHz, mal 1.900 MHz. Durchweg schaffen die karten höchstens bei verhältnismäßig geringer Last.
Mudspike schrieb:
Ist die Leserschaft und Abo Inhaber und ggf CB selbst derart AMD lastig, das die AMD Fans nicht verärgern will, die NVidia mit BAR in die Statistik aber durchaus vor Kopf stoßen kann?
Ob etwas zu Gunsten AMDs oder Nvidias geht bzw. ob das unsere Leser gut oder schlecht finden spielt für die ausgesuchte Testweise aber keine Rolle. Dafür ist nur entscheidend, ob wir das für richtig finden oder nicht. Ist ja nicht so al hätten wir nicht schon zig Entscheidungen getroffen und dann dazu gestanden, obwohl es einen kleinen Aufstand im Forum gegeben hat.
W4RO_DE schrieb:
Der Benchmark-Parkour mit dem Ausreißer Assassins Creed Valhalla und standardmäßigem SAM On erscheint mir etwas AMD-lastig. Ich rate dazu, das hiesige Performance-Rating mit den Durchschnittswerten von 3DCenter abzugleichen. Das dortige Rating wird Testseiten-übergreifend berechnet.

Sofern ein Spiel die Möglichkeit für DLSS hat, muss das imho auch in den Benchmarks inklusive eigenem Benchmark-Balken dargestellt werden. Ansonsten geht das Feature unfairerweise unter, wenn es beispielsweise nur im Fließtext irgendwo heißt "ach übrigens, rechnet bei Nvidia mal 60% oben drauf".
Das 3DC-Perf-Rating basiert noch auf Tests ohne die neuen Spiele. Da hat sich auch bei uns quasi nichts geändert. Mit den neuen Titeln aber schon :)
foo_1337 schrieb:
Im Ranking sind sie deshalb 35% schneller, weil Dirt & Co keine Reflexionen nutzen. Wenn du nur Games mit RT Reflexionen nimmst, sieht es düster für AMD aus. Ich hoffe, dass FFSS gut wird, sonst kannst du RT in solchen Spielen komplett deaktiviert lassen.
Und was ist mit Watch Dogs Legion? 2 der 3 RT-Spiele nutzen Reflexionen.
 
  • Gefällt mir
Reaktionen: DannyA4, Zwiebelsoße, .Sentinel. und 3 andere
Zurück
Oben