Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

@Laphonso deine Schallplatte hängt. Du machst Seitenweise nichts anderes als dich immer und immer wieder zu wiederholen.
Man könnte bald alle deine Beiträge hier in einem einzelnen Zusammenfassen.
Du bist doch der, der hier jeden der nicht FÜR deine Meinung spricht als NV-Gegner betitelt.

Im übrigen bevorzuge ich weder AMD noch NV - ich hatte über die Jahre immer wieder von beiden Karten verbaut.

Egal..die ganze Diskussion verschwindet vermutlich sowieso im Aquarium :freak:
 
  • Gefällt mir
Reaktionen: basic123
@basic123 ich habe auch nur exemplarisch Call of Duty genannt. Es gibt ja zweifellos einige, die haben Lust auf RayRacing in Cyberpunk und 4K.
Das ist mit einer AMD Karte derzeit aber ein frustiges Deja Vu wie es Nvidia 2018 hatte in Battlefield V als es 50% fps kostete.
Also wird es reduziert es auf das erträgliche Minimum, weil es dort eben kein DLSS Pendant gibt.
Und dann schauen wir uns mal an wie das Ganze denn aussieht bei Witcher 3, im doppelten Wortsinne.

Es nützt es also auch nichts dieses Thema ignorieren zu wollen, nur weil Nvidia dort gerade besser wegkommt, der Zug ist abgefahren, immer mehr Spiele sind betroffen, jetzt und zukünftig.
Und damit ist es relevant bei einer Kauf Entscheidung, die mehrere 100 € Investitionen erfordert für mehrere Jahre oder vielleicht sogar über 1000 €.

https://community.amd.com/t5/genera...-directml-powered-super-resolution/m-p/436688

Aus diesem Grunde ist es so, dass diese Fragen auch dann und wann in den offiziellen AMD Foren auftauchen, wann denn hier eine Antwort auf NVIDIA DLSS kommt.
Sobald das passiert, haben wir endlich und hoffentlich auch da wieder Augenhöhe, oder zumindest eine Perspektive für die AMD GPU Flotte.
 
es bleibt trotzdem dabei, dass nicht jeder 2000+ € für eine Grafikkarte ausgeben möchte, auch wenn diese die derzeit beste technische Umsetzung darstellt.

Wenn du damit nicht klar kommt, sind Foren nicht der richtige Ort für dich.
 
  • Gefällt mir
Reaktionen: basic123
Aus Sicht eines 4k-Spielers:
Ohne RT sehe ich für mich derzeit(!) noch keine Notwendigkeit eine Technologie wie DLSS zu verwenden. Die aktuellen Spiele laufen ganz gut mit Freesync. Aber keine Frage, hätte AMD eine vergleichbare Technologie schon parat, würde ich sie ausprobieren und falls mir keine Einbußen bezüglich der Bildqualität störend auffallen (muss nicht heißen es gäbe keine), würde ich diese auch aktivieren.
Ich will damit also sagen, für mich ist DLSS aktuell unbestritten ein Pluspunkt für Nvidia, aber noch nicht der "Game-Changer".

Mit RT sieht das Ganze - wie bereits in früheren Beiträgen erwähnt - ganz anders aus. Hier kommt man momentan (in 4k) eigentlich nicht an DLSS vorbei.
Man muss einfach ein wenig darauf vertrauen (oder hoffen), dass AMD etwas liefert, was einigermaßen taugt. Ich war vor Zen2 und RDNA2 jeweils äußerst skeptisch und wurde positiv überrascht. Vielleicht hat AMD noch eine weitere Überraschung in der Pipeline? Vielleicht aber auch nur einen klassischen "Rohr-Krepierer" - wer weiß?
Man kann auf jeden Fall davon ausgehen, dass AMD nicht erst mit dem Release der neuen GPUs angefangen hat, an "Fidelity FX SR" zu entwickeln. Daher muss das Ergebnis nicht zwangsläufig eine Generation hinterherhinken.
Bei kommenden Games ist eine Optimierung auf Next-Gen-Konsolen relativ wahrscheinlich. Ich könnte mir vorstellen, dass dann AMD-Karten in PCs einen - derzeit schwer abzuschätzenden - Boost erhalten werden. Es wäre sehr optimistisch zu hoffen, dass man damit auf Nvidia aufschließen kann, aber jeder Schritt nach vorne ist ja positiv zu sehen.

Ich sehe allerdings überhaupt keinen Grund dafür, sich wegen so etwas banalem in die Wolle zu kriegen.
 
  • Gefällt mir
Reaktionen: Hardware_Junkie, .Sentinel., Fuchiii und 2 andere
@Creeping.Death gut zusammen gefasst und völlig plausibel erklärt und pointiert.
Im Prinzip hat AMD die ganzen letzten Jahre auf alles reagiert nachdem Nvidia vorgelegt hatte, deswegen unterstelle ich das bei einer ML+AI Re-Construct/Sampling Lösung genauso.

Aus der Sicht eines Gamers, für den das Spielerlebnis und die Immersion auch fundamental durch die Atmosphäre und das Setting aufgrund der Grafik und Inszenierung gesteuert wird, ist jede weitere Entwicklung und Verbesserung zu begrüßen.
Und ich bin mir sicher, dass ich ja nicht nur für mich alleine spreche, denn ansonsten hätten wir ja überhaupt nicht die Resonanz bei dem Thema Grafikkarten generell, sie sind nun mal die Schlüsselkomponente.
 
Meine Güte, kann denn immer noch nicht über Grafikkarten diskutiert werden ohne das die Fanboys ihre Ansichten durchsetzen wollen?

Genießt doch eure Karten, viele wären froh eine zu bekommen. Ich wollt anfangs auch ne AMD, RT Leistung war mir aber zu schlecht, also doch RTX. Obwohl ich nie Nvidia kaufen wollte. Und auch zu DLSS hatte ich Bedenken - aber in der Praxis (Cyberpunk) funktioniert es eben recht gut. Da kann man seine eigene Meinung auch mal ändern.

Und wisst ihr was das Beste ist? Es sind Karten- man kann sie einfach ausbauen und austauschen. Ist keine Heirat, kein Haus und kein Kind, es ist nur eine Grafikkarte. Reichen in 2,3 Jahren keine 10GB mehr, tausch ich die 3080 aus. Ist die nächste Generation AMD schneller in RT und hat auch "DLSS" - kauf ich mir ne AMD.

Puuh, nervig.
 
  • Gefällt mir
Reaktionen: uli_2112
Der Test ist super gemacht, jedoch gefällt mir das Testdesign und die Aggregation am Ende nicht. Die sind aber entscheidend, um zu einem klaren Ergebnis zu kommen.

In den Standardtests wird auf Raytracing und DLSS verzichtet und die Grafikkarten in einem so sehr theoretischen Szenario gegenüber gestellt. Die Aussagekraft ist hier für AMD gering, für Nvidia aber noch geringer. Stattdessen wird AMD mit SAM getestet, NVIDIA aber (logisch) nicht mit Resizable Bar, da es noch nicht verfügbar ist.

SAM, RT und DLSS sind klare Zukunftsthemen, die den Markt in Zukunft dominieren werden. Sie nicht in das allgemeine Performancerating einfließen zu lassen leuchtet mir nicht ein. Dass SAM aber aufgenommen, DLSS und RT separat behandelt werden, folgt einer Logik, die ich nicht verstehen kann.

Natürlich unterstützen noch nicht alle Spiele RT und DLSS. Wo es aber verfügbar ist, sollte es ins allgemeine Performancerating einfließen. Alles andere ist Trockenschwimmen.

Kaum ein Anwender würde in aktuellen Titeln wie CP auf eine der beiden Techniken verzichten. Mit den Features erhält er gegenüber den AMD-Karten ein deutlich aufgehübschtes und flüssiger laufendes Game.

Wie gesagt, toller Test. Das Testdesign ist aus meiner Sicht aber nicht schlüssig, zumal die Tests am Ende ja separat aufgeführt sind, im Fazit aber zu wenig berücksichtigt werden. Insbesondere die Tragweite von DLSS bleibt meines Erachtens auf der Strecke.

Ganz abgesehen davon hoffe ich sehr, das AMD bald mit einem vernünftigen DLSS Konkurrenten auflaufen kann. Das wird mehr als alles andere in den kommenden Jahren über die Rangordnung im Grafikkartenmarkt entscheiden.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Laphonso und foo_1337
Laphonso schrieb:
Du möchtest in einem GRAFIKKARTEN Thread die beiden Blockbuster Features, die seit 2,5 Jahren in der internationalen Technik- und Gamingpresse ein Thema sind,
Ich habe behauptet, dass du außer DLSS und RT kein einziges weiteres Argument liefern kannst.

Danke dass du mir in der Hinsicht rechtgegeben hast. Habe keine weiteren Fragen mehr. Egal was man dich fragt, deine Antwort ist immer und immer wieder kurz zusammengefasst: „DLSS und RT Herrenrasse“. Selbst bei Spielen die es überhaupt nicht unterstützen.
 
.Sentinel. schrieb:
Ja- Ich weiß... und das betone ich immer wieder. Es wurde bei DLSS oft gepfuscht und V1 war für die Tonne.
Das liegt aber nicht an DLSS, sondern an der mangelhaften Integration.

Stimmt, dann so richtig fies wird die Flimmerhölle der "nativen" Auflösungen erst bei Bewegung.
hä ???
(Flimmerhölle in nativ 4k, sollte an nem guten Moni net sein...wird wohl an "dem" grottigen Game XYZ liegen)

Z.Bsp. soll dann wohl auch bei CP2077 gepfuscht worden sein? (Das wäre aber net DLSS1.0 sondern 2.0)
Ein User bei pcgh berichtet von unschönen Bildern in hor. Drehungen, so als ob DLSS2.0 "nur" bei Stillstand
die "schönen" Schnappschüsse könnte!? (sprich heimlich im Stillstand nachbessert ???.. ähnlich RT)
https://extreme.pcgameshardware.de/...na2-laberthread.577672/page-128#post-10657607
(soll wohl vor Allem im Balanced-Mode auffallen; Perf.mode ist eh nur Gimmick, wenn... dann schon Quality)
Und ein anderer User meint, das in WDL durch DLSS keine UHD-Texturen mehr da sind sondern nur billige HD.
(leider ohne Angabe , ob Balanced)

Nach m.E. erstmal noch ne Gen. abwarten, vllt. kanns ja 3.0 richten.(oder AMD)
Quality vor Quantity (mehr Fps sind sinnlos, wenn das Bild zu sehr leidet, wie schon Wolfgang in den Gamereviews ganz richtig sagt...lieber in nen Freesync-Moni investieren und mit 10 Fps weniger trotzdem ein tearingfreies Bild geniessen; net jedes Game braucht high Fps... insofern sind gerade langsame Games im Parcour eigentlich uninteressant hinsichtlich Balkenlänge...nur die minFps müssen über der Untergrenze von der Freesync-Range liegen)
 
Zuletzt bearbeitet:
basic123 schrieb:
Ich habe behauptet, dass du außer DLSS und RT kein einziges weiteres Argument liefern kannst.
Ich behaupte, dass Du außer offene Fenster und der Klimaanlage keine weiteres Argument bringen kannst zur Luftzirkulation in meinem Auto. Lass das doch weg!

😉

Ist halt albern, elementare Features für die Grafikdarstellung wegzulassen in einem Grafikkartenthread namens "Grafikkarten 2021 im Test".
 
Im übrigen war mein Aufgänger
Mr. Amboss schrieb:
Natürlich unterstützen noch nicht alle Spiele RT und DLSS. Wo es aber verfügbar ist, sollte es ins allgemeine Performancerating einfließen. Alles andere ist Trockenschwimmen.
Genau das war auch der Impuls, den ich hier geben wollte.

Wer nicht nicht in Befindlichkeiten fällt und Cyberpunk mit dem neuen System und der neuen GPU in 4K und Raytracing spielen, schaut vielleicht hier nach.
In ein Performancerating gehört, dass man erkennt, dass mit den Ampere GPUs auch 4K Raytracing in Cyberpunk stemmen kann, mit RDNA 2 derzeit nicht, auch nicht mit einer 1000 Euro GPU.

Zudem muss erkennbar sein, dass man mit einer 6800XT in COD im 4K Ultra Raytracing an 30 fps scheitert.
Mit einer 3070 nicht. Mit einer 2080 auch nicht.

RT off schiebt eine 3070 hier dank DLSS 100 fps, das sind fps Korridore der doppelt so teuren (!) 6900XT.
Wieso erkennt man das nicht mit 2 Klicks in einer GPU Gesamtsicht und Benchmarks?

Das ist für mich eine Frage der Transparenz, wenn ich dieses hervorragende Medium Computerbase nutze für eine Information und Vergleiche.

Dass die AMD GPUS hier in diesen 20 Titeln von Relevanz schlechter wegkommen, gehört für mich zur Wahrheit, auch wenn einige das hier ignorieren möchten.

Vor 2,5 Jahren hat man sich über die 2080Ti lustig gemacht und die quasi "kaum nutzbare" Raytracing Option.

Das gilt dann nun 1:1 für AMD, denn das Raytracing Feature ist dort abseits weniger Games selbst mit einer 6900XT untauglich.

Das muss sich im Performancerating m.E. abbilden, und sei es in einer separaten Liste mit "Raytracing Games only".
Dass ich in einigen Games auch DLSS "so" nutzen kann (also nicht an Raytracing immer zwingend gebunden binfür den fps Boost ), finde ich hier auch nicht, leider. Ich verstehe, dass das eine Ressourcen (Zeit)frage ist.

"Es wäre schön", wie man sagt :) Weil transparent und umfassend.
 
Zuletzt bearbeitet:
GerryB schrieb:
Z.Bsp. soll dann wohl auch bei CP2077 gepfuscht worden sein? (Das wäre aber net DLSS1.0 sondern 2.0)
Genau - Da wurde gepfuscht.
GerryB schrieb:
Ein User bei pcgh berichtet von unschönen Bildern in hor.
Hor?
GerryB schrieb:
Und ein anderer User meint, das in WDL durch DLSS keine UHD-Texturen mehr da sind sondern nur billige HD.
(leider ohne Angabe , ob Balanced)
Genau- Auch da wurde gepfuscht.
GerryB schrieb:
Nach m.E. erstmal noch ne Gen. abwarten, vllt. kanns ja 3.0 richten.(oder AMD)
Da bringt es auch nichts, wenn man noch 25 Generationen abwartet wenn die Firmen zu faul sind, die Bibliothek sauber zu integrieren.
GerryB schrieb:
Quality vor Quantity (mehr Fps sind sinnlos, wenn das Bild zu sehr leidet, wie schon Wolfgang in den Gamereviews ganz richtig sagt...
Und genau das ist ja der Vorteil von DLSS: Supersampling, damit überlegenes Anti- Alias und korrektere Geometrie- Darstellung und das bei höherer Performance.

Ich kann es nur immer wieder betonen. Es hilft nichts gegen die Technik zu schießen, wenn die Ursache von Fehldarstellungen bei einer schlampigen Integration liegt.

Wenn einer die Schattendarstellung in einem Spiel verhunzt und alles flimmert, dann stelle ich mich doch auch nicht hin und schimpfe gegen "cascaded shadow mapping" sondern beschwere mich beim technischen Support des Entwicklerstudios über die unsaubere bzw. fehlerhafte Integration.
 
  • Gefällt mir
Reaktionen: foo_1337
.Sentinel. schrieb:
Genau - Da wurde gepfuscht.
.Sentinel. schrieb:
Genau- Auch da wurde gepfuscht.
.Sentinel. schrieb:
Da bringt es auch nichts, wenn man noch 25 Generationen abwartet wenn die Firmen zu faul sind, die Bibliothek sauber zu integrieren.
Es wird also bei fast jedem Beispiel gepfuscht - wie du hier sagst.
Also kann man es momentan halt doch meist nicht nutzen :rolleyes:

Und das 4k Texturen nicht geladen werden ist logisch, denn die Renderauflösung liegt ja nunmal nicht bei 4k bei DLSS, sondern lediglich die ausgegeben Bilddarstellung ist 4k.
 
Wäre aber wieder ein implementierungsthema. Mit DLSS sollten Ultra Texturen auswählbar sein. Denn bei den FPS macht das fast nichts aus.
 
  • Gefällt mir
Reaktionen: GerryB
Wolfgang Andermahr: Dennoch wirkt die Basis bei DLSS 2.0 wie verwandelt und zeigt in allen drei Spielen anderthalb Jahre nach der Turing-Vorstellung das Potenzial, vor allem aufgrund der enormen Hardware-Anforderungen von Raytracing zu einem richtigen „Game Changer“ zu werden und den Unterschied zwischen spielbar und nicht spielbar auszumachen.

Alexander Köpf (Gamestar): Mein Fazit könnte ich eigentlich sehr kurz halten: Ich bin begeistert von DLSS 2.0. Damit ist Nvidia dort angelangt, was vor nicht ganz zwei Jahren noch ein Versprechen war - zumindest in den vier getesteten Spielen.
DLSS 2.0 steigert die Bildrate teils enorm und die Bildqualität leidet nicht darunter. Oftmals ist sogar das Gegenteil der Fall: DLSS kitzelt manches Detail hervor, das in der nativen Auflösung gar nicht erst gerendert wird.


Marc Sauter (Golem): Die Bildrate fällt hoch aus und gerade die Rekonstruktion feiner Details hat uns teils ziemlich überrascht. . Angesichts dessen, was DLSS 2.0 leistet, würden wir weitere Titel begrüßen.

Raphael Vötter (PCGH):

Die Gewinne bei der Detaildarstellung verblüffen vor allem im Angesicht der intern reduzierten Auflösung und gigantischen Leistungszuwächse. DLSS 2.0 verhilft allen getesteten Spielen zu einem deutlichen Detailgewinn im Standbild durch knackige Rekonstruktion verlorengegangener Details und kann auch im Bewegtbild klare Vorteile bei der Bildschärfe verzeichnen. DLSS 2.0 ist besser als DLSS 1.x und punktet nach wie vor mit riesigen Leistungsgewinnen, neben denen die kosmetischen Mängel kaum ins Gewicht fallen.


Alle Berichte, Tests und Reviews skizzieren die Schwächen, die auch DLSS 2.0 noch hat.
Doch das Fazit ist eindeutig. @Fuchiii

Das ist relevant für die die fps, für die Relationen und damit auch für den Leistungsumfang im Vergleich dieser Titel.
Damit gehört diese Technik m.E. in allen betroffenen Titeln (die ja 2021 nur noch mehr werden) gewichtet in eine Gesamtsicht von GPU Tests und Rating., da wir ja offensichtlich von 30-80% fps Gewinn sprechen, je nach Game und Ausprägung. Wolfgang hat es doch so geschrieben: DLSS macht gewisse RT Titel (siehe oeben) überhaupt erst spielbar. Bis auf weiteres nicht auf AMD Karten.
Genau das sollte doch aber jemand, der kaum Ahnung von der Materie hat, erkennen können und diese Infos auch so finden.
 
  • Gefällt mir
Reaktionen: foo_1337
Fuchiii schrieb:
Es wird also bei fast jedem Beispiel gepfuscht - wie du hier sagst.
Also kann man es momentan halt doch meist nicht nutzen :rolleyes:
Bei den aktuellen Beispielen (WD Legion und Cyberpunk) wurde nachweislich gepfuscht.

Fuchiii schrieb:
Und das 4k Texturen nicht geladen werden ist logisch, denn die Renderauflösung liegt ja nunmal nicht bei 4k bei DLSS, sondern lediglich die ausgegeben Bilddarstellung ist 4k.
Stimmt- Die Zielauflösung bzw. die Auflösung der kumulierten Frames liegt über 4K und wird dann auf 4K heruntergerechnet. Deswegen muss das Ergebnis bei korrekter Implementation detailierter aussehen (geometrisch).

Da NVIDIA laut Leitfaden aber explizit das Behandeln der Texturen durch DLSS ausschliesst, müssen die bei korrekter Anwendung gleich der Ausgabeauflösung bleiben.

Ist DLSS 2.x richtig integriert darf sich weder an Texturauflösung noch an der Texturschärfe etwas ändern.

1614014305633.png


Deswegen wird es langsam zum Treppenwitz, wenn Entwickler es nicht schaffen, die einfachste aller Vorgaben von NVIDIA in ihrer Integration zu beachten, was ein untrügliches Zeichen dafür ist, mit welch unfassbar heisser Nadel viele Titel inzwischen gestrickt werden und wie unfertig die Entwickler ihr Produkt auf die User loslassen.

DLSS rührt die Texturen nicht an! Und wenn es dies doch tut, dann ist es ein eklatantes Versagen bei der Integration.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso, Fuchiii und foo_1337
Nvidia selbst sagte damals bei Monster Hunter auch, dass man unbedingt das HD Texture Pack nehmen soll, wenn man DLSS nutzt. Capcom selbst hat darüber nichts in den Anforderungen geschrieben..
 
foo_1337 schrieb:
Schaltest du Raytracing an, ruckelt es -> selber Grund. Dein Argument ist nichts anderes, denn auch früher wollte man eigentlich die schönere Grafik. Sonst hätte man die Regler so lange nach links drehen können, bis es ruckelt.
Unsinn. Zudem bei wohl 95% der verkauften Karten nicht mal im ansatz an RT zu denken ist. Die mehrheit da draußen kauft Karten um 200€(!), die sind idR schon beim erstart der Spiele auf low.
 
Zurück
Oben