Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Esenel schrieb:
1440p>4k>1080p sein wird.
Das ist mir bewusst, der Anteil der Besitzer einer 3090/RX6900 ist nochmal deutlich geringer, als der Anteil der 4k-Auflösungen.
Auf was ich raus wollte ist, dass der User um den es ursprünglich ging, vermutlich keine 4K-Auflösung betreibt und damit hat er für sich die schnellste Karte der Liste.

Das ganze basierte ja auf diesem ursprünglichen Post^^
 
  • Gefällt mir
Reaktionen: cbmik
Na das sieht doch alles sehr gut balanciert aus. Bestätigt eigentlich sehr gut den ersten Eindruck bei release von RDNA2 und Ampere.

Nvidia hat Auslastungsprobleme und trotz der überlegenen Rohleistung kommt nicht viel oder wie hier zu Sehen ist oft weniger dabei heraus als bei AMD.

In 4k relativiert es sich wieder und man hat einen Gleichstand an der Spitze.

Gleichzeitig wird das Problem der Speicherkrüppel immer gravierender und trägt zunehmend dicke Blüten.

Bei einem Neukauf welchen man lange benutzen möchte jetzt noch auf 8 GB zu setzen ist nicht klug für moderne Spiele und selbst 10 GB, wenngleich auch jetzt noch ausreichend, könnten sich in den nächsten Jahren zum ritt auf der Rasierklinge entwickeln.

Was aber auch sichtbar ist ist der gigantische Performancesprung zur 2080ti mit der neuen Generation. Hier ist man definitiv in neue Sphähren vorgedrungen und das ist nur ein Ausblick auf das was uns mit Hopper/ Lovelace und RDNA3 erwartet.

AMD ist zurück an der Spitze und wir haben wieder ein kopf an Kopf Rennen in den kommenden Jahren. Das macht definitiv Lust auf mehr
 
foo_1337 schrieb:
Er hat nur nach DLSS gefragt, nicht nach DLSS+RT.
Hab mich auf den Ursprungsbeitrag bezogen mit DLSS+RT, das hätte ich deutlicher sagen müssen :)
Ansonsten reduziert DLSS natürlich den Vram. Sieht man bei Death Stranding gut.
 
  • Gefällt mir
Reaktionen: foo_1337
ZeroStrat schrieb:
Ganz zu schweigen davon, dass getunt zwischen Comet Lake und dem Zen 3 Vorgänger bis zu 30-40% liegen. Diesen immensen Leistungsunterschied habt ihr in Kauf genommen wegen PCIe Gen 4, was im Mittel vielleicht 1-2% ausmacht.

Ich denke nicht, dass das Ziel eines GPU-Vergleichstest sein muss, dass das Testsystem absolute Leistungsrekorde bricht.
Genau das selbe, perfekte High-End-System hat je eh kaum jemand zuhause, also kann man eh nur realtive Vergleiche anstellen. (Karte X ist schneller als Karte Y.)
Wichtig ist, dass das CPU-Limit dabei nicht so schlimm ist, dass die GPUs so eng zusammenrücken, dass man die Leistungsunterschiede nicht mehr erkennen kann. Es sollte also schon eine CPU aus dem High-End-Bereich sein.

PCIe 4.0 hingegen ist allein schon deswegen sehr interessant, weil es Einblicke bringt, wie viel oder auch wenig eine neue GPU-Generation dadurch profitieren kann. Auch dass es derzeit nur enttäuschende 1-2% sind, ist eine Erkenntnis, die ich spannender finde, als dass eine schnellere CPU zu mehr FPS führt, aber die Reihenfolge der GPUs untereinander sich dadurch nicht verändern wird. Das kann man sich doch sowieso denken.
 
  • Gefällt mir
Reaktionen: DannyA4
naicorion schrieb:
Ich weiss nicht, warum das hier immer wieder geschrieben wird. Die RDNA2 sind absolut lausige Miningkarten. Niemand mit Verstand mint auf denen! AMD kriegt schlicht und einfach nicht mehr Karten von TSMC und ein paar Verzweifelte gehen vielleicht trotzdem auf AMD weil es keine NVIDIAs mehr gibt, aber an sich ist das einfach Unsinn.
Das weiß ich auch.
Ich hab mich nicht klar ausgedrückt.

Die AMD karten sind nicht so dolle fürs minen, aber auch davon werden so einige dazu genutzt.

Aber klar ist, die meisten Nvidia karten werden zum minen genutzt.-
Ich denke auch mal, dass die 3060 weg gehen werden wie warme semmeln bei den minern.

Schade das TSMC nicht genug GPUs herstellt. Denn sonst könmnte AMD massiv profitieren.
 
  • Gefällt mir
Reaktionen: naicorion
ZeroStrat schrieb:
Joar, leider kein Wort darüber, dass ihr vorher Zen 2 verwendet habt, was im CPU-Limit gegenüber einem 10900K stock 20% Leistung gekostet. Ganz zu schweigen davon, dass getunt zwischen Comet Lake und dem Zen 3 Vorgänger bis zu 30-40% liegen. Diesen immensen Leistungsunterschied habt ihr in Kauf genommen wegen PCIe Gen 4, was im Mittel vielleicht 1-2% ausmacht.
Nunja, im Text wird mindestens 2 Mal der Prozessorwechsel erwähnt (wenn auch nicht in dem Abschnitt zu den Gründen), verheimlicht haben wir das nun wirklich nicht :)

Aber das Thema RAM-getunter 3900XT gegen 5950X hat mich ja auch interessiert. Und macht das am Ende wirklich einen großartigen Unterschied aus? Wenn ich jetzt mal die paar Spiele direkt miteinander vergleiche, die sich noch vergleichen lasse, sieht das für den 3900XT finde ich gar nicht so schlimm aus.

Parcours alt (3900XT) / Parcours neu (5950X)

Borderlands 3
RTX 3090: 165,1 / 167,4
RX 6900 XT: 172,3 / 180,2

Control
RTX 3090: 156,0 / 160,1
RX 6900 XT: 139,9 / 148,3

Death Stranding
RTX 3090: 190,3 / 229,6
RX 6900 XT: 197,5 / 219,2

Doom Eternal
RTX 3090: 344,3 / 323,8 (keine Ahnung, was da los ist, betrifft alle Nvidia-GPUs)
RX 6900 XT: 347,7 / 350,9

Horizon Zero Dawn
RTX 3090: 119,5 / 127,6
RX 6900 XT: 116,7 / 117,5

Red Dead Redemption 2
RTX 3090: 102,6 / 104,2
RX 6900 XT: 111,2 / 107,6

Natürlich ist der 5950X schneller, aber ich finde jetzt nicht, dass die schnellere CPU an den Ergebnissen großartig etwas ändert. Death Stranding reagiert ganz ordentlich, sonst finde ich da jetzt aber nichts wild bei.

Im Endeffekt wäre es besser gewesen, weiterhin auf eine Intel-CPU anstatt PCIe 4.0 zu setzen, das gebe ich gerne zu. Aber im Endeffekt ist das nunmal immer leicht zu sagen. Und ich glaube halt wirklich nichts, dass das großartig etwas geändert hätte.
 
  • Gefällt mir
Reaktionen: Illithide, DannyA4 und mm19
ich_nicht schrieb:
80\20 Problem.
Man hat das Game zu 80 % fertig mit 20 % Aufwandes = Ship it.
Für die letzten 20 % braucht man 80 % des Aufwandes. Darunter fallen sicherlich auch langwierige Optimierungen.
Jetzt kann man natürlich die Rechnung aufmachen, wie viel mehr Verkauf erreicht man durch diese Optimierung. Im Fall von jährlichen 08/15 Titeln, die eh gekauft werden, wie zB FiFa kommt man damit sicherlich durch. Aber im Fall eines langfristig entwickelten Spiels wie Cyberpunk wurde glaube ich großes Potenzial verschenkt. Vermutlich hätten sie noch wesentlich mehr Kopien zum Vollpreis verkaufen können, wenn das wenigstens einigermaßen auf Last Gen Konsolen und GPUs liefe.
 
foo_1337 schrieb:
So ist es. Sein Chart vergleicht native-non-rt mit dlss+rt. Dass das mehr vram braucht ist klar.
In Minecraft steigt der VRAM-Verbrauch auch mit DLSS (hatte PCGH mal gebencht), es ist pauschal also nicht ganz richtig zu behaupten, DLSS würde den Verbrauch immer senken.
 
Fuchiii schrieb:
Das ist mir bewusst, der Anteil der Besitzer einer 3090/RX6900 ist nochmal deutlich geringer, als der Anteil der 4k-Auflösungen.
Auf was ich raus wollte ist, dass der User um den es ursprünglich ging, vermutlich keine 4K-Auflösung betreibt und damit hat er für sich die schnellste Karte der Liste.

Das ganze basierte ja auf diesem ursprünglichen Post^^

Aber genau da liegt dein Denkfehler begraben.
Denn die 6900XT ist in den Zielauflösungen halt dann doch nicht die schnellste Karte.

Du musst hier eine gewichtete Berechnung nehmen.

(% User in 1440p) * 1440p Ergebnis + (% User in 4k) * 4k Ergebnis + (% User in 1080p) * 1080p Ergebnis durch das addierte Gesamtrating. Und da kommst du sicher auf ein anderes Ergebnis ;-)
 
mtheis1987 schrieb:
Ich finde diese Entwicklung am Markt wirklich gut, es weckt in mir die Hoffnung das Nvidia endlich wieder Innovativ werden muss, und den Preis nicht mehr gestalten kann wie es ihnen beliebt.
Wo ist denn Nvidia nicht Innovativ gewesen die letzten Jahre? Nvidia kann man sicherlich einiges vorwerfen, Ideenlosigkeit finde ich gehört aber nicht dazu. Preislich nehmen sich amd und Nvidia ja nicht viel (3090 ausgenommen), da würde ich auch in Zukunft bei beiden nicht auf sinkende preise setzen.
 
  • Gefällt mir
Reaktionen: Bademeister69
Ich nutze Raytracing schon ganz gerne, die Verfügbarkeit der Karten wird bis in 3-4 Monaten aber dennoch für mich der ausschlaggebende Punkt sein, wenn ich meine Turing Karte in Rente schicke. Was mit freut, ist, dass die quer durch gefühlt 1000 Threads vagabundierende Ansicht des auf absehbare Zeit locker ausreichenden Speichers von 6 oder 8 GB und letztlich auch von den 10 GB einer 3080 zukunftssicher ausreichen. Das tun sie nämlich nicht. Und schon gar nicht, wenn man bei vorliegenden Graphikkartenpreisen einer 3080 aufwärts, einen standesgemäßen Monitor mit mindestens WQHD oder mehr mit mindestens 75 Hz aufwärts befeuern möchte und/oder das von Nvidia mit viel Elan auf Markt gepushte DLSS 2.0 in Kombination mit dem ubiquitär beworbenen Raytracing nutzen möchte. Ich trage mich mit der Hoffnung, dass der Speicherdiskussion und der damit einhergehenden Zukunftssicherheit mit vorliegendem Testparcour endgültig der Wind aus den Segeln genommen ist.
 
DJMadMax schrieb:
Eine Sache wundert mich jedoch:
Ihr vergleicht gesondert die Auswirkungen von AMD's SAM gegenüber einem Referenzwert sowie einer RTX 3080-Karte, vergleicht aber im Gegenzug nicht DLSS mit einem Referenzwert einer AMD-Karte, wieso?

Alternativ und obendrein hätte man eigentlich auch mal einen Testdurchlauf mit jeweils einer Karte beider Lager durch den "perfekt optimierten Lauf" rennen lassen müssen, also z.B. eine RTX 3080 mit aktiviertem DLSS sowie eine RX 6800 XT mit aktiviertem SAM.
SAM und DLSS finde ich jetzt aber schon 2 ziemlich verschiedene Baustellen - zumal das eine Feature von Hersteller X unterstützt werden kann und bald wird, das andere aber nunmal nicht. Und genau deswegen finde ich in Verbindung mit dem aktuellen Durchsetzungsgrad von DLSS es noch für zu früh, daran etwas zu ändern. Das mag sich in Zukunft ändern, noch ist es aber nicht so weit.

Wenn du eine AMD-Karte in den DLSS-Benchmarks haben möchtest, kannst du das für dich aber quasi auch selber machen. Schaue einfach in den RT-Benchmarks nach, wie schnell dort AMD ist. Dann hättest du da auch eine AMD-GPU drin :)
 
  • Gefällt mir
Reaktionen: DJMadMax
Wolfgang schrieb:
Im Endeffekt wäre es besser gewesen, weiterhin auf eine Intel-CPU anstatt PCIe 4.0 zu setzen, das gebe ich gerne zu. Aber im Endeffekt ist das nunmal immer leicht zu sagen.
Ich glaube, das haben wir auch schon bei der Vorstellung des unsäglichen 3900er Tests gewusst und gesagt, wäre halt schön gewesen, wenn es statt dieses Artikels einen dem Anspruch an einen GPU-Test würdigen gegeben hätte.

Zu spät, und hier passt es (zumindest für den Moment) ja auch wieder.
 
Von den getesteten Spielen besitze ich genau eines. Borderlands 3. Und das spiele ich noch nicht einmal. Meine Enttäuschung 2020.

Mit den alten Schinken, die ich noch auf meinen 4 Piles rumliegen, sollte das mit meiner 5700 nonXT auch in WQHD noch eine Weile gut funktionieren. Monitor kann ich also kaufen. Gut.

Vielleicht kann man dann ja irgendwann mal wieder aktuelle Grafikkarten kaufen, ohne beim bezahlen in Tränen auszubrechen. Man soll die Hoffnung ja nie aufgegeben.

Und btw: DANKE für den Test. Freue mich ein bißchen für AMD. Bei den Features sollte AMD aber fix nachlegen. Eine 3060Ti finde ich nämlich auch interessant.

:smokin:
 
JohnVescoya schrieb:
in WQHD liegt AMD auch in Führung. Was soll dieses Geschwätz "im Schnitt komt bei AMD nicht viel raus"? Die absolut schnellsten Karten zu haben ist also "nicht viel"?
Meine Güte, das war doch auf SAM bezogen, nicht auf die Gesamtleistung. Wieso fühlen sich hier manche so angegriffen, wenn ihre Lieblingsfirma scheinbar attackiert wird? 🙄
 
Ich bin immer aufmerksamer Leser der Grafikkarten-Tests - mal wieder grandiose Arbeit!

Eine Frage bleibt aber irgendwie ungeklärt: Bei den Benchmark-Ratings wird immer in Prozent angegeben. Wonach bemisst sich bspw. das Performancerating, wenn die 6900XT 96,7% schafft - wieso nicht 100%, wenn sie ja die Tabelle anführt? Es sind ja auch offensichtlich keine FPS, oder etwa doch?

Ist nur ne reine Verständnisfrage :).

Greets
 
  • Gefällt mir
Reaktionen: danyundsahne
Wolfgang schrieb:
Aber das Thema RAM-getunter 3900XT gegen 5950X hat mich ja auch interessiert. Und macht das am Ende wirklich einen großartigen Unterschied aus? Wenn ich jetzt mal die paar Spiele direkt miteinander vergleiche, die sich noch vergleichen lasse, sieht das für den 3900XT finde ich gar nicht so schlimm aus.
Ich finde die Entscheidung für AMD nachvollziehbar. Habe bisher nur die Messungen einer 5700 /5500xt auf PCIE 3 vs. 4 gesehen. Bei einer 3090 /6900xt ist der Effekt aber vielleicht größer. Schaut Ihr das noch einmal an?

Zum verschieben des CPU-Limits könnte man ja dem 5950 die Sporen geben? Da ist ja noch richtig Luft, PCGH hat da mit Auswahl des richtigen Samples etc. eine kleine Wissenschaft draus gemacht und bencht jetzt auf dem aktuell wohl schnellsten CPU Set-up. Gute Idee aus Eurer Sicht?
 
Mumusud schrieb:
Wo ist denn Nvidia nicht Innovativ gewesen die letzten Jahre? Nvidia kann man sicherlich einiges vorwerfen, Ideenlosigkeit finde ich gehört aber nicht dazu. Preislich nehmen sich amd und Nvidia ja nicht viel (3090 ausgenommen), da würde ich auch in Zukunft bei beiden nicht auf sinkende preise setzen.

Beim Thema Preise hast du recht, dort besteht nach wie vor die Möglichkeit das nicht NV die Preise senken wird, sondern AMD jetzt NV Preise verlangen kann da man ja auf Augenhöhe ist. Ich für mich selbst betrachte dort auch immer nur die Spitze, also 6900XT/3090.
 
Ich wollte ja eigentlich eine RX6900XT haben aber die Verfügbarkeit und Preise haben das nicht zugelassen.
Glücklicherweise konnte ich mir eine sehr gute Custom RTX3080 ergattern und muss sagen ich damit auch sehr zufrieden. Mittlerweile habe ich auch die ersten Raytracing Spiele und DLSS ausprobiert und muss sagen das ist schon der Hammer. Ich bin sehr gespannt was AMD bei der nächsten Generation an RT und DLSS Leistung liefert. Und wenn man die Karten auch noch kaufen kann, wirds dann vielleicht eine AMD
 
  • Gefällt mir
Reaktionen: uli_2112, foo_1337 und Recharging
Zurück
Oben