Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

.Sentinel. schrieb:
Das muss ja nicht passieren. Das schöne an Raytracing ist ja die Skalierung. Statt einem Ray/Sample per Pixel, macht man halt bei den stärkeren NVIDIA- Karten dann 2.

Statt einem Bounce, macht man dann halt Multi- Bounce etc.
Alles ohne Zusatzaufwand in der Programmierung.
Ist dies wirklich so einfach umsetzbar? Ich kenne mich nicht im Detail aus jedoch würde es mich etwas wundern wenn sich die "Basic Raytracing" Features ohne (aufwendigere) Anpassung skalieren lassen. Wäre natürlich sehr vorteilhaft für Nvidia und umso mehr verwunderlich wieso AMD nicht mehr Hardware bereitstellt explizit für Raytracing.

.Sentinel. schrieb:
PhysX war eine Erfolgsgeschichte sondersgleichen und wurde in vielen Engines als Default Physik- Bibliothek eingesetzt. Hardware- PhysX war dann eher ein Rohkrepierer, da Anfangs zu hardwareintensiv und dann mit jeder Iteration dahingehend leistungsfähiger, als dass es dann jede CPU ohne große Einbußen stemmen konnte.
Guter Punkt, ich hatte nur noch die Hardware Version im Kopf.

.Sentinel. schrieb:
Da die Studios keinen großen Aufwand haben da irgendwas anzupassen (Schittstelle ist ja DXR oder Vulkan RT) und NVIDIA alles schluckt, wohingegen AMD nur mit Inline- Raytracing ernsthaft was anfangen kann, spielt das alles keine Rolle.

Das hat auch schon die Erfahrung der letzten Jahre gezeigt, dass es keine Auswirkung bei den Konsolenports hatte, dass AMD Hardware verbaut war.
Hier bin ich ehrlich, all die verschiedenen Raytracing Implementationen machen es einem nicht leicht den Überblick zu behalten. 😬

Soweit ich das nun verstanden habe wird auf den Konsolen Raytracing in Zukunft hauptsächlich via Vulkan API realisiert?
Nvidia hingegen hat bisher einen zusätzlichen (proprietären) Layer auf DXR drauf geklatscht, weswegen auch nur die wenigsten Titel auf AMD abspielbar sind mit RT, oder wenn dann nicht optimal.

Was ich behaupte ist, dass wir viel weniger von Nvidias DXR sehen werden in Zukunft, bis auf einige gesponserte Spiele. Wenn die anderen Implementationen nun so einfach skalierbar sind wird Nvidia die Nase trotzdem vorne haben in Sachen RT, aber wohl weniger extrem wie bis jetzt getestet wurde.
 
Bin nach knapp 2 Monaten immer noch sehr zufrieden mit der 6900XT, bisher keine Treiberprobleme oder ähnliches gehabt. Mit 150€ Aufpreis zur UVP kann derzeit fast von ein Schnäppchen reden.
Ich wollte eigentlich nur eine 6800XT, aber die war noch schwieriger zu bekommen und kaum billiger.
Kenne bis heute niemanden in meinem Freudeskreis der eine besitzt.
Der grösste Teil wollte auf die Ampere Generation aufrüsten, aber bei den derzeitigen Preisen, bleiben die alten 1070/1080 erstmal drin.
Bei den Gebrauchtpreisen müsste ich meine alte 2060 Super aus dem Zweitrechner verkaufen, aber die Angst das die 6900XT dann doch mal versagt ist mir zu groß.^^
 
  • Gefällt mir
Reaktionen: Illithide und Larnak
Ich spiele aktuell auf meiner 3070 Cyberpunk auf 1440p mit DLSS Qualität und RT Ultra mit konstant 50-55 FPS und das Spiel sieht fantastisch aus.

Natürlich braucht Raytracing viel zusätzlichen Videospeicher aber DLSS mindert die VRAM Auslastung diesbezüglich massiv (Ich brauche in keinem Szenario mehr als 7,1GB VRAM ).

Und ja, ich bin fest der Meinung (dass zumindest bei aktivierten Raytracing) bei allen aktuellen GPUs immer die Performance der GPU in die Knie geht, als das der Videospeicher vollläuft.

Raytracing und native 1440p Auflösung schafft derzeit doch keine einzige Grafikkarte...egal ob 6, 8 oder 24GB , d.h. davon zu reden das der Speicher bei 1440p mit aktivierten Raytracing zu knapp wird halte ich für zu kurz gegriffen. Selbst eine 3090 schafft hier bei CP nur gut über 40 FPS trotz 24GB VRAM und die wahre Bremse ist hier die sicher nicht der Speicher.

Und jeder der behauptet nativ 1440p sehe besser aus als Raytracing mit DLSS hat beide Techniken noch nie live gesehen. Gerade bei CP ist Raytracing der GameChanger schlecht hin, und macht das Spiel stellenweise zu einer Augenweide, wo ansonsten nur trister Texturenbrei herrscht.
 
  • Gefällt mir
Reaktionen: foo_1337, Sotek, Deftract und 2 andere
Esenel schrieb:
Aber genau da liegt dein Denkfehler begraben.
Denn die 6900XT ist in den Zielauflösungen halt dann doch nicht die schnellste Karte.

Du musst hier eine gewichtete Berechnung nehmen.

(% User in 1440p) * 1440p Ergebnis + (% User in 4k) * 4k Ergebnis + (% User in 1080p) * 1080p Ergebnis durch das addierte Gesamtrating. Und da kommst du sicher auf ein anderes Ergebnis ;-)
Ich verstehe was du meinst, das gilt aber nicht für den Beitrag um den es ging. Denn der hat ja eine konkrete Auflösung bei sich stehen.

Denn Auf diesen Beitrag antwortete ein User, und darauf gab ich geantwortet.

Was die Gesamtperdspektive angibt hast du Recht, ja.
 
  • Gefällt mir
Reaktionen: Zwenki, cbmik und Esenel
Vielen Dank für diese tolle Übersicht mit den vielen Tests. Wie immer hervorragend und sehr übersichtlich! Aufgrund der Marktsituation wird es bei mir dann dieses Jahr wohl doch kein neuer Gamer PC werden. Dann eben warten auf DDR5 und sehen was AMD oder Intel noch so bringen.

MfG
 
naicorion schrieb:
Ich finde die Entscheidung für AMD nachvollziehbar. Habe bisher nur die Messungen einer 5700 /5500xt auf PCIE 3 vs. 4 gesehen. Bei einer 3090 /6900xt ist der Effekt aber vielleicht größer. Schaut Ihr das noch einmal an?

Zum verschieben des CPU-Limits könnte man ja dem 5950 die Sporen geben? Da ist ja noch richtig Luft, PCGH hat da mit Auswahl des richtigen Samples etc. eine kleine Wissenschaft draus gemacht und bencht jetzt auf dem aktuell wohl schnellsten CPU Set-up. Gute Idee aus Eurer Sicht?
Auch auf den neuen Grafikkarten bringt PCIe 4.0 kaum etwas, hier auf der RTX 3080 getestet:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_pcie_40_vs_pcie_30

Finde ich keine gute Idee. Warum? Ich halte den Gewinn im Vergleich zu einem 5950X im Werkszustand inklusive RAM-Tuning für gering. Man heizt das System deutlich mehr auf, was einen direkten Einfluss auf die Grafikkarte bezüglich Temperatur, Lautstärke und Takt hat.

Hinzu kommt, dass damit die Gefahr natürlich höher ist, dass die CPU instabil ist. Es kann ein neues Spiel kommen, wo es plötzlich nicht mehr geht. Und dann doktort man herum. Oder die CPU altert schlecht, schafft das OC heute, in 5 Monaten dann aber plötzlich nicht mehr. Oder die CPU geht kaputt und man bekommt eine neue, die das Niveau nicht mehr schafft. Ich sehe da einfach viel mehr Nachteile als Vorteile drin.
 
  • Gefällt mir
Reaktionen: uli_2112, DannyA4, nospherato und 2 andere
GreitZ schrieb:
Glaube mir, würden AMD die 6000 non xt ohne raytracing Unfug für 100-200€ weniger verkaufen, wäre das die beste Entscheidung für Leute die das nie für wichtig genug erachten die Kaufentscheidung schlechthin
Aktuell ist die RT Leistung ja wie non 😂 und wenn du die Graka bei AMD direkt bekommst ist sie auch 200 € günstiger als das was ich bezahlt habe :smokin:
 
  • Gefällt mir
Reaktionen: GreitZ
lSonicXl schrieb:
Also AMD hat ganz klar das interessantere Gesamtpaket.
das sehe ich genau andersrum, auf das Gesamtpaket bezogen. Die paar FPS machen den Kohl nicht Fett, das kann man messen aber nicht merken. Sehr wohl merkt man einen deutlichen Unterschied bei Raytracing in Verbindung mit DLSS sowohl bei den FPS als auch bei der Bildqualität.
 
  • Gefällt mir
Reaktionen: Pastafari, foo_1337, Sotek und eine weitere Person
.Sentinel. schrieb:
Nein, weil die große Mehrheit Grafikkarten deshalb kauft, um schönere Grafik zu haben.
Das hat sich nie geändert. Die wenigsten sind hartgesottene High- FPS- Gamer. Da ist der Bias in den Hardwareforen schon extrem.
Schönere Grafik kann es nur dann geben, wenn man nicht bei 40 fps rumkrebst. Und schon gar nicht, wenn man Freesync oder das NV-Pendant mit 144 Hz open end nutzt.
 
naicorion schrieb:
Abgesehen davon ist eigentlich alles zu haben. Man muss halt regelmässig schauen und sich seine Schmerzgrenze überlegen. Die Einen sagen "Ich zahle nicht über UVP aus Prinzip" - kann ich verstehen. Andere sagen "Habe das Geld, 400€ mehr sind mir egal
Ich habe das Geld will so viel allerdings nicht dafür ausgeben.
Ich sehe hier auch die Mehrleistung die ich für mein Geld bekomme nicht.

Außerdem kommt der Umstand dazu, das die Grakas bis Heute noch nicht stabil laufen und es immer wieder vorkommt, dass minderwertiges Bauteile aufgrund der Lieferschwierigkeiten verbaut werden.

Für sowas gebe ich nicht nochmal mehr Geld aus.

Klar logisch bekommt man die 3070 noch zu kaufen, die hat halt nur 8GB, da kann man sein Geld auch gleich verbrennen. Ich kauf mir sowas nicht mehr, meine GRAKA arbeitet mit 8GB schon lange am Limit.

Die Ergebnisse die man jetzt in den Tests hat, werden sobald sich der Markt wieder beruhigt hat wahrscheinlich nicht mehr so aussehen. Es kommen wieder bessere Bauteile zum Einsatz, die wiederum kommen dem Takt mehr entgegen, die Treiber werden optimiert, die Validierung verläuft besser usw....

Es macht eigentlich kein Sinn jetzt zu testen, wo jeder ein Überraschungsei bekommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: XKing
rentex schrieb:
Ob der Vorteil der 6900XT gegenüber der 3090, nicht nur von den den AMD Spieletiteln kommt...
Das hätte ich mit 3090 im System auch gesagt....
Aber wie du ja sicherlich weißt gibt es viel mehr Nvidia optimierte Titel als bei AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung
Wie bzw. an welcher Stelle im Spiel wurde Gears 5 denn getestet? 60 FPS Durchschnitt in 1920x1080 auf der 5700XT und 5950X sind echt mau, aber das scheint ja alle GPUs gleich zu betreffen. Also eine Worst-Case Stelle im Spiel?

Generell würde ich gerne sehen, dass Einstellungen und der Benchmark-Run im Test festgehalten werden.
 
Darkblade08 schrieb:
Dem stimme ich zu. Habe jetzt Control mit der RX6800XT auf WQHD und RT "Hoch" durchgespielt. Es gab zwei Stellen wo es sich nicht flüssig angefühlt hat.

Metro Exodus spiele zurzeit, ebenfalls mit RT auf "Hoch". Läuft ebenfalls sehr gut.
In welcher Auflösung?
Ich habs auch mit ner 6900XT in RT gespielt aber 50fps zu haben wenn man vorher 100fps + hatte ging gar nicht :D
 
  • Gefällt mir
Reaktionen: Illithide
Fighter1993 schrieb:
Das hätte ich mit 3090 im System auch gesagt....
Aber wie du ja sicherlich weißt gibt es viel mehr nvidia Optimierte Titel als bei AMD.
Lustiges Kerlchen🤣 Ist doch ganz einfach, viele Titel sind ebenfalls auf PS5 und XBOX Series X erhältlich...also sind sie einfach darauf besser optimiert💁‍♂️ Ab 4K sieht es dann eben anders aus. Immer diese AMD Fanboys...und das sagt ein X570/ 3700X Besitzer🙄
 
  • Gefällt mir
Reaktionen: Esenel
Ich muss ja nach wie vor sagen, dass sich der Kauf meiner beiden 3090 schon amortisiert hat. In Games extrem schnell, tolles Featureset und DLSS. Außerdem mit Optix ein mega denoising Feature für bspw. Maya und Blender. Also für mich persönlich ein Allround Monster.
 
  • Gefällt mir
Reaktionen: rentex, Esenel und Laphonso
Ich bin nach 2 Monaten Nutzung von RTX 3090 auf eine RX 6800 XT gewechselt und bin insgesamt zufrieden damit. Ohne FPS-Tacho merkt man kaum Unterschied und im Portemonnaie sind plötzlich fast 1500€ wieder drin. Bin der Meinung, dass Raytraycing stark überbewertet wird. Zumindest ich konnte trotz guter Sicht kaum Unterschied erkennen. DLSS ist dagegen sehr spannend und ich hoffe, dass AMD eine würdige Alternative rausbringen kann.
 
  • Gefällt mir
Reaktionen: Illithide und edenjung
Salamimander schrieb:
Ich denke, dass nvidia die 3080ti auch zurück hält, da eh alles ausverkauft ist. Die soll ja dann die 6900XT stänkern.
Und somit die eigene 3090 auch degraden? Nie im Leben wird das passieren...
Ergänzung ()

rentex schrieb:
Lustiges Kerlchen🤣 Ist doch ganz einfach, viele Titel sind ebenfalls auf PS5 und XBOX Series X erhältlich...also sind sie einfach darauf besser optimiert💁‍♂️ Ab 4K sieht es dann eben anders aus. Immer diese AMD Fanboys...und das sagt ein X570/ 3700X Besitzer🙄
So wie du antwortest ist eine konstruktive Diskussion leider nicht möglich schade...
Ich versuche es trozdem mal.

Sonst hieß es doch immer die RX 5700X profitierte nicht von Playstation Optimierung...
Und jetzt liegts auf einmal da dran das die 6900XT besser sein soll?
Jeder biegt es sich so zurecht wie er es braucht.
Akzeptier doch einfach das in dieser Momentaufnahme Nvidia sich geschlagen geben muss.
 
  • Gefällt mir
Reaktionen: Illithide und DannyA4
Das ist sehr gut, dass AMD gut abschneidet.

Derzeit erleben viele Hersteller, dass ein Mangel an Angebot sehr lukrativ ist. Man sieht es an den Nvidia oder Louis Vuitton Aktien. Beide führen derzeit extreme geplante Knappheit aus.
Solange man quasi keine Konkurrenz hat, geht es gut. Aber jetzt kommt Konkurrenz für NVidia. Wenn diese Mining Hype langsam überwunden ist, kann AMD den Markt mit den RX6900/6800schwemmen.
 
Darkblade08 schrieb:
WQHD. Da ich es vorher nie gespielt habe, war es mir egal. Es lief zu 99% immer über 35fps.
Gerade im shooter auch wenns SP ist finde ich unter 60fps schon ätzend, gerade wenn man die Mausempfindlichkeit extrem hoch hat.
 
Zurück
Oben