Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Sturmwind80 schrieb:
Schön zu sehen, dass AMD so stark geworden ist. Konkurrenz ist immer gut.

Ich werde am Wochenende meine 3080 FE und den 5800X einbauen und freue mich schon auf die ersten Spiele damit. Auch auf Raytracing bin ich gespannt. Die Karte hat zwar nur 10GB und ich wollte eigentlich mehr haben aber ich denke die Karte wird noch die nächsten 2 Jahre in Ordnung sein und da ich nur die UVP bezahlt habe, war die Karte günstiger als meine 1080 Ti vor 4 Jahren. :D Wenn man dann noch bedenkt, dass die 1080 Ti im Moment 400-500€ bringt, ist das Ganze ein guter Tausch.
400-500€ für eine 1080Ti LOL
 
kAmI606 schrieb:
400-500€ für eine 1080Ti LOL
Ne Vega 56 gibt schon 4-500€ aber gut die war für Miner auch interessanter.
 
basic123 schrieb:
Aber bist du nicht nicht derjenige, der Kritik an Nvidia stets persönlich nimmt und die Firma verteidigen muss?
Da ich hier, in diesen Threads, im Herbst als "Nvidia Hater" etikettiert wurde: Nein. Offensichtlich nicht.
Ergänzung ()

basic123 schrieb:
und warum AMD auf 2060 Niveau ist.
btw das sind Testergebnisse, die auch in den CB Tests so sinngemäß dargestellt worden sind.
Wen das triggert, der sollte überlegen, "was" man da zu ernst nimmt ;)
 
FormatC schrieb:
NVIDIA kalkuliert und prüft die Board-Power nur an den 12V-Rails (nur da sind Shunts), Die 3.3 Volt sind da nie mit inkludiert. 5 Volt gibts nicht auf Garfikkarten. Je nachdem, wie viel eine Karte über 3.3 Volt zieht, so fällt auch die Genauigkeit mit dem Limit aus. :)
Danke für die Info!

Dann sollte man wirklich nen Vgl.-Test mit "echten" 330W ins Auge fassen.(12V+3V)

btw.
Wer das Glück hatte ne 6800XT-Ref. zu schiessen braucht nach m.E. auch net mehr auf ne 6900XT zu wechseln, eher mal über ne Wakü. nachdenken, damit die 330W dann "leise" genutzt werden können.
Mal ein Bsp. noch ohne Einsatz von MPT-Tweaks:

Taxxor schrieb:
Du weißt aber, dass das da Prozente und keine FPS sind, oder?^^
Danke für den Hinweis!

Da war bei mir wohl der optimistische Wunsch, der Vater des Gedankens.(klang einfach zu schön)
... dann werde ich wohl noch ne Graka-Gen auf 4k@100 minFps warten müssen.
(oder über UWQHD nachdenken)
Ergänzung ()

megaapfel schrieb:
...schade, dass der Performancegewinn in den relevanteren Auflösungen >1080p mit SAM so abnimmt.
Klingt etwas übertrieben, oder? (eigentlich sind die 4k-User nur ne 2% relevante Randgruppe)

Aus Monitorsicht siehts so aus:
Wenn man spassenshalber mal UWQHD+WQHD zu FHD dazunimmt sind doch 98% der User abgedeckt.
(bei pcgh gibts i.d.R. die Gamereviews auch in UWQHD)

Die Engines, die von SAM profitieren , reagieren i.d.R. auch bis UWQHD sehr gut auf die Nutzung, falls jemand sein Board (Bios) aktualisieren kann.
 

Anhänge

  • 6900_DbH.png
    6900_DbH.png
    92,8 KB · Aufrufe: 300
  • 6900_RDR2.png
    6900_RDR2.png
    90,1 KB · Aufrufe: 292
  • 6900_WDL2.png
    6900_WDL2.png
    19,9 KB · Aufrufe: 300
Zuletzt bearbeitet:
Laphonso schrieb:
btw das sind Testergebnisse, die auch in den CB Tests so sinngemäß dargestellt worden sind.
Wen das triggert, der sollte überlegen, "was" man da zu ernst nimmt ;)
Und die RTX 3090 ist in Assassins Creed nur auf RX 6800 Niveau. Trotzdem hab ich hier noch keinen gesehen der behauptet, dass Nvidia eine Generation Jahrgang 2018 zurückhängt. Einfach leben und leben lassen ohne den Leuten deine Lieblingsfirma aufzudrängen. Wenn dir Nvidia super gefällt, ist es doch gut für dich. Kein Grund deswegen AMD schlechtzureden.
 
Zuletzt bearbeitet:
basic123 schrieb:
Und die RTX 3090 ist in Assassins Creed nur auf RX 6800 Niveau. Trotzdem hab ich hier noch keinen gesehen der behauptet, dass Nvidia eine Generation Jahrgang 2018 zurückhängt.
Ist halt auch ein Unterschied, ob man den einen Titel als Ausreißer hat oder die generelle Unterlegenheit bei einem Feature, was in mehr als einem Dutzend AAA und Blockbuster Titel inkl. globaler Communities relevant ist. Und diese Diskrepanz wird ja mit jedem Titel nur größer.
Und damit ein Vorteil für Nvidia oder ein Nachteil für AMD, bis dort ein DLSS Konter kommt.

Dass AMD selbst mit einer 1000+ Euro 6900XT hier Mühe hat, eine 2018er Turing Karte = Vorgänger Generation, in genau diesen Games zu stellen, ist halt eine andere Dimension als das eine AC:V.
Und kann man ja über die fps Tests selbst nachvollziehen.

Das sollte man schon festhalten, wenn wir über GPUs und das was sie leisten oder nicht leisten, sprechen.
Und zwar genau hier, in diesen Threads.

Und wieso "redet man AMD schlecht", wenn man diesen faktischen Feature Nachteil erwähnt?? Je schneller AMD hier eine Alternative anbietet, um so besser für uns Gamer, weil es die devs unter Zugzwang setzt.
 
  • Gefällt mir
Reaktionen: foo_1337 und MP42
basic123 schrieb:
Und die RTX 3090 ist in Assassins Creed nur auf RX 6800 Niveau.
Treiberbug der sicherlich noch gefixed wird.
 
Laphonso schrieb:
Dass AMD selbst mit einer 1000+ Euro 6900XT hier Mühe hat, eine 2018er Turing Karte = Vorgänger Generation, in genau diesen Games zu stellen, ist halt eine andere Dimension als das eine AC:V.
Und kann man ja über die fps Tests selbst nachvollziehen.

Das sollte man schon festhalten, wenn wir über GPUs und das was sie leisten oder nicht leisten, sprechen.
Und zwar genau hier, in diesen Threads.

Und wieso "redet man AMD schlecht", wenn man diesen faktischen Feature Nachteil erwähnt?? Je schneller AMD hier eine Alternative anbietet, um so besser für uns Gamer, weil es die devs unter Zugzwang setzt.

Laut dem hier ermittelten Performance-Rating in UHD ist die 1549€ teure RTX 3090 nur sehr bescheidene 15% schneller als die 649€ günstige RX 6800 XT. Die Realität entspricht leider nicht deiner Wunschvorstellung, dass Nvidia eine Generation Vorsprung hat. Es ist eher traurig nur 15% mehr Leistung für fast 300% Aufpreis zu bieten.
 
basic123 schrieb:
Laut dem hier ermittelten Performance-Rating in UHD ist die 1549€ teure RTX 3090 nur sehr bescheidene 15% schneller als die 649€ günstige RX 6800 XT. Die Realität entspricht leider nicht deiner Wunschvorstellung, dass Nvidia eine Generation Vorsprung hat. Es ist eher traurig nur 15% mehr Leistung für fast 300% Aufpreis zu bieten.

Ganz konkret kann eine 2070 Super im CoD Cold War nur durch das Aktivieren von DLSS eine 6900XT in 4K ganz galant stellen.
Eine 500 Euro GPU der Vorgänger Generation kassiert eine nagelneue 1000+ Eure Top End RNDA 2 ein.
Und das ist schon ein Umgrätschen, was Turing und Ampere hier mit DLSS bereitstellen, AMD wird hier von den Beinen gefegt.

Das Performancerating spielt hier keine Rolle, sondern mein usecase.

Als CoD SPieler (zumal DLSS auch für Modern Warfare folgt), macht man mit einer AMD GPU hier also den schlechteren Deal, wie bei allen DLSS Spielen in Sachen fps. DLSS liefert fps Plus "out of the box" rein durch dieses Feature. Und damit eine konkurrenzlose Situation. Bis AMD kontert.

Das muss bei einer Kaufentscheidung klar sein.
Wem das egal ist, kein Problem, aber es sollte in GPU Tests diese Transparenz herrschen, womit wir beim Thema sind.
 
  • Gefällt mir
Reaktionen: MP42
Merkt ihr eigentlich, dass ihr euch irgendwie im Kreis dreht?

Die AMD Karten sind auf Augenhöhe mit Nvidia und wenn man die UVP Preise zugrunde legt (Gott hab sie selig), ist das sogar noch erstaunlicher - vor allem wenn man bedenkt, wo AMD mit der letzten Generation lag.

Aber sobald RT+DLSS wichtig sind, dann liegt Nvidia tatsächlich eine Generation voraus. Zumindest momentan. Was die kommenden Monate bringen, müssen wir abwarten.
 
  • Gefällt mir
Reaktionen: chrunchinut, Esenel und Laphonso
@Creeping.Death Genau das "dann liegt Nvidia tatsächlich eine Generation voraus" habe ich mehrfach auch so dargestellt:
  1. AMD hat im klassischen Render+Raster "native" Benchmark Nvidia weitestgehend eingeholt.
  2. In Sachen Raytracing ist AMD dort, wo Nvidia 2018 war, plus minus 2080Ti und 3070 Niveau
  3. Durch DLSS ist Nvidia in allen diesen Titeln die 30-60% voraus (im 1:1 Vergleich bei Raytracinng on mit DLSS oder RT off und DLSS "pur", sprich 3080 vs 6800XT, 3090 vs 6900XT). Da Turing DLSS beherrscht, haben wir in DLSS Games die Turing Karten aus 2018 auf Höhe der 2020er RDNA 2 GPUs.
  4. Edit: Durch die 16 GB VRAM hat AMD RDNA2 einen klaren Marketingvorteil (abseits der 3090, die nun aber eine absurd teure 1500+ Euro "Gamer" GPU ist und die 3080TI ist MIA)
 
  • Gefällt mir
Reaktionen: Esenel und MP42
Laphonso schrieb:
macht man mit einer AMD GPU hier also den schlechteren Deal, wie bei allen DLSS Spielen in Sachen fps.
Immer unter der Prämisse, dass man DLSS überhaupt will...wollts nur mal erwähnt haben :)
#glitsches
#Artefakte
#Bildunschärfe
#Schlieren....
 
Zuletzt bearbeitet von einem Moderator:
Bin mit meiner 6900XT und FullHD 240Hz Monitor sehr zufreiden, endlich mal mehr an den MaxHz des Monitors. Hammer ist das nun alles SMOOTH!

Und warum soll sich die RX6900XT nicht für 4k eignen? (Also im vergleich zu einer 3090!)
CB_4k_Perzentil.png


PS: Da hier immer wieder mal gelabert wurde User kaufen sich neue Karten für eine "schönere Grafik", sorry das ist doch stuss. Als ich noch in einem ComputerShop gearbeitet habe kamm sowas nahzu 0 vor. Es ging eigentlich immer darum das es mit der alten Karte ruckelte, deswegen wurde eine neue gekauft.
 
  • Gefällt mir
Reaktionen: Maine
Fuchiii schrieb:
Immer unter der Prämisse, dass man DLSS überhaupt will...wollts nur mal erwähnt haben :)
#glitsches
#Artefakte
#Bildunschärfe
#Schlieren....
DLSS 1.0? Sicher, talking points. DLSS 2.0? Nicht mehr wirklich, wurde sogar auf Computerbase (unter anderem= so festgehalten.
"DLSS sehr stark", "DLSS zeigt, was möglich ist" , "DLSS in guter Form", "DLSS besser als 4K nativ" (in best Bereichen/Szenen), "DLSS überzeugt" etc.

DLSS 3.0 wird kommen, es kommennach und nach weitere Games mit RT inkl. DLSS.

Sogar im AMD reddit halten die ärgsten Nvidia "Feinde" fest, dass DLSS hier ein Knock Out Potenzial hat, sofern AMD das nicht pariert bzw. eine Alternative bietet.
Ergänzung ()

janeeisklar schrieb:
Und warum soll sich die RX6900XT nicht für 4k eignen? (Also im vergleich zu einer 3090!)
Um Himmels willen, wer schreibt denn sowas?
6800XT, 6900XT, 3080 und 3090 sind doch "die" 4K GPUs derzeit.

Dass alle 4 unter 4K dennoch bluten in Ultrasettings je nach Game und LICHTJAHRE von Monitorcaps bei RDR2 oder Cyberpunk oder AC:V oder HZD oder sicher auch im kommenden Far Cry 6 entfernt sind, das wissen wir alle.
Die Grafikpracht kostet halt fps.

Ich bezweifle, dass wir jemals top und neue AAA Titel mit famoser Grafik in 4K und Ultra bei 150 fps sehen.
Die engines und Effekte entwicklen sich weiter, und wir sehen ja, wie brutal Raytracing auch die 6900XT und die 3090 in die Knie zwingt.

Womit wir wieder, ja nun....bei einer genialen Technik wie DLSS sind, die hier den Rettungsanker bietet und langfristig - noch nicht heute - zweifellos natives 4K in allen Dimensionen schlägt in der Optik und Wiedergabe.

ML und AI sind hier die Wunderwerke der Gamerzukunft.
Nvidia ist dran.
Ich hoffe, AMD folgt.
 
Zuletzt bearbeitet:
wenn man ehrlich ist, ist auch eine 3090 von RT noch überfordert. Die Avg-FPS gehen da ja teilweise in den 40er-Bereich, das ist von dem, was man so mittlerweile als gut spielbar bezeichnet doch ne Ecke weg. Ich denke erst die nächste, vermutlich sogar übernächste Generation von GPUs wird RT bei 60+ FPS auf WQHD/4K mit Max-Details möglich machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chrunchinut
Laphonso schrieb:
Das Performancerating spielt hier keine Rolle, sondern mein usecase.
Da haben wir doch schon das Problem. Für alle anderen Menschen hier spielt genau dieser Performancerating eine tragende Rolle. Das ist überhaupt der Sinn warum Computerbase die ganzen Benchmarks durchführt.

Dein Usecase ist in dem Fall nur für dich selbst interessant, sonst interessiert es absolut niemanden. Deswegen ist es auch unsinnig deine Vorlieben anderen indirekt aufzuzwingen oder Nvdias DLSS und RT Werbebroschüren zu verteilen. Wer AMD kauf will, soll es doch gerne tun.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maine, PS828, Fuchiii und eine weitere Person
janeeisklar schrieb:
PS: Da hier immer wieder mal gelabert wurde User kaufen sich neue Karten für eine "schönere Grafik", sorry das ist doch stuss. Als ich noch in einem ComputerShop gearbeitet habe kamm sowas nahzu 0 vor. Es ging eigentlich immer darum das es mit der alten Karte ruckelte, deswegen wurde eine neue gekauft.
Schaltest du Raytracing an, ruckelt es -> selber Grund. Dein Argument ist nichts anderes, denn auch früher wollte man eigentlich die schönere Grafik. Sonst hätte man die Regler so lange nach links drehen können, bis es ruckelt.
Fuchiii schrieb:
Immer unter der Prämisse, dass man DLSS überhaupt will...wollts nur mal erwähnt haben :)
#glitsches
#Artefakte
#Bildunschärfe
#Schlieren....
Ja, und sobald AMD dann FFSS draußen hat, sagen die AMD User plötzlich nichts mehr davon, auch wenn es ggf. noch schlimmer sein sollte als bei DLSS 1.0. Wetten? ;)
 
  • Gefällt mir
Reaktionen: Zwiebelsoße und Esenel
foo_1337 schrieb:
Ja, und sobald AMD dann FFSS draußen hat, sagen die AMD User plötzlich nichts mehr davon, auch wenn es ggf. noch schlimmer sein sollte als bei DLSS 1.0. Wetten? ;)
Ich werd's bestimmt ausprobieren aus technischem Interesse aber ich bleibe dabei, dass ich lieber in nativer Auflösung Spiele.

Warum bist du der Meinung dass jeder so geil auf DLSS/FFSS ist?

Es ist nach wie vor eine niedriger gerenderte Auflösung. Und nein, auch zu DLSS 2.0 gibt's es genug Meldungen über Artefakte und Unschärfen. Darauf kann ich verzichten. Egal ob bei NV oder AMD.

Deshalb habe ich eine Grafikkarte gewählt, die Leistungsmäßig zu meiner gewünschten Auflösung passt.
 
  • Gefällt mir
Reaktionen: OZZHI
Fuchiii schrieb:
Interesse aber ich bleibe dabei, dass ich lieber in nativer Auflösung Spiele.
Jeder kann immer machen, was er will. Ob das wiederum sinnvoll ist, steht auf einem anderen Blatt.
Allein der Ausdruck "native" Auflösung lässt mir bei den aktuellen Machwerken mehrfach Schauer über den Rücken laufen.... nebst den Artefakten, die man sich mit "nativer" Auflösung an Bord holt.

Fuchiii schrieb:
Warum bist du der Meinung dass jeder so geil auf DLSS/FFSS ist?
Weil es die deutlich intelligentere und weit effizientere Art- und Weise ist, Bilder mit hoher Pixelanzahl zu rendern.

Fuchiii schrieb:
Es ist nach wie vor eine niedriger gerenderte Auflösung.
Du hast bei temporalem Supersampling inkl. Jitter im ursprünglichen Sinne keine fest gerenderte Auflösung mehr. Sie wird temporal wie bei einem Mosaik mit jedem Frame immer weiter gesteigert. Die Auflösung in den Zielframes liegt bei Szenenwechsel innerhalb weniger Frames ÜBER der "nativen" Auflösung. SUPER- Sampling!!
Das gibts doch nicht, dass die Methode hier immer noch nicht verstanden wird.

Fuchiii schrieb:
Und nein, auch zu DLSS 2.0 gibt's es genug Meldungen über Artefakte und Unschärfen.
Ja- Da die Entwickler oftmals immernoch zu faul sind, die Leitfäden von NVIDIA für eine Integration zu befolgen. Das ist aber nicht das Problem von DLSS 2.0
Fuchiii schrieb:
Darauf kann ich verzichten. Egal ob bei NV oder AMD.
Nein- Weil hier seitenweise darum diskutiert wird (unter Deiner Beteiligung), dass man sich Grafikkarten kauft, damit es nicht mehr ruckelt oder es eine schönere Grafik gibt.
Der Sinn einer jeden neuen Grafikkartengeneration ist IMMER für eins von beidem oder im Idealfall für beides in Kombination zu sorgen.

Wieso willst Du denn mit Gewalt Grafikkartenleistung verschenken oder das Potenzial ungenutzt lassen?
Dafür, dass Du die DLSS Artefakte gegen Aliasing und Quantisierungsfehler durchs normale Rastern tauschst?
Rastern und "native" Auflösung sind letztendlich ein Widerspruch in sich...

Du rasterst doch gerade, eben WEIL Du keine entsprechend native Auflösung erreichen kannst. Sozusagen ein Undersampling.
Die native Auflösung einer Szene geht nämlich grundsätzlich gegen Unendlich.

Fuchiii schrieb:
Deshalb habe ich eine Grafikkarte gewählt, die Leistungsmäßig zu meiner gewünschten Auflösung passt.
...die mit DLSS weit höhere Reserven hätte oder wahlweise deutlich energie- effizienter ans Werk geht oder einfach nur ihre Nutzungszeit verlängert (bei zugleich überlegener Bildqualität und Anti- Alias).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
Zurück
Oben