Test Grafikkarten 2021 Q2 im Test: GeForce RTX und Radeon RX mit rBAR im Benchmark-Duell

borizb schrieb:
@Wolfgang Mega danke für die viele Arbeit. Kurze Frage zur Darstellung:

Ich habe jetzt mal ein paar Haken rausgenommen. Kann man die Chart so einstellen,
dass die sich nach dem höchsten Wert sortiert? Also dass die 3090 in dem Fall oben
wäre, dann die 6900XT und so weiter? Es sieht einfach etwas merkwürdig aus:
Good News: Wir bzw. @Steffen arbeitet dran! :)
 
  • Gefällt mir
Reaktionen: borizb
GerryB schrieb:
...funzt auch mit der nonXT.(<100W asic)
Weil Es mir gerade noch auffällt, der Scheduler sagt 87% Auslastung, also mit 99% wären Es evtl. 68fps.
d.h.
Weder 1000Mhz mehr Takt noch 100W mehr würden wirklich helfen weil vermutlich das Bottleneck ganz
woanders liegt.
Die neue Arch. muss man halt erstmal ganz verstehen...wird noch dauern.
(Bottleneck könnte bei mir nur 96ROPs oderPCiE 3.0 oder Vram@Stock o.ä. sein...noch kein SAM aktiviert)

mal z.Vgl. die Großen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Tobi47 schrieb:
Wie kann es eigentlich sein dass die gravierend schlechte RT Performance der AMDs nicht in die Gesamtwertung aufgenommen wird? Zumal RT nicht mehr ein daher gelaufenes Feature ist, sondern mittlerweile in fast allen großen Entwicklungen Anwendung findet.

Darüber hinaus ist es auch nicht mehr so dass seit den RTX 2000 die Karten zu schwach sind um es voll und ganz umzusetzen.
Gravierend schlecht? Die beiden großen Navies liegen auf/um 3070 level. Lass mal die Kirche im Dorf. Wenn DLSS nicht wäre, sähen die FPS bei Ampere auch anders aus.
 
Cohen schrieb:
Zeig doch bitte mal die RT-Benchmarks, bei denen RTX 2080 Ti und RTX 3070 beide getestet wurden und die 2080 Ti durchgehend 60 fps erreicht, während die 3070 mit denselben Einstellungen stark einbricht.

Sollte ja ein leichtes sein, bei so einer absoluten Aussage wie "8GB sind einfach zuwenig" statt "8GB sind in speziellen Einzelfällen zuwenig"
Minecraft RTX, Wolfenstein Youngblood ...

https://www.pcgameshardware.de/Gefo...ecials/RTX-3060-Was-bringen-12-GByte-1367634/

MfG Föhn.
 
Er spricht von 2080ti vs 3070. Und du kommst mit 3060ti vs 3060. Beide genannten Spiele mit den ursprünglich geforderten Karten in jeweils 1440p:

Minecraft RTX:
1620035820208.png

Wolfenstein:
1620035839693.png
 
foo_1337 schrieb:
Er spricht von 2080ti vs 3070. Und du kommst mit 3060ti vs 3060. Beide genannten Spiele mit den ursprünglich geforderten Karten in jeweils 1440p:
Richtig, und in dem "Speichervöllerei-Test" der PCGH steht bei Wolfenstein Youngblood sogar im Artikel, dass "der Nutzen des größten Texturpool-Settings in Wolfenstein zumindest fragwürdig ist".

Bleibt das "chunkige" MineCraft RTX, dessen Speicherbedarf auch sehr level-abhängig ist.
Wenn man möchte, lassen sich bestimmt auch Szenarien erzwingen, bei denen 16 GB Grafikspeicher zu knapp werden.
 
Zuletzt bearbeitet:
Eno77 schrieb:
...
Das heisst also man kann DLSS nicht mit nativ gerenderter Auflösung vergleichen.
...

Schrieb ich irgendwas von Vergleich?
Man hätte aber erwähnen können dass man dank DLSS bei Spiel X in spielbarere Bereiche kommt und dass AMD im Laufe des Jahres eine Alternative bieten wird.
 
Die Frage ist doch aber wie sich die 8GB bei kommenden Spielen verhalten werden, die ausschließlich für die Next Gen Konsolen entwickelt werden. Godfall ist ja bislang das einzige echt "Next-Gen"-Game und das Diagramm im PCGH Artikel zeigt doch ganz klar, dass die Frametimes unter der Auslagerung der Dateien in den Systemspeicher leiden. Ob DLSS hier mit zukünftigen Updates Abhilfe schaffen kann wird man sehen. Genauso wie besagte Karten mit Unreal Engine 5 und Co zurechtkommen werden. Wenn der VRAM Bedarf hier nochmals erheblich steigen sollte, dann bekommen die Ampere-Karten (mit Ausnahme der 3090), die jetzt schon hinsichtlich des Speicherausbaus auf Kante genäht sind, in jedem Fall Probleme.
 
borizb schrieb:
Ich habe jetzt mal ein paar Haken rausgenommen. Kann man die Chart so einstellen,
dass die sich nach dem höchsten Wert sortiert? Also dass die 3090 in dem Fall oben
wäre, dann die 6900XT und so weiter?
Das Sortieren funktioniert jetzt wieder. Danke für den Hinweis! :)
 
  • Gefällt mir
Reaktionen: borizb
@Neubauten kA, mit der 3070 jedenfalls läuft Godfall inkl. RT problemlos maxed in 1440p ohne Einbrüche. Und mit der UE5 wird auch Direct Storage kommen. Da wird man ohnehin sehen müssen, wie sich das auswirkt. Aber klar, wenn man die Karte unbedingt 5 Jahre behalten will, greift man eher zu einem 16GB Modell. Aber wer ohnehin mit einer Neuanschaffung zum Gen Wechsel plant, dürfte mit den 8GB der 3070 bzw. 10GB der 3080 gut fahren. IMHO wird in 2 Jahren dann ohnehin die Leistung ein Thema. Womit die Frage nach der Sinnhaftigkeit einer 5 Jahres Planung gestellt werden darf.
 
Eigentlich ist es doch ganz einfach:
Wer maximale RT Leistung will kommt um Nvidia nicht herum. Will man viel RAM muss man zur 3090 greifen, aber für die Differenz zur 3080 bekommt man nächstes Jahr im Idealfall bereits die 4080.
Wem Rasterisierung reicht nimmt den Bonus-RAM bei AMD einfach mit.
 
Aktuell sollte man einfach, unabhängig des Herstellers, eine Karte zur UVP kaufen sobald sie Verfügbar ist, wenn man dringend eine benötigt.

Man macht mit beiden Herstellern nichts falsch.
 
  • Gefällt mir
Reaktionen: highco, foo_1337 und Neubauten
F4711 schrieb:
Gravierend schlecht? Die beiden großen Navies liegen auf/um 3070 level. Lass mal die Kirche im Dorf. Wenn DLSS nicht wäre, sähen die FPS bei Ampere auch anders aus.

Gravierend schlecht ist die reine RT Leistung der großen Navis gar nicht, die 6800XT hat im Prinzip dieselbe RT Rohleisung wie die 2080 Ti/3070, aber DLSS wurde im Test auch nicht berücksichtigt und beeinflusst die FPS im Test bei Ampere nicht.
Wenn es gelaufen wäre, würde eine 2070 Non-Super schon mehr FPS haben, als eine 6800 XT. Als gesonderten Vergleich würde ich deswegen DLSS auch aufführen, weil es durchaus für den Kunden relevant sein kann, im Direktvergleich dann wenn die AMD Variante erschienen ist.
 
Klever schrieb:
Gravierend schlecht ist die reine RT Leistung der großen Navis gar nicht, die 6800XT hat im Prinzip dieselbe RT Rohleisung wie die 2080 Ti/3070,
Nur in Spielen in denen RT nicht stärker genutzt wird. In CP ist eine RX 6900 XT in 1080p (die einzige Auflösung in der die genannten Karten wenigsten noch 30FPS schaffen), schon hinter einer RTX 3060Ti.
Das mag in anderen Spielen, besonders solche mit AMD Beistand/Dirt 5 nicht so der Fall sein. Ändert aber nichts daran, daß AMD mit dieser Gen von Ampere in dieser Disziplin ganz locker überflügelt wird.
 
  • Gefällt mir
Reaktionen: Klever

Anhänge

  • WOW Shadowlands.JPG
    WOW Shadowlands.JPG
    44,5 KB · Aufrufe: 287
Zuletzt bearbeitet:
Das hat nichts mit Sonderfall zu tun. Wird mehr RT angewand Schatten/Reflexionen und mehr, ist Nvidia einfach vorne. Da gibts nichts daran zu rütteln. Dein Beispiel WOW hat nur RT Schatten und trotzdem ist dei RTX 3080 ~48% schneller...wenn man jetzt nicht gerade deine 720p Auflösung nimmt.
 

Anhänge

  • WOW+RT.jpg
    WOW+RT.jpg
    65,8 KB · Aufrufe: 297
@GerryB Beim Vergleich mit WoW ist doch auch wieder zu beachten, dass WoW einzig RT Shadows nutzt, wie im Artikel auch beschrieben ist
Wenn es um Raytracing geht, stellen Schatten den ressourcenschonendsten Effekt dar. Die düsteren Zeitgenossen kommen selten bildfüllend vor, brechen kein Licht und sind daher relativ günstig zu haben.

Durch die deutlich höhere theoretische FP32 Leistung von Ampere, setzen sie sich vor allem deutlicher vor RDNA2, wenn RT großflächiger genutzt wird, was in CP und Control eben der Fall ist.

Dazu ist dein Screenshot aus dem CPU Test, wo RDNA2 durch DX12 profitiert und die CPU entlastet, die durch RT ebenfalls mehr gefordert wird.
Im GPU Limit ist die 3080 immer noch schneller, auch wenn nur RT Schatten genutzt werden. Und je mehr zusätzliche RT Effekte neben den Schatten dazu kommen, desto größer wird auch der Abstand.

DaHell63 schrieb:
Dein Beispiel WOW hat nur RT Schatten und trotzdem ist dei RTX 3080 ~48% schneller...wenn man jetzt nicht gerade deine 720p Auflösung nimmt.
Die 74,3fps die bei der 3080 mit RT High stehen, halte ich übrigens für einen Fehler in der Tabelle, da im Text darunter von 23% Differenz bei der 3080 gesprochen wird, die genau auf die 67,1fps passen, die dort mit RT Mittel betitelt sind und es auch keinen Sinn macht, dass RT Mittel als niedrigste Stufe langsamer sein sollte als Good und High(und im CPU Test in 720p nur 70fps mit RT High erreicht wurden, wie sollen da 74fps in 4K möglich sein?).

Und allgemein muss man beachten, dass die 3080 ja auch ohne RT schon 24% schneller als die 6800XT ist, man sollte sich also lieber den relativen Unterschied anschauen:

3080 RT Off vs RT High = 86,7fps / 67,1fps -> Differenz : -23%
6800XT RT Off vs RT High = 69,6fps / 50,2fps -> Differenz : -28%

Der Einfluss auf die Performance ist nur durch RT Schatten also gar nicht so verschieden, aber trotzdem geringer bei Ampere und man sieht im Test auch, dass die Differenz größer wird, je höher man die Qualität der RT Schatten stellt.

Mit RT Off liegen sie 24% auseinander, mit RT Mittel 26% und mit RT High 34%, das ist schon ein Indiz, dass mehr RT mehr Abstand bedeutet, selbst wenn es nicht mehr verschiedene Effekte sondern nur ein Effekt ist, der aber stärker genutzt wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
@GerryB Ursachen sind ja schon geklärt - die RT Nutzung ist viel intensiver, da werden Schatten, Reflektionen und Lichtstrahlen berechnet, statt nur Schatten wie bei Dirt 2, deswegen schneidet Ampere und auch Turing der Oberklasse auch deswegen besser ab bei Raytracing Szenarien, als Navi 2.

Dabei haben Ampere Karten ein ausgeprägteren CPU-Impact, als Navi 2 in einer niedrigen Auflösung wie 720p, wie man ja an dem Screenshot sieht. Wenn du dann auf 2160p gehst, ist die 3080 32,5% schneller bei avg FPS, bei 1% low FPS dann 28% in der Rohleistung.

Ich würde mir da gerne auch Turing Vergleich wünschen, das könnte man auch benutzen um zu sehen inwieweit das CPU Overhead in niedrigen Auflösungen bei Ampere architekturbedingt ist, mWn war das bei Turing ja nicht der Fall. Aber weil kaum einer in 720p mit einer 3080 spielen wird, bleibt es für mich in Vergleich zu der tatsächlichen Nutzung der Karten in meisten Fällen in einer 1440p/2160p Auflösung ein im Vergleich zu dem Featureset ein eher akademisch angehauchter Aspekt.
 

Anhänge

  • 3080 WoW RT 2160p.png
    3080 WoW RT 2160p.png
    32,2 KB · Aufrufe: 273
  • 6800XT WoW RT 2160p.png
    6800XT WoW RT 2160p.png
    31,9 KB · Aufrufe: 270

Anhänge

  • 1620065386127.png
    1620065386127.png
    60,1 KB · Aufrufe: 314
  • 1620065396761.png
    1620065396761.png
    63,7 KB · Aufrufe: 301
  • 1620065554742.png
    1620065554742.png
    137 KB · Aufrufe: 301
  • 1620065570917.png
    1620065570917.png
    155,4 KB · Aufrufe: 311
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Klever
foo_1337 schrieb:
Das ist leider nicht sehr aussagekräftig (der 6800XT Test stammt von mir), da die RTX Demo wohl auf einer UE4 Version beruht, die keinerlei Optimierung für RDNA enthält und insgesamt wohl schlechstmöglichst auf RDNA läuft(auch schon ohne RT).
Zudem gibt es dort einen bug mit der Global Illumination, der dazu führt, dass wenn man GI einmal deaktiviert und wieder aktiviert ohne die Demo neuzustarten, einfach doppelt so viele Rays verschossen werden, wovon man die Hälfte nicht sieht.
Ich hab das eben mal schnell getestet, schalte ich alles bis auf GI ab, hab ich ~75fps. Schalte ich dann GI ab und wieder an, hab ich nur noch ~45fps.

Am Gesamtimpact ändert das aber nichts, der liegt in der Tat bei ~25% Restleistung von Full RT ggü RT Off, bei der 3090 sind es ziemlich genau 50%.
Ich denke mal mit zusätzlichen Optimierungen könnte man hier schon ~30-35% Restleistung sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
Zurück
Oben