Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

foo_1337 schrieb:
Im Ranking sind sie deshalb 35% schneller, weil Dirt & Co keine Reflexionen nutzen. Wenn du nur Games mit RT Reflexionen nimmst, sieht es düster für AMD aus.

Watch Dogs Legion benutzt haufenweise Reflexionen und da steht die 3090 nur 14% über der 6900XT.

Berechnen wir noch die Tatsache mit ein, dass bei Rasterization die 6900XT 19% vor der 3090 liegt, entspräche das, wenn sie bei Raster beide gleichauf wären, einem RT Vorsprung von ca den genannten 35% für die 3090;)
 
  • Gefällt mir
Reaktionen: Illithide, Otsy, DarkerThanBlack und eine weitere Person
@Fighter1993 lass' dich nicht verunsichern :) Du musst nur das richtige Setting anpassen, alles gut.
Ergänzung ()

Taxxor schrieb:
Watch Dogs Legion benutzt haufenweise Reflexionen und da steht die 3090 nur 14% über der 6900XT.
Och bitte. Du nimmst doch jetzt nicht ernsthaft auch noch den Luxx Test vom Release, als die Hälfte der Reflexionen wegen eines Bugs nicht berechnet wurden?
Nimm bitte den Test vom Dez. oder hast du einen eigenen Test gemacht?
 
foo_1337 schrieb:
Och bitte. Du nimmst doch jetzt nicht ernsthaft auch noch den Luxx Test vom Release, als die Hälfte der Reflexionen wegen eines Bugs nicht berechnet wurden?
Nein ich nehme den CB Test aus diesem Artikel
 
  • Gefällt mir
Reaktionen: Illithide, Otsy und DarkerThanBlack
W4RO_DE schrieb:
Der Benchmark-Parkour mit dem Ausreißer Assassins Creed Valhalla und standardmäßigem SAM On erscheint mir etwas AMD-lastig. Ich rate dazu, das hiesige Performance-Rating mit den Durchschnittswerten von 3DCenter abzugleichen. Das dortige Rating wird Testseiten-übergreifend berechnet.

Sofern ein Spiel die Möglichkeit für DLSS hat, muss das imho auch in den Benchmarks inklusive eigenem Benchmark-Balken dargestellt werden. Ansonsten geht das Feature unfairerweise unter, wenn es beispielsweise nur im Fließtext irgendwo heißt "ach übrigens, rechnet bei Nvidia mal 60% oben drauf".
Naja Sam klappt halt immer, dlss gibt's nur für ne handvoll Spiele.
 
  • Gefällt mir
Reaktionen: Illithide
foo_1337 schrieb:
Auch du hast leider keinen blassen Schimmer, was der Sinn und Zweck von rBAR ist.
Im Grunde wird nur die Größe des Heaps von 256MiByte eines Kopiervorgangs erweitert und somit hat man nun mehr V-ram weclher für den aktuellen Frame in Zusammenarbeit mit der CPU benötigt wird.
Man spart sich Kopiervorgänge in einzelne Häppchen zu zerteilen und größere Happen "verstopfen" halt den V-ram sparen aber an den Latenzen, genau das stelle ich fest, wenn ich es im Bios aktiviere.

500 bis 700mb mehr Vram Bedarf laut Afterburner.

Und das wird halt zum Problem bei meiner ollen 3070 mit nur 8GB.:p
foo_1337 schrieb:
Und dennoch hast du weder mit einer 6900XT, 3080 oder 3070 große Probleme. Und bei RAM wird sowieso immer und überall in Gibibyte gemessen und nicht in SI, auch wenn die unwissenden Gigabyte schreiben ;)
Mit meiner 3070 habe ich in COD bei max Details ein schwächeres Texturstreaming und das schon in WQHD.
 
  • Gefällt mir
Reaktionen: ZeroStrat
.Sentinel. schrieb:
Du verwechselst technische Rahmendaten der Grafik mit der inhaltlichen Grafikqualität.
Ich verwechsel gar nichts. Du hast meinen Satz nicht richtig verstanden. Es gibt eine gewisse Grenze, ab der eine noch so hohe Qualität den Verlust an fps nicht aufwiegt.
30 fps oder 60 fps aus dem Konsolenbereich sind für den PC völlig unrelevant.
 
@Taxxor 14%?
1613677836730.png
 
@foo_1337 es ging um WQHD, nicht 4K

gut, 15% sinds^^
Screenshot 2021-02-18 205133.png
 
  • Gefällt mir
Reaktionen: Illithide und Otsy
Zwiebelsoße schrieb:
genau das stelle ich fest, wenn ich es im Bios aktiviere.
500 bis 700mb mehr Vram Bedarf laut Afterburner.
[...]
Und das wird halt zum Problem bei meiner ollen 3070 mit nur 8GB.:p
Wie willst du das aktuell messen, wenn es den Support noch gar nicht gibt? Ich kann dir Versichern, dass du einen sehr guten Boost haben wirst, wenn es für die 3070 kommt. Ohne VRAM erhöhung.

Bzgl: CoD: VideoMemoryScale angepasst?
Ergänzung ()

Taxxor schrieb:
@foo_1337 es ging um WQHD, nicht 4K
Das hast du wohl vergessen zu erwähnen ;)
 
Wolfgang schrieb:
Doch dazu gibt es irgendwann einfach keine Alternative mehr.
Community-Benchmarks von populären Spielen wären die wohl beste Alternative, um ein praxisnahes und breit gefächtertes Testfeld zu haben (wie bei Cyberpunk letztens).

Sonst gibt es wieder nur rumgerechne oder einfachstes Schätzen seitens der User damit die eigene nicht vorhandene Grafikkarte im Benchmark irgendwie eingeordnet werden kann. Für jemanden der irgendwas altes nutzt oder aktuell auf einer sehr alten Reserve-Grafik spielt und wissen will, welcher Leistungsgewinn da nun konkret zu erwarten ist - gerade im Hinblick darauf, in aktuellen Zeiten möglichst wenig Geld auszugeben - helfen so Benchmark-Parcours am Ende einfach nicht mehr weiter, wenn essentielle Architekturen oder Karten dann einfach komplett fehlen.

Klar stimme ich zu, dass dann der Testaufwand einfach immens ist, aber will man hier wirklich nur noch Grafikkarten-Tests erstellen, die sich dann quasi ausschließlich an jene richten, die ihre gerade 1-3 Jahre alte (leistungsstarke) Grafikkarte nur des Haben wollens und des "Leistungsgewinns" ersetzen wollen? Fände ich sehr schade.
 
  • Gefällt mir
Reaktionen: juwa
Zwiebelsoße schrieb:
Aber vor allem hat man Speicher und gar keine so schlechte RT Leistung (in Exodus war ich überrascht) - sofern AMD ein DLSS Äquivalent bringt was etwas taugt, zieht AMD davon.
Das neue Metro Exodus wird auf dem PC schon in gewisser Art und Weise die neue Benchmark setzen, was den hybriden RT Ansatz anbelangt.

Nach dem, was ich bis jetzt so gehört habe, werden dort wirklich alle Register gezogen.
Ich bin schon sehr gespannt, vor allem eben auch auf die Leistung von RDNA2.

Sollte die da an Ampere ranrücken anstatt, dass sich der Abstand vergrößert, schmeisse ich unsere RDNA2- Optimierung um den Haufen und wir setzen uns nochmal ans Reißbrett.

Die Wahrscheinlichkeit, dass AMD ein ähnlich leistungsfähiges DLSS- Derivat liefert, ist schon aufgrund des Mangels an entsprechenden spezialisierten Recheneinheiten, die concurrent bzw. asynchron arbeiten können meiner Einschätzung nach ausgeschlossen.

Ich denke, dass es auf eine custom Super- Resolution Lösung á la UE4 rauslaufen wird (temporales Upsampling).

Das funktiert inzwischen auch ganz gut. Besser als die ganzen adaptiven Filter und Checkerboarding.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Laphonso, foo_1337 und eine weitere Person
foo_1337 schrieb:
Das hast du wohl vergessen zu erwähnen ;)
Nein das hat @Zwiebelsoße explizit in seinem Kommentar erwähnt, auf den du hier geantwortet hast.

Dass der Abstand in 4K so groß ist, könnte man hier noch mit dem Infinity Cache erklären.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide, Otsy, Zwiebelsoße und eine weitere Person
@Zwiebelsoße In der Tat sind die VRAM Größen angesichts des shifts zu UWQHD und 4K aus dem Promillebereich zumindest in eine Nische einstelliger Prozentzahlen für AMD Dank 16 GB VRAM viel besser zu vermarkten.

Dass die 10 GB VRAM einer 3080 angesichts der famosen GDDR6x Architektur und Bandbreite inkl. der Kompression dennoch stärker sind als die 6800 und 6900 frametimes und Durchsätze wird hier oft ignoriert, es l lässt sich nicht so gut verkaufen in der VRAM Hysterie.
Auch in den englischsprachigen Magazinen wurde oft genug erwähnt, dass die 16 GB eigentlich nichts "nutzen" oder irgendwie hilfreich sind Nvidia in der Performance übergreifend zu stellen.

Nicht technisch aber für die Werbung kommt AMD hier besser weg, definitiv.

Ich finde es, was Raytracing angeht, bemerkenswert, dass man AMDs Raytracing auf 3070 Niveau (ohne DLSS) noch eines Lobes würdigt.
Denn das entspricht 2080TI Raytracing aus dem Herbst 2018 dem Grunde nach. Und wie wurde das hier im Forum kritisiert, die gesamte Turing Generation!
2 Jahre hat AMD gebraucht um Nvidia Turing Raytracing Niveau zu erlangen, und damit ist das, was kritisiert wurde bisher, nun auf einmal voll ok. ;-) Weil es von AMD ist.
Dieses Weglassen von Differenzierung wundert mich einfach immer wieder hier.

Zynisch formuliert kann man festhalten, dass man zwei Jahre alte Ray TRacing Performance dann doch jetzt auch mal bei AMD bekommt. Allerdings mit weniger FPS, da es keinen DLSS Ausgleich gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wan900, Zwiebelsoße und foo_1337
foo_1337 schrieb:
Du hast dir das Zeug aus dem 4A Interview rausgepickt, richtig? Du hast aber schon alles gelesen, oder? Insbesondere dass nvidia in einer anderen Liga spielt, daher nicht vergleichbar ist und sie deshalb froh sind, dass der AMD Ansatz etwas mehr flexibilität bietet, um eben zumindest ein Subset der PC Experience auf den Konsolen zu erlauben?
Unter anderem, aber du legst das ganze schon relativ negativ für AMD aus.
Das Video ist hier auch ganz interessant.

 
  • Gefällt mir
Reaktionen: mm19, ZeroStrat und foo_1337
downforze schrieb:
Ich verwechsel gar nichts. Du hast meinen Satz nicht richtig verstanden. Es gibt eine gewisse Grenze, ab der eine noch so hohe Qualität den Verlust an fps nicht aufwiegt.
Ich wusste nicht, dass Du für die weltweite Festlegung zuständig bist, wann diese Grenze erreicht ist.

Ja- Es macht keinen Spaß mit 20 FPS vor sich hinzuzuckeln...

Im Framepacing konstante 30FPS sind aber keineswegs als unerträglich zu bezeichnen.

downforze schrieb:
30 fps oder 60 fps aus dem Konsolenbereich sind für den PC völlig unrelevant.
Das sind die Standards, auf die auch im PC Sektor im Normalfall hinoptimiert wird ((kompetitive) Shooter ausgeschlossen).

1440P 60
2160P 30/60

Das ist unter Anderem der hohen Verbreitung von Anzeigegeräten mit entsprechenden Grenzen geschuldet (60 Hz).
 
oks schrieb:
Richtig, fast so schrecklich wie den Stromverbrauch einer Grafikkarte mit Furmark o.Ä. synthetisch Belastungen zu ermitteln, so wie es doch einige internationale Hardwarseiten machen :freak:
Viel wichtiger wäre es mal den Stromverbrauch der CPUs unter Spielelast zu messen, damit die ständige Bezugahme auf Prime 95 abgeschwächt wird.
Statt prime 95 eher Handbrake mit AVX.. oder so.
 
.Sentinel. schrieb:
Sollte die da an Ampere ranrücken anstatt, dass sich der Abstand vergrößert, schmeisse ich unsere RDNA2- Optimierung um den Haufen und wir setzen uns nochmal ans Reißbrett.
Ich hab ja eher die Befürchtung, dass das ohne DLSS/FFSS unspielbar wird ;)
 
Bin auch schon gespannt auf das Metro Update. Das wird ein Benchmarkfest. :)
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, .Sentinel. und foo_1337
.Sentinel. schrieb:
Das sind die Standards, auf die auch im PC Sektor im Normalfall hinoptimiert wird ((kompetitive) Shooter ausgeschlossen).
Konsolenports mit 30 fps wie gewisse NFS-Titel sind sicher nicht der Standard.
Aber anscheinend glaubst du das bestimmen zu können.
Das was ich z.B. in Battlefield mit Raytracing gesehen habe, ist banal, kaum zu unterscheiden und den Performanceeinbruch nicht wert. Die Kommentare auf YouTube sprechen eine ähnliche Sprache.
Kein Mensch holt sich eine 3090 und gurkt mit einem 60 Hz Monitor mit eben so wenig fps rum. Ich wage mal zubehaupten, dass 80% 144 fps auf einem entsprechenden Monitor 60 fps mit Raytracing vorziehen.
4 von 5 spielen in Steam übrigens in FullHD. Anscheinend ist due Qualität wohl doch nicht wichtiger als ein flüssiges Spiel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide und nekro1
.Sentinel. schrieb:
Die Wahrscheinlichkeit, dass AMD ein ähnlich leistungsfähiges DLSS- Derivat liefert, ist schon aufgrund des Mangels an entsprechenden spezialisierten Recheneinheiten, die concurrent bzw. asynchron arbeiten können meiner Einschätzung nach ausgeschlossen.
Wenn die Implementierungen von DLSS weiterhin so wischi-waschi sind, könnte AMD mit einem stabilen Ansatz vielleicht ja etwas herausreißen?^^

.Sentinel. schrieb:
Ich denke, dass es auf eine custom Super- Resolution Lösung á la UE4 rauslaufen wird (temporales Upsampling).

Gibts das nicht schon ewig?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben