Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Dai6oro schrieb:
Das schafft die Trinity vielleicht wenn man Tetris spielt. Mit dem Stock Kühler war die bei mir innerhalb von ner Minute runter auf 1750Mhz bei über 80° bei BFV. Natürlich sind das die OOTB Werte alles andere wäre ja sinnlos.
Dann hast du halt Scheiss belüftung in deinem Gehäuse....
Meine RTX 3090 lief meisten so wie da aufm Screenshot. Der obere Graph ist FPS und der untere GPU Clock.

1613667920810.png


GRB_2021_01_24_16_56_28_483.jpg
 
  • Gefällt mir
Reaktionen: MP42
Laphonso schrieb:
Mit dem COD Franchise haben wir den global größten und erfolgreichesten Shooter, und eine 6800XT gegen eine 3080 mit DLSS auf 4K z.B. verdeutlicht bei einem Titel, der in seiner Mechanik fps erfolgskritisch nutzbar macht, was dort "out of the box" an fps hinzukommt. Und wie weit die 6800XT hier abfällt.

Ihr könnt das nicht "so" sagen, aber halten wir mal fest: Wer das das COD Franchise regelmäßig spielt und das Maximum an Optik mit fps will, muss einen Bogen um AMD GPUs machen, da ist Nvidia schlicht gesetzt.
Ist doch unsinn, hatte mit einer 3090 und DLSS in COD BOCW eigentlich nur probleme mit Grafikfehlern und schlieren, das ging so weit, dass man meinte ein "Gegener" kommt um die Ecke, war aber nicht so. Auch schlieren an den Ecken von Bergen/Gebäuten waren keine seltenheit.
Jetzt mit einer 6900XT RIS auf 80 und in game Scale auf 85 läuft die AMD Karte der Nvidia mit DLSS davon und hat dabei keine Grafikfehler.
 
  • Gefällt mir
Reaktionen: Illithide und mm19
Die AC: Valhalla Benches.... Holy cow!
Was ein schöner Ausreisser für AMD :D
Die 5700XT macht ja sogar die 2080ti nass 😲 und ich hatte RDNA 1 schon halbwegs abgeschrieben :D
 
Fuchiii schrieb:
Waaas? Das kann doch garnicht sein. So viele wie hier letztes Jahr gebrüllt haben, dass 6GB in FHD noch ewig reichen wird.
8GB als Minimum..? das ist doch totaaaaal üppig


Vielen Dank für den sehr ausführlichen Test mit neuem Parcour.
Auch schon zu sehen wie RDNA2 von SAM in einigen Titeln stark profitiert - wobei RDNA2 allgemein in neuen Titeln sehr gut abschneidet.

Bin mit meiner RX6800 bisher sehr zufrieden - und spüre ebenfalls in einigen Spielen einen ordentlichen Performance-Schub :)
Ja, das kommt schneller als erwartet. 6GB sind zu wenig und AMD profitiert vom Einsatz in den Konsolen.
Die Nvidia altern diesmal sehr schnell...
Und besser altern bekommt AMD halt besser hin :D
:daumen:
 
  • Gefällt mir
Reaktionen: MegaDriver
janeeisklar schrieb:
Ist doch unsinn, hatte mit einer 3090 und DLSS in COD BOCW eigentlich nur probleme mit Grafikfehlern und schlieren,
Argerlich, aber das muss an Deinem System liegen. ich habe das mit der 2080Ti und der 3090 und auf verschiedenen Monitoren gespielt, läuft 1a.
 
  • Gefällt mir
Reaktionen: Esenel
downforze schrieb:
Schönere Grafik kann es nur dann geben, wenn man nicht bei 40 fps rumkrebst. Und schon gar nicht, wenn man Freesync oder das NV-Pendant mit 144 Hz open end nutzt.
Du verwechselst technische Rahmendaten der Grafik mit der inhaltlichen Grafikqualität.
Ein C64 Bild wird dadurch nicht schöner/realistischer, nur weil es in 4K und 120FPS dargestellt wird.

Treiber der Grafik war aber immer deren inhaltliche Qualität. Ansonsten hätten wir jetzt noch Titel mit einfacher Vektorgrafik, dafür aber 16K und 600FPS.

Mit jeder generation an Grafikkarten wird diese aber durch die Entwickler wieder im üblichen Normalmaß ausgelastet. Sprich Konsolen auf Quality Einstellungen 4K und 30FPS als Target und auf dem PC 60FPS.
Ergänzung ()

Novasun schrieb:
Und besser altern bekommt AMD halt besser hin :D
:daumen:
Sieht man an RDNA 1...

Hmmmm.....
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, foo_1337 und Laphonso
ChrissKrass schrieb:
Guter Test, jetzt muss AMD nur noch die RT Performance in den Griff bekommen :D
Da steht es mit Inline Raytracing gar nicht so schlecht.
AMDs Lösung ist flexibler und bei wenigen Rays schneller.
Ich denke diese Generation kann man AMD durchaus als Gewinner betrachten, denn schließlich wird auch resizable bar bei Nvidia den Speicher noch weiter vollpumpen und damit schaufeln sie sich ihr eigenes Grab.
 
basic123 schrieb:
Warum sollte man etwas kaufen was man nun in sehr speziellen Spielen nutzen kann?
Also RT und DLSS findet man jetzt in einem Dutzend Blockbuster, und dazu bei COD, Fortnite, Battlefield und WoW z.B. direkt mal bei den größten Vertretern ihrer Genres, das sind globale Multimillionen Gamer Titel.
Hinzu kommen eine Reihe AAA Games, darunter jüngst Cyberpunk.

Das Narrativ, dass das DLSS und RT Featuresets zu "wenig" verbreitet sei unterstellt, dass man quasi keinen dieser Titel aus den letzten 2,5 Jahren gespielt hat, was ich unglaubwürdig finde.

Ich bin einer der "Alleszocker", bis auf MOBAs, da bin ich raus. Und die Raytracing Games sind im Einzelspielmodus ein echter Immersionsgewinn, und wem das im Ansatz wichtig ist, sollte das berücksichtigen.

Ich spiele COD CW ohne Raytracing, da es in Multiplayergefechten und in der Liga nicht zur Geltung kommt, aber der DLSS Boost erlaubt 3440x1440 die Ultrasettings mit fetten 120 fps (Monitor capped bei mir).

Dass man diese frames mit AMD Karten nicht im Ansatz 1:1 oder eben nur unter Qualitätsverlust bzw Slideranpassungen erhalten kann, sollte man schon herausstellen, weil genau das bei diesen "speziellen" Spielen Kaufrelevanz haben wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße, foo_1337, Mumusud und eine weitere Person
Zwiebelsoße schrieb:
Da steht es mit Inline Raytracing gar nicht so schlecht.
AMDs Lösung ist flexibler und bei wenigen Rays schneller.
Auch nicht wirklich. Was heisst schon flexibel...
Flexibel nenne ich die Lösung, die mir als Entwickler die Wahl der Mittel lässt.
AMD schränkt mich da ein.

Und es ist auch keine von irgendwas ableitbare Regel, dass RDNA2 bei geringerer Ray- Workload schneller sein muss. Was aber die Regel ist, ist dass NVIDIA sich mit steigendem Raycount nach oben hin grundsätzlich deutlicher absetzen kann.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, foo_1337 und Laphonso
Andybmf schrieb:
ich verstehe nicht, dass dlss on bei nvidea nicht als standard im test berücksichtigt wird.
wenn sam zum standard testparcour bei amd gehört, warum dann dlss nicht bei nvidea?

entweder lässt man bei beiden die technik weg, die der andere nicht hat, oder man testet mit, was geht.

Das war auch meine erste Gedanke. Wenn AMD mit SAM gegen NVidia vergleichbar ist, dann auch AMD gegen NVidia mit DLSS.
Gib es da eine Begründung ausser "wird es nicht geben"?
 
Zwiebelsoße schrieb:
Ich denke diese Generation kann man AMD durchaus als Gewinner betrachten,
Was hat und wo AMD denn "gewonnen" außer klassische Raster+Renderleistung auf dem aktuellen Stand der Technik?
DLSS = Nichts vergleichbares
Raytracing = Stand 2018.
Freesync matcht GSync immer noch nicht auf die gesamte Range.
Nvenc ist primus inter pares.

Insgesamt hat AMD ein tolles, aber immer noch das unterlegene Produkt im Gesamtpaket.

Sämtliche Kaufbereatungsthreads haben immer Verzichtserklärungen oder Brandloyalität
"Ich verzichte auf RT und DLSS und GSync, aber das ist dieses Mal noch ok". Oder "ich kaufe aus Prinzip kein Nvidia".

"Gewinner" speech klingt anders.
 
  • Gefällt mir
Reaktionen: Deniko23, Deftract und .Sentinel.
Zwiebelsoße schrieb:
Ich denke diese Generation kann man AMD durchaus als Gewinner betrachten, denn schließlich wird auch resizable bar bei Nvidia den Speicher noch weiter vollpumpen und damit schaufeln sie sich ihr eigenes Grab.
Siehe unten der VRAM Verbrauch von Crysis Remastered. Ich denke nicht, dass die RTX 3080 hier was zu lachen hätte. Und das sind wohl bemerkt Gibibyte, was CX anzeigt!

Crysis Remastered Screenshot 2021.02.18 - 19.18.57.77.png


Das ist hier ist auch lustig. :D

1613672904337.png

https://twitter.com/LegitReviews/status/1358075775740768256
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Illithide, Fighter1993, ChrissKrass und 2 andere
Zwiebelsoße schrieb:
denn schließlich wird auch resizable bar bei Nvidia den Speicher noch weiter vollpumpen
Auch du hast leider keinen blassen Schimmer, was der Sinn und Zweck von rBAR ist.

@ZeroStrat Spiel es einfach mit ner 3080 und du wirst keine Einschränkungen feststellen. Klingt komisch, ist aber so ;) Diese Messungen sagen erstmal nichts aus. Spiel mal CoD mit der 3090, da bist du Ruckzuck auf 22GB. Und dennoch hast du weder mit einer 6900XT, 3080 oder 3070 große Probleme. Und bei RAM wird sowieso immer und überall in Gibibyte gemessen und nicht in SI, auch wenn die unwissenden Gigabyte schreiben ;)
 
  • Gefällt mir
Reaktionen: Deftract
@ZeroStrat herjeh das ist ja übel. Mal sehen wie es um die 3080 mit 10 GB zukünftig steht. Sie sollten besser mal die 20 GB Version Releasen. Für den Preis sollte man sich nicht um Sachen wie VRAM sorgen machen müssen
 
  • Gefällt mir
Reaktionen: Illithide
ZeroStrat schrieb:
Joar, ResBar führt zu einem signifikanten Anstieg der VRAM Nutzung.
Nein, tut es nicht. Wieso sollte es? Das hat mal jemand bei eurem Account getweeted, aber nach Erklärung meinerseits nie eine Antwort darauf geliefert.
 
Mudspike schrieb:
Gib es da eine Begründung ausser "wird es nicht geben"?

Schon wenige Titel mit DLSS würden die Verhältnisse hier komplett kippen, so dass sich die Redaktion wohl nicht sicher ist, ob das die Bewertungsgrundlagen liefert, die die Leserschaft sehen will.
Da wär der Aufschrei der AMD Gemeinde groß, wenn DLSS in die allgemeinen Tests einfließen würde.

Zum Teil auch begründet, da DLSS dafür in seiner Integration nicht konstant genug liefert.
CB ist zudem nachwievor ein Dienstleister, der das Bewertet, was der Leser fordert.

Die fänden es sicher nicht lustig, wenn alle AMD- Fans das Abo kündigen, weil deren Mannschaft dann nicht mehr in der erwarteten Liga spielen würde.
 
  • Gefällt mir
Reaktionen: Laphonso
Also ich seh das recht gelassen was den Vram Nachteil gegenüber den 6xxx angeht.Es ist ja schon zu genüge in allen Aspekten durchdiskutiert worden.

Eines ist aber Fakt...NV hat bisher und i.d.R. v.A die letzten Gen. deutlich mehr Karten an den Mann gebracht und es wäre nicht gerade schlau von den Studios wenn das Game mit NV Karten nicht rund läuft.Im Zweifel wird die Mehrheit sicher eher auf ein Game verzichten als die GPU,insbesondere wieder mit vermutlich hohem Aufpreis,zu tauschen.
 
foo_1337 schrieb:
Klingt komisch, ist aber so ;) Diese Messungen sagen erstmal nichts aus. Spiel mal CoD mit der 3090, da bist du Ruckzuck auf 22GB. Und dennoch hast du weder mit einer 6900XT, 3080 oder 3070 große Probleme.
Ne, da sprichst du mit dem Falschen foo. :D Dedicated VRAM ist das, was tatsächlich genutzt wird. CoD habe ich schon unter die Lupe genommen. Eine 6900XT und 3080 reichen überhaupt nicht mit max. Textur Einstellungen. Das Problem äußert sich meistens auch sehr subtil durch Texturstreaming. Die 10GB der RTX 3080 sind ein Witz, glaub's mir.
 
  • Gefällt mir
Reaktionen: Illithide, Otsy, mm19 und eine weitere Person
Zurück
Oben