Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Ich würde sofort einen 5900X und eine 6800XT kaufen, aber bei den Preisen könnte ich stark im Breitstrahl kotzen.

@Laphonso wenn man das Zauberwort Budget bedenkt, dann auf jeden Fall.
Was AMD im CPU/GPU Sektor mit deeeutlich geringeren Budget (als Intel/nvidia) reißt momentan, ist extrem beeidruckend.
Da sowas wie DLSS den Konsolen gut kommen würde, wird sich da sicher auch was tun.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Laphonso
Taxxor schrieb:
Die WQHD Ergebnisse stechen hier aber auch raus, dass der Abstand in 4K so groß ist, könnte man noch mit dem Infinity Cache erklären, aber in 1080p ist er ebenso groß, nur in WQHD ist er kleiner.
Mit dem Infinity Cache oder der Raymenge, sie ja in 4K dramatisch ansteigt.
Da verstopft es wohl die AMDsche Pipline, vielleicht auch szenenabhängig.
 
  • Gefällt mir
Reaktionen: .Sentinel.
.Sentinel. schrieb:
Das neue Metro Exodus wird auf dem PC schon in gewisser Art und Weise die neue Benchmark setzen, was den hybriden RT Ansatz anbelangt.
Danke für dein Insiderwissen.
Ich bin ebenso gespannt auf das Ergebnis.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zwiebelsoße schrieb:
Mit dem Infinity Cache oder der Raymenge, sie ja in 4K dramatisch ansteigt.
Da verstopft es wohl die AMDsche Pipline, vielleicht auch szenenabhängig.
Hatte mich bei 1080p auch verguckt bzw die anderen Games nicht abgewählt, hier sinds ja sogar nur 4% Unterschied, dann passt die Entwicklung der Abstände von niedriger zu hoher Auflösung zumindest^^
 
  • Gefällt mir
Reaktionen: Illithide, Zwiebelsoße und foo_1337
foo_1337 schrieb:
Ich hab ja eher die Befürchtung, dass das ohne DLSS/FFSS unspielbar wird ;)
Das würde ich so noch garnicht mal sagen wollen.

Es gibt schon sehr viele Kniffe, die es inzwischen in diesen Titel geschafft haben könnten, die auch Big Navi ordentlich Feuer unter dem Hintern machen.

Wie ich bereits weiter oben schonmal schrieb. Derzeit hängt noch wahnsinnig viel an der Software.
Die derzeitige Herausforderung ist es eben keinen Ray zu verschwenden.

Sprich- Ich lasse den eben komplett durchlaufen und hänge daran dann relativ viele Auswertungen (Verschattung, Transparenz, Bounce) etc., anstatt für jeden Effekt einen Custom- Shader mit Auswertung laufen zu lassen.

Das käme einem RDNA 2 z.B. entgegen, verbannt dann aber wiederum die erweiterten Möglichkeiten, bei entsprechenden Ray- Stages z.B. schon frühzeitig auszusteigen bzw. die oben angesprochene Flexibilität zu nutzen.

Wie man es dreht und wendet- Es bleibt noch länger hochspannend und das ist gut so.
Die Methoden beider Hersteller AMD/NVIDA werden sich über die Zeit sowieso angleichen, wobei der eine die positiven Seiten des anderen übernehmen wird und umgekehrt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und foo_1337
m4c1990 schrieb:
Ich würde sofort einen 5900X und eine 6800XT kaufen, aber bei den Preisen könnte ich stark im Breitstrahl kotzen.

@Laphonso wenn man das Zauberwort Budget bedenkt, dann auf jeden Fall.
Was AMD im CPU/GPU Sektor mit deeeutlich geringeren Budget (als Intel/nvidia) reißt momentan, ist extrem beeidruckend.
Da sowas wie DLSS den Konsolen gut kommen würde, wird sich da sicher auch was tun.
Ja, die Budgetfrage ist zweifellos ein Grund.

Bei den CPUs, nunja, also da ist Intel mittlerweile ja eher P/L Sieger :D

Bei den GPUs, wenn man 3080-3090 native fps haben möchte und DLSS und RT sind kein Faktor, und man möchte den einen oder anderen Hunderter sparen, dann ist eine Entscheidung pro RDNA 2 auch völlig sinnig, vor allem wenn man ohnehin ein AMD only System bauen möchte.

Emotionsfrei, rein die technische und Feature Sicht fällt es aber schwer, an einer Ampere GPU derzeit vorbeizukommen. Nvidia bietet - derzeit - insgesamt mehr mit einer neuen GPU, unabhängig davon, wie toll oder doof man Nvidia findet.

Selbst wenn ich nur 3 RT+DLSS Titel spiele über die nächsten Jahre und diese GPU Laufzeit , ist das 3:0 für Nvidia. Rein bezogen auf das, was ich in den Optionen aktivieren kann.
Wie gesagt, bisher, also seit 2,5 Jahren. Mag sich ja ändern.
 
  • Gefällt mir
Reaktionen: Wan900 und foo_1337
Zwiebelsoße schrieb:
Gibts das nicht schon ewig?
Ja- Nur sind die Verhersagen bezüglich der Pixel Akkumulation inzwischen auch ohne AI deutlich treffsicherer.

Zu Deinem Video (da kann man ja mal kurz die Matritzen sehen)- Stell mal spaßeshalber bei Control die DLSS Auflösung per ini nahe an die Ausgabeauflösung.

Du wirst Dich wundern:
1613680697754.png

Da kannst Du DLSS "arbeiten" sehen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße
Dironi7 schrieb:
Es gibt diese weit verbreitete falsche Annahme, dass Mining GPUs zerstört... Miner wollen die bestmögliche Hashrate bei möglichst niedrigem Stromverbrauch. Wie wird dies erreicht? Man hebt den Memory-Clock und senkt das Power Limit. Im Regelfall werden Spannungen nicht angefasst, wenn dann nur zum Undervolten. Manchmal verändert man auch den Core-Clock. Da dann eine Karte nur bei 45% - 70% des Power Limits läuft, hat sie nur eine konstante Tenperatur von 50-60° C. Wie gehen GPUs kaputt? Durch hohe Spannungen oder hohe Temperaturen. Beides ist beim Mining nicht vorhanden. Das einzige, was vielleicht kaputt gehen könnte, sind die Lüfter, aber die sind meist günstig und einfach auszutauschen. Und bevor der Lüfter kaputt geht, will man eh eine leistungsstärkere Karte.
Naja, in dem Artikel ist auch die Rede von speziellen Kühlern, die den Betrieb dicht an dicht besser möglich machen. Und so laufen sie dann zu siebt 24/7. Je nach Dauer und Setup (auch Umgebungsluft) kann das ein Problem sein. Aber eine gut belüftete Mining Karte ziehe ich auch einer am OC- Limit betriebenen Karte vor. Pauschal ist da keine sinnvolle Aussage zu tätigen, man muss schon genau hinsehen denke ich.
 
Viele neuen Spiele benutzen Raytracing.
AMD kackt hier total ab. Ganz besonders wenn DLSS hinzu kommt.
Wieso kommt Ihr auf die Idee das AMD des Gewinner sein soll??

Mir fehlt im Artikel der Vergleich/ Unterschied von DDR6 und DDR6+
 
Es gibt zwar kaum käufliche Grafikkarten, trotzdem finden hier unter jedem Artikel verbale Grabenkämpfe statt. Vor allem die Nvidia Jünger wiederholen gerne mal gebetsmühlenartig wie super RTX & DLSS sind.
Man könnte sich auch ganz einfach über den technischen Fortschritt und Konkurrenz erfreuen anstatt Produkte der „anderen“ Firma schlechtzureden. Aber das wäre zu erwachsen.
 
  • Gefällt mir
Reaktionen: Illithide, uli_2112, edenjung und 4 andere
XKing schrieb:
Soweit ich das nun verstanden habe wird auf den Konsolen Raytracing in Zukunft hauptsächlich via Vulkan API realisiert?
Nvidia hingegen hat bisher einen zusätzlichen (proprietären) Layer auf DXR drauf geklatscht, weswegen auch nur die wenigsten Titel auf AMD abspielbar sind mit RT, oder wenn dann nicht optimal.

Was ich behaupte ist, dass wir viel weniger von Nvidias DXR sehen werden in Zukunft, bis auf einige gesponserte Spiele. Wenn die anderen Implementationen nun so einfach skalierbar sind wird Nvidia die Nase trotzdem vorne haben in Sachen RT, aber wohl weniger extrem wie bis jetzt getestet wurde.


Xbox Series X und S arbeiten mit DX12 Ultimate. Somit DXR. Wenn Microsoft ein Xbox Game für Konsole und PC entwickelt läuft es logischerweise auch auf ihrer eigenen Schnittstelle DX12 mit DXR.
Daher nein, Vulkan ist nicht immer gegeben und es wird wohl auch weiterhin viel DXR hergenommen werden.
Frage ist eher wie es mit der eigenen API der Playstation 5 aussieht. Bisher gibt es in der RT-Leistung bei den Konsolenspielen keinen großen Unterschied.

Daher hält sich die Verbreitung von Vulkan also noch in Grenzen obwohl man immer meinte dass es sich als Universalschnittstelle leicht gegenüber DX12 durchsetzt. Trotzdem kommen immer noch viele Spiele mit DX12 Support.
 
Ha, und ich kann mich noch genau an die GeForce GTX 1060 3 GB VRAM diskussion erinnern - Speicher gleich win und nicht Geschwindigkeit
 
basic123 schrieb:
Es gibt zwar kaum käufliche Grafikkarten, trotzdem finden hier unter jedem Artikel verbale Grabenkämpfe statt. Vor allem die Nvidia Jünger wiederholen gerne mal gebetsmühlenartig wie super RTX & DLSS sind.
Man könnte sich auch ganz einfach über den technischen Fortschritt und Konkurrenz erfreuen anstatt Produkte der „anderen“ Firma schlechtzureden. Aber das wäre zu erwachsen.
Es geht doch darum das beste Bild in der optimalen Performance zu erhalten.
Hier ist AMD im Moment immer noch zweitklassig. Wär schön, wenns anders wäre.
 
Salamimander schrieb:
1.) "die meisten" != "alle"
2.) Wenn RT eine Rolle spielt (und das tut es ebenfalls für viele) sieht AMD NICHT gut aus.

Ich wollte eine 6900XT, wirklich. Aber RT Leistung und realpreis waren einfach unstimmig.
Ja das tut es für mich auch. Und ich habe eine 6800xt.
Muss aber sagen das ich da mehr erwartet hätte. Also nicht von den FPS. Da reicht mir die Performance selbst in 3440x1440 aus. Ich nutze es nur im Singleplayer. Und da kann ich auch mit weniger als 60FPS leben für die erste Generation.
Aber wenn ich dann RT ein mit RT aus vergleiche bin ich ziemlich enttäuscht. Wie wenig es noch in den Spielen ausmacht. Man sieht den Unterschied, aber leider löst es kein WOW! aus.
Und dann denke ich mir so "hmm hätte doch vielleicht bei meiner 5700xt erstmal bleiben sollen.
Am meisten beeindruckt hat mich RT bei Quake2. Da liegen Welten zwischen RT ein/aus.
Aber bin mir sicher es dauert bestimmt noch 3-4 Generationen bis RT der Standard sein wird.
Und bis wir reine RT Spiele sehen dauert es bestimmt noch deutlich länger.
Und wie sich dann AMD und Nvidia schlagen muss man sehen.
Ich würde keinem Empfehlen die Karte danach zu kaufen wer jetzt in RT die Nase vorne hat. Dafür ist es noch aus meiner Sicht zu unbedeutend. DLSS leider auch. Aber vielleicht wird sich das in den nächsten 18 Monaten verbessern. Wobei ich bei den Preisen auch zur UVP das bezweifle. Nur sehr wenige werden eine GPU für mehr als 400 Euro kaufen wollen.
Und in der Preisklasse unter 400 Euro sehen wir das es mit 6-8Gb in RT zu Problemen kommt und das schon in 1080p. Und die meisten die in 1080p Spielen geben 250-300 Euro für eine GPU aus.
Somit fehlt den Gamestudios auch der Anreiz stärker auf RT und DLSS zu setzen.
Da bisher und auch in den nächsten 1-2 Jahren nur wenige Leute was davon haben.
 
#OUTOFSTOCK
Mehr gibts dazu nicht zu sagen
 
Da bin ich aber sehr froh über meine 6900XT, zumal locker immer 2,4 GHz anliegen...super Test!
 
Meine 1070 wird ja gar nicht mehr gelistet :D Dieses Jahr wird wahrscheinlich wieder gebastelt, hol mir einen 3700x und eine RX 6800. Damit ich dann für Resident Evil 8 in WQHD gerüstet bin.
 
ThePlayer schrieb:
Aber wenn ich dann RT ein mit RT aus vergleiche bin ich ziemlich enttäuscht. Wie wenig es noch in den Spielen ausmacht. Man sieht den Unterschied, aber leider löst es kein WOW! aus.
das lieg daran, dass RT per se eben nicht darauf aus ist, groß sichtbare Unterschiede zu generieren.
Rasterbasierte Grafik ist ja bereits in den meisten Fällen gut genug.

Nur versagt das Rastern vor allem in Sachen dynamischer Szenen und produziert eine Unmenge an Fehlern und Problemen. Und da greift dann ein Raytracing, welches als Rendervrefahren gewisse Problematiken eben nicht kennt.

Spiegelungen, Verschattung, GI ohne Clipping usw. usf. Es macht eine funktionierende Technik auch in physikalisch aufwendigen, zerstörbaren und stark manipulierbaren Szenen so ansehnlich, wie man es von den sonst statischen pre- baked Raster Szenen kennt

RT sieht einfah richtiger aus. Ist aber nicht auf "bling bling" ausgelegt.

ThePlayer schrieb:
Und dann denke ich mir so "hmm hätte doch vielleicht bei meiner 5700xt erstmal bleiben sollen.
Am meisten beeindruckt hat mich RT bei Quake2. Da liegen Welten zwischen RT ein/aus.
Ja- Von null auf Pathtraced ist schon eine Nummer.
ThePlayer schrieb:
Aber bin mir sicher es dauert bestimmt noch 3-4 Generationen bis RT der Standard sein wird.
Es ist bereits Standard. Alle Grundlagen sind gelegt. Einen haufen Games kommen mit der Technik an Bord auf den Markt auch getrieben durch die Konsolen.

ThePlayer schrieb:
Und bis wir reine RT Spiele sehen dauert es bestimmt noch deutlich länger.
Quake 2 und Minecraft RTX
ThePlayer schrieb:
Und wie sich dann AMD und Nvidia schlagen muss man sehen.
Hoffentlich geben die sich ordentlich Zunder. Die Anzeichen stehen gut, dass sich RTRT deutlich schneller entwickeln wird, als Rastergrafik.

ThePlayer schrieb:
Ich würde keinem Empfehlen die Karte danach zu kaufen wer jetzt in RT die Nase vorne hat.
Man empfiehlt jenen eine Karte, die bei RT die Nase vorne hat, welche Spiele nutzen wollen, die RT anbieten.
Du empfiehlst ja auch niemandem eine Grafikworkstation, der mit seinem PC Musik produzieren will.

ThePlayer schrieb:
Dafür ist es noch aus meiner Sicht zu unbedeutend.
Nur zählt die eigene Sicht bei einer Beratung nicht. Dort zählt nur das Nutzungsprofil desjenigen, der eine Beratung wünscht.
ThePlayer schrieb:
DLSS leider auch.
Siehe oben. Es gibt Leute die kaufen sich genau wegen eines Titels einen PC für mehrere tausend Euro.
Und für die lohnt sich der Kauf allein schon deshalb, um den Lieblingstitel entsprechend der eigenen Vorstellungen geniessen zu können.

Bin ich ein Fan von Minecraft RTX, gibt es keinen großen Beratungsspielraum.
ThePlayer schrieb:
Somit fehlt den Gamestudios auch der Anreiz stärker auf RT und DLSS zu setzen.
RT und DLSS entwickeln sich zum Checkbox- Feature, gerade weil jeder den Hype reiten will, so lange es geht. DLSS und RT haben noch einen spürbaren Aufmerksamkeits- Effekt.
Zudem werden alle größeren Engines nicht umsonst auf RT umgerüstet bzw. fit gemacht.

In kurzer Zeit wird man als Entwickler sogar unter Zugzwang sein und sich Kritik anhören dürfen, wenn Dinge wie RT oder DLSS nicht unterstützt werden. Gerade bei DLSS ist das jetzt schon vielfach der Fall.
Die Steam- Foren sind voll von Forderungen an die Entwickler, dass sie in ihre Titel DLSS2.x einbauen/nachrüsten sollen.
 
  • Gefällt mir
Reaktionen: foo_1337
ThePlayer schrieb:
Aber bin mir sicher es dauert bestimmt noch 3-4 Generationen bis RT der Standard sein wird.
Das wären nach aktuellem Stand knapp Jahre... absolut übertrieben.

2021 kommen schon fast alle AAA Titel mit RT raus und trotzdem soll es fast eine Dekade dauern bis es Standard wird? Völlig konfus diese Aussage, sorry.

Nach aktuellem Stand dürfte 2023 RT vollkommen im Markt angekommen sein. Vor allem da es eben nun in den Konsolen Einzug gehalten hat, dass gibt dem ganzen noch mal einen ordentlichen Schub, aber mit Schmackes!

Spätestens 2022 wirst du als AAA und auch schon als AA Entwickler dumm angemacht, wenn du kein RT/DLSS lieferst, dass wird in Teilen schon dieses Jahr anfangen.
 
Zuletzt bearbeitet:
Für mich sind nur die Benchmarks in 4K/UHD mit aktiviertem Raytracing (mit/ohne DLSS) interessant. Dort zeigt sich - neben meiner eigenen, subjektiven Spieleerfahrung - dass sich meine Investition im November 2020 in die RTX 3090 FE gelohnt hat.

Obwohl AMD kräftig angeschoben hat, in dieser hohen Auflösung gepaart mit Raytracing kommen sie einfach nicht an nVidia ran. Und Abstände von 28 - 48% sind schon gehörige Differenzen. Auch schön zu sehen, welchen Impact DLSS bei den nVidia-Karten hat.

Nicht zu vergessen: ich habe meine RTX 3090 FE überwiegend für Anwendungen wegen dem hohen VRAM. Lightroom nutzt 23 von 24GB VRAM voll aus und "fliegt" flüssig durch unzählige, aufwendig bearbeitete 42-Megapixel-RAW-Dateien. Kein lästiges Nachladen bei Zoomstufen-Änderungen etc. Von Davinci Resolve mit einigen Fusion-Nodes mal ganz abgesehen... da sind mir 24GB VRAM schon fast zu wenig.
 
Zurück
Oben