Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

.Sentinel. schrieb:
Auch nicht wirklich. Was heisst schon flexibel...
AMD erzeugt in der Pipeline bei weniger Rays deutlich weniger Overhead.
Zudem haben sie Vorteile bei divergenten Lichtbündeln.
Nvidias Lösung ist unflexibel und wird aufgrund der Konsolenlastigkeit der RT Implementierungen wohl vorerst nicht wirklich schneller sein. Zu sehen ist das bei Crysis Remastered, Dirt 5, Metro Exodus bei niedrigeren Settings, natürlich vorrausgesetzt, das AMD nicht schummelt.

.Sentinel. schrieb:
Flexibel nenne ich die Lösung, die mir als Entwickler die Wahl der Mittel lässt.
AMD schränkt mich da ein.
Custom Traversal, Ray-Caching, funktioniert auf Nvidia Karten zum Beispiel nicht.
DXR 1.1 hat das RT Feld für Nvidia so ein wenig vermint.

.Sentinel. schrieb:
Und es ist auch keine von irgendwas ableitbare Regel, dass RDNA2 bei geringerer Ray- Workload schneller sein muss.
Ich weiß jetzt nicht mehr wo ichs gelesen habe, aber es erscheint zumindest logisch, schließlich geht Nvida den weg über die RT Cores, welche nunmal in der SM weiter weg sind als AMD´s Textureinheiten.

.Sentinel. schrieb:
Was aber die Regel ist, ist dass NVIDIA sich mit steigendem Raycount nach oben hin grundsätzlich deutlicher absetzen kann.
Ja, sieht man ja bei den Pathtracing Titeln.
Aber mittlerweile denke ich, dass da noch einiges an Optimierungspotenziual brach liegt.
Mit DXR 1.1 kann man den Overhead deutlich reduzieren.
Die Kommandos zum Bauen vom BVH Trees kommen nicht mehr alleine von der CPU, es läuft nun mehr über den GPU Compute Kernel.

Full shader based Raytracing ist wohl eher Nvidia Land dann.
Inline Raytracing dürfte dann eher von AMD forciert werden.
Jedenfalls soviel ich als Laie davon verstehe.^^
 
  • Gefällt mir
Reaktionen: .Sentinel.
liebäugel auch mit einer 6900XT aber macht doch kein Sinn auf GSync zu verzichten nur weil Nvidia nicht liefern kann oder?
 
Der Benchmark-Parkour mit dem Ausreißer Assassins Creed Valhalla und standardmäßigem SAM On erscheint mir etwas AMD-lastig. Ich rate dazu, das hiesige Performance-Rating mit den Durchschnittswerten von 3DCenter abzugleichen. Das dortige Rating wird Testseiten-übergreifend berechnet.

Sofern ein Spiel die Möglichkeit für DLSS hat, muss das imho auch in den Benchmarks inklusive eigenem Benchmark-Balken dargestellt werden. Ansonsten geht das Feature unfairerweise unter, wenn es beispielsweise nur im Fließtext irgendwo heißt "ach übrigens, rechnet bei Nvidia mal 60% oben drauf".
 
  • Gefällt mir
Reaktionen: Andybmf und Wan900
Zotac2012 schrieb:
Gibt doch jede Menge RTX 3090er auf Lager! :daumen:
Joar :D zwar in 2 Wochen um 500€ gestiegen man gönnt sich ja sonst nix ^^
 
  • Gefällt mir
Reaktionen: Zotac2012 und Laphonso
  • Danke, dass ihr eine Stock-CPU verwendet, es geht nicht um Augenwischerei sondern Vergleichswerte
  • Ich wuerde aus Prinzip jene Grafikkarten beim Test ignorieren, die nicht erhaeltlich sind, ich finde man muss sich wehren

aus gegebenen Anlass:
Wie kriege ich (in den Einstellungen?) dieses fuerchterliche Gespame mit dieser gruenen Schrift im gruenen Rahmen (CBpro) weg, und zwar auf JEDER Seite? - einmalig wuerde ich noch akzeptieren.
Das empfinde ich schlimmer, als jede Werbung diskret an der Seite, sorry Jungs.
Muss man kuendigen, damit das wieder weg geht?


Ich persoenlich hasse alles, was man aufgedraengelt kriegt und nicht abschalten kann (s.W10 &co.),
aber vllt gibts ja ein Haekchen ;)


Update:
jetzt isses wohl weg, dankeeeee
 
Zuletzt bearbeitet:
TnTDynamite schrieb:
Naja, "der Markt für Gaming-Grafikkarten" funktioniert für sich genommen nicht, da er nicht isoliert ist vom Markt für "Mining-Hardware". Natürlich greifen die Marktgesetzte. Aber wenn dein Dorf kein Trinkwasser mehr hat, weil es in der Fabrik nebenan aufgebraucht wird, wirst du dem Satz "der Markt ist kaputt" auch eher weniger widersprechen. ^^

Aber ja, ich schließe mich dann mal an und sage der Artikel hilft mir in 2-3 Jahren, wenn es wieder Karten gibt und diese dann gebraucht im Umlauf sind. Man muss sich nur der Gefahr bewusst sein, dass man eine Karte ergattern könnte, die einiges an Mining aufm Buckel hat. Also ich würde da in der Theorie eine potentielle 4070 oder 5060ti bei gleichem Preis womöglich einer gebrauchten 3080 vorziehen...
Es gibt diese weit verbreitete falsche Annahme, dass Mining GPUs zerstört... Miner wollen die bestmögliche Hashrate bei möglichst niedrigem Stromverbrauch. Wie wird dies erreicht? Man hebt den Memory-Clock und senkt das Power Limit. Im Regelfall werden Spannungen nicht angefasst, wenn dann nur zum Undervolten. Manchmal verändert man auch den Core-Clock. Da dann eine Karte nur bei 45% - 70% des Power Limits läuft, hat sie nur eine konstante Tenperatur von 50-60° C. Wie gehen GPUs kaputt? Durch hohe Spannungen oder hohe Temperaturen. Beides ist beim Mining nicht vorhanden. Das einzige, was vielleicht kaputt gehen könnte, sind die Lüfter, aber die sind meist günstig und einfach auszutauschen. Und bevor der Lüfter kaputt geht, will man eh eine leistungsstärkere Karte.
 
  • Gefällt mir
Reaktionen: uli_2112 und edenjung
charmin schrieb:
Ich habe mehrfach versucht eine 6800XT oder 6900XT zu bekommen. Keine Chance... So ist es dann halt doch die 3080 geworden (bzw. bei der 3080 geblieben die sonst an einen Kumpel gegangen wäre). AMD hat eine tolle Technik und einen tollen Chip, aber bringt halt nichts wenn man die Karte nicht kaufen kann...
Verstehe ich jetzt nicht ganz. Die RTX 3080 ist doch eigtl. die bessere Technik mit mehreren Features und ansonsten gleich auf mit der 6800XT, nur mit DLSS und RT zieht sie halt völlig davon.
 
  • Gefällt mir
Reaktionen: Wan900 und Laphonso
basic123 schrieb:
Da kann ich dir nur empfehlen selbst eine AMD Karte zu kaufen und auszuprobieren. Könnte mir vorstellen, dass bisher nur Nvidia Karten verbaut hattest. Hatte schon RTX 3090 und RX 6900 XT bei mir verbaut, kann daher praxisnah ein Fazit ziehen.
Und weil die 3090 direkt mal 30% (oder 40%?) mehr fps im erwähnten Titel schiebt als die 6900XT, ist das das Fazit doch offensichtlich?
Die 3090 hat dazu mehr VRAM und viel bessere Speicherbandbreite+Durchsatz = bessere Franetimes.

Die 6900XT konkurriert eher mit der 3080.
 
  • Gefällt mir
Reaktionen: MP42 und foo_1337
Mudspike schrieb:
Das war auch meine erste Gedanke. Wenn AMD mit SAM gegen NVidia vergleichbar ist, dann auch AMD gegen NVidia mit DLSS.
Gib es da eine Begründung ausser "wird es nicht geben"?
Weil DLSS nur ein verbessertes Upscaling ist. War auch gehypt von den Feature, dann in Cyberpunk (auf Quality, 2560x1440) ausprobiert und war komplett enttäuscht. Bild war sehr unscharf - sieht aber im Standbild mit Schärfefilter noch ok aus. Leider in Bewegung schlimmes Kantenflimmern - da ist mir ein ruhiges Bild 100 mal lieber wie Raytracing Effekte. Ist zwar besser als normales Upscaling, kommt aber bei weitem nicht an die native Auflösung ran.
 
  • Gefällt mir
Reaktionen: Illithide, Fuchiii, basic123 und eine weitere Person
Wolfgang schrieb:
Performance pro Watt kehrt beim nächsten Test wieder :)

Bitte bitte, macht nicht wieder den Fehler und verrechnet die unter UHD ermittelte Leistungsaufnahme (-> Grafikkarte voll ausgelastet) mit den in FullHD und WQHD ermittelten FPS (Grafikkarte häufig teil ausgelastet).

Igor hat bereits wiederholt und deutlich aufgezeigt, was auch versierte User schon seit vielen GPU-Generationen wissen (mindestens seit AMDs Fiji/Fury): Bei geringen Auflösungen (FullHD etc.) liegt die Leistungsaufnahme von High-End Grafikkarten deutlich unter der Leistungaufnahme von Vollastszenarien. Eine RTX 3060Ti mag ja unter 1080p/1440p bereits ihre volle Total Graphics Power = 200 Watt erreichen (so dass man die 1080p/1440P-FPS mit der UHD-Leistungsaufnahme dort eigentlich problemlos verrechnen kann), aber eine 6800, 6800/6900 XT oder 3080/3090 erreicht die maximale Leistungsaufnahme von 250W/300W bzw. 320W/350W definitiv nicht unter 1080p/1440p bzw. nur selten in Ausnahmefällen.

Dadurch wird den kleineren Grafikkarten im Verhältnis eine zu gute Effizienz in niedrigen Auflösungen zugesprochen bzw. den größeren Grafikkarten eine deutlich zu schlechte. Ignoriert das bitte nicht, vergesst Eitelkeit usw. der Mehraufwand (Leistungsaufnahme auch unter 1080p und 1440p ermitteln) lohnt sich um seriöse Ergebnisse zu liefern. Denn wenn es nicht ihr macht, machen es andere Tester.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide
@Zwiebelsoße du hast dir das Zeug aus dem 4A Interview rausgepickt, richtig? Du hast aber schon alles gelesen, oder? Insbesondere dass nvidia in einer anderen Liga spielt, daher nicht vergleichbar ist und sie deshalb froh sind, dass der AMD Ansatz etwas mehr flexibilität bietet, um eben zumindest ein Subset der PC Experience auf den Konsolen zu erlauben?
 
Sehe ich das richtig das wenn man keinen Wert auf RTX legt und in wqhd in der Range zw 144-240hz sich bewegen will mit den aktuellen AMD GPUs bestens bedient ist? =)
AMD steckt ja mit RTX noch in den Kinderschuhen, vielleicht optimieren die Entwickler ja in Zukunft besser da ja auch die aktuellen Konsolen AMD GPUs fahren. 4k kommt für mich noch nicht in Frage weil die Monitore viel zu teuer sind und um anständige FPS zu erreichen muss man die Details ja auch mit ner Highend Karte immernoch drosseln.
 
  • Gefällt mir
Reaktionen: Illithide und basic123
Laphonso schrieb:
Was hat und wo AMD denn "gewonnen" außer klassische Raster+Renderleistung auf dem aktuellen Stand der Technik?
DLSS = Nichts vergleichbares
Na, zum einen haben sie ganz offenbar die Metrik Leistung/V-ram besser ausbalanciert, die bessere Preisstruktur gewählt und zudem marketintechnisch Synergieeffekte wie SAM realisiert und damit Nvida aufs Glatteis geführt, zudem haben sie die nun leicht bessere Effizienz.
Nvidia muss sich bei dem schmalen Speicher der 3070/3080 bombensicher gewesen sein, dass AMD nichts wirklich konkurrenzfähiges auf die Beine stellt.

Das einzige was Nvidia meiner Meinung nach wirklich von AMD absetzt ist DLSS, welches aber - und ich habe mir das in Cyberpunk und War Thunder wirklich genau angesehen und es ist in Teilen besser als Nativ, aber auch in Teilen schlechter.

Teilweise reduziert es das Flimmern, bildet aber durch die verringerte Auflösung auch neues und klatscht stellenweise eine extreme Unschärfe auf das Bild, dennoch meilenweit vor einfachem upscaling und nachschärfen.
Ich bin absolut überzeugt, dass es die Zukunft ist und AMD etwas verleichbares anbieten muss, aber so gut wie es gepriesen wird, ist es leider in Teilen doch nicht, auchn wenn das an fehlerhaften Implementierungen liegt.

In Youngblood ist es allerdings grandios.

Laphonso schrieb:
Raytracing = Stand 2018.
In WQHD ist die 3090 im RT Ranking "nur" noch 35% schneller als die 6900XT.
Die Treiber haben offenbar gute Arbeit geleistet, man liegt jetzt rund 10% über der 2080Ti, das ist für first try eine extrem gute Leistung.
Mittlerweile sehe ich das positiver für AMD, denn ich habe seit gestern selbst eine 6900XT in meinem PC und da ändert sich die eigene Meinung ja bekanntlich immer ein wenig - was auch gut ist.
Laphonso schrieb:
Freesync matcht GSync immer noch nicht auf die gesamte Range.
Nachdem Nvidia die Standards von G-sync gesenkt hat, trifft das meines Erachtens nicht mehr wirklich zu.
AMD hat aber auch lange benötigt um aufzuschließen.

Laphonso schrieb:
Nvenc ist primus inter pares.
Stimmt.

Laphonso schrieb:
Insgesamt hat AMD ein tolles, aber immer noch das unterlegene Produkt im Gesamtpaket.
Das trifft meiner Meinung nach auf die 3090 zu - wenn sie denn für einen fairen Preis erhältlich wäre.
Die 3080 hat mich auch überzeugt, keine Frage, aber der magere Speicher fühlt sich nicht wirklich wertig an.
Laphonso schrieb:
Sämtliche Kaufbereatungsthreads haben immer Verzichtserklärungen oder Brandloyalität
"Ich verzichte auf RT und DLSS und GSync, aber das ist dieses Mal noch ok". Oder "ich kaufe aus Prinzip kein Nvidia".
Da hast du vollkommen recht.
Bei AMD muss man derzeit Verzicht üben, während die Spiele mit DLSS und RT immer mehr werden.
Dafür hat man auch den etwas geringeren Preis, die bessere Effizienz (Korinthenkackerei), ein schärferes VSR und ein Klickibunti Menü. Aber vor allem hat man Speicher und gar keine so schlechte RT Leistung (in Exodus war ich überrascht) - sofern AMD ein DLSS Äquivalent bringt was etwas taugt, zieht AMD davon.

Laphonso schrieb:
"Gewinner" speech klingt anders.
Natürlich aus der Sicht von der Leistung die AMD noch mit der 5700XT brachte.
Aber auch die hat den Rückstand zur 2070 Super mittlerweile auf 4% verkürzt, bräuchte dafür aber dringend DLSS, das ist auch der Grund warum ich Nvidia weiterhin vorziehen würde, aber wollte halt mal ne AMD Karte.:D
 
  • Gefällt mir
Reaktionen: Zwenki, cbmik, mm19 und eine weitere Person
Freiheraus schrieb:
Bitte bitte, macht nicht wieder den Fehler und verrechnet die unter UHD ermittelte Leistungsaufnahme (-> Grafikkarte voll ausgelastet) mit den in FullHD und WQHD ermittelten FPS (Grafikkarte häufig teil ausgelastet).

Richtig, fast so schrecklich wie den Stromverbrauch einer Grafikkarte mit Furmark o.Ä. synthetisch Belastungen zu ermitteln, so wie es doch einige internationale Hardwarseiten machen :freak:
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
Zwiebelsoße schrieb:
In WQHD ist die 3090 im RT Ranking "nur" noch 35% schneller als die 6900XT.
Im Ranking sind sie deshalb 35% schneller, weil Dirt & Co keine Reflexionen nutzen. Wenn du nur Games mit RT Reflexionen nimmst, sieht es düster für AMD aus. Ich hoffe, dass FFSS gut wird, sonst kannst du RT in solchen Spielen komplett deaktiviert lassen.
 
  • Gefällt mir
Reaktionen: Esenel und Laphonso
Zwiebelsoße schrieb:
Nvidia muss sich bei dem schmalen Speicher der 3070/3080 bombensicher gewesen sein, dass AMD nichts wirklich konkurrenzfähiges auf die Beine stellt.
Glaub mir, die wussten was da auf sie zukommt! Allein deswegen haben sie den großen Ampere Chip auch für läppsche 699€ zur UVP angeboten.
 
  • Gefällt mir
Reaktionen: Laphonso
Zwiebelsoße schrieb:
AMD erzeugt in der Pipeline bei weniger Rays deutlich weniger Overhead.
Nicht wirklich, weil Du im Inline- Raytracing immer auf uber- Shader setzen solltest.
Die Flexibilität, die Du durch eine höhere Kontrolle der Ray- Stages erzielst, verlierst Du an anderer Stelle wieder.
Zudem sind die zweite Generation RT Cores von NVIDIA auch flexibler geworden.
Du musst nicht mehr zwangsweise durch die gesamte Blackbox.

Zwiebelsoße schrieb:
Zudem haben sie Vorteile bei divergenten Lichtbündeln.
Divergente Rays shreddern den last level Cache von RDNA 2.
Da musst Du auch auf "durchzug" stellen, soll noch ein wenig Leistung erhalten bleiben.

Das heisst, dass Du die Sortierroutine vorher schon ansetzt.
Die meisten Bündelungs-/Ray- Sorting- Algorithmen laufen auf der CPU und nicht auf der GPU.

Zwiebelsoße schrieb:
Nvidias Lösung ist unflexibel
Im Gegenteil- AMD zwingt mich dazu meine Shader nicht so gestalten zu können, bzw. Dispatches daraus zu erzeugen, wie ich will, wenn ich nicht durch das Tal der Performancetränen schreiten will.

Zwiebelsoße schrieb:
und wird aufgrund der Konsolenlastigkeit der RT Implementierungen wohl vorerst nicht wirklich schneller sein.
Die Praxis zeigt derzeit ein anderes Bild.

Zwiebelsoße schrieb:
Zu sehen ist das bei Crysis Remastered
...welches quasi alle Last (auch des Raytracings) von den Karten nimmt und die CPUs damit tötet...
Zwiebelsoße schrieb:
Welchem man, wenn man den Code untersucht, fast schon unterstellen könnte, NVIDIA gezielt schlecht dastehen zu lassen (Witcher 3 Hairworks lässt grüßen) - Stichwort INT/FP.
Zwiebelsoße schrieb:
, Metro Exodus bei niedrigeren Settings, natürlich vorrausgesetzt, das AMD nicht schummelt.
...das ist ein weiterer Punkt. Die ersten Tests der AMD Karten in Watchdogs unter RT waren eine Farce, da die hälfte der Effekte nicht berechnet wurde.

Kann man sich auf die Messungen auch ob der Treiberschweinereien wirklich verlassen?
Zwiebelsoße schrieb:
Custom Traversal, Ray-Caching, funktioniert auf Nvidia Karten zum Beispiel nicht.
Custom traversal macht bei der Ray- Engine von NVIDIA seltenst Sinn (und bei immer weiter voranschreitendem Ray- reuse noch weniger), da dort im Gegensatz zu RDNA2 kein Flaschenhals auszumachen ist.

...zudem dachte ich, dass besagtes ray- caching, welches immer wieder in den Medien rumschwirrt Konsolen exklusiv sei, da vom unified Speichermanagement abhängig?

Zwiebelsoße schrieb:
DXR 1.1 hat das RT Feld für Nvidia so ein wenig vermint.
Im Gegenteil- Ampere wurde wie RDNA2 im Hinblick auf 1.1 optimiert.

Zwiebelsoße schrieb:
Ich weiß jetzt nicht mehr wo ichs gelesen habe, aber es erscheint zumindest logisch, schließlich geht Nvida den weg über die RT Cores, welche nunmal in der SM weiter weg sind als AMD´s Textureinheiten.
Nicht wirklich - Du kannst concurrent inzwischen auf die Traversal Einheiten zugreifen, wie es beliebt und das auch Renderstage- Unabhängig.

Hier nicht Turing mit Ampere verwechseln.

Zwiebelsoße schrieb:
Aber mittlerweile denke ich, dass da noch einiges an Optimierungspotenziual brach liegt.
Meine Rede - Wir werden hier auf Seiten der Software noch einiges erwarten dürfen.

Wir kommen von Demos, die auf Turing mit 1080P und 30FPS präsentiert wurden (mit einem RT Grafikeffekt).

Und innerhalb von 2,5 Jahren sehen wir mit Minecraft RTX einen Titel, der FULL PATHTRACED auf der 3090 über 90FPS auf 4K drückt.

Zwiebelsoße schrieb:
Mit DXR 1.1 kann man den Overhead deutlich reduzieren.
Die Kommandos zum Bauen vom BVH Trees kommen nicht mehr alleine von der CPU, es läuft nun über den GPU Compute Kernel.
Das wäre vorher auch schon gegangen. Dazu brauchts kein 1.1
Die BVH Trees sind im Übrigen nichts fix hinterlegtes. Du kannst nach belieben jede andere Beschleunigungsstruktur dahinterklemmen, weil es eben kein fixer Bestandteil einer Spezifikation ist.
 
  • Gefällt mir
Reaktionen: Kenjiii, Plasma81, Zwiebelsoße und 2 andere
ZeroStrat schrieb:
Ne, da sprichst du mit dem Falschen foo. :D Dedicated VRAM ist das, was tatsächlich genutzt wird. CoD habe ich schon unter die Lupe genommen. Eine 6900XT und 3080 reichen überhaupt nicht mit max. Textur Einstellungen. Das Problem äußert sich meistens auch sehr subtil durch Texturstreaming. Die 10GB der RTX 3080 sind ein Witz, glaub's mir.
Kannste das mal genauer erklären, die 16gb der 6900xt reichen nicht?
Hätte ich nicht gedacht.
Wie viel GB sind denn gefordert?
 
Zurück
Oben