Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Glückwunsch an AMD, da ich aber ein Gsync TV und Montior habe muss ich weiterhin auf nvidia setzen.
 
ChrissKrass schrieb:
Guter Test, jetzt muss AMD nur noch die RT Performance in den Griff bekommen :D
Glaube mir, würden AMD die 6000 non xt ohne raytracing Unfug für 100-200€ weniger verkaufen, wäre das die beste Entscheidung für Leute die das nie für wichtig genug erachten die Kaufentscheidung schlechthin
 
  • Gefällt mir
Reaktionen: adaptedALPHA, Illithide und ChrissKrass
Welcher nvidia treiber wurde verwendet ? Der 457.30 liefert immer noch die meisten fps. Das ist aus dem mfs 2020 forum getestet
 
Euer Fazit ist, dass 8 GB VRAM mit Raytracing (zu) knapp sind, aber gleichzeitig bezieht sich das auf Raytracing ohne DLSS? Oder hab ich was überlesen?

Ich sehe ein, dass 8 GB mit RT nicht gerade üppig sind und für 4K sicherlich nicht gerade zukunftstauglich.
Aber diese aussage ohne Berücksichtigung von DLSS zu treffen finde ich etwas fragwürdig.
In der Praxis wird praktisch niemand RT ohne DLSS nutzen, was das Problem nunmal deutlich mindert.

Zumal 4K selbst mit DLSS wohl selten die Zielauflösung für z.B. eine RTX3070 sein dürfte.

Was mich hier stört sind "provokante" Pauschalaussagen, die bei genauerer Betrachtung in vielen Fällen (noch) keine Relevanz haben.
 
  • Gefällt mir
Reaktionen: Wan900
Also AMD hat ganz klar das interessantere Gesamtpaket.
Leider sind die Treiber meist Mist. Selbst jetzt ärgere ich bei meinem 2. PC immer über die AMD GPU Treiber.

Wenn nun die RT Performance in der nächsten Generation nochmal einen Schub bekommt und sie die Treiber in den Griff bekommen sehe ich kaum Argumente die noch für Team Grün sprechen.
 
Deftract schrieb:
Toller Test, sehr aufschlussreich, Danke!
Ist der Speicherhunger bei aktiviertem DLSS derselbe wie bei deaktiviertem?
Mit DLSS benötigen Spiele (falls ich es richtig im Kopf habe) gar minimal mehr VRAM als ohne. Das neuronale Netz muss halt auch irgendwo hin.
Shio schrieb:
Ich sehe solche extremen Performanceausreißer wie AC Valhalla und Mafia/Control als recht kritisch wenn man Grafikkarten vergleicht.
Da macht ein Vergleich schon keinen Sinn mehr. Vor allem wenn die Spiele dann auch noch gesponsort von den jeweiligen führenden Karten sind...
Wenn ein Großteil der Spiele sich so verhalten würde, würde ich mit dir übereinstimmen. Aber bei nur wenigen Titeln sehe ich da kein Problem drin. Zumal es sich mit Valhalla ja auch um einen absoluten Hochkaräter handelt.

Das das mit dem Sponsorn nicht unbedingt etwas an der Performance ändert, sieht man übrigens gut in Watch Dogs. Das ist einer von Nvidias Vorzeigetiteln, wegen RTX. Und die Performance ohne RTX hat das AMD wohl nicht geschadet.
Creeper777 schrieb:
Tests zu Hardware lesen die man nicht kaufen kann, ist ziemliche Zeitverschwendung.
Warum das denn? Mit dem Argument wären alle möglichen Tests auch abseits von Hardware Zeitverschwendung. Alleine wer sich für das Thema interessiert wird dies nicht als Zeitverschwendung absehen.
User7777 schrieb:
Wo ist Performance / Watt?

Die 3090 braucht ja gleich mal 50W mehr für ein paar % mehr Leistung als die RX690XT
Performance pro Watt kehrt beim nächsten Test wieder :)
borizb schrieb:
@Wolfgang
Danke für den Test und dass man die Möglichkeit hat, einzelne Spiele an und abzuwählen.
Fehlt mir auf praktisch allen anderen Websites und macht diese hier umso lesenswerter.
Bitte sehr! Fun Fact: Wenn du alle neuen Spiele in den Ratings deaktiviert, hat man bis auf 1 Prozent wieder denselben Abstand wie mit dem alten Parcours.
DKK007 schrieb:
Wird es trotzdem mal einen Einzelbenchmark geben, schließlich kamen nun schon eine ganze reihe Patches?
Ist vielleicht für die Zukunft mal eine Überlegung wert, allerspätestens, wenn DX12 hinzu kommt :)

pookpook schrieb:
Welche Benchmark und Patch wurde für Ac Valhalla benutzt?

Ich habe eine RTX 3070 und scheint etwas schneller als ihr angegeben habe(72 FPS in die interne benchmark@WQHD mit eine R5 3600)
Die letzten zwei Spielversionen von Valhalla laufen genau gleich schnell und die wurden auch genutzt. Als Benchmark gibt es eine Savegame-Szene, mehr Details dazu findest du hier:
https://www.computerbase.de/2020-11/assassins-creed-valhalla-benchmark-test/2/
MeisterOek schrieb:
Geht es nur mir so oder findet ihr die "RT Aus"-Benchmarkergebnisse beim Raytracing-Test auch unnötig und verwirrend? Finde es damit total unübersichtlich.
Auf der einen Seite verstehe ich dein Argument. Auf der anderen siehst du aber nur so, was RT kostet.
 
  • Gefällt mir
Reaktionen: Illithide, Rambo5018, DannyA4 und 5 andere
Creeper777 schrieb:
Tests zu Hardware lesen die man nicht kaufen kann, ist ziemliche Zeitverschwendung.
Und trotzdem bist Du hier ;)

Sich informiert halten und während des Wartens lesen ist ja trotzdem spannend. Früher habe ich Monate warten müssen, bis ich das Geld für weitere 4 Megabyte Speicher hatte, damit "Z" mal anständig läuft:D. Jetzt muss ich auf die Hardware warten mit dem Geld in der Hand. Gefällt mir so herum besser.

Abgesehen davon ist eigentlich alles zu haben. Man muss halt regelmässig schauen und sich seine Schmerzgrenze überlegen. Die Einen sagen "Ich zahle nicht über UVP aus Prinzip" - kann ich verstehen. Andere sagen "Habe das Geld, 400€ mehr sind mir egal, ich habe jetzt den grösseren Spass" - kann ich auch akzeptieren. Alle mit Positionen dazwischen müssen halt beweglich bleiben und immer wieder schauen. Ich habe, mit ein bisschen Markt überwachen, alles bekommen, was ich so brauchte: 6800xt aber auch die 3070er für den Zweitrechner. Wobei die 3070er sogar teurer waren...
 
  • Gefällt mir
Reaktionen: Illithide, Zwirbelkatz, incurable und eine weitere Person
B3nutzer schrieb:
Euer Fazit ist, dass 8 GB VRAM mit Raytracing (zu) knapp sind, aber gleichzeitig bezieht sich das auf Raytracing ohne DLSS? Oder hab ich was überlesen?

Mal eine blöde Frage, aber wird bei DLSS wirklich weniger V-Ram belegt ?
Die Texturen dürften ja trotzdem im Quallitätspreset der Zielauflösung geladen werden oder nicht ?
Oder werden die von einer niedrigeren Auflösung rekonstruiert ?
 
tdlr kauft was ihr für euren anspruch und budget kriegen könnt. bei mir wurds durch zufall eine 3080.
rt und dlss nutze ich nur in cyberpunk, welches ich mom nicht spiele, da ich auf updates warte. ansonsten benutze ichs in keinen der aktuellen titel, welche ich so daddel. bei cod warzone/cold war zb. zählen die fps, was soll ich da mit diesen effekten. dlss gäb es da mal zu testen obwohl ich ja glaube, dass es bei schnellen bewegungen auseinanderfällt (unbestätigt).
 
  • Gefällt mir
Reaktionen: nekro1
lSonicXl schrieb:
Also AMD hat ganz klar das interessantere Gesamtpaket.
Leider sind die Treiber meist Mist. Selbst jetzt ärgere ich bei meinem 2. PC immer über die AMD GPU Treiber.
Ich finde den AMD Treiber auch im direkten Vergleich besser. Ich kann alles direkt einstellen und tunen ohne weitere Tools zu nutzen, die dann andere Probleme verursachen. Auch Multi-GPU Set-ups funktionieren super. NVIDIA ist hier sehr eingeschränkt.

Der NVIDIA-Vorteil liegt meiner Meinung nach in der Optimierung und Stabilität weniger populärer Titel, die spiele ich persönlich aber nicht.
 
  • Gefällt mir
Reaktionen: GreitZ
Mking12 schrieb:
Welcher nvidia treiber wurde verwendet ? Der 457.30 liefert immer noch die meisten fps. Das ist aus dem mfs 2020 forum getestet
Das ist der GeForce 461.40.
B3nutzer schrieb:
Euer Fazit ist, dass 8 GB VRAM mit Raytracing (zu) knapp sind, aber gleichzeitig bezieht sich das auf Raytracing ohne DLSS? Oder hab ich was überlesen?

Ich sehe ein, dass 8 GB mit RT nicht gerade üppig sind und für 4K sicherlich nicht gerade zukunftstauglich.
Aber diese aussage ohne Berücksichtigung von DLSS zu treffen finde ich etwas fragwürdig.
In der Praxis wird praktisch niemand RT ohne DLSS nutzen, was das Problem nunmal deutlich mindert.

Zumal 4K selbst mit DLSS wohl selten die Zielauflösung für z.B. eine RTX3070 sein dürfte.

Was mich hier stört sind "provokante" Pauschalaussagen, die bei genauerer Betrachtung in vielen Fällen (noch) keine Relevanz haben.
Das bezieht sich auf mit und ohne DLSS. Auch mit DLSS gehen den 8 GB Karten mit RT ganz gerne mal die Puste aus.
 
  • Gefällt mir
Reaktionen: Illithide, mm19 und DKK007
kurze Frage:
warum wurde getestet:
  • 1650 Super
  • 1060
  • 16060 Super
  • 2060
  • 2060 Super
  • 1080
  • 2070 Super

Aber keine 1070, die sicherlich eine der am häufigsten gekauften Grafikkarten der letzten Jahre sein dürfte?
Ergänzung ()

Wolfgang schrieb:

Wolfgang schrieb:
Ich verstehe zwar, dass es blöd ist, wenn die eigene Grafikkarte nicht im Parcours ist. Irgendwann müssen wir aber nunmal Modelle streichen, der Arbeitsaufwand ist jetzt schon massiv hoch.

es geht ja nicht so sehr nur um die eigene, sondern eher um das Massenprodukt der letzten Jahre. Da sollte schon mal in sich gehen, warum wie welche Karte ausgewählt wurde und welche nicht.
 
  • Gefällt mir
Reaktionen: MegaDriver
Pisaro schrieb:
DLSS braucht natürlich auch mehr VRam
Hier nochmal ein Beispiel dafür:

Cyberpunk 2077

Vram.png

Quelle: https://www.guru3d.com/articles_pages/cyberpunk_2077_pc_graphics_perf_benchmark_review,4.html
 
  • Gefällt mir
Reaktionen: Illithide und Hatch
Schöne aktuelle Übersicht, Dankeschön an Wolfgang. Das war bestimmt wieder einiges an arbeit.
Ob Nvidia oder AMD, einen klaren Favoriten kann ich hier nicht erkennen, es hängt wie üblich davon ab welche Spiele man spielt und ob man Features wie RT bzw. DLSS nutzen möchte. MFG Piet
 
  • Gefällt mir
Reaktionen: DannyA4
incurable schrieb:
Selbst bei diesem Spiel verliert AMD mit RT 40% bis 60%(!) an Bildrate während die erste RTX Generation mit ca 25% bis 50% Verlust erheblich besser abschneidet und Ampere noch ein Eckchen effizienter zu sein scheint.
Ja, da habe ich schlicht übersehen, dass die AMD Karten ohne RT überdurchschnittlich gut abschneiden und somit weiterhin weit abfallen falls RT aktiviert wird. Ich füge das dann noch dem ursprünglichen Kommentar hinzu
 
  • Gefällt mir
Reaktionen: GreitZ und incurable
Atent123 schrieb:
Mal eine blöde Frage, aber wird bei DLSS wirklich weniger V-Ram belegt ?
Die Texturen dürften ja trotzdem im Quallitätspreset der Zielauflösung geladen werden oder nicht ?
Oder werden die von einer niedrigeren Auflösung rekonstruiert ?

Natürlich sinkt der VRAM bedarf. Zumal nicht nur Texturen VRAM benötigen, auch die anderen Grafiksettings brauchen VRAM. Teils sogar mehr, als die Texturen.

Ich konnte z.B. in Modern Warfare die VRAM Auslastung auf meiner damaligen 4GB karte auf unter 4GB drücken, mit mittleren Texturen und mittleren Settings.
Auf meiner neuen Karte hab ich dann erst gesehen, dass die höheren Settings abseits der Texturen die VRAM Auslastung förmlich explodieren lassen. Aber das nur am Rande.


Was mich im Test konkret stört ist z.B. diese Passage:

Und selbst 8 GB reichen nicht durchweg. Für die normalen Rasterizer-Spiele derzeit schon (noch), für Raytracing aber nicht immer. CoD: Cold War läuft bei aktiviertem Raytracing sogar in Full HD mit einer 8-GB-Grafikkarte langsam, dort müssen es dann mindestens 10 GB sein. Und in Cyberpunk 2077 und Watch Dogs: Legion sind 8 GB für Raytracing ebenfalls stellenweise unzureichend, auch wenn die Auswirkungen deutlich geringer als im neuesten Call of Duty sind und in der Praxis keine Rolle spielen – doch ein Trend ist erkennbar und er wird bei den nächsten Spielen an Fahrt aufnehmen.

Hier wird suggeriert, dass 8GB zu knapp sind, speziell mit Raytracing, obwohl die Aussagen keinen Bezug auf DLSS nehmen. Mit DLSS kann das ganz anders aussehen.

Ich weiß, dass hier Wörtchen wie "nicht durchweg" und "stellenweise" genutzt wurden.
Aber warum Werte ohne DLSS bzw. ohne irgend eine Bildrekonstruktion überhaupt Relevant sind, kann ich nicht ganz nachvollziehen.

Ganz ehrlich, wie ne Karte ohne DLSS performt interessiert mich herzlich wenig. In den nächsten Jahren vermutlich überhaupt nicht. Und wie gesagt, wird aktuell auch wohl keiner RT ohne DLSS nutzen.

Und dass bei Cold War auf 1080p (ohne DLSS) verwiesen wird, bei Cyberpunk oder Watch Dogs die Auflösung aber nicht genannt wird und vermutlich 4K ohne DLSS gemeint ist, ist auch einfach nur "komisch".

Der Text ist genau so formuliert, dass er nen gewissen negativen Eindruck erzeugt, der bei genauerer Betrachtung wohl nur ein Paar ausnahmen betrifft, die in der Praxis vielleicht nichtmal in Anwendung sind.


Wolfgang schrieb:
Das bezieht sich auf mit und ohne DLSS. Auch mit DLSS gehen den 8 GB Karten mit RT ganz gerne mal die Puste aus.

Einer 3070, bei 4K Target, mit RT?

Nix für ungut, aber ich glaube in dem Szenario ist der VRAM das geringste Problem. Genau das ist es was ich meine.

Ich verstehe schon, dass ihr "neutral" nach Schema F testet und dann eure Aussagen entsprechend Formuliert. Aber in der Praxis muss man das auch etwas relativieren.

Gerade das was ihr im Text schreibt wird hier im Forum beim Wort genommen und führt zu "Extremen" Verhalten, so dass man manchmal den Eindruck bekommt, dass selbst für 720p eine RTX3090 nicht ausreicht.

Das hört sich jetzt schlimmer an, als ich es eigentlich meine. Ich will jetzt keine Diskussion lostreten.
Mir ist einfach aufgefallen, dass im Text Stellenweise einfach Passagen so formuliert sind, dass sie beim Leser zu falschen Schlussfolgerungen führen könnten. Sollte nur als Hinweis gemeint sein. Ich rege mich nicht darüber auf, sondern versuche nur zu erklären, was ich meine.
Nehmt es als Feedback. Mich hats eben etwas "gestört". Wenn ihr das nicht so seht, dann ist das ok. Ist eure arbeit und ich schreib euch nicht vor, wie ihr die zu machen habt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Maggolos und foo_1337
Dittsche schrieb:
rt und dlss nutze ich nur in cyberpunk, welches ich mom nicht spiele, da ich auf updates warte. ansonsten benutze ichs in keinen der aktuellen titel, welche ich so daddel. bei cod warzone/cold war zb. zählen die fps, was soll ich da mit diesen effekten.

Meine Rede deswegen wurde es im demzember eine 6800XT.
 
  • Gefällt mir
Reaktionen: GreitZ
Zurück
Oben