Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Maine schrieb:
Warum muss sowas immer in den totalen Glaubenskrieg ausarten?

Manche wollen RT haben und nehmen dafür niedrige FPS in Kauf.

Andere wollen lieber ein flüssiges Spielgefühl und legen auf RT in der aktuell möglichen Umsetzbarkeit keinen Wert.

So what, jeder wie er will.
Ich spiele RT ohne niedrige fps.

Raytracing und niedrige fps bieten in der Kombo derzeit nur AMD Karten, und da verstehe ich, dass man das Feature schlechtredet.

Dank DLSS kann man Raytracing aktiviert wunderbar spielen.
Ergänzung ()

Experte18 schrieb:
Immer wieder schön zusehen wie die Leute ihre eigenen Grafikkarten verteidigen wollen... die User mit der 3090 kommen immer mit den Raytracing und DLSS Argument. Würde ich aber auch machen wenn ich ne 3090 hätte haha.
Computerbase thematisiert DLSS und Raytracing in den TESTS.
Hier, konkret, in diesem Parcours. Daher sind wir in diesem Thread.

Scheint also eine Relevanz zu haben im GPU Segment, ohne dass man "eine 3090" braucht.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Sly123, Esenel und eine weitere Person
Freut mich für dich, aber an deinem Post sieht man, dass du an einer sachlichen Diskussion nicht interessiert bist. Bin raus, viel Spaß im Kindergarten.
 
  • Gefällt mir
Reaktionen: PS828, edenjung, Fighter1993 und eine weitere Person
Wie einfach jeder GPU Artikel in einem RT ON/OFF, DLSS, VRAM, "Nicht Verfügbarkeits" flame war endet.:D
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, .Sentinel., DisOrcus und eine weitere Person
Maine schrieb:
Freut mich für dich, aber an deinem Post sieht man, dass du an einer sachlichen Diskussion nicht interessiert bist. Bin raus, viel Spaß im Kindergarten.
Also ich entdecke bei den "Kindergarten!" Flames eher immer eine Fraktion ;)

Glaubwürdig wäre, wenn sich diese Gruppe kein AMD Angebot zu DLSS wünscht, weil ja Rayztracing "egal" sei.

Sobald aber AMD eine Lösung anbietet, die Raytracing auf Nvidias DLSS fps Nivau anbietet, werden wir feststellen, wie begeisert doch die Gruppe ist, die seit 2,5 Jahren das alles kaputtredet und so tut als wären ein Dutzend der größten AAA und Franchise Games und Millionenseller, die Raytracing und DLSS anbieten, eine Nische.

Kindergarten ist es so zu tun, als verändert Raytracing die Atmosphäre und Immersion nicht, also genau das, was Grafikkarten erfolgskritisch macht: im Spielerlebnis.

Und da nur einer der beiden GPU Anbieter dieses Spieleerlebnis ermöglicht ohne die brutalen fps Einbußen, sollte man das hier thematisieren, findest Du nicht?

AMD ist derzeit aus dem Rennen, was Raytracing angeht. Sie bieten 2018er RT fps Einbrüche ohne DLSS Kompensation.
Nüchtern und kurz zusammengefasst

Und dann hoffen wir , dass sie hier "kontern", das dient uns doch allen, dem Angebot und den Möglichkeiten und setzt Nvidia wieder unter Zugzwang.

Bei den CPUs hats doch geklappt!
 
  • Gefällt mir
Reaktionen: MegaDriver, Zwiebelsoße, .Sentinel. und 4 andere
Ich finde es etwas schade, dass das Thema VR nichtmal kurz erwähnt wurde, denn hier hat man derzeit kaum eine Wahl, da fährt man mit nVidia einfach deutlich besser.
 
  • Gefällt mir
Reaktionen: horror und edenjung
@Laphonso Wärst du eigentlich viel glücklicher wenn dir hier einfach jeder rechtgeben würde, dass Nvida tatsächlich Lichtjahre voraus ist und AMD Karten bereits beim Release nutzloser Schrott waren? Darauf laufen nämlich all deine Argumente hinaus. Immer und immer wieder.

Ich fange einfach mal an und gebe zu wie unglaublich toll und fortschrittlich deine RTX 3090 ist. Die meisten werden es nicht zu geben wollen aber so ziemlich jeder in diesem Forum ist immens neidisch darauf, dass du eine RTX 3090 besitzt. Selbstverständlich wissen alle, dass Nvidia die kommenden Jahre extreme Ultraleistung an alle Hardcore Gamerz liefern wird.
 
  • Gefällt mir
Reaktionen: Phobsen, hRy, znarfw und 6 andere
Irgendwo ist es bescheuert...

High FPS bekommt man auch mit reduzierten Grafiksettings und somit auch ohne RT.
Die Leute kaufen sich Mittelklasse oder Low end Hardware und diskutieren hier nicht.

Leute die hier diskutieren, wollen Grafikkarten, die bestmögliche Grafik liefern und das bei hohen FPS ermöglichen. Also Grafikkarten mit möglichst viel Power.

Wen gute Grafik also nicht interessiert, der braucht keine HighEnd Hardware.

So, und jetzt wollen einige anfangen, RT schlecht zu reden, weil es zu viel Leistung kostet?

Was soll man jetzt dazu noch sagen??
Schonmal gemerkt dass Ultra Settings ohne RT auch schon zu viel Leistung für den Optischen Zugewinn kosten und sehr ineffizient mit der zur Verfügung stehenden Leistung umgehen?

Ich hab das Gefühl manche reden sich die Dinge zurecht wie sie es brauchen. Da predigt man Ultra Settings und kauft immer teure Hardware um sie flüssig zum laufen zu kriegen und nur weil einem jetzt RT plötzlich „unangenehm“ fordernd ist, ist es plötzlich egal und unwichtig? Da werden also einfach so sämtliche Prinzipien über den Haufen geworfen, nur weils die eigene Hardware nicht kann oder wegen fehlendem DLSS zu langsam dafür ist?

Keiner sagt was wenn man sich mit reduzierten Details zufrieden gibt.
Aber den Anspruch haben, HighEnd Hardware zu kaufen, deren einziger Zweck es ist nen Grafikporno flüssig darstellbar zu machen und dann zu sagen RT sei nicht wichtig ist einfach nur lächerlich. Das ist eindeutig ein Widerspruch!

Es muss oberste Prio für AMD haben, bei RT mitzuhalten und eine gute DLSS Alternative zu bieten. Andernfalls kann man nur Kunden bedienen, denen die Grafik Settings egal sind. Und die kaufen eher im 200€ Segment ein
 
  • Gefällt mir
Reaktionen: Andybmf, Pastafari, Mumusud und 2 andere
basic123 schrieb:
@Laphonso Wärst du eigentlich viel glücklicher wenn dir hier einfach jeder rechtgeben würde, dass Nvida tatsächlich Lichtjahre voraus ist und AMD Karten bereits beim Release nutzloser Schrott waren? Darauf laufen nämlich all deine Argumente hinaus. Immer und immer wieder.

Ich fange einfach mal an und gebe zu wie unglaublich toll und fortschrittlich deine RTX 3090 ist. Die meisten werden es nicht zu geben wollen aber so ziemlich jeder in diesem Forum ist immens neidisch darauf, dass du eine RTX 3090 besitzt. Selbstverständlich wissen alle, dass Nvidia die kommenden Jahre extreme Ultraleistung an alle Hardcore Gamerz liefern wird.
Und dieser polemische Zynismus bringt genau was? Wie Du siehst habe ich eine AMD CPU verbaut, also orientiere mich schon, wie immer, an den best in slot CPUs und GPUs für meine Gaming Boliden.
Hätte AMD eine DLSS Alternative, wäre es bei mir sogar die 6900XT geworden.

DIe größten branding Fanboys projezieren immer ihre Sicht auf andere.

Im übrigen ist Nvidia nicht "Lichtjahre voraus", sondern hat genau die eine Iteration Vosprung, mehr nicht.
Im nativen Raytracing ist die 3080 nicht weit vor einer 6800XT, aber DLSS 2.0 ist hier das Wunderwerk.

Wieviele Spiele braucht es noch mit Raytracing, damit dieser Unsinn wie "unwichtig" RT wäre mal aufhört?
Viele triggert, dass Nvidia hier vorgelegt. Nur, Raytracing hat uns Microsoft ermöglicht, so gesehen, Nvidia und AMD bauen zum Feature nur die Hardware.

Ohne Zweifel fehlt in Games wie Horizon Zero Dawn oder The Division 2 Raytracing oder in den letzten Star Wars Games, es zieht sich nur langsam hin.

Aber so zu tun als verändert Raytracing die SPielerfahrung nicht, ignoriert das, was sogar alle Tester bestätigt haben: Gut gemachtes Raytracing bereichert Spiele.
Zum Preis von fps. Und derzeit kann nur Nvidia das kompensieren, und ich bedaure sehr, wenn dieses Rumreiten darauf einige triggert.
Wir sind aber in einem tech Forum und GPU Vergleichs-Thread. HIER gehört das hin.
Ergänzung ()

B3nutzer schrieb:
Wen gute Grafik also nicht interessiert, der braucht keine HighEnd Hardware.
100% Ack.
 
  • Gefällt mir
Reaktionen: tomasvittek, Andybmf, Zwiebelsoße und 2 andere
ThePlayer schrieb:
@.Sentinel. mir ist schon klar wofür RT gedacht ist. Worauf ich aber hoffe ist irgendwann, fotorealistische Grafik zu haben.
Fotorealistische Grafik kannst Du auch rasterbasiert haben. Unter Anderem Quixel / UE4 Lightmass usw. sei dank.

AC Unity war in den Innenbereichen Streckenweise schon Fotorealistisch
https://i.pinimg.com/originals/fb/c9/e3/fbc9e3ffc2fa00444a4c057de2f5564b.jpg

Layers of Fear 2 ebenso:
https://www.heypoorplayer.com/wp-content/uploads/2019/06/LayersofFear21.jpg

Dazu braucht es kein realtime- Raytracing.

ThePlayer schrieb:
Von Standard kann man finde ich erst sprechen wenn mehr als 50% aller neuen Spiele mit der Technik kommen.
Das funktioniert schon bei Rasterbasierten Szenarien nicht, da verschiedene Spiele verschiedene Rendertechniken benötigen.
Demnach wären bei Dir Screenspace- Reflections kein "Standard". Das ist eine unrealistische Betrachtungsweise.

ThePlayer schrieb:
Und nicht nur die meisten AAA Spiele.
Wie gesagt- Demnach wären viele Rendertechniken/Effekte kein Standard, die aber seit Jahren in vielen Titeln genutzt werden.

Die Hardwarebasis ist da: RDNA2/Turing/Ampere/Konsolen
Die Softwarebasis auch: DXR+ Vulkan RT
Als auch entsprechende Titel (Sowohl AAA als auch Indie).

Alle großen/größeren Engines werden oder sind bereits auf RT umgerüstet. Das wars auch schon.
In der mikrigen Spieleauswahl für die neuen Konsolen sind über 20 mit RTRT.

Standard- mäßiger wirds nicht mehr. Nur darf man eben wie oben erwähnt nicht vergessen, dass je nach Spiel ein RT überhaupt keinen Sinn ergeben würde.
Und Dinge nur um der Technik selbst willen integrieren.... Ich weiss nicht.

ThePlayer schrieb:
Aber vielleicht ist es ja nächstes Jahr dann soweit.
Es ist bereits jetzt so weit. Es kommt halt darauf an, ob man die Technik nutzen will bzw. ob es ein Spiel gibt, bei dem man RT nutzen will.

Ich kenn auch Leute, die Schatten deaktivieren um mehr FPS zu haben. Denen ist das Aussehen eines Titels fast egal, hauptsache 120FPS.

ThePlayer schrieb:
Ich hoffe auch das die Entwicklung schnell geht, schneller als das bei Rastarizing der Fall ist.
Wie bereits oben erwähnt. Rastern tun wir seit mehreren Jahrzehnten. RTRT gibts seit 2,5 Jahren.
Und bei RTRT haben wir mit 1080P Demos und einem Effekt mit bis zu 30FPS angefangen und stehen jetzt mit einer 3090 mit Pathtracing (also der Königsklasse mit allen "Effekten") bei 4K auf über 90 FPS.

Und unterschätzt Minecraft nicht in Sachen Polycount oder Szenenkomplexität. Das sieht zwar alles Eckig aus, aber:
https://i.imgur.com/nbVCk.jpg

Das geht also bereits jetzt um Lichtjahre schneller.

ThePlayer schrieb:
Zur Zeit ist RT noch nicht da wo ich es gerne hätte.
Aber das kommt noch.
Das ist doch immer so. So lange die PCs kein 8K auf 120FPS mit High- Poly- Pathtracing liefern, ist immer Luft nach oben.

Ich hab mir als Jugendlicher gedacht, dass wir es schon geschafft hätten, wenn die Computer so stark sind, dass man die Schachbrettszene am Ende der Crystal Dreams 2 Demo mit 1024x768 mit 30FPS abspielen könnte.

Die hatte auf meinem damals aktuellen System 2FPS. Dann kam der vesa local bus.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und foo_1337
Also wenn man sich mal die minFps jetzt aus Sicht der ersten 4k-HDR-fullRGB-Monis
https://www.computerbase.de/artikel/monitore/asus-pg27uq-g-sync-hdr-test.64070/seite-3

anschaut reicht es gerade wunderbar für 98Hz@Vsync: siehe Anhang
(jedes Fps mehr ist eh nur verschenkte Energie; erstaunlicherweise führen bei RDNA2 die CacheMisses nicht automatisch zu schlechten minFps in 4k sondern wirken sich eher nur bei uninteressanten maxFps aus)

edit: Über Gameauswahl lässt sich immer "ein wenig" philosophieren, ist am Ende sehr schön, das Jeder seine Games in der Grafik auswählen kann.
Ich würde mir mal einen normalisierten Test bei 320W wünschen. 3080-6800XT-6900XT-3090
Der 280W-Test war net schlecht, aber momentan sind eh die großen Grakas besser verfügbar, so das 320W mehr Interesse fände!
(etwas erstaunlich finde ich immer die avg. W-Messungen der 3080FE, die z.T. nicht bei 320W sondern 330W liegt... gerade aktuell bei Igor gemessen, was ca. der 6900XT-Toxic entspricht; evtl. noch 5V+3V -Anteile?)
 

Anhänge

  • 2160p.PNG
    2160p.PNG
    83,8 KB · Aufrufe: 281
  • UHD-Wattage.png
    UHD-Wattage.png
    23,4 KB · Aufrufe: 248
Zuletzt bearbeitet:
basic123 schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
Quasi ein neuer Hochleistungskern Kandidat? 😁
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: edenjung und basic123
B3nutzer schrieb:
Es muss oberste Prio für AMD haben, bei RT mitzuhalten und eine gute DLSS Alternative zu bieten. Andernfalls kann man nur Kunden bedienen, denen die Grafik Settings egal sind. Und die kaufen eher im 200€ Segment ein
Das hast Du mit 2 Sätzen besser pointiert als ich in meinen Textwänden :D 👍
 
GerryB schrieb:
Also wenn man sich mal die minFps anschaut reicht es jetzt aus Sicht der ersten 4k-HDR-fullRGB-Monis
gerade wunderbar für 98Hz@Vsync: (jedes Fps mehr ist eh nur verschenkte Energie)
Du weißt aber, dass das da Prozente und keine FPS sind, oder?^^
 
Auch ich habe gestern beim Drop eine 6900XT ergattern können.

Meine Meinung:
Raytracing ist ein geiles Feature, welches zukünftig sicher mehr und mehr Beachtung findet. Ich habe bisher aber lediglich EIN Spiel gesehen, welches mit aktiviertem RT einen sichtbaren, visuellen Mehrwert bot: Cyberpunk 2077.
Abseits davon sehen Vergleichsbilder/-videos RT on/off zu den meisten Spielen nahezu identitsch, bzw. in schneller Bewegung kaum wahrnehmbar aus.

Ja, AMD mag kein DLSS 2.0 haben und wird an die jetzige Qualität RT ON+DLSS von Nvidia diese GPU-Gen nicht rankommen, aber ich bin mir sicher, sie werden mit FFSS zumindest näher rücken und den RT-Leistungsverlust zu NV zumindest etwas verkürzen. Und das reicht mir.

Denn solange es kaum Spiele gibt, die einen deutlichen visuellen Mehrwert aus RT ziehen, lege ich mehr Wert auf Rohleistung, VRAM und Effizienz. Und da hat nunmal AMD derzeit klar die Nase vorn.

PS: Die 6900XT ist seit 8 Jahren (damals HD6950) wieder mal eine AMD Karte bei mir. Ich bin also weder NV, noch AMD, Fanboy
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: basic123
Laphonso schrieb:
Ich spiele COD CW ohne Raytracing, da es in Multiplayergefechten und in der Liga nicht zur Geltung kommt, aber der DLSS Boost erlaubt 3440x1440 die Ultrasettings mit fetten 120 fps (Monitor capped bei mir).

Dass man diese frames mit AMD Karten nicht im Ansatz 1:1 oder eben nur unter Qualitätsverlust bzw Slideranpassungen erhalten kann, sollte man schon herausstellen, weil genau das bei diesen "speziellen" Spielen Kaufrelevanz haben wird.
Sorry das ist doch Quatssch. Auch mit AMD ohne DLSS bekommt man die Frames hin:

https://www.computerbase.de/artikel...iagramm-call-of-duty-modern-warfare-3840-2160
Und "Super Resolution" ist in der Mache...
 
B3nutzer schrieb:
Keiner sagt was wenn man sich mit reduzierten Details zufrieden gibt.
Aber den Anspruch haben, HighEnd Hardware zu kaufen, deren einziger Zweck es ist nen Grafikporno flüssig darstellbar zu machen und dann zu sagen RT sei nicht wichtig ist einfach nur lächerlich. Das ist eindeutig ein Widerspruch!

Kommt doch letzten Endes auch primär darauf an, welche Spiele man spielt. Für mich persönlich ist RT (sowie DLSS) z.B. momentan völlig irrelevant, da es von einem einzigen Spiel, das ich auch tatsächlich spiele, unterstützt wird. Wenn das in 2 Jahren wieder anders aussieht, kaufe ich mir eben dann die Grafikkarte von dem Hersteller, die zu dem Zeitpunkt am besten zu den Spielen passt, die ich auch tatsächlich spiele. Wer jetzt schon primär die ganzen "Blockbuster" zockt, die RT & DLSS unterstützen, ist mit einer Karte von Nvidia einfach besser bedient. :)

In den kommenden Monaten werden wir dann sehen, ob AMD eine ähnlich gute Alternative zu DLSS anbieten wird. Letztlich haben wir als Konsumenten doch alle was davon. Ich freue mich, dass AMD in der "Rohleistung" zu Nvidia aufgeschlossen hat und teilweise auch schneller ist, das sah vor kurzem noch ganz anders aus. Jetzt müssen sie eben noch mit den Features nachlegen.

Die Entscheidung, die Grafikkarten im Artikel mit der selben nativen Auflösung zu vergleichen, ist für mich absolut nachvollziehbar und wesentlich hilfreicher, als wenn noch zig zusätzliche Messungen mit DLSS und anderen Features gemacht worden wären, sonst muss die arme Redaktion bald 20 separate Benchmarks für jede Grafikkarte für jedes herstellerspezifische Feature machen (DLSS, Radeon Boost, Fidelity FX..). Da würde doch auch jegliche Objektivität verloren gehen, da die Ver(schlimm)besserungen, die manche Features mit sich bringen, nicht anständig gemessen werden können. Was für den einen subjektiv sogar besser als native Auslösung aussieht, ist für den anderen eine Verschlechterung.
 
  • Gefällt mir
Reaktionen: timohepolis
Ich bin da echt positiv überrascht wie gut die AMD Karten gehen. Jetzt muss sich der Markt noch stablisieren und eine RX6900XT Red Devil wird meine nächste :)
 
danyundsahne schrieb:
Wie hier manche so auf RT behaaren, es sei der Heilsbringer :D
Der war gut.... Denn genau das IST RTRT!

Glaubst Du, dass hier auch nur ein einziger moderner AAA Titel ohne vorberechnetem Raytracing oder raytracing- ähnlichen Verfahren entsprechende Grafikqualität liefern könnte?

Ihr nutzt es bereits seit Jahren! Nur nicht echtzeitfähig.
Alle beschweren sich immer über starre, wenig interaktive Welten mit wenig Physik.
RTRT machts möglich.

danyundsahne schrieb:
Finde es so lächerlich. KAUM ein Games nutzt es....in 5 ist es gut implementiert, der Rest solala und beim Spielen nicht wahrnehmbar.
Siehe oben. So gut wie JEDES aktuelle Game nutzt es bereits, nur nicht realtime.
Und erneut- Es soll natürlich wirken und genau eben nicht wahrnehmbar.
RT ist kein Effekt, sondern eine physikalisch korrekte Art eine Szene zu rendern.
danyundsahne schrieb:
Diese GPU Gen wird RT erst ein wenig Fahrt aufnehmen, da auch die Konsolen RT beherrschen. Dennoch haben schon ein paar Entwickler gesagt, dass ihr Fokus NICHT auf RT liegt. Sondern auf Gameplay.
Was ist das denn für eine Aussage. Wieso sollte sich Grafikqualität und Gameplay gegenseitig ausschließen?

danyundsahne schrieb:
Bis man hier flächendecken RT in Games implementiert hat, vergehen noch 1-2 Jahre. Locker!
Siehe weiter oben. Man muss RT nicht flächendeckend implementieren. Bei einigen Titeln würde das null Sinn ergeben.

Du bügelst doch auch keine global illumination auf ein 2D Schachspiel.

danyundsahne schrieb:
Daher ist es nicht schlimm, dass AMD hier etwas hinterhinkt. Ohne RT ist AMD gleichstark in den Games und das Spiel macht genauso viel Spaß, oh Wunder! :D
Es ist immer schlimm, wenn eine Firma der anderen in modernen Features deutlich hinterherhinkt, weil das die Entwicklung und die Verbreitung bremst.

danyundsahne schrieb:
Also beruhigt euch mal mit diesem dummen Feature.
...

danyundsahne schrieb:
Mal ist der eine mit Features leicht vorne, mal der andere.
So sollte es idealerweise sein. Nur so stachelt man sich gegenseitig zu Höchstleistungen an.

danyundsahne schrieb:
Aber mit was niemand gerechnet hat, ist dass AMD hier in der Raster Leistung auf 3090 Niveau kommt und sogar NV in ihrer ach so tollen Effizienz überholt!
Die Rasterleistung liegt unter der einer 3090. Das sieht man anhand der 4K oder 8K Messwerte.
Die Leistung der Pieline für die Szenenverarbeitung ist ähnlich leistungsstark und kann je nach Szenario den Konkurrenten sogar übertrumpfen.

danyundsahne schrieb:
Und das ist auch gut so. ;)
👍
 
  • Gefällt mir
Reaktionen: foo_1337 und Laphonso
  • Gefällt mir
Reaktionen: Lutscher
Zurück
Oben