Test FSR 3.1 vs. FSR 2/3 vs. DLSS im Test: Vergleich zeigt Licht und nach wie vor viel Schatten

Justuz schrieb:
Wow hätte nicht gedacht das so viele diese Software nutzen. Ich selbst nutze immer die native Auflösung.. hatte mal gelesen das sei besser als Softwarelösungen. Ist das nicht mehr so, oder wieso nutzen soviele DLSS und co. ?
"Besser" ist immer relativ, es kommt drauf an was dir wichtiger ist. wenn dir die FPS aus gehen und es ruckelt oder wenn du ne kleinere Auflösung einstellen musst, leidet die Grafik vielleicht mehr, manche wollen damit vermutlich auch Strom sparen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Justuz schrieb:
Ich selbst nutze immer die native Auflösung.. hatte mal gelesen das sei besser als Softwarelösungen. Ist das nicht mehr so, oder wieso nutzen soviele DLSS und co. ?
Einfach selbst ausprobieren
 
  • Gefällt mir
Reaktionen: Grestorn und Apocalypse
Taxxor schrieb:
Du hast aber oben von Upscaling gesprochen und der Fokus dieses Tests hier ist auch das Upscaling.
Ja wo ist dann mal der Test der von Framegen der sagt das Nvidias FG absoluter Mist ist, weil AMDs Lösung besser ist? :D
Zugegeben der Punkt ist noch gering, aber Nvidia hat eine Lange history von solchem Verhalten daher wird das sicher wieder bei DLSS 4.0 passieren und wir dürfen wieder alle alt Nvidia Kunden an AMDs Rockzipfel zerren sehen (aber bitte lass mich dein neures FSR nutzen).

Letzte künstliche Softwarefeature für nur neue Gen ist der opensource Linux Treiber der künstlich nicht für alte Gen releasen wurde, warum weil man da noch nicht alles in nem gigantischen Chip mit proprietärer Firmware verstecken konnte, haben jetzt altkunden ein schlechteres Linux Experience und müssen sich mit dem Minderwertigen Alt Treiber rum schlagen. Der dann wahrscheinlich irgendwann auch wieder weniger Updates bekommt wie der neue Treiber.
Taxxor schrieb:
Also wenn Nvidia das Verhältnis nicht verbessern kann ohne gleichzeitig weniger bei Raster draufzulegen, dann müsste AMD aber auch erst mal das Vehältnis von 0,3 auf 0,5 bringen können ohne dafür Fortschritte in der Rasterperformance liegen zu lassen.
Seh ich kein Problem damit alles was wir zu RDNA4 wissen deutet darauf hin, es ist offenbar ein Fakt das Chiplet design bei Grafikkarten schlechter ist als 1 Chip mit der heutigen Technik, RDNA 3 war ein Rohrkrepierer, ja man hat es durch aggressive Preise bzw durch Normale Preise die aggressiv wirken gegen die Nvidia Wucherpreise halbwegs Kompetitiv dargestellt trotz des Supergaus, aber es waren 10-30% mehr FPS zumindest im Raster fest geplant und bei gleichem Stromverbrauch, wenn dies also entweder durch lösen der Probleme bzw durch die 1 Chip technologie kommt dazu noch bessere Fertigungsverfahren, dann ist ein großer Leistungszugewinn pro cm zu erwarten, das einzige was AMD limitiert ist das sie nicht die Wafer frei machen wollen für extrem riesen Chips da sie die Kapazitäten lieber für A.I. chips verwenden, von daher kann man nur die Preis/Leistungskrone anstreben nicht aber die Leistungskrone.
 
  • Gefällt mir
Reaktionen: SweetOhm
blackiwid schrieb:
Seh ich kein Problem damit alles was wir zu RDNA4 wissen deutet darauf hin
Dass man nicht mal einen Big Chip bringen kann und insgesamt nicht über die Rasterperformance einer 7900XTX kommt, wohl aber dann mit etwas besserer RT Performance, deutet für mich auf das genaue Gegenteil hin.
 
  • Gefällt mir
Reaktionen: Samuelz und Quidproquo77
B3rry schrieb:

Ich habe noch immer nirgends irgendwelche Zahlen gepostet. Du halluzinierst. Diese Art der Diskussion ist wenig zielführend und hier absolut fehl am Platz. Lass das bitte.

Quidproquo77 schrieb:
Selbst mit Vega und Polaris konnte man mehr Menschen überzeugen als mit RDNA2 oder RDNA3.

Was durchaus meine Aussagen stützt. RDNA 2 war/ist sehr gut, RDNA 3 ist auch kein Ausfall, aber hat seine Schwächen. Vor allem sind sie aber in dem kaufstarken Low und Mid Budget Segment die deutlich bessere Option im Vergleich zu dem was nVidia zu bieten hat. Speziell in Bereichen, in denen bspw. Raytracing keine Rolle spielt, weil die Rohleistung dafür fehlt. Auch bei nVidia. Und trotz unverhältnismäßiger Preise.

Warum ist das so? Meiner Meinung nach orientieren sich viele Spieler an den Leuchtturm Produkten und entscheiden darauf basierend. Nicht, weil sie die bessere P/L im Auge haben.

Quidproquo77 schrieb:
Seitdem DLSS/RT/Denoising und AI im Blickfeld sind geht es bergab

Ich glaube nicht, dass für den gemeinen Gamer diese Features die Stellung haben, wie es in der Technikbubble der Fall ist. Die wenigsten dürften Features nutzen, die nicht standardmäßig aktiviert sind. Das mag sich ändern sobald vermehrt die Spiele diese Features in den Standardmäßigen Settings haben. Ein paar gibt es ja schon.

Die allermeisten Leute betreiben ihr System schlichtweg mit den Default Settings. Und nein, das kann ich nicht mit Zahlen belegen, es ist schlichtweg eine anekdotische Beobachtung und die Schlussfolgerung aus anderen Bereichen. Also meine persönliche Einschätzung.

Ich will außerdem auch die technische Relevanz dieser Features, vor allem für die kommenden Jahre, nicht in Abrede stellen. Aber derzeit sind sie noch immer für die wichtigsten Preissegmente nicht groß relevant, weil die Rohleistung im Low und teils auch noch Mid Budget Segment fehlt. Und trotzdem greifen die Spieler zu den viel zu teuren 40er Karten. Das ist rational nicht erklärbar, wenn man nur von den technischen Fakten ausgeht.

Natürlich gibt es Käufer, die wirklich informiert sind und dementslrechend kaufen/handeln. Und diese Käuferschicht sorgt halt auch für die größeren Schwankungen nach unten bei AMD, sobald eine Generation besonders schlecht ist. Aber der Großteil der Käufer scheint arbiträr nur das zu kaufen, was sie kennen und schon immer gekauft haben: nVidia.

Quidproquo77 schrieb:
Welche Zahlen hast du, die deine These bestätigen?

Keine anderen als Du. Habe ich auch nie behauptet. Ich teile nur nicht die Interpretation dieser Daten.

Aber schön, dass Du Daten gefunden hast, die auch etwas weiter zurück reichen. Das AMD zu X800 Zeiten tatsächlich mal so gut aufgestellt war, war mir nicht klar. Wenn man dann allerdings die ganzen starken Generationen von AMD betrachtet, sieht man dass sich da kaum etwas tut, was sich nicht mit einer üblichen Marktschwankung von Quartal zu Quartal erklären lässt.

DevPandi schrieb:
die CPU-Sparte von AMD hatte sehr lange ein negatives Image, bis die wirklich "ernstgenommen" wurden.

Hat aber scheinbar keinen so nachhaltigen Schaden davon getragen wie die Grafiksparte, obwohl man bei CPUs viel länger nichts interessantes zu bieten hatte.

DevPandi schrieb:
auch mit Zen hat das quasi auch noch fast bis Zen 3 gedauer

Diesen Eindruck kann ich nicht teilen. Bereits mit Zen gab es deutliche Aufbruchstimmung, auch außerhalb der Technikbubble. Natürlich erneut wieder nur anekdotische Beobachtung.
 
  • Gefällt mir
Reaktionen: SweetOhm
Taxxor schrieb:
Dass man nicht mal einen Big Chip bringen kann und insgesamt nicht über die Rasterperformance einer 7900XTX kommt, wohl aber dann mit etwas besserer RT Performance, deutet für mich auf das genaue Gegenteil hin.
Wieso? und wer redet von Kann hast du dafür beweise das man es nicht kann, meine Info ist das man es nicht will, wieso sollte man das machen bei begrenzten Wafern und höheren Gewinnmargen bei K.I. chips.

Dazu kommt das man wie der Artikel ja belegt schlechter ist bei Upscaling, also warum soll man sich im Highend rum treiben nen 2. Chip teuer designen, wenn diese Karten ausschliesslich fast solche 3d Titel gespielt werden wo 100% Upscaling benutzt werden muss und damit die Softwareschwächen von AMD zu 100% zu tragen kommen.

Und wer 1200 Euro für ne Grafikkarte hat wird auch wegen besserem DLSS 200 Euro Aufpreis für Nvidia blechen, das mag fürs image gut sein solche Halo Produkte zu releasen aber Marktwirtschaftlich macht das für AMD einfach kein Sinn. Wir sprachen ja von Preis Leistung, und eine Art 4080 für 500-600 Euro mit >16gb vram... ist genau das was ich beschreibe, also wieso sollte das auf das Gegenteil hin deuten?
 
  • Gefällt mir
Reaktionen: SweetOhm
blackiwid schrieb:
alles was wir zu RDNA4 wissen

Wenn die Gerüchte zu RDNA 4 stimmen, dann werden wir da keine großartig starke Generation sehen, sondern vielmehr leicht bessere RT Leistung und ansonsten marginale Produktpflege. Erst mit RDNA 5 werden wir größere Veränderungen sehen. Potentiell sogar eine komplett neue Architektur, laut Gerüchteküche.

Eventuell werden wir aber die kleinen Änderungen, die für RDNA 4 vorausgesagt wurden auch schon im RDNA 3.5 Refresh finden. Es bleibt also spannend.
 
  • Gefällt mir
Reaktionen: SweetOhm
MaverickM schrieb:
Was durchaus meine Aussagen stützt.
Wieso stützt das denn deine Aussagen? Das sind ja erst einmal nur nackte Zahlen in die man vieles hineininterpretieren kann.
MaverickM schrieb:
RDNA 2 war/ist sehr gut, RDNA 3 ist auch kein Ausfall, aber hat seine Schwächen.
Womit du aber die sehr schwache Raytracingperformance ausblendest, sowie auch das fehlende/schlechtere Upscaling, bzw. erste Versuche mit FSR1 die nicht konkurrenzfähig waren. Nimmt man RT + DLSS nur 1:3 so wichtig wie reine Rasterisierung, war RDNA2 effektiv dennoch schwächer als es Vega damals war und damit ergibt das schon Sinn.
MaverickM schrieb:
Vor allem sind sie aber in dem kaufstarken Low und Mid Budget Segment die deutlich bessere Option im Vergleich zu dem was nVidia zu bieten hat. Speziell in Bereichen, in denen bspw. Raytracing keine Rolle spielt, weil die Rohleistung dafür fehlt.
Unterhalb der 4060 würde ich das so sehen, die ist halt aber auch schon ab 279 Euro erhältlich.
Die 3050 8GB ist der RX 6600 jedenfalls recht deutlich von der Rohleistung unterlegen (20-25%) bei selbem Preis, (nicht bei RT+DLSS) Also im 100-250 Euro Segment würde ich dir recht geben.
MaverickM schrieb:
Warum ist das so? Meiner Meinung nach orientieren sich viele Spieler an den Leuchtturm Produkten und entscheiden darauf basierend. Nicht, weil sie die bessere P/L im Auge haben.
Ja, unter anderem auch. Aber das ist ja auch ein Versäumnis von AMD.
MaverickM schrieb:
Keine anderen als Du. Habe ich auch nie behauptet. Ich teile nur nicht die Interpretation dieser Daten.
Naja, deine Interpretation ist: Sind Fanboys und dafür gibt es überhaupt keinen Anhaltspunkt.
Die viel logischere Erklärung ist einfach das was die Karten leisten. Ich bin ja auch gewechselt, weil ich unbedingt RT wollte und so haben das vermutlich auch viele andere gemacht.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Wenn man "nur" eine Radeon hat, muss man FSR nutzen und da muss ich dazu schreiben, dass mir vieles an FSR überhaupt nicht so "negativ" aufgefallen ist, weil man auch keine Vergleichmöglichkeite hatte. Im "Eifer" des Spielens ist es eher zweitrannig.
Genau das vergessen diese z.T. wirklich furchtbaren Nvidia-Anhänger. Wenn man nicht gerade so verrückt ist und die ganze Zeit akribisch auf jedes noch so kleinste Pixelflimmern achtet, anstatt einfach das Spiel zu spielen, ist die schlechtere Upscalingqualität von FSR im Vergleich zu DLSS überhaupt kein Problem für normale Gamer. Die Betonung liegt hier auf NORMALE Gamer. Aber das kann man diesen nervigen Leuten 1000 Mal erzählen, sie werden trotzdem keinen einzigen Millimeter von ihrer primitiven Betrachtungsweise abrücken. Reine Zeitverschwendung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MegaDriver, MiroPoch, SweetOhm und eine weitere Person
Ich nutze Raytracing und FSR mit der Radeon™ RX 6900 XT in WQHD und finde, das sieht ganz gut aus. Ist brauchbar für meine Ansprüche.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch, SweetOhm, MaverickM und eine weitere Person
MaverickM schrieb:
Wenn die Gerüchte zu RDNA 4 stimmen, dann werden wir da keine großartig starke Generation sehen,
Es kommt ja auf Preisleistung an und vielleicht noch Stromverbrauch/Euro. Ihr scheint die Gen nur daran zu bemessen ob sie die 2000 Euro Karte von Nvidia schlagen kann... das ist nicht der einzige Maßstab. Für mich ist eine 4080 für 600 Euro mehr als Produktpflege.

Das ist natürlich ne Frage der Perspekte hätte ich schon ne 4080 wäre es nur lästig weil meine Karte eventuell schneller an Wert verliert, und ich nichts von habe, aber für alle die schlechtere Karten haben ist das eine sehr interessante Karte/Gen.

die RX 480 waren auch super Karten sehr beliebt obwohl Nvidia sicher was viel schnelleres für 5000 Euro im Angebot hatte.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI und SweetOhm
zeedy schrieb:
Naja, auf einer 4080 läuft Alan Wake in 4K Dlss Performance + FG gerade so mit 60 fps. Die wie gesagt nicut echt sind, fühlt sich alao mit der langen Latenz nicut gerade geschmeidig an. Wäre für mich auf jeden Fall nicht spielbar. Mit PT ist die Karte also in 4K selbst mit FG nicht wirklich nutzbar und daher keine langfristige Investition, und das bei >1000€.

Komisch, ich komme in dem Spiel selbst im Wald nicht unter 80 FPS…
 
blackiwid schrieb:
Ihr scheint die Gen nur daran zu bemessen ob sie die 2000 Euro Karte von Nvidia schlagen kann... das ist nicht der einzige Maßstab.
Nein, ein weiterer wäre ob sie die 800€ 7900XTX schlagen kann
blackiwid schrieb:
Für mich ist eine 4080 für 600 Euro mehr als Produktpflege.
Die du bei Nvidia bis dahin auch mit ner 5070 bekommst.
Wie die Karten im Vergleich zur 4000er Reihe abschneiden ist ja egal, wenn die 5000er dann schon raus ist, ist das der Maßstab
 
Taxxor schrieb:
Die du bei Nvidia bis dahin auch mit ner 5070 bekommst.
da bin ich gespannt ob das kommen wird für 600€😉. Ich glaube nicht daran. eine 5070ti wird de 4080 leistung haben , aber nicht für 600€.
 
  • Gefällt mir
Reaktionen: SweetOhm
Quidproquo77 schrieb:
Ich bin ja auch gewechselt, weil ich unbedingt RT wollte und so haben das vermutlich auch viele andere gemacht.

Das hört sich ja fast so an, als ob RT auf AMD unbrauchbar wäre, was einfach nicht stimmt. Wenn man sich das P/L ansieht, dann ist im Low und Mid Segment die RT Leistung absolut kompetitiv. Dafür gibt es ja den passenden Artikel hier auf CB:

1000016615.png

Gerade unter 500€ gibt es bereits die 7800XT, wer da zu nVidia greift, überfordert sich selbst, weil sowohl RT als auch Rasterleistung deutlich höher ist. Da kann man doch ein marginal schlechteres Upscaling absolut in Kauf nehmen.

Quidproquo77 schrieb:
Also im 100-250 Euro Segment würde ich dir recht geben.

500€ ist das neue 250€. Daran muss man sich gewöhnen.

Quidproquo77 schrieb:
Sind Fanboys und dafür gibt es überhaupt keinen Anhaltspunkt.

Das habe ich nicht behauptet. Es sind entweder wenig informierte, Vorurteilsbehaftete oder Gewhonheits-Käufer. Das war meine Aussage.

blackiwid schrieb:
Ihr scheint die Gen nur daran zu bemessen

Ich bemessen eine Generation ausschließlich an der Leistung. Der Preis ist schließlich flexibel und Empfehlungen können sich sehr schnell ändern. Aber ja, AMD ist generell häufiger die bessere P/L Wahl.
 
  • Gefällt mir
Reaktionen: MiroPoch und SweetOhm
Wolfgang schrieb:
gerade in hohen Auflösungen
Klartext! So wie ihr getestet habt. 4k oder höher.

Die wenigsten haben hier einen 4k Monitor. Alles darunter ist quatsch. In Competitive spielen sinnlos, da ist die Latenz und echte Bilder wichtiger! In gut optimierten Spielen mit guter Hardware unnötig weil da super hohe fps unnötig sind! Ich erinnere mich noch wie ihr über das 4k gequatsche geschimpft habt. Was seit einigen Generationen immer als Feature gebracht wird. Bei älteren Gens dann heimliche verschwindet... Es ist nur ein müder Versuch auf immer hochpreisigen Karten irgendwie spielbare fps in 4k hinzubekommen. Wie ich geschrieben habe. Wenn die Kohle in eine echte bessere Grafik gegangen wäre, als hier mit Tricks, immer neuen Problemen und wieder fixes dem Kunden einen mehrgewinn unter zu jubeln, wären allen geholfen! So wird Raytracing nicht über ein paar halbherzig Spiele und wenige Momente in diesen hinauskommen. Genau deswegen interessiert es ausser bei fanboys niemanden. Aber abseits davon. Toller Test und ich freu mich auf weitere Spiele. Wieso hat sich da eigentlich die Stimmung so verändert? Wo 3.1 Raus kam war die Stimmung so euphorisch!

Mfg
 
  • Gefällt mir
Reaktionen: SweetOhm
ElliotAlderson schrieb:
Und wenns nicht geht ohne die Grafikpracht schlechter zu machen und die Effekte runterzuschrauben (Alan Wake 2 hust)? Was dann?
Keine Ahnung was du meinst. Ich wünsche mir ja eine Verbesserung der Technik, was juckt mich dafür der Status Quo?
 
  • Gefällt mir
Reaktionen: SweetOhm
Das wichtigste für RTX 3000 und 2000er User. Man kann nun DLSS 3.7 Preset E mit FSR FG kombinieren. Danke dafür AMD. Eurer Upscaling wurde ich mir aber nie freiwillig antun. Da einfach minderwertig und Ghosting behaftet im Vergleich zu DLSS.
 
Samuelz schrieb:
Das wichtigste für RTX 3000 und 2000er User. Man kann nun DLSS 3.7 Preset E mit FSR FG kombinieren.
Da kann man nur hoffen, dass AMD da wieder einen Riegel vorschiebt, von Nvidia bekommt man auch nichts geschenkt.
 
Zurück
Oben