Test FSR 3.1 vs. FSR 2/3 vs. DLSS im Test: Vergleich zeigt Licht und nach wie vor viel Schatten

Wolfgang schrieb:
Hier ist sicherlich auch zu bedenken, dass aktuell alle FSR-3.1-Spiele von Nixxes sind. Kann also durchaus sein, dass sie generell noch etwas falsch gemacht haben (oder auch nicht, das werden die nächsten Spiele zeigen).
Dieses Ghosting-Problem darf so in den Spielen natürlich nicht vorkommen. Hoffentlich kann es später noch mit Updates gefixt werden.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle und SweetOhm
lynx007 schrieb:
Das wird vermutlich nie etwas, bis sie auch auf den AI Zug aufspringen. Ich mein, es ist wie Weich- oder Scharfzeichnen, ob gut oder schlecht, hängt halt vom Einsatzort ab. Das via Algorithmus zu machen, halte ich fürn Ding der Unmöglichkeit.

Also falls du dich damit auf Upsampling beziehst, dann ist das nicht richtig.
Das was du beschreibst hat mehr mit klassischen spatialen Verfahren ähnlich FSR1 zu tun. Auch vergleichbar mit dem simplen Upscaling das jeder Monitor oder TV macht.

Bei DLSS und FSR werden ab Version 2 die Daten von mehreren Frames miteinander verrechnet.
Das Prinzip dabei ist, wenn man eine Szene aus minimal anderem Blickwinkel neu aufnimmt, hat man zusätzliche Bildinformationen die für Upsampling und AntiAliasing genutzt werden können. TAA nutzt das gleiche Prinzip. FSR und DLSS sind das gleiche nur in sehr viel besser.

Man hat also quasi eine Mehrfachabtastung einer Szene über mehrere Frames hinweg. Früher hat man das in Form von Supersampling gemacht, indem man das Bild einfach in 2x, 4x oder 8x so hoher Auflösung berechnet hat (SSAA) Das kostet natürlich irsinnig viel Rechenleistung. Heute versucht man über Zeit an die nötigen Bildiformationen zu kommen, auf basis alter frames.
Die Mehrfachabtastung kann mit einem virtuellen Jitter der Ingame Kamera erreicht werden oder eben ganz einfach in Bewegung.

In Bewegung ist jedoch die Herausforderung, die sich bewegenden Objekte richtig zu Tracken und die sich verändernden Pixel richtig zu verwerten und zuzuordnen, um das aktuelle Bild mit den Informationen aufzuwerten. Je mehr Fehler hier passieren, desto unschärfer und/oder pixeliger wird das Bild.

KI wird genutzt, um genau diese Datenauswertung präziser zu machen. AMD muss mit dem klassischen non-KI Ansatz wahrscheinlich viele Samples verwerfen, weil sie nicht sicher richtig zugeordnet werden können. Nutzt man sie falsch, risikiert man ghosting, verwirft man sie, riskiert man Bildrauschen und Aliasing. KI ist in dem Gebiet eben deutlich leistungsfähiger.

Ich will nicht ausschließen, dass Nvidia KI Techniken nutzt, um direkt das Bild quasi via "Bildbearbeitung" aufzuwerten. Aber das wofür KI hier primär genutzt wird ist die Datenverarbeitung aus vergangenen Frames. Da gelangen klassische Algorithmen offensichtlich zu schnell an ihre Grenzen.

Ziel ist es also, aus vorherigen Bildern möglichst viele Bildinformationen korrekt auszuwerten und für den aktuellen Frame wiederzuverwenden. Je besser das gelingt, desto detaillierter wird das fertige Bild.

Dinge wie Scharfzeichner oder Kontrastverbesserung kommen - wenn überhaupt - erst ganz zu schluss. Im Idealfall ist sowas gar nicht nötig, da das nur neue Artefakte mit sich bringt.

Das positive an DLSS ist aus meiner Sicht eben, dass KI hier nicht zur Bildmanipulation genutzt wird und somit auch kein "KI look" entsteht, so wie bei manchen Upscaling Programmen für Fotos. KI wird hier wie gesagt meines Wissens nur dafür genutzt, um näher an das optimale Ergebnis zu kommen, indem einfach die Verwertung von Bildinformationen aus alten Frames deutlich besser funktioniert. Die KI braucht daher auch nichts dazuerfinden oder zu halluzinieren, da die nötigen Informationen ja schon da sind. Sie müssen nur richtig genutzt werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn und Wanderwisser
ElliotAlderson schrieb:
Ich habe da lieber weiche Kanten.
Ich bin mir inzwischen nicht mehr so sicher. Spiele häufig Final Fantasy XIV. Das hat ziemlich schlechtes Anti Aliasing. Hatte dann AA zum Test mal ausgeschaltet und sofort war das Bild wesentlich schärfer. Der Nachteil, es flimmert teilweise ziemlich. Hat mich am anfang gestört, inzwischen habe ich mich aber daran gewöhnt.
Mit dem 7.0 Release hat es neue AA-Einstellungen bekommen und ich habe es dann nochmals versucht mit AA aber das schärfere Bild habe ich schlussendlich bevorzugt.

Aber, FF XIV ist sicherlich ein ziemlich schlechtes Beispiel. Wenn ich dann mal wieder zu einem neuerem Spiel dazukomme werde ich das nochmals neu evaluieren.
 
metoer schrieb:
Ehrlich gesagt halte ich diesen Test für etwas fragwürdig, mit nur 2 Titeln die jeweils ein Extrembeispiel darstellen. Wo ist Horizon FW, Spider-Man, The Last of Us?
Horizon Forbidden West ist wegen der Wasserdarstellung und dem ausfransen, bzw. Flimmern auch eine Art von "worst case" vs. DLSS. Ich persönlich bin eher der Meinung, dass sich unter dem Strich nix verbessert hat, da FSR nun mäßig bis enorm ghostet, und die Vorteile von den Nachteilen aufgewogen werden. Ist aber nur meine Meinung.
metoer schrieb:
Danke für den Test, aber wenn möglich beim nächsten mal mehr Spiele testen...
Wäre schon besser, aber am Fazit wird sich auch nichts ändern. FSR 3.1 wurde groß angekündigt, aber AMD vermied es das ordentlich zu launchen und zu bewerben als es dann fertig war. Die Gründe dafür sind deutlich, es ist einfach kaum besser, bzw. vielleicht sogar teilw. schlechter.
Mimir schrieb:
Das Bild ghostet mit FSR3.1 einfach permanent und fast überall, was eine richtig eklige unschärfe übers Bild legt. In Bewegung nochmals deutlich schlimmer als im Stillstand (die Bilder sind übrigens alle im Stillstand entstanden).
Das ist ja noch nicht alles. Ich hab das auch getestet und bei Forbidden West bröselt das Bild mit FSR zusätzlich, sodass ich selbst in 4K auf 28 Zoll den Unterschied mit Quality sofort sehe. AMD hat da wirklich noch einen langen Weg vor sich.
 
Zuletzt bearbeitet:
4k + Raytracing + DLSS und man hat aktuell wunderbare und performante Spiele. Und was bietet AMD? Rasterleistung ohne Raytracing mit zweitklassigem Upscaling! Dafür ist AMD dann aber auch noch weniger effizient. -.-
 
Nein, das, was ich beschreibe, hat mit Bildverarbeitung, war nur als einfaches Beispiel gedacht, was die Kernfaufgabe der GPU, das Pixelschubsen verdeutlichen sollte, wo man auch nicht immer weiß, was ist das beste. Und das können allein Algorithmen nciht bis nur schwer, in allen Situationen perfekt. Mehrer Frames erhöhen den Informationsgehalt nur … komplexer, nicht zwingend einfacher … Und hat auch nachteile, das mehrer Frames ja in der GPU aufgrund der Zeitkrikalität, nicht zur verfügung stehen. Deshalb auch AI... da hat man die "Frames" vieler andereer Versuche, mit drinnen. Als neuronaler "Hash", als Prüfsumme sozusagen... Ich hoffe ich bekommen jetzt nicht von AI spezialisten eine drauf.
Darum verwendet ja auch NV auch die AI.... Darum soll ja AI der neue "Scheiß" für viele ungelöste Probleme sein, wo ich via Trial und Error , neuronale Geflechte baue, die halt zur Lösung führen.

Woher soll der Algo wissen das es ein Zaun, und keine Blume ist? Das sind die klassischen Probleme, die wir auch schon von AA kennen, so alt wie AA und selbst mit DLSS zu lösen. Und AMD hat ja schon angekündigt, auch AI nutzen zu wollen. Es geht nur um Pixelschupsen, das mit der Bildbearbeitung war nur ein Beispiel, denn etwas anderes macht die GPU nicht, als Pixel zu verändern.


Das mit dem Weich, bzw. Schiffseigner, war einfach nur ein Beispiel, eine Anekdote, die mich an die Zeit als Fotograf oder einfach an das ripen eines Filmen erinnernt, wo auch da es kein ultimativen richtigen Weg gab, aber das das Bild halt möglichst gut aussehen soll. Ein scharfzeichner sorkt für schöne Texturen, hebt details vor, macht aber auch keine wo keine sind, sprich artefakte... und nen weichzeichner, der lässt details wieder verschwinden …

Beim Spiel will man halt auch manche Dinger nicht. Ghosting, Texturflimmern, Unschärfe, Artefakte, das sind ja auch alles Sachen, die so gesehen nicht so gedacht waren, aber wo die GPU einfach eine falsche Entscheidung getroffen hat. Eine AI hilft halt bei der Masse an Meta Informationen, richtige Schalter zu stellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eller und SweetOhm
ElliotAlderson schrieb:
@Mimir fairerweise muss man aber sagen, dass man das nur im Zoom sieht.
Der Unterschied ist auch ohne Zoom für mich sofort erkennbar.

Edit: Brauchst nicht antworten, habe gesehen, dass du es selbst schon gesehen hast.
Leider kann man Posts nicht löschen.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
B3rry schrieb:
Nutzt dir halt nichts wenn du dann trotzdem keine Hardware verkaufst und immer weiter an Boden verlierst.

Das würde AMD auch, wenn nVidia hinterher hinken würde. Die breite Käuferschicht ist Beratungsresistent und kauft trotzdem immer nur nVidia.

Und hier wird ja auch gerne so getan, als sei FSR komplett unbenutzbar. Ich sehe von den Problemchen im laufenden Spiel-Betrieb eigentlich nichts... das fällt einfach nicht auf, schon gar nicht ohne A-B-Vergleich. Aber ich bin ja auch nur ein alter Sack, also wer weiß. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: MegaDriver, Jagdwurst, daknoll und eine weitere Person
supertramp schrieb:
Irgendwie hinkt AMD seit jahrzehnten Nvidia hinterher. Egal was sie auch machen, Nvidia kommt dann sofort mit Besserem um die Ecke 😁
Habe das Gefühl, dass deren Schubladen voll sind und nur darauf warten.
Was hat es MAD gebracht Mantle rauszubringen?
Oder bei DX11 und DX12 erster zu sein?
Gar nichts
 
MaverickM schrieb:
Das würde AMD auch, wenn nVidia hinterher hinken würde. Die breite Käuferschicht ist Beratungsresistent und kauft trotzdem immer nur nVidia.
Wirklich? Oder wollen einige nicht wahrhaben, dass der Kunde das bessere Gesamtpaket kauft?

phanter schrieb:
Was hat es MAD gebracht Mantle rauszubringen?
Oder bei DX11 und DX12 erster zu sein?
Ich habe mir damals u.a. deswegen ne AMD Karte gekauft, aber wurde am Ende enttäuscht, weil Mantle den VRAM Verbrauch erhöhte und die meisten Karten davon dann kaum profitierten.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Wer zu Ampere und vor Allem zu ADA gegriffen hat, hat Alles richtig gemacht. Beim Refresh von AMD und RTX 5.xxx sehe ich bisher an Gerüchten Nix was mich heiss macht, alleine wenn ich mir den vermuteten Verbrauch anschaue. Am ehesten traue ich noch NV zu, dass sie wieder Was raushauen was ein "Habenwollen" auslöst. Allerdings bin ich auch nicht bereit jede Gen. 1,5k+ für eine GPU zu berappen ausser der Wiederverkaufswert hält sich im akzeptablen Rahmen wie bisher. Noch weniger käme zweitklassige Tec zu ähnlich hohen Preisen in Frage egal von Wem Diese kommt. Eine Karte mit deutlich über 300W im optimierten Zustand käme so oder so nicht in Frage. All in All ist ADA schon eine gute Wahl (gewesen), daher wohl auch die Preisstabilität, da hat sich ja kaum Was getan und AMD schwimmt wie immer im Kielwasser mit.

Bild_2024-07-19_142027132.png und AMDs Refresh von 7xxx soll ja einen ähnlichen Verbrauch haben bei weniger Performance und schlechteren Features.
 
ElliotAlderson schrieb:

Ja wirklich. War auch so zu Zeiten, als AMD klar vorne lag in allen Bereichen. Und ist auch da noch so, wo das AMD Pendant ganz klar die bessere Wahl ist, bspw. im Low-/Mid-Budget Bereich.

Selbst bei Leuten, die es besser wissen müssten, kommen dann irgendwelche Urban Legend Erklärungen von vermeintlich schlechteren Treibern oder Erzählungen von Leuten mit Problemen, die man um 50 Ecken kennen würde...
 
  • Gefällt mir
Reaktionen: MegaDriver, SweetOhm und daknoll
FSR überzeugt mich nach wie vor nicht. Braucht wohl noch einige Patches. Für mich nach wie vor keine Alternative zu DLSS.
 
MaverickM schrieb:
Das würde AMD auch, wenn nVidia hinterher hinken würde. Die breite Käuferschicht ist Beratungsresistent und kauft trotzdem immer nur nVidia.
Kannst du endlich mit dem Märchen aufhören ? Die Leute kaufen was besser ist und was mehr ihren Ansprüchen genügt. Die wenigstens kaufen sich eine Grafikkarte aus ideologischen Gründen wie du es scheinbar machst.
 
  • Gefällt mir
Reaktionen: Sepheta, Grestorn, Brrr und 3 andere
B3rry schrieb:
Die Leute kaufen was besser ist und was mehr ihren Ansprüchen genügt.

Nein tun sie nicht. Zahlen lügen nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm und bad_sign
@MaverickM Stimmt 92 % kaufen nur das was ihnen vorgegaukelt wird und wären mit AMD besser dran. Was zahlt dir AMD für sowas ?
 
MaverickM schrieb:
Das würde AMD auch, wenn nVidia hinterher hinken würde. Die breite Käuferschicht ist Beratungsresistent und kauft trotzdem immer nur nVidia.

Sorry, aber diese Argumention ist so pauschal auch Käse! Die Welt besteht nicht nur aus Fanboys! Das AMD zb bei CPUs jetzt auf Platz 1 hier steht,

1721393058524.png
das wäre vor 10 Jahren vermutlich noch undenkbar gewesen. Aber nach Bulldozer kam Zen, und nicht nur Zen, sondern auch noch Zen+, Zen2, Zen3.

Mittlerweile gibt es sogar wieder Businesslösungen mit AMD-Prozessoren! Bei GPU ist das nicht anders. NV liefert halt leider immer ab und hat mittlerweile einen Vorsprung. Das die Käufer beratungsresistent sein, ist einfach nur Fanboy Gelaber. Ja, es gibt die Roten, Blauen und Grünen. Aber es gibt auch Leute die heute nen AMD CPU nutzen, und vor 10 Jahren nie im Traum daran gedacht haben. Und genauso gäbe es auch die Leute, die eher zu AMD greifen würden, wen sie auf Augenhöhe mit DLSS, RT wären und zugleich nicht mehr aus der Dose saufen würden. Spielt sicher nicht für alle eine Rolle, aber doch, druchaus kaufen viele das für sich "bessere" Gesamtpaket. Und ich bin der letzte der denkt, man müsse NV bei ihren Mondpreisne noch pushen.

Einen Platzhrisch vom Thron zu stoßen ist nicht einfach. Aber sowohl ATI wie auch AMD, hatten richtig gute GPUs! Und das dann nicht "jeder" trotzdem zu NV gegriffen hat, lässt sich halt auch feststellen. Zwischen 2009 und 2013 zb! Warum ist AMD nicht vorn geblieben? Naja, NV hat offensichtlich nicht geschlafen... und 2019 haben sie wieder gut aufgeholt... auch 2022 gab es nen sprung... das geht aber nicht, wen alle immer nur NV greifen, komisch...



1721392850276.png
 
  • Gefällt mir
Reaktionen: SweetOhm, Jagdwurst und Eller
@B3rry
Was redest Du da für einen groben Unfug?
Wie wäre es, wenn man in meine Beiträge nicht Sachen hineininterpretieren würde, die gar nicht drin stehen?

Und lass das Plenken!
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben