News Fluid Motion Frames (FMF): AMDs DLSS-3-Konkurrent FSR 3 feiert überraschend Premiere

FightFear schrieb:
Ich kann nur dringend davon abraten die Treiber-Probeversion zu installieren.
Heißt nicht umsonst "Vorschau Version" , in den Releasenotes steht auch das es zu Bugs und technischen Problemen kommen kann und man die melden soll. Es wird mehrfach geschrieben "not Final". Solche Treiber sollte man auch nicht auf produktiven Systemen einsetzen.
 
Heißt nicht umsonst "Vorschau Version" , in den Releasenotes steht auch das es zu Bugs und technischen Problemen kommen kann und man die melden soll. Es wird mehrfach geschrieben "not Final". Solche Treiber sollte man auch nicht auf produktiven Systemen einsetzen.

Die Lektion habe ich gelernt und verinnerlicht :D
 
Laphonso schrieb:
Seit 2018 erzählen einige wie Du hier, das sei eine "Meinung".
Die Realität hat das längst widerlegt, dass das eine "Meinung" sei und hat mit Meinung gar nix zu tun, sondern ergibt sich zwangsläufig.


Das sieht jeder gfx Designer so. Alles, was sich delegieren lässt, spart Ressourcen.
RT ist längst die Zukunft für Gaming Grafik, die folgt nur dem Rest der Industrie (FIlm/Movie/CGI, Autos, CAD etc). siehe auch https://blogs.autodesk.com/design-studio/2020/07/21/the-holy-grail-real-time-gpu-ray-tracing/

https://blog.imaginationtech.com/why-gamers-and-developers-should-care-about-ray-tracing/
https://www.digitaltrends.com/computing/what-is-ray-tracing/

Raytracing hatten wir schon 1987 auf dem Amiga 500 in einer Demo.

Nun haben wir die GPU Power für die nächsten Evolutionsschritte.

Wie vor 5 (FÜNF!) Jahren schon geschrieben: Raytracing im Gaming ist gekommen um zu bleiben.

Falls Du es nicht mitbekomme hast, die Smartphone Industrie wird nun ebenfalls nachziehen.
https://news.samsung.com/in/intervi...explain-ray-tracing-for-the-galaxy-s23-series

https://www.apple.com/de/newsroom/2023/09/apple-unveils-iphone-15-pro-and-iphone-15-pro-max/
https://www.techbook.de/mobile-lifestyle/smartphone/iphone-15-pro-gaming

Willkommen im "Raytracing wird Mainstream" Zeitalter :)
Das Ändert ja nichts daran, dass die Umfragen es hier in CB halt noch nicht so eindeutig sehen.

Und jetzt der Unterhaltungsindustrie jetzt alles nachzuplappern, was sie da alles so tolles erzählen (jetzt gar nicht mal nur auf Raytracing bezogen) ändert daran jetzt auch nichts;)
 
Casillas schrieb:
Das Ändert ja nichts daran, dass die Umfragen es hier in CB halt noch nicht so eindeutig sehen.
Es ging doch darum, ob es die Zukunft ist.
Was hilft dir da eine Umfrage dazu, wie viele es hier aktuell nutzen?

Machst du die Umfrage jedes Jahr und der Wert stagniert, dann könnte man es als Gegenargument sehen.

Wobei auch dann die Tatsache, dass jemand RT nicht nutzt, weil seine GPU nicht in der Lage ist, damit ausreichend hohe FPS zu liefern(dass die HW es generell könnte bedeutet ja nicht dass sie es zufriedenstellend kann), nichts damit zu tun hat, ob diese Person der Meinung ist, dass RT die Zukunft ist und sich vielleicht freuen würde, irgendwann eine bezahlbare GPU mit ordentlich RT Performance zu haben.


Die Umfrage letztes Jahr zeigt auch hier ein recht klares Bild über die Meinung der CB Leser:
1696011441443.png


Nur 5% sagen, dass es nicht die Zukunft sein wird, 12% sind bei einem Vielleicht, wenn sich die Umsetzung ändert.
44% sagen, es ist noch ein weiter Weg, aber sie sagen mit dieser Antwort ja auch aus, dass es immer mehr werden wird.
Und 38% sind bei einem klaren Ja.
 
  • Gefällt mir
Reaktionen: Balikon, Atnam und Apocalypse
Mimir schrieb:
Alter. :freak:

Wenn es sich anfühlt wie Wackelpudding, brauch ich keine Messwerte, um irgendwas zu beweisen. Es fühlt sich einfach nur scheiße an. Als hätte ich auf nem 60 Hz Display Vsync an gemacht. Das ist überhaupt kein Vergleich zu DLSS3.
Man muss doch nicht für jede subjektive Meinung einen "Beweis" bringen. Wie lächerlich ist das denn bitte? Wollen wir uns jetzt nur noch Zahlen um die Ohren hauen ohne zu bewerten, wie es sich anfühlt?

Dann warte halt einfach auf Tests.

Das Geforce Experience Overlay sagt, dass ich bei 130 FPS mit FSR3 ca 20 ms Latenz hätte und bei 80 FPS ohne FSR3 ca 10 ms.

Also das Verhältnis kommt hin. Der Inputlag ist mit FSR3 viel höher, das spürt man deutlich.
Aber absolut sind die Werte Unsinn, da selbst 20 ms sehr wenig sind. Der Inputlag mit FSR3 dürfte geschätzt im Bereich von ca 100ms liegen.
Wie gesagt, fühlt sich an, wie 60 Hz Vsync.

Das Overlay ist für messungen halt eher unbrauchbar. Es zeigt die Unterschiede immer ganz zuverlässig auf. Vsync, an/aus, Reflex an/aus, FPS limit an/aus. Das spiegelt sich alles wie es zu erwarten ist im Overlay bei der Latenz wieder. Aber ob der Bereich in dem das passiert stimmt, ist ne völlig andere Frage.
Schade. Klingt nach einer x-beliebigen Zwischenbild-Berechnung wie auch bei TVs zu finden. Da geht der inputlag auch ins unspielbare
 
Es ist doch relativ egal ob wir das wollen oder was wir meinen, wenn damit schneller (also mit weniger Geld) ein Spiel gemacht werden kann als mit Raster dann wird sich das durchsetzen.
Geld regiert nun mal die Welt.

Wenn es dabei noch besser aussieht, naja win/win.
 
Mimir schrieb:
Aber absolut sind die Werte Unsinn, da selbst 20 ms sehr wenig sind. Der Inputlag mit FSR3 dürfte geschätzt im Bereich von ca 100ms liegen.
Hätte mich auch sehr gewundert, wenn du 1. 20ms als Wackellpudding bezeichnen würdest und 2. einen Unterschied zwischen 10ms und 20ms bemerken könntest^^
 
  • Gefällt mir
Reaktionen: Mimir und NOTaNerd
cutterslade1234 schrieb:
Meine 6800er reicht mir in WQHD noch eine Weile ( hoffendlich bis zu den 8000ern)
Ach da mache ich mir zumindest keine Gedanken. Bei mir sind es ein paar Games, wo man in Sachen RT (starke) Abstriche machen muss, was aber schon beim Kauf klar war. Da die Implementierungen von RT teilweise aber auch rein optisch nicht so wirklich taugen bzw. verbuggt sind, juckt es mich nicht so sehr. Cyberpunk wäre mit einer potenten 4000er Karte schon nice, aber ansonsten passt die 6800er für mich in WQHD auch super. Genügend VRAM und bisher läuft noch alles auf Ultra (ohne RT oder niedrigem RT).

Auf FSR3 bin ich dann trotzdem mal gespannt. Wenn das gut hinhaut, dann kann ich auch mit der 6800 einigermaßen RT in Cyberpunk hinzuschalten. Ultra mit RT Beleuchtung spuckt bei spielbare 40-50FPS aus, mit FMF könnte das besser flutschen. Bisher bleibe ich beim Ultra Preset mit FSR Quality und hab rund 80FPS.
 
Hab mal Forspokem mit meiner 7900Xt angeschmießen, direkt mal ausversehen falsch einegstellt, hatte im Treiber ein Cut auf 60FPS. Zwar lief es mit FMF mit 60 fühlt sicher aber wie 30 an, denke das wird gemeint sein mit den man sollte min 50 nativ haben. Hab dann auf 120 eingestellt. Das Spiel lief dann mit 120-150 Fps und FSR auf Q bei 4k. Grafische Fehler konnte ich jetzt keine Feststellen. Die 99% FPS die Angezeigt werden fühlen dann auch danach.
Screenshot (15).jpeg
 
  • Gefällt mir
Reaktionen: Redundanz, PulsarS, ReignInBlo0d und 4 andere
Mimir schrieb:
Dann warte halt einfach auf Tests.
Mache ich immer und grundsätzlich.
Mimir schrieb:
Man ist immer nur so alt wie man sich fühlt. ;)

Meine erste kurze Erfahrung weicht halt stark von Deiner ab. Was ja sein kann. Eventuell ist doch ein Unterschied zwischen Radeon GPU/Nvidia GPU bei der Nutzung.
Bin noch nicht dazu gekommen das mit meiner eigenen RTX GPU zu testen.

Die von AMD erstmal selbst gemessene Latenz welche sie im Blog veröffentlicht haben, sieht halt erstmal nicht aus wie du es beschrieben hast.

Wie du es aber gesagt hast. Zahlen sagen oft nicht Alles und es war halt eine 7900XTX bei deren Messungen keine 4080.
 
  • Gefällt mir
Reaktionen: PulsarS, Balikon und Mimir
Verstehe die Mehrzahl an negativen Kommentaren hier ehrlich gesagt nicht wirklich.
FSR 3 und FMF als Option ist eine feine Sache, egal ob es nun schlechter, besser oder gleichwertig zu DLSS und FG ist.
Die Alternative für AMD Nutzer wäre halt garkein Upscaler und die native performance, auch fine, dann müssen die Details halt mal runter gestellt werden.

Genauso dieses ewige Geweine wenn in einem Spiel mal kein DLSS am Start ist... muss schon weh tun wenn man schon die Nvidia tax draufzahlt und dann nicht den proprietären Standard serviert bekommt..
Noch blöder wenn der ganze fancy Kram dann nur für aktuelle Generationen freigeschaltet ist und man alle 2-3 Jahre eine Niere für eine Graka ausgeben muss.

Ich bin froh das es FSR als kostenfreie Alternative gibt, sicher ist die Qualität nicht auf DLSS Niveau und wird es auf absehbare Zeit auch nicht sein, dafür ist der Standard wenigstens offen. Und wenn es scheiße aussieht wird halt nativ gezockt, im Zweifel auch mit niedrigeren Details :)
 
  • Gefällt mir
Reaktionen: Bierliebhaber, PulsarS, Marflowah und 12 andere
Casillas schrieb:
Das Ändert ja nichts daran, dass die Umfragen es hier in CB halt noch nicht so eindeutig sehen.

Das sind aber 2 verschiedene Dinge. :)
Ich hatte schon verstanden, was Du meinst, aber daher wollte ich das differenzieren. Man kann RT persönlich für total egal und unwichtig halten, aber das hat mit der Realität der Gamingindustrie dann erstrmal nix zu tun dann.
Diese Liste ist halt die Basis, mit der man untermauern kann, dass wir nicht über Meinungen sprechen bzgl. Raytracing im Gaming:
https://www.rockpapershotgun.com/confirmed-ray-tracing-and-dlss-games

Wir haben nicht mehr Winter 2018 und, siehe oben, mittlerweile wird nicht mehr über die Besonderheit berichtet, dass die "großen" Titel Raytracing haben, sondern wenn sie diese NICHT haben.

Alleine an diesem Schwenk der Berichterstattung - auch hier in der ComputerBase (plus den schion lange um RT erweiterten Testparcours!) - erkennt man, dass Raytracing bei der AAA Gaming Gattung längst Mainstream wurde und wird.

Dass AMD mit FSR3 nun ENDLICH die eigene FG Lösung mitbringt, wird die Tür 2024 für Raytracing noch weiter aufstoßen.
(Auch wenn ich die eher noch sparsame RT Effekt Nutzung in AMD sponsored Titeln persönlich nicht so abfeiere, aber RNDA 4 kommt ja auch irgendwann)
 
  • Gefällt mir
Reaktionen: Eidgenosse und rumpeLson
NOTaNerd schrieb:
Man ist immer nur so alt wie man sich fühlt. ;)

Sorry, war auch nicht so gemeint. Habe heute wohl nen etwas kurzen Geduldsfaden. :p

Ich gehe stark davon aus, dass es auf ner aktuellen AMD Karte besser läuft. Zumindest hoffe ich das.

Aber wenn AMD das so für alle Karten veröffentlicht, dann solte es überall annehmbar laufen. Das ist dann eben die Erwartungshaltung.

Aber in ein paar Tagen wissen wir hoffentlich genaueres.
 
  • Gefällt mir
Reaktionen: NOTaNerd
Mimir schrieb:
Aber wenn AMD das so für alle Karten veröffentlicht, dann solte es überall annehmbar laufen. Das ist dann eben die Erwartungshaltung.
Offiziell bei der Vorstellung war es nie für alle Karten sondern für AMD ab RDNA1 und Nvidia ab 2000er womit das laufen sollte.
 
mtheis1987 schrieb:
Was ich so bissl als Salz in der Suppe sehe ist die Aussage seitens AMD das Frame Generation nur dann perfekte Ergebnisse liefern könne wenn die native FPS über 60 liegt.

"Though while FSR 3 will also work with a very broad range of hardware, we are still recommending to gamers that to experience an optimal and low-latency experience, they should always run at a minimum of 60 FPS before frame generation is applied. As hardware can vary, we suggest they should adjust other game graphics settings and upscaling quality to achieve this."

Quelle: https://gpuopen.com/fsr3-announce/

Ich vermute halt das sich da viele erhoffen das ein spiel welches vorher mit 30 FPS ohne alles lief, danach dann mit 60+ läuft und ein gutes Erlebnis bietet, wenn ich diese Aussage aber richtig interpretiere nimmt man damit höhere Latenz in kauf, was dann wiederum das Erlebnis trüben könnte.

Ich bin gespannt auf erste Testberichte zu den beiden Titeln und wie es sich gerade auch auf Mid und Low-End Karten sowie Handhelds nutzen lässt, also jene die am ehesten davon profitieren könnten.
Ist doch bei Nvidia ähnlich. Da sind es glaub 40-50 die offiziell empfohlen sind, aber von 30 raten die auch ab.
 
Dass FSR 3 mit FMF und erst recht FSR 2 mit FMF im Treiber nicht an DLSS 3.x mit Frame Generation herankommen werden, das war absehbar.

Dennoch finde ich es gut, dass AMD hier eine Alternative bietet, die auf allen Grafikkarten nutzbar sein wird, wenn sie in Spielen integriert wird.

Ansonsten wundere ich mich immer sehr, dass der ein oder andere noch Spaß beim Spielen hat, wenn er auf Zeitlupe in das Bild zoomt und nach Qualitätsunterschieden sucht. 😄
 
  • Gefällt mir
Reaktionen: PulsarS, SweetOhm, up.whatever und 14 andere
rooney723 schrieb:
Ich bin froh das es FSR als kostenfreie Alternative gibt, sicher ist die Qualität nicht auf DLSS Niveau und wird es auf absehbare Zeit auch nicht sein, dafür ist der Standard wenigstens offen. Und wenn es scheiße aussieht wird halt nativ gezockt, im Zweifel auch mit niedrigeren Details :)
Diese Denkweise ist mir schon immer ein Rätsel. Warum stellt man "offenen Standard" über die Endqualität? Das ergibt doch überhaupt keinen Sinn. Warum will ich unbedingt etwas haben, was qualitativ einfach deutlich schlechter ist, nur weil "hauptsache offener Standard"? Wir reden hier ja nicht einmal von Kleinigkeiten, über die man hinwegsehen könnte.

Ich garantiere dir, dass AMD auch mit RDNA4 (vermutlich eher RDNA5) auf eine ähnlich proprietäre Lösung setzen wird, wie Nvidia mit DLSS. Es ergibt einfach keinen Sinn, das nicht zu tun. Außer, dass man Qualität auf der Strecke lässt und der Meinung ist, dass Quantität > Qualität. Aber so doof ist nicht einmal AMD.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR und rooney723
Zurück
Oben