Unnu schrieb:
Bzgl. FSR -> Damit hat AMD erstaunliches geliefert, was vor allem den Konsolen zu Gute kommen wird. Denn dort wird dieses Feature am nötigsten gebraucht. Die Graphik der PS5 und der XBOX wird damit nochmal einen gewaltigen Schritt machen, bzw. die "Schwuppdizität" des Spielgefühls auf 4K Fernsehern in bisher noch nicht gefühlte Bereiche befördern.
Meines Erachtens wird Zusatzleistung nachwievor überall gebraucht.
Erst wenn wir davon reden, dass wir in 4K 100Hz mit Pathtracing unterwegs sind und das mit einem einigermaßen gecleanten Bild, gehen wir in die Luxusschiene über.
Unnu schrieb:
Und dann ist dann auch letztlich nVidias downfall. GSynch war "besser" als FreeSynch. Auch Objektiv.
Allerdings hat AMDs Taktik hat letztlich dafür gesorgt, dass sich FS im Massenmarkt durchgesetzt hat.
GSync existiert immernoch. Für diejenigen, die einfach einen höhere Anspruch haben.
Passt doch...
Unnu schrieb:
Und das wird hier wieder so sein. RT hin oder her, DLSS 2.3, 3.0 4.0 etc. pp. sind wurscht. Die können genial sein und/oder werden. Egal! Auf den Konsolen und somit im Massenmarkt wird FSR den Ton angeben.
Die die einen höheren Anspruch haben, bleiben halt bei DLSS2. Wenn DLSS2 oder FSR2 unterstützt wird, ist die Integration des jeweils anderen Standards eine Kleinigkeit.
Unnu schrieb:
Ein paar Geeks werden motzen, nölen und die Überlegenheit preisen ... und so wie hier in den Foren Videoschnipsel oder, noch besser "Standbilder" posten um das ein oder andere Detail hervorzuheben, ...
Ja- Genau wie es diejenigen immer geben wird, die jetzt schon 8K haben wollen. 200Hz brauchen usw. usf.
Ist halt High- End, Hobby, Spinnerei. Soll jeder nutzen, was ihn glücklich macht.
Und hier geht es ja meines Erachtens nicht um Teams, die unterstützt werden wollen, sondern um die Technik.
Unnu schrieb:
Es wird nur nichts daran ändern, dass FSR2 die Totenglocke für DLSS bzw. Tensorcores in Gamer-GPUs läutet.
Das sehe ich anders. Dadurch, dass Du letztendlich die selbe Datenbasis an die APIs schickst, ist es egal, ob Du eine oder zwei oder sogar auch alle drei Upscaling- Technologien anbietest.
DLSS zu integrieren tut also nicht weh und liefert für alle Besitzer ab einer Grafikkartengeneration, die inzwischen dem vierten Geburtstag entgegenstrebt einen handfesten Mehrwert. Derjenige der DLSS 2 zuschalten kann, wird im Normalfall kein FSR2 aktivieren.
Unnu schrieb:
Schon alleine dass es auch auf älteren nVidia-GPUs läuft, im Gegensatz zu nVidias "eigener" Technologie (DAS muss man sich auf der zuge zergehen lassen ... !) ist ein Killerfeature.
Ja- Aber auch da haben diverse Publikationen ja viele Hoffnungen bereits wieder begraben, weil FSR2 derart Rechenaufwändig ist, dass wiederum ein großteil der älteren Install- Base dann wieder doch nicht profitiert.
Unnu schrieb:
Nicht unbedingt für GPU-Käufer, da werden wie immer die meisten nach wie vor nVidia kaufen, allerdings mit Sicherheit für Implemetierer!
(Da muss man nur mal einen Controller fragen, welche Technologie denn genutzt werden soll, eine die einen Bruchteil der Nutzer erreicht, oder eine die "alle" erreicht. ... go figure)
Siehe oben- Selektor integrieren und statt an Proxy- Library XY schicken, dann halt in der Pipeline an Library YZ.
Bzw. gleich eine abstraction Open Source API wie NVIDIA Streamline einbinden. Dann schickst Du den gleichen Input grundsätzlich nur an eine Schnittstelle und die verteilt dann an die gewünschten Bibliotheken.
Unnu schrieb:
Im B2B kann das anders sein / bleiben. Denn dort gelten andere Gesetzmäßigkeiten, siehe Cuda und PhysX.
Für die B2C Seite, bzw. den Massenmarkt ist der Drops gelutscht.
Wenn man sieht, wie wenig Artefakte und temporale Instabilitäten akzeptiert werden und man dafür lieber andere Bildschweiniereien inkl. erheblich eingeschränkter Performance bevorzugt, dann besteht auch die Möglichkeit, dass DLSS gerade so inzwischen in ein Akzeptanzfenster fällt, wohingegen FSR2 (noch) nicht in Frage kommt.
Muss man sich nur mal die Anzahl an Usern anschauen, die "Nativ" über alles setzen und alles andere als unspielbar bzw. unzumutbar bezeichnen.
Das sind die , die so an die normalen Fehler des nativen Renderings gewöhnt sind, dass sie völlig den Blick dafür verloren haben und sich durchgängig auf die (noch) existierenden Fehlleistungen von FSR oder DLSS konzentrieren, ohne wiederum zu gewichten, was diese Techniken besser machen.
Genauso, wie wir dem Trend zu einer Gewichtung in Richtung RT nicht entkommen werden, werden wir in Zukunft auch auf immer intelligenerte Verfahren treffen, um mit einer zu berechnenden Pixelmenge sparsamer umzugehen.
Man darf ja auch nie vergessen, wie rasend schnell dort der Fortschritt stattfindet, wohingegen das Rastern seit langer Zeit gefühlt in der Sackgasse steckt bzw. nur dahingehend vorankommt, dass man sich immer mehr Anleihen an Raytracing- ähnlichen Techniken nimmt....